Дополнительные ссылки При выполнении задания используйте дополнительные ресурсы:
- поднимаем elk в docker;
- поднимаем elk в docker с filebeat и docker-логами;
- конфигурируем logstash;
- плагины filter для logstash;
- конфигурируем filebeat;
- привязываем индексы из elastic в kibana;
- как просматривать логи в kibana;
- решение ошибки increase vm.max_map_count elasticsearch.
В процессе выполнения в зависимости от системы могут также возникнуть не указанные здесь проблемы.
Используйте output stdout filebeat/kibana и api elasticsearch для изучения корня проблемы и её устранения.
Не используйте директорию help при выполнении домашнего задания.
Задание 1 Вам необходимо поднять в докере и связать между собой:
- elasticsearch (hot и warm ноды);
- logstash;
- kibana;
- filebeat.
Logstash следует сконфигурировать для приёма по tcp json-сообщений.
Filebeat следует сконфигурировать для отправки логов docker вашей системы в logstash.
В директории help находится манифест docker-compose и конфигурации filebeat/logstash для быстрого выполнения этого задания.
Результатом выполнения задания должны быть:
- скриншот docker ps через 5 минут после старта всех контейнеров (их должно быть 5);
- скриншот интерфейса kibana;
- docker-compose манифест (если вы не использовали директорию help);
- ваши yml-конфигурации для стека (если вы не использовали директорию help).
Перейдите в меню создания index-patterns в kibana и создайте несколько index-patterns из имеющихся.
Перейдите в меню просмотра логов в kibana (Discover) и самостоятельно изучите, как отображаются логи и как производить поиск по логам.
В манифесте директории help также приведенно dummy-приложение, которое генерирует рандомные события в stdout-контейнера. Эти логи должны порождать индекс logstash-* в elasticsearch. Если этого индекса нет — воспользуйтесь советами и источниками из раздела «Дополнительные ссылки» этого задания.
Как оформить решение задания Выполненное домашнее задание пришлите в виде ссылки на .md-файл в вашем репозитории.