# Тестове завдання (HTTP+Kafka) Написати HTTP сервіс для фільтрації повідомлень з Kafka. Користувач може додати фільтр і система починає запам'ятовувати всі нові повідомлення, що підходять під нього, щоб пізніше повернути їх по запиту. Припущення: - в топіках текстові, а не бінарні дані (просто строки або JSON) - топіки мають один partition - "фільтр" це регістронезалежний пошук підстроки в повідомлення - відфільтровані повідомлення можна накопичувати в пам'яті процесу, не перекладаючи в окрему базу API має виглядати так: 1. Додати новий фільтр ``` POST /filter {"topic": "books", "q": "sicp"} ``` 2. Отримати список всіх існуючих фільтрів ``` GET /filter ``` 3. Отримання всіх відфільтрованих повідомлень з моменту створення фільтра ``` GET /filter?id=1 ``` 4. Видалення фільтра ``` DELETE /filter?id=1 ``` Вимоги: - код на гітхабі - README в якому написано як запустити, бажано одна команда - конкурентні запити в API мають працювати Ресурси: - кафку найпростіше підняти через Docker Compose як описано тут https://developer.confluent.io/quickstart/kafka-docker/ - зручний консольний клієнт до кафки https://github.com/edenhill/kcat