Стек: S3, СУБД, Kafka, Impala, Trino, Flink, Python, SQL, Iceberg
Чем ты будешь заниматься
- Развивать фреймворки для интеграции с источниками данных и построения витрин в Lakehouse
- Автоматизировать процессы разработки интеграционных потоков и внедрять шаблонные решения
- Выстраивать процессы взаимодействия между командами-производителями и потребителями данных
- Собирать и формализовать требования заказчиков/ключевых пользователей и транслировать их команде инженеров
- Тестировать реализованный функционал и демонстрировать результаты ключевым стейкхолдерам
Мы ожидаем
- Опыт работы в проектах построения Data Lake, DWH или Lakehouse не менее трёх лет
- Опыт руководства командой из пяти и более инженеров данных
- Продуктовый или тимлид-опыт в data-driven среде крупной компании
- Глубокое понимание механизмов интеграции (пакетной и потоковой), а также инструментов трансформации данных
- Техническую вовлечённость и способность работать руками