Что предстоит делать:
- Разрабатывать и поддерживать ETL-пайплайны (основной стек: Airflow, DBT, Kafka, ClickHouse)
- Участвовать в миграции инфраструктуры в Kubernetes
- Работать над улучшением качества данных и моделей
- Оптимизировать процессы биллинга (обрабатывая миллиарды записей ежемесячно)
- Самостоятельно предлагать и внедрять улучшения архитектуры
Мы ждем, что у вас есть:
- Знание Python
- Опыт работы с Apache Airflow
- Практический опыт работы с ClickHouse, Amazon Athena (или Databricks, Hadoop и т. д.)
- Знакомство с BigQuery и Kafka
- Понимание форматов Parquet и Apache Iceberg, а также опыт работы с колоночными хранилищами данных
- Опыт использования DBT для трансформации и моделирования данных
- Понимание архитектур Data Lake и Lakehouse
Почему стоит присоединиться:
- Реальные инженерные задачи с высоким impact
- Команда экспертов, открытая к новым идеям
- Современный стек и подходы к работе с данными
Условия:
- Удаленка
- Оплата в валюте
Буду ждать вашего отклика!)
Москва
до 500000 RUR