Построения ETL-процессов выгрузки данных в Datalake (Hadoop)
Разработка процедур наполнения витрин данных
Создание оптимальных решений по преобразованию, расчёту и хранению данных
Оказание экспертной поддержки команде аналитиков
Что важно для нас:
Участие в проектах по созданию хранилищ данных/DWH/data lake от 2 лет
Опыт работы в роли разработчика Spark/pySpark, SQL, Hive не менее 2 лет
Глубокие знания core python
Понимание процессов разработки etl-pipelines в Airflow
Умение оптимизировать SQL-запросы
Умение проектировать и реализовывать процедуры и функции
Умение быстрого погружения в разработанный код
Дополнительные требования: английский на уровне чтения технической документации, опыт работы и настройки БД Greenplum и Clickhouse будет плюсом, опыт работы с брокером сообщений Apache Kafka
Высшее образование
Что предлагаем:
График работы 5/2 (пн-чт с 9:00 до 18:00, пт с 9:00 до 16:45)
Гибридный формат работы
Официальное оформление в соответствии ТК РФ
Конкурентный уровень дохода: оклад + премии
Медицинская страховка, страховка для выезжающих за границу
Доплата к отпускному и больничному листу
Дополнительные льготы при заключении брака и рождении детей
Социальная поддержка при сложных жизненных ситуациях
Льготное кредитование для сотрудников
Обучение в корпоративном университете банка
Корпоративная библиотека
Реферальная программа для сотрудников: приведи друга в ИТ и получи до 100 000 рублей