Click— ведущая финтех-компания Узбекистана и обладатель лицензии №1 как «Платежная организация».Наша история началась в 2011 году с революционного стартапа, который впервые познакомил страну с мобильным банкингом. Сегодня Click — это национальная компания с мультифункциональной платформой Click SuperApp, которая объединяет финансовые, сервисные и бизнес-решения.
Руководство отделом дата-инженеров: постановка задач, приоритезация, контроль качества кода и сроков;
Наставничество: развитие компетенций инженеров, проведение code review, формирование культуры обмена знаниями;
Участие в формировании инженерных практик (best practices, стандарты, codestyle);
Проектирование и развитие Data Lakehouse (S3 + Iceberg + Spark/Flink + Trino/ClickHouse);
Организация слоёв хранения DWH (Data Vault 2.0);
Разработка и оптимизация ETL/ELT пайплайнов на PySpark/Flink и Airflow;
Развитие Data Quality в части загрузки данных и формирования витрин данных: контроль целостности, полноты и актуальности данных;
Участие в проектировании системных интеграций, API и сервисов для доступа к данным;
Плотная работа с Data Analysts, Product Analysts и Data Scientists для реализации витрин и моделей;
Совместная работа с DevOps и платформенной командой для обеспечения стабильности и мониторинга контура;
5+ лет опыта в Data Engineering, включая проектирование и развитие DWH/Data Lake/Data Lakehouse;
Опыт в роли тимлида или техлида (постановка задач, code review, развитие команды);
Глубокое знание SQL (CTE, оконные функции, оптимизация больших запросов);
Опыт разработки пайплайнов на Python + PySpark (будет плюсом знание Scala, Java);
Практический опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL;
Практический опыт работы с хранилищами S3: MinIO, Ceph, Apache Ozone;
Опыт работы с оркестрацией (Airflow) и интеграций данных из разных источников (БД, API, файлы);
Понимание современных подходов к моделированию данных: Kimball, Inmon, Data Vault, Medallion;
Опыт работы со стримингом (Kafka, Flink, Spark Streaming).
Знание и опыт с Apache Iceberg / Delta Lake / Hudi.
Опыт работы с Data Catalog (Open Metadata, DataHub, etc.) процессов.
Знание Kubernetes, Docker, CI/CD.
Опыт внедрения и эксплуатации платформенных решений в продакшене.
Участие в развитии комьюнити (конференции, митапы, open-source).
Работа в сильной и сплоченной технической команде.
Двигаемся в сторону дата-ориентированной организации.
Верим в факты, исследования и метрики, а не на слово.
Фокусируемся на ценностях для пользователя.
Свобода действий и возможность влиять на развитие бизнеса.
Гибридный формат.
Официальное трудоустройство по ТК УЗ.
Мы являемся резидентами IT-парка, что позволяет нашим специалистам получить IT-визу.
Возможность развивать личный бренд на конференциях, митапах и внутренних событиях.