LogicLike - цифровая среда для развития логики и мышления детей и взрослых. Мы помогаем провести время за экраном весело и с пользой.
Наши продукты:
WEB платформа для детей 4-12 лет
App для детей 4-12 лет (iOS + Android)
App для взрослых (iOS + Android)
Месячная аудитория - 2 000 000 пользователей в 60 странах.
Мы верим в data-driven подход и развиваем собственную аналитическую платформу, чтобы лучше понимать наших пользователей и делать продукт мирового уровня. Наша команда небольшая, но сильная, и мы ищем человека, который станет участником нашей data-команды.
О роли
Мы ищем Data Engineer, который готов расти и развиваться вместе с нами. Вы будете работать в паре с ведущим DE и принимать непосредственное участие в развитии нашей self-hosted аналитической инфраструктуры.
Чем предстоит заниматься:
Разработка и поддержка ETL/ELT пайплайнов: Проектировать, создавать и сопровождать DAG'и в Apache Airflow для сбора и обработки данных.
Работа с данными в Lakehouse: Писать эффективные SQL-запросы к нашему хранилищу на базе Trino и Iceberg, моделировать витрины данных.
Создание и автоматизация отчетности: Разрабатывать и поддерживать дашборды в Apache Superset, отвечая на ключевые вопросы бизнеса и продукта.
Оптимизация и развитие: Участвовать в оптимизации запросов и улучшении архитектуры нашей аналитической платформы.
Наш идеальный кандидат:
Имеет опыт работы на позиции Data Engineer или Data Analyst (с инженерным уклоном) от 1 года.
Уверенно владеет SQL.
Имеете опыт написания скриптов для обработки данных (Pandas) и опыт создания DAG'ов для Apache Airflow.
Создавал дашборды в Superset, Metabase, Tableau, Power BI или аналогичном инструменте.
Знает, что такое модели данных, партиционирование, и зачем нужны витрины данных.
Готов разбираться в новых технологиях и не боится предлагать свои решения.
Будет большим плюсом:
Опыт работы с нашим стеком: Trino (TrinoDB/Presto), Apache Iceberg, Apache Airflow, Apache Superset.
Опыт работы с self-hosted инфраструктурой (Linux, Docker).
Интерес к сфере EdTech и мобильным продуктам.
Опыт анализа данных продуктовой аналитики (A/B-тесты, воронки, retention).
Наш стек:
Хранилище: S3, Apache Iceberg, PostgreSQL.
Движок запросов: Trino.
Оркестрация: Apache Airflow.
Визуализация: Apache Superset.
Инфраструктура: Docker, Kubernetes.
Что мы предлагаем:
Распределенная русскоговорящая команда из 40 человек. Можно работать из любой точки мира.
Работа с современным и востребованным стеком технологий в области данных.
Возможность работать полностью удаленно.
Отсутствие бюрократии и быстрые процессы принятия решений.
Возможность напрямую влиять на развитие продукта, которым пользуются миллионы людей по всему миру.
Хотите присоединиться к нам? Отправляйте свое резюме, и давайте знакомиться!
Москва
до 250000 RUR