Координировать и фасилитировать процесс сбора данных по всем информационным запросам (готовить форматы, каскадировать запросы, агрегировать ответы)
Анализировать причины возникновения отклонений от плановых показателей и мер предпринимаемых для устранения рисков
Разрабатывать, внедрять и постоянно улучшать методологии эффективности управления данными
Эффективно использовать имеющиеся и внедряемые информационные системы.
Развивать аналитическую функцию в логистике
Оптимизировать и направлять функции на повышение эффективности и прозрачности данных
Расчет простых проектов
Требования:
Образование не ниже среднеспециального. Наличие высшего образования приветствуется
Опыт разработки и оптимизации ETL/ELT конвейеров в Azure Databricks либо других аналогичных платформах (AWS Glue, GCP Dataproc, Apache Airflow + Spark) — не менее 6 месяцев
Практические навыки программирования на Python и SQL (знание PySpark приветствуется)