Мы создаем и развиваем корпоративный движок потоковой обработки данных на основе Apache Flink, который используется разработчиками банка для построения приложений обработки данных в реальном времени (фрод-мониторинг, скоринг, обогащение транзакций, расчеты)
Вы будете работать в команде, которая отвечает за фреймворк и платформенные возможности Flink. Мы не пишем бизнес-логику для конкретных сервисов, а создаем инструменты, лучшие практики и инфраструктурные компоненты, чтобы потребители (другие команды банка) могли эффективно, безопасно и надежно разрабатывать и эксплуатировать свои потоковые приложения в Kubernetes.
Задачи:
- анализ, проработка ТЗ и приемка реализации механизмов Stateful-обработки с использованием внешних State Backends (таких как S3-совместимое объектное хранилище, HBase, возможно Fluss) для сценариев соединения с большими справочниками и хранения состояния приложений
- проектирование решений для повышения отказоустойчивости и управляемости приложений (savepoints, автоскейлинг, восстановление)
- разработка требований к интеграции Flink-приложений с корпоративными системами: аутентификацией, секрет-менеджерами, системами логирования (ELK), метриками (Prometheus/Grafana)
- проработка требований к системе мониторинга состояния Flink-кластеров и джобов (метрики JVM, backpressure, checkpoint durations, lag)
- анализ и проектирование процесса управления жизненным циклом приложений (деплой, апгрейд, остановка) через специализированный корпоративный портал управления сервисами. Интеграция Flink JobManager/REST API с этим порталом
- выявление и формализация потребностей внутренних команд-разработчиков, создание подробной технической документации, чек-листов и best practices
- тестирование реализованных функций: разработка тест-планов, сценариев (включая негативные и нагрузочные), проведение приемо-сдаточных испытаний.
Мы ожидаем:
- опыт работы системным или бизнес-аналитиком от 4 лет, из них не менее 2 лет в области потоковой обработки данных или Big Data
- знание принципов работы систем мониторинга: Prometheus, Grafana. Умение читать и интерпретировать метрики
- продвинутый уровень SQL, умение работать с технической документацией (RFC, официальная docs)
- навыки декомпозиции сложных задач, построения процессов, отличные коммуникационные навыки для работы с техническими командами (разработчики, DevOps) и потребителями (data-инженеры)
- умение четко и структурно документировать требования в виде ТЗ/User Stories с критериями приемки.
Будет плюсом:
- глубокое понимание архитектуры Apache Flink: концепции операторов, state, checkpointing, savepoints, exactly-once семантика, роль JobManager/TaskManager
- практический опыт проектирования или эксплуатации Flink-приложений. Понимание проблематики хранения и восстановления состояния
- знание экосистемы Hadoop/ Big Data: HDFS, HBase, Kafka. Понимание принципов работы с объектными хранилищами (S3)
- опыт работы с Kubernetes: понимание основных концептов (Pods, Deployments, Services, ConfigMaps).
Мы предлагаем:
- комфортный современный офис: БЦ Даниловский форт, рядом с М.Тульская, Верхние котлы
- возможность выбрать удобный график – офис/гибрид
- ежегодный пересмотр зарплаты, годовая премия
- корпоративный спортзал и зоны отдыха
- более 400 образовательных программ СберУниверситета для профессионального и карьерного развития
- расширенный ДМС, льготное страхование для семьи и корпоративная пенсионная программа
- гибкий дисконт по ипотечному кредиту, равный 1/3 ключевой ставки ЦБ
- бесплатная подписка СберПрайм+, скидки на продукты компаний-партнеров
- вознаграждение за рекомендацию друзей в команду Сбера.