Ищем инженера, который обеспечит безопасность моделей машинного обучения и сопутствующей инфраструктуры. Вы будете выстраивать защищённые ML-процессы — от подготовки данных до продакшн-развёртывания — и предотвращать целевые атаки на модели и пайплайны автоматизации.
Чем предстоит заниматься:
- Участвовать в проектировании и развитии защищённой ML-инфраструктуры;
- Следить за безопасностью процессов подготовки данных, обучения и тестирования моделей;
- Внедрять безопасные практики на уровне CI/CD для ML (автоматизация, контроль доступа, политика);
- Работать над защитой моделей от целевых атак: data poisoning, inversion, leakage и др.;
- Проводить проверки безопасности (включая пентесты) и анализ уязвимостей в ML-компонентах;
- Помогать командам правильно применять политики и подходы к защите конфиденциальных данных;
- Участвовать в анализе инцидентов и формировании рекомендаций по устранению рисков.
Что мы ждём:
- Опыт в области ИБ, DevSecOps, разработки или Data Science от 3–5 лет;
- Опыт работы с ML-средами или интерес к их безопасности;
- Базовое понимание работы ML-моделей и их окружения (желательно: TensorFlow, PyTorch);
- Знание CI/CD-процессов и инструментов автоматизации (например, Teamcity, Jenkins, Airflow, MLflow);
- Знание контейнеризации и оркестрации (Docker, Kubernetes);
- Опыт пентестов, аудитов или управления уязвимостями будет плюсом;
- Умение анализировать архитектуру и находить риски;
- Готовность к работе в команде и взаимодействию с ML- и DevOps-инженерами.
Плюсом будет:
- Знание стандартов: OWASP ML Top 10 или других;
- Навыки threat modeling для AI/ML-систем;
- Опыт threat modeling для ML-продуктов;
- Знание специфических атак на ML: adversarial examples, model extraction;
- Опыт работы с MLSecOps-инструментами;
- Навыки работы с IaC-инструментами: Terraform, Ansible и др.