Бишкек, улица Горького, 1/2
Мы расширяем наш AI-отдел и ищем Middle DevOps/MLOps инженера, который хочет работать над действительно современными и технологически сложными задачами. У нас не просто инфраструктура - мы строим платформу для запуска и масштабирования продвинутых AI-моделей, создаём собственные продукты в области искусственного интеллекта и используем максимально современный стек: Python-сервисы, Docker Swarm, K8S (Helm), HAProxy, Nginx, продуманные CI/CD пайплайны и высоконагруженные ML-модули, работающие на GPU и CPU.
У нас вы сможете работать над задачами, которые требуют реального понимания Computer Science, производительности и архитектуры распределённых систем - от оптимизации моделей до построения устойчивой инфраструктуры для их продакшн-инференса.
Если вам интересны сложные инженерные вызовы, хочется строить ML-платформы будущего и работать рядом с командой, создающей передовые AI-решения, - у нас вам точно понравится.
Чем предстоит заниматься:
DevOps:
- Проектирование, настройка и поддержка инфраструктуры на базе Docker Swarm и Kubernetes (Helm, deployments, services, ingress).
- Настройка CI/CD пайплайнов в GitLab (build/test/deploy).
- Конфигурирование и оптимизация Nginx как reverse proxy и load balancer.
- Настройка мониторинга, логирования и алертинга(prometheus, grafana, loki, sentry).
- Автоматизация развёртывания и внутренних процессов.
- Оптимизация производительности сервисов и устранение узких мест.
MLOps:
- Деплой и обслуживание ML‑моделей в продакшене.
- Настройка инференс‑пайплайнов на GPU/CPU.
- Контейнеризация моделей и оптимизация Docker‑образов.
- Настройка пайплайнов обновления моделей.
- Мониторинг производительности и стабильности инференса.
- Работа с Python‑микросервисами, интегрирующими ML‑модели.
Computer Science / Architecture:
- Понимание сетевых протоколов и принципов распределённых систем.
- Знание алгоритмов, оптимизации, принципов многопоточности и параллелизма.
- Анализ производительности: CPU, память, I/O.
- Умение диагностировать и устранять архитектурные и инфраструктурные проблемы.
Требуемый стек:
Обязательный:
- Python
- Docker / Docker Swarm
- Kubernetes + Helm
- Nginx
- GitLab CI/CD
- Linux (Ubuntu)
- Базовое понимание ML‑моделей и принципов инференса
Желательно:
- Опыт работы с GPU (NVIDIA, CUDA)
- Опыт с Triton, TorchServe, FastAPI inference endpoints
- Prometheus, Grafana, Loki, ELK
- Bash, Makefile
- Redis, PostgreSQL
Наши ожидания:
- От 2 лет опыта в DevOps/MLOps/SRE.
- Умение писать поддерживаемый код на Python.
- Глубокое понимание Docker: сетей, слоёв, оптимизации.
- Опыт работы с оркестраторами (Swarm, Kubernetes).
- Знание HTTP, WebSocket, TCP/IP.
- Понимание принципов CI/CD.
- Умение работать с высоконагруженными сервисами.
Что предлагаем:
- Конкурентную заработную плату с индексацией по результатам работы
- Оплачиваемый отпуск, больничные и комфортный рабочий график.
- Адекватное, лояльное и поддерживающее руководство, которое помогает развиваться, а не мешает работать.
- Атмосферу стартапа: быстрые решения, инициативность приветствуется.
- Возможность развиваться одновременно в DevOps и MLOps, прокачивая как инфраструктуру, так и экспертизу в ML-инференсе.
- Современный стек: Kubernetes, Python, GPU-инференс, high-load сервисы, потоковые ML-системы.
- Прямое влияние на архитектуру, выбор технологий и ключевые инженерные решения.
ОсОО Эверест Технолоджи
Бишкек
от 150000 KGS
ОсОО Умные Технологии
Бишкек
до 50000 KGS
ОсОО Ала Тоо Девелопмент
Бишкек
до 50000 KGS
Финансовый сервис О!Деньги (ОсОО Грин Телеком Сервис)
Бишкек
до 50000 KGS
Финансовый сервис О!Деньги (ОсОО Грин Телеком Сервис)
Бишкек
до 50000 KGS