Обязанности: Исследования и прототипирование
- Оценка и выбор актуальных LLM‑моделей (Llama‑2/3, DeepSeek, RWKV и др.)
- Проведение экспериментов с LoRA/QLoRA, P‑Tuning, Sparse Fine‑Tuning для русскоязычных и англоязычных кейсов
- Тестирование Retrieval‑Augmented Generation (RAG): настройка ретриверов (FAISS, pgvector, Milvus), подбор chunk‑размеров, топ‑k, re‑ranking
Инженерия и продакшн - Создание reproducible pipeline’ов (PyTorch + HuggingFace + Weights & Biases)
- Автоматизация оценки метрик (Correct Answer Rate, BLEU, BERTScore)
- Интеграция моделей в микросервисную архитектуру (FastAPI + gRPC) совместно с backend‑командой
Оптимизация и эксплуатация - Квантование (bitsandbytes, GPTQ) и профилирование на GPU A100/L4
- Настройка кастомного кеширования (vLLM, SGLang) для снижения латентности
- Внедрение мониторинга качества (drift, hallucination rate)
Сотрудничество - Работа в паре с AI Solutions Architect над дорожной картой
- Консультации геоданных‑эксперта по терминологии и тестовым кейсам
- Подготовка тех.‑документации и knowledge‑sharing с командой
Требования: обязательные требования:
- 3+ года коммерческой работы с DL/NLP
- Уверенное владение PyTorch и HuggingFace
- Опыт fine‑tune/LoRA‑обучения моделей ≥ 1 B params
- Знание принципов RAG, векторного поиска, индексации
- Умение писать чистый, тестируемый Python‑код
- Linux + Docker + Git на уровне everyday use
необязательные требования: - Опыт внедрения LLM в on‑premise окружениях
- Глубокие знания оптимизаций: kv‑кеш, kv‑compression
- Опыт работы с доменными документами (тех‑отчёты, буровые журналы)
- Публикации или участие в open‑source‑репозиториях
Условия: Оборудование
Корпоративный ноутбук M2/RTX 40xx + доступ к GPU‑кластеру A100 & L4
Премии
KPI‑бонус до 15 % годового дохода по итогам пилотов
Профессиональный рост
Бюджет 120 k ₽/год на курсы и конференции (ODS, NeurIPS Remote, MLRepa)
Отпуск
28 календарных дней + 5 «добрых дел» (DLP)