Мы развиваем интеллектуальное ядро для SaaS-платформы ресторанной аналитики. У нас есть работающий прототип, развернутая инфраструктура и база знаний.
Сейчас мы переходим от MVP к продукту, наша цель создать ассистента, который не просто отвечает на вопросы по
документации, а ведет полноценный диалог, помнит контекст беседы и оперирует "живыми" данными бизнеса.
Основная цель, превратить LLM из чат-бота в аналитического партнера. Ассистент должен понимать контекст, запрашивать актуальные метрики через инструменты (MCP), анализировать их и давать обоснованный ответ, сохраняя историю диалога.
Текущий стек:
- LLM Qwen 3.0 (локальный инференс)
- Выделенный сервер с GPU 2080 Ti
- RAG (Neo4j + ChromaDB)
- MCP для доступа с API аналитики
- Django/LangChain/LangGraph/Pydantic
- MLOps: MLflow, AirFlow
- Окружение: Docker, Linux, Git
Задачи:
Контекст и память:
- Управление контекстным окном: суммаризация истории, выборка релевантных веток диалога
- Реализация механизмов Short/Long-term memory, чтобы ассистент помнил суть беседы
Агенты и инструменты:
- Разработка MCP-сервера и инструментов для запроса метрик ресторанов (выручка, средний чек, фудкост)
- Обучение модели корректному вызову функций на основе намерений пользователя
Оптимизация и дообучение:
- Fine-tuning Qwen 3.0 под специфику ресторанной аналитики
- Оптимизация инференса и потребления VRAM (квантование, батчинг)
- Ведение экспериментов и версионирование моделей в MLflow
Поиск и качество:
- Настройка гибридного поиска: векторы + графовые связи в Neo4j
- Повышение релевантности выдачи при сложных запросах
- Внедрение метрик качества ответов и A/B-тестирование промптов/стратегий retrieval
Поддержка:
Наши ожидания:
- Запускали open-source LLM локально (не только API)
- Строили RAG: поиск + генерация ответа на основе данных
- Делали AI-агентов, которые вызывают функции / работают с API
- Интегрировали модели с БД (SQL, векторные, графовые)
- Реализовывали "умную" память диалога (не просто историю сообщений)
- Python: асинхронность, оптимизация, типизация на уверенном уровне
- Опыт работы с MLOps-инструментами (MLflow, AirFlow)
- Английский: чтение технической документации (B1+)
Будет плюсом:
- Опыт с Neo4j / графовыми базами
- Опты работы с MCP
- Проекты в аналитике, BI или FoodTech
Условия:
- Зарплата: от 200 000 до 280 000 ₽ на руки (обсуждается по итогам собеседования)
- Официальное трудоустройство в аккредитованной IT-компании
- Полная удалёнка + возможность работать из офиса на Петроградке (кофе, печеньки, обеды)
- Работа в режиме R&D: тестирование гипотез, минимум бюрократии
- Техническая свобода: готовы обсуждать и внедрять новые архитектурные и инфраструктурные решения
- Работа в команде разработки SaaS-платформы ресторанной аналитики