GPTunneL — это быстроразвивающийся AI-хаб, объединяющий более 120 нейросетей и создающий инновационные решения для бизнеса и частных пользователей.
Мы строим инфраструктуру, которая помогает бизнесу безопасно и эффективно использовать генеративные модели в продуктах.
Наша цель — сделать работу с LLM предсказуемой, контролируемой и масштабируемой: от качества ответа до стоимости и соответствия требованиям.
Сейчас мы усиливаем нашу команду и ищем Python AI/ML Engineer, который поможет нам развивать ML‑ядро и пайплайны, улучшать качество моделей и внедрять решения в продакшн. Если вам интересно работать на стыке NLP, инженерии и продукта — будем рады познакомиться.
Чем предстоит заниматься:
Проектировать и разрабатывать пайплайны для работы с Large Language Models (LLM) — от прототипа до продакшена
Создавать AI-агентов — проектировать мультиагентные систем, оркестрацию, tool-use, планирование и memory
Разрабатывать и оптимизировать RAG / GraphRAG систем — строить retrieval-пайплайны, работать с векторными БД, графами знаний, chunking-стратегиями, re-ranking
Экспериментировать и исследовать — подбирать модели, prompt engineering, fine-tuning, оценивать качествао(evaluation pipelines)
Интегрировать модели в продуктовые сервисы через API, очереди, стриминг
Работать с данными — готовить датасеты, строить ETL-пайплайны для обучения и инференса
Что мы ожидаем:
Must have
Python — уверенное владение (3+ лет коммерческого опыта)
Глубокое понимание архитектуры Transformers (attention, tokenization, encoder/decoder, positional encoding и т.д.)
Практический опыт работы с LLM (OpenAI API, Anthropic, open-source модели — LLaMA, Mistral, Qwen и др.)
Опыт построения RAG-систем (векторные БД: Qdrant / Pinecone / Weaviate / Milvus, embedding-модели, retrieval-стратегии)
Понимание принципов GraphRAG — работа с графами знаний, entity extraction, graph-based retrieval
Опыт создания AI-агентов (LangChain / LangGraph / CrewAI / AutoGen или аналоги)
Знание фреймворков: HuggingFace Transformers, PyTorch
Опыт работы с LangChain / LlamaIndex или аналогичными фреймворками
Понимание принципов prompt engineering, chain-of-thought, few-shot, function calling
Умение работать с Git, базовое понимание CI/CD
Английский — чтение документации и статей свободно
Nice to have
Опыт работы с Diffusion-моделями (Stable Diffusion, SDXL, Flux, Midjourney API) — генерация изображений, fine-tuning (LoRA, DreamBooth, Textual Inversion), ComfyUI / A1111
Опыт fine-tuning LLM (LoRA, QLoRA, PEFT, RLHF/DPO)
Знание vLLM / TGI / Ollama для оптимизации инференса
Опыт работы с multimodal-моделями (GPT-4V, LLaVA и др.)
Знакомство с MLOps практиками (MLflow, Weights & Biases, эксперимент-трекинг)
Опыт работы с облачными GPU (RunPod, Vast.ai, AWS, GCP)
Понимание FastAPI / asyncio для построения высоконагруженных сервисов
Опыт работы с Neo4j / NetworkX для графовых структур
Публикации, open-source контрибьюции или pet-проекты в области AI/ML
Технологический стек
Python PyTorch HuggingFace LangChain LlamaIndex LangGraph FastAPI Docker PostgreSQL Redis Qdrant Neo4j vLLM Git
Условия:
Конкурентная заработная плата (обсуждается по результатам собеседования)
Работа с cutting-edge технологиями — никакого легаси, только передний край AI
Влияние на продукт — ваши решения идут в прод, а не в стол
Возможности для профессионального роста и участия в R&D
Команда, которая горит AI и делает крутые вещи
Откликайтесь или отправьте ваше резюме/CV и ссылку на GitHub (если есть) в тг нашему HRBP.
Будет плюсом: краткое описание самого интересного AI-проекта, над которым вы работали.
GPTunneL — мы делаем AI, который работает ⚡️