О проекте
Ищем AI / LLM Engineer в команду, которая развивает AI-продукты и внедряет большие языковые модели в production-сервисы. Основной фокус — создание надёжных решений на базе LLM: от прототипирования до масштабируемых систем с контролем качества, latency и стоимости. Важно уметь превращать LLM-функциональность в стабильные продуктовые сервисы и выстраивать эффективные процессы работы с AI-инструментами (human + AI).
Задачи
• Проектировать и развивать LLM-based сервисы (RAG, AI-ассистенты, генеративные фичи);
• Интегрировать LLM API и open-source модели в backend-системы;
• Разрабатывать RAG-пайплайны: ingestion, embeddings, retrieval, reranking;
• Работать с vector DB (индексация, поиск, оптимизация);
• Развивать prompt management и evaluation (качество ответов);
• Оптимизировать latency и стоимость inference;
• Обеспечивать надёжность и безопасность (guardrails, fallback-стратегии);
• Настраивать мониторинг, логирование и поддержку сервисов;
• Взаимодействовать с продуктовой и ML-командой;
• Ежедневно использовать AI-инструменты для разработки: генерация и уточнение требований, подготовка документации, резюмирование встреч, анализ данных и логов;
• Разрабатывать и поддерживать промпты/шаблоны, систематизировать их и вести библиотеку артефактов (prompt library, best practices);
• Выстраивать hybrid-workflow (человек + AI) с обязательным review и контролем качества результатов;
• Закладывать механизмы контроля рисков LLM (галлюцинации, утечки, контекст, prompt injection) в архитектуру и процессы разработки.
Требования
Обязательно:
- Коммерческий опыт разработки от 4 лет в одном из направлений: backend / ML / AI;
- Сильный Python: уверенная разработка сервисов, интеграций, пайплайнов или backend-логики;
- Практический опыт работы с LLM: через API и/или open-source модели;
- Опыт внедрения AI / LLM-решений в production, а не только в формате PoC, pet-project или исследовательских прототипов;
- Понимание и практический опыт построения RAG-систем: ingestion, chunking, embeddings, retrieval;
- Опыт работы с vector DB и/или инструментами векторного поиска;
- Понимание prompt engineering и умение проектировать устойчивые сценарии взаимодействия с моделью;
- Базовое понимание ML / LLM-механики: embeddings, inference, ограничения LLM, причины галлюцинаций;
- Опыт интеграции LLM-функциональности в backend / продуктовые сервисы;
- Понимание ключевых trade-offs при разработке AI-сервисов: latency / cost / quality;
- Опыт оценки качества AI-ответов: ручная валидация, метрики, eval-подходы, пользовательский или продуктовый фидбек;
- Понимание способов повышения надежности AI-систем: guardrails, fallback-стратегии, grounding, structured output;
- Опыт разработки: Git, code review, тестирование, логирование, сопровождение сервисов
- Ежедневное использование AI-инструментов в разработке (анализ, генерация, автоматизация задач); - обязательно
- Умение писать и поддерживать промпты/шаблоны, выстраивать и оптимизировать prompt workflows; - обязательно
- Опыт ведения библиотеки артефактов (prompt templates, сценарии, best practices); - обязательно
- Понимание рисков LLM (галлюцинации, утечки, контекст, prompt injection) и умение внедрять механизмы контроля и валидации; - обязательно
- Опыт построения или участия в hybrid-процессах (человек + AI) с обязательным quality review. - обязательно
Будет плюсом:
- Опыт работы с open-source LLM (LLaMA, Mistral и др.);
- Опыт fine-tuning или адаптации моделей под прикладные задачи;
- Опыт с NLP / ML за пределами простой интеграции LLM API;
- Опыт построения более сложных RAG-сценариев: hybrid search, reranking, multi-step retrieval;
- Опыт работы с фреймворками LangChain, LlamaIndex и аналогами;
- Опыт работы с инструментами evaluation / observability для LLM-систем (например, LangSmith и др.);
- Опыт оптимизации AI-сервисов по стоимости, скорости ответа и качеству результата;
- Опыт работы с Docker / Kubernetes;
- Опыт работы с AWS / GCP / Azure;
- Опыт проектирования отказоустойчивых и масштабируемых AI-сервисов;
- Понимание вопросов безопасности AI-систем, включая защиту данных, ограничения ответов и базовые риски prompt injection.
Этапы:
• Скрининг (30 минут);
• Техническое интервью (1 час 30 минут).
Условия:
• Работа в динамичной и инновационной IT-компании;
• Возможности для профессионального роста в AI-направлении;
• Дружный и поддерживающий коллектив;
• Конкурентоспособная заработная плата;
• Гибкий график и возможность удалённой работы;
• Интересные задачи на стыке AI, backend и ML.
⸻⸻⸻⸻⸻⸻
Пожалуйста, прикрепите к отклику скрининг по требованиям: отметьте плюсы напротив навыков, которыми вы владеете, и минусы – напротив тех, которых у вас нет. Это поможет улучшить и ускорить рассмотрение отклика.
Например:
- Коммерческий опыт разработки от 4 лет в одном из направлений: backend / ML / AI; +
- Сильный Python: уверенная разработка сервисов, интеграций, пайплайнов или backend-логики; +
- Практический опыт работы с LLM: через API и/или open-source модели; +