Луна Кэпитал

AI / LLM Engineer​​​​​​​

Не указана
  • Москва
  • От 3 до 6 лет

О проекте

Ищем AI / LLM Engineer в команду, которая развивает AI-продукты и внедряет большие языковые модели в production-сервисы. Основной фокус — создание надёжных решений на базе LLM: от прототипирования до масштабируемых систем с контролем качества, latency и стоимости. Важно уметь превращать LLM-функциональность в стабильные продуктовые сервисы и выстраивать эффективные процессы работы с AI-инструментами (human + AI).

Задачи

• Проектировать и развивать LLM-based сервисы (RAG, AI-ассистенты, генеративные фичи);

• Интегрировать LLM API и open-source модели в backend-системы;

• Разрабатывать RAG-пайплайны: ingestion, embeddings, retrieval, reranking;

• Работать с vector DB (индексация, поиск, оптимизация);

• Развивать prompt management и evaluation (качество ответов);

• Оптимизировать latency и стоимость inference;

• Обеспечивать надёжность и безопасность (guardrails, fallback-стратегии);

• Настраивать мониторинг, логирование и поддержку сервисов;

• Взаимодействовать с продуктовой и ML-командой;

• Ежедневно использовать AI-инструменты для разработки: генерация и уточнение требований, подготовка документации, резюмирование встреч, анализ данных и логов;

• Разрабатывать и поддерживать промпты/шаблоны, систематизировать их и вести библиотеку артефактов (prompt library, best practices);

• Выстраивать hybrid-workflow (человек + AI) с обязательным review и контролем качества результатов;

• Закладывать механизмы контроля рисков LLM (галлюцинации, утечки, контекст, prompt injection) в архитектуру и процессы разработки.

Требования

Обязательно:

  • Коммерческий опыт разработки от 4 лет в одном из направлений: backend / ML / AI;
  • Сильный Python: уверенная разработка сервисов, интеграций, пайплайнов или backend-логики;
  • Практический опыт работы с LLM: через API и/или open-source модели;
  • Опыт внедрения AI / LLM-решений в production, а не только в формате PoC, pet-project или исследовательских прототипов;
  • Понимание и практический опыт построения RAG-систем: ingestion, chunking, embeddings, retrieval;
  • Опыт работы с vector DB и/или инструментами векторного поиска;
  • Понимание prompt engineering и умение проектировать устойчивые сценарии взаимодействия с моделью;
  • Базовое понимание ML / LLM-механики: embeddings, inference, ограничения LLM, причины галлюцинаций;
  • Опыт интеграции LLM-функциональности в backend / продуктовые сервисы;
  • Понимание ключевых trade-offs при разработке AI-сервисов: latency / cost / quality;
  • Опыт оценки качества AI-ответов: ручная валидация, метрики, eval-подходы, пользовательский или продуктовый фидбек;
  • Понимание способов повышения надежности AI-систем: guardrails, fallback-стратегии, grounding, structured output;
  • Опыт разработки: Git, code review, тестирование, логирование, сопровождение сервисов
  • Ежедневное использование AI-инструментов в разработке (анализ, генерация, автоматизация задач); - обязательно
  • Умение писать и поддерживать промпты/шаблоны, выстраивать и оптимизировать prompt workflows; - обязательно
  • Опыт ведения библиотеки артефактов (prompt templates, сценарии, best practices); - обязательно
  • Понимание рисков LLM (галлюцинации, утечки, контекст, prompt injection) и умение внедрять механизмы контроля и валидации; - обязательно
  • Опыт построения или участия в hybrid-процессах (человек + AI) с обязательным quality review. - обязательно

Будет плюсом:

  • Опыт работы с open-source LLM (LLaMA, Mistral и др.);
  • Опыт fine-tuning или адаптации моделей под прикладные задачи;
  • Опыт с NLP / ML за пределами простой интеграции LLM API;
  • Опыт построения более сложных RAG-сценариев: hybrid search, reranking, multi-step retrieval;
  • Опыт работы с фреймворками LangChain, LlamaIndex и аналогами;
  • Опыт работы с инструментами evaluation / observability для LLM-систем (например, LangSmith и др.);
  • Опыт оптимизации AI-сервисов по стоимости, скорости ответа и качеству результата;
  • Опыт работы с Docker / Kubernetes;
  • Опыт работы с AWS / GCP / Azure;
  • Опыт проектирования отказоустойчивых и масштабируемых AI-сервисов;
  • Понимание вопросов безопасности AI-систем, включая защиту данных, ограничения ответов и базовые риски prompt injection.

Этапы:

• Скрининг (30 минут);

• Техническое интервью (1 час 30 минут).

Условия:

• Работа в динамичной и инновационной IT-компании;

• Возможности для профессионального роста в AI-направлении;

• Дружный и поддерживающий коллектив;

• Конкурентоспособная заработная плата;

• Гибкий график и возможность удалённой работы;

• Интересные задачи на стыке AI, backend и ML.

⸻⸻⸻⸻⸻⸻

Пожалуйста, прикрепите к отклику скрининг по требованиям: отметьте плюсы напротив навыков, которыми вы владеете, и минусы – напротив тех, которых у вас нет. Это поможет улучшить и ускорить рассмотрение отклика.

Например:

  • Коммерческий опыт разработки от 4 лет в одном из направлений: backend / ML / AI; +
  • Сильный Python: уверенная разработка сервисов, интеграций, пайплайнов или backend-логики; +
  • Практический опыт работы с LLM: через API и/или open-source модели; +