Рувики - это новый проект интернет-энциклопедии. Мы собираем и публикуем только достоверную информацию и создаем удобную информационную площадку для наших пользователей.
Мы ищем инженера-практика, который любит кодить, быстро проверять гипотезы и выводить сервисы на прод. Ваша зона ответственности — превращать возможности больших языковых моделей (GPT, GigaChat и др.) в реальные инструменты для редакторов и читателей.
Чем предстоит заниматься:
- Разрабатывать и поддерживать микросервисы и API на Python, которые интегрируют LLM-модели с контентной платформой Рувики.
- Создавать LLM-пайплайны для различных бизнес-задач: генерация справочных статей-заготовок, автоматический перевод, суммаризация, детектирование ошибок и вандализма, классификация контента.
- Использовать различные внешние API и сервисы для сбора информации.
- Встраивать AI-узлы в текущие автоматизированные процессы.
- Оптимизировать запросы (prompt engineering), подбирать температурные режимы, применять техники few-shot / RAG.
- Писать тесты, проводить эксперименты и проверять гипотезы.
- Работать с SQL-based базами данных.
- Проверять с продуктовой командой гипотезы и исследовать качество различных аспектов генеративных моделей.
- Мониторить и анализировать эффективности внедренных решений.
- Документировать свою работу и вести репозиторий.
- Работать в связке с менеджером по продукту, аналитиком и другими разработчиками.
-
3+ лет опыта продакшн-разработки на Python.
-
Опыт интеграции LLM-моделей** (OpenAI, Claude, YandexGPT, Llama 2/3 и др.) в рабочие сервисы — от прототипа до продакшн-релиза.
-
Опыт построения RAG-систем (Retrieval-Augmented Generation) от 1 года:
-
проектирование и реализация пайплайнов генерации ответов на основе внешних источников данных.
-
применение семантического поиска, re-rankers и гибридных retrieval-механизмов (вектор + текстовый / графовый поиск).
-
настройка chunk-разбиения, индексирования и контекстного извлечения знаний.
-
оценка и оптимизация RAG-систем по метрикам faithfulness, recall, precision@k.
-
интеграция RAG-компонентов с LLM-моделями через LangChain, LlamaIndex или собственные решения.
-
Понимание принципов prompt engineering, проектирование и настройка подсказок с примерами (few-shot, chain-of-thought).
-
Знание архитектуры REST/gRPC, принципов контейнеризации и DevOps.
-
Умение интерпретировать результаты работы моделей и оценивать их качество.
-
Понимание возможностей и ограничений LLM-моделей.
-
Высокий уровень письменного русского языка.
-
Английский — не ниже Intermediate.
-
Гибкость и умение работать без детального ТЗ.
Будет плюсом:
-
Опыт работы с MediaWiki или другими контент-платформами.
-
Опыт написания парсеров и работы с большими объёмами неструктурированных данных.
-
Понимание подходов knowledge graph + RAG, семантической индексации и reranking-алгоритмов.
-
Работа с векторными и графовыми базами данных (FAISS, Qdrant, Pinecone, Neo4j, ArangoDB и др.).
-
Проектирование связей между документами и построение графа знаний для улучшения качества генерации.
- Уровень дохода обсуждается с финальным кандидатом по итогам собеседования.
-
Интересные задачи, крутые кейсы, возможность выйти на новый профессиональный уровень.
-
100% «белая» заработная плата, официальное трудоустройство по ТК РФ с первого дня.
-
Полная занятость или комбинированный формат работы.
-
Пятидневная рабочая неделя, с пн-пт.
-
Шаговая доступность от метро Белорусская.
-
Дружный и неравнодушный коллектив профессионалов.
-
Программа ДМС после успешного прохождения испытательного срока.