Ищем MLOps-специалиста в команду Research and Development Фарпоста на задачи по разработке и внедрению продвинутых NLP-решений на основе LLM в продакшн.
Чем предстоит заниматься:
- Развертыванием и поддержкой высоконагруженных ML-сервисов для LLM с использованием vLLM, Triton Inference Server.
- Настройкой кластеров Kubernetes для динамического масштабирования под пиковую нагрузку (auto-scaling, resource optimization).
- Организацией CI/CD для ML-моделей и инфраструктуры (тестирование, деплой, версионирование).
- Мониторингом и обеспечением стабильности ML-сервисов (SLA >99.9%, latency optimization).
- Взаимодействием с Data Science-командой для оптимизации продакшн-моделей.
Стек:
Infra - Kubernetes, Docker, Ubuntu
ML Serving - vLLM, Triton Inference Server
CI/CD - GitLab CI/Jenkins/ArgoCD
MLOps Tools - ClearML
Monitoring - Prometheus/Grafana, ELK-стек
-
4+ года в MLOps/DevOps для ML-систем (Production).
-
Опыт с Kubernetes: настройка кластеров, Helm, обслуживание stateful-сервисов.
-
Навыки работы с vLLM/Triton для оптимизации инференса LLМ.
-
Знание Linux (Ubuntu) на уровне администрирования.
-
Продвинутые навыки CI/CD (пайплайны для ML, canary-деплой).
-
Практический опыт работы с LLM в продакшене (распределённые вычисления, батчинг, кэширование).
Будет плюсом:Опыт с vector database(qdrant)
Настройка GPU-кластеров (NVIDIA Stack, CUDA)
Знание Terraform/Ansible.
-
Заряженная, профессиональная команда.
-
Амбициозные задачи и все ресурсы для их решения.
-
Развитие и обучение: оплата внешних тренингов, семинаров и конференций, корпоративная библиотека.
-
Стабильность и прозрачность: официальное оформление, пересмотры зарплаты по итогам performance review.
-
Комфортные условия: гибкий график работы (удаленно/гибрид/офис), свободный дресс-код.