Яндекс Практикум

Автор на курс "Специалист по Data Science"

Не указана
  • Москва
  • Полная занятость
  • Гибкий график
  • От 3 до 6 лет
  • Apache Airflow
  • Scikit-learn
  • CatBoost
  • pandas
  • Numpy
  • PyTorch
  • MLflow

Можно совмещать с основной работой (от 10 часов в неделю)

Привет! На связи команда из направления анализа данных Яндекс Практикума. Мы готовим курс "Специалист по Data Science" и ищем авторов, которые поделятся своей экспертизой.

Яндекс Практикум — сервис онлайн-образования, где реально освоить востребованную цифровую профессию и найти стабильную работу. А технологии и команда экспертов помогают довести дело до конца.

Что делает автор:
  • Создает материалы для новых курсов в команде с другими авторами, методистами, редакторами, иллюстраторами и продактами программы.

  • Пишет тексты уроков, в которых поддерживает интерес студентов к обучению.

  • Улучшает существующий контент на основе обратной связи от студентов, экспертов сопровождения и редакторов.

  • Разрабатывает дополнительные материалы (тренажёр, чек-листы, тесты, памятки, квизы) и тестовые задания для проверки знаний.

  • Предлагает идеи, как улучшить усвоение материала.

  • Участвует в проектировании программы

Что вам понадобится для работы над курсом:

В рамках базовой программы "Специалист Data Science" мы разрабатываем уроки для следующих модулей:

1. Основы машинного обучения. Линейные модели (Знакомство с МО. Первая модель - Линейная регрессия, Логистическая регрессия, Метод опорных векторов (SVM))

2. Обучение моделей. Модели на основе деревьев и обучение без учителя (Решающее дерево, Random forest, Boosting and gradient boosting, Обучение без учителя)

3. Внедрение, мониторинг, AB-тесты моделей (Внедрение и мониторинг моделей, Формулировка гипотез, Анализируем результаты А/В тестирования с помощью Python, Подготовка к собеседованиям)

А в рамках расширенной версии программы мы разрабатываем уроки для учебных спринтов:

Обработка больших данных, Трекинг экспериментов в ML flow, Введение в глубинное обучение. Нейронные сети для изображений, Нейронные сети для текстов, Рекомендательные системы.

Авторы должны глубоко понимать одну или несколько тем, которые мы включили в программу (достаточна экспертиза в конкретной теме/инструменте из списка). Для этого необходим опыт работы со следующими инструментами:

1. Scikit-learn. Ожидаем, что ты активно используешь библиотеку для решения практических задач машинного обучения. Важно уверенно обучать и валидировать различные модели машинного обучения, выполнять предобработку данных, а также проводить отбор признаков и настройку гиперпараметров моделей.

2. XGBoost/LightGBM/CatBoost. Ожидаем, что ты знаком с особенностями каждой библиотеки, умеешь эффективно настраивать гиперпараметры с помощью Optuna, а также проводить интерпретацию моделей с помощью feature importance, permutation importance и SHAP для решения реальных задач.

3. Pandas и NumPy. Важно иметь опыт работы с табличными данными, уверенно использовать pandas для очистки и обработки данных, а также применять NumPy для векторизации вычислений.

4. MLflow. Здорово, если ты имеешь опыт трекинга экспериментов, логирования параметров, метрик и моделей с помощью MLflow. Важно понимание того, как использовать этот инструмент для построения воспроизводимых экспериментов, а также понимание общей культуры проведения экспериментов в разработке моделей.

5. PyTorch и Hugging Face. Для работы с DL ожидаем, что ты владеешь PyTorch, умеешь строить, обучать и настраивать архитектуры нейронных сетей (сверточные нейронные сети для изображений, рекуррентные сети и трансформеры для текстов). Также важно иметь опыт работы с Hugging Face для работы с современными NLP и CV моделями.

6. Apache Spark и PySpark. Ожидаем опыт работы с PySpark для обработки и подготовки больших данных для задач машинного обучения. Важно понимание архитектуры систем обработки больших данных и Apache Spark.

7. Airflow. Ожидаем, что ты умеешь создавать и автоматизировать процессы обработки данных с помощью DAG-ов в Apache Airflow. Важно, чтобы ты понимал, как реализовывать батч-инференс моделей через Airflow и имел представление о том, как использовать Airflow для построения систем мониторинга моделей.

8. RecSys. Ожидаем, что у тебя есть опыт разработки рекомендательных систем, включая гибридные подходы, матричные факторизации и content-based модели. Будет здорово, если ты владеешь библиотеками LightFM и Implicit, а также понимаешь, как оценивать качество рекомендательных систем.

А также:
  • Техническое образование (преимущественно в области ML).

  • Опыт работы Data scientist или на смежных позициях от 3-х лет.

  • Непреодолимое желание делиться знаниями и опытом, рассказывать сложное доступно и понятно. Так, чтобы вас поняли люди без опыта в этой сфере.

  • Умение грамотно и интересно писать, а где уместно — шутить, придумывать аналогии и метафоры, чтобы объяснить.

  • Дружелюбие и умение работать с командой сообща.

  • Опыт преподавания, публичных выступлений или авторства экспертных статей — будет преимуществом.

Что мы предлагаем?
  • Ежемесячное вознаграждение. Размер вознаграждения обсуждаем на собеседовании.

  • Удалённое сотрудничество. У нас нет офиса — мы все работаем из разных городов, стран и даже в путешествиях.

  • Возможность совмещать с другой работой. Мы предлагаем сотрудничество удалённо, от 10 часов в неделю. При этом нужно быть на связи в мессенджерах и иногда в Zoom.

  • Пополнение портфолио: мы выдаем сертификаты нашим экспертам о социально-полезной деятельности.

  • Возможность экспериментировать и принимать самостоятельные решения. Мы доверяем вашему опыту и не тратим время и силы друг друга на микроменеджмент.

  • Небольшую дружную команду, которая отвечает за создание и выпуск контента. Мы поддерживаем друг друга и любим шутить.