Data Light

Data Engineer

150 000 - 190 000 RUR
  • Санкт-Петербург
  • От 1 года до 3 лет

Мы — data-компания.
Наш основной продукт — датасеты. Мы создаём, обогащаем и продаём данные для решения прикладных задач бизнеса.

Нам нужен Data Engineer, который поможет строить и поддерживать стабильные ETL-пайплайны для производства и доставки данных.

Это новая роль в отделе с высоким уровнем автономности Integrated Solutions & Automation.

Что мы предлагаем?

  • Полностью удалённая работа, рассматриваем кандидатов из разных стран. Любое оформление: по ТК РФ, по СЗ и др способы оформления.

  • Работа по графику МСК (5/2, гибкое начало дня).

  • Оклад 150 000 - 190 000 руб на руки.

  • Работа с талантливой и амбициозной командой в высокотехнологичной сфере.

  • Возможности для профессионального роста.

  • Культуру открытости, взаимопомощи. У нас работают увлеченные люди, небезразличные к тому, что они делают.

  • Насыщенную корпоративную жизнь и нетворкинг.

Кого мы ищем?

Не «исследователя», не ML-инженера и не архитектора DWH.

Нам нужен инженер, который:

  • любит системность;

  • аккуратно работает с данными;

  • умеет делать стабильные пайплайны;

  • не боится интеграций;

  • понимает, что данные — это продукт, а не просто таблицы.

Ожидаем уровень Middle (самостоятельное ведение задач, без постоянного контроля, но без проектирования всей архитектуры с нуля).

Обязательно:

  • 2+ года опыта в роли Data Engineer / Backend с сильным уклоном в работу с данными

  • Отличный SQL (сложные запросы, оптимизация, индексы)

  • Python для обработки данных и автоматизации

  • Опыт построения ETL-процессов

  • Понимание форматов данных (CSV, JSON, Parquet и др.)

  • Опыт работы с колоночными системами управления базами данных (ClickHouse и др.)

  • Опыт работы с реляционными БД (PostgreSQL, MySQL и др.)

  • Понимание принципов работы API и интеграций.

Будет плюсом:

  • Airflow / Prefect / Dagster

  • Работа с очередями (Kafka / RabbitMQ)

  • Облачная инфраструктура (AWS / GCP / S3-совместимые хранилища)

  • Docker

  • Базовые знания k8s

  • Опыт работы с большими объемами данных

Чем предстоит заниматься:

  • Разработка и поддержка ETL/ELT-пайплайнов;

  • Интеграция данных из внешних и внутренних источников;

  • Автоматизация процессов выгрузки и загрузки данных;

  • Настройка расписаний, оркестрация задач;

  • Контроль качества и полноты данных;

  • Мониторинг и поддержка пайплайнов в продакшене;

  • Документирование схем и процессов.

Этапы отбора: ответы на вопросы чат-бота, скрининг резюме, первичный созвон с HR, видео собеседование с лайв-тестированием.