Мечтай о большем с Napoleon IT
Мы — не просто IT-компания, а место, в котором искусственный интеллект объединяется с человеческим.
Мы - это более 250 сотрудников, 3 офиса в России, 3 разных направления развития: заказная разработка, outstaffing, собственные продукты.
Помимо уже существующих продуктов и решений на основе AI, мы активно развиваем разработку с использованием технологий LLM и Generative AI. Мы строим мультиагентные системы и платформенные решения для брендов, ритейла и маркетплейсов.
Реализовывая принцип LLM First, мы стараемся внедрять LLM-технологии во все внутренние процессы, чтобы освободить ресурс для смелых идей, уникальных проектов и амбициозных целей.
Наша цель — упростить доступ к передовым технологиям и позволить людям мечтать о большем, и для этого нам необходима твоя экспертиза.
Сейчас мы ищем SQL Developer (Senior) для участия в масштабном проекте по совершенствованию системы автозаказа и пополнения, с целью создания оптимального баланса товарных запасов и доступности в сети.
Что тебе предстоит:
-
Разработка и оптимизация SQL-запросов для работы с большими объемами данных.
-
Миграция DDL-объектов БД на SparkSQL и Trino (создание/изменение Iceberg таблиц, Kafka topics).
-
Разработка трансформаций данных с использованием DBT и Trino.
-
Создание и поддержка DAG'ов в Airflow.
-
Подключение источников данных как каталоги в Trino.
-
Настройка Trino и Airflow, при необходимости — переразвёртывание в Kubernetes с Helm.
-
Загрузка подготовленных вручную данных.
-
Помощь команде по SQL и архитектуре данных.
-
Опыт с Apache Spark (DataFrames, Spark SQL — базово).
-
Интеграция данных из разных источников (Hive, JSON, Parquet).
-
Нормализация и трансформация данных для аналитики.
-
Взаимодействие с аналитиками, Data Scientists и разработчиками.
Обязательные навыки:
-
Apache Iceberg — практический опыт в продакшене.
-
Trino — уверенная работа, включая адаптацию DBT.
-
Apache Airflow — создание и сопровождение DAG'ов.
-
Работа с Kafka (чтение/публикация топиков).
-
SQL: написание и оптимизация сложных запросов.
-
Опыт работы с распределенной архитектурой и большими данными.
-
Опыт с Apache Spark (DataFrames, Spark SQL — базово).
-
Интеграция данных из разных источников (Hive, JSON, Parquet).
-
Нормализация и трансформация данных для аналитики.
-
Взаимодействие с аналитиками, Data Scientists и разработчиками.
Плюсом будет:
-
Опыт работы с PostgreSQL (репликация, кластеры).
-
Форматы хранения: Parquet, JSON, Hive, HDFS.
-
Базовые знания Kubernetes, Helm (в связке с DevOps).
Мы предлагаем:
-
Оформление в аккредитованную IT-компанию;
-
Гибкое начало рабочего дня, гибридный график по согласованию с руководителем;
-
Индивидуальный план развития для каждого сотрудника с возможностью освоения новых технологий;
-
Насыщенная корпоративная жизнь: онлайн- и офлайн-квизы, выездные корпоративы, спортивные мероприятия, творческие тимбилдинги, тематические вечеринки и многое другое;
-
Оплата участия в профильных онлайн-конференциях (HighLoad++, Podlodka, Mobius и др.);
-
Компенсация курсов по изучению английского языка;
-
Компенсация расходов на покупку профессиональной литературы;
-
Доступ к курсам нашей объединенной IT-школы GIGASCHOOL.
Рассматриваем вариант удаленки в формате full time, либо гибридный формат работы в офисе