Yurt Tech

Дата-аналитик

Не указана
  • Астана
  • Полная занятость
  • Полный день
  • От 1 года до 3 лет
  • Аналитическое мышление

Обязанности

  • Анализ структур данных
    Изучение текущих моделей хранения и взаимосвязей данных в существующих информационных системах.

  • Работа с историческими данными
    Сбор, исследование и валидация архивных данных для построения улучшенных аналитических моделей.

  • Восстановление структур по НПА
    Анализ нормативно-правовых актов (НПА), включая требования к персональным данным, и формализация из них требований к структурам данных.

  • Проектирование объектов предметной области
    Формирование и декомпозиция доменных сущностей с учётом целей приёма, обработки, хранения и удаления данных.

  • Проектирование миграции данных
    Разработка стратегии и сценариев переноса исторических данных из устаревших ИС в новые платформы.

  • Проектирование механизмов обмена данными
    Определение форматов, протоколов и расписаний ETL/ELT-процессов для интеграции с внешними и внутренними системами.

  • Проектирование подсистемы НСИ (Нормативно-Справочной Информации)
    Создание модели справочников и мастер-данных, обеспечивающей единую точку истины для всего ландшафта приложений.

Требования

  • Опыт работы дата-аналитиком или инженером данных от 2 лет

  • Уверенные знания методов и инструментов аналитического моделирования (ER-диаграммы, UML, Data Vault)

  • Глубокое владение SQL (сложные запросы, оптимизация, window-функции)

  • Опыт проектирования и реализации ETL/ELT-процессов (Informatica, Talend, Apache Airflow или аналогичные)

  • Знание принципов data governance, GDPR / локального законодательства по защите ПД

  • Навыки построения хранилищ данных (Data Warehouse) и витрин (Data Marts)

  • Опыт работы с BI-инструментами (Power BI, Tableau, Qlik Sense)

  • Понимание основ программирования на Python или R для подготовки данных и автоматизации аналитики

  • Отличные коммуникативные навыки для взаимодействия с бизнес-стейкхолдерами и ИТ-командой

Приветствуется

  • Опыт работы в облачных платформах (AWS Redshift, Google BigQuery, Azure Synapse)

  • Знание инструментов потоковой обработки (Kafka, Spark Structured Streaming)

  • Навыки настройки систем мастер-данных (MDM)

  • Опыт работы с инструментами Data Catalog и Metadata Management

  • Сертификации по Data Management (CDMP, AWS/GCP/Azure Data)

    Условия:

  • Участие в создании инновационного продукта с нуля.
  • Работа в небольшой, но динамичной команде.
  • Возможность влиять на архитектуру и развитие проекта.
  • Уровень оплаты обсуждается индивидуально исходя из навыков и опыта работы кандидата.