Мы строим первый в Казахстане исламский цифровой банк, где технологии уважают традиции, а люди остаются в центре всего.
Сегодня Zaman Bank — это AI-ориентированный банк, в котором технологии помогают быть ближе к клиентам и создавать умные цифровые сервисы
Мы даём свободу инициативам, потому что именно так рождаются лучшие решения для сотрудников и клиентов.
Ищем Data-лида, который будет развивать команду и архитектуру данных, внедрять лучшие инженерные практики, обеспечивать качество и доступность данных, а также быть техническим лидером и ментором в области Data Engineering.
Чем предстоит заниматься:
-
Развивать компетенцию Data Engineering: формировать и развивать команду, проводить менторство, code review, организовывать обмен знаниями;
-
Определять и внедрять инженерные стандарты и best practices (codestyle, DAGs, тестирование, документация);
-
Проектировать и развивать архитектуру обработки данных на базе S3, Apache Iceberg, Spark/Flink/Trino, StarRocks/ClickHouse;
-
Разрабатывать и оптимизировать ETL/ELT-пайплайны (Airflow, Airbyte, PySpark, Flink);
-
Организовывать хранилища данных и витрины по подходам Kimball, Data Vault, Medallion;
-
Развивать Data Quality-контроли при загрузке и публикации данных (целостность, полнота, актуальность);
-
Участвовать в проектировании интеграций и API для безопасного и эффективного доступа к данным;
-
Вовлекаться в ключевые продуктовые направления — Data Platform, AI Platform, Scoring, обеспечивая инженерное качество и совместимость решений.
- 3+ лет опыта в Data Engineering (DWH, Data Lake, Data Lakehouse);
- Опыт лидерства и технического менторства (планирование/декомпозиция/оценка задач, развитие инженеров, code review);
- Отличное знание SQL (CTE, оконные функции, оптимизация запросов);
- Владение Python и PySpark (будет плюсом Scala/Java);
- Опыт работы с ClickHouse, PostgreSQL, S3-совместимыми хранилищами (MinIO, Ceph, Apache Ozone);
- Опыт использования Airflow, Airbyte и интеграции данных из различных источников;
- Опыт работы с CDC и near-realtime-потоками (Debezium, Kafka, Flink, Spark Streaming);
- Опыт работы Data Catalog (OpenMetadata, DataHub и др.);
- Понимание подходов моделирования данных (Kimball, Data Vault, Medallion);
- Знание и опыт работы с открытыми форматами таблиц (Apache Iceberg, Delta Lake, Apache Hudi);
- Понимание принципов Kubernetes, Docker, CI/CD;
- Опыт внедрения и эксплуатации платформенных решений в продакшене.
-
Команда профессионалов, где ценят инициативу, взаимное уважение и живую коммуникацию;
-
Свобода для идей — мы верим, что лучшие решения рождаются, когда людям дают пространство для творчества;
-
Современный стек технологий, включая AI решения. А еще проекты, в которых вы сможете влиять на архитектуру, процессы и развитие продукта;
-
Выбор формата работы по согласованию с руководителем ( офис Алматы/Астана или удаленка/гибрид);
-
Стабильность и прозрачность — оформление по ТК РК с первого дня, «белая» зарплата и понятная зона ответственности;
-
ДМС после испытательного срока и современная техника для работы.