Обязанности:
-
Разработка и оптимизация backend-сервисов для работы с большими данными.
-
Взаимодействие с командой Data Engineers для создания ETL процессов и архитектур данных.
-
Проектирование решений для масштабируемости и производительности.
-
Создание и поддержка API для обмена данными.
-
Опыт работы с Big Data и распределёнными системами.
-
Уверенное владение языками программирования: Python
-
Знания технологий и фреймворков для работы с Big Data: Hadoop, Spark, Kafka, Flink и т.п.
-
Знания PostgreSQL (будет плюсом FAISS/Chroma/Qdrant)
-
Опыт разработки и интеграции REST API.
-
Понимание принципов работы систем распределённых вычислений и хранения данных.