
Линсофтверпродакшн
Middle+ / Senior Data-инженер
- Big Data
- pandas
- Математическая статистика
- SQL
- Git
- ETL
- Hadoop
- Java
- Python
- Groovy
- Atlassian Jira
- Atlassian Confluence
- Английский — B2 — Средне-продвинутый
«Lean Software Production» — глобальная ИТ-компания, которая занимается созданием ПО и формированием выделенных команд разработки. Мы являемся дочерней компанией компании «RedLab» и объединяем лучших экспертов со всего мира, для которых создание ИТ-продуктов — не просто работа, а дело всей жизни.
Для работы на разнообразных трендовых проектах, в том числе, международного уровня наша команда ищет специалиста Data-инженера для аутстаф направления.
«RedLab» имеет более 17 лет успешной деятельности на рынке РФ и СНГ. Мы создаем и внедряем уникальные ИТ решения для развития бизнеса ведущих компаний букмекерской и финансовой сфер и других сфер.
Последние 9 лет 100% наших сотрудников работают удалённо. Мы считаем, что работать нужно там, где удобно, а не под влиянием внешних факторов.
Мы ценим нашу команду, поэтому заботимся о том, чтобы сотрудники были полностью удовлетворены работой и приносили реальный результат нашим клиентам.
Предлагаем:
- полную занятость со стабильными выплатами;
-
оплату труда, соответствующую вашим навыкам и ожиданиям с реальной возможностью роста;
-
разнообразные трендовые проекты, в том числе, международного уровня;
-
полностью удаленный формат работы;
-
график 5/2 с гибким началом рабочего дня;
-
оформление по ТК или ГПХ с физ.лицом.
Задачи:
- Разработка, реализация и поддержка типовых интеграционных решений, на стеке технологий, принятых в команде. (Java, Groovy, Apache Nifi, Airflow).
- Оперативное реагирование на информацию о проблемах в зоне ответственности, выполнение типовых задач в установленный срок.
-
Поддержание в актуальном состоянии документации типовых интеграционных решений платформы больших данных.
-
Предоставление отчетности о своей деятельности начальнику отдела/ руководителю в порядке, установленном руководством.
Требования:
-
Общее представление о стеке технологий BigData.
-
Понимать различия работы между BigData и с данными обычного размера.
-
Знание SQL (индексы, функции, умение писать не сложные запросы).
-
Опыт работы с любой реляционной БД (Oracle, Postgres, MySQL, MsSQL, DB2 и т.п.).
-
Умение работать с Git (знание команд git pull/commit/push).
-
Опыт работы с любым графическим ETL инструментом (Apache Nifi, Airflow, Talend, Informatica, SAS и т.п.).
-
Представление о работе с Hadoop.
-
Понимание устройства HDFS, форматов данных.
-
Понимание работы с Hive или любого другого хранилища на основе Hadoop.
-
Опыт использования системами ведения проектов и документации.
-
Знания основ программирования (JAVA, Groovy, Python).
Этапы отбора:
-
Анкета;
-
Первичное интервью;
-
Техническое интервью;
-
Оффер.
Ждем в нашей команде!