Data Engineer_RetailReporting
Откликнуться
  • Дата публикации:
    14.04.2021
  • Код вакансии:
    31022

Ищем Data Engineer'а, который станет частью команды «Retail Reporting»






  • Дата публикации:
    14.04.2021
  • Код вакансии:
    31022

Требования

Эта вакансия для тебя, если ты:
- работаешь с SQL на уровне написания сложных запросов: знаешь, что такое оконные функции, функции ранжирования, CTE;
- знаком с различными типами СУБД (SQL, NoSQL) и профилями их использования (OLAP, OLTP) и можешь аргументированно выбрать оптимальный тип СУБД под задачу;
- имеешь опыт работы с Airflow или любым другим оркестратором;
- пишешь код на Python, пользуешься GIT, знаешь, что такое Unit-тесты;
- используешь Hadoop, знаешь, как работает YARN, как эффективно хранить данные на HDFS, пишешь запросы в Hive;
- пишешь прозрачный читающийся код, разделяешь его на классы, применяешь паттерны;


Опыт работы: минимум 2-3 года в области создания/обогащения витрин данных. Хорошее знание SQL – критично.

+ Будет преимуществом, если ты:
- знаешь банковскую предметную область (особенно в части Retail);
- имеешь опыт разработки/внедрения систем класса DWH;
- разбираешься в CI/CD практиках и инструментах;
- можешь продемонстрировать один из своих проектов на GitHub;
- пишешь код на Spark и можешь считать данные сервиса, используя его API, отсортировать, отфильтровать их и сохранить результат на HDFS;
- имеешь опыт работы с Kafka или другим Message Broker'ом и знаешь основные концепции потоковой обработки данных.

Обязанности

Какие задачи будут в работе:

a) Витрины данных
– проектирование, развитие и поддержка (Data Lake на Hadoop):
- подключение к Data Lake новых источников данных;
- создание витрин данных по бизнес домену Retail;
- настройка регламентной загрузки данных в витрины ;

b) Внешние интеграции:
- настройка процессов передачи данных из Data Lake в другие системы-потребители;
- поддержка регламентных процессов;

c) Работа над созданием аналитического ХД на базе GreenPlum:
- участие в проектировании аналитического ХД (Core, витрины);
- реализация процессов загрузки и трансформации данных (Core, витрины);

d) Развитие экосистемы Data Lake:
- проектирование инструментов, облегчающих работу других продуктовых команд с Data Lake;
- помощь платформенной команде в развитии Data Lake (настройка CI/CD, автоматизация работы с метаданными, пилотирование нового функционала и т.д.);

Наша вакансия подразумевает получение и применение уникального опыта в части построения ETL-пайплайнов на основе Open-Source технологий (Spark, Hadoop, NiFi, Airflow, Kafka, GreenPlum).

Условия

Мы тебе обещаем:
- эффективную среду для самореализации, профессионального роста и плодотворной работы
- культуру гибкого мышления, высокий уровень свободы и ответственности
- командную работу и поддержку
- регулярное посещение тренингов, митапов и конференций (в том числе как спикер) за наш счет
- гибкий график
- возможность удалённой работы
- отличный социальный пакет (ДМС со стоматологией, скидки на корпоративные продукты)
- отсутствие формализма и позитивный настрой
Откликнуться на вакансию
Ваше имя
Фамилия
Email
Телефон
Дата рождения
Город проживания
Гражданство
Ссылка на резюме
Если у вас нет резюме, заполните анкету
Область образования
Учебное заведение
Иностранный язык
Уровень владения
+ добавить поле
Удалить
Текущая/последняя должность
Опыт работы
+ добавить поле
Удалить
Дополнительное образование
+ добавить поле
Удалить
Иные заслуги
О себе
Отправить