Создаем и развиваем единую платформу Data Lakehouse
Это централизованная платформа для работы с данными. Информация туда
поступает непрерывно из десятков источников — это обеспечивает команда
Data Lake.
Hadoop (HDP3)
Hive
Spark
Airflow
NiFi
Python
JupyterHub
MLFlow
Minio (S3)
Развиваем с нуля хранилище операционных данных на MPP Greenplum
Добавлять новые данные туда смогут все пользователи — для этого
не придется писать код, а только заполнить метаданные. Такую
механику воплощает команда Operational DWH.
Python
Greenplum
PostgreSQL
Airflow
GraphQL
Hadoop
Hive
Spark
Data Vault 2.0
Развиваем ядро хранилища и общекорпоративные витрины данных
Команда Business Data Warehouse делает так, чтобы бизнес-слой DWH содержал
структурированные, консолидированные и качественные данные по основным
сущностям корпоративной модели банка, а также предоставляет удобные
инструменты для создания пользовательских витрин данных.
Greenplum
DBT
Airflow
Python
Развиваем хранилище для международной и российской регуляторной
отчетности
Мы используем строгую модель данных из хэдофиса в Вене для
регуляторного, финансового и управленческого учета.
За обновление, наполнение и качество данных отвечает команда
GDWH.
PL SQL
ElasticSearch
MS SQL Server
IBM WAS
ODI
Oracle DB
Grafana
Groovy
Gitlab
AirFlow
Управляем миграцией с SAS на альтернативную платформу
Команда SAS развивает инструменты для удобной работы с этой
платформой и наполняет хранилище данными. Но параллельно мы переносим все
критичные расчеты из SAS в новое аналитическое хранилище —
процессом управляет SAS Migration.
Hadoop
Hive
GreenPlum
DBT
SAS
Data Vault 2.0
Эффективно управляем мастер-данными и следим за общим качеством данных
Команда Data Management Services разрабатывает подходы к управлению
данными, в том числе внедряет концепцию Data Mesh, основанную
на продуктовом подходе к управлению данными. А еще
развивает и поддерживает системы, отвечающие за качество данных,
золотую клиентскую запись и справочные данные.
Ataccama ONE
PostgreSQL
Oracle
Создаем решения по управлению клиентскими данными
Команда CMDM создает с нуля новую, более производительную
и масштабируемую систему на основе потоковой обработки данных
на замену Ataccama One.
Java 17
Spring Boot 3
Kafka
Flink
JMS
REST
Liquibase
PostgreSQL 14
Kubernetes
Maven
Создаем платформу для обработки данных в реальном времени
С задержкой в доли секунды продуктовые команды могут без
использования кода загрузить данные, обработать их и выгрузить
в целевую систему. Эту возможность обеспечивает платформа, которую
развивает команда Streaming Data Platform.
Kafka 3+
Java 11+
Flink
Timescale
Kubernetes
Helm
Gitlab
ELK
Prometheus
Учимся и учим эффективно представлять данные
Настраиваем под себя Power BI и Apache Zeppelin — инструменты, которые
помогают исследовать и визуализировать данные. А еще делаем удобный
Каталог данных и развиваем Data Quality Service, где пользователи
настраивают проверки качества данных и могут оперативно следить за их
здоровьем
Power BI
Java
Spring
JavaScript
Kafka
Python
PostgresSQL
Gitlab
Kubernetes
ELK
Prometheus