Références

Références 2018-03-27T13:46:00+00:00

SGCIB

Adaltas accompagne SGCIB, filiale de Société Générale, dans la création d’outils et d’algorithmes autour de la vision Client 360°:  clustering de clients en fonction de comportements d’achats, modélisation du coût backoffice des clients, modélisation de l’impact de publications/visites de sites sur les achats.

Big Data
Hadoop, Hive

Data Science
R, Shiny, C#

Renault

Renault a confié à Adaltas la mission d’évaluer son Data Lake afin de garantir la pérennité des projets et leur adéquation aux contraintes du client (financières, techniques, contractuelles …). Les recommandations sont construites sont plusieurs axes que sont la stratégie et la communication, la constitution des équipes et l’expérience utilisateur, la gestion de projets, les platformes, outils et composants, l’industrialisation de la Data Science, le socle infrastructure et la gouvernance.

Distribution
HDP, HDF

Autres
ElasticSearch,

Sécurité
Kerberos, SSL

EDF DSPIT

Adaltas fut commandité pour la mettre en oeuvre d’une offre de service Hadoop transverse au groupe EDF. Cette mission se poursuit à ce jour autour de l’industrialisation de l’offre Hadoop Hortonworks et ElasticSearch. Parmi les tâches accomplies, nous avons construit une supervision active basée sur Shinken et MongoDB capable non seulement de monitorer l’état des composants d’un cluster mais aussi de déclencher des actions de remise en activité de ces composants en cas d’interruption de service. En parallèle, il nous fut demandé d’accompagner les projets métiers hébergés par la plateforme. Nous avons ainsi façonné la mise en place du “DataLake” porté par EDF Commerce.

Distribution
HDP

Autres
ElasticSearch, Shinken, MongoDB

Taille
60 noeuds, 30 VMs

Sécurité
Kerberos, SSL

SoLocal

Adaltas a mis en place et sécurisé le cluster de production de SoLocal basé sur la distribution Cloudera. La mission porte à ce jour sur la maintenance du cluster en qualité opérationnelle ainsi que sur la migration des projets existants sur cette nouvelle instance. Après avoir installé des outils comme Docker, Mattermost, GitLab et Wekan, nous menons aussi une formation continue des équipes sur les composants Hadoop ainsi que sur les méthodologies DevOps.

Distribution
CDH

Autres
Docker, Mattermost, GitLab et Wekan

Air France

Adaltas fut commandité pour mettre en place une formation big data basée sur un cas d’usage métier de la compagnie aérienne. Après une étude préliminaire, la formation reproduisit en version simplifiée la chaine d’alimentation en temps réel des données clientes avec les technologies Spark Streaming, Kafka et Hbase.

Distribution
HDP

Autres
Spark streaming, Kafka, HBase

Ministère des Finances

Adaltas en partenariat avec GFI Informatique a conçut l’alimentation d’un “DataLake” en streaming. De plus, nous travaillons avec les data scientistes du client pour assurer le bon déroulement d’algorithmes exécutés avec le moteur Spark. Dans le cadre de cette mission, nous exploitons et sécurisons un cluster Hadoop de la distribution Cloudera.

Distribution
CDH

Autres
Spark, Spark Streaming, Kafka, HBase, TitanDB

Sécurité
Kerberos

Voyages-SNCF

Adaltas a présenté au client l’architecture d’un cluster Hadoop de type mutualisé basé sur la distribution Hortonworks. L’accent fut mis sur les différents scénarios d’intégration avec le SI du client ainsi que sur la mise en place d’un périmètre de sécurité et du logiciel Knox pour contrôler les accès.

Distribution
HDP

Autres
Knox

Silca

Adaltas a sécurisé avec Kerberos le cluster Hadoop de Silca basé sur la distribution MapR. En outre, nous avons mis en place des tests de monté en charge pour valider la performance de l’architecture du client basé sur OpenStack et le système de fichier Ceph.

Distribution
MapR

Environnement
OpenStack, Ceph

Banque de France

Adaltas accompagne la Banque de France dans la création d’une offre de service Big Data. Cette mission débuta par la mise à niveau et la sécurisation des plateformes HDP présentes, ainsi que par l’élaboration, l’accompagnement, et l’exécution de stratégies déploiement de nouvelles plateformes. Les tâches effectuées incluent le développement de modules de déploiement puppets, de scripts d’intégration entre la supervision Ambari et les outils existants de la banque, l’exploitation opérationnelle de toutes les plateformes HDP déployées, et l’accompagnement des entités métiers dans la définition de leurs projets Big Data et de l’utilisation de leurs outils. Aujourd’hui, nous participons à la mise en place du DataLake transverse à toutes les directions de la Banque de France.

Distribution
HDP

Autres
Knox