Au sein de la DSI de la branche Grand Public et Numérique, au sein de la Direction Data et IA Factory, nous recherchons un DataOps (F/H).
Le périmètre applicatif de l’intervention est le suivant :
· Un Datalake Cloudera en production, ingérant quotidiennement près de 550 « datasets » en provenance d’une cinquantaine de sources (froides et chaudes), supportant des usages financiers, commerciaux et opérationnels critiques pour le groupe La Poste,
· Les différents environnements d’homologation, de lab datascience et de pré-production,
Les outils associés (ordonnanceur, briques d’ingestion, de normalisation et de publication, applications de data visualisation, pipelines CI/CD, …).
Vos principales activités seront les suivantes :
· Supporter son Wagon dans les phases Build-Test-Release-support, POC, industrialisation des usages clients Big Data,
· Réaliser les déploiements (Hors Socle) pour les usages du Wagon auquel il a été délégué, dans les environnements de production,
· Réaliser les déploiements dans les environnements de validation,
· Etre le garant, au sein de son Wagon, de la cohérence des processus CI/CD (Hors Socle) et des autres règles de conformité Data en vigueur à la Poste (RGPD),
· Participation (en présentiel) aux cérémonies SAFe de son Wagon et du train DATA,
· S’assurer de la bonne mesure de la capacité à traiter.
· Environnements distribués : Eco-système Hadoop, de préférence Cloudera,
· Kafka, CFT,
· Spark,
· Outils de développement/déploiement/intégration : Ansible, Jenkins, Docker, Kubernetes,
· Programmation : Python et connaissance des librairies,
· Bases de données : Hive, MySQL, PostGreSQL, environnements distribués,
· Outils de datascience : Dataiku,
· Ordonnanceurs : Airflow,
· Expérience Infrastructure : OpenShift, BareMetal,
· Data Viz & Accelerateur: Tableau, Hue, Dremio,
· Programmation : Scala,
· Bases de données : Oracle, MariaDB,
· Format de données Json, csv,xml, Parquet,
· Jenkins, Nexus, Docker, Nginx,
· Logiciel de supervision : Centreon, Dynatrace, Prometheus, Grafana,
· Git / GitLab,
· VMware,
· Shell /Linux/Python,
· Connaissance des principes RGPD,
· Cyberwatch,
· Azure,
· AWX/Ansible ou Logiciel de Gestion de Flux de données tel NIFI,
Expérience des méthodologies SAFe.
De formation supérieure type BAC+5 (écoles d'ingénieurs et/ou parcours universitaires), vous avez une expérience en rapport avec les éléments décrits ci-dessous :
Savoir démontrer une capacité à travailler dans un environnement Agile,
Expérience supérieure à 2 ans sur les technologies On-premise,
Capacité de travailler dans un environnement complexe (type grand groupe).