Dans le cadre de la croissance rapide de nos cas dâusage data (produits, analytics, intelligence artificielle, support, automatisation), nous recrutons un·e Senior Data Engineer afin de structurer, fiabiliser et industrialiser notre plateforme de donnĂ©es.
Ce recrutement a pour objectifs :
DâaccĂ©lĂ©rer notre capacitĂ© dâanalyse en temps rĂ©el,
DâamĂ©liorer la qualitĂ© et la fiabilitĂ© des donnĂ©es streaming,
De garantir la scalabilité de notre stack data avec une approche DevOps,
De répondre aux besoins croissants des équipes métiers avec des données fraßches et fiables.
Au sein de lâĂ©quipe Data, en lien Ă©troit avec les Ă©quipes Produit, Tech et Business, vous interviendrez notamment sur les missions suivantes :
Conception, développement et maintenance de pipelines de données robustes, scalables et documentés (batch & streaming temps réel avec Kafka ou équivalent),
Architecture et implémentation de solutions de streaming de données pour les besoins métiers critiques,
ModĂ©lisation des donnĂ©es dans le data warehouse pour en faciliter lâanalyse (modĂšles mĂ©tiers clairs, maintenables et performants),
Mise en place de pratiques de data quality : monitoring, alerting, tests de fiabilité, observabilité complÚte,
DĂ©ploiement et gestion de lâinfrastructure data avec des pratiques IaC (Terraform) et CI/CD,
Gestion des environnements de développement, staging et production avec séparation claire,
Contribution Ă la dĂ©finition de lâarchitecture data, au choix des outils, et Ă la structuration des bonnes pratiques dâingĂ©nierie DevOps.
Collaboration interne et externe :
Product Managers (besoins analytiques, instrumentation produit en temps réel),
Data Analysts (modélisation, visualisation, accessibilité des données streaming),
Software engineers (intégration de pipelines, logs, APIs, services, événements temps réel),
Ăquipes DevOps/SRE (infrastructure, monitoring, alerting),
Fournisseurs de données (partenaires, APIs externes, flux streaming).
Forte autonomie attendue sur la conception et la réalisation technique des solutions streaming,
Responsabilité de la fiabilité et de la performance des flux de données critiques en production,
Contribution aux arbitrages techniques et dĂ©cisions dâarchitecture,
Mentorat possible de profils juniors ou intermédiaires,
Garantie de la scalabilité et de la résilience des systÚmes data en environnement critique.
Lâensemble de la nouvelle stack streaming est Ă concevoir. Vous participerez activement aux prĂ©conisations et aux choix techniques sur :
Les technologies de streaming (Kafka, Pulsar, Kinesis, Pub/SubâŠ)
Lâorchestrateur (Airflow, DagsterâŠ)
Les outils ELT/ETL temps réel
Les bonnes pratiques de data engineering, observabilité et DevOps
La stack existante :
đ ïž Infrastructure as Code : Terraform
đŠ Orchestration de conteneurs : Kubernetes
âïž Cloud : Google Cloud Platform (GCP) - BigQuery, Vertex AI
âïž Orchestration & automatisation : GitLab CI/CD -> ArgoCD
𧱠Modélisation et préparation des données : DBT (Data Build Tool)
đ Langage : Python
đ Visualisation : Looker Studio -> Metabase
đ» Monitoring : Grafana, logs centralisĂ©s, alerting