Koralplay logo

Senior Data Engineer (H/F)

Koralplay
Full-time
On-site
Nantes, Loire-Atlantique, France
€60,000 - €75,000 EUR yearly
Senior Jobs

🧭 Contexte de recrutement

Dans le cadre de la croissance rapide de nos cas d’usage data (produits, analytics, intelligence artificielle, support, automatisation), nous recrutons un·e Senior Data Engineer afin de structurer, fiabiliser et industrialiser notre plateforme de donnĂ©es.

Ce recrutement a pour objectifs :

  • D’accĂ©lĂ©rer notre capacitĂ© d’analyse en temps rĂ©el,

  • D’amĂ©liorer la qualitĂ© et la fiabilitĂ© des donnĂ©es streaming,

  • De garantir la scalabilitĂ© de notre stack data avec une approche DevOps,

  • De rĂ©pondre aux besoins croissants des Ă©quipes mĂ©tiers avec des donnĂ©es fraĂźches et fiables.

🎯 Vos missions

Au sein de l’équipe Data, en lien Ă©troit avec les Ă©quipes Produit, Tech et Business, vous interviendrez notamment sur les missions suivantes :

  • Conception, dĂ©veloppement et maintenance de pipelines de donnĂ©es robustes, scalables et documentĂ©s (batch & streaming temps rĂ©el avec Kafka ou Ă©quivalent),

  • Architecture et implĂ©mentation de solutions de streaming de donnĂ©es pour les besoins mĂ©tiers critiques,

  • ModĂ©lisation des donnĂ©es dans le data warehouse pour en faciliter l’analyse (modĂšles mĂ©tiers clairs, maintenables et performants),

  • Mise en place de pratiques de data quality : monitoring, alerting, tests de fiabilitĂ©, observabilitĂ© complĂšte,

  • DĂ©ploiement et gestion de l’infrastructure data avec des pratiques IaC (Terraform) et CI/CD,

  • Gestion des environnements de dĂ©veloppement, staging et production avec sĂ©paration claire,

  • Contribution Ă  la dĂ©finition de l’architecture data, au choix des outils, et Ă  la structuration des bonnes pratiques d’ingĂ©nierie DevOps.

Collaboration interne et externe :

  • Product Managers (besoins analytiques, instrumentation produit en temps rĂ©el),

  • Data Analysts (modĂ©lisation, visualisation, accessibilitĂ© des donnĂ©es streaming),

  • Software engineers (intĂ©gration de pipelines, logs, APIs, services, Ă©vĂ©nements temps rĂ©el),

  • Équipes DevOps/SRE (infrastructure, monitoring, alerting),

  • Fournisseurs de donnĂ©es (partenaires, APIs externes, flux streaming).

🔎 ResponsabilitĂ©s et autonomie

  • Forte autonomie attendue sur la conception et la rĂ©alisation technique des solutions streaming,

  • ResponsabilitĂ© de la fiabilitĂ© et de la performance des flux de donnĂ©es critiques en production,

  • Contribution aux arbitrages techniques et dĂ©cisions d’architecture,

  • Mentorat possible de profils juniors ou intermĂ©diaires,

  • Garantie de la scalabilitĂ© et de la rĂ©silience des systĂšmes data en environnement critique.

đŸ› ïž Environnement technique

L’ensemble de la nouvelle stack streaming est Ă  concevoir. Vous participerez activement aux prĂ©conisations et aux choix techniques sur :

  • Les technologies de streaming (Kafka, Pulsar, Kinesis, Pub/Sub
)

  • L’orchestrateur (Airflow, Dagster
)

  • Les outils ELT/ETL temps rĂ©el

  • Les bonnes pratiques de data engineering, observabilitĂ© et DevOps

La stack existante :

  • đŸ› ïž Infrastructure as Code : Terraform

  • 📩 Orchestration de conteneurs : Kubernetes

  • ☁ Cloud : Google Cloud Platform (GCP) - BigQuery, Vertex AI

  • ⚙ Orchestration & automatisation : GitLab CI/CD -> ArgoCD

  • đŸ§± ModĂ©lisation et prĂ©paration des donnĂ©es : DBT (Data Build Tool)

  • 🐍 Langage : Python

  • 📊 Visualisation : Looker Studio -> Metabase

  • đŸ’» Monitoring : Grafana, logs centralisĂ©s, alerting