SGDSN logo

Data Engineer / Data Ops H/F

SGDSN
Contract
Remote
France

Vos missions en quelques mots

Mission et activités :

C'est au sein d'un SI en forte mutation technologique que vous participerez aux activités de développement, de déploiement, d’optimisation et d’exploitation des clusters de traitement. Dans un contexte opérationnel fort, proche des agents des services de renseignement, vous apporterez votre touche d’innovation pour accroitre l’efficience et la productivité des mises en production et des plateformes du GIC.

Vos missions consisteront notamment à :

· Implémenter, optimiser et maintenir des algorithmes de traitement de données,

· Participer à l’évolution de l’architecture, en intégrant de nouveaux composants (frameworks, bibliothèques, …) permettant de mieux répondre aux besoins,

· Assurer le déploiement et le maintien des plateformes Big Data,

· Assurer le recueil d’indicateurs de bonne santé ainsi que la mise en place de métriques,

· Interagir avec l’équipe DevOps pour améliorer la fiabilité des architectures et l’automatisation des déploiements,

· Assurer une veille technologique constante pour rester au plus haut niveau et garantir une adéquation des clusters existants avec l’état de l’art du domaine.

Vous pourrez également être amené à participer aux travaux de définition des conventions de l’organisme comme le design des architectures, la création de processus qualité, l’élaboration des bonnes pratiques, l’organisation du cycle de vie logiciel ou l’amélioration des méthodes agiles.

Profil recherché

Formation et expérience :

Diplômé d’un master ou d’une école d’ingénieur avec une spécialisation en informatique.

Expérience ou appétence marquée développement, architectures et le traitement Big Data. Expérience en lien avec les philosophies DataOps et/ou DevOps.

Savoir-faire :

Le poste requiert des connaissances générales avancées, en analyse et traitement de la donnée, en management des outils de la big data, et de son écosystème ainsi que l’architecture des environnements.

En pratique, vous serez amené à assurer le déploiement et le maintien des plateformes Big Data du GIC en s’appuyant très fortement sur l’automatisation. Vous devrez garantir la vision globale du périmètre couvert par les plateformes dont vous aurez la charge. Il vous faudra assurer le recueil d’indicateurs de bonne santé ainsi que de métriques ainsi que rendre possible des mesures de performances des dites plateformes.

Cela nécessite de maitriser, a minima, l’écosystème de développement nécessaire pour effectuer ces tâches (python, pandas, jupyter, ...) et de faire preuve d’esprit critique, de recul et de pragmatisme, quant aux solutions que vous proposerez.

Enfin, le déploiement des modèles ainsi imaginés au sein d’un écosystème Big Data représente un défi pour lequel il est également attendu que vous développiez des compétences (kafka, spark, hadoop, ...) afin d’aider et d’accompagner quotidiennement les équipes à mettre en place et maintenir les solutions existantes. Cela nécessitera également de respecter des pratiques de développement et organisationnelles partagées (git, code review, méthode agile, ...).

Une connaissance de la culture DevOps et des outils associé sera apprécié.

 Aptitudes recherchées :

· Esprit rigoureux et passionné capable d’investiguer, ou d’imaginer si besoin, des pistes d’analyse viables

· Capacité d’analyse

· Esprit d’équipe

· Sens du contact et de la communication

· Discrétion dans le traitement de sujets sensibles

Environnement technique :

- Environnement principalement Open source

- Langages : Python, PySpark (optionnel : Scala)

- Big data : Hadoop, Spark, ElasticSearch

- Bases de données et stockage : Maitrise du SQL, NoSQL

- Architecture : Kafka, conteneurs, CI/CD

- Gestion des configurations : Ansible, Puppet, Chef

- Script : Python, Bash

- Intégration continue : Git

Niveau d'études minimum requis

  • Niveau Niveau 7 Master/diplômes équivalents

Éléments de candidature

Documents à transmettre

Pour postuler à cette offre, l'envoi du CV est obligatoire
Apply now
Share this job