Sie übernehmen eine Schlüsselrolle bei der Verarbeitung, Analyse und Verwaltung von Daten <\/li>
Eine Ihrer Hauptaufgaben ist die Entwicklung, Implementierung und Wartung von Datenpipelines und ETL -Prozessen zur effizienten Verarbeitung groÃer Datenmengen <\/li>
Sie automatisieren und optimieren ETL -Prozesse für hohe Skalierbarkeit und Effizienz <\/li>
Sie verwenden Datenbankmanagementsysteme innerhalb der Azure -Cloud Infrastruktur auf und verwalten diese <\/li>
Zu Ihren Aufgaben gehört die Zusammenarbeit mit Data Scientists und Stakeholdern, um datenbasierte Lösungen zu entwickeln und Analysen zu optimieren, sowie die Unterstützung bei der Integration von Datenquellen und die Sicherstellung der konstanten Datenqualität <\/li><\/ul> <\/span><\/div>
<\/div>
<\/div><\/span>
Voraussetzungen<\/h3>
Was bringen Sie mit? <\/h2>
Abgeschlossenes Studium in Bereich Informatik, Data Science, Mathematik oder einem ähnlichen Bereich <\/li>
Erfahrung mit Microsoft Azure, insbesondere im Bereich Cloud -Computing und Datenverarbeitung <\/li>
Kenntnisse in Datenbanktechnologien und Big -Data -Tools sowie Programmiererfahrung, idealerweise in Python <\/li>
Erfahrung im Bereich Data Science mit Schwerpunkt auf Datenarchitektur, Datenvorverarbeitung und Datenbereinigung von Vorteil <\/li>
Vertrautheit mit Git, Docker und der Arbeit in VSCode ist wünschenswert <\/li>
Fähigkeit, komplexe Probleme zu analysieren, kreative Lösungen zu entwickeln und kritisch zu hinterfragen <\/li>
Sie bringen Kommunikationsstärke in deutscher und englischer Sprache mit. Dabei setzen wir mindestens Deutschkenntnisse auf C1 -Niveau und Englischkenntnisse auf B2 -Niveau nach dem Europäischen Gemeinsamen Referenzrahmen (GER) voraus <\/li><\/ul><\/span><\/div>