Aufgaben
- Mitarbeit an der Weiterentwicklung einer Azure-basierten Datenintegrationsplattform (Schwerpunkt Databricks und Unity Catalog)
- Konzeption, Implementierung und Betrieb von ETL- und Transformationspipeline
- Anbindung verschiedener Quellsysteme sowie technische Unterstützung bei der - Überführung von Daten in ein einheitliches Datenmodell
- Begleitung und Unterstützung weiterer Data Engineers bei der Anwendung von Standards, Wiederverwendung von Code und Sicherstellung einer konsistenten Transformationslogik
- Implementierung stabiler Datenextraktionspipelines sowie Sicherstellung eines kontinuierlichen und zuverlässigen Betriebs
- Übersetzung fachlicher Anforderungen in robuste und skalierbare technische Lösungen
- Erstellung und Dokumentation technischer Konzepte sowie Abstimmung mit technischen und fachlichen Ansprechpartnern
Profil
- Fundierte Erfahrung Python
- Erfahrung SQL, Spark
- Erfahrung im Erstellen von ETL-Pipelines
- Erfahrung mit Azure Databricks, CI/CD Pipelines, Git, idealerweise Terraform, Docker
- Englischkenntnisse
Benefits
- Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen
- Angenehmes Arbeitsklima
- Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche