EinleitungFür meinen Stammkunden suche ich einen Data Engineer (gn). Das international aufgestellte Hamburger Unternehmen beschäftigt insgesamt rund 2000 Mitarbeitende, davon ca. 60 innerhalb der IT.
Deine Aufgaben- Aufbau und Wartung effizienter und skalierbarer Datenpipelines zur Erfassung, Verarbeitung und Speicherung von Daten aus verschiedenen Quellen.
- Sicherstellung der Datenqualität, -integrität und -verfügbarkeit.
- Gestaltung und Implementierung von Datenbankschemata und -strukturen, die eine optimale Speicherung, Abfrage und Verarbeitung der Daten ermöglichen.
- Entwicklung, Verwaltung und Optimierung von ETL-Prozessen, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Zielsysteme zu laden.
- Sicherstellung einer zeitnahen und präzisen Datenbereitstellung.
- Nutzung von Snowflake und Azure Data Factory zur Verwaltung cloudbasierter Data-Warehouse- und Datenintegrationsprozesse.
- Sicherstellung einer effizienten Datenspeicherung und -zugänglichkeit.
- Integration von IoT-Daten mithilfe von Azure IoT Hub, um eine Echtzeit-Datenverarbeitung und -analyse zu ermöglichen.
- Implementierung und Verwaltung von Daten-Workflows mit Apache Airflow, um ETL-Prozesse und andere datenbezogene Aufgaben zu automatisieren und zu steuern.
Dein Profil- Abgeschlossenes Bachelor-Studium in Informatik, Informationstechnologie, Ingenieurwesen oder einem verwandten Bereich.
- Mindestens 5 Jahre Erfahrung als Data Engineer oder in einer vergleichbaren Position.
- Fundierte Erfahrung mit Datenpipeline-Tools und -Techniken.
- Sehr gute Kenntnisse in Snowflake und Azure Data Factory.
- Erfahrung mit der Integration von IoT-Daten über Azure IoT Hub.
- Praktische Erfahrung mit Apache Airflow zur Workflow-Automatisierung.
- Expertenwissen in ETL-Prozessen und den dazugehörigen Tools.
- Starke SQL-Kenntnisse und Erfahrung mit relationalen Datenbanken.
- Vertraut mit Datenmodellierungsprinzipien und Best Practices.
- Erfahrung mit Datenvisualisierungstools, insbesondere Microsoft Power BI.
- Kenntnisse in Cloud-Computing-Konzepten, insbesondere Microsoft Azure.
- Erfahrung mit weiteren Cloud-Plattformen wie AWS oder Google Cloud.
- Vertraut mit Big-Data-Technologien wie Hadoop, Spark oder Kafka.
- Erfahrung mit Python oder anderen Skriptsprachen.
- Kenntnisse in Data Governance und Datenqualitäts-Frameworks.
- Sehr gute Deutsch- und Englischkenntnisse erforderlich.
Benefits- Eine unbefristete Festanstellung in Vollzeit (37,5 Std./ Woche bei Vollzeit)
- Flexibles Arbeitszeitmodell
- Eine hybride Homeoffice-Lösung (2-4 Tage Homeoffice/ Woche möglich)
- 30+ Urlaubstage
- Interne & externe Weiterbildungsangebote
- Urlaubsgeld, Bonuszahlungen, BAV & VWL
- Fitnessstudio vor Ort, Kantine mit Essenszulagen, Fahrtkostenzuschuss, Jobrad, Mitarbeiter- & Teamevents