Popular
Categories
Blog - Popular articles
Jobs in Germany
Wir suchen einen Python-Entwickler mit DevOps-Expertise zur Optimierung der Dateninfrastruktur und zur Unterstützung der Entwicklung eines modularen Kontrollzentrums für das Stammdatenmanagement.
Key Facts
Start: 01.04.2025
Duration: not known
Capacity: 90 %
Employment type:
Job site: Berlin
Job country: Deutschland
Ihre Aufgaben
• Entwicklung von REST-basierten und Kafka-basierten APIs für den Stammdatenzugriff und die Integration in andere Systeme mit Fokus auf Sicherheit
• Als Koordinierungsstelle für Deployment-bezogene Themen innerhalb des Projekt-/Produktteams fungieren, einschließlich Docker, CI/CD-Pipelines und Kubernetes-Aufgaben.
• Optimieren der Datenspeicher- und Abrufsysteme für Leistung und Effizienz
• Sicherstellung der Skalierbarkeit und Zuverlässigkeit der Dateninfrastruktur
• Koordination mit Data Scientists, Data Architects und anderen Data Engineers, um die Datengenauigkeit und konsistente Datenbereitstellung sicherzustellen, insbesondere im Zusammenhang mit Data-Governance-Entscheidungen.
• Identifizieren, entwerfen und implementieren Sie Prozessverbesserungen, einschließlich der Automatisierung manueller Prozesse, der Optimierung der Datenbereitstellung und der Neugestaltung der Infrastruktur für eine höhere Skalierbarkeit.
• Arbeiten Sie mit Stakeholdern zusammen, um sie in datenbezogenen technischen Fragen zu beraten und die Datenplattform an ihre Bedürfnisse anzupassen
• Bauen Sie Datenexpertise auf und übernehmen Sie die Verantwortung für die Datenqualität in den von Ihnen entwickelten Pipelines
• Unterstützung der projektbezogenen Koordination und Kommunikation zur Abstimmung mit den Teamzielen und -ergebnissen
Muss-Anforderungen
• IT-/Technik-bezogene Erfahrungen (z. B. akademischer Grad wie Bachelor oder Master) oder eine vergleichbare Ausbildung
• Mindestens 3 Jahre Berufserfahrung in der Entwicklung robuster Backend-Anwendungen in Python
• Fundiertes Verständnis der IT-Sicherheitsanforderungen und deren Umsetzung (z. B. Leitfäden für die sichere Entwicklung von Webanwendungen des Bundesamts für Sicherheit in der Informationstechnik – BSI), idealerweise im Kontext kritischer Infrastrukturen
• Fundierte Erfahrung mit Containerisierung unter Verwendung von Docker und Deployment-Pipelines in einer CI/CD-Umgebung, vorzugsweise Azure
• Fundierte Erfahrung in Kubernetes (einschließlich Helm Charts) und ArgoCD (oder ähnlichen GitOps-Tools)
• Fundierte Kenntnisse in Python für Backend-Dienste, vorzugsweise mit FastAPI oder ähnlichen Frameworks
• Kenntnisse in SQL (z. B. für Backend- und/oder ELT-Anwendungen), vorzugsweise PostgreSQL. Erfahrung mit gemischten OLTP/OLAP-Workloads ist ein Plus
• Fundiertes Verständnis von Microservices-Architekturen und ereignisgesteuerten Systemen
• Solide konzeptionelle Kenntnisse in Softwaredesignmustern, Skalierbarkeit und Continuous Integration-Praktiken
• Kenntnisse in Testautomatisierungs-Frameworks (z. B. JUnit, Cypress, Selenium oder Playwright)
• Praktische Erfahrung in der Arbeit in Scrum-Teams
• Kenntnisse in Englisch und Deutsch (C1-Niveau oder höher)
Kann-Anforderungen
• Erfahrung mit REST-basierten und Kafka-basierten APIs für den Stammdatenzugriff und die Integration mit anderen Systemen mit Fokus auf Sicherheit
• Erfahrung in der Koordination von Themen im Zusammenhang mit der Bereitstellung innerhalb von Projekt-/Produktteams (z. B. Docker, CI/CD-Pipelines, Aufgaben im Zusammenhang mit Kubernetes)
• Erfahrung in der Optimierung von Datenspeicher- und Abrufsystemen für Leistung und Effizienz
• Erfahrung in der Sicherstellung der Skalierbarkeit und Zuverlässigkeit der Dateninfrastruktur
• Erfahrung in der projektbezogenen Koordination mit Data Scientists, Datenarchitekten und anderen Dateningenieuren, um die Datengenauigkeit und konsistente Datenbereitstellung sicherzustellen, insbesondere im Zusammenhang mit Data Governance Entscheidungen.
• Erfahrung in der Identifizierung, dem Design und der Implementierung von Prozessverbesserungen, einschließlich der Automatisierung manueller Prozesse, der Optimierung der Datenbereitstellung und der Neugestaltung der Infrastruktur für eine höhere Skalierbarkeit.
• Erfahrung in der Beratung von Stakeholdern in datenbezogenen technischen Fragen und in der Weiterentwicklung der Datenplattform, um den Bedürfnissen der Stakeholder gerecht zu werden
• Erfahrung im Aufbau von Datenexpertise und Übernahme der Verantwortung für die Datenqualität der erstellten Pipelines
Weitere Informationen
Das Projekt beginnt am 1. April 2025 und endet am 31. Dezember 2025 mit einer potenziellen Verlängerung. Die Arbeit erfolgt zu 95 % remote, wobei eine 5-prozentige Präsenz vor Ort in der Zentrale in Berlin oder Neuenhagen erforderlich ist. Der Reiseaufwand ist mit 5 % minimal.
Let’s power the future together
From Business Case to Implementation: As a leading consulting firm for strategic transformations, we are a trusted partner for our clients—and for our employees. Responsible, high-performing, and always with a focus on people. #WeAreWavestone
With our 360° portfolio of consulting services, we combine top-tier industry expertise with a wide range of cross-sector skills, work interdisciplinary, and think outside the box. This allows us to offer our partner companies and freelancers comprehensive perspectives within our own projects, while also supporting them as a long-standing framework agreement partner in filling project vacancies—promptly and directly.
We look forward to hearing from you!
Your direct contact at Wavestone
Harnes Safic
Phone: -
E-Mail: [email protected]
Your job application has been sent successfully. Good luck!