About the job
Wir suchen einen Data Engineer mit starkem technischen Fokus auf Databricks, der Kunden beim Design, Aufbau und der Optimierung moderner Lakehouse-Plattformen unterstützt.
Kernaufgaben
- Konzeption und Implementierung von Databricks Lakehouse-Architekturen für Enterprise-Kunden
- Aufbau robuster Datenpipelines mit PySpark / Spark SQL und Delta Lake
- Entwicklung und Betrieb von ETL/ELT Workflows mit Databricks Workflows, Azure Data Factory oder vergleichbaren Tools
- Zusammenarbeit mit Stakeholdern zur Übersetzung fachlicher Anforderungen in technische Lösungen
- Beitrag zu Dokumentation, Enablement und Wissensaustausch im Team
Anforderungen
- Fundierte Erfahrung mit Databricks in produktiven Umgebungen
- Erfahrung mit Cloud-Datenplattformen, idealerweise Azure (ADLS Gen2, ADF, Key Vault, Entra ID)
- Gutes Verständnis moderner Datenarchitektur-Patterns (Medallion, Lakehouse)
- Sicheres Auftreten im Consulting-Umfeld: Kommunikation, Ownership, kundennahe Delivery
- Fließende Deutschkenntnisse
Wir bieten
- Mitarbeit an anspruchsvollen Data-Plattform-Projekten mit modernen Technologien
- Hybrides Arbeitsmodell und Flexibilität je nach Kundenanforderung
- Klare Entwicklungsperspektive (Lead / Principal Consultant)
- Attraktives Gehaltspaket plus Benefits
