Data Engineer (m/w/d)
.png)
Wir suchen eine:n Data Engineer (Mid-Level), der/die unsere interne Datenplattform weiter ausbaut und unsere Produktteams dabei unterstützt, datengetriebene Features schneller und zuverlässiger bereitzustellen. Du wirst Teil unseres Engineering-Foundation-Chapters und arbeitest eng mit DevOps, Product Engineers und weiteren Data Engineers zusammen. Gemeinsam entwickelt, betreibt und verbesserst du die Systeme, die unsere Produkte im Hintergrund antreiben. In enger Zusammenarbeit mit unseren cross-funktionalen Engineering-Teams hilfst du außerdem dabei, aus unseren Daten belastbare und wirkungsvolle Insights zu generieren.
Data Engineer (m/w/d)
Das erwartet dich bei uns
- Design und Entwicklung neuer datengetriebener Features für interne und externe Produkte in enger Zusammenarbeit mit Frontend-, Backend- und Product Engineers
- Entwicklung und Betrieb skalierbarer, gut dokumentierter Datenpipelines mit Airflow und dbt auf Snowflake und weiteren modernen Cloud-Tools
- Aufbau interner Tools, APIs und Utilities, um Daten für Engineering- und Produktteams besser zugänglich und nutzbar zu machen
- Mitwirkung an Architektur und Implementierung neuer Datenprodukte – von Ingestion über Modellierung bis hin zur Bereitstellung
- Aufbau und Überwachung von Datenqualität, Aktualität und Systemzustand (Observability als fester Bestandteil aller Lösungen)
- Aufbau und Pflege von CI/CD-Workflows für DAGs, dbt-Modelle und Plattform-Konfigurationen nach GitOps-Prinzipien
- Analyse und Behebung von Pipeline-Problemen und Performance-Engpässen sowie kontinuierliche Verbesserung von Stabilität und Laufzeiten
- Enge Zusammenarbeit mit Produktteams zur Vereinfachung und Skalierung von Data-Workflows
- Mitarbeit an Plattform-Verbesserungen wie Kostenoptimierung, Tracking von Modellläufen sowie effizienter Nutzung von Compute- und Storage-Ressourcen
Das bringst du mit
Must-have
- 2–4 Jahre Erfahrung im Bereich Data Engineering oder in plattformnahen Backend-Rollen
- Solide Erfahrung mit:
- Task-Orchestrierung (z. B. Airflow oder vergleichbare Tools)
- dbt (Core oder Cloud) für Datenmodellierung
- Snowflake oder vergleichbaren Cloud Data Warehouses
- SQL und Python für Scripting und operative Logik
- CI/CD-Pipelines (z. B. GitHub Actions)
- Vertrautheit mit Monitoring und Observability (z. B. Datadog, Data-Freshness-Checks)
- Freude an der Arbeit an der Schnittstelle zwischen Datenpipelines, Infrastruktur und Developer Experience
Nice-to-have
- Erfahrung mit kostenbewusstem Datenbetrieb oder Platform Governance
- Berührungspunkte mit ML-Workflows sowie Validierung von Modellen und Daten
Das bieten wir dir
- Ein spannendes Arbeitsumfeld in einer dynamischen Branche
- Fairer, kollegialer und offener Umgang im gesamten Team
- Freiheit um zu wachsen, aber auch wertschätzende Führung
- Eigenverantwortlichkeit in der Arbeit, flache Hierarchien und eine offene Feedbackkultur
- Moderne Arbeitsgestaltung, wie flexibles Home-Office und flexible Arbeitszeiten
Du findest, das beschreibt genau dich? Dann freuen wir uns über deine digitale Bewerbung unter Angabe des frühestmöglichen Eintrittstermins, deiner Gehaltsvorstellung und ggf. Einblicken in deine bisherige Arbeit.
Wie geht es weiter?

Introduction Call mit Recruiting

Interview mit Team Lead

Team-Kennenlernen

Vertragsgespräch & -angebot
Benefits
Benefits
What's next?

Introduction call with recruiting

Interview with team lead

Meet the team

Contract interview & offer








-2_ADFgradient.png)




