Data Engineering & ETL-Pipelines

Dateninfrastruktur aufbauen — sauber, reproduzierbar, wartbar

Freelancer für Data Engineering in Berlin: ETL/ELT-Pipelines entwickeln, Dateninfrastruktur aufbauen und bestehende Workflows modernisieren — für Unternehmen im DACH-Raum.

Dashboards sind nur so gut wie die Daten, die sie speisen. In vielen Unternehmen ist die Datenbasis fragmentiert: Quellen sind nicht verbunden, Transformationen passieren manuell in Excel, Pipelines existieren nur in den Köpfen einzelner Mitarbeiter. Das Ergebnis ist fragiles Reporting, das bei jeder Änderung der Quelldaten bricht.

Ich entwickle Dateninfrastruktur, die analytische Systeme dauerhaft trägt — ETL/ELT-Pipelines, die reproduzierbar, dokumentiert und unabhängig von einzelnen Personen betrieben werden können.

Was ist Data Engineering — und wann brauchen Sie es?

Data Engineering bezeichnet den Aufbau und Betrieb der technischen Infrastruktur, die Rohdaten aus verschiedenen Quellen in eine für Analyse und Reporting geeignete Form bringt.

Data Engineering ist sinnvoll, wenn:

  • Reporting-Prozesse manuell und fehleranfällig sind
  • Daten aus mehreren Systemen (CRM, ERP, Datenbank, APIs) zusammengeführt werden müssen
  • bestehende Pipelines nicht dokumentiert, nicht testbar oder nicht wartbar sind
  • ein neues BI-System, Dashboard oder Prognosemodell ein sauberes Datenfundament benötigt
  • Datentransformationen heute von einzelnen Personen abhängen, die das Unternehmen verlassen könnten

Mein Vorgehen

1. Bestandsaufnahme Ich analysiere Ihre bestehende Datenlandschaft: Quellsysteme, Datenflüsse, manuelle Schritte, Abhängigkeiten. Was existiert bereits? Was fehlt? Was sollte ersetzt werden?

2. Architekturentscheidung Je nach Datenmenge, Aktualisierungsfrequenz und Budget empfehle ich eine passende Architektur — von einfachen SQL-Views über strukturierte ELT-Pipelines bis hin zu orchestrierten Workflows mit Apache Airflow. Keine Overengineering: die Lösung soll zu Ihrer Infrastruktur und Ihrem Team passen.

3. Entwicklung Aufbau der Pipelines mit klarer Trennung von Extraktion, Transformation und Laden. Alle Transformationsschritte werden in versioniertem Code implementiert — nachvollziehbar, testbar, reproduzierbar.

4. Dokumentation und Übergabe Sie erhalten eine vollständige Dokumentation der Architektur, der Datenflüsse und der einzelnen Transformationsschritte. Ihr Team kann die Infrastruktur eigenständig betreiben und erweitern.

Eingesetzte Tools und Technologien

Ich arbeite mit SQL (PostgreSQL, MS SQL Server), Python und R für Datentransformation und Pipeline-Entwicklung. Für Orchestrierung setze ich Apache Airflow ein. Docker-basierte Deployments ermöglichen portable, reproduzierbare Umgebungen. Die Integration in bestehende Infrastrukturen — lokal oder cloud-basiert — gehört zum Standardvorgehen.

Für wen ich arbeite

Meine Kunden sind Unternehmen im DACH-Raum, die ihr Datenfundament für analytische Zwecke professionalisieren möchten — von der ersten strukturierten Pipeline bis zur Modernisierung gewachsener, fragiler Datenarchitekturen. Ich arbeite projektbasiert oder auf Stundenbasis — remote oder vor Ort in Berlin.

Referenzprojekte und weiterführende Artikel

Jetzt Projekt besprechen

Sie möchten Ihre Datenpipelines neu aufbauen, bestehende Strukturen dokumentieren lassen oder ein BI-Projekt auf ein solides Datenfundament stellen?

Kontakt aufnehmen

Zurück nach oben