Ja, wir bauen 2026 noch ein Sternschema: DWH-Modernisierung trifft Cloud Lakehouse
"Lakehouse-only" ist oft die Antwort – aber stimmt die Frage?
Bei Adam Riese fahren wir zweigleisig: Ein On-Prem-DWH (Oracle) für regulierte Kerndaten läuft parallel zum Cloud Lakehouse (Databricks, dbt, Airflow, Airbyte) für cloud-native Quellen.
Statt Big Bang modernisieren wir das DWH zuerst: Komplexität raus, Performance erledigt, Sternschema statt gewachsener Tabellen, Logik ins Backend. So bleiben alle Optionen offen (Weiterbetrieb, hybride Architektur, Migration) – ohne Cloud-Kostenfallen durch unaufgeräumte Altlasten.
Ich zeige den End-to-End-Stack inkl. Architektur und Datenqualität als Praxisbericht aus der Versicherung.
Vorkenntnisse
- Grundverständnis von Datenarchitekturen (Data Warehouse, Data Lake, ETL/ELT) ist hilfreich.
- Vertiefte Kenntnisse einzelner Tools (Oracle, Databricks, dbt, Airflow, Airbyte) sind nicht erforderlich - der Vortrag ist konzeptionell ausgerichtet und für Data Engineers, Architekt:innen, BI-Verantwortliche und Datenstrateg:innen gleichermaßen zugänglich.
Lernziele
Die Teilnehmenden …
- lernen die Architekturprinzipien einer hybriden Datenplattform aus On-Prem-DWH und Cloud Lakehouse kennen.
- lernen zu bewerten, wann schrittweise DWH-Modernisierung der Big-Bang-Migration überlegen ist.
- nehmen praxisnahe Erfahrungen aus einem Versicherungs-Data-Stack mit – inklusive Datenqualität und Reporting.