Konferenz für Big Data,
Data Science und Machine Learning
Heidelberg, Print Media Academy, 26.-29. September 2017

Wege zum Enterprise Data Lake

Immer mehr Unternehmen möchten einen Data Lake aufbauen, um das klassische Enterprise Data Warehouse zu entlasten oder perspektivisch abzulösen. Mit dem Hadoop-Ökosystem ist schnell eine geeignete Technologie gefunden, doch die eigentlichen Schwierigkeiten liegen in der Organisation. Plötzlich wollen alle Fachabteilungen den Data Lake nutzen, die Zahl der parallelen Projekte wächst stetig.

Um in dieser Situation mit zahlreichen Stakeholdern erfolgreich zu sein, wird eine passende Organisation und Vorgehensweise benötigt, auch um bei der Implementierung schnell mit mehreren Teams zu skalieren und das Potenzial des Data Lake zu aktivieren.

Als Erstes skizziert der Vortrag wesentliche Unterschiede des Data Lake zum klassischen Enterprise Date Warehouse. Im nächsten Schritt werden organisatorische Themen aufgezeigt, die bei der Einführung eines Data Lake durch passende Struktur und Rollen adressiert werden sollten. Zudem gibt es praktische Hinweise, wie mit Hilfe von Patterns die Entwicklung skaliert werden kann und gleichzeitig die Lösungen homogenisiert werden können.

Vorkenntnisse
Interesse am Data Lake

Lernziele
* Unterschiede zwischen Data Lake und klassischem Enterprise Date Warehouse
* Strukturen und Rollen bei der Einführung eines Data Lake
* Praktische Hinweise, wie die Entwicklung skaliert werden kann und die Lösungen homogenisiert werden können.

// Kaya Kupferschmidt Kaya Kupferschmidt

arbeitet seit über 10 Jahren als freier Entwickler, Berater und Trainer mit Schwerpunkt Big Data und speziell Hadoop-Ökosystem. Er verfügt über vielfältige Erfahrungen u.a. im Online-Advertising oder dem Energiesektor bis hin zu unternehmensweiten Data Lakes in großen Finanzinstituten. Derzeit fokussiert er sich auf Apache Spark und den Themenkomplex Machine Learning.


l>