Konferenz für Big Data,
Data Science und Machine Learning
Heidelberg, Print Media Academy, 26.-29. September 2017

Verteiltes Deep Learning mit TensorFlow und Kubernetes

Das Trainieren neuronaler Netze nimmt durch immer ausgefeiltere Architekturen schnell mehrere Stunden oder Tage in Anspruch. Selbst mit immer schnelleren CPUs/GPUs reicht es häufig nicht, eine einzelne Maschine zum Trainieren zu benutzen. Glücklicherweise besitzt TensorFlow die Features zu einem verteilten Training neuronaler Netze, das die Trainingsgeschwindigkeit drastisch erhöhen kann.

Im Rahmen dieses Vortrages wird ein Blick auf die Grundlagen des verteilten Trainings neuronaler Netze (In Graph vs. Between Graphs, Synchronous vs. Asynchronous) geworfen. Zusätzlich wird behandelt, wie diese in TensorFlow implementiert werden können. Weiterhin wird gezeigt, wie man mithilfe von Kubernetes als Orchestrierungs-Tool eine verteilte TensorFlow-Anwendung deployen kann.

Vorkenntnisse
* Grundlagenwissen zu Deep Learning und neuronalen Netzen
* Grundlagenwissen über Container, OS und verteilte Orchestrierung
* Grundlegendes Python/TensorFlow-Wissen

Lernziele
Der Vortrag zeigt, wie man TensorFlow für verteiltes Training nutzt, und bringt eine grundlegende Einführunge zu den verschiedenen Methoden. Darüber hinaus werden die Teilnehmer lernen, wie man grundlegende Kubernetes-Konzepte einsetzt, um TensorFlow in einem Cluster zu verteilen.

// Jakob Karalus Jakob Karalus

ist ein IT-Berater bei codecentric mit Fokus auf DevOps und Data Science. Sein Hauptinteresse ist es, mit spannenden und neuen Technologien rund um Orchestrierung, Automatisierung und Maschine Learning zu experimentieren. Derzeit hilft er einem großen Unternehmen als Cluster-Betreiber bei der Durchführung eines Multi-Tenant-Kubernetes-Clusters.


l>