Konferenz für Big Data,
Data Science und Machine Learning
Heidelberg, Print Media Academy, 25.-27. September 2018

data2day 2018 » Programm »

Time Series Forecasting für Mengen- und Bestandsprognosen

Time Series Forecasting wird in erster Linie mit Standardverfahren wie ARIMA in Verbindung gebracht. Im Zuge der zunehmenden Nutzung von Machine-Learning-Verfahren auf beliebige Fragestellungen rücken auch für die Verarbeitung von Zeitreihen alternative Verfahren in den Mittelpunkt. So hat beispielsweise Facebook vor Kurzem ein Python- bzw. R-Package zur Vorhersage von Zeitreihen veröffentlicht, die auf der probabilistischen Programmiersprache STAN aufsetzen und Zeitreihen als stochastische Prozesse modellieren, sodass eine Inferenz mit bayesschen Methoden möglich ist.

Ein weiterer Trend verfolgt die Modellierung von Zeitreihen durch tiefe neuronale Netze, insbesondere Recurrent Neural Networks (RNNs). Durch die zunehmende Verfügbarkeit von Rechenkapazitäten in GPUs und Cloud-basierten Systemen sowie der Verbreitung von Deep-Learning-Frameworks (z.B. TensorFlow) kann eine Betrachtung dieser Verfahren wertvoll sein.

Im Rahmen des Vortrags werden die Grundlagen dieser neuen Verfahren vorgestellt. Darüber hinaus werden Vorteile und Nachteile zu etablierten Verfahren erläutert. Im zweiten Teil werden die Themen Modell-Training, -Validierung und -Deployment (CPU, GPU, Cluster) genauer betrachtet, zwei wesentliche Erfolgsfaktoren von Machine-Learning-Projekten bzw. -Services.Der Vortrag schließt mit Lessons Learned zur Anwendung von Machine-Learning-Algorithmen für Time Series Forecasting.

Vorkenntnisse
Grundsätzliches Verständnis von Machine-Learning-Verfahren und deren Produktivbetrieb

Lernziele
Überblick über gängige Forecasting-Algorithmen und -Methoden sowie deren Vor- und Nachteile

// Florian Müller Florian Müller

ist Wirtschaftsinformatiker und arbeitet als Senior Data Scientist in Hamburg. Er beschäftigt sich mit der Anwendung von Machine-Learning-Verfahren im wirtschaftlichen Kontext – hauptsächlich durch die Nutzung von Python-Bibliotheken wie Scikit-Learn und Apache Spark.


// Ramon Wartala Ramon Wartala

ist Diplom-Informatiker und arbeitet als Senior Big Data Architect in Hamburg. Er ist seit über 14 Jahren freier Autor und Speaker zum Thema Softwareentwicklung und Big Data. Neben seiner Vorliebe für Ruby und Rails beschäftigt er sich mit Datenbankanwendungen und dort vor allem mit solchen, die mit Hilfe der Frameworks Hadoop und Spark realisiert werden.

l>