Tools und Methoden für
Big, Smart und Secure Data
Karlsruhe, IHK, 5. - 7. Oktober 2016

Natural Language Processing mit rekurrenten neuronalen Netzen

Neuronale Netze haben unter dem Stichwort Deep Learning in einigen Bereichen des maschinellen Lernens den State of the Art abgelöst. Auch beim Natural Language Processing ist das der Fall und hier feiern aufgrund der sequentiellen Form der Daten vor allem rekurrente neuronale Netze Erfolge. Beispiele sind Siri, Google Now und Cortana.

Wie funktionieren RNNs? Für welche Aufgaben eignen sie sich? Wie trainiert und verwendet man sie?

Diese Fragen sollen im Vortrag geklärt werden.

Skills
Ein Grundverständnis von neuronalen Netzen ist hilfreich.

Lernziele
Wie funktionieren RNNs? Für welche Aufgaben eignen sie sich? Wie trainiert und verwendet man sie?

// Referent

// Daniel Kirsch Daniel Kirsch

arbeitet als Machine "Dompteur" und hat einen Background in Pattern Recognition und Machine Learning. Er ist Mitgründer des Open Knowledge Lab Münster und Gründer des Data Science for Social Good Berlin. Er arbeitet für idalab in Berlin und versteht sich auf verschiedene Programmiersprachen - vorrangig funktionale.


l>