Möchten Sie mit Ihrem Team teilnehmen? Ab drei Personen profitieren Sie von unseren Gruppenrabatten! Direkt im Shop buchen!

Große NLP-Modelle: Transfer Learning vs. Few-Shot Learning

Sprachmodelle wie GPT-3 und BERT sind in aller Munde. Sie besitzen ein gewaltiges Sprachverständnis und generieren flüssigen und kohärenten Text. Viele dieser Modelle sind einfach zugänglich und über AI-Plattformen wie Hugging Face frei verfügbar.

Wir werfen deshalb einen Blick auf verschiedene Sprachmodelle, deren Technologien sowie Konzepte. Hierbei gehen wir auf sequenzielles Transferlernen sowie Few-Shot Learning ein und zeigen, wie diese Methoden verwendet und implementiert werden. Weiter stellen wir unseren Showcase vor, der Use-Cases wie Text Completion oder Bias Mitigation interaktiv nutzbar macht.

Vorkenntnisse

  • Grundkenntnisse über Neuronale Netze und Deep Learning sowie in Natural Language Processing
  • Es ist nicht zwingend nötig, aber es hilft, NLP-Sprachmodellen und Transformer-Modellen zu kennen

Lernziele

  • Die Teilnehmenden erhalten einen Einblick in die Entwicklung mit Transformer-Modellen und verstehen die praktischen Herausforderungen von großen Sprachmodellen

Speaker

 

Pascal Fecht
Pascal Fecht ist Software Engineer aus Karlsruhe und arbeitet bei inovex an Anwendungen und Datenprodukten. Er interessiert sich für die Verarbeitung von natürlicher Sprache, insbesondere mit Deep Learning Methoden. Dabei begeistern ihn besonders Schnittstellenthemen zwischen Software Engineering und Data Science, wie Data Versioning und MLOps.

Gold-Sponsoren

Accenture
INFOMOTION
denodo

Silber-Sponsoren

codecentric AG
inovex

data2day-Newsletter

Sie möchten über die data2day
auf dem Laufenden gehalten werden?

 

Anmelden