Ihr möchtet mit eurem Team teilnehmen? Ab drei Personen profitiert ihr von unseren Gruppenrabatten! Direkt im Shop buchen!

Antworten brauchen Kontext: MCP in verteilten Datenlandschaften

Wie gelangen die richtigen und relevanten Daten zu Ihrem LLM?

Wir entwerfen eine Data-Mesh-basierte Architektur, die genau das ermöglicht.

Um die Datenqualität von Antworten unternehmensinterner KI zu verbessern, wird häufig eine Form von RAG eingesetzt. Vektor- oder Volltextsuchen helfen dabei, relevante Datenquellen auszuwählen. Das funktioniert gut, solange alle Daten lokal verfügbar sind. Doch wie lassen sich diese Prinzipien auch in einem Data Mesh oder ähnlich verteilten Systemen umsetzen?

Dieser Talk gibt einen Überblick darüber, wie sich mit Data Products, Data Contracts, MCP und mehrstufigen RAG-Pipelines eine verteilte KI-Pipeline entwickeln lässt, die echten Mehrwert schafft.

Vorkenntnisse

Konzeptuelles Basiswissen über MCP, RAG und Data Mesh

Lernziele

  • Verstehen, wie Retrieval-Augmented Generation (RAG) mit Data Mesh und MCP kombiniert werden kann, um relevante Daten für LLMs in verteilten Architekturen bereitzustellen.
  • Data Products und Data Contracts als Werkzeuge begreifen, die die Relevanz und Korrektheit verbessern.
  • Anwendungsfälle der Architektur kennenlernen.

Speaker

 

Fabian Biberger
Fabian Biberger ist seit über 12 Jahren Fullstack-Entwickler und hatte als Gründer, erster Mitarbeiter und Freelancer schon viele Hüte auf. Seit Anfang 2025 beschäftigt er sich bei der Entropy Data GmbH mit modernen Datenarchitekturen (v.a. Data-Mesh) und bringt dabei seinen Software-Background ein, um die Lücke zwischen Entwicklung und Datenwelt zu schließen – offen, neugierig und mit viel Enthusiasmus.