Vom Dialogbaum zum Sprachmodell: Wie LLMs Conversational grundlegend verändert haben – und was daraus folgt

Vom Dialogbaum zum Sprachmodell: Wie LLMs Conversational grundlegend verändert haben – und was daraus folgt
Mitschnitt-Länge: 30 Minuten
Mitschrift verfügbar

Integration von LLMs in Conversational AI: Optimierung von Intent-Erkennung, Antwortgenerierung und Herausforderungen im Wissensmanagement.

In der Panel-Diskussion der Shift/CX Konferenzwoche 2026 beleuchten Prof. Dr. Peter Gentsch und Dr. Maximilian Panzner die transformative Rolle großer Sprachmodelle (LLMs) in der Conversational AI. Der Austausch fokussiert auf die Integration von LLMs in bestehende Systeme, die Optimierung der Intent-Erkennung und Antwortgenerierung sowie die Herausforderungen bei der Datenvalidierung und im Wissensmanagement. Die Diskussion bietet einen tiefen Einblick in die technischen Architekturen und die Auswirkungen auf Teamstrukturen und Governance, wobei die Experten unterschiedliche Ansätze und Perspektiven zur Nutzung von LLMs in B2B-SaaS- und Technologieunternehmen präsentieren.


Die Experten diskutieren, wie LLMs eine tiefere Intent-Erkennung und empathische Antwortgenerierung ermöglichen, jedoch nicht alle klassischen Modelle ersetzen. Panzner betont die Bedeutung eines symbolischen, faktisch geprüften Zwischenschritts, um die Antwortgenauigkeit zu erhöhen, während Patruschew auf die Notwendigkeit von Guard Rails hinweist, um die Antwortqualität in regulierten Branchen sicherzustellen. Beide sehen die Notwendigkeit, spezialisierte Modelle und hybride Architekturen zu nutzen, um Effizienz und Wirtschaftlichkeit zu gewährleisten. Die Panelisten empfehlen, die Verantwortung für Wissensmanagement und Governance stärker in die Fachabteilungen zu verlagern und die Datenbasis iterativ zu verbessern, um die Leistungsfähigkeit von Conversational AI zu steigern.

Wir müssen nicht immer den Vierzigtonner ausparken, um eine Kugel Eis zu kaufen. Große Sprachmodelle sind oft überdimensioniert für spezifische Aufgaben. – Dr. Maximilian Panzner


Fine Tuning lohnt sich nur, wenn man sehr viele Daten hat. Bei kleinen und mittelständischen Unternehmen macht es selten Sinn. – Dr. Michael Patruschew

  • LLMs ermöglichen eine tiefere Intent-Erkennung und empathische Antwortgenerierung, ersetzen jedoch nicht alle klassischen Modelle.
  • Die Kombination von LLMs mit symbolischen und faktisch geprüften Zwischenschritten erhöht die Antwortgenauigkeit und minimiert Risiken.
  • Fine-Tuning von LLMs ist kostenintensiv und oft nur bei großen Datenmengen sinnvoll; alternative Techniken können effizienter sein.
  • Die Qualität der Wissensbasis ist entscheidend für die Leistungsfähigkeit von Conversational AI, auch wenn Daten oft unvollständig sind.
  • Zukünftige Conversational Design Teams benötigen weniger IT-Ressourcen und mehr domänenspezifische Verantwortliche für Wissenskuratierung und Governance.

Die Integration großer Sprachmodelle (LLMs) in Conversational AI stellt für CTOs und Verantwortliche im Bereich Customer Experience eine strategische Herausforderung dar, die weit über technische Implementierungen hinausgeht. Die Diskussion um LLMs offenbart ein Spannungsfeld zwischen der Notwendigkeit, bestehende Systeme effizient zu integrieren, und der Gefahr, sich in der Komplexität neuer Technologien zu verlieren. Die Transformation von starren Dialogbäumen hin zu flexiblen, empathischen Systemen erfordert nicht nur technologische Anpassungen, sondern auch eine kulturelle Neuausrichtung in Unternehmen. Verantwortungsverschiebungen von IT-Abteilungen hin zu domänenspezifischen Teams verdeutlichen strukturelle Widersprüche, da die Fachabteilungen nun stärker in die Produktgestaltung eingebunden werden müssen. Diese Verschiebung birgt das Risiko, dass technologische und inhaltliche Anforderungen nicht mehr synchronisiert werden, was zu Zielkonflikten führen kann.


Der Beitrag fordert die Zielgruppe auf, hybride Architekturen zu nutzen, die klassische und moderne Methoden kombinieren, um die Effizienz und Wirtschaftlichkeit zu steigern. Die Empfehlung, die Datenbasis iterativ zu verbessern und die Verantwortung für Wissensmanagement in die Fachabteilungen zu verlagern, verschiebt die Perspektive von einer rein technischen zu einer inhaltlich-strategischen Herangehensweise. Diese Veränderung unterstützt den kulturellen Wandel hin zu einer kundenzentrierten Entwicklung, bei der die Fachkompetenz im Vordergrund steht. Operative Praxis und strategische Ziele müssen dabei in Einklang gebracht werden, um die Potenziale von LLMs voll auszuschöpfen und gleichzeitig die Risiken zu minimieren. Die Diskussion trägt somit zur Weiterentwicklung des Themas bei, indem sie klare Prinzipien für die Integration von LLMs in Conversational-AI-Systeme aufzeigt und die Notwendigkeit eines ausgewogenen Ansatzes betont.

Der Zugriff auf das Video umfasst eine textuelle Aufarbeitung, die bereits mit einem Freemium-Account zugänglich ist.

Jetzt direkten Zugang freischalten!

Registriere Dich für einen Freemium-Zugang für die Shift/CX Plattform und erhalte direkten Zugang zum Mitschnitt und der Dokumentation.

Darüber hinaus bietet der Freemium-Account folgendes:
  • Zugang zu allen Freemium-Inhalten der Mediathek
  • Drei Credits für Freischaltung von Premium-Inhalten
  • Monatlicher Content-Newsletter mit redaktionell freigeschalteten Premium-Inhalten
  • Zugang zu geschlossener Linkedin-Gruppe
  • Besondere Plattform-Angebote
  • Kostenlos für immer!

Jetzt registieren & Zugang erhalten: