Im Panel diskutieren Expert:innen aus Beratung und Praxis, wie sich die Integration von Large Language Models (LLMs) auf das Conversational Flow Design in komplexen Chat- und Voicebot-Anwendungen auswirkt. Die Gesprächspartner:innen beleuchten, wie sich Rollenprofile und Anforderungen im Kontext von Governance, Monitoring und Systempflege verändern. Im Mittelpunkt stehen die Herausforderungen, die durch die Kombination intentbasierter Architekturen mit LLM-Komponenten entstehen, sowie die Anpassung von Design- und Trainingsprozessen an veränderte Nutzerinteraktionen. Die Diskussion bietet einen differenzierten Zugang zu operativen Fragestellungen und zeigt, wie neue Tools und Plattformen die Arbeit von Conversational Designern beeinflussen.
Die Panelist:innen betonen, dass die Integration von LLMs neue Anforderungen an Steuerung, Kontrolle und Transparenz mit sich bringt. Nutzer:innen erwarten zunehmend komplexe, natürlichsprachliche Interaktionen, was das Framing und die Systemprompts anspruchsvoller macht. Die Pflege von Wissensdatenbanken und das Monitoring der Bot-Antworten gewinnen an Bedeutung, während klassische Aufgaben wie reine Textgestaltung in den Hintergrund treten. Im Voice-Bereich bleibt die Geschwindigkeit der LLMs eine technische Hürde. Die Panelist:innen empfehlen, Governance- und Transparenzmechanismen konsequent weiterzuentwickeln und die Erwartungen an die Leistungsfähigkeit der Systeme realistisch zu steuern. Die Rolle des Conversational Designers verschiebt sich in Richtung Analyse, Monitoring und strategische Steuerung, bleibt aber zentral für die erfolgreiche Entwicklung und Pflege von Chat- und Voicebot-Systemen.
