Digitale Sprachassistenzsysteme wie Chatbots und Smart Speaker prägen zunehmend die Interaktion zwischen Unternehmen und Kund:innen. Laura Grimm (Die Lautmaler) analysiert in ihrer Impuls-Keynote, wie Trainingsdaten und Character Design die Wahrnehmung und Wirkung dieser Systeme beeinflussen. Im Fokus steht die Frage, wie Genderbias und stereotype Rollenbilder durch Sprache, Stimme und Namensgebung in Conversational Interfaces entstehen und welche Herausforderungen sich daraus für Conversation Designer und Product Owner ergeben. Der Beitrag bietet einen praxisorientierten Zugang, indem er die Wechselwirkungen zwischen gesellschaftlichen Erwartungen, technischen Möglichkeiten und Designentscheidungen beleuchtet.
Im Zentrum stehen die Mechanismen, durch die bestehende Bias in Trainingsdaten und Systemarchitekturen reproduziert werden. Grimm zeigt anhand konkreter Beispiele – etwa der unterschiedlichen Spracherkennung bei verschiedenen Nutzer:innengruppen oder der Reaktion von Sprachassistenten auf sexistische Prompts – wie stereotype Muster in KI-Systemen fortgeschrieben werden. Sie diskutiert die Rolle von Character Design als Hebel für mehr Inklusivität und empfiehlt, gendergerechte Sprache, diverse Datenquellen und genderneutrale Stimmen frühzeitig im Designprozess zu berücksichtigen. Zudem adressiert sie Accessibility-Aspekte, etwa die Gestaltung für Nutzer:innen mit Einschränkungen, und verweist auf Methoden wie die Feminist Design Tour. Abschließend betont Grimm die Notwendigkeit, alle Stakeholder:innen für die Themen Genderbias, Diversität und Accessibility zu sensibilisieren und die Gestaltung von Sprache, Charakter und Interaktion als zentrale Ansatzpunkte für eine inklusivere Customer Experience zu nutzen.
