Emotionale Intelligenz trifft KI: Wie Technologie menschliche Emotionen erkennt

image-41623

Emotion AI ist, neben Generative AI, ein wichtiges Thema im Bereich der KI-Technologien. Es geht darum, dass intelligente Systeme menschliche Gefühle "erkennen" bzw. die Signale für bestimmte Emotionen entschlüsseln können. Dies kann besonders im Marketing und im Umgang mit Kunden sehr nützlich sein.

Wir bereiten uns gerade auf die Shift/CX Trends und die Themen in 2024 vor und haben uns daher auch mit Emotion AI beschäftigt.

Emotion AI – Ein Blick hinter die Technologie

Emotion AI, im Englischen auch "Emotional AI", "Affective Computing" oder "Affective AI", bezeichnet künstliche Intelligenz, die in der Lage ist, Signale für menschliche Emotionen zu erkennen, zu verstehen, zu interpretieren und darauf zu reagieren. Die Erkennung basiert häufig auf Hinweisen wie Gesichtsausdrücken und Sprachnuancen. Aber was genau steckt hinter dieser beeindruckenden Technologie?

Daniel Fitzpatrick von Frank Reply hat uns hierzu folgende umfangreiche Antwort geben:

true

Architektonisch betrachtet sind Emotion AI APIs bislang eher als Einzelservice in der Verarbeitungskette für konversationelle Interaktionssystemen verortet.

Überwiegend durch semantische Mustererkennung, wie z.B. einfaches Matching von Zeichenketten („Bag-of-Words“) oder ontologische Prozesse wie die Analyse von vektorisierten Attributen und Zusammenhänge, aber auch mit biometrischer Analyse (Stimmlage, Modulationswechsel und Sprechgeschwindigkeit), ist es möglich, Emotionen zu erkennen und Systemausgaben anhand der Rückgabewerten anzupassen.

Besonders in der Biometrie liegt eine sehr wichtige Erkenntnis: Oft ist das „Nicht-gesagte“ in einer Konversation bedeutungsreicher als der tatsächliche Gesprächsinhalt.

Hierin liegt die Zukunft von EmotionAI: Anwendung der Prinzipen von Konversationsanalyse. Dabei fließen viele – bislang unberücksichtigte – Aspekte der Gespräche zwischen Konversationspartnern in die Gestaltung der Systemeingaben hinein. Es können zum Beispiel folgende Merkmale erkannt werden:
 

  1. Um welchen Kontext geht es? 
  2. Was ist das gemeinsame Ziel der Partner? 
  3. Welchen Bildungsgrad / Fachexpertise / Diktion hat der User? 
  4. Kann man anhand des Wortgebrauchs die Altersgruppe vom Sprechenden erkennen?
  5. In welchem Verhältnis zueinander stehen die Konversationspartner? (Professor / Stundent, Mutter / Kind, Service-Agent / Anrufer)
  6. Ist der User nervös, glücklich, verwirrt oder irritiert?


In der Verarbeitungskette können diese Erkenntnisse in Echtzeit als Anweisung an die Konversationsschnittstelle erfasst werden. Im Rahmen von einer GenerativeAI-Anwendung spricht man von „Prompt-Compiling“. Somit bekommt das System (um passendere, menschlichere Ausgaben verfassen zu können) wesentlich mehr als nur das Inhaltliche vermittelt, sondern Kontext, Rollen, (Soziale)Verhältnisse, Tonalität, und Emotion.

Deep Learning und neuronale Netzwerke

Das Rückgrat der Emotion AI bilden dabei die technologischen Konzepte von Deep Learning und neuronalen Netzwerken. Deep Learning ermöglicht es der Emotion AI, durch den Einsatz großer Datenmengen menschliche Emotionen effektiv zu erfassen und zu klassifizieren. Hierbei spielen neuronale Netzwerke, insbesondere die spezialisierten Convolutional Neural Networks (CNNs), eine zentrale Rolle. Sie sind besonders geeignet für die maschinelle Verarbeitung von Bild- oder Audiodaten, was sie zu einem idealen Werkzeug für die Gesichtsausdrucksanalyse und Sprachanalyse macht.

Die kontinuierliche Verbesserung und Optimierung dieser technologischen Ansätze wird durch das ständige Training von Emotion AI Modellen mit neuen Daten gewährleistet, um die Erkennung menschlicher Emotionen weiter zu verfeinern. In der Praxis eröffnet dies zahlreiche Anwendungsmöglichkeiten, insbesondere im Bereich Marketing, Kundenkommunikation, Service und Customer Experience Management.

Lernpfad Customer Journey Management

Emotion AI im Customer Service & Experience Management

In den letzten Jahren hat die Integration von Emotion AI in diesen Bereichen dazu beigetragen, Kundenerfahrungen besser zu personalisieren und Unternehmen dabei geholfen, tiefergehende und wertvollere Beziehungen zu ihren Kunden aufzubauen. Philipp Grochowski von VIER sieht in der Emotional AI eine große Chance:

true

Eine gewissenhaft trainierte Emotion AI-Lösung kann uns dabei helfen, andere besser zu verstehen – sowohl hinsichtlich der Sprache als auch hinsichtlich ihres Verhaltens. Emotion AI liefert zusätzliche, neuartige Informationen und ermöglicht so neue Perspektiven. Diese Informationen und neuen Blickwinkel können wir nutzen, um unser gegenseitiges Verständnis zu verbessern. Das klingt nicht nur interessant, sondern ist gleichzeitig eine große Chance!

Die Potenziale sieht auch Benjamin Gebauer von Infinit.cx und sieht die Emotional AI sogar als bisher fehlenden Baustein im ganzheitlichen Customer Experience Ansatz:

true

Ich finde, dass Stimmungs- und Sentimentanlayse ein sehr wichtiger Baustein zur gelungen CX sind. Nur so kann man eine gute User Experience ermöglichen. Gerade wenn wir das Silo "Service-Abteilung" verlassen und in Richtung Marketing und Sales schauen bzw. übergreifend denken, brauchen wir diese neuen Möglichkeiten im Zusammenspiel mit gelungener Automatisierung.

Zwischen Möglichkeiten und Missverständnissen: Die Herausforderungen der Emotion AI

Die Emotion AI ist allerdings nicht völlig frei von Herausforderungen und Bedenken. Ein wichtiges Statement hierzu haben Mark Purdy, John Zealley und Omaro Maseli in dem bereits 2019 erschienene HBR-Artikel "The Risks of Using AI to Interpret Human Emotions" gemacht: Diese Technologie birgt enormes Potenzial, kann aber auch einige unbeabsichtigte Fehlinterpretationen und Konsequenzen haben.

  1. Subjektivität von Emotionen: Emotionen sind von Natur aus subjektiv, und es kann eine Diskrepanz zwischen dem, was Menschen sagen, dass sie fühlen, und dem, was sie tatsächlich fühlen, geben. Das Decodieren von Gesichtsausdrücken, Sprachmustern und anderen Signalen kann helfen, aber es bleibt eine Herausforderung.
  2. Voreingenommenheit und kulturelle Unterschiede: Emotion AI kann zu Voreingenommenheit neigen. Eine Studie hat gezeigt, dass Technologien zur emotionalen Analyse Menschen bestimmter Ethnien negativere Emotionen zuweisen als anderen. Die Ausdrucksweise von Emotionen kann auch kulturell variieren, was bedeutet, dass ein Lächeln in Deutschland möglicherweise etwas anderes bedeutet als in Japan.
  3. Anwendungsfälle und Voreingenommenheit:
    • Mitarbeiterengagement: Beim Messen der Emotionen von Mitarbeitenden kann Voreingenommenheit zu fehlerhaften Zuweisungen und Entscheidungen führen.
    • Produktanpassung: Bei der Entwicklung von Produkten, die auf Emotionen reagieren, könnte eine voreingenommene AI bestimmte Gruppen, wie z.B. ältere Menschen, missverstehen.
    • Messung der Kundenzufriedenheit: Ein voreingenommener Algorithmus könnte dazu führen, dass bestimmte Kunden besser behandelt werden als andere, basierend auf Merkmalen wie Akzent oder Stimmlage.
    • Lernerfahrung: Emotionale Erkenntnisse könnten den Lernprozess beeinflussen, und voreingenommene Systeme könnten fälschlicherweise vorschlagen, dass bestimmte Schüler desinteressiert sind.
  4. Kombination von Technologien: Einige Technologien sind besser geeignet, bestimmte Emotionen zu verfolgen als andere. Durch die Kombination dieser Technologien könnten mögliche Voreingenommenheiten gemindert werden.
  5. Vielfalt in der Entwicklung von AI: Vielfältige Teams sind entscheidend für die Entwicklung von emotionalen AI-Algorithmen, um Voreingenommenheit zu vermeiden.
  6. Historische Voreingenommenheit: Unternehmen müssen darauf achten, historische Voreingenommenheiten nicht zu perpetuieren, wenn sie Emotion AI trainieren.
  7. Kontext ist entscheidend: Bei der Interpretation von Emotionen, besonders bei subtilen Signalen wie Lächeln, ist der Kontext wichtig.

Die Emotion AI kann Unternehmen wertvolle Einblicke geben, sie müssen jedoch vorsichtig sein, um keine bestehenden Stereotypen und Annahmen zu verstärken.