ChatGPT und die ethischen Fragen für den Einsatz in CX

image-39167
Bild: Om siva Prakash, Unsplash

Seit der Einführung des auf künstlicher Intelligenz basierenden Textgenerators ChatGPT werden vielerorts die Möglichkeiten und Gefahren dieser Plattform diskutiert. Das Einsatzspektrum von ChatGPT breit gefächert ist. Im Kern geht es dabei immer um die Nutzeranweisungs-gestützte Generierung von Text-Inhalten - egal in welchem Format, ob als Prosa-Text, Listen-Text, Gedichtstext, Programmier-Code, Daten-Array oder wiederum als Prompt-Anweisung z.B. für eine Bildgenerierungs-KI. 

In einem von Gartner publizierten Interview mit ihrem "Distinguished Analyst" zum Thema "Artificial Intelligence & Natural Language Processing", Bern Elliot, wurden die Auswirkungen und die Empfehlungen für einen verantwortungsvollen Umgang mit solchen Tools diskutiert. Wir haben das Interview auf Deutsch zusammengefasst und erörtert.

Was ist der Hype hinter ChatGPT? 

Aus Sicht von Bern Elliot vereint ChatGPT zwei "heiße" KI-Themen: Chatbots und GPT3. Chatbots als dialogorientiertes User-Interface und GPT3 (mittlerweile für Pro-Anwender auch GPT4) als grundlegendes Sprachmodell für verschiedene Anwendungsfelder. Zusammen stellt dies für Bern Elliot eine faszinierende Methode dar, mit Inhalten zu interagieren und Inhalte zu produzieren. Das Qualitätskriterium hinter der Inhaltegenerierung ist dabei aber nicht der Wahrheitsgehalt, sondern das Bestehen des "Turing Test" von Alan Turing. Die Faszination von ChatGPT sieht Bern Elliot aus der Folge signifikanter Verbesserungen der jeweiligen Technologien in den letzten fünf Jahren.  

Das Besondere des ChatGPT-Ansatzes sieht Bern Elliot in der "intelligenten" Konversation, die den gesamten Gesprächsverlauf berücksichtigt und ein "Gedächtnis" über die zurückliegenden Antworten hat. Im Ergebnis konstatiert Elliot: "The interaction is sometimes humorous, sometimes profound and sometimes insightful."

Leider ist das Ergebnis manchmal auch falsch und der Inhalt basiert niemals auf einem menschenähnlichen Verständnis oder einer Intelligenz. Für Bern Elliot liegt das Problem in den Begriffen „verstehen“ und „intelligent“, denn: Beide Begriffe implizieren das Menschliche, sodass es zu schwerwiegenden Missverständnissen kommen kann, wenn sie auf einen Algorithmus angewendet werden.  

Die bessere Perspektive ist, Chatbots und Large Language Models (LLM) wie GPT als potenziell nützliche Tools zum Erfüllen bestimmter Aufgaben und nicht als Salontricks zu betrachten. Der Erfolg hängt von der Identifizierung der Anwendungen für diese Technologien ab, die der Organisation bedeutende Vorteile bieten. 

Bern Elliot sieht verschiedene Anwendungsfälle für die Sprachmodelle - insbesondere als Anwender-freundlichere Schnittstellen im Kundendienst oder der Agent-Unterstützung. Ergänzend zu erwähnen ist, dass das dahinterliegende Sprachmodell ein generisches Modell ist, welches auf Basis von frei verfügbaren Internet-Ressourcen trainiert wurde. Für die Anwendung in der Kundeninteraktion fehlt diesem Modell klar, dass Domainen-Wissen - es sollte daher immer mit einem Knowledge Graph zu einem spezifischen Domainen-Wissen gekoppelt werden. Hierfür bieten die OpenAI Schnittstellen spannende Ansatzpunkte.

Welche Bedenken gibt es beim Einsatz von ChatGPT und seinen sowie anderen Sprachmodellen? 

Die KI-Basismodelle bieten einzigartige Vorteile, wie etwa weniger Kosten und geringerer Zeitaufwand als bei der Entwicklung eines domänenspezifischen Modells. Sie bergen nach Bern Elliot jedoch auch Risiken, die ethische Bedenken aufwerfen. Hierbei führt er folgende Themen an:   

  • Komplexität: Große KI-Modelle umfassen Milliarden oder sogar Billionen von Parametern. Sie sind aufgrund der erforderlichen Rechenressourcen für die meisten Organisationen zu groß und zu teuer, um trainiert werden zu können.

  • Machtkonzentration: Große KI-Modelle wurden hauptsächlich von großen Technologieunternehmen mit enormen Investitionen in Forschung und Entwicklung entwickelt. Dies hat zu einer Konzentration der Macht in einigen wenigen finanzstarken Organisationen geführt, was in Zukunft zu einem erheblichen Ungleichgewicht führen kann.

  • Möglicher MissbrauchKI-Basismodelle senken die Kosten für die Erstellung von Inhalten, wodurch es einfacher wird, „Deepfakes” zu erstellen, die dem Original sehr ähnlich sind. Dies umfasst alles – von Sprach- und Video-Imitation bis hin zu Kunstfälschungen sowie gezielten Angriffen. Die damit verbundenen ethischen Bedenken könnten dem eigenen Image schaden oder politische Konflikte auslösen.

  • Black-Box-Charakter: KI-Basismodelle erfordern immer noch ein sorgfältiges Training und können aufgrund ihres Black-Box-Charakters inakzeptable Ergebnisse liefern. Es ist oft unklar, welchen Factbase-Modellen Antworten zugeschrieben werden, was zu nachgelagerten Verzerrungen in den Datensätzen führen kann. Die Homogenisierung solcher Modelle kann zu einem Single Point of Failure führen.

  • Geistiges Eigentum: Das Modell wird anhand erstellter Arbeiten trainiert. Es ist noch unklar, worin der Präzedenzfall für die Wiederverwendung dieser Inhalte bestehen könnte, wenn sie aus dem geistigen Eigentum anderer stammen. 


Anmerkung: Ein Basismodell ist ein Modell künstlicher Intelligenz, das auf einer großen Menge unbezeichneter Daten in großem Maßstab trainiert wird. Dies führt zu einem Modell, das an eine Vielzahl nachgelagerter Aufgaben angepasst werden kann. 


Lernpfad Customer Journey Management

Wie müssen die ethischen Fragen in den Organisation angegangen werden? 

Im Interview stellt Bern Elliot sechs Empfehlungen auf, um die Herausforderungen in der Organisation zu managen:

  1. Mit Anwendungsfällen für die Verarbeitung natürlicher Sprache (NLP) beginnen, wie etwa Klassifizierung, Zusammenfassung und Textgenerierung für Szenarien ohne Kundenkontakt. 
  2. Aufgabenspezifische, vortrainierte Modelle wählen, um teure Anpassungen und Schulungen zu vermeiden.  
  3. Anwendungsfälle bevorzugen, bei denen die Ausgabe von Menschen überprüft wird.  
  4. Ein Strategiedokument erstellen, das die Vorteile, Risiken, Chancen und die Roadmap für die Bereitstellung der KI-Basismodelle wie GPT umreißt. Dies hilft bei der Einschätzung, ob die Vorteile die Risiken für bestimmte Anwendungsfälle überwiegen.  
  5. Für die Nutzung solcher Modelle auf cloudbasierte APIs setzen; dabei das kleinste Modell wählen, das die erforderliche Genauigkeit und Leistung bietet, um die betriebliche Komplexität zu reduzieren, den Energieverbrauch zu senken und die Gesamtbetriebskosten zu optimieren.  
  6. Anbieter priorisieren, die den verantwortungsvollen Einsatz von Modellen fördern, indem sie Nutzungsrichtlinien veröffentlichen, diese Richtlinien durchsetzen, bekannte Schwachstellen und Schwächen dokumentieren und schädliches Verhalten und Missbrauchsszenarien proaktiv offenlegen. 

Fazit: ChatGPT & Co mit kritischer Haltung testen und einsetzen

Das Interview mit Bern Elliot und die vielen weiteren Diskussionen zum Thema zeigen, dass der Einsatz der großen Sprachmodelle viele Potentiale für die kundenzentrierte Organisation hat - mehr begeisternde Services anzubieten. Gleichsam braucht es aber auch ein waches, kritisches Verständnis bei der Konzeption und beim Einsatz der Technologien. Es braucht - wie bei so vielen Themen - eine systematische Auseinandersetzung mit den Möglichkeiten und Herausforderungen.

Die Diskussion rund um diese Themen wird uns also weiterhin begleiten.