Loading...

Conversational AI: ChatGPT und ethische Fragen

image-39167
Bild: Om siva Prakash, Unsplash

Seit der Einführung des auf künstlicher Intelligenz basierenden Textgenerators ChatGPT werden in den sozialen Medien Möglichkeiten und Gefahren dieser Technologie diskutiert. Wer sich schon eingehender mit ihr befasst hat, weiß, dass das Einsatzspektrum von ChatGPT breit gefächert ist. Zum Beispiel von der Fähigkeit, Code zu debuggen, bis hin zum Schreiben wissenschaftlicher Arbeiten.

Das IT-Beratungsunternehmen Gartner hat ein internes Interview mit dem Vice President und Technology Analyst Bern Elliot durchgeführt, um die breiteren Auswirkungen von ChatGPT zu erfahren. Aber auch, um notwendige Schritte für Führungskräfte im Bereich Data Analytics bezüglich eines verantwortungsvollen Umgangs mit solchen Tools zu diskutieren.

Das Interview, das im Newsroom von Gartner für Pressezwecke publiziert wurde, haben wir im Folgenden auf Deutsch wiedergegeben. 

Warum erzeugt ChatGPT so viel Aufsehen und was unterscheidet es von früheren Innovationen in der Conversational AI? 

ChatGPT vereint zwei aktuelle, „heiße“ KI-Themen: Chatbots und GPT3. Zusammen bilden sie eine faszinierende Methode, mit Inhalten zu interagieren und Inhalte zu produzieren, die erstaunlich menschlich klingen. Jedes Thema für sich ist das Ergebnis separater, signifikanter Verbesserungen der jeweiligen Technologien in den letzten fünf Jahren.  

Chatbots ermöglichen eine scheinbar „intelligente“ Konversation, während GPT3 eine Ausgabe erzeugt, die Fragen, Inhalte und Kontexte „verstanden“ zu haben scheint. Dies resultiert im „Uncanny-Valley-Effekt“ und man stellt sich die Fragen: Ist es ein Mensch oder ein Computer? Oder: Ist es ein menschenähnlicher Computer? Die Interaktion gestaltet sich ja manchmal humorvoll, manchmal tiefgründig und ist hin und wieder aufschlussreich.  

Leider ist das Ergebnis manchmal auch falsch und der Inhalt basiert niemals auf einem menschenähnlichen Verständnis oder einer Intelligenz. Das Problem sind die Begriffe „verstehen“ und „intelligent“, denn: Beide Begriffe implizieren das Menschliche, sodass es zu schwerwiegenden Missverständnissen kommen kann, wenn sie auf einen Algorithmus angewendet werden.  

Die bessere Perspektive ist, Chatbots und Large Language Models (LLM) wie GPT als potenziell nützliche Tools zum Erfüllen bestimmter Aufgaben und nicht als Salontricks zu betrachten. Der Erfolg hängt von der Identifizierung der Anwendungen für diese Technologien ab, die der Organisation bedeutende Vorteile bieten. 


Anmerkung: Als Uncanny-Valley-Effekt oder Akzeptanzlücke bezeichnet man das Phänomen, dass die Akzeptanz einer technisch simulierten, menschenartigen Entität (zum Beispiel Roboter oder Avatare) nicht stetig monoton mit der Menschenähnlichkeit dieser Figur steigt, sondern innerhalb einer bestimmten Spanne einen starken Einbruch verzeichnet. Beschrieben wurde dieses Phänomen erstmal 1970 vom japanischen Robotiker Masahiro Mori. 


Was sind potenzielle Anwendungsfälle für ChatGPT? 

Chatbots oder Gesprächsassistenten bieten eine kuratierte Interaktion mit einer Informationsquelle. Bei Chatbots gibt es einige Anwendungsfälle, vom Kundendienst bis zur Unterstützung von Technikern bei der Identifizierung von Problemen.  

ChatGPT ist ein spezifischer Anwendungsfall eines Chatbots, bei dem der Chatbot mit einer GPT-Informationsquelle interagiert (chattet) oder sich „unterhält“. In diesem Fall wird die GPT-Informationsquelle von OpenAI auf eine bestimmte Domäne trainiert. Die bei diesem Modell verwendeten Trainingsdaten bestimmen die Art und Weise, wie Fragen beantwortet werden. Wie bereits erwähnt: Die Fähigkeit von GPT, unvorhersehbar falsche Informationen zu generieren, bedeutet, dass die Informationen nur in Situationen verwendet werden können, in denen Fehler toleriert oder korrigiert werden können.  

Welche ethischen Bedenken gibt es im Zusammenhang mit ChatGPT und anderen ähnlichen KI-Modellen? 

KI-Basismodelle bieten einzigartige Vorteile, wie etwa weniger Kosten und geringerer Zeitaufwand bei der Entwicklung eines domänenspezifischen Modells. Sie bergen jedoch auch Risiken, die ethische Bedenken aufwerfen. Unter anderem im Zusammenhang mit diesen Themen:   

Komplexität 

Große KI-Modelle umfassen Milliarden oder sogar Billionen von Parametern. Sie sind aufgrund der erforderlichen Rechenressourcen für die meisten Organisationen zu groß und zu teuer, um trainiert werden zu können.

Machtkonzentration 

Große KI-Modelle wurden hauptsächlich von großen Technologieunternehmen mit enormen Investitionen in Forschung und Entwicklung entwickelt. Dies hat zu einer Konzentration der Macht in einigen wenigen finanzstarken Organisationen geführt, was in Zukunft zu einem erheblichen Ungleichgewicht führen kann.  

Möglicher Missbrauch 

KI-Basismodelle senken die Kosten für die Erstellung von Inhalten, wodurch es einfacher wird, „Deepfakes” zu erstellen, die dem Original sehr ähnlich sind. Dies umfasst alles – von Sprach- und Video-Imitation bis hin zu Kunstfälschungen sowie gezielten Angriffen. Die damit verbundenen ethischen Bedenken könnten dem eigenen Image schaden oder politische Konflikte auslösen.  


Anmerkung: Deepfakes sind realistisch wirkende Medieninhalte, die durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. 


Black-Box-Charakter 

KI-Basismodelle erfordern immer noch ein sorgfältiges Training und können aufgrund ihres Black-Box-Charakters inakzeptable Ergebnisse liefern. Es ist oft unklar, welchen Factbase-Modellen Antworten zugeschrieben werden, was zu nachgelagerten Verzerrungen in den Datensätzen führen kann. Die Homogenisierung solcher Modelle kann zu einem Single Point of Failure führen.  

Geistiges Eigentum 

Das Modell wird anhand erstellter Arbeiten trainiert. Es ist noch unklar, worin der Präzedenzfall für die Wiederverwendung dieser Inhalte bestehen könnte, wenn sie aus dem geistigen Eigentum anderer stammen. 


Anmerkung: Ein Basismodell ist ein Modell künstlicher Intelligenz, das auf einer großen Menge unbezeichneter Daten in großem Maßstab trainiert wird. Dies führt zu einem Modell, das an eine Vielzahl nachgelagerter Aufgaben angepasst werden kann. 


Wie können Führungskräfte KI-Basismodelle auf ethische Weise in die Organisation integrieren? 

1. Mit Anwendungsfällen für die Verarbeitung natürlicher Sprache (NLP) beginnen, wie etwa Klassifizierung, Zusammenfassung und Textgenerierung für Szenarien ohne Kundenkontakt. 

2. Aufgabenspezifische, vortrainierte Modelle wählen, um teure Anpassungen und Schulungen zu vermeiden.  

3. Anwendungsfälle bevorzugen, bei denen die Ausgabe von Menschen überprüft wird.  

4. Ein Strategiedokument erstellen, das die Vorteile, Risiken, Chancen und die Roadmap für die Bereitstellung der KI-Basismodelle wie GPT umreißt. Dies hilft bei der Einschätzung, ob die Vorteile die Risiken für bestimmte Anwendungsfälle überwiegen.  

5. Für die Nutzung solcher Modelle auf cloudbasierte APIs setzen; dabei das kleinste Modell wählen, das die erforderliche Genauigkeit und Leistung bietet, um die betriebliche Komplexität zu reduzieren, den Energieverbrauch zu senken und die Gesamtbetriebskosten zu optimieren.  

6. Anbieter priorisieren, die den verantwortungsvollen Einsatz von Modellen fördern, indem sie Nutzungsrichtlinien veröffentlichen, diese Richtlinien durchsetzen, bekannte Schwachstellen und Schwächen dokumentieren und schädliches Verhalten und Missbrauchsszenarien proaktiv offenlegen. 

ChatGPT fürs Customer Experience Management? 

Im Rahmen eines Blogbeitrags hatten wir ChatGPT drei Anforderungen gestellt. Diese bezogen sich auf alltagspraktische Aufgaben im Marketing. Wir wollten herausfinden, zu welchen Ergebnissen die KI kommt, und haben diese im Anschluss von zwei CX-Expertinnen bewerten lassen. Wir wollten wissen: 

  • Könnten Marketer mit diesem Ergebnis arbeiten? Wenn ja, warum? 
  • Was fehlt beziehungsweise was könnte besser sein? 
  • Was hätte an der Formulierung der Aufforderung gegebenenfalls anders sein sollen? 

Im Blogartikel „ChatGPT und CX? 3 Prompts für die KI” lassen sich die einzelnen Ergebnisse nachlesen. Nur so viel sei jetzt schon verraten: Wie fast immer bei ChatGPT ist das Ergebnis nicht eindeutig. Eindeutig im Sinne einer ausreichenden inhaltlichen Substanz – und auch immer abhängig von demjenigen, der das Ergebnis bewertet.  

Suche

Top Themen

CRM & Customer Data Management
Messenger, Chatbots & Conversational Interfaces
E-Mail Marketing & Marketing Automation
Digital Experience Management
Customer Experience Strategie & Mindset
Customer Service Excellence & Operations
Comments (0)
No comments found!
Write new comment