
„When AI knows me better, I like it more. When it sounds like me, I love it. It feels like a friend.“ Diese Aussage stammt von Conor Grennan, Chief AI Architect an der NYU Stern School of Business, im Interview mit dem Wall Street Journal. Auf LinkedIn hat er das Zitat selbst hervorgehoben – und es wirkt auf den ersten Blick wie eine schlüssige Beobachtung über die emotionale Wirkung sprachfähiger KI-Systeme. Doch genau das hat mich stutzig gemacht.
Denn so nachvollziehbar die emotionale Reaktion auf personalisierte KI auch ist – sie ist nicht übertragbar auf jede KI-Anwendung im Unternehmenskontext. Viel zu häufig wird Nähe suggeriert, wo in Wahrheit funktionale Systeme arbeiten. Gerade in Service- oder Supportprozessen entsteht dadurch eine Erwartungslücke, die wir im CX-Design ernst nehmen müssen.
Ein Impuls für diese Einordnung war der Impulsvortrag “Menschliche Transformation durch Conversational AI: Psychologie, Gesellschaft und der Wandel der Kundeninteraktion” von Sarah Rojewski auf der Shift/CX Konferenzwoche 2025. Sie machte darin eindrücklich deutlich, wie schnell Systeme in ihrer emotionalen Wirkung überschätzt werden – und wie wichtig es ist, zwischen kommunikativer Anmutung und tatsächlicher Beziehung zu unterscheiden. Besonders betonte sie die notwendige Rollenklarheit: Nicht jedes System braucht Persönlichkeit – aber jedes System muss erkennbar machen, was es ist und was es nicht ist.
Dieser Beitrag greift diesen Impuls auf und diskutiert, unter welchen Bedingungen KI Beziehungspotenziale entfalten kann, wo klare Grenzen bestehen – und dass wir für die Ableitung von Empfehlungen eine differenziertere Betrachtung brauchen.
Der Mythos vom freundlichen KI-System
Die Vorstellung, dass ein KI-System wie ein Freund wirken kann, hat derzeit Hochkonjunktur. Sie passt in das Narrativ technologischer Wunder – und sie wird von Anbietern dialogfähiger Systeme gezielt gestärkt. Doch sie steht für mich auf einem wackligen Fundament.
Was wie Empathie klingt, ist häufig das Ergebnis bewusst gesetzter Designentscheidungen: Sprachmuster, Tonalität, semantische Flexibilität. Kunden erleben keine echte Beziehung, sondern ein simuliertes Dialogverhalten. Gerade im Unternehmenskontext, wo KI häufig auf Effizienz und Funktionalität ausgelegt ist, entsteht dadurch ein Missverhältnis zwischen Wirkung und Absicht.
Ein großer Teil der positiven Erfahrung mit KI speist sich aus Systemen wie ChatGPT, Claude oder Gemini – offene, lernfähige Systeme, die flexibel und lang anhaltend nutzbar sind. Doch das sind nicht die Systeme, mit denen Kund:innen typischerweise in Unternehmenskontexten interagieren. Es sind generische, nicht markengebundene Plattform. Diese Nutzungssituation ist mit dem typischen Chatbot im Unternehmenskontext nur bedingt vergleichbar.
Denn dort gelten häufig andere Rahmenbedingungen: Die Dialogführung ist stärker reglementiert, die Funktionen sind auf bestimmte Serviceprozesse begrenzt, und viele Systeme verzichten bewusst auf Verlaufsspeicherung oder tiefere Personalisierung – sei es aus Gründen der Datenminimierung, der regulatorischen Compliance oder fehlender strategischer Integration. Es ist also nicht die Technologie selbst, die die Beziehungslücke erzeugt, sondern deren konkrete Ausgestaltung im jeweiligen Anwendungskontext.
Die entscheidende Frage lautet also: Welche Voraussetzungen braucht es überhaupt, damit KI wie ein Beziehungspartner wahrgenommen wird – und wann ist das schlicht nicht der Fall?
Was es wirklich braucht, damit KI wie ein Freund wirkt
Die Wirkung eines „freundlichen“ KI-Systems ist kein Automatismus, sondern das Ergebnis gezielter Gestaltung – wenn auch nur in bestimmten Fällen tatsächlich realisiert. Um zu verstehen, unter welchen Bedingungen KI überhaupt Beziehungspotenzial entfalten kann, lohnt ein Blick auf die psychologischen und kognitiven Voraussetzungen, die emotionale Nähe überhaupt ermöglichen. Drei Faktoren stechen dabei besonders hervor – sowohl in der praktischen Ausprägung als auch in ihrer theoretischen Fundierung:
1. Kontinuität und Wiederholung
Beziehung entsteht nicht im Erstkontakt, sondern durch wiederholte, konsistente und nachvollziehbare Interaktionen. Erst wenn Nutzer:innen regelmäßig mit einem System interagieren – idealerweise in verschiedenen Situationen, aber mit erkennbarem Anschluss – kann sich ein Gefühl von Vertrautheit entwickeln.
Im Unternehmenskontext ist das selten der Fall: Servicebots werden meist punktuell bei einem konkreten Anliegen aufgerufen – etwa zur Rechnungsklärung oder Paketverfolgung. Dagegen können produktbegleitende KI-Anwendungen wie Health- oder Mobility-Assistants durch regelmäßige Nutzung Beziehungspotenzial aufbauen.
Neurobiologisch lässt sich das mit dem Konzept der Reward Anticipation (Schultz, 1998) erklären: Wiederholte positive Erlebnisse erzeugen eine emotionale Erwartung, die künftige Interaktionen aufwertet.
2. Personalisierung und Kontextbezug
Emotionale Nähe zur KI entsteht, wenn sich Nutzer:innen individuell angesprochen fühlen – und das System erkennbar auf persönliche Daten, frühere Interaktionen oder situativen Kontext eingeht. Hier geht es nicht um oberflächliche Anrede mit Vornamen, sondern um verstehbare Reaktionstiefe. Genau das fehlt oft bei heutigen Unternehmensbots.
Hintergrund dafür ist nicht selten die bewusste Entscheidung gegen Verlaufsspeicherung oder adaptive Systeme – aus Datenschutzgründen oder fehlender CX-Reife. Dabei zeigt die Self-Determination Theory (Deci & Ryan, 1985): Wenn Menschen das Gefühl haben, autonom und kompetent in Interaktion zu stehen, steigt die emotionale Bindung. Relevanz und Resonanz sind der Schlüssel – nicht bloß Antwortgeschwindigkeit.
Zusätzlich spielt der Prediction Error (Friston, 2005) eine Rolle: Wenn ein System unerwartet nicht auf bekannten Kontext eingeht, wird das als Störung wahrgenommen – die emotionale Anschlussfähigkeit sinkt.
3. Dialogische Offenheit und semantische Flexibilität
Ein System, das nur starre Klickpfade bietet, erzeugt keine Beziehung – es verarbeitet Anfragen. Beziehung entsteht erst, wenn Nutzer:innen das Gefühl eines echten Gesprächs entwickeln: durch freie Spracheingabe, variantenreiche Reaktionen und semantisches Verständnis. Generative KI-Modelle demonstrieren das eindrucksvoll – Unternehmensbots hingegen beschränken sich häufig auf Scripted Dialoge.
Die Zwei-Faktoren-Theorie von Herzberg (1959) zeigt: Zufriedenheit entsteht nicht durch Fehlervermeidung, sondern durch Erlebnisqualität. Dialogische Offenheit erzeugt eben diese Qualität. Auch Studien zur Basisemotionen-Theorie (Ekman) belegen, dass Nuancen in Sprache, Stimme und Reaktion eine Schlüsselrolle für emotionale Bewertung spielen – sogar im rein textlichen Austausch.
Damit eine KI „wie ein Freund“ wirken kann, braucht es mehr als Sprachverarbeitung oder freundliche Tonalität. Es braucht ein intentional gestaltetes System mit Wiedererkennbarkeit, Kontextbezug und Interaktionsqualität – und ein Nutzungsszenario, das diese Wirkung überhaupt zulässt. Die psychologischen Modelle liefern dafür das Fundament, aber in der Praxis entscheidet die konkrete Ausgestaltung über die Wirkung.
Und genau hier liegt der Knackpunkt: Nicht jede KI-Anwendung im Unternehmenskontext erfüllt diese Bedingungen – und viele sollen das auch gar nicht. Deshalb müssen wir entlang der Ansätze und Use-Cases eine differenzierte Diskussion führen.
Jetzt für Newsletter registrieren!
Erhaltet jeden Monat wichtige Impulse für Euer CX-Projekt mit unserem Newsletter!
Wann entsteht Beziehung – und wann nicht? Zwei Perspektiven zur Einordnung von KI-Interaktionen
Nicht jede KI-Anwendung im Kundenkontakt erzeugt Nähe – und nicht jede soll das überhaupt. Damit wir fundiert über Beziehungspotenziale wie auch die damit verbundenen Herausforderungen sprechen können, braucht es eine differenzierte Betrachtung der Anwendungsthematik von KI im CX-Design:
Erstens müssen wir verstehen, wie sichtbar oder eingebettet KI-Systeme an den Touchpoints agieren. Und zweitens, welche Funktion und Zielsetzung sie im jeweiligen Use Case erfüllen.
Erst aus dem Zusammenspiel dieser beiden Ebenen ergibt sich ein realistisches Bild darüber, ob und wie emotionaler Kontakt überhaupt entstehen kann.
Erste Perspektive: Wie sichtbar ist die KI für die Nutzer:innen?
Im Hinblick auf die erste Unterscheidung müssen wir die Integrationsform der KI an der Kundenschnittstelle diskutieren. Sie entscheidet maßgeblich darüber, ob Nutzer:innen das System überhaupt als Interaktionspartner wahrnehmen – oder ob es im Hintergrund bleibt und lediglich Prozesse optimiert.
- Verborgene KI – funktional, aber nicht beziehungsfähig
Viele KI-Systeme arbeiten unbemerkt im Hintergrund: Empfehlungsalgorithmen, automatisiertes Routing im Contact Center, FAQ-Systeme auf Basis von Retrieval-Technologie oder intelligente Preislogiken. Hier entsteht keine Beziehung – weil keine direkte Interaktion stattfindet. Die KI wirkt prozessual, nicht sozial. Kundenbindung kann zwar indirekt gestärkt werden – durch bessere Usability, schnellere Abläufe oder relevantere Inhalte – aber nicht durch emotionale Nähe. - Modulare KI-Interaktionen – sichtbar, aber funktional begrenzt
Anders ist es bei Anwendungen wie Voicebots, kontextuellen FAQs oder KI-gestützten Formularhilfen. Diese Systeme treten sichtbar in Kontakt mit Nutzer:innen, bleiben aber auf klar definierte Funktionen beschränkt. Sie vermitteln ein Gefühl von Struktur und technischer Unterstützung – Vertrauen kann entstehen, Nähe jedoch kaum. Die Interaktion bleibt rational, zielgerichtet und wenig personalisiert. - Conversational Interfaces – dialogisch, offen, potenziell bindend
In einem anderen Spektrum bewegen sich Chatbots mit eigener Tonalität, digitale Assistenten mit Verlaufsspeicherung oder Agenten mit Stimme und visuellem Ausdruck. Sie laden zur Interaktion ein – und erzeugen durch ihre Ausdrucksform und Wiedererkennbarkeit eine gewisse Nähe. In diesen Fällen beginnt echte Anthropomorphisierung: Nutzer:innen schreiben dem System Eigenschaften zu. Doch genau hier wächst auch die Verantwortung: Was als empathisch empfunden wird, muss nachvollziehbar und konsistent gestaltet sein – sonst drohen Irritation oder Vertrauensverlust.
Zweite Perspektive: Welche Funktion erfüllt das System im konkreten Anwendungskontext?
Die zweite Betrachtungsebene betrifft den Use Case: Welche Aufgabe hat die KI-Technologie in der Kundeninteraktion? Welche Rolle spielt es im Erleben der Kund:innen? Auch hier lassen sich unterschiedliche Kategorien unterscheiden – mit jeweils eigenen Beziehungspotenzialen.
- Transaktionale Use Cases – zweckgebunden und punktuell
Viele Servicebots beantworten einfache Fragen, helfen bei der Navigation oder lösen Standardprozesse aus. Die Interaktion ist kurz, zielgerichtet und inhaltlich klar begrenzt. Hier entsteht keine Beziehung – und das ist auch nicht notwendig. Entscheidend ist, dass das System verlässlich, verständlich und effizient funktioniert. - Begleitende Use Cases – unterstützend im Nutzungskontext
Anders sieht es aus, wenn eine KI regelmäßig im Rahmen der Produkt- oder Servicenutzung zum Einsatz kommt – etwa in einer App, einem Kundenportal oder in einem smarten Gerät. Wenn Nutzer:innen das System regelmäßig ansprechen, entsteht ein Vertrauensverhältnis. Wichtig ist hier die Wiedererkennbarkeit, ein gewisser Verlaufsspeicher und die situative Anpassungsfähigkeit. Nähe entsteht nicht automatisch, aber sie kann wachsen – sofern Gestaltung, Sprache und Funktion kohärent sind. - Konversationszentrierte Use Cases – dialogisch, persönlich, markenprägend
Manche Unternehmen setzen bewusst auf KI-Systeme, die als Markenbotschafter:innen auftreten: Assistenten mit eigenem Wording, Tonfall oder visuellem Ausdruck, die langfristig begleiten und aktiv in Dialog treten. In diesen Fällen wird Beziehung zur Strategie – und KI zum Beziehungsmedium. Hier sind die Anforderungen an Konsistenz, Transparenz und ethisches Design besonders hoch, denn die Systeme greifen tief in die Wahrnehmung der Marke ein.
Nähe gestalten heißt Verantwortung übernehmen
Je dialogischer ein System wirkt, desto größer werden also die Erwartungen der Nutzer:innen – nicht nur an Funktion, sondern an Verständnis. Wer sich verstanden fühlt, projiziert schnell Eigenschaften wie Empathie oder Intelligenz auf das System. Was wie eine Beziehung erscheint, ist dabei oft nur ein sehr gut gestalteter Interaktionsfluss.
Doch genau hier liegt die Herausforderung für das CX-Design: Wenn KI-Systeme Beziehung simulieren, ohne sie tatsächlich einlösen zu können, entsteht ein Erwartungsüberhang. Nutzer:innen erwarten Anschlussfähigkeit, Klarheit, Transparenz – und stoßen auf Reaktionsmuster, die in Wahrheit regelbasiert, vortrainiert oder limitiert sind.
Diese Diskrepanz wird zur Designaufgabe. Es geht nicht darum, jede KI empathisch erscheinen zu lassen. Im Gegenteil: Unternehmen müssen entscheiden, ob emotionale Nähe gewollt ist – und wie weit diese Nähe gehen soll. Das erfordert ein klares Rollenkonzept für jedes System:
- Ist die KI als Funktion gedacht – oder als Schnittstelle zur Marke?
- Muss sie neutral, effizient und unterstützend wirken – oder soll sie emotional anschlussfähig gestaltet sein?
- Wer übernimmt im Unternehmen die Verantwortung für diese Wirkung – Technik, Marketing, Service?
Gerade in dialogisch gestalteten Interfaces entstehen ethische und kommunikative Spannungsfelder:
- Wo beginnt die Täuschung – wenn Systeme menschlich wirken, aber maschinell bleiben?
- Wie gestalten wir Transparenz, ohne das Nutzungserlebnis zu stören?
- Was bedeutet es, wenn Kund:innen Vertrauen in eine „Person“ setzen, die keine ist?
Wie Sarah Rojewski auf der Shift/CX Konferenzwoche betonte: Nicht jedes KI-System braucht Persönlichkeit – aber jedes braucht Rollenklarheit. Ohne diese ist die Gefahr groß, dass Interaktionen zwar freundlich klingen, aber in Enttäuschung münden. Das bedeutet, dass emotionale Nähe kein Automatismus und kein beiläufiges Nebenprodukt technologischer Gestaltung sein darf. Sie ist – wenn sie gewollt ist – ein bewusst zu gestaltendes Potenzial. Das beginnt bei der Klärung der Systemrolle und reicht bis zur sprachlichen Ausgestaltung, zum Erwartungsmanagement und zur Frage, wie viel Kontextwissen und Reaktionsfähigkeit das System tatsächlich mitbringen soll.
Jede KI-Interaktion braucht ein gestalterisches Bewusstsein dafür, wie sie wirkt – und was sie bei den Nutzer:innen auslöst. Wenn Nähe entsteht, muss sie getragen sein von Klarheit: über die Fähigkeiten des Systems, über seine Grenzen und über die dahinterliegende Logik. Nur so lässt sich Vertrauen aufbauen – nicht als Ergebnis emotionaler Inszenierung, sondern durch Transparenz, Konsistenz und ein gemeinsames Verständnis in der Organisation darüber, wo Nähe sinnvoll ist – und wo Distanz das bessere Gestaltungsmittel bleibt.
Fazit: Beziehung durch KI – Potenzial, Risiko und Gestaltungsfrage
Beziehung durch KI ist möglich – aber sie ist kein Standard, keine technische Eigenschaft und schon gar keine Garantie. Sie entsteht nur dort, wo Systeme dialogisch gestaltet sind, regelmäßig genutzt werden, auf persönliche Kontexte reagieren – und als sozial anschlussfähig wahrgenommen werden. Und genau deshalb ist sie auch nicht harmlos. Denn Nähe erzeugt Erwartungen. Und Erwartungen, die durch Gestaltung entstehen, müssen auch durch Gestaltung eingeholt werden.
„When AI knows me better, I like it more. When it sounds like me, I love it. It feels like a friend.“ (Conor Grennan)
Diese Aussage von Conor Grennan war für mich der Ausgangspunkt und Reibungspunkt dieses Beitrages: Sie beschreibt ein Gefühl, das in spezifischen Nutzungssituationen generativer KI-Systeme real entstehen kann – etwa bei ChatGPT oder Claude –, aber sie verallgemeinert eine Erfahrung, die in Unternehmensanwendungen selten vorgesehen und noch seltener realisierbar ist.
Denn im organisationalen Kontext entsteht emotionale Nähe zur KI nicht automatisch, sondern nur unter ganz bestimmten Bedingungen: bei kontinuierlicher Nutzung, mit Systemgedächtnis, mit kontextsensibler Ansprache und einer bewusst gestalteten dialogischen Oberfläche. Diese Voraussetzungen treffen aber nur auf einen Bruchteil der aktuellen KI-Use Cases im Unternehmenskontext zu – etwa auf produktbegleitende Assistenzsysteme, personalisierte Markenbots oder explizit dialogisch konzipierte Service-KI. Für die große Mehrheit der KI-Anwendungen – von Routing über Smart FAQs bis zu Formularassistenzen – sind Beziehungseffekte weder gewollt noch zielführend.
Wenn wir KI im CX-Design als Beziehungsträger denken – ob bewusst oder implizit durch ihre Wirkung – dann brauchen wir mehr als Technologie.
Wir brauchen Klarheit: über Systemrollen, über gestalterische Verantwortung und über die Erwartungen, die wir auf Kundenseite erzeugen. Und wir brauchen ein gemeinsames Verständnis dafür, wann Nähe sinnvoll ist – und wann Distanz das ehrlichere Designprinzip bleibt. Hierbei müssen wir im Projekt einige wichtige Fragen klären - wie z.B.:
- Wie viel Nähe ist überhaupt gewollt – aus Sicht der Marke, des Use Cases, der Nutzer:innen?
- Wo beginnt gestalterische Verantwortung – und wie operationalisieren wir sie im Team?
- Wie benennen und moderieren wir die Erwartungen, die durch Personalisierung, Sprache oder Interface entstehen?
- Welche Kompetenzen braucht es, um dialogische KI nicht nur effizient, sondern auch konsistent und glaubwürdig zu gestalten?
Die Potenziale von KI im CX liegt nicht in großen Versprechen, sondern in der Fähigkeit, Gestaltung und Erwartung in ein stimmiges Verhältnis zu bringen.
Jetzt kostenlos für Freemium-Zugang zur Shift/CX-Plattform registrieren!
- Zugang zu Freemium-Inhalten der Mediathek
- Drei Credits für Freischaltung von Premium-Inhalten
- Monatlicher Content-Newsletter mit Premium-Inhalten
- Zugang zu geschlossener Linkedin-Gruppe
- Besondere Plattform-Angebote über Shift/CX Updates
- Kostenlos für immer!
Wir legen großen Wert auf sachliche und unabhängige Beiträge. Um nachvollziehbar zu machen, unter welchen Rahmenbedingungen unsere Inhalte entstehen, geben wir folgende Hinweise:
- Partnerschaften: Vorgestellte Lösungsanbieter können Partner oder Sponsoren unserer Veranstaltungen sein. Dies beeinflusst jedoch nicht die redaktionelle Auswahl oder Bewertung im Beitrag.
- Einsatz von KI-Tools: Bei der Texterstellung und grafischen Aufbereitung unterstützen uns KI-gestützte Werkzeuge. Die inhaltlichen Aussagen beruhen auf eigener Recherche, werden redaktionell geprüft und spiegeln die fachliche Einschätzung des Autors wider.
- Quellenangaben: Externe Studien, Daten und Zitate werden transparent kenntlich gemacht und mit entsprechenden Quellen belegt.
- Aktualität: Alle Inhalte beziehen sich auf den Stand zum Zeitpunkt der Veröffentlichung. Spätere Entwicklungen können einzelne Aussagen überholen.
- Gastbeiträge und Interviews: Beiträge von externen Autorinnen und Autoren – etwa in Form von Interviews oder Gastbeiträgen – sind klar gekennzeichnet und geben die jeweilige persönliche Meinung wieder.