
Kein anderes KI-Konzept hat 2024 und 2025 so viele Erwartungen auf sich gezogen wie Agentic AI. Besonders im Kundenservice ist die Hoffnung groß: Autonome Systeme, die Anfragen selbständig bearbeiten, Prozesse abschließen und Kunden zu Lösungen führen, ohne menschliches Zutun. Die Versprechen klingen verlockend, die Investitionsbereitschaft ist hoch.
Und doch zeigt sich in vielen Unternehmen, dass Agentic AI im Service einfacher angekündigt als umgesetzt ist. Die Technologie ist vorhanden, die Steuerungslogik fehlt. Was bedeutet es, einem System zu erlauben, im Namen des Unternehmens zu handeln? Wer trägt Verantwortung, wenn der Agent falsch entscheidet? Und was genau soll der Agent eigentlich erreichen: schnell antworten oder das Problem lösen? Dieser Artikel nähert sich Agentic AI im Kundenservice von diesen Fragen her.
Was ist Agentic AI im Kundenservice?
Agentic AI bezeichnet KI-Systeme, die eigenständig Ziele verfolgen, mehrstufige Aufgaben planen und ausführen sowie bei Bedarf externe Systeme ansprechen, ohne für jeden Schritt eine menschliche Anweisung zu benötigen. Laut Gartner zählt Agentic AI zu den wichtigsten strategischen Technologietrends für 2025 und 2026, weil es den Übergang von reaktiven zu proaktiv handelnden Systemen markiert. Die allgemeinen Grundlagen und die CX-Perspektive haben wir ausführlich beschrieben in: Agentic AI und Agentic Automation: Was steckt hinter den neuen Hype-Begriffen?
Im Kundenservice-Kontext ist die entscheidende Frage: Welche Entscheidungstiefe wird dem System übertragen? Nicht jedes KI-System im Service ist agentic. Es lohnt sich, vier Stufen zu unterscheiden:
| Stufe | Systemtyp | Autonomiegrad | Typische Aufgabe im CS |
|---|---|---|---|
| 1 | Chatbot / FAQ-Bot | Regelbasiert, deterministisch | Standardfragen beantworten |
| 2 | Conversational AI | LLM-gestützt, dialogisch | Kontext verstehen, komplexer antworten |
| 3 | Agent Assist | Unterstützend, kein Handeln | Agenten in Echtzeit informieren und empfehlen |
| 4 | Agentic AI | Autonom, mehrstufig, handlungsfähig | Anfragen vollständig abschließen, Systeme ansprechen |
Der qualitative Sprung liegt zwischen Stufe 3 und 4: Agent Assist unterstützt den Menschen bei seiner Entscheidung, Agentic AI trifft die Entscheidung selbst und führt sie aus. Das ist keine technische Feinheit, sondern eine grundlegende Verschiebung der Verantwortungsstruktur. Für das Customer Service Management bedeutet das: Agentic AI ist ein neuer Akteur im Service-System, kein weiteres Automatisierungstool.
Vier Handlungsfelder: Wo Agentic AI im Service konkret wirkt
Agentic AI entfaltet im Kundenservice sein Potenzial nicht gleichmäßig über alle Kontakttypen. Es gibt Bereiche, in denen autonomes Handeln gut funktioniert und einfach zu kontrollieren ist, und Bereiche, in denen Komplexität und Risiko erheblich steigen. Vier Handlungsfelder lassen sich heute klar unterscheiden.
Anfragenklassifikation und intelligentes Routing
Risikoarm und mit hohem Sofortnutzen: Ein Agentic-AI-System analysiert eingehende Anfragen, versteht Kontext und Dringlichkeit und leitet sie an das passende Team, den passenden Kanal oder die passende Ressource weiter, schneller und präziser als regelbasierte IVR-Systeme. In Verbindung mit CRM-Daten kann das System auch Kundenhistorie, Vertragsstatus oder frühere Probleme einbeziehen.
Der Autonomiegrad ist hoch genug für echten Mehrwert, die Konsequenz eines Fehlers aber begrenzt: Eine falsch geroutete Anfrage kostet Zeit, kein Vertrauen. Deshalb eignet sich dieses Handlungsfeld als Einstiegspunkt für Unternehmen, die Agentic AI im Service erproben wollen.
Transaktionsagenten: Umbuchungen, Stornierungen, Statusabfragen
Wirtschaftlich ist dieses Handlungsfeld das interessanteste: Agenten, die vollständige Transaktionen ausführen, Termine verschieben, Bestellungen stornieren, Rücksendungen einleiten, Kontodaten aktualisieren. Diese Aufgaben sind klar definiert, prozessgebunden und häufig, genau das, was Automatisierung am effektivsten adressiert.
Die entscheidende Voraussetzung ist Backend-Integration. Ein Transaktionsagent ohne Zugang zu CRM, ERP oder Ticketsystem kann keine Transaktion abschließen, er kann sie nur ankündigen. Laut dem Salesforce State of Service Report 2024 planen über 80 % der Service-Führungskräfte, ihre KI-Investitionen zu erhöhen, und die Integration in Kernsysteme bleibt dabei die meistgenannte Herausforderung.
Lösungsagenten: Komplexe Diagnosen und Troubleshooting
Systeme, die mehrstufige Problemlösungsprozesse eigenständig durchlaufen: Ein Lösungsagent für technischen Support könnte Systemlogs analysieren, Diagnose-Schritte ausführen, Ergebnisse interpretieren und eine Lösung vorschlagen oder direkt umsetzen, ohne einen menschlichen Agenten in die Schleife zu nehmen.
Hier steigt die Anforderung an Guardrails erheblich. Der Agent muss wissen, wann ein Problem seine Kompetenzgrenze überschreitet. Unklare Eskalationspfade führen in diesem Handlungsfeld zu den sichtbarsten Qualitätsproblemen. McKinseys Analyse des wirtschaftlichen Potenzials generativer KI schätzt den Customer-Operations-Sektor als einen der größten Wertschöpfungsbereiche, mit explizitem Hinweis auf die Anforderung an Zuverlässigkeit und Kontrollierbarkeit.
Eskalationssteuerung: Der kritische Übergabepunkt
Dieses vierte Handlungsfeld ist kein eigenständiger Anwendungsfall, sondern der Verbindungspunkt aller anderen: Wie gibt das System eine Anfrage weiter, und mit welchem Kontext? Eine gute Eskalation bedeutet, dass der menschliche Agent nicht von vorne anfangen muss. Der Gesprächsverlauf, die versuchten Lösungsschritte, die erkannte Stimmung des Kunden sollten dabei alle übergeben werden.
Schlechte Eskalation ist eines der häufigsten Qualitätsprobleme in hybrid-automatisierten Service-Umgebungen: Der Kunde wiederholt sich, der Agent startet neu, das Vertrauen sinkt. Wie das hybride Modell aus Mensch und System so gestaltet werden kann, dass Übergaben als nahtlos erlebt werden, beschreiben wir in einem eigenen Beitrag zu Customer Service Automation.
Exkurs: Was ist Agent Assist?
Agent Assist bezeichnet KI-Systeme, die Service-Mitarbeiter in Echtzeit unterstützen, ohne selbst zu handeln. Während Agentic AI autonom Entscheidungen trifft und Aktionen ausführt, gibt Agent Assist Empfehlungen: relevante Wissensartikel, Antwortvorschläge, erkannte Eskalationssignale oder Stimmungshinweise aus dem Gesprächsverlauf. Der Mensch entscheidet, das System informiert.
Agent Assist ist damit das richtige Werkzeug für alles, was Urteilsvermögen, Empathie oder Kontextinterpretation erfordert, und der geeignete Einstieg in ein hybrides Betriebsmodell, das Automatisierung als Verstärker versteht. Eine ausführliche Einordnung bietet: Was ist Agent Assist?
Governance und Guardrails: Was Unternehmen wirklich brauchen
Der grundlegende Unterschied zwischen klassischer Automatisierung und Agentic AI liegt in der Vorhersagbarkeit des Verhaltens. Ein regelbasiertes System tut immer genau das, was seine Regeln besagen: deterministisch, nachvollziehbar, auditierbar. Ein LLM-basiertes agentic System verhält sich anders. Es generiert Antworten und Entscheidungen probabilistisch, richtig im Großteil der Fälle, aber ohne Garantie für jeden. Das NIST AI Risk Management Framework (2023) beschreibt diese Eigenschaft als Kernrisiko für Systeme, die autonom in sensiblen Kontexten handeln.
Für den Kundenservice bedeutet das: Governance ist keine nachgelagerte Compliance-Aufgabe, sondern Voraussetzung für den produktiven Betrieb. Vier Dimensionen sind entscheidend.
Themengrenzen: Was darf der Agent entscheiden?
Jedes agentic System im Kundenservice braucht eine klar definierte Kompetenzgrenze: Welche Entscheidungen darf es selbständig treffen, welche nicht? Standardisierte Transaktionen (Adressänderung, Standardstornierung) liegen typischerweise innerhalb. Kulanzentscheidungen, Ausnahmen von Standardprozessen oder Anfragen mit rechtlicher Relevanz liegen außerhalb.
Diese Grenzen müssen explizit definiert, regelmäßig überprüft und in der Systemarchitektur verankert sein, nicht nur dokumentiert. Ein Agent, der seine Grenzen nicht kennt, wird sie früher oder später überschreiten. Und anders als ein Mensch wird er das nicht bemerken.
Eskalationspfade: Wann und wie wird übergeben?
Eskalation ist ein Qualitätsmerkmal, kein Versagen. Ein gut konfiguriertes agentic System erkennt, wenn eine Anfrage außerhalb seiner Kompetenz liegt, und übergibt mit vollständigem Kontext: Was hat der Kunde gesagt? Welche Schritte wurden bereits versucht? Welche Stimmung wurde erkannt?
Die Frage, wann eskaliert wird, ist dabei genauso wichtig wie die Frage, wie. Zu frühe Eskalation untergräbt den Mehrwert der Automatisierung, zu späte Eskalation führt zu Frustration und Vertrauensverlust. Dieses Kalibrierungsproblem ist eines der anspruchsvollsten in der Governance-Praxis und lässt sich nicht einmalig lösen, sondern muss kontinuierlich anhand von Echtdaten nachjustiert werden.
Audit-Trail und Nachvollziehbarkeit
Was hat der Agent getan, und warum? Diese Frage muss beantwortet werden können, nicht nur im Fehlerfall, sondern als regulärer Betriebsstandard. Ein Audit-Trail dokumentiert Entscheidungspfade, genutzte Wissensbasis und Ausführungsschritte. Er ist Voraussetzung für Qualitätskontrolle, Systemverbesserung und rechtliche Absicherung.
Gerade weil LLM-basierte Systeme wahrscheinlichkeitsbasierte Ausgaben produzieren statt deterministischer Regeln abzuarbeiten, ist Nachvollziehbarkeit keine Selbstverständlichkeit. Sie muss aktiv in der Systemarchitektur vorgesehen werden: als Logging, als Monitoring, als regelmäßiges Review von Entscheidungsmustern.
Verantwortlichkeit: Wer haftet, wenn der Agent irrt?
Die Verantwortung für Entscheidungen, die ein agentic System trifft, liegt beim Unternehmen. Das ist juristisch eindeutig und organisatorisch oft unterschätzt. Wenn ein Agent einem Kunden eine falsche Auskunft gibt, eine unberechtigte Stornierung durchführt oder eine Eskalation verpasst, ist das ein Unternehmensversagen, kein Systemversagen.
Agentic AI ohne klare interne Zuständigkeiten einzuführen, also ohne festzulegen wer die Grenzen konfiguriert, wer das Systemverhalten überwacht, wer bei Grenzfällen entscheidet, ist Verantwortungsverschiebung ohne Adressaten. Gute Governance definiert diese Rollen, bevor das System live geht.
Agentic AI und Resolution Management: Der entscheidende Maßstab
Woran misst man, ob ein agentic System im Kundenservice erfolgreich ist? Die naheliegende Antwort lautet: an der Anzahl der Anfragen, die es ohne Mensch abschließt. Eine Effizienzmetrik, die nicht falsch ist, aber unvollständig.
Die entscheidende Frage ist dieselbe, die wir für menschliche Service-Teams stellen: Wurde das Problem des Kunden tatsächlich gelöst? Ein agentic System, das 70 % der Anfragen „bearbeitet“, davon aber nur 40 % wirklich löst, ist aus Resolution-Management-Perspektive kein Erfolg, auch wenn das Kontaktvolumen sinkt. Es skaliert Deflection, nicht Resolution.
Deshalb brauchen Unternehmen, die Agentic AI im Service einsetzen, eine eigene Kernmetrik für autonome Systeme: die Autonomous Resolution Rate (ARR), der Anteil der vom System vollständig gelösten Anfragen, gemessen auf Kundenseite. Analog zur First Contact Resolution Rate (FCR) für menschliche Agenten, aber angepasst an den Kontext autonomer Systeme: ohne Folgekontakt, ohne Eskalation wegen ungelöster Probleme, mit Kundenzufriedenheit als Validierung.
Wenn ARR die zentrale Steuerungsgröße ist, verändern sich die Anforderungen an das System: Es geht nicht darum, möglichst viele Anfragen im System zu halten, sondern darum, die richtigen Anfragen vollständig zu lösen und den Rest qualitativ hochwertig zu übergeben. Wenn Self-Service, Automatisierung und Agenten die Standardfälle übernehmen, bleibt im Service was schwieriger, sensibler und vertrauensrelevanter ist. Agentic AI, die Resolution als Maßstab hat, trägt dazu bei, diese Verschiebung konstruktiv zu gestalten. Den Überblick über das Zusammenspiel von Automatisierung, Routing und Resolution bietet: Was ist Customer Service Automation?
Fazit: Agentic AI verändert Service, wenn die Governance stimmt
Agentic AI ist keine Technologie, die man einfach deployt und dann läuft. Sie ist ein Systemakteur mit Entscheidungsgewalt, was klare Antworten verlangt: Welche Entscheidungen darf er treffen? Wie wird er bei Fehlern kontrolliert? Woran wird sein Erfolg gemessen? Wer das unterschätzt, bekommt ein System, das Kontaktvolumen reduziert, aber Vertrauen abbaut.
Wer es richtig macht, bekommt etwas anderes: einen Service, der einfache Anfragen zuverlässig löst, menschliche Agenten für das freihält, was Urteil und Empathie erfordert, und als Organisation lernt, was Kunden wirklich beschäftigt. Das Potenzial von Agentic AI im Kundenservice liegt nicht in der Abschaffung des Service-Teams, sondern in seiner strategischen Neuausrichtung.
Wie Unternehmen Agentic AI, hybride Betriebsmodelle und Resolution Management in der Praxis zusammendenken, steht im Mittelpunkt der Customer Service Management & Automation Konferenz 2026 (09.–11. Juni). Aus den Diskussionen der Shift/CX-Community, darunter der viel beachtete Rückblick auf das Conversation Café zum Customer Service Management, zeigt sich: Die Frage ist nicht mehr ob Agentic AI kommt, sondern wie Unternehmen sie so aufstellen, dass sie Service besser macht.
Wir legen großen Wert auf sachliche und unabhängige Beiträge. Um nachvollziehbar zu machen, unter welchen Rahmenbedingungen unsere Inhalte entstehen, geben wir folgende Hinweise:
- Partnerschaften: Vorgestellte Lösungsanbieter können Partner oder Sponsoren unserer Veranstaltungen sein. Dies beeinflusst jedoch nicht die redaktionelle Auswahl oder Bewertung im Beitrag.
- Einsatz von KI-Tools: Bei der Texterstellung und grafischen Aufbereitung unterstützen uns KI-gestützte Werkzeuge. Die inhaltlichen Aussagen beruhen auf eigener Recherche, werden redaktionell geprüft und spiegeln die fachliche Einschätzung des Autors wider.
- Quellenangaben: Externe Studien, Daten und Zitate werden transparent kenntlich gemacht und mit entsprechenden Quellen belegt.
- Aktualität: Alle Inhalte beziehen sich auf den Stand zum Zeitpunkt der Veröffentlichung. Spätere Entwicklungen können einzelne Aussagen überholen.
- Gastbeiträge und Interviews: Beiträge von externen Autorinnen und Autoren – etwa in Form von Interviews oder Gastbeiträgen – sind klar gekennzeichnet und geben die jeweilige persönliche Meinung wieder.







