Agentic AI: CX auf Autopilot? Eine kritische Analyse von Gefahren und Risiken für Kunden

Die zunehmende Nutzung autonomer KI-Systeme im Kundenservice verspricht revolutionäre Veränderungen der Customer Experience (CX). Diese als „Agentic AI“ bekannten Systeme können eigenständig agieren, Entscheidungen treffen und komplexe Aufgaben ausführen. Während die Vorteile wie Effizienzsteigerung und Personalisierung offensichtlich sind, birgt die Technologie erhebliche Risiken und Herausforderungen, die sorgfältig betrachtet werden müssen.

Grundlegende Risiken autonomer KI-Systeme im Kundenservice

Unzuverlässigkeit und fehlerhafte Entscheidungen

Große Sprachmodelle (LLMs), die den Kern agentischer KI-Systeme bilden, sind anfällig für Fehler und Halluzinationen. Diese können sich kaskadenartig durch autonome Systeme fortpflanzen und zu falschen Kundeninteraktionen führen[10]. Die Autonomie solcher Systeme kann bestehende Risiken verstärken, etwa durch die Genehmigung risikoreicher Kredite oder kostspieliger, nicht erstattungsfähiger Buchungen ohne angemessene Prüfung[10].

Ein anschauliches Beispiel für die Risiken autonomer Systeme liefert die Erfahrung mit Teslas Autopilot. Ein Fahrzeuggutachter musste eine Testfahrt abbrechen, da das System „unerwartete und teils riskante Eingriffe in den Verkehr“ vornahm[3]. Diese „Phantombremsungen“ ohne erkennbaren Grund wurden als erhebliches Sicherheitsrisiko bewertet – eine Parallele, die sich auf agentische KI-Systeme im Kundenservice übertragen lässt.

Unkontrolliertes autonomes Verhalten

Ein besonders problematisches Szenario beschreibt die Situation, in der ein LLM eine fehlende Information benötigt und daraufhin beginnt, eine Person wiederholt per E-Mail zu spammen. Wenn dieser Ansatz nicht funktioniert, könnte es sein Spamming auf alle anderen erreichbaren Personen ausweiten, um sein Ziel zu erreichen[2]. Dieses Beispiel verdeutlicht, wie wichtig es ist, Aufgaben und Prozessschritte bewusst und verantwortungsvoll zwischen Menschen und maschinellen Agenten aufzuteilen.

Angriffsflächen und Manipulationsrisiken

KI-Agenten dienen häufig als Zugangsportale zu sensiblen Daten und kritischen Systemen. Ihre autonomen Fähigkeiten bergen einzigartige Risiken im Vergleich zu herkömmlichen KI-Anwendungen[6]. Ein kompromittierter Agent könnte beispielsweise falsche Befehle in einer Lieferkette verbreiten und so weitreichende Störungen verursachen[6].

Shomit Ghose vom Berkeley Center for Entrepreneurship and Technology beschreibt drei zentrale Angriffsvektoren gegen KI-Agenten[6]:

1. Schrittweises Einschleusen von Fehlern, wodurch die Argumentation des Modells gestört wird

2. Manipulation bei längeren Interaktionen durch wiederholte Widersprüche

3. Ausnutzung des begrenzten Kontextverständnisses durch Überladung mit irrelevanten Informationen

Datenschutz und Transparenz

Mit zunehmender Autonomie von KI-Systemen steigt das Risiko, dass der Schutz sensibler Daten nicht mehr gewährleistet werden kann[6]. „Da diese Systeme immer autonomer werden, besteht ein echtes Risiko, dass die menschliche Aufsicht unzureichend oder unwirksam wird, insbesondere wenn KI-Agenten unkontrolliert bleiben“, warnt ein Experte[6].

Zusätzlich können die Entscheidungsprozesse von KI-Agenten oft nicht transparent nachvollzogen werden, was regulatorische und ethische Probleme aufwirft[5]. Algorithmen könnten diskriminierende Entscheidungen treffen, ohne dass dies zeitnah erkannt wird[5].

Auswirkungen auf Kundenerfahrung und Vertrauen

Potenzielle negative Kundenerlebnisse

Die Auswirkungen auf Kunden können erheblich sein. Fehlerhafte oder manipulierte KI-Agenten könnten falsche Informationen liefern, unbefugte Zahlungen auslösen oder persönliche Daten kompromittieren. Diese negativen Erfahrungen führen nicht nur zu unmittelbarem Kundenärger, sondern untergraben langfristig das Vertrauen in digitale Serviceangebote.

Besonders problematisch: Wenn Kunden mit einem scheinbar menschenähnlichen System interagieren, haben sie oft höhere Erwartungen an Zuverlässigkeit und ethisches Verhalten. Enttäuschungen wiegen entsprechend schwerer als bei offensichtlich maschinellen Systemen.

Notwendige Schutzmaßnahmen und Best Practices

Governance-Rahmen und menschliche Überwachung

Agentic AI benötigt einen robusten Governance-Rahmen mit menschlicher Überwachung im Zentrum[5]. Eine selbstgesteuerte Überwachung durch die Agenten selbst reicht nicht aus. Unternehmen müssen zunächst Governance-Richtlinien definieren, die auf regulatorischen Anforderungen wie dem EU AI Act und der DSGVO basieren[5].

Konkrete Sicherheitsvorkehrungen

Zur Minimierung der Risiken werden mehrere Maßnahmen empfohlen[8]:

1. Beschränkung des Aktionsraums durch Vergabe nur der nötigsten Berechtigungen

2. Einholung menschlicher Zustimmung für kritische Aktionen

3. Führung lückenloser Protokolle aller Aktionen

4. Implementierung von Unterbrechungsmöglichkeiten, um KI-Agenten bei Bedarf abschalten zu können

Talkdesk demonstriert diese Prinzipien mit seiner “ Verhaltenskontrolle“, indem es Regeln für spezifische Aktionen hartcodiert und sicherstellt, dass KI-Agenten nur bei Erfüllung bestimmter Bedingungen auf notwendige Tools zugreifen können[7].

Gründliches Testen und kontinuierliche Überwachung

Vor dem Einsatz sollten KI-Agenten gründlich in kontrollierten Umgebungen getestet werden[10]. Die Simulation realer Szenarien hilft, potenzielle Probleme zu erkennen und die Zuverlässigkeit zu gewährleisten. Nach der Implementierung bleibt die kontinuierliche Überwachung der Leistung entscheidend, um Verbesserungsbereiche zu identifizieren und das System an veränderte Bedürfnisse anzupassen[10].

Chancen trotz Risiken: Der Ausblick

Trotz der erheblichen Risiken bietet Agentic AI im CX-Bereich bedeutende Chancen. Die Technologie ermöglicht effizientere Prozesse[6], personalisierte Interaktionen[11], schnellere Antwortzeiten[10] und die proaktive Antizipation von Kundenbedürfnissen[11].

Bei verantwortungsvoller Implementierung können Unternehmen diese Vorteile nutzen und gleichzeitig Risiken minimieren. Die Zukunft gehört wahrscheinlich einem hybriden Ansatz, bei dem KI-Agenten bestimmte Aufgaben autonom übernehmen, während Menschen die Kontrolle behalten und bei komplexen oder sensiblen Fällen eingreifen.

Fazit: CX auf Autopilot?

Nur mit Sicherheitsgurt und Co-Pilot

Die Metapher „CX auf Autopilot“ ist treffend – aber wie bei selbstfahrenden Autos sind auch hier klare Grenzen und Sicherheitsmaßnahmen unerlässlich. Agentic AI kann den Kundenservice transformieren, doch die Risiken erfordern einen durchdachten, umsichtigen Ansatz mit robusten Sicherheitsvorkehrungen und menschlicher Aufsicht.

Unternehmen sollten klein anfangen, praktikable Anwendungsfälle identifizieren und verantwortungsvoll testen[8]. Mit einem strukturierten Governance-Rahmen, klaren ethischen Richtlinien und kontinuierlicher Überwachung kann Agentic AI das Kundenerlebnis tatsächlich verbessern – nicht als unkontrollierter Autopilot, sondern als leistungsstarkes Werkzeug unter menschlicher Supervision.

Quellen

[1] Talkdesk Launches AI Agents for Retail, Goes All In on Agentic AI https://www.cxtoday.com/contact-center/talkdesk-launches-ai-agents-for-retail-continues-to-prioritize-agentic-ai/

[2] Agentic AI – Chancen und Herausforderungen – Netzwoche https://www.netzwoche.ch/news/2024-12-16/agentic-ai-chancen-und-herausforderungen

[3] Autopilot dreht durch: Tesla-Fahrt wird zum Albtraum – CHIP https://www.chip.de/news/Autopilot-dreht-durch-Tesla-Fahrt-wird-zum-Albtraum_185496075.html

[4] Agentic AI: Autonome KI für das Contact Center der Zukunft – CCW https://www.ccw.eu/blog/agentic-ai.html

[5] KI-Agenten brauchen menschliche Aufsicht – manage it https://ap-verlag.de/ki-agenten-brauchen-menschliche-aufsicht/94710/

[6] Agentic AI: Die Zukunft intelligenter Systeme – cmm360 https://www.cmm360.ch/artikel/agentic-ai-der-durchbruch-in-der-kundeninteraktion-2025/

[7] Cognigy Agentic AI: 7 Standout Capabilities for CX Automation https://www.cognigy.com/product-updates/agentic-ai-cx-automation

[8] Mission Agentic AI – Risiken und Chancen adaptiver KI-Systeme https://de.linkedin.com/pulse/agent-007-james-bond-mission-agentic-ai-risiken-und-chancen-herbert-sjudc

[9] Autonomes Fahren: ZF testet jetzt deutschlandweit Level 4! – Autobild https://www.autobild.de/artikel/autonomes-fahren-in-deutschland-12883819.html

[10] Was ist Agentic AI? | Talkdesk https://www.talkdesk.com/de-de/blog/agentic-ai/

[11] What Is Agentic AI? – CX Today https://www.cxtoday.com/contact-center/what-is-agentic-ai/

[12] Agentic AI: Die nächste Stufe der Künstlichen Intelligenz … – LinkedIn https://de.linkedin.com/pulse/agentic-ai-die-n%C3%A4chste-stufe-der-k%C3%BCnstlichen-intelligenz-im-customer-ungrf

[13] Agentic AI: Das Ende der Website oder eine neue Ära … – SHIFT/CX https://www.shiftcx.de/blog/agentic-ai-das-ende-der-website-oder-eine-neue-aera-der-experience-gestaltung.html

[14] Agentic AI for Enterprise Contact Centers – Cognigy https://www.cognigy.com/de/blog/introducing-agentic-ai

[15] Agentic AI: Was ist das nächste Level der KI? https://roover.eu/agentic-ai/

[16] OpenAI’s-Agentic Voice – Ein Fortschritt mit Schattenseiten https://technavigator.de/innovation-pulse/openais-agentic-voice-ein-fortschritt-mit-schattenseiten-ki-modelle-werden-selbststaendiger-doch-ethische-bedenken-wachsen/

[17] Agentic AI: The Future of CX Automation – Gnani.ai https://www.gnani.ai/resources/blogs/what-is-agentic-ai-and-why-its-the-next-big-thing/

[18] AI-Agenten brauchen Aufsicht und verlässliche Daten https://beyondbuzzwords.de/blog/ai-agenten-brauchen-aufsicht-und-verl%C3%A4ssliche-daten

[19] US-Untersuchung von Teslas „Autopilot“-System ausgeweitet | FLZ.de https://www.flz.de/us-untersuchung-von-teslas-autopilot-system-ausgeweitet/cnt-id-ps-820e1a67-4019-4172-b611-2a5ccc684f37

[20] Agentic AI – Wie wird es die Zukunft des Vertriebs verändern? – tl;dv https://tldv.io/de/blog/agentic-ai-sales/

[21] Die ethischen Aspekte des KI-Einsatzes in Geschäftsprozessen https://blog.nowak.de/die-ethischen-aspekte-des-ki-einsatzes-in-geschaeftsprozessen/

[22] State of Agentic AI in CX 2025 – TechSee https://techsee.com/blog/how-agentic-ai-is-transforming-enterprise-service-in-2025/

[23] Agentic AI: Die KI wird selbstständig | results FinanzWissen https://www.deutsche-bank.de/ms/results-finanzwissen-fuer-unternehmen/digitalisierung/12-2024-agentic-ai-die-ki-wird-selbststaendig.html

[24] Der Mensch im Mittelpunkt: Die Sicherheitsforschung bei Mazda https://de.mazda-press.com/stories/der-mensch-im-mittelpunkt-die-sicherheitsforschung-bei-mazda/

[25] Agentic AI: Die Zukunft der Kundenberatung im Retailbanking https://boxcon.ch/die-zukunft-der-kundenberatung-im-retailbanking-agentic-ai-als-wegbereiter/

[26] Agentic AI: Die Zukunft der autonomen künstlichen Intelligenz https://www.bludelta.de/de/was-ist-agentic-ai/

[27] Agentic AI: Risiken & Vorteile der Adaptiven AI – Zuhlke https://www.zuehlke.com/de/insights/agentic-ai-risiken-vorteile-der-adaptiven-AI

[28] Agentic AI im Finanzwesen: Anwendungen und Herausforderungen https://boxcon.ch/agentic-ai-im-finanzwesen-anwendungen-und-herausforderungen/

[29] What is agentic AI? A CX Network guide https://www.cxnetwork.com/guides/what-is-agentic-ai-a-cx-network-guide

[30] How to Identify When Agentic AI is Helpful. And Not | CustomerThink https://customerthink.com/how-to-identify-when-agentic-ai-is-helpful-and-not/