Wie stellen sich Unternehmen die Zukunft des Kundenservice im Zeitalter der generativen KI vor? Folgen nun alle dem Beispiel von Klarna? Dort soll der KI-Assistent denselben Output liefern wie 700 Vollzeitmitarbeiter:innen in Callcentern. Innerhalb eines Monats hat die KI 2,3 Millionen Kundengespräche geführt und Kundenrückfragen um 25 Prozent reduziert. Steigern ChatGPT & Co also tatsächlich die Kundenzufriedenheit, während sich die Verantwortlichen gegenseitig auf die Schulter klopfen? Was versprechen sich Unternehmen wirklich vom Einsatz generativer KI und den dahinter stehenden LLMs?
Quelle:
www.trendingtopics.eu/klarna-ai-chatbot-soll-mitarbeiterinnen-ersetzen-und-boersengang-vorbereiten/
Was Unternehmen erwarten
KI-basierte Sprach- und Chatbots sollen die Kundenzufriedenheit erhöhen und die Kundenbindung stärken, gleichzeitig Kosten sparen und Personalprobleme lösen. Die Bots sollen im Omnichannel auf allen verfügbaren Kanälen autonom agieren, einfach zu programmieren sein und zudem Cross- und Upselling beherrschen. Bei diesen überzogenen Erwartungen ist es nicht verwunderlich, dass einige Early Adopter ihren Kundenservice mit ChatGPT im ersten Schritt deutlich verschlechtert haben.
ChatGPT kann Konversation
Das Weltwissen der LLMs ist beeindruckend - und ein Small Talk mit ChatGPT eine faszinierende Erfahrung. Aber hilft es dem Kundenservice von Unternehmen, wenn die KI den Kunden zwar gut unterhält, dabei aber sein eigentliches Anliegen aus den Augen verliert? Hier gilt es, den Smalltalk-Bias zu justieren und das vorhandene Unternehmenswissen rechtssicher und datenschutzkonform in die KI-Lösung zu integrieren.
Mit ChatGPT im Wunderland
Ein bekannter ‚Bug by Default‘ in ChatGPT und anderen LLMs ist das Halluzinieren bei konkreten Fragen. Hier gibt die KI zum Teil bedenkliche Falschaussagen, die sich kein Unternehmen im Hinblick auf Haftungsfragen leisten kann. Das Halluzinieren der KI im Kundendialog kann jedoch durch eine unternehmenseigene Wissensbasis, eine klare Rollenbeschreibung und eine menschliche Kontrolle der Antworten verhindert werden. Darüber hinaus kann die Kreativität von ChatGPT durch Parameter deutlich eingeschränkt werden.
KI-Lösungen rechtssicher betreiben
Themen wie Compliance, Recht, Datenschutz oder die Urheberrechte der Trainingsdaten, der ethische Bias und damit mögliche Diskriminierungstendenzen stehen ganz oben auf der Agenda kritischer Beobachter aus Wissenschaft, Politik und Gesellschaft. Am 13.3.2024 hat das EU-Parlament strengere Regeln für Künstliche Intelligenz in der EU beschlossen, deren konkrete Umsetzung aber noch bis zu zwei Jahre dauern kann. Damit soll „sichergestellt werden, dass KI-Systeme, die in der EU in Verkehr gebracht und genutzt werden, sicher sind und im Einklang mit den Grundrechten und Werten der EU stehen“. Betroffen sind alle, die in der EU KI-Systeme entwickeln, anbieten oder nutzen. Bei Verstößen gegen die KI-Richtlinien, zu denen auch umfangreiche Dokumentationspflichten gehören, drohen empfindliche Strafen. Unternehmen und Dienstleister, die den Einsatz einer KI-Lösung planen oder anbieten, sollten sich rechtzeitig informieren und externe Hilfe in Anspruch nehmen.
Mit Worten würfeln
Antworten im Kundenservice müssen immer zuverlässig und qualitätsgesichert sein. Deshalb gibt es nur wenige Situationen im Customer Care, in denen ChatGPT alleine sicher und zuverlässig funktioniert. Denn generative Transformatoren wie ChatGPT erzeugen keine Antworten, sondern Texte auf Basis von Statistiken. Der Astrophysiker und Wissenschaftsjournalist Harald Lesch hat dieses Verfahren einmal als ‚Würfeln mit Worten‘ bezeichnet.
Die Stärken von GenAI
Es gibt Anwendungsbereiche, in denen ChatGPT seine unbestreitbaren Stärken ausspielen kann. Beispiel Versicherung: Allgemeine Fragen zu einer Hausrat- oder Haftpflichtversicherung kann KI mit ihrem Weltwissen sehr gut beantworten. Das konkrete Angebot des Versicherers auf Basis verschiedener Vertrags- und Leistungsmodelle muss dann aber aus der firmeninternen Datenbank eingespeist werden.
Vor allem die überlegene Intentionserkennung ist eine große Stärke des LLM. Denn was sagt heute ein Versicherungskunde, der mit seinem Auto liegen geblieben ist? Die Möglichkeiten sind vielfältig: Alle Systeme sind ausgefallen, die Batterie ist leer, ich hatte einen Unfall, ich habe eine Panne, ich bin liegen geblieben, mein Auto springt nicht mehr an etc.
Im Vorfeld die richtigen Fragen stellen
Unternehmen sollten sich darüber im Klaren sein, was sie von einer KI-Lösung für ihren Kundenservice erwarten und ihre Ziele genau definieren, bevor sie eine generative KI auf ihre Kunden loslassen.
Welche Kundenanliegen (Intents) sollen automatisiert bearbeitet werden?
Unternehmen sollten nicht mit einer All-in-One-Lösung starten. Viel sinnvoller ist es, Teilbereiche mit einem Sprach- oder Chatbot zu automatisieren und aus den Erfahrungen zu lernen.
Wie viele automatisierbare Anfragen hat das Unternehmen pro Monat?
Sind es 100 Anfragen pro Woche über die verschiedenen Kanäle, weil die Produkte und Dienstleistungen Ihres Unternehmens nahezu perfekt sind? Dann macht ein Sprach- oder Chatbot für den Kundenservice keinen Sinn. Wo genau der Break-Even-Point liegt, ab dem sich eine KI-basierte Automatisierung lohnt, hängt von vielen Faktoren ab, die je nach Branche und Zielgruppe stark variieren.
Wie kann ChatGPT in die Unternehmens-IT integriert werden?
Es gibt Anbieter, die versprechen, in 15 Minuten ohne Code einen funktionierenden Chatbot für die eigene Website zu programmieren. Aber kommuniziert dieser Bot dann auch mit dem CRM, der ACD, dem Warenwirtschaftssystem, der Logistik, dem ERP? Hier geht es um Schnittstellen, notwendige Eingriffe in die IT-Infrastruktur und Legacy-Systeme, die sich nicht so einfach modernisieren lassen. Und das alles kostet vor allem eines: viel Zeit und Geld.
Was erwarten Kunden?
Kunden sind heute zunehmend bereit, Chatbots zu akzeptieren und zu nutzen, wenn diese ihre spezifischen Anforderungen erfüllen. Die Studie “State of Customer Experience” von Genesys zeigt, dass für 64 Prozent der Befragten eine schnelle Reaktionszeit oberste Priorität hat. Noch wichtiger ist ihnen jedoch, dass ihr Anliegen beim ersten Kontakt gelöst wird. Ein Hauptkritikpunkt ist die oft umständliche Weiterleitung von einem Chatbot zu einem menschlichen Berater, die dazu führt, dass Kunden ihre Anfrage bei jedem neuen Kontakt wiederholen müssen. Eine nahtlose Übergabe, der sogenannte Handshake, zwischen Bot und Servicemitarbeiter ist daher unerlässlich. Kurzum: Kunden erwarten einen flexiblen Self-Service, der ihre Probleme sofort löst und jederzeit über den bevorzugten Kommunikationskanal zur Verfügung steht.
Ein guter Rat zum Schluss
Unternehmen sollten LLMs wie ChatGPT mit unternehmensspezifischen Bots kombinieren und sicherstellen, dass im Bedarfsfall die Übergabe an Live-Agenten gewährleistet ist. Ansonsten gilt: Frühzeitig beraten lassen, mögliche Einsatzgebiete festlegen, Ziele definieren, Kosten und Nutzen abwägen.