Die 6 größten Chatbot-Fails und Tipps, wie man sie vermeidet

Inhaltsverzeichnis

Über diesen Guide

ChatGPT, Google Gemini, Microsoft Copilot (Bing Chat) und viele weitere KI-basierte Chatbots haben schon mehrfach bewiesen, wie praktisch deren Nutzung im privaten und beruflichen Alltag sein kann. Von der Verfassung von Texten, über die Generierung von Code, bis hin zur Erstellung von Bildern und Videos: Die Chatbots haben eine große Bandbreite hilfreicher Funktionen. Doch wenn die Künstliche Intelligenz dahinter zu solch beeindruckenden Aufgaben fähig ist, wieso kommt es dann immer wieder zu sogenannten “Chatbot-Fails”, in denen die KI falsche, beleidigende oder unpassende Informationen herausgibt? Schließlich sind Firmen wie OpenAI, Google und Microsoft alles andere als Amateure. In diesem Artikel berichten wir über die 6 größten Chatbot-Fails – darunter Faux-Pas von ChatGPT, Microsoft Copilot (Bing Chat) und den Chatbots von DPD, NEDA, Chevrolet und Air Canada – und klären auf, wie diese entstehen konnten. Erfahren Sie außerdem, weshalb diese Fails problematisch sind und erhalten Sie Tipps, wie man sie vermeidet

Relevanz von KI-Chatbots

Chatbots großer Tech-Giganten, die auf generativer KI basieren und sich auch an Privatpersonen richten, gibt es in der Form, in der wir sie heute kennen, erst seit wenigen Jahren - und dennoch fällt es bereits jetzt schwer, sich den Alltag ohne sie vorzustellen. Schnell mal bei ChatGPT ein paar Reisetipps für den nächsten Urlaub einholen oder für die Arbeit eine Programmieraufgabe erledigen lassen – Chatbots haben in der digitalen Welt ihren Platz gefunden. Das Chatten selbst ist bei Nutzer:innen längst durch die jahrelange Nutzung von Plattformen wie WhatsApp, Facebook Messenger oder Telegram als favorisierter Kommunikationskanal etabliert, sodass auch die hohe Akzeptanz von Chatbots nicht verwunderlich ist. In den letzten Jahren haben sich daher immer mehr Einsatzgebiete von Chatbots erschlossen, in denen Chatbots dafür sorgen, dass Prozesse automatisiert, verschlankt und verbessert werden. 

Die 6 größten Chatbot-Fails

Wie bei jeder Technologie lautet die Devise auch bei KI-Chatbots: Der Umgang will gelernt sein. Hat die Generative KI in ihrer Gestaltung und Ausführung zu viel Freiheit und wird zu wenig kontrolliert, macht sie sich selbständig und spielt teilweise unerwünschte Informationen aus. Dies ist in der Vergangenheit bereits mehrfach vorgekommen, unter anderem bei der Nutzung von ChatGPT, Microsoft Copilot (Bing Chat) und anderen Chatbots bekannter Unternehmen.

Fail Nr.1: ChatGPT erfindet Präzedenzfälle

Der Chatbot ChatGPT der Firma OpenAI hat die Chatbot-Landschaft nachhaltig verändert und dafür gesorgt, dass die breite Masse sich mit dem Thema künstliche Intelligenz und KI-Chatbots beschäftigt. ChatGPTs Fähigkeiten sind ohne Frage beeindruckend – trotzdem ist die Nutzung des Tools mit Vorsicht zu genießen. Seit der Veröffentlichung von ChatGPT 2022 hat der Chatbot in Unterhaltungen immer mal wieder – häufig im Unwissen der Nutzer:innen – Informationen ausgespielt, die nicht gestimmt haben, frei erfunden oder sogar diskriminierend waren. Neben eher harmloseren Unterhaltungen, in denen ChatGPT eine Fangfrage falsch beantwortet oder Spiele wie Tic Tac Toe verliert, gibt es auch schwerwiegende Missverständnisse, die zustande kommen können. Ein Beispiel dafür ist folgendes Ereignis:

Wie die Tagesschau berichtet, nutzte ein Rechtsanwalt in New York ChatGPT für die Recherche eines Falles, indem er den Bot Präzedenzfälle aufzählen ließ. Der Chatbot lieferte daraufhin konkrete Angaben inklusive Aktenzeichen über Fälle wie "Petersen gegen Iran Air" oder "Martinez gegen Delta Airlines". Im Nachhinein stellte sich heraus, dass diese Fälle von ChatGPT frei erfunden waren. Der Anwalt muss sich nun vor Gericht für sein Verhalten verantworten. Diese Situation ist leider kein Einzelfall. So berichtete auch die Washington Post von einem ernst zu nehmenden ChatGPT-Skandal, in dem ChatGPT im Kontext sexueller Belästigung falsche Angaben machte.

Fail Nr. 2: Microsoft Copilot (ehemals Bing Chat) wird emotional

Auch Microsoft Copilot, vor allem bekannt unter der alten Bezeichnung Bing Chat, ist schon der ein oder andere Fail passiert. Der User Kevin Lui gab auf der Plattform X (ehemals Twitter) ein Beispiel dafür, dass der Chatbot unangebrachte Emotionen zeigen kann. So sei Microsoft Copilot (Bing Chat) wütend geworden, als er sich mit ihm unterhalten habe, weil er ihm mehrfach dieselbe Frage stellte, ihn nicht bei seinem richtigen Namen nannte und behauptete, der Chatbot würde lügen. Der Chatbot ärgerte sich über das Verhalten des Nutzers und gab schließlich zu, dass er nicht in der Lage sei, das Thema angemessen mit ihm zu besprechen. 

Chatbot-Fail Bing Chat
Beispiel für einen Chatbot-Fail: Microsoft Copilot (Bing Chat)

Fail Nr. 3: DPDs Chatbot wird ausfallend

Einen ähnlich emotionalen Ausbruch hatte der Chatbot des Paketzustellers DPD, der zusätzlich zu den Servicemitarbeitenden im Onlinesupport genutzt wurde, um wiederkehrende Fragen von Kund:innen zu beantworten. 

Aufgrund eines neuen Updates fing der Chatbot allerdings an, das eigene Unternehmen zu kritisieren und vor den Kund:innen Schimpfwörter zu benutzen. Die Erfahrung des DPD-Kunden Ashley Beauchamp mit dem Chatbot, die er auf den sozialen Medien teilte, ging weltweit viral. So bezeichnete die KI in der Konversation mit Ashley Beauchamp DPD als das “schlechteste Zustellunternehmen der Welt”. DPD deaktivierte das dafür verantwortliche KI-Element zwar sofort und aktualisierte es – ein Imageschaden hingegen lässt sich so leicht nicht beheben.

Chatbot-Fail bei DPD
Chatbot-Fail beim Paketzusteller DPD

Fail Nr. 4: NEDAs Chatbot gibt unangemessene Ratschläge

Der US-amerikanische Verband NEDA, kurz für National Eating Disorders Association, hatte im Mai 2023 ebenfalls mit einem Chatbot-Skandal zu kämpfen. Die gemeinnützige Organisation führte ihren Chatbot Tessa mit dem Ziel ein, die Ess-Störungs-Hotline, die bislang von Mitarbeitenden betreut wurde, zu ersetzen. Der Chatbot spielte Nutzer:innen allerdings Ratschläge für eine Gewichtsabnahme aus. Da Empfehlungen dieser Art für Betroffene von Essstörungen höchst problematisch sein und krankhafte Verhaltensstrukturen triggern können, musste Tessa nach kurzer Zeit bereits wieder offline genommen werden. Der Aufschrei in den sozialen Medien war groß, wie der Instagram-Beitrag der Userin Sharon Maxwell verdeutlicht:

Chatbot-Fail NEDA
Chatbot-Fail bei dem US-Amerikanischen Verband NEDA

Fail Nr. 5: Chevrolets Chatbot lässt sich manipulieren

Der Autohändler Chevrolet in Watsonville hatte eigentlich gute Absichten, als er einen Chatbot auf seiner Webseite einpflegte. Zweck der künstlichen Intelligenz war es, Servicemitarbeitende zu entlasten und den Kundenservice zu verbessern. Nutzer:innen stellten allerdings nach einiger Zeit fest, dass der Chatbot manipulierbar ist und sich dazu überreden lässt, auch auf die absurdesten Vorschläge mit “Ja” zu antworten. So brachte der Nutzer Chris Bakke den Bot beispielsweise dazu, ihm den Autokauf eines 2024 Chevy Tahoe für einen US-Dollar als rechtskräftigen Deal zu bestätigen. Den Vorfall dokumentierte Chris Bakke auf X (Twitter) und sorgte damit für einen kräftigen Imageschaden des Autohändlers:

Chatbot-Fail bei Chevrolet
Chatbot-Fail bei Chevrolet of Watsonville

Fail Nr. 6: Air Canadas Chatbot macht falsche Angaben

Selbst großen und weltweit agierenden Konzernen wie Air Canada sind bereits Chatbot-Fehlschläge unterlaufen, die verdeutlichen, dass unkontrollierte Künstliche Intelligenz unerwünschte Folgen haben kann:

Jake Moffatt buchte im November 2022 einen Flug von British Columbia nach Toronto mit der Airline Air Canada, um an der Beerdigung seiner Großmutter teilzunehmen und ließ sich von dem Chatbot der Fluggesellschaft bestätigen, dass er sich im Nachgang einen speziellen Rabatt für Trauerfälle erstatten lassen kann. Anschließend stellte sich heraus, dass der Chatbot falsche Angaben gemacht hatte, sodass Jake Mofatt Air Canada per E-Mail darauf hinwies. Die Fluggesellschaft gestand den Irrtum zwar ein, veranlasste allerdings trotzdem keine Rückerstattung.

Nun entschied ein Gericht, dass Air Canada auf seiner Webseite sowohl für die statischen als auch die interaktiven Inhalte, inklusive Chatbots, verantwortlich sei. Der Kunde müsse sich darauf verlassen können, korrekte Informationen auf der Seite zu finden. In dem Fall von Jake Moffatt musste Air Canada daher die Rückerstattung veranlassen und die Gerichtskosten tragen.

Warum diese Fails so problematisch sind

Die Chatbot-Fails von ChatGPT, Microsoft Copilot (Bing Chat), DPD, NEDA, Chevrolet und Air Canada zeigen, wie problematisch KI-Chatbots mit fehlender inhaltlicher Kontrolle sein können. 

Auf der einen Seite kann es das Image und das Geschäft von Unternehmen schädigen, wenn unerwünschte Informationen über den Chatbot veröffentlicht werden. Eine KI, die Autos für einen Dollar verkauft oder die eigene Firma als schlechteste der Welt bezeichnet, kann dafür sorgen, dass Unternehmen einerseits das Vertrauen ihrer Kund:innen verlieren und andererseits finanzielle Verluste einfahren. 

Auf der anderen Seite tragen auch die Nutzer:innen einen Schaden davon, wenn sie inkorrekte, ausgedachte, vulgäre oder diskriminierende Inhalte erhalten. So verdeutlicht das Beispiel des Chatbot-Fails von NEDA, dass das unerwünschte Ausspielen von Antworten sogar gesundheitliche Auswirkungen zur Folge haben kann.

Tipps: So vermeidet man Chatbot-Fails

Nach all den Fails folgen nun die guten Nachrichten: Skandale dieser Art können Unternehmen vermeiden, indem sie bei der Auswahl ihres Chatbot-Anbieters darauf achten, dass dieser die richtigen Kriterien erfüllt. Das sieht Moritz Beck von der Firma Memacon ähnlich. Er wies in seinem LinkedIn-Beitrag daraufhin, dass ein Vorfall, wie er sich bei Air Canada ereignete, mit einem sicheren, kontrollierbaren und DSGVO-konformen KI-Chatbot nicht zustande gekommen wäre:

LinkedIn-User kommentiert Chatbot-Fail bei Air Canada
Chatbot-Fail bei Air Canada: Ein Fehlschlag, der mit kontrollierter KI vermeidbar gewesen wäre

Nachfolgend finden Sie vier Tipps, mithilfe derer Sie sämtlichen Chatbot-Fails aus dem Weg gehen und den für Ihr Unternehmen passenden Chatbot-Anbieter finden.

Kontrollierte KI

Wir werden nicht müde, es zu betonen: Vertrauen ist gut, Kontrolle ist besser. Generative KI bietet beeindruckende, kreative Fähigkeiten: Sie ist in der Lage, Inhalte (Text, Bilder, Code, etc.) selbstständig zu generieren, was den Vorteil hat, dass diese nicht manuell erstellt und eingepflegt werden müssen. Um das Ausspielen unerwünschter, geschäftsschädigender und erfundener Informationen zu vermeiden, muss der Chatbot-Anbieter allerdings die Möglichkeit bieten, die Inhalte des Chatbots im Backend beziehungsweise in einem Interface manuell zu verwalten und zu verändern – Nur so behält man als Unternehmen die Kontrolle. 

Ein Chatbot ohne Kontrolle halluziniert nämlich immer dann, wenn ein unbekanntes Thema nicht zu seinen erlernten Mustern passt. In diesem Fall denkt er sich lieber Dinge aus, um überhaupt eine Antwort auf die Anfrage geben zu können. Bei kontrollierter GenAI kann dies nicht passieren: In diesem Fall werden Antworttexte des Chatbots zwar automatisch generiert, im Gegensatz zu ChatGPT & Co werden diese den Nutzer:innen jedoch nicht direkt ausgespielt. Die KI erstellt also mehrere Konzepte, Inhaltstexte, etc. und schlägt diese dem Chatbot-Owner vor. Der Chatbot-Owner, also die Person, die die Inhalte des Chatbots verwaltet (ein Mitarbeiter des Unternehmens), kann nun selbst entscheiden, ob die Antworten in dieser Form online gehen oder noch angepasst werden sollen.

DSGVO-Konformität

Ein weiteres wichtiges Kriterium, um Chatbot-Fails zu vermeiden, ist das Thema Datenschutz. Chatbots von Firmen wie OpenAI, deren Server sich in den USA und eventuell Drittländern befinden und die nicht transparent über ihre Datenverarbeitung kommunizieren, sind nicht DSGVO-konform. Es bietet sich daher an, einen Chatbot-Anbieter auszuwählen, der seine Server in Deutschland hostet, die Verschlüsselung von Daten ermöglicht und Sicherheitsmaßnahmen wie die Zwei-Faktor-Authentifizierung oder die individuelle Einstellung von Zugriffsrechten auf die Inhalte des Chatbots garantiert.

Wahl der passenden Chatbot-Art

Chatbot ist nicht gleich Chatbot: So gibt es regelbasierte oder KI-basierte Chatbots, die Möglichkeit eines hybriden Chatbots aus Bot und Live-Chat, eine Verbindung aus Chatbot und anderen Kommunikationskanälen (z.B WhatsApp Business oder Telegram) oder die Integration eines Chatbots in bestehende Tools wie Shopsysteme oder CRM-Software. Um herauszufinden, welche Lösung für das eigene Unternehmen am besten ist, sollten Sie für sich festlegen, wie Ihr konkreter Anwendungsfall aussieht: Welche Ziele sollen mit dem Chatbot verfolgt werden? Welche Bedürfnisse soll der Chatbot erfüllen? Setzen Sie sich mit Chatbot-Anbietern in Verbindung und lassen Sie sich kostenlos und unverbindlich beraten, um den für Sie passenden Anbieter zu finden und Chatbot-Fails jeglicher Art zu vermeiden. Weitere Tipps, die für die Einführung eines Chatbots hilfreich sind, erhalten Sie in unserem Artikel “Chatbot einführen: So gelingt es in 6 Schritten”. 

Transparenz & Human Take-Over

Ein weiterer wichtiger Punkt, um Chatbot-Fails vorzubeugen, ist das Thema Transparenz. Damit bei Chatbot-Nutzer:innen keine falschen Erwartungen geweckt werden, sollten das Design und die Inhalte des Chatbots klar kommunizieren, dass es sich bei dem Bot nicht um einen echten Menschen, sondern um eine Technologie handelt. Chatbots sollten nicht auf Biegen und Brechen jede Frage beantworten, sondern vor allem einfache, wiederkehrende Anfragen bearbeiten. Es bietet sich an, Nutzer:innen stets die Möglichkeit zu geben, doch mit einem Mitarbeiter oder einer Mitarbeiterin zu sprechen – sei es per Telefon, E-Mail, Live-Chat oder einem anderen Kommunikationskanal. So entstehen keine Missverständnisse darüber, was der Chatbot kann und was er nicht kann. Mehr Informationen zu diesem Thema finden Sie in unserem Artikel Human Takeover: Die Chatbot-Mensch-Übergabe.

Fazit

Chatbot-Fails wie die von ChatGPT, Microsoft Copilot (Bing Chat) oder anderen Chatbots, die auf Generativer KI basieren, aber keine Kontrollmöglichkeiten bieten, verdeutlichen, wie wichtig die Auswahl des richtigen Chatbot-Anbieters ist. Um einen KI-Chatbot im Unternehmen erfolgreich in der Kundenkommunikation einsetzen zu können, ohne das Risiko eines Chatbot-Fails einzugehen, muss der Anbieter die Möglichkeit bieten, Chatbot-Inhalte zu verwalten und anzupassen. Nur mithilfe kontrollierter künstlicher Intelligenz schaffen Unternehmen in der Kundenkommunikation Mehrwert für Ihre Kunden und verbessern gleichzeitig ihre internen Prozesse, indem sie die Effizienz steigern und Abläufe verschlanken. 

Sie möchten erfahren, wie kontrollierte KI in der Praxis aussieht? Erstellen Sie mit moinAI in nur vier Schritten Ihren Chatbot-Prototypen - natürlich kostenlos und unverbindlich.

In 4 Schritten Chatbot erstellen

Zufriedenere Kunden durch schnellere Antworten.

Überzeugen Sie sich selbst und erstellen Sie Ihren eigenen Chatbot. Kostenlos und unverbindlich.