Chatbots KI Vertrauen Künstliche Intelligenz

Chatbots: Warum man KI nicht trauen kann

Maria Gramsch
unsplash.com/Emiliano Vittoriosi

Der Bereich Künstliche Intelligenz hat in den vergangenen Jahren enorm an Fahrt aufgenommen. Auch KI-Chatbots erfreuen sich immer größerer Beliebtheit. Doch kann man diesen Bots wirklich trauen?

Ob im Browser, per App oder selbst im Messenger WhatsApp: Der Kontakt mit KI-Chatbots ist inzwischen nahezu überall möglich. Mittlerweile hat auch der Facebook-Konzern mit Meta AI eine KI in seine Apps integriert. Google hingegen setzt unter anderem in seiner Suche auf die neue Funktion „Übersicht mit KI“, die Suchergebnisse KI-basiert zusammenfasst.

In fast allen Bereichen des täglichen Lebens kommt Künstliche Intelligenz inzwischen zum Einsatz. Eine Umfrage aus dem Mai 2025 hat zudem ergeben, dass das Vertrauen in KI-basierte Suchtools im Jahr 2025 stark angestiegen ist. Im Jahr 2024 vertrauten lediglich 58 Prozent der Befragten KI-Chatbots sowie 47 Prozent der Befragten KI-Suchmaschinen.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 50€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Nur ein Jahr später lag die Zahl in beiden Kategorien bei 79 Prozent. Damit liegen die KI-Ergebnisse zwar noch hinter den herkömmlichen Suchmaschinen wie Google, Bing und Co. mit 89 Prozent im Jahr 2024 und 90 Prozent im Jahr 2025. Dennoch ist hier ein klarer Trend zu erkennen, der die Vertrauenszunahme gegenüber KI-basierten Suchtools belegt.

Kann man den Ergebnissen von KI-Chatbots trauen?

Dieses Vertrauen in die vermeintlich allwissenden KI-Tools kann jedoch auch negative Auswirkungen haben. Denn KI-Chatbots sind auf verschiedene Wege beeinflussbar und können so unter anderem auch verfälschte Inhalte ausgeben.

Die Ergebnisse von KI-Tools können auf verschiedene Art und Weise beeinflusst werden. Eines der bekanntesten Probleme in diesem Zusammenhang ist der Bias – die KI-Verzerrung.

Diese Art der Voreingenommenheit von KI-Systemen kann unter anderem durch voreingenommene Trainingsdaten auftreten. Aber auch fehlerhafte oder unvollständige Datensätze beim Training der KI können zu verfälschten Ergebnissen führen.

Zusätzlich können Phänomene wie der Kluger-Hans-Effekt auftreten, bei dem KI-Modelle Ergebnisse liefern, ohne diese tatsächlich zu „verstehen“. Auch die Arbeitsweise von KI-Tools mit der Hilfe von sogenannten Tokens kann dazu führen, dass sie vermeintlich einfache Aufgaben nicht lösen können – wie beispielsweise das Zählen des Buchstabens R in dem Wort Strawberry.

Untersuchung belegt Verzerrungen

Doch können KI-Chatbots Menschen mit ihren Antworten tatsächlich in die Irre führen? Diese Fragestellung hat die BBC anhand ihrer eigenen Nachrichteninhalte beleuchtet.

Dabei kam die British Broadcasting Corporation, die öffentlich-rechtliche Rundfunkanstalt des Vereinigten Königreichs, zu dem Schluss, dass die KI-Assistenten „erhebliche Ungenauigkeiten und verzerrte Inhalte der BBC“ wiedergegeben haben.

Untersucht hat die BBC die vier öffentlich zugänglichen KI-Assistenten ChatGPT von OpenAI, Copilot von Microsoft, Gemini von Google und Perplexity. Diese erhielten für die Dauer der Untersuchung uneingeschränkten Zugriff auf die BBC-Website.

Die KI-Antworten wurden von BBC-Journalisten, die alle Experten für die Fragestellungen waren, anhand von Kriterien wie Genauigkeit, Unvoreingenommenheit und der Darstellung der BBC-Inhalte überprüft.

Die Ergebnisse der Auswertung zeigen, dass mehr als die Hälfte der Antworten (51 Prozent) auf Fragen zu den Nachrichten in irgendeiner Form als erheblich problematisch bewertet wurden. 19 Prozent der Antworten, in denen BBC-Inhalte zitiert wurden, enthielten zudem sachliche Fehler, wie zum Beispiel falsche Tatsachenaussagen oder fehlerhafte Zahlen und Daten.

Auch direkte Zitate aus BBC-Artikeln enthielten in 13 Prozent der Fälle Fehler. So waren sie entweder gegenüber der Originalquelle verändert worden oder kamen überhaupt nicht in dem zitierten Artikel vor.

Auch interessant:

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Organizational Integration Manager (m/f/d)
Clarios Germany GmbH & Co. KG in
Vehicle Testing Lead (m/f/d)
Clarios Germany GmbH & Co. KG in
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Düsseldorf, Meerbusch, Kaa...
Sales Manager B2B für Stellenanzeigen und Soc...
Recruiting Excellence GmbH in Düsseldorf
(Junior) Social Media Manager*in (m/w/d) – Be...
Digital Vision Academy in Berlin
Performance Marketing Lead (m/w/d) – Pa...
NILO HAMBURG Inh. Niclas Tretschock in Meerbusch
Trainee Online Marketing Manager (m/w/d) Schw...
Finnwaa GmbH in Jena
Teile diesen Artikel
Folgen:
Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.