Der Bereich Künstliche Intelligenz hat in den vergangenen Jahren enorm an Fahrt aufgenommen. Auch KI-Chatbots erfreuen sich immer größerer Beliebtheit. Doch kann man diesen Bots wirklich trauen?
Ob im Browser, per App oder selbst im Messenger WhatsApp: Der Kontakt mit KI-Chatbots ist inzwischen nahezu überall möglich. Mittlerweile hat auch der Facebook-Konzern mit Meta AI eine KI in seine Apps integriert. Google hingegen setzt unter anderem in seiner Suche auf die neue Funktion „Übersicht mit KI“, die Suchergebnisse KI-basiert zusammenfasst.
In fast allen Bereichen des täglichen Lebens kommt Künstliche Intelligenz inzwischen zum Einsatz. Eine Umfrage aus dem Mai 2025 hat zudem ergeben, dass das Vertrauen in KI-basierte Suchtools im Jahr 2025 stark angestiegen ist. Im Jahr 2024 vertrauten lediglich 58 Prozent der Befragten KI-Chatbots sowie 47 Prozent der Befragten KI-Suchmaschinen.
Nur ein Jahr später lag die Zahl in beiden Kategorien bei 79 Prozent. Damit liegen die KI-Ergebnisse zwar noch hinter den herkömmlichen Suchmaschinen wie Google, Bing und Co. mit 89 Prozent im Jahr 2024 und 90 Prozent im Jahr 2025. Dennoch ist hier ein klarer Trend zu erkennen, der die Vertrauenszunahme gegenüber KI-basierten Suchtools belegt.
Kann man den Ergebnissen von KI-Chatbots trauen?
Dieses Vertrauen in die vermeintlich allwissenden KI-Tools kann jedoch auch negative Auswirkungen haben. Denn KI-Chatbots sind auf verschiedene Wege beeinflussbar und können so unter anderem auch verfälschte Inhalte ausgeben.
Die Ergebnisse von KI-Tools können auf verschiedene Art und Weise beeinflusst werden. Eines der bekanntesten Probleme in diesem Zusammenhang ist der Bias – die KI-Verzerrung.
Diese Art der Voreingenommenheit von KI-Systemen kann unter anderem durch voreingenommene Trainingsdaten auftreten. Aber auch fehlerhafte oder unvollständige Datensätze beim Training der KI können zu verfälschten Ergebnissen führen.
Zusätzlich können Phänomene wie der Kluger-Hans-Effekt auftreten, bei dem KI-Modelle Ergebnisse liefern, ohne diese tatsächlich zu „verstehen“. Auch die Arbeitsweise von KI-Tools mit der Hilfe von sogenannten Tokens kann dazu führen, dass sie vermeintlich einfache Aufgaben nicht lösen können – wie beispielsweise das Zählen des Buchstabens R in dem Wort Strawberry.
Untersuchung belegt Verzerrungen
Doch können KI-Chatbots Menschen mit ihren Antworten tatsächlich in die Irre führen? Diese Fragestellung hat die BBC anhand ihrer eigenen Nachrichteninhalte beleuchtet.
Dabei kam die British Broadcasting Corporation, die öffentlich-rechtliche Rundfunkanstalt des Vereinigten Königreichs, zu dem Schluss, dass die KI-Assistenten „erhebliche Ungenauigkeiten und verzerrte Inhalte der BBC“ wiedergegeben haben.
Untersucht hat die BBC die vier öffentlich zugänglichen KI-Assistenten ChatGPT von OpenAI, Copilot von Microsoft, Gemini von Google und Perplexity. Diese erhielten für die Dauer der Untersuchung uneingeschränkten Zugriff auf die BBC-Website.
Die KI-Antworten wurden von BBC-Journalisten, die alle Experten für die Fragestellungen waren, anhand von Kriterien wie Genauigkeit, Unvoreingenommenheit und der Darstellung der BBC-Inhalte überprüft.
Die Ergebnisse der Auswertung zeigen, dass mehr als die Hälfte der Antworten (51 Prozent) auf Fragen zu den Nachrichten in irgendeiner Form als erheblich problematisch bewertet wurden. 19 Prozent der Antworten, in denen BBC-Inhalte zitiert wurden, enthielten zudem sachliche Fehler, wie zum Beispiel falsche Tatsachenaussagen oder fehlerhafte Zahlen und Daten.
Auch direkte Zitate aus BBC-Artikeln enthielten in 13 Prozent der Fälle Fehler. So waren sie entweder gegenüber der Originalquelle verändert worden oder kamen überhaupt nicht in dem zitierten Artikel vor.
Auch interessant: