KI Chatbots Fake News Künstliche Intelligenz Falschinformation

Diese KI-Chatbots verbreiten die meisten Fake News

Jonathan Harsch
Adobe Stock / deagreez

Der Antwort einer Künstlichen Intelligenz blind zu vertrauen, ist ein Fehler. Das beweist eine neue Studie, die aufzeigt, wie häufig KI-Chatbots im Bezug auf Nachrichten Falschinformationen bereitstellen.

KI-Modelle können in vielen Bereichen ein nützliches Werkzeug sein. Was sie offenbar nicht können, ist objektiv und korrekt Nachrichten zu verarbeiten. Eine aktuelle Studie zeigt nicht nur auf, dass es fast alle bekannten Modelle mit Fakten nicht so genau nehmen, sondern auch, dass Fake News inflationär häufiger auftreten. Trotz regelmäßiger Updates seitens der Entwickler nehmen Genauigkeit und Zuverlässigkeit immer weiter ab.

KI-Chatbots im Fake-News-Ranking

Im Schnitt beinhalteten 35 Prozent der Antworten durch die untersuchten KIs Fehlinformationen. Ein Jahr zuvor lag dieser Wert noch bei 18 Prozent, die Quote hat sich also fast verdoppelt. Warum viele KI-Modelle immer unzuverlässiger werden, lässt sich nur spekulieren. Als Gründe werden aber nicht nur technische Schwächen, sondern auch gezielte Propaganda-Kampagnen vermutet.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

In anderen Bereichen sieht es besser aus. Während die Chatbots 2024 noch bei fast einem Drittel der Anfragen eine Antwort verweigerten, liegt dieser Wert inzwischen bei 0 Prozent. Fehlerhafte eingaben der User wurden in 65 Prozent der Fälle korrigiert (2024 waren es noch 51 Prozent). Diese Entwicklungen zeigen, dass KIs weniger vorsichtig sind, aber genau das führt eben auch zu Problemen und halluzinierten Fake News.

Die Daten stammen aus einem Bericht des auf die Bewertung von Nachrichtenquellen spezialisierten Unternehmens Newsguard. Im folgenden Ranking zeigen wir, welche KI-Chatbots laut der Untersuchung am häufigsten Falschinformationen verbreiten.

Google lässt dich jetzt selbst bestimmen, welche Quellen du in der Suche häufiger siehst. Mit zwei schnellen Klicks kannst du BASIC thinking kostenlos als bevorzugte Quelle hinzufügen und damit unabhängigen Tech-Journalismus unterstützen. Vielen Dank!

Platz 10: Claude

Der letzte Platz ist in diesem Fall des Beste. Claude von Anthropic ist unter den im Rahmen der Studie untersuchten Modellen der sicherste Chatbot. Mit einer Fehlerquote von lediglich 10 Prozent ist er deutlich zuverlässiger als die meisten Konkurrenten. Trotzdem muss man festhalten, dass keine einzige KI eine wirklich verlässliche Nachrichtenquelle ist.

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Praktikum Social Media Marketing (all genders)
Roland Berger Holding GmbH & Co. KGaA in München
Social Media Specialist (w/m/d)
Personalwerk GmbH in Karben
Sachbearbeitung (m/w/d) Social Media und Digi...
Staatliches Baumanagement Niedersachsen in Hannover
Leiter Marketing (m/w/d) Head of Marketing &a...
Theo Klein+Partner Unternehmensbe... in Aschaffenbur...
Werkstudent (w/m/d) – Marketing & C...
1&1 in Montabaur, Düsseldorf
Content Creator / Content Designer / Grafikde...
Ypsilon GmbH Steuerberatungsgesellschaft in Wuppertal
Social Media Manager (m/w/d)
Matratzen Concord GmbH in Köln
Head of Online Marketing & Growth (m/w/d)
LaVita GmbH in Kumhausen
Teile diesen Artikel