Laut einer aktuellen Studie der Europäischen Rundfunkunion enthalten 45 Prozent der KI-Antworten mindestens einen erheblichen Fehler. Demnach sind Informationen oft veraltet oder es gibt andere Ungenauigkeiten. Immer mehr Medien und Verlage fordern strengere Regulierungen und Mechanismen zur Qualität. Was untergeht: Aufklärung!
Schlechte Quelle: KI kann keine Nachrichten
- Bisherigen Analysen zufolge weisen 30 bis 40 Prozent der KI-Antworten schwerwiegende Fehler auf. Darunter fallen: grobe inhaltliche Fehler, falsche oder fehlerhafte Quellenangaben sowie fehlende Zusammenhänge, die Antworten unverständlich machen. Eine neue Studie der Europäischen Rundfunkunion (EBU) kommt sogar zu dem Schluss, dass vier von fünf KI-Antworten zu Nachrichtenthemen Ungenauigkeiten aufweisen – wenn auch geringfügige.
- An der EBU-Studie waren 22 öffentlich-rechtliche Medienorganisationen aus 18 Ländern beteiligt. Es wurden über 3.000 KI-Antworten von ChatGPT, Copilot, Gemini und Perplexity untersucht. Die zentralen Kriterien: Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie die Bereitstellung von Kontext. Aus deutscher Sicht beteiligten sich ARD und ZDF unter Federführung der BBC.
- Die Kernergebnisse der Rundfunk-Analyse: Unabhängig von Sprache oder Region wiesen 45 Prozent aller KI-Antworten zu Nachrichteninhalten mindestens einen erheblichen Mangel auf. 31 Prozent enthielten irreführende, fehlerhafte oder fehlende Quellenangaben. 20 Prozent wiesen nachweislich falsche Faktenangaben auf. Darunter: erfundene Zitate und veraltete Informationen.
KI reproduziert Fehler
Chatbots suggerieren, dass KI schreiben, reden und recherchieren kann. Allerdings versteht sie ihre eigenen Antworten nicht. Denn künstliche Intelligenz ahmt nur nach und täuscht Wissen vor. Was überzeugend plausibel klingen kann, ist aber Statistik auf Basis von Mustern und Wahrscheinlichkeiten.
Das Problem: KI reproduziert deshalb nicht nur Fehler, sondern kann auch manipuliert oder gelenkt werden. Mit der gleichen vermeintlichen Eleganz, mit der Chatbots Fakten fabrizieren, produzieren sie Falschinformationen. Aus Wahrscheinlichkeiten entstehen dabei vermeintliche Wahrheiten.
Damit die Realität nicht auf der Strecke bleibt, sollten Großkonzerne einerseits in die Verantwortung genommen werden. Andererseits braucht es vor allem eines: Aufklärung! Denn das größte Risiko ist nicht zwangsläufig KI selbst, sondern die menschliche Bequemlichkeit, sie nicht zu hinterfragen.
Stimmen
- Peter Archer, BBC-Programmdirektor für generative KI, in einem Statement: „Wir sind begeistert von KI. Aber die Menschen müssen dem, was sie lesen, sehen und anschauen, vertrauen können. Trotz einiger Verbesserungen ist klar, dass es noch erhebliche Probleme gibt. Wir möchten, dass diese Tools erfolgreich sind, und sind offen für die Zusammenarbeit mit KI-Unternehmen, um der Gesellschaft insgesamt einen Mehrwert zu bieten.“
- Katja Wildermuth, Intendantin des Bayerischen Rundfunks, sieht unabhängig von den Studienergebnisse in KI eine große Gefahr: „Solche KI-generierten Zusammenfassungen sind bequem – und zugleich sehr gefährlich. Wenn KI-Systeme bestimmen, was sichtbar ist, was wir für wichtig und richtig halten, dann geht es um Macht im Informationsraum. Die Politik lässt den wenigen Großkonzernen zu viel unregulierten Spielraum.“
- ZDF-Intendant Norbert Himmler erklärte: „Die Studie belegt zugleich die Bedeutung öffentlich-rechtlicher Informationsangebote. Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen.“
Tool zur Nachrichtenintegrität von KI
Unabhängig von der Fehlerrate bleibt eine unbequeme Wahrheit: KI-Chatbots verstehen nicht, was sie sagen, sondern simulieren Antworten nur. Die Tücke: Medien berichten oft über das Unerwartete oder Unbekannte, das sich nicht berechnen lässt.
Ein Wettlauf um die Deutungshoheit von KI ist deshalb längst entbrannt: Die Politik ruft nach Kontrolle, Medienhäuser pochen auf Verantwortung und die Tech-Konzerne auf Freiheit zur Innovation – mit der Gesellschaft als Zuschauer und Versuchskaninchen.
Die EBU hat deshalb ein Toolkit zur Nachrichtenintegrität in KI-Assistenten entwickelt, das Nutzer aufklären und Unternehmen dabei helfen soll, ihre KI-Modelle zu verbessern. Dies darf jedoch allenfalls der Anfang sein.
Auch interessant:







