Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Nachrichten Künstliche Intelligenz ChatGPT Fehler Informationsquelle
BREAK/THE NEWSTECH

Immer mehr Fehler: KI kann keine Nachrichten

Fabian Peters
Aktualisiert: 28. Oktober 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

Laut einer aktuellen Studie der Europäischen Rundfunkunion enthalten 45 Prozent der KI-Antworten mindestens einen erheblichen Fehler. Demnach sind Informationen oft veraltet oder es gibt andere Ungenauigkeiten. Immer mehr Medien und Verlage fordern strengere Regulierungen und Mechanismen zur Qualität. Was untergeht: Aufklärung!

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Schlechte Quelle: KI kann keine Nachrichten

  • Bisherigen Analysen zufolge weisen 30 bis 40 Prozent der KI-Antworten schwerwiegende Fehler auf. Darunter fallen: grobe inhaltliche Fehler, falsche oder fehlerhafte Quellenangaben sowie fehlende Zusammenhänge, die Antworten unverständlich machen. Eine neue Studie der Europäischen Rundfunkunion (EBU) kommt sogar zu dem Schluss, dass vier von fünf KI-Antworten zu Nachrichtenthemen Ungenauigkeiten aufweisen – wenn auch geringfügige.
  • An der EBU-Studie waren 22 öffentlich-rechtliche Medienorganisationen aus 18 Ländern beteiligt. Es wurden über 3.000 KI-Antworten von ChatGPT, Copilot, Gemini und Perplexity untersucht. Die zentralen Kriterien: Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie die Bereitstellung von Kontext. Aus deutscher Sicht beteiligten sich ARD und ZDF unter Federführung der BBC.
  • Die Kernergebnisse der Rundfunk-Analyse: Unabhängig von Sprache oder Region wiesen 45 Prozent aller KI-Antworten zu Nachrichteninhalten mindestens einen erheblichen Mangel auf. 31 Prozent enthielten irreführende, fehlerhafte oder fehlende Quellenangaben. 20 Prozent wiesen nachweislich falsche Faktenangaben auf. Darunter: erfundene Zitate und veraltete Informationen.

KI reproduziert Fehler

Chatbots suggerieren, dass KI schreiben, reden und recherchieren kann. Allerdings versteht sie ihre eigenen Antworten nicht. Denn Künstliche Intelligenz ahmt nur nach und täuscht Wissen vor. Was überzeugend plausibel klingen kann, ist aber Statistik auf Basis von Mustern und Wahrscheinlichkeiten.

Das Problem: KI reproduziert deshalb nicht nur Fehler, sondern kann auch manipuliert oder gelenkt werden. Mit der gleichen vermeintlichen Eleganz, mit der Chatbots Fakten fabrizieren, produzieren sie Falschinformationen. Aus Wahrscheinlichkeiten entstehen dabei vermeintliche Wahrheiten.

Damit die Realität nicht auf der Strecke bleibt, sollten Großkonzerne einerseits in die Verantwortung genommen werden. Andererseits braucht es vor allem eines: Aufklärung! Denn das größte Risiko ist nicht zwangsläufig KI selbst, sondern die menschliche Bequemlichkeit, sie nicht zu hinterfragen.

Stimmen

  • Peter Archer, BBC-Programmdirektor für generative KI, in einem Statement: „Wir sind begeistert von KI. Aber die Menschen müssen dem, was sie lesen, sehen und anschauen, vertrauen können. Trotz einiger Verbesserungen ist klar, dass es noch erhebliche Probleme gibt. Wir möchten, dass diese Tools erfolgreich sind, und sind offen für die Zusammenarbeit mit KI-Unternehmen, um der Gesellschaft insgesamt einen Mehrwert zu bieten.“
  • Katja Wildermuth, Intendantin des Bayerischen Rundfunks, sieht unabhängig von den Studienergebnisse in KI eine große Gefahr: „Solche KI-generierten Zusammenfassungen sind bequem – und zugleich sehr gefährlich. Wenn KI-Systeme bestimmen, was sichtbar ist, was wir für wichtig und richtig halten, dann geht es um Macht im Informationsraum. Die Politik lässt den wenigen Großkonzernen zu viel unregulierten Spielraum.“
  • ZDF-Intendant Norbert Himmler erklärte: „Die Studie belegt zugleich die Bedeutung öffentlich-rechtlicher Informationsangebote. Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen.“

Tool zur Nachrichtenintegrität von KI

Unabhängig von der Fehlerrate bleibt eine unbequeme Wahrheit: KI-Chatbots verstehen nicht, was sie sagen, sondern simulieren Antworten nur. Die Tücke: Medien berichten oft über das Unerwartete oder Unbekannte, das sich nicht berechnen lässt.

Ein Wettlauf um die Deutungshoheit von KI ist deshalb längst entbrannt: Die Politik ruft nach Kontrolle, Medienhäuser pochen auf Verantwortung und die Tech-Konzerne auf Freiheit zur Innovation – mit der Gesellschaft als Zuschauer und Versuchskaninchen.

Die EBU hat deshalb ein Toolkit zur Nachrichtenintegrität in KI-Assistenten entwickelt, das Nutzer aufklären und Unternehmen dabei helfen soll, ihre KI-Modelle zu verbessern. Dies darf jedoch allenfalls der Anfang sein.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Vandalismus gegen Ladesäulen – eine ideologisch motivierte Tat
  • Neue E-Auto-Förderung – nur nicht für alle
  • Chatkontrolle: Deutschland torpediert EU-Pläne
  • Umstrittener KI-Modus: Google wird zum Chatbot
STELLENANZEIGEN
DLP-Security Specialist (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
IT-System Engineer – Endpoint and Privi...
CompuGroup Medical SE & Co. KGaA in Koblenz
Cloud Database Engineer (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
(Junior) Performance Marketing Manager (m/w/d...
Permanent Entertainment GmbH in München
Social Media Manager (f/m/x)
Corsair GmbH in Landshut
Marketingassistenz Online-Marketing (m/w/d)
Autohaus DIL GmbH in Bad Nauheim
Marketing Tech & Content Automation Exper...
MAINGAU Energie GmbH in Obertshausen
Social Media Manager (m/w/d) im Team Kampagne...
Sächsische Lotto-GmbH in Leipzig
THEMEN:Künstliche IntelligenzMedien
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
2 Kommentare 2 Kommentare
  • Ramona Lee Maetzing sagt:
    28. Okt. 2025 um 08:49 Uhr

    Dass KI bei „News“ ungenau ist, überrascht kaum. Sprachmodelle arbeiten mit zuvor erhobenen Daten, die immer ein Stichtdatum haben. Nachrichten hingegen leben von Aktualität. Ohne aktive Web-Anbindung — und selbst dann abhängig von der Quellenqualität — kann eine KI keine Echtzeit-Informationen liefern.
    Ein großer Teil des Problems liegt in den Erwartungen: Viele gehen davon aus, dass KI für zuverlässige, aktuelle Nachrichten gemacht sei — das ist jedoch nicht ihr Einsatzgebiet. KI entfaltet ihren Mehrwert eher bei Analyse, Strukturierung und Unterstützung — nicht beim Ersatz von Journalismus.
    Und wie bei jedem KI-generierten Produkt sollte immer ein Mensch eingebunden sein: um Kontext, Genauigkeit und Relevanz zu prüfen, bevor etwas als „News“ veröffentlicht wird.

    Antworten
  • Thomas Sturm sagt:
    1. Nov. 2025 um 11:16 Uhr

    Leider einer von vielen Artikeln, die diese BBC-Studie unreflektiert übernehmen und kommentieren. Erstens sollte man den Zeitpunkt der Studie beachten. Die KI-Modelle konnten einige Fragen nur falsch beantworten, da die trainierten Daten veraltet waren und sie nicht die Möglichkeit hatten, eine Websuche durchzuführen. Inzwischen ist die Entwicklung viel weiter. Zweitens ist in dieser Studie der öffentlich-rechtlichen Anstalten eine Abwehrhaltung und ein Kampf um die Deutungshoheit herauszulesen. Ich behaupte jetzt einfach mal, das menschlicher Journalismus ebenso 45 % Fehler macht. Können Sie dieses widerlegen? Das alles klingt wie das Pfeifen im Walde, die Angst um die eigene Zukunft. Also bitte in Zukunft bitte gründlich recherchieren, in beide Richtungen.

    Antworten

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
ITSM Software aus Deutschland
ITSM Software aus Deutschland: Sicher & souverän für den Mittelstand
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

ChatGPT Social Media, Künstliche Intelligenz, Soziale Medien, LinkedIn, Facebook, Instagram, TikTok
TECH

Einheitsbrei: ChatGPT lässt Social Media-Beiträge alle gleich klingen

KI-Nationalpark
BREAK/THE NEWSGREEN

KI-Nationalpark: Natur- und Artenschutz mithilfe Künstlicher Intelligenz

welock U71
AnzeigeTECH

WELOCK U71 Smart Lock: Fingerabdruck-Türschloss für maximale Sicherheit

Lithium-Luft-Batterie Reichweite Verbrenner E-Auto
GREENTECH

Lithium-Luft-Batterie bringt E-Autos in Reichweite von Verbrennern

Ricardo Tunnissen Baufi
MONEYTECH

Ein Blick auf das Smartphone von Baufi-Chef Ricardo Tunnissen

Samsung Holiday
AnzeigeTECH

Samsung Holiday Kampagne: Die besten Angebote für Unternehmen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Tagesgeldkonto eröffnen
50 € geschenkt bekommen

50 Euro

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?