Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Nachrichten Künstliche Intelligenz ChatGPT Fehler Informationsquelle
BREAK/THE NEWSTECH

Immer mehr Fehler: KI kann keine Nachrichten

Fabian Peters
Aktualisiert: 28. Oktober 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

Laut einer aktuellen Studie der Europäischen Rundfunkunion enthalten 45 Prozent der KI-Antworten mindestens einen erheblichen Fehler. Demnach sind Informationen oft veraltet oder es gibt andere Ungenauigkeiten. Immer mehr Medien und Verlage fordern strengere Regulierungen und Mechanismen zur Qualität. Was untergeht: Aufklärung!

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Schlechte Quelle: KI kann keine Nachrichten

  • Bisherigen Analysen zufolge weisen 30 bis 40 Prozent der KI-Antworten schwerwiegende Fehler auf. Darunter fallen: grobe inhaltliche Fehler, falsche oder fehlerhafte Quellenangaben sowie fehlende Zusammenhänge, die Antworten unverständlich machen. Eine neue Studie der Europäischen Rundfunkunion (EBU) kommt sogar zu dem Schluss, dass vier von fünf KI-Antworten zu Nachrichtenthemen Ungenauigkeiten aufweisen – wenn auch geringfügige.
  • An der EBU-Studie waren 22 öffentlich-rechtliche Medienorganisationen aus 18 Ländern beteiligt. Es wurden über 3.000 KI-Antworten von ChatGPT, Copilot, Gemini und Perplexity untersucht. Die zentralen Kriterien: Genauigkeit, Quellenangaben, Unterscheidung zwischen Meinung und Fakten sowie die Bereitstellung von Kontext. Aus deutscher Sicht beteiligten sich ARD und ZDF unter Federführung der BBC.
  • Die Kernergebnisse der Rundfunk-Analyse: Unabhängig von Sprache oder Region wiesen 45 Prozent aller KI-Antworten zu Nachrichteninhalten mindestens einen erheblichen Mangel auf. 31 Prozent enthielten irreführende, fehlerhafte oder fehlende Quellenangaben. 20 Prozent wiesen nachweislich falsche Faktenangaben auf. Darunter: erfundene Zitate und veraltete Informationen.

KI reproduziert Fehler

Chatbots suggerieren, dass KI schreiben, reden und recherchieren kann. Allerdings versteht sie ihre eigenen Antworten nicht. Denn Künstliche Intelligenz ahmt nur nach und täuscht Wissen vor. Was überzeugend plausibel klingen kann, ist aber Statistik auf Basis von Mustern und Wahrscheinlichkeiten.

Das Problem: KI reproduziert deshalb nicht nur Fehler, sondern kann auch manipuliert oder gelenkt werden. Mit der gleichen vermeintlichen Eleganz, mit der Chatbots Fakten fabrizieren, produzieren sie Falschinformationen. Aus Wahrscheinlichkeiten entstehen dabei vermeintliche Wahrheiten.

Damit die Realität nicht auf der Strecke bleibt, sollten Großkonzerne einerseits in die Verantwortung genommen werden. Andererseits braucht es vor allem eines: Aufklärung! Denn das größte Risiko ist nicht zwangsläufig KI selbst, sondern die menschliche Bequemlichkeit, sie nicht zu hinterfragen.

Stimmen

  • Peter Archer, BBC-Programmdirektor für generative KI, in einem Statement: „Wir sind begeistert von KI. Aber die Menschen müssen dem, was sie lesen, sehen und anschauen, vertrauen können. Trotz einiger Verbesserungen ist klar, dass es noch erhebliche Probleme gibt. Wir möchten, dass diese Tools erfolgreich sind, und sind offen für die Zusammenarbeit mit KI-Unternehmen, um der Gesellschaft insgesamt einen Mehrwert zu bieten.“
  • Katja Wildermuth, Intendantin des Bayerischen Rundfunks, sieht unabhängig von den Studienergebnisse in KI eine große Gefahr: „Solche KI-generierten Zusammenfassungen sind bequem – und zugleich sehr gefährlich. Wenn KI-Systeme bestimmen, was sichtbar ist, was wir für wichtig und richtig halten, dann geht es um Macht im Informationsraum. Die Politik lässt den wenigen Großkonzernen zu viel unregulierten Spielraum.“
  • ZDF-Intendant Norbert Himmler erklärte: „Die Studie belegt zugleich die Bedeutung öffentlich-rechtlicher Informationsangebote. Dort finden die Menschen verlässliche Informationen und journalistische Einordnung, die KI-Tools allein nicht leisten können. Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen.“

Tool zur Nachrichtenintegrität von KI

Unabhängig von der Fehlerrate bleibt eine unbequeme Wahrheit: KI-Chatbots verstehen nicht, was sie sagen, sondern simulieren Antworten nur. Die Tücke: Medien berichten oft über das Unerwartete oder Unbekannte, das sich nicht berechnen lässt.

Ein Wettlauf um die Deutungshoheit von KI ist deshalb längst entbrannt: Die Politik ruft nach Kontrolle, Medienhäuser pochen auf Verantwortung und die Tech-Konzerne auf Freiheit zur Innovation – mit der Gesellschaft als Zuschauer und Versuchskaninchen.

Die EBU hat deshalb ein Toolkit zur Nachrichtenintegrität in KI-Assistenten entwickelt, das Nutzer aufklären und Unternehmen dabei helfen soll, ihre KI-Modelle zu verbessern. Dies darf jedoch allenfalls der Anfang sein.

BREAK THE NEWS BASIC thinking

Unser exklusives Format »Break the News«, in dem wir aktuelle Nachrichten in ihre Einzelteile zerlegen, erscheint immer zuerst in UPDATE, unserem täglichen Tech-Briefing. Hier kannst du dich über 10.000 anderen Lesern anschließen und dich kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

Auch interessant:

  • Vandalismus gegen Ladesäulen – eine ideologisch motivierte Tat
  • Neue E-Auto-Förderung – nur nicht für alle
  • Chatkontrolle: Deutschland torpediert EU-Pläne
  • Umstrittener KI-Modus: Google wird zum Chatbot
BASIC thinking WhatsApp Kanal
STELLENANZEIGEN
Praktikant*in Digitalen Marketing & CRM
Mercedes-Benz AG in Berlin
Praktikant*in E-Commerce / Online Marketing (...
Chantelle Lingerie GmbH in Düsseldorf
Praktikant Marktforschung – Consumer In...
Ferrero MSC GmbH & Co. KG in Frankfurt/M.
Social Media & Influencer Manager (m/w/d)
el origen food GmbH in Hamburg
Werkstudent*in Online Marketing – Schwerpunkt...
riebeaux Training & Coaching GmbH in Hamburg
Social Media Marketing Manager (w/m/d)
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
Trainee Social Advertising (m/w/d)
TERRITORY GmbH in Munich
Social Media Specialist (w/m/d)
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
THEMEN:Künstliche IntelligenzMedien
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
2 Kommentare 2 Kommentare
  • Ramona Lee Maetzing sagt:
    28. Okt. 2025 um 08:49 Uhr

    Dass KI bei „News“ ungenau ist, überrascht kaum. Sprachmodelle arbeiten mit zuvor erhobenen Daten, die immer ein Stichtdatum haben. Nachrichten hingegen leben von Aktualität. Ohne aktive Web-Anbindung — und selbst dann abhängig von der Quellenqualität — kann eine KI keine Echtzeit-Informationen liefern.
    Ein großer Teil des Problems liegt in den Erwartungen: Viele gehen davon aus, dass KI für zuverlässige, aktuelle Nachrichten gemacht sei — das ist jedoch nicht ihr Einsatzgebiet. KI entfaltet ihren Mehrwert eher bei Analyse, Strukturierung und Unterstützung — nicht beim Ersatz von Journalismus.
    Und wie bei jedem KI-generierten Produkt sollte immer ein Mensch eingebunden sein: um Kontext, Genauigkeit und Relevanz zu prüfen, bevor etwas als „News“ veröffentlicht wird.

    Antworten
  • Thomas Sturm sagt:
    1. Nov. 2025 um 11:16 Uhr

    Leider einer von vielen Artikeln, die diese BBC-Studie unreflektiert übernehmen und kommentieren. Erstens sollte man den Zeitpunkt der Studie beachten. Die KI-Modelle konnten einige Fragen nur falsch beantworten, da die trainierten Daten veraltet waren und sie nicht die Möglichkeit hatten, eine Websuche durchzuführen. Inzwischen ist die Entwicklung viel weiter. Zweitens ist in dieser Studie der öffentlich-rechtlichen Anstalten eine Abwehrhaltung und ein Kampf um die Deutungshoheit herauszulesen. Ich behaupte jetzt einfach mal, das menschlicher Journalismus ebenso 45 % Fehler macht. Können Sie dieses widerlegen? Das alles klingt wie das Pfeifen im Walde, die Angst um die eigene Zukunft. Also bitte in Zukunft bitte gründlich recherchieren, in beide Richtungen.

    Antworten

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WA Kanal AirPods Square
EMPFEHLUNG
Strom-Wechselservice Wechselpilot-2
Strom-Wechselservice: Was bringt dir der Service wirklich?
Anzeige MONEY
PŸUR Black Friday
Black Friday bei PŸUR: Highspeed-Internet zu echten Dauertiefpreisen sichern
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Powerness
AnzeigeTECH

Jetzt einsteigen: Das Powerness Solarbank 3 Pro Paket für deinen ersten eigenen Strom

Elektrosmog, Gesundheit, Studie, Forschung, Gefahr, Elektroautos, Elektromobilität, ADAC, Deutschland, Strahlung, Strahlenschutz
TECH

Elektrosmog: Stellen E-Autos eine Gefahr für die Gesundheit dar?

GPT-5.1 Update ChatGPT Persönlichkeiten
BREAK/THE NEWSTECH

Identitätsstörung? GPT-5.1 haucht ChatGPT multiple Persönlichkeiten ein

Hostinger AI Website Builder
AnzeigeTECH

Schnell zur eigenen Website: So einfach geht’s mit dem Hostinger AI Website Builder

Organische Solarzellen
GREENTECH

Forscher entdecken Molekül für günstigere und bessere Solarzellen

KI-Modus Quellen Deutschland Google AI Mode
TECH

KI-Modus von Google: Die Top-Quellen in Deutschland

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?