Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Halluzinationen ChatGPT wird schlechter halluziniert Künstliche Intelligenz.
TECH

Halluzinationen: ChatGPT wird immer schlechter – doch keiner weiß warum

Fabian Peters
Aktualisiert: 17. Mai 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

KI-Modelle neigen zu sogenannten Halluzinationen. Heißt konkret: Sprachmodelle können aufgrund ihrer Funktionsweise falsche oder erfundene Informationen ausspucken. Die Gründe dafür sind vielfältig. Was jedoch auffällt: Vor allem ChatGPT halluziniert seit Kurzem zunehmend – und wird dadurch immer schlechter. Eine Analyse. 

Dass KI-Modelle halluzinieren können, ist keine neue Erkenntnis. Seit Kurzem scheinen jedoch immer mehr große Sprachmodelle zu Halluzinationen zu neigen – allen voran ChatGPT. Der Hintergrund: KI-Modelle antworten anhand von Mustern und Wahrscheinlichkeiten, anstatt anhand von echtem Wissen oder Verständnis.

Da viele KI-Modelle zudem mithilfe von Daten aus dem Internet trainiert werden, sind nicht fehlerfrei. Falsche oder erfundene Informationen – auch KI-Halluzinationen genannt – können die Folge sein. Das Problem: ChatGPT und Co. erzählen derzeit immer mehr Unsinn, doch keiner weiß genau warum.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats Studio Buds gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

KI halluziniert immer häufiger

Ob als Google-Ersatz, Übersetzer oder als KI-Assistent bei der Arbeit: Sprachmodelle wie ChatGPT spielen im Alltag von immer mehr Menschen eine Rolle. Auch zahlreiche Unternehmen setzen mittlerweile KI-Modelle ein – beispielsweise in der Kundenbetreuung.

Rund um die besten KI-Modelle hat sich derweil ein regelrechter Wettstreit entwickelt. Sowohl OpenAI und Microsoft als auch Meta und Google vereint dabei das Ziel, die besten KI-Modelle entwickeln zu wollen – mit teilweise unterschiedlichen Ansätzen. Neben der reinen Rechenleistung spielt dabei auch der Funktionsumfang eine entscheidende Rolle.

Aufgrund der rasanten technologischen Entwicklung im Bereich Künstliche Intelligenz gehen die meisten großen Sprach- und KI-Modelle bereits seit einiger Zeit über die reine Textverarbeitung hinaus. Sowohl in der Bild-, Text- als auch Sprachverarbeitung ging es dabei lange Zeit nur in eine Richtung: nach oben.

Denn die meisten Modelle wurden immer besser. Zwar kam es bereits gelegentlich zu Halluzinationen, allerdings hielten diese sich in Grenzen. Seit Kurzem halluzinieren jedoch vor allem die neusten KI-Modelle immer häufiger. Das gibt selbst ChatGPT-Entwickler OpenAI in internen Untersuchungen unverblümt zu.

ChatGPT wird immer schlechter

Ende April 2025 musste sah sich das Unternehmen sogar dazu veranlasst, das neuste Update von GPT-4o zurückzuziehen. Das Problem dabei waren zwar weniger Halluzinationen, doch die KI verhielt sich schlichtweg zu nett und sagte zu fast allem Ja und Amen – mit teilweise verheerenden Folgen.

Denn ChatGPT legte durch das Update ein teilweise verstörendes Verhalten an den Tag oder gab Nutzern gefährliche medizinische Ratschläge. Das Modell GPT-o3 weist laut den internen Tests von OpenAI bei Fragen zu Personen des öffentlichen Lebens derweil eine Fehlerquote von rund 33 Prozent auf. Das ist mehr als doppelt so viel wie beim Vorgänger-Modell GPT-01.

Den Ergebnissen zufolge kommt die Version 04-mini bei allgemeinen Fragen sogar auf eine Fehlerquote von bis zu 80 Prozent. Der Grund: KI-Halluzinationen. Derzeit scheint jedoch nicht nur OpenAI von dem Phänomen betroffen zu sein, da auch andere KI-Entwickler ähnliche Beobachtungen machen.

Die Folgen davon können gravierend sein. Ein Chatbot der Entwicklerplattform Cursor hat etwa falsche Nutzungsrichtlinien ausgespuckt. Demnach sei nur noch die Nutzung auf einem Gerät möglich. Zahlreiche Nutzer zeigten sich daraufhin empört und kündigten ihre Abos. Aufgrund von KI-Halluzinationen haben sich zuletzt zudem mehrfach Anwälte vor Gericht auf angebliche Präzedenzfälle berufen, die es jedoch nie gab.

Erfahrungen

Seit den jüngsten KI-Updates von OpenAI konnten auch wir feststellen, dass ChatGPT zunehmend schlechtere Ergebnisse liefert. Vor allem die erhöhte Fehlerquote bei Fragen zu öffentlichen Personen können wir bestätigen. Beispielsweise lieferte ChatGPT Antworten zu aktuellen Ereignissen, in denen vom ehemaligen US-Präsidenten Donald Trump die Rede war.

Bei einer anderen Frage gab die KI den ehemaligen Datenschutzbeauftragten Ulrich Kelber als aktuellen Amtsinhaber an. Auch bei der Generierung von Bildern macht ChatGPT zunehmend, was es will. Beispielsweise wurden unsere Anforderungen, ein Bild im Querformat zu erstellen, mehrfach ignoriert. Gleiches gilt für das Entfernen von Schrift.

Außerdem auffällig: ChatGPT hat bei normalen und harmlosen Anfragen mehrmals Bilder beziehungsweise Antworten verweigert, da die Anfragen angeblich gegen die Nutzungsrichtlinien verstoßen würden. Die KI hat uns beispielsweise ein Bild mit dem OpenAI-Logo generiert. Wir wollten das Logo entfernen. Dies würde jedoch gegen die Richtlinien für die Verwendung von Logos verstoßen – obwohl gar kein Logo mehr vorhanden gewesen wäre.

Warum wird ChatGPT immer schlechter?

Auch bei dem Entfernen oder Hinzufügen von Schrift hieß es mehrmals, dass dies den Nutzungsrichtlinine widerspreche. Bei Zusammenfassung von Dokumenten spuckte ChatGPT zudem mehrmals ganz andere Themen beziehungsweise Zusammenfassung zu anderen Themen aus. Erst auf Nachfrage wurden unserer Anweisungen umgesetzt. Auch bei Korrekturen findet ChatGPT vermehrt Fehler oder angeblich Satzabbrüche, wo keine waren.

Die Entwicklungen werfen Fragen zur Zuverlässigkeit und Sicherheit von KI-Systemen auf, insbesondere in sensiblen Bereichen wie Medizin und Recht. Die KI-Community steht vor der Herausforderung, die Ursachen dieser Halluzinationen zu identifizieren und Lösungen zu entwickeln, um die Integrität und Vertrauenswürdigkeit von Sprachmodellen zu gewährleisten.

Das Problem: Weder OpenAI noch andere KI-Entwickler haben derzeit eine konkrete Antwort darauf, warum ChatGPT und Co. zunehmend halluzinieren – und damit immer schlechter werden. Eine mögliche Erklärung: Viele Sprachmodelle könnten bereits Gelerntes wieder vergessen, wenn sie neues Aufgaben oder neues Wissen lernen sollen, sprich neu trainiert werden.

Auch interessant: 

  • 5 Prompts, mit denen KI nervige Büroaufgaben für dich übernimmt
  • Der Energieverbrauch von ChatGPT: Pro Tag, pro Monat – und pro Jahr
  • Die Entwicklung von ChatGPT: Eine Chronologie der Ereignisse
  • Wie geht das denn? OpenAI bleibt gemeinnützig – darf aber Gewinn machen

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Content & Social Media Manager:in (m/w/d)
DALLMER GmbH + Co. KG in Arnsberg
Art Director mit Expertise in UX/UI (m/w/d)
mellowmessage GmbH in Leipzig
Social Media Manager (m,w,d) ...
MAX BRINGMANN KG in Wendelstein
(Junior) E-Commerce Manager (Onlineshop) (m/w/d)
Fackelmann GmbH + Co. KG in Hersbruck
(Senior) Berater Datenschutz / Jurist (m/w/d)
DSN GROUP in München
Social Media Manager – Instagram / Comm...
BV Bestseller Verlag GmbH in Bochum
Digital Marketing Manager (m/w/d)
evasys GmbH in Lüneburg, Teilweise Home-Office
Manager Data Analytics and Process Optimizati...
auxmoney GmbH in Düsseldorf
THEMEN:ChatGPTKünstliche IntelligenzNews
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
EMPFEHLUNG
Kosten sparen im Haushalt
5 Tipps, mit denen du im Haushalt wirklich Geld sparst
Anzeige MONEY
PŸUR BLACK SALE 2025
BLÄCK SALE bei PŸUR: Schnelles Internet für Zuhause – jetzt schon zum Black-Friday-Preis!
Anzeige TECH
NIBC

Anzeige

Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Audi A5 Auto Marke Straße
MONEYTECH

Neuwagen: Die zuverlässigsten Automarken der Welt

Taktile Berlin Fintech Start-up Finanzen
TECH

Taktile: Deutsches KI-Start-up will Finanzbranche umkrempeln

LFP-Batterie Renault Elektroautos Elektromobilität E-Auto Batterie Akku
GREENTECH

LFP-Batterie: Renault setzt auf neuen Billig-Akku

Cyberangriffe
AnzeigeTECH

Malware im Anhang: Warum unscheinbare Dateiuploads zum größten Risiko für Unternehmen werden

KI Schauspielerin Tilly Norwood Hollywood Künstliche Intelligenz
BREAK/THE NEWSTECH

Tilly Norwood: KI-Schauspielerin schockiert Hollywood

europäische CRM-Alternative
AnzeigeTECH

Modular, agnostisch, führend: Die CRM/CX-Alternative für Europa

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück Beats gewinnen!

Beats Studio Buds +
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?