Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Halluzinationen ChatGPT wird schlechter halluziniert Künstliche Intelligenz.
TECH

Halluzinationen: ChatGPT wird immer schlechter – doch keiner weiß warum

Fabian Peters
Aktualisiert: 17. Mai 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

KI-Modelle neigen zu sogenannten Halluzinationen. Heißt konkret: Sprachmodelle können aufgrund ihrer Funktionsweise falsche oder erfundene Informationen ausspucken. Die Gründe dafür sind vielfältig. Was jedoch auffällt: Vor allem ChatGPT halluziniert seit Kurzem zunehmend – und wird dadurch immer schlechter. Eine Analyse. 

Dass KI-Modelle halluzinieren können, ist keine neue Erkenntnis. Seit Kurzem scheinen jedoch immer mehr große Sprachmodelle zu Halluzinationen zu neigen – allen voran ChatGPT. Der Hintergrund: KI-Modelle antworten anhand von Mustern und Wahrscheinlichkeiten, anstatt anhand von echtem Wissen oder Verständnis.

Da viele KI-Modelle zudem mithilfe von Daten aus dem Internet trainiert werden, sind nicht fehlerfrei. Falsche oder erfundene Informationen – auch KI-Halluzinationen genannt – können die Folge sein. Das Problem: ChatGPT und Co. erzählen derzeit immer mehr Unsinn, doch keiner weiß genau warum.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

KI halluziniert immer häufiger

Ob als Google-Ersatz, Übersetzer oder als KI-Assistent bei der Arbeit: Sprachmodelle wie ChatGPT spielen im Alltag von immer mehr Menschen eine Rolle. Auch zahlreiche Unternehmen setzen mittlerweile KI-Modelle ein – beispielsweise in der Kundenbetreuung.

Rund um die besten KI-Modelle hat sich derweil ein regelrechter Wettstreit entwickelt. Sowohl OpenAI und Microsoft als auch Meta und Google vereint dabei das Ziel, die besten KI-Modelle entwickeln zu wollen – mit teilweise unterschiedlichen Ansätzen. Neben der reinen Rechenleistung spielt dabei auch der Funktionsumfang eine entscheidende Rolle.

Aufgrund der rasanten technologischen Entwicklung im Bereich Künstliche Intelligenz gehen die meisten großen Sprach- und KI-Modelle bereits seit einiger Zeit über die reine Textverarbeitung hinaus. Sowohl in der Bild-, Text- als auch Sprachverarbeitung ging es dabei lange Zeit nur in eine Richtung: nach oben.

Denn die meisten Modelle wurden immer besser. Zwar kam es bereits gelegentlich zu Halluzinationen, allerdings hielten diese sich in Grenzen. Seit Kurzem halluzinieren jedoch vor allem die neusten KI-Modelle immer häufiger. Das gibt selbst ChatGPT-Entwickler OpenAI in internen Untersuchungen unverblümt zu.

ChatGPT wird immer schlechter

Ende April 2025 musste sah sich das Unternehmen sogar dazu veranlasst, das neuste Update von GPT-4o zurückzuziehen. Das Problem dabei waren zwar weniger Halluzinationen, doch die KI verhielt sich schlichtweg zu nett und sagte zu fast allem Ja und Amen – mit teilweise verheerenden Folgen.

Denn ChatGPT legte durch das Update ein teilweise verstörendes Verhalten an den Tag oder gab Nutzern gefährliche medizinische Ratschläge. Das Modell GPT-o3 weist laut den internen Tests von OpenAI bei Fragen zu Personen des öffentlichen Lebens derweil eine Fehlerquote von rund 33 Prozent auf. Das ist mehr als doppelt so viel wie beim Vorgänger-Modell GPT-01.

Den Ergebnissen zufolge kommt die Version 04-mini bei allgemeinen Fragen sogar auf eine Fehlerquote von bis zu 80 Prozent. Der Grund: KI-Halluzinationen. Derzeit scheint jedoch nicht nur OpenAI von dem Phänomen betroffen zu sein, da auch andere KI-Entwickler ähnliche Beobachtungen machen.

Die Folgen davon können gravierend sein. Ein Chatbot der Entwicklerplattform Cursor hat etwa falsche Nutzungsrichtlinien ausgespuckt. Demnach sei nur noch die Nutzung auf einem Gerät möglich. Zahlreiche Nutzer zeigten sich daraufhin empört und kündigten ihre Abos. Aufgrund von KI-Halluzinationen haben sich zuletzt zudem mehrfach Anwälte vor Gericht auf angebliche Präzedenzfälle berufen, die es jedoch nie gab.

Erfahrungen

Seit den jüngsten KI-Updates von OpenAI konnten auch wir feststellen, dass ChatGPT zunehmend schlechtere Ergebnisse liefert. Vor allem die erhöhte Fehlerquote bei Fragen zu öffentlichen Personen können wir bestätigen. Beispielsweise lieferte ChatGPT Antworten zu aktuellen Ereignissen, in denen vom ehemaligen US-Präsidenten Donald Trump die Rede war.

Bei einer anderen Frage gab die KI den ehemaligen Datenschutzbeauftragten Ulrich Kelber als aktuellen Amtsinhaber an. Auch bei der Generierung von Bildern macht ChatGPT zunehmend, was es will. Beispielsweise wurden unsere Anforderungen, ein Bild im Querformat zu erstellen, mehrfach ignoriert. Gleiches gilt für das Entfernen von Schrift.

Außerdem auffällig: ChatGPT hat bei normalen und harmlosen Anfragen mehrmals Bilder beziehungsweise Antworten verweigert, da die Anfragen angeblich gegen die Nutzungsrichtlinien verstoßen würden. Die KI hat uns beispielsweise ein Bild mit dem OpenAI-Logo generiert. Wir wollten das Logo entfernen. Dies würde jedoch gegen die Richtlinien für die Verwendung von Logos verstoßen – obwohl gar kein Logo mehr vorhanden gewesen wäre.

Warum wird ChatGPT immer schlechter?

Auch bei dem Entfernen oder Hinzufügen von Schrift hieß es mehrmals, dass dies den Nutzungsrichtlinine widerspreche. Bei Zusammenfassung von Dokumenten spuckte ChatGPT zudem mehrmals ganz andere Themen beziehungsweise Zusammenfassung zu anderen Themen aus. Erst auf Nachfrage wurden unserer Anweisungen umgesetzt. Auch bei Korrekturen findet ChatGPT vermehrt Fehler oder angeblich Satzabbrüche, wo keine waren.

Die Entwicklungen werfen Fragen zur Zuverlässigkeit und Sicherheit von KI-Systemen auf, insbesondere in sensiblen Bereichen wie Medizin und Recht. Die KI-Community steht vor der Herausforderung, die Ursachen dieser Halluzinationen zu identifizieren und Lösungen zu entwickeln, um die Integrität und Vertrauenswürdigkeit von Sprachmodellen zu gewährleisten.

Das Problem: Weder OpenAI noch andere KI-Entwickler haben derzeit eine konkrete Antwort darauf, warum ChatGPT und Co. zunehmend halluzinieren – und damit immer schlechter werden. Eine mögliche Erklärung: Viele Sprachmodelle könnten bereits Gelerntes wieder vergessen, wenn sie neues Aufgaben oder neues Wissen lernen sollen, sprich neu trainiert werden.

Auch interessant: 

  • 5 Prompts, mit denen KI nervige Büroaufgaben für dich übernimmt
  • Der Energieverbrauch von ChatGPT: Pro Tag, pro Monat – und pro Jahr
  • Die Entwicklung von ChatGPT: Eine Chronologie der Ereignisse
  • Wie geht das denn? OpenAI bleibt gemeinnützig – darf aber Gewinn machen

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Digital Marketing Manager (m/w/d)
botiss medical AG in Berlin
Marketing Manager – Digital Content &am...
MORGEN & MORGEN GmbH in Rüsselsheim
Content Creator (m/w/d)
KNDS in München
PR-Redakteur / Content Creator (m/w/d)für ext...
BGHM Berufsgenossenschaft Holz und Metall in Mainz
Intern Digital Marketing & Media (m/f/d)
Richemont Northern Europe GmbH - IWC in Schaffhausen
Content Creator (m/w/d) für interne/externe K...
Big Dutchman International GmbH in Vechta
Praktikant (m/w/d) Social Media & Recruiting
Dr. August Oetker Nahrungsmittel KG in Bielefeld
Data Engineer / Developer (m/w/d)
AZ Direct GmbH in Gütersloh
THEMEN:ChatGPTKünstliche IntelligenzNews
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
EMPFEHLUNG
Vodafone Business
Vodafone Business-Kracher: Doppeltes Datenvolumen + 10 GB pro Monat
Anzeige TECH
goneo eigener Chatserver-2
goneo: Dein eigener Chatserver für Teams, Familie & Freunde
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

PITAKA Hüllen Galaxy Z Fold7
AnzeigeTECH

Schlank, robust, smart: Die neuen Hüllen von PITAKA für das Galaxy Z Fold7 und Flip7

KI Einsteigerjobs Berufseinsteiger Stellenanzeigen Künstliche Intelligenz
BREAK/THE NEWSMONEY

Weniger Einsteigerjobs: KI-Hype könnte Unternehmen teuer zu stehen kommen

Smartphone-KI Künstliche Intelligenz iPhone Apple Intelligence Google Gemini Galaxy AI Samsung
TECH

Smartphone-KI: Apple, Google und Samsung im Vergleich

Günstige Solarpanels, Kosten Solarpanels, MIT, Forschung, Studie, Grün, Nachhaltigkeit, Solarenergie, Umwelt, Umweltschutz
GREENTECH

Preisrückgang bei Solarzellen: Wie sie noch günstiger werden

Umgang mit KI Fähigkeiten Künstliche Intelligenz nutzen
TECH

Diese menschliche Fähigkeit ist im Umgang mit KI am wichtigsten

WELOCK Touca51
AnzeigeTECH

WELOCK ToucA51: Smartes Türschloss im Test (+ Gewinnspiel)

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück AirPods gewinnen!

Airpods 4 Apple
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?