Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
KI Halluzinationen ChatGPT wird schlechter halluziniert Künstliche Intelligenz.
TECH

Halluzinationen: ChatGPT wird immer schlechter – doch keiner weiß warum

Fabian Peters
Aktualisiert: 17. Mai 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

KI-Modelle neigen zu sogenannten Halluzinationen. Heißt konkret: Sprachmodelle können aufgrund ihrer Funktionsweise falsche oder erfundene Informationen ausspucken. Die Gründe dafür sind vielfältig. Was jedoch auffällt: Vor allem ChatGPT halluziniert seit Kurzem zunehmend – und wird dadurch immer schlechter. Eine Analyse. 

Dass KI-Modelle halluzinieren können, ist keine neue Erkenntnis. Seit Kurzem scheinen jedoch immer mehr große Sprachmodelle zu Halluzinationen zu neigen – allen voran ChatGPT. Der Hintergrund: KI-Modelle antworten anhand von Mustern und Wahrscheinlichkeiten, anstatt anhand von echtem Wissen oder Verständnis.

Da viele KI-Modelle zudem mithilfe von Daten aus dem Internet trainiert werden, sind nicht fehlerfrei. Falsche oder erfundene Informationen – auch KI-Halluzinationen genannt – können die Folge sein. Das Problem: ChatGPT und Co. erzählen derzeit immer mehr Unsinn, doch keiner weiß genau warum.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats-Kopfhörer gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

KI halluziniert immer häufiger

Ob als Google-Ersatz, Übersetzer oder als KI-Assistent bei der Arbeit: Sprachmodelle wie ChatGPT spielen im Alltag von immer mehr Menschen eine Rolle. Auch zahlreiche Unternehmen setzen mittlerweile KI-Modelle ein – beispielsweise in der Kundenbetreuung.

Rund um die besten KI-Modelle hat sich derweil ein regelrechter Wettstreit entwickelt. Sowohl OpenAI und Microsoft als auch Meta und Google vereint dabei das Ziel, die besten KI-Modelle entwickeln zu wollen – mit teilweise unterschiedlichen Ansätzen. Neben der reinen Rechenleistung spielt dabei auch der Funktionsumfang eine entscheidende Rolle.

Aufgrund der rasanten technologischen Entwicklung im Bereich Künstliche Intelligenz gehen die meisten großen Sprach- und KI-Modelle bereits seit einiger Zeit über die reine Textverarbeitung hinaus. Sowohl in der Bild-, Text- als auch Sprachverarbeitung ging es dabei lange Zeit nur in eine Richtung: nach oben.

Denn die meisten Modelle wurden immer besser. Zwar kam es bereits gelegentlich zu Halluzinationen, allerdings hielten diese sich in Grenzen. Seit Kurzem halluzinieren jedoch vor allem die neusten KI-Modelle immer häufiger. Das gibt selbst ChatGPT-Entwickler OpenAI in internen Untersuchungen unverblümt zu.

ChatGPT wird immer schlechter

Ende April 2025 musste sah sich das Unternehmen sogar dazu veranlasst, das neuste Update von GPT-4o zurückzuziehen. Das Problem dabei waren zwar weniger Halluzinationen, doch die KI verhielt sich schlichtweg zu nett und sagte zu fast allem Ja und Amen – mit teilweise verheerenden Folgen.

Denn ChatGPT legte durch das Update ein teilweise verstörendes Verhalten an den Tag oder gab Nutzern gefährliche medizinische Ratschläge. Das Modell GPT-o3 weist laut den internen Tests von OpenAI bei Fragen zu Personen des öffentlichen Lebens derweil eine Fehlerquote von rund 33 Prozent auf. Das ist mehr als doppelt so viel wie beim Vorgänger-Modell GPT-01.

Den Ergebnissen zufolge kommt die Version 04-mini bei allgemeinen Fragen sogar auf eine Fehlerquote von bis zu 80 Prozent. Der Grund: KI-Halluzinationen. Derzeit scheint jedoch nicht nur OpenAI von dem Phänomen betroffen zu sein, da auch andere KI-Entwickler ähnliche Beobachtungen machen.

Die Folgen davon können gravierend sein. Ein Chatbot der Entwicklerplattform Cursor hat etwa falsche Nutzungsrichtlinien ausgespuckt. Demnach sei nur noch die Nutzung auf einem Gerät möglich. Zahlreiche Nutzer zeigten sich daraufhin empört und kündigten ihre Abos. Aufgrund von KI-Halluzinationen haben sich zuletzt zudem mehrfach Anwälte vor Gericht auf angebliche Präzedenzfälle berufen, die es jedoch nie gab.

Erfahrungen

Seit den jüngsten KI-Updates von OpenAI konnten auch wir feststellen, dass ChatGPT zunehmend schlechtere Ergebnisse liefert. Vor allem die erhöhte Fehlerquote bei Fragen zu öffentlichen Personen können wir bestätigen. Beispielsweise lieferte ChatGPT Antworten zu aktuellen Ereignissen, in denen vom ehemaligen US-Präsidenten Donald Trump die Rede war.

Bei einer anderen Frage gab die KI den ehemaligen Datenschutzbeauftragten Ulrich Kelber als aktuellen Amtsinhaber an. Auch bei der Generierung von Bildern macht ChatGPT zunehmend, was es will. Beispielsweise wurden unsere Anforderungen, ein Bild im Querformat zu erstellen, mehrfach ignoriert. Gleiches gilt für das Entfernen von Schrift.

Außerdem auffällig: ChatGPT hat bei normalen und harmlosen Anfragen mehrmals Bilder beziehungsweise Antworten verweigert, da die Anfragen angeblich gegen die Nutzungsrichtlinien verstoßen würden. Die KI hat uns beispielsweise ein Bild mit dem OpenAI-Logo generiert. Wir wollten das Logo entfernen. Dies würde jedoch gegen die Richtlinien für die Verwendung von Logos verstoßen – obwohl gar kein Logo mehr vorhanden gewesen wäre.

Warum wird ChatGPT immer schlechter?

Auch bei dem Entfernen oder Hinzufügen von Schrift hieß es mehrmals, dass dies den Nutzungsrichtlinine widerspreche. Bei Zusammenfassung von Dokumenten spuckte ChatGPT zudem mehrmals ganz andere Themen beziehungsweise Zusammenfassung zu anderen Themen aus. Erst auf Nachfrage wurden unserer Anweisungen umgesetzt. Auch bei Korrekturen findet ChatGPT vermehrt Fehler oder angeblich Satzabbrüche, wo keine waren.

Die Entwicklungen werfen Fragen zur Zuverlässigkeit und Sicherheit von KI-Systemen auf, insbesondere in sensiblen Bereichen wie Medizin und Recht. Die KI-Community steht vor der Herausforderung, die Ursachen dieser Halluzinationen zu identifizieren und Lösungen zu entwickeln, um die Integrität und Vertrauenswürdigkeit von Sprachmodellen zu gewährleisten.

Das Problem: Weder OpenAI noch andere KI-Entwickler haben derzeit eine konkrete Antwort darauf, warum ChatGPT und Co. zunehmend halluzinieren – und damit immer schlechter werden. Eine mögliche Erklärung: Viele Sprachmodelle könnten bereits Gelerntes wieder vergessen, wenn sie neues Aufgaben oder neues Wissen lernen sollen, sprich neu trainiert werden.

Auch interessant: 

  • 5 Prompts, mit denen KI nervige Büroaufgaben für dich übernimmt
  • Der Energieverbrauch von ChatGPT: Pro Tag, pro Monat – und pro Jahr
  • Die Entwicklung von ChatGPT: Eine Chronologie der Ereignisse
  • Wie geht das denn? OpenAI bleibt gemeinnützig – darf aber Gewinn machen

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Content Creator – Social Media / Video ...
United Gamers Group GmbH in Wittmund, Zetel
Online Marketing Manager (m/w/d)
Asset7 Investment Inh. Sascha Christian Barrabas in
Online Advertising Manager (m/w/d)
Asset7 Investment Inh. Sascha Christian Barrabas in
Werkstudent:in Social Media Content Creator (...
BZKI Bildungszentrum für künstliche Intell... in Kempen
(Junior) Social Media Manager / Content Creat...
MVZ Medizinisches Labor Nord MLN GmbH in Hamburg
Graphic Designer & Content Creator (m/w/d)
FamiCord AG in Leipzig
Junior Communication Manager mit Schwerpunkt ...
REWE in Henstedt-Ulzburg
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
THEMEN:ChatGPTKünstliche IntelligenzNews
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

E-STATCOM Superkondensator
GREENTECH

Weltweit erste E-STATCOM: Künstliche Trägheit soll Stromnetz stabilisieren

ChatGPT Übersetzer Translate OpenAI
BREAK/THE NEWSTECH

Lost in Translation? ChatGPT bekommt eigenen Übersetzer

Beton als Stromspeicher Batterie Akku
GREEN

Neuartiger Beton soll Gebäude und Brücken in Batterien verwandeln

Natrium-Ionen-Batterien
GREENTECH

Natrium-Ionen-Batterie: Wasser-Trick verdoppelt Leistung

Bürokratie KI Künstliche Intelligenz Worms
BREAK/THE NEWSTECH

Aus Personalnot: Weniger Bürokratie durch KI?

Schwefel Batterie
GREENTECH

Ungewöhnliche Batterie nutzt Schwefel als Speicher und Elektrodenspender

Mehr anzeigen
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE kostenlos abonnieren
& Beats Solo 4 gewinnen!

Beats Solo 4
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?