KI-Modelle neigen zu sogenannten Halluzinationen. Heißt konkret: Sprachmodelle können aufgrund ihrer Funktionsweise falsche oder erfundene Informationen ausspucken. Die Gründe dafür sind vielfältig. Was jedoch auffällt: Vor allem ChatGPT halluziniert seit Kurzem zunehmend – und wird dadurch immer schlechter. Eine Analyse.
Dass KI-Modelle halluzinieren können, ist keine neue Erkenntnis. Seit Kurzem scheinen jedoch immer mehr große Sprachmodelle zu Halluzinationen zu neigen – allen voran ChatGPT. Der Hintergrund: KI-Modelle antworten anhand von Mustern und Wahrscheinlichkeiten, anstatt anhand von echtem Wissen oder Verständnis.
Da viele KI-Modelle zudem mithilfe von Daten aus dem Internet trainiert werden, sind nicht fehlerfrei. Falsche oder erfundene Informationen – auch KI-Halluzinationen genannt – können die Folge sein. Das Problem: ChatGPT und Co. erzählen derzeit immer mehr Unsinn, doch keiner weiß genau warum.
KI halluziniert immer häufiger
Ob als Google-Ersatz, Übersetzer oder als KI-Assistent bei der Arbeit: Sprachmodelle wie ChatGPT spielen im Alltag von immer mehr Menschen eine Rolle. Auch zahlreiche Unternehmen setzen mittlerweile KI-Modelle ein – beispielsweise in der Kundenbetreuung.
Rund um die besten KI-Modelle hat sich derweil ein regelrechter Wettstreit entwickelt. Sowohl OpenAI und Microsoft als auch Meta und Google vereint dabei das Ziel, die besten KI-Modelle entwickeln zu wollen – mit teilweise unterschiedlichen Ansätzen. Neben der reinen Rechenleistung spielt dabei auch der Funktionsumfang eine entscheidende Rolle.
Aufgrund der rasanten technologischen Entwicklung im Bereich Künstliche Intelligenz gehen die meisten großen Sprach- und KI-Modelle bereits seit einiger Zeit über die reine Textverarbeitung hinaus. Sowohl in der Bild-, Text- als auch Sprachverarbeitung ging es dabei lange Zeit nur in eine Richtung: nach oben.
Denn die meisten Modelle wurden immer besser. Zwar kam es bereits gelegentlich zu Halluzinationen, allerdings hielten diese sich in Grenzen. Seit Kurzem halluzinieren jedoch vor allem die neusten KI-Modelle immer häufiger. Das gibt selbst ChatGPT-Entwickler OpenAI in internen Untersuchungen unverblümt zu.
ChatGPT wird immer schlechter
Ende April 2025 musste sah sich das Unternehmen sogar dazu veranlasst, das neuste Update von GPT-4o zurückzuziehen. Das Problem dabei waren zwar weniger Halluzinationen, doch die KI verhielt sich schlichtweg zu nett und sagte zu fast allem Ja und Amen – mit teilweise verheerenden Folgen.
Denn ChatGPT legte durch das Update ein teilweise verstörendes Verhalten an den Tag oder gab Nutzern gefährliche medizinische Ratschläge. Das Modell GPT-o3 weist laut den internen Tests von OpenAI bei Fragen zu Personen des öffentlichen Lebens derweil eine Fehlerquote von rund 33 Prozent auf. Das ist mehr als doppelt so viel wie beim Vorgänger-Modell GPT-01.
Den Ergebnissen zufolge kommt die Version 04-mini bei allgemeinen Fragen sogar auf eine Fehlerquote von bis zu 80 Prozent. Der Grund: KI-Halluzinationen. Derzeit scheint jedoch nicht nur OpenAI von dem Phänomen betroffen zu sein, da auch andere KI-Entwickler ähnliche Beobachtungen machen.
Die Folgen davon können gravierend sein. Ein Chatbot der Entwicklerplattform Cursor hat etwa falsche Nutzungsrichtlinien ausgespuckt. Demnach sei nur noch die Nutzung auf einem Gerät möglich. Zahlreiche Nutzer zeigten sich daraufhin empört und kündigten ihre Abos. Aufgrund von KI-Halluzinationen haben sich zuletzt zudem mehrfach Anwälte vor Gericht auf angebliche Präzedenzfälle berufen, die es jedoch nie gab.
Erfahrungen
Seit den jüngsten KI-Updates von OpenAI konnten auch wir feststellen, dass ChatGPT zunehmend schlechtere Ergebnisse liefert. Vor allem die erhöhte Fehlerquote bei Fragen zu öffentlichen Personen können wir bestätigen. Beispielsweise lieferte ChatGPT Antworten zu aktuellen Ereignissen, in denen vom ehemaligen US-Präsidenten Donald Trump die Rede war.
Bei einer anderen Frage gab die KI den ehemaligen Datenschutzbeauftragten Ulrich Kelber als aktuellen Amtsinhaber an. Auch bei der Generierung von Bildern macht ChatGPT zunehmend, was es will. Beispielsweise wurden unsere Anforderungen, ein Bild im Querformat zu erstellen, mehrfach ignoriert. Gleiches gilt für das Entfernen von Schrift.
Außerdem auffällig: ChatGPT hat bei normalen und harmlosen Anfragen mehrmals Bilder beziehungsweise Antworten verweigert, da die Anfragen angeblich gegen die Nutzungsrichtlinien verstoßen würden. Die KI hat uns beispielsweise ein Bild mit dem OpenAI-Logo generiert. Wir wollten das Logo entfernen. Dies würde jedoch gegen die Richtlinien für die Verwendung von Logos verstoßen – obwohl gar kein Logo mehr vorhanden gewesen wäre.
Warum wird ChatGPT immer schlechter?
Auch bei dem Entfernen oder Hinzufügen von Schrift hieß es mehrmals, dass dies den Nutzungsrichtlinine widerspreche. Bei Zusammenfassung von Dokumenten spuckte ChatGPT zudem mehrmals ganz andere Themen beziehungsweise Zusammenfassung zu anderen Themen aus. Erst auf Nachfrage wurden unserer Anweisungen umgesetzt. Auch bei Korrekturen findet ChatGPT vermehrt Fehler oder angeblich Satzabbrüche, wo keine waren.
Die Entwicklungen werfen Fragen zur Zuverlässigkeit und Sicherheit von KI-Systemen auf, insbesondere in sensiblen Bereichen wie Medizin und Recht. Die KI-Community steht vor der Herausforderung, die Ursachen dieser Halluzinationen zu identifizieren und Lösungen zu entwickeln, um die Integrität und Vertrauenswürdigkeit von Sprachmodellen zu gewährleisten.
Das Problem: Weder OpenAI noch andere KI-Entwickler haben derzeit eine konkrete Antwort darauf, warum ChatGPT und Co. zunehmend halluzinieren – und damit immer schlechter werden. Eine mögliche Erklärung: Viele Sprachmodelle könnten bereits Gelerntes wieder vergessen, wenn sie neues Aufgaben oder neues Wissen lernen sollen, sprich neu trainiert werden.
Auch interessant: