Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du der Datenschutzerklärung zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Halluzinationen ChatGPT wird schlechter halluziniert Künstliche Intelligenz.
TECH

Halluzinationen: ChatGPT wird immer schlecht – doch keiner weiß warum

Fabian Peters
Aktualisiert: 15. Mai 2025
von Fabian Peters
Bild: Mit ChatGPT generiert (KI).
Teilen

KI-Modelle neigen zu sogenannten Halluzinationen. Heißt konkret: Sprachmodelle können aufgrund ihrer Funktionsweise falsche oder erfundene Informationen ausspucken. Die Gründe dafür sind vielfältig. Was jedoch auffällt: Vor allem ChatGPT halluziniert seit Kurzem zunehmend – und wird dadurch immer schlechter. Eine Analyse. 

Dass KI-Modelle halluzinieren können, ist keine neue Erkenntnis. Seit Kurzem scheinen jedoch immer mehr große Sprachmodelle zu Halluzinationen zu neigen – allen voran ChatGPT. Der Hintergrund: KI-Modelle antworten anhand von Mustern und Wahrscheinlichkeiten, anstatt anhand von echtem Wissen oder Verständnis.

Da viele KI-Modelle zudem mithilfe von Daten aus dem Internet trainiert werden, sind nicht fehlerfrei. Falsche oder erfundene Informationen – auch KI-Halluzinationen genannt – können die Folge sein. Das Problem: ChatGPT und Co. erzählen derzeit immer mehr Unsinn, doch keiner weiß genau warum.

BASIC thinking UPDATE

Jeden Tag bekommen 10.000+ Abonnenten die wichtigsten Tech-News direkt in die Inbox. Abonniere jetzt dein kostenloses Tech-Briefing:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

  • 5 Minuten pro Tag
  • 100% kostenlos
  • Exklusive PDF-Guides

KI halluziniert immer häufiger

Ob als Google-Ersatz, Übersetzer oder als KI-Assistent bei der Arbeit: Sprachmodelle wie ChatGPT spielen im Alltag von immer mehr Menschen eine Rolle. Auch zahlreiche Unternehmen setzen mittlerweile KI-Modelle ein – beispielsweise in der Kundenbetreuung.

Rund um die besten KI-Modelle hat sich derweil ein regelrechter Wettstreit entwickelt. Sowohl OpenAI und Microsoft als auch Meta und Google vereint dabei das Ziel, die besten KI-Modelle entwickeln zu wollen – mit teilweise unterschiedlichen Ansätzen. Neben der reinen Rechenleistung spielt dabei auch der Funktionsumfang eine entscheidende Rolle.

Aufgrund der rasanten technologischen Entwicklung im Bereich Künstliche Intelligenz gehen die meisten großen Sprach- und KI-Modelle bereits seit einiger Zeit über die reine Textverarbeitung hinaus. Sowohl in der Bild-, Text- als auch Sprachverarbeitung ging es dabei lange Zeit nur in eine Richtung: nach oben.

Denn die meisten Modelle wurden immer besser. Zwar kam es bereits gelegentlich zu Halluzinationen, allerdings hielten diese sich in Grenzen. Seit Kurzem halluzinieren jedoch vor allem die neusten KI-Modelle immer häufiger. Das gibt selbst ChatGPT-Entwickler OpenAI in internen Untersuchungen unverblümt zu.

ChatGPT wird immer schlechter

Ende April 2025 musste sah sich das Unternehmen sogar dazu veranlasst, das neuste Update von GPT-4o zurückzuziehen. Das Problem dabei waren zwar weniger Halluzinationen, doch die KI verhielt sich schlichtweg zu nett und sagte zu fast allem Ja und Amen – mit teilweise verheerenden Folgen.

Denn ChatGPT legte durch das Update ein teilweise verstörendes Verhalten an den Tag oder gab Nutzern gefährliche medizinische Ratschläge. Das Modell GPT-o3 weist laut den internen Tests von OpenAI bei Fragen zu Personen des öffentlichen Lebens derweil eine Fehlerquote von rund 33 Prozent auf. Das ist mehr als doppelt so viel wie beim Vorgänger-Modell GPT-01.

Den Ergebnissen zufolge kommt die Version 04-mini bei allgemeinen Fragen sogar auf eine Fehlerquote von bis zu 80 Prozent. Der Grund: KI-Halluzinationen. Derzeit scheint jedoch nicht nur OpenAI von dem Phänomen betroffen zu sein, da auch andere KI-Entwickler ähnliche Beobachtungen machen.

Die Folgen davon können gravierend sein. Ein Chatbot der Entwicklerplattform Cursor hat etwa falsche Nutzungsrichtlinien ausgespuckt. Demnach sei nur noch die Nutzung auf einem Gerät möglich. Zahlreiche Nutzer zeigten sich daraufhin empört und kündigten ihre Abos. Aufgrund von KI-Halluzinationen haben sich zuletzt zudem mehrfach Anwälte vor Gericht auf angebliche Präzedenzfälle berufen, die es jedoch nie gab.

Erfahrungen

Seit den jüngsten KI-Updates von OpenAI konnten auch wir feststellen, dass ChatGPT zunehmend schlechtere Ergebnisse liefert. Vor allem die erhöhte Fehlerquote bei Fragen zu öffentlichen Personen können wir bestätigen. Beispielsweise lieferte ChatGPT Antworten zu aktuellen Ereignissen, in denen vom ehemaligen US-Präsidenten Donald Trump die Rede war.

Bei einer anderen Frage gab die KI den ehemaligen Datenschutzbeauftragten Ulrich Kelber als aktuellen Amtsinhaber an. Auch bei der Generierung von Bildern macht ChatGPT zunehmend, was es will. Beispielsweise wurden unsere Anforderungen, ein Bild im Querformat zu erstellen, mehrfach ignoriert. Gleiches gilt für das Entfernen von Schrift.

Außerdem auffällig: ChatGPT hat bei normalen und harmlosen Anfragen mehrmals Bilder beziehungsweise Antworten verweigert, da die Anfragen angeblich gegen die Nutzungsrichtlinien verstoßen würden. Die KI hat uns beispielsweise ein Bild mit dem OpenAI-Logo generiert. Wir wollten das Logo entfernen. Dies würde jedoch gegen die Richtlinien für die Verwendung von Logos verstoßen – obwohl gar kein Logo mehr vorhanden gewesen wäre.

Warum wird ChatGPT immer schlechter?

Auch bei dem Entfernen oder Hinzufügen von Schrift hieß es mehrmals, dass dies den Nutzungsrichtlinine widerspreche. Bei Zusammenfassung von Dokumenten spuckte ChatGPT zudem mehrmals ganz andere Themen beziehungsweise Zusammenfassung zu anderen Themen aus. Erst auf Nachfrage wurden unserer Anweisungen umgesetzt. Auch bei Korrekturen findet ChatGPT vermehrt Fehler oder angeblich Satzabbrüche, wo keine waren.

Die Entwicklungen werfen Fragen zur Zuverlässigkeit und Sicherheit von KI-Systemen auf, insbesondere in sensiblen Bereichen wie Medizin und Recht. Die KI-Community steht vor der Herausforderung, die Ursachen dieser Halluzinationen zu identifizieren und Lösungen zu entwickeln, um die Integrität und Vertrauenswürdigkeit von Sprachmodellen zu gewährleisten.

Das Problem: Weder OpenAI noch andere KI-Entwickler haben derzeit eine konkrete Antwort darauf, warum ChatGPT und Co. zunehmend halluzinieren – und damit immer schlechter werden. Eine mögliche Erklärung: Viele Sprachmodelle könnten bereits Gelerntes wieder vergessen, wenn sie neues Aufgaben oder neues Wissen lernen sollen, sprich neu trainiert werden.

Auch interessant: 

  • 5 Prompts, mit denen KI nervige Büroaufgaben für dich übernimmt
  • Der Energieverbrauch von ChatGPT: Pro Tag, pro Monat – und pro Jahr
  • Die Entwicklung von ChatGPT: Eine Chronologie der Ereignisse
  • Wie geht das denn? OpenAI bleibt gemeinnützig – darf aber Gewinn machen
Bondora

Anzeige

STELLENANZEIGEN
BASIC thinking Freiberuflicher Redakteur (m/w/d)
BASIC thinking GmbH in Home Office
Werkstudent/in (m/w/d) als Content Creator Ti...
Hansestadt Uelzen Organisation und Personal in Uelzen
Praktikant Social Media Marketing B2B bei Vod...
Vodafone GmbH in Düsseldorf
Senior Digital Marketing Manager (m/w/d)
EAT HAPPY GROUP in Köln
Senior Java Developer – Microservices, Spring...
1&1 Mail & Media in Karlsruhe, München
WFH Opportunity: Personalized Internet Ads As...
Telus Digital in Berlin

Du willst solche Themen nicht verpassen? Mit dem BASIC thinking UPDATE, deinem täglichen Tech-Briefing, starten über 10.000 Leser jeden Morgen bestens informiert in den Tag. Jetzt kostenlos anmelden:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

THEMEN:ChatGPTKünstliche IntelligenzNews
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
Keine Kommentare Keine Kommentare

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Anzeige

EMPFEHLUNG
Bitpanda x pepe
1 Million PEPE Coins geschenkt: So sicherst du dir den Krypto-Bonus bei Bitpanda
Anzeige MONEY
UPDATE – DEIN TECH-BRIEFING

Jeden Tag bekommen 10.000+ Abonnenten von uns die wichtigsten Tech-News direkt in die Inbox. Abonniere jetzt dein kostenloses Tech-Briefing:

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Festplatte kopieren Windows 11
AnzeigeTECH

So geht’s: Festplatte kopieren unter Windows 11

Lithiumionen-Leiter Batterien Akkus
GREENTECH

Deutsche Forscher entwickeln neuen Lithiumionen-Leiter – für bessere Batterien

Denta-M
AnzeigeTECH

Zahnpflege leicht gemacht: Mit Denta-M alles im Griff

Rechenzentren KI Klimawandel Energiewende
GREENTECH

Rechenzentren: KI-Hype gefährdet Klimaschutz und Energiewende

Ladebordstein Elektroautos E-Autos Rheinmetall
GREENTECH

Rheinmetall startet Serienproduktion von Ladebordstein für E-Autos

Be-Tunes
AnzeigeTECH

In-Ears, Lautsprecher & mehr – entdecke den Be-Tunes Sound

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?