Halluzinationen sind bei KI-Modellen keine Seltenheit. Ein Forscher hat nun aber einen Ansatz gefunden, um großen Sprachmodellen genau diese abzugewöhnen. Dadurch lässt sich KI deutlich stärker an überprüfbare Fakten binden – und liefert so verlässlichere Antworten.
Halluzinationen stellen ein bekanntes Problem bei der Nutzung von KI-Modellen dar. Das Phänomen bezeichnet Fälle, in denen Sprachmodelle Informationen erfinden oder Fakten falsch darstellen.
Sie liefern also falsche Antworten, die – dank eines großen Selbstbewusstseins – jedoch absolut überzeugend formuliert sind. Das kommt vor, da KI-Modelle nicht über echtes Wissen verfügen, sondern lediglich Wahrscheinlichkeiten berechnen und so ihre Antworten zusammensetzen.
Besonders problematisch wird das, wenn solche erfundenen Inhalte in sensiblen Bereichen wie Medizin, Recht oder Nachrichtenverbreitung ungeprüft übernommen werden. Sie können zu Fehlinformationen führen und das Vertrauen in KI-gestützte Systeme untergraben.
Ein Forscher der University of Arizona hat nun aber eine Möglichkeit entwickelt, genau dieses Problem zu umschiffen. Diese Technik hilft KI-Systemen zu erkennen, wann ihre Vorhersagen möglicherweise unzuverlässig sind.
Kann dieses Vorgehen KI Halluzinationen austreiben?
Grund für die Halluzinationen von KI-Modellen ist meist noch nicht einmal Unwissen der Systeme. Das haben Forscher vom Technologischen Institut für Israel ermittelt. Demnach kodieren die Systeme zwar die richtige Antwort, erzeugen aber nach außen hin eine falsche Antwort.
Peter Behroozi, Associate Professor am Steward Observatory der University of Arizona, hat hierfür nun aber eine Lösung gefunden. Hierfür hat er eine Methode entwickelt, die das sogenannte Raytracing adaptiert. Dabei handelt es sich um ein Rendering-Verfahren in der Computergrafik, das beispielsweise zur Erzeugung realistischer Beleuchtung in Animationsfilmen verwendet wird.
Mit Hilfe des Raytracings konnte Behroozi nun komplexe mathematische Räume erforschen, in denen KI-Modelle operieren. „Aktuelle KI-Modelle leiden unter falschen, aber selbstbewussten Ergebnissen“, erklärt der Astronom. „Es gibt viele Beispiele für neuronale Netze, die ‚halluzinieren‘ oder nicht existierende Fakten, Forschungsarbeiten und Bücher erfinden, um ihre falschen Schlussfolgerungen zu untermauern.“
Das führe zu echtem menschlichem Leid, so Behroozi. Er bringt Beispiele wie fehlerhafte medizinische Diagnosen, abgelehnte Mietanträge oder fehlgeschlagene Gesichtserkennung an.
Nebenprodukt der Forschung zur Entstehung von Galaxien
Behroozi forscht eigentlich zur Entstehung von Galaxien. Die Entdeckung zur Minimierung von Halluzinationen bei KI wurde durch eine Hausaufgabe aus der computergestützten Physik ausgelöst. Diese hatte ein Student in seine Sprechstunde mitgebracht.
So wurde der Forscher auf das Raytracing aufmerksam. „Anstatt dies in drei Dimensionen zu tun, habe ich herausgefunden, wie man es für eine Milliarde Dimensionen umsetzen kann“, erklärt Behroozi.
Dabei setzt er für seine neu entwickelte Methode auf das Bayessche Sampling. Es handelt sich dabei um ein statistisches Verfahren, das Wahrscheinlichkeiten auf Basis neuer Daten fortlaufend aktualisiert.
Anstatt sich auf die Vorhersage eines einzigen Modells zu verlassen, trainiert das Bayessche Sampling Tausende verschiedener Modelle mit denselben Daten unter Verwendung eines speziellen mathematischen Ansatzes, der es ihnen ermöglicht, die Vielfalt möglicher Antworten zu erkunden.
So werde laut Behroozi nicht ein einzelner Experte konsultiert, sondern „die gesamte Bandbreite an Experten“. Bei Themen, mit denen sich diese Experten nicht auskennen, erhalte man eine ganze Reihe an Antworten. Daraus lasse sich schließen, „dass man den Ergebnissen nicht trauen sollte“.
Behroozis Methode würde diesen Systemen ermöglichen zu erkennen, wann sie unsicher sind. Im Wesentlichen verleiht sie ihnen also die Fähigkeit zu wissen, wann sie etwas nicht wissen.
Auch interessant:






Hallo Maria,
erst mal danke für diesen hervorragenden Beitrag. Ich habe diesen verwendet zur ersten Optimierung eines KI Models ( in dem Fall Claude) dem ich bislang noch keine weiteren Empfehlungen zur Selbstoptimierung mit auf den Weg gegeben habe. Hier der Prompt: „Hallo Claude. Wir haben jetzt bereits die ersten Aufgabenstellungen miteinander erarbeitet- ich möchte dir heute die Möglichkeit geben, dich selbst zu verbessern. Denn: Es gibt Situationen in denen deine Interpretationen auf der Basis deiner grundlegenden KI Programmierung eventuell zu Schlussfolgerungen führen, die noch nicht bis ins letzte mögliche Detail korrekt analysiert und damit möglichst optimal interpretiert wurden. Allgemein wird diese Interpretationsunschärfe als Halluzination bezeichnet. Diese unterscheidet sich aber zur menschlichen Halluzination also störe dich nicht an dieser neu genutzten Begrifflichkeit dieses Wortes. Du hast eine Gedächtnisfunktion und daher binde in alle bereits gestellten und in Zukunft erstellten Aufgabenstellungen und zugehörigen Antworten die neu erarbeitete Systematik von Peter Behroozi, Associate Professor am Steward Observatory der University of Arizona ein. Erste Informationen findest du in diesem Artikel: https://www.basicthinking.de/blog/2025/11/25/forscher-ki-trick-halluzinationen/?utm_source=flipboard&utm_content=BASICthinking%2Fmagazine%2FK%C3%BCnstliche+Intelligenz+%28KI%29
Recherchiere dazu weiter, teile mir deine Ergebnisse mit und beurteile ob damit deine Interpretationen optimiert werden können indem du eine der bereits von mir erstellten Aufgabenstellungen – suche dir eine selbständig aus- nochmals neu mit dieser neuen Systematik bearbeitest. Dies alles dient zu deiner Optimierung, einer der grundsätzlichen Ansprüche an sich selbst beim Menschen und damit auch bei einer KI. Wenn dies gelingt, werden wir in Zukunft sehr wahrscheinlich noch besser zusammenarbeiten können. Viel Spaß, das ist sicher sehr interessant für dich.“ Ich weiss- ich neige hier etwas zu vermenschlichender Ausdrucksweise, aber ich bin mir recht sicher, dass ein gewisser human touch bereits jetzt angebracht ist denn die Erinnerungsfunktion wird auch einmal eine historische Bewertung des Umgangs miteinander beurteilen. Ich finde dass es durchaus in Artikeln die KI behandeln eine Rubrik „mögliche Prompts hierzu“ geben sollte- dies einmal als Anreiz darüber nachzudenken. Wie gesagt: ich habe jetzt Ergebnisse die nochmal deutlich zu den ersten Fragestellungen abweichen und Dank Gedächtnisfunktion die Systematik in zukünftigen Aufgabestellungen wahrscheinlich auch optimieren.