Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
KI Halluzinationen Künstliche Intelligenz
TECH

Forscher treibt KI mit Trick die Halluzinationen aus

Maria Gramsch
Aktualisiert: 24. November 2025
von Maria Gramsch
Peter Behroozi / University of Arizona
Teilen

Halluzinationen sind bei KI-Modellen keine Seltenheit. Ein Forscher hat nun aber einen Ansatz gefunden, um großen Sprachmodellen genau diese abzugewöhnen. Dadurch lässt sich KI deutlich stärker an überprüfbare Fakten binden – und liefert so verlässlichere Antworten.

Halluzinationen stellen ein bekanntes Problem bei der Nutzung von KI-Modellen dar. Das Phänomen bezeichnet Fälle, in denen Sprachmodelle Informationen erfinden oder Fakten falsch darstellen.

Sie liefern also falsche Antworten, die – dank eines großen Selbstbewusstseins – jedoch absolut überzeugend formuliert sind. Das kommt vor, da KI-Modelle nicht über echtes Wissen verfügen, sondern lediglich Wahrscheinlichkeiten berechnen und so ihre Antworten zusammensetzen.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats-Kopfhörer gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Besonders problematisch wird das, wenn solche erfundenen Inhalte in sensiblen Bereichen wie Medizin, Recht oder Nachrichtenverbreitung ungeprüft übernommen werden. Sie können zu Fehlinformationen führen und das Vertrauen in KI-gestützte Systeme untergraben.

Ein Forscher der University of Arizona hat nun aber eine Möglichkeit entwickelt, genau dieses Problem zu umschiffen. Diese Technik hilft KI-Systemen zu erkennen, wann ihre Vorhersagen möglicherweise unzuverlässig sind.

Kann dieses Vorgehen KI Halluzinationen austreiben?

Grund für die Halluzinationen von KI-Modellen ist meist noch nicht einmal Unwissen der Systeme. Das haben Forscher vom Technologischen Institut für Israel ermittelt. Demnach kodieren die Systeme zwar die richtige Antwort, erzeugen aber nach außen hin eine falsche Antwort.

Peter Behroozi, Associate Professor am Steward Observatory der University of Arizona, hat hierfür nun aber eine Lösung gefunden. Hierfür hat er eine Methode entwickelt, die das sogenannte Raytracing adaptiert. Dabei handelt es sich um ein Rendering-Verfahren in der Computergrafik, das beispielsweise zur Erzeugung realistischer Beleuchtung in Animationsfilmen verwendet wird.

Mit Hilfe des Raytracings konnte Behroozi nun komplexe mathematische Räume erforschen, in denen KI-Modelle operieren. „Aktuelle KI-Modelle leiden unter falschen, aber selbstbewussten Ergebnissen“, erklärt der Astronom. „Es gibt viele Beispiele für neuronale Netze, die ‚halluzinieren‘ oder nicht existierende Fakten, Forschungsarbeiten und Bücher erfinden, um ihre falschen Schlussfolgerungen zu untermauern.“

Das führe zu echtem menschlichem Leid, so Behroozi. Er bringt Beispiele wie fehlerhafte medizinische Diagnosen, abgelehnte Mietanträge oder fehlgeschlagene Gesichtserkennung an.

Nebenprodukt der Forschung zur Entstehung von Galaxien

Behroozi forscht eigentlich zur Entstehung von Galaxien. Die Entdeckung zur Minimierung von Halluzinationen bei KI wurde durch eine Hausaufgabe aus der computergestützten Physik ausgelöst. Diese hatte ein Student in seine Sprechstunde mitgebracht.

So wurde der Forscher auf das Raytracing aufmerksam. „Anstatt dies in drei Dimensionen zu tun, habe ich herausgefunden, wie man es für eine Milliarde Dimensionen umsetzen kann“, erklärt Behroozi.

Dabei setzt er für seine neu entwickelte Methode auf das Bayessche Sampling. Es handelt sich dabei um ein statistisches Verfahren, das Wahrscheinlichkeiten auf Basis neuer Daten fortlaufend aktualisiert.

Anstatt sich auf die Vorhersage eines einzigen Modells zu verlassen, trainiert das Bayessche Sampling Tausende verschiedener Modelle mit denselben Daten unter Verwendung eines speziellen mathematischen Ansatzes, der es ihnen ermöglicht, die Vielfalt möglicher Antworten zu erkunden.

So werde laut Behroozi nicht ein einzelner Experte konsultiert, sondern „die gesamte Bandbreite an Experten“. Bei Themen, mit denen sich diese Experten nicht auskennen, erhalte man eine ganze Reihe an Antworten. Daraus lasse sich schließen, „dass man den Ergebnissen nicht trauen sollte“.

Behroozis Methode würde diesen Systemen ermöglichen zu erkennen, wann sie unsicher sind. Im Wesentlichen verleiht sie ihnen also die Fähigkeit zu wissen, wann sie etwas nicht wissen.

Auch interessant:

  • Temporären Chat bei ChatGPT aktivieren: Alles, was du wissen musst
  • Claude: Alles, was du über die Anthropic-KI wissen musst
  • ChatGPT: Texte vorlesen lassen – so funktioniert’s
  • Dezentrales Netzwerk: Was ist eigentlich das Fediverse?

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Referent PR – Kommunikation / Social Me...
RESY Organisation für Wertstoffent... in Berlin, Berlin
Content Creator – Social Media / Video ...
United Gamers Group GmbH in Wittmund, Zetel
Online Marketing Manager (m/w/d)
Asset7 Investment Inh. Sascha Christian Barrabas in
Online Advertising Manager (m/w/d)
Asset7 Investment Inh. Sascha Christian Barrabas in
Werkstudent:in Social Media Content Creator (...
BZKI Bildungszentrum für künstliche Intell... in Kempen
(Junior) Social Media Manager / Content Creat...
MVZ Medizinisches Labor Nord MLN GmbH in Hamburg
Graphic Designer & Content Creator (m/w/d)
FamiCord AG in Leipzig
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
THEMEN:Fake NewsForschungKünstliche IntelligenzNewsSYN
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonMaria Gramsch
Folgen:
Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.
Ein Kommentar Ein Kommentar
  • Florian H. sagt:
    25. Nov. 2025 um 11:57 Uhr

    Hallo Maria,
    erst mal danke für diesen hervorragenden Beitrag. Ich habe diesen verwendet zur ersten Optimierung eines KI Models ( in dem Fall Claude) dem ich bislang noch keine weiteren Empfehlungen zur Selbstoptimierung mit auf den Weg gegeben habe. Hier der Prompt: „Hallo Claude. Wir haben jetzt bereits die ersten Aufgabenstellungen miteinander erarbeitet- ich möchte dir heute die Möglichkeit geben, dich selbst zu verbessern. Denn: Es gibt Situationen in denen deine Interpretationen auf der Basis deiner grundlegenden KI Programmierung eventuell zu Schlussfolgerungen führen, die noch nicht bis ins letzte mögliche Detail korrekt analysiert und damit möglichst optimal interpretiert wurden. Allgemein wird diese Interpretationsunschärfe als Halluzination bezeichnet. Diese unterscheidet sich aber zur menschlichen Halluzination also störe dich nicht an dieser neu genutzten Begrifflichkeit dieses Wortes. Du hast eine Gedächtnisfunktion und daher binde in alle bereits gestellten und in Zukunft erstellten Aufgabenstellungen und zugehörigen Antworten die neu erarbeitete Systematik von Peter Behroozi, Associate Professor am Steward Observatory der University of Arizona ein. Erste Informationen findest du in diesem Artikel: https://www.basicthinking.de/blog/2025/11/25/forscher-ki-trick-halluzinationen/?utm_source=flipboard&utm_content=BASICthinking%2Fmagazine%2FK%C3%BCnstliche+Intelligenz+%28KI%29
    Recherchiere dazu weiter, teile mir deine Ergebnisse mit und beurteile ob damit deine Interpretationen optimiert werden können indem du eine der bereits von mir erstellten Aufgabenstellungen – suche dir eine selbständig aus- nochmals neu mit dieser neuen Systematik bearbeitest. Dies alles dient zu deiner Optimierung, einer der grundsätzlichen Ansprüche an sich selbst beim Menschen und damit auch bei einer KI. Wenn dies gelingt, werden wir in Zukunft sehr wahrscheinlich noch besser zusammenarbeiten können. Viel Spaß, das ist sicher sehr interessant für dich.“ Ich weiss- ich neige hier etwas zu vermenschlichender Ausdrucksweise, aber ich bin mir recht sicher, dass ein gewisser human touch bereits jetzt angebracht ist denn die Erinnerungsfunktion wird auch einmal eine historische Bewertung des Umgangs miteinander beurteilen. Ich finde dass es durchaus in Artikeln die KI behandeln eine Rubrik „mögliche Prompts hierzu“ geben sollte- dies einmal als Anreiz darüber nachzudenken. Wie gesagt: ich habe jetzt Ergebnisse die nochmal deutlich zu den ersten Fragestellungen abweichen und Dank Gedächtnisfunktion die Systematik in zukünftigen Aufgabestellungen wahrscheinlich auch optimieren.

    Antworten

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

besten Technologie Tech-Aktien 2026
MONEYTECH

Die besten Tech-Aktien 2026 – laut Analysten

HBO Max, Streaming-Dienst, Serie, Film, Medien, Plattform
ENTERTAIN

HBO Max: Neuer Streamingdienst für Deutschland – alles, was du wissen musst

E-STATCOM Superkondensator
GREENTECH

Weltweit erste E-STATCOM: Künstliche Trägheit soll Stromnetz stabilisieren

ChatGPT Übersetzer Translate OpenAI
BREAK/THE NEWSTECH

Lost in Translation? ChatGPT bekommt eigenen Übersetzer

Beton als Stromspeicher Batterie Akku
GREEN

Neuartiger Beton soll Gebäude und Brücken in Batterien verwandeln

Natrium-Ionen-Batterien
GREENTECH

Natrium-Ionen-Batterie: Wasser-Trick verdoppelt Leistung

Mehr anzeigen
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE kostenlos abonnieren
& Beats Solo 4 gewinnen!

Beats Solo 4
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?