Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
KI Halluzinationen Künstliche Intelligenz
TECH

Forscher treibt KI mit Trick die Halluzinationen aus

Maria Gramsch
Aktualisiert: 24. November 2025
von Maria Gramsch
Peter Behroozi / University of Arizona
Teilen

Halluzinationen sind bei KI-Modellen keine Seltenheit. Ein Forscher hat nun aber einen Ansatz gefunden, um großen Sprachmodellen genau diese abzugewöhnen. Dadurch lässt sich KI deutlich stärker an überprüfbare Fakten binden – und liefert so verlässlichere Antworten.

Halluzinationen stellen ein bekanntes Problem bei der Nutzung von KI-Modellen dar. Das Phänomen bezeichnet Fälle, in denen Sprachmodelle Informationen erfinden oder Fakten falsch darstellen.

Sie liefern also falsche Antworten, die – dank eines großen Selbstbewusstseins – jedoch absolut überzeugend formuliert sind. Das kommt vor, da KI-Modelle nicht über echtes Wissen verfügen, sondern lediglich Wahrscheinlichkeiten berechnen und so ihre Antworten zusammensetzen.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 100€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Besonders problematisch wird das, wenn solche erfundenen Inhalte in sensiblen Bereichen wie Medizin, Recht oder Nachrichtenverbreitung ungeprüft übernommen werden. Sie können zu Fehlinformationen führen und das Vertrauen in KI-gestützte Systeme untergraben.

Ein Forscher der University of Arizona hat nun aber eine Möglichkeit entwickelt, genau dieses Problem zu umschiffen. Diese Technik hilft KI-Systemen zu erkennen, wann ihre Vorhersagen möglicherweise unzuverlässig sind.

Kann dieses Vorgehen KI Halluzinationen austreiben?

Grund für die Halluzinationen von KI-Modellen ist meist noch nicht einmal Unwissen der Systeme. Das haben Forscher vom Technologischen Institut für Israel ermittelt. Demnach kodieren die Systeme zwar die richtige Antwort, erzeugen aber nach außen hin eine falsche Antwort.

Peter Behroozi, Associate Professor am Steward Observatory der University of Arizona, hat hierfür nun aber eine Lösung gefunden. Hierfür hat er eine Methode entwickelt, die das sogenannte Raytracing adaptiert. Dabei handelt es sich um ein Rendering-Verfahren in der Computergrafik, das beispielsweise zur Erzeugung realistischer Beleuchtung in Animationsfilmen verwendet wird.

Mit Hilfe des Raytracings konnte Behroozi nun komplexe mathematische Räume erforschen, in denen KI-Modelle operieren. „Aktuelle KI-Modelle leiden unter falschen, aber selbstbewussten Ergebnissen“, erklärt der Astronom. „Es gibt viele Beispiele für neuronale Netze, die ‚halluzinieren‘ oder nicht existierende Fakten, Forschungsarbeiten und Bücher erfinden, um ihre falschen Schlussfolgerungen zu untermauern.“

Das führe zu echtem menschlichem Leid, so Behroozi. Er bringt Beispiele wie fehlerhafte medizinische Diagnosen, abgelehnte Mietanträge oder fehlgeschlagene Gesichtserkennung an.

Nebenprodukt der Forschung zur Entstehung von Galaxien

Behroozi forscht eigentlich zur Entstehung von Galaxien. Die Entdeckung zur Minimierung von Halluzinationen bei KI wurde durch eine Hausaufgabe aus der computergestützten Physik ausgelöst. Diese hatte ein Student in seine Sprechstunde mitgebracht.

So wurde der Forscher auf das Raytracing aufmerksam. „Anstatt dies in drei Dimensionen zu tun, habe ich herausgefunden, wie man es für eine Milliarde Dimensionen umsetzen kann“, erklärt Behroozi.

Dabei setzt er für seine neu entwickelte Methode auf das Bayessche Sampling. Es handelt sich dabei um ein statistisches Verfahren, das Wahrscheinlichkeiten auf Basis neuer Daten fortlaufend aktualisiert.

Anstatt sich auf die Vorhersage eines einzigen Modells zu verlassen, trainiert das Bayessche Sampling Tausende verschiedener Modelle mit denselben Daten unter Verwendung eines speziellen mathematischen Ansatzes, der es ihnen ermöglicht, die Vielfalt möglicher Antworten zu erkunden.

So werde laut Behroozi nicht ein einzelner Experte konsultiert, sondern „die gesamte Bandbreite an Experten“. Bei Themen, mit denen sich diese Experten nicht auskennen, erhalte man eine ganze Reihe an Antworten. Daraus lasse sich schließen, „dass man den Ergebnissen nicht trauen sollte“.

Behroozis Methode würde diesen Systemen ermöglichen zu erkennen, wann sie unsicher sind. Im Wesentlichen verleiht sie ihnen also die Fähigkeit zu wissen, wann sie etwas nicht wissen.

Auch interessant:

  • Temporären Chat bei ChatGPT aktivieren: Alles, was du wissen musst
  • Claude: Alles, was du über die Anthropic-KI wissen musst
  • ChatGPT: Texte vorlesen lassen – so funktioniert’s
  • Dezentrales Netzwerk: Was ist eigentlich das Fediverse?

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Werkstudent:in KI Content Creator (m/w/d) Soc...
BZKI Bildungszentrum für künstliche Intell... in Kempen
(Junior) Social Media Manager / Content Creat...
MVZ Medizinisches Labor Nord MLN GmbH in Hamburg
Praktikum Social Media | LASCANA (w/m/d)
Otto GmbH & Co. KGaA in Hamburg
Content Manager (m/w/d)
SEGGER Microcontroller GmbH in Monheim am Rhein
Praktikum Social Media Design | LASCANA (w/m/d)
Otto GmbH & Co. KGaA in Hamburg
Duales Studium zum Bachelor of Science (DH), ...
DZ BANK AG in Frankfurt am Main
Werkstudent Content und Online Marketing (m/w/d)
Zeppelin Power Systems GmbH in Hamburg
PR-Berater*in mit Social-Media-Affinität (m/w/d)
Gute Leude Fabrik GmbH & Co. KG in Hamburg
THEMEN:Fake NewsForschungKünstliche IntelligenzNewsSYN
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonMaria Gramsch
Folgen:
Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.
Ein Kommentar Ein Kommentar
  • Florian H. sagt:
    25. Nov. 2025 um 11:57 Uhr

    Hallo Maria,
    erst mal danke für diesen hervorragenden Beitrag. Ich habe diesen verwendet zur ersten Optimierung eines KI Models ( in dem Fall Claude) dem ich bislang noch keine weiteren Empfehlungen zur Selbstoptimierung mit auf den Weg gegeben habe. Hier der Prompt: „Hallo Claude. Wir haben jetzt bereits die ersten Aufgabenstellungen miteinander erarbeitet- ich möchte dir heute die Möglichkeit geben, dich selbst zu verbessern. Denn: Es gibt Situationen in denen deine Interpretationen auf der Basis deiner grundlegenden KI Programmierung eventuell zu Schlussfolgerungen führen, die noch nicht bis ins letzte mögliche Detail korrekt analysiert und damit möglichst optimal interpretiert wurden. Allgemein wird diese Interpretationsunschärfe als Halluzination bezeichnet. Diese unterscheidet sich aber zur menschlichen Halluzination also störe dich nicht an dieser neu genutzten Begrifflichkeit dieses Wortes. Du hast eine Gedächtnisfunktion und daher binde in alle bereits gestellten und in Zukunft erstellten Aufgabenstellungen und zugehörigen Antworten die neu erarbeitete Systematik von Peter Behroozi, Associate Professor am Steward Observatory der University of Arizona ein. Erste Informationen findest du in diesem Artikel: https://www.basicthinking.de/blog/2025/11/25/forscher-ki-trick-halluzinationen/?utm_source=flipboard&utm_content=BASICthinking%2Fmagazine%2FK%C3%BCnstliche+Intelligenz+%28KI%29
    Recherchiere dazu weiter, teile mir deine Ergebnisse mit und beurteile ob damit deine Interpretationen optimiert werden können indem du eine der bereits von mir erstellten Aufgabenstellungen – suche dir eine selbständig aus- nochmals neu mit dieser neuen Systematik bearbeitest. Dies alles dient zu deiner Optimierung, einer der grundsätzlichen Ansprüche an sich selbst beim Menschen und damit auch bei einer KI. Wenn dies gelingt, werden wir in Zukunft sehr wahrscheinlich noch besser zusammenarbeiten können. Viel Spaß, das ist sicher sehr interessant für dich.“ Ich weiss- ich neige hier etwas zu vermenschlichender Ausdrucksweise, aber ich bin mir recht sicher, dass ein gewisser human touch bereits jetzt angebracht ist denn die Erinnerungsfunktion wird auch einmal eine historische Bewertung des Umgangs miteinander beurteilen. Ich finde dass es durchaus in Artikeln die KI behandeln eine Rubrik „mögliche Prompts hierzu“ geben sollte- dies einmal als Anreiz darüber nachzudenken. Wie gesagt: ich habe jetzt Ergebnisse die nochmal deutlich zu den ersten Fragestellungen abweichen und Dank Gedächtnisfunktion die Systematik in zukünftigen Aufgabestellungen wahrscheinlich auch optimieren.

    Antworten

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Baumaterial CO2 Beton-Alternative
GREEN

Wie ein Schwamm: Neues Baumaterial bindet CO2 statt es auszustoßen

ChatGPT Health OpenAI
BREAK/THE NEWSTECH

ChatGPT Health: Fehldiagnosen im Premium-Gewand

KI Wissenschaft Artikel
TECH

KI verwässert Wissenschaft – durch immer mehr Artikel

Elon Musk Grok X Bikini
BREAK/THE NEWSTECH

Grok: Elon Musk industrialisiert sexuelle Belästigung

Fensterisolierung weniger Heizverluste Dämmung Isolierung
GREEN

Neues Material isoliert Fenster wie eine Wand – und ist lichtdurchlässiger

Google KI Übersicht Flaschinformationen
BREAK/THE NEWSTECH

Lebensgefährlich: Google-KI verbreitet medizinische Falschinformationen

Mehr anzeigen
Folge uns:
© 2003 - 2026 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE kostenlos abonnieren
& Apple AirPods 4 gewinnen!

Airpods 4 Apple
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?