Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Was sind KI-Halluzinationen, was heißt KI halluziniert, Künstliche Intelligenz
TECH

Kurz erklärt: Was sind eigentlich KI-Halluzinationen?

Felix Baumann
Aktualisiert: 05. März 2025
von Felix Baumann
Mit DALL-E generiert (KI).
Teilen

Künstliche Intelligenz neigt gelegentlich dazu, falsche oder erfundene Informationen zu generieren. In solchen Fällen sprechen Experten davon, dass ein Sprachmodell halluziniert. Doch was genau sind KI-Halluzinationen?

Im Bereich Künstliche Intelligenz wurden in den vergangenen Jahren enorme Fortschritte erzielt. Vor allem generative KI und große Sprachmodelle (Large Language Models) wie ChatGPT oder Google Gemini sind in der Lage, Texte, Bilder, Videos und sogar Musik zu generieren.

Doch trotz dieser beeindruckenden Fähigkeiten gibt es eine zentrale Schwachstelle dieser Systeme: sogenannte KI-Halluzinationen. Dieser Begriff beschreibt eine Art von Fehlern, bei denen einen KI Inhalte erzeugt, die zwar realistisch erscheinen, aber faktisch falsch oder erfunden sind.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 100€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Laut Fraunhofer-Institut für experimentelles Software-Engineering treten Halluzinationen in KI-Systemen auf, wenn ein KI-Modell Informationen generiert, die nicht mit der Realität oder den zugrunde liegenden Daten übereinstimmen. Doch es gibt verschiedene Ursachen für das Phänomen.

Was sind KI-Halluzinationen?

Die Trainingsdaten sind die Grundlage und ein wichtiger Faktor für ein gut funktionierendes KI-System. Der Hintergrund: Unternehmen trainieren Künstliche Intelligenz mit riesigen Datenmengen, die aus dem Internet, Büchern, wissenschaftlichen Artikeln oder anderen Quellen stammen.

Sind diese Daten fehlerhaft, veraltet oder unvollständig, kann sich ein Modell falsche Informationen aneignen und diese später wiedergeben. Ein weiteres Problem tritt auf, wenn Nutzer ein KI-System mit sehr spezifischen Fragen oder einem Thema, zu dem es nur wenig Informationen gibt, konfrontieren.

Darunter fallen etwa wissenschaftliche Fachfragen oder wenig erforschte historische Ereignisse. In solchen Fällen versucht die KI, eine plausible Antwort zu generieren – auch wenn sie keine verlässlichen Daten dazu hat. Neben den Daten spielt auch die Art und Weise, wie KI-Modelle Inhalte generieren, eine Rolle.

Sprachmodelle wie ChatGPT arbeiten etwa probabilistisch. Das heißt, sie wählen die wahrscheinlichste Wortfolge aus, die auf eine Anfrage passt. Wenn eine KI also eine Antwort formuliert, nutzt sie mathematische Wahrscheinlichkeiten statt echtes Wissen oder Verständnis. Das kann dazu führen, dass sie falsche Informationen oder sogar völlig erfundene Inhalte produziert.

Künstliche Intelligenz erfindet Informationen

Ein klassisches Beispiel für eine KI-Halluzination ist das Erfinden von Quellen oder Zitaten. Fragt man ein Sprachmodell etwa nach einer wissenschaftlichen Studie, die eine bestimmte These belegt, kann es passieren, dass die KI eine seriös klingende, aber völlig erfundene Publikation zitiert.

Darunter fallen auch nicht existierende Autorennamen und einer falschen DOI-Identifikationsnummern. Solche Fehler können für wissenschaftliche Arbeiten oder journalistische Recherchen problematisch sein. Auch bei der Bildgenerierung treten häufig Halluzinationen auf.

Frühere Versionen von KI-Bildgeneratoren hatten beispielsweise große Probleme mit der Darstellung menschlicher Hände. Sie generierten häufig Bilder von Menschen mit sechs oder mehr Fingern, da sie Schwierigkeiten hatten, die anatomischen Strukturen korrekt nachzubilden.

Noch kritischer wird es, wenn KI in sensiblen Bereichen wie der Medizin oder der Justiz eingesetzt wird. Denn falsche Diagnosen oder irreführende rechtliche Einschätzungen können schwerwiegende Konsequenzen haben, wenn Nutzer diese als vertrauenswürdige Informationen behandeln.

KI-Halluzinationen erkennen und vermeiden

Das Erkennen von Halluzinationen ist nicht immer einfach, da die generierten Inhalte oft sehr überzeugend wirken. Trotzdem gibt es Strategien, um die Fehlerwahrscheinlichkeit zu reduzieren. Wenn eine KI eine Behauptung aufstellt, sollte man versuchen, diese durch unabhängige und seriöse Quellen zu verifizieren. Manchmal kann es auch helfen, dieselbe Frage mehreren KI-Modellen zu stellen. Falls die Antworten stark variieren, ist Vorsicht geboten.

Eine technische Lösung besteht darin, Sprachmodelle mit externen Datenbanken zu verknüpfen. Dadurch kann die KI nicht nur aus ihrem internen Wissen schöpfen, sondern gezielt auf verlässliche Quellen zugreifen. Vor allem in kritischen Bereichen sollten KI-generierte Inhalte jedoch immer von Experten überprüft werden, bevor sie weiterverwendet werden.

Fazit: KI-Halluzinationen sind problematisch, aber ein lösbares Problem

KI-Halluzinationen stellten ein großes Problem dar, das die Verlässlichkeit generativer KI einschränkt. Allerdings gibt es bereits Forschungsansätze, um diese Fehler zu minimieren – sei es durch bessere Trainingsmethoden, den Einsatz von Faktenprüfungssystemen oder die Integration externer Wissensquellen.

Solange KI-Modelle nicht zwischen Wahrheit und Fiktion unterscheiden können, ist es aber notwendig, Antworten kritisch zu hinterfragen.

Mit einem bewussten Umgang und der richtigen Strategie lassen sich viele Fehler erkennen und vermeiden. Die Entwicklung generativer KI ist aber auch lange bisher nicht abgeschlossen. Heißt konkret: Die Fähigkeit von KI-Systemen wird sich weiter verbessern, um Halluzinationen zu reduzieren und KI-Systeme präziser und vertrauenswürdiger zu machen.

Auch interessant:

  • Inspiration Fotosynthese: Künstliches Solar-Blatt verwandelt CO2 in Treibstoff
  • Künstliche Intelligenz: Was ist eigentlich ein Prompt?
  • Roboter erkennen menschliche Berührungen – ohne künstliche Haut
  • „Verfall kognitiver Fähigkeiten“: Künstliche Intelligenz kann uns dümmer machen

Pünktlich zu Weihnachten: 50€ geschenkt bekommen!


Eröffne jetzt dein NIBC Tagesgeldkonto und erhalte mit der Weihnachtsprämie 50 Euro geschenkt. Und obendrauf gibt's noch attraktive 1,75 Prozent Zinsen!


Jetzt 50 Euro sichern!
NIBC
STELLENANZEIGEN
DLP-Security Specialist (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
IT-System Engineer – Endpoint and Privi...
CompuGroup Medical SE & Co. KGaA in Koblenz
Cloud Database Engineer (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Influencer Marketing & Cooperations Manag...
Model Car World GmbH in Rüsselsheim am Main
Kommunikationsdesigner / Marketing- / PR-Mana...
DKMS Donor Center gGmbH in Köln
Online Marketing Manager (m/w/d) – Cont...
ACI Industriearmaturen GmbH in Jülich bei Aachen
MitarbeiterIn Digitalisierung & Kommunika...
Kieler Bestattungsgesellschaft mbH & Co. KG in Kiel
Praktikant*in Projekt- und Eventmanagement im...
Mercedes-Benz Group AG in Stuttgart
THEMEN:EvergreenKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFelix Baumann
Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
PŸUR Black Friday
Black Friday bei PŸUR: Highspeed-Internet zu echten Dauertiefpreisen sichern
Anzeige TECH
ITSM Software aus Deutschland
ITSM Software aus Deutschland: Sicher & souverän für den Mittelstand
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Angst KI Künstliche Intelligenz
BREAK/THE NEWSTECH

Warum Angst vor KI ein guter Ratgeber ist

Arbeitnehmer Smartphone Zeit Arbeitszeit
MONEYTECH

Wie viel Zeit Arbeitnehmer am Smartphone vergeuden

Korallenriffe wiederherstellen KI
GREENTECH

KI-Roboter pflanzt junge Korallen im Great Barrier Reef

Hoover HF1 Plus Home
TECH

Hoover HF1 Plus Home Test: Akkustaubsauger für effiziente Reinigung (+ Gewinnspiel)

KI Stromfresser Stromverbrauch Künstliche Intelligenz Rechenzentren CO2
BREAK/THE NEWSGREEN

Nimmersatter Stromfresser: Die Chancen und Risiken von KI für die Umwelt

Solarstrom Batterien Kosten Preis
GREENTECH

Solarstrom aus Batterie ist eine der günstigsten Stromquellen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Tagesgeldkonto eröffnen
50 € geschenkt bekommen

50 Euro

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?