Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Was sind KI-Halluzinationen, was heißt KI halluziniert, Künstliche Intelligenz
TECH

Kurz erklärt: Was sind eigentlich KI-Halluzinationen?

Felix Baumann
Aktualisiert: 05. März 2025
von Felix Baumann
Mit DALL-E generiert (KI).
Teilen

Künstliche Intelligenz neigt gelegentlich dazu, falsche oder erfundene Informationen zu generieren. In solchen Fällen sprechen Experten davon, dass ein Sprachmodell halluziniert. Doch was genau sind KI-Halluzinationen?

Im Bereich Künstliche Intelligenz wurden in den vergangenen Jahren enorme Fortschritte erzielt. Vor allem generative KI und große Sprachmodelle (Large Language Models) wie ChatGPT oder Google Gemini sind in der Lage, Texte, Bilder, Videos und sogar Musik zu generieren.

Doch trotz dieser beeindruckenden Fähigkeiten gibt es eine zentrale Schwachstelle dieser Systeme: sogenannte KI-Halluzinationen. Dieser Begriff beschreibt eine Art von Fehlern, bei denen einen KI Inhalte erzeugt, die zwar realistisch erscheinen, aber faktisch falsch oder erfunden sind.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Laut Fraunhofer-Institut für experimentelles Software-Engineering treten Halluzinationen in KI-Systemen auf, wenn ein KI-Modell Informationen generiert, die nicht mit der Realität oder den zugrunde liegenden Daten übereinstimmen. Doch es gibt verschiedene Ursachen für das Phänomen.

Was sind KI-Halluzinationen?

Die Trainingsdaten sind die Grundlage und ein wichtiger Faktor für ein gut funktionierendes KI-System. Der Hintergrund: Unternehmen trainieren Künstliche Intelligenz mit riesigen Datenmengen, die aus dem Internet, Büchern, wissenschaftlichen Artikeln oder anderen Quellen stammen.

Sind diese Daten fehlerhaft, veraltet oder unvollständig, kann sich ein Modell falsche Informationen aneignen und diese später wiedergeben. Ein weiteres Problem tritt auf, wenn Nutzer ein KI-System mit sehr spezifischen Fragen oder einem Thema, zu dem es nur wenig Informationen gibt, konfrontieren.

Darunter fallen etwa wissenschaftliche Fachfragen oder wenig erforschte historische Ereignisse. In solchen Fällen versucht die KI, eine plausible Antwort zu generieren – auch wenn sie keine verlässlichen Daten dazu hat. Neben den Daten spielt auch die Art und Weise, wie KI-Modelle Inhalte generieren, eine Rolle.

Sprachmodelle wie ChatGPT arbeiten etwa probabilistisch. Das heißt, sie wählen die wahrscheinlichste Wortfolge aus, die auf eine Anfrage passt. Wenn eine KI also eine Antwort formuliert, nutzt sie mathematische Wahrscheinlichkeiten statt echtes Wissen oder Verständnis. Das kann dazu führen, dass sie falsche Informationen oder sogar völlig erfundene Inhalte produziert.

Künstliche Intelligenz erfindet Informationen

Ein klassisches Beispiel für eine KI-Halluzination ist das Erfinden von Quellen oder Zitaten. Fragt man ein Sprachmodell etwa nach einer wissenschaftlichen Studie, die eine bestimmte These belegt, kann es passieren, dass die KI eine seriös klingende, aber völlig erfundene Publikation zitiert.

Darunter fallen auch nicht existierende Autorennamen und einer falschen DOI-Identifikationsnummern. Solche Fehler können für wissenschaftliche Arbeiten oder journalistische Recherchen problematisch sein. Auch bei der Bildgenerierung treten häufig Halluzinationen auf.

Frühere Versionen von KI-Bildgeneratoren hatten beispielsweise große Probleme mit der Darstellung menschlicher Hände. Sie generierten häufig Bilder von Menschen mit sechs oder mehr Fingern, da sie Schwierigkeiten hatten, die anatomischen Strukturen korrekt nachzubilden.

Noch kritischer wird es, wenn KI in sensiblen Bereichen wie der Medizin oder der Justiz eingesetzt wird. Denn falsche Diagnosen oder irreführende rechtliche Einschätzungen können schwerwiegende Konsequenzen haben, wenn Nutzer diese als vertrauenswürdige Informationen behandeln.

KI-Halluzinationen erkennen und vermeiden

Das Erkennen von Halluzinationen ist nicht immer einfach, da die generierten Inhalte oft sehr überzeugend wirken. Trotzdem gibt es Strategien, um die Fehlerwahrscheinlichkeit zu reduzieren. Wenn eine KI eine Behauptung aufstellt, sollte man versuchen, diese durch unabhängige und seriöse Quellen zu verifizieren. Manchmal kann es auch helfen, dieselbe Frage mehreren KI-Modellen zu stellen. Falls die Antworten stark variieren, ist Vorsicht geboten.

Eine technische Lösung besteht darin, Sprachmodelle mit externen Datenbanken zu verknüpfen. Dadurch kann die KI nicht nur aus ihrem internen Wissen schöpfen, sondern gezielt auf verlässliche Quellen zugreifen. Vor allem in kritischen Bereichen sollten KI-generierte Inhalte jedoch immer von Experten überprüft werden, bevor sie weiterverwendet werden.

Fazit: KI-Halluzinationen sind problematisch, aber ein lösbares Problem

KI-Halluzinationen stellten ein großes Problem dar, das die Verlässlichkeit generativer KI einschränkt. Allerdings gibt es bereits Forschungsansätze, um diese Fehler zu minimieren – sei es durch bessere Trainingsmethoden, den Einsatz von Faktenprüfungssystemen oder die Integration externer Wissensquellen.

Solange KI-Modelle nicht zwischen Wahrheit und Fiktion unterscheiden können, ist es aber notwendig, Antworten kritisch zu hinterfragen.

Mit einem bewussten Umgang und der richtigen Strategie lassen sich viele Fehler erkennen und vermeiden. Die Entwicklung generativer KI ist aber auch lange bisher nicht abgeschlossen. Heißt konkret: Die Fähigkeit von KI-Systemen wird sich weiter verbessern, um Halluzinationen zu reduzieren und KI-Systeme präziser und vertrauenswürdiger zu machen.

Auch interessant:

  • Inspiration Fotosynthese: Künstliches Solar-Blatt verwandelt CO2 in Treibstoff
  • Künstliche Intelligenz: Was ist eigentlich ein Prompt?
  • Roboter erkennen menschliche Berührungen – ohne künstliche Haut
  • „Verfall kognitiver Fähigkeiten“: Künstliche Intelligenz kann uns dümmer machen

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Marketing Manager (w/m/d) – Corporate Communi...
Buhlmann Rohr-Fittings-Stahlhandel GmbH + ... in Bremen
Intern Digital Marketing & Media (m/f/d)
Richemont Northern Europe GmbH - IWC in Schaffhausen
Content Creator (m/w/d) für interne/externe K...
Big Dutchman International GmbH in Vechta
Praktikant (m/w/d) Social Media & Recruiting
Dr. August Oetker Nahrungsmittel KG in Bielefeld
Digital Marketing Manager (m/w/d)
botiss medical AG in Berlin
Marketing Manager – Digital Content &am...
MORGEN & MORGEN GmbH in Rüsselsheim
Content Creator (m/w/d)
KNDS in München
PR-Redakteur / Content Creator (m/w/d)für ext...
BGHM Berufsgenossenschaft Holz und Metall in Mainz
THEMEN:EvergreenKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFelix Baumann
Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.
EMPFEHLUNG
Vodafone Business
Vodafone Business-Kracher: Doppeltes Datenvolumen + 10 GB pro Monat
Anzeige TECH
goneo eigener Chatserver-2
goneo: Dein eigener Chatserver für Teams, Familie & Freunde
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Zinn-Perowskit-Solarzellen, Nachhaltigkeit, Forschung, Wissenschaft, Solarenergie, Klima
GREENTECH

Zinn-Perowskit-Solarzellen: Forscher erhöhen Wirkungsgrad

Roboter Schulwege Verkehr KI
TECH

Humanoider Roboter soll Schulwege mit KI sicherer machen

KI-Tool Deepfakes erkennen Fake-Videos erkennen Künstliche Intelligenz UNITE
TECH

Neues KI-Tool soll Deepfakes erkennen – zuverlässiger als je zuvor

Flaggen EU Länder Wind Himmel Deutschland Dänemark Italien Griechenland
MONEYTECH

Digitalisierung: Diese EU-Länder schneiden am besten ab

PITAKA Hüllen Galaxy Z Fold7
AnzeigeTECH

Schlank, robust, smart: Die neuen Hüllen von PITAKA für das Galaxy Z Fold7 und Flip7

Lebensdauer Solarzellen Solarenergie Solaranlage PV-Module PV-Anlage erneuerbare Energien
GREEN

Lebensdauer von Solarzellen: So lange halten PV-Anlagen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück AirPods gewinnen!

Airpods 4 Apple
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?