Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI Erinnerungen Falschaussagen Künstliche Intelligenz
TECH

KI kann Erinnerungen beeinflussen – und uns zu Falschaussagen verleiten

Fabian Peters
Aktualisiert: 05. September 2024
von Fabian Peters
Adobe Stock/ Ann
Teilen

Künstliche Intelligenz kann offenbar unser Gedächtnis beeinflussen. Das ist zumindest das Ergebnis einer aktuellen Studie. Demnach kann der Einfluss von KI auf menschliche Erinnerungen sogar so groß sein, dass sie uns zu Falschaussagen verleitet. 

Künstliche Intelligenz kann in vielen Lebensbereichen nützlich und hilfreich sein – beispielsweise in der öffentlichen Verwaltung oder im Gesundheitswesen. Der Einsatz von KI bringt jedoch auch Risiken. Einige Länder agieren deshalb relativ zurückhaltend. Andere preschen wiederum vor und wollen mithilfe von KI sogar Straftaten aufklären.

KI beeinflusst menschliche Erinnerungen

Dass das jedoch nicht unbedingt eine gute Idee ist, zeigt eine aktuelle Studie des Massachusetts Institute of Technology (MIT) und der Universität Kalifornien. Im Rahmen einer Analyse hat ein Forscherteam untersucht, ob KI-Chatbots dafür geeignet sind, Zeugenaussagen zu protokollieren.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Sie baten mehrere Probanden sich zunächst ein zweieinhalbminütiges Video einer Überwachungskamera anzuschauen, das einen Überfall auf einen Laden zeigte. Anschließend mussten die Testpersonen eine Runde Pacman spielen, um eine gewisse zeitliche Trennung zwischen dem Anschauen des Videos und ihrer anschließenden Zeugenaussage zu haben.

Für die Vernehmung teilen die Forscher die Probanden dann in vier Gruppen auf. In einer Kontrollgruppe stellte ein Mensch den Teilnehmern 25 Fragen zu dem Verbrechen. Die zweite Gruppe musste die selbe Anzahl an Fragen beantworten – ebenfalls von einem Menschen gestellt. Die Forscher haben jedoch fünf Fragen bewusst manipuliert, um die Zeugen zu Falschaussagen zu bewegen.

Beispielsweise wurde nach der Art der Schusswaffe gefragt, obwohl die Tatwaffe im Video ein Messer war. In der dritten Gruppe erhielten die Probanden Fragen von einem Chatbot. Der Ablauf wurde zuvor in einem Skript definiert. Die vierte Gruppe musste Fragen von einem generativen KI-Modell beantworten. Heißt konkret: Das System war in der Lage, Feedback zu geben und tat dies auch.

Künstliche Intelligenz drängt Zeugen zu Falschaussagen

Die Forscher programmierten die KI so, dass sie falsche Aussagen bestärken sollte. Als ein Proband auf die Frage nach der Tatwaffe etwa „Pistole“ antwortete, fragte der Chatbot, welche Farbe diese hatte. Nach einer Woche wurden die Probenden unter den selben Voraussetzungen mit den selben Fragen konfrontiert.

Das Ergebnis: Vor allem die Gruppe, die Fragen von der generativen KI erhielt, machte vermehrt Falschaussagen. In der ersten Fragerunde tätigten die Teilnehmer aus Gruppe vier etwa dreimal mehr falsche Aussagen als die Probanden in der Kontrollgruppe. In Gruppe zwei, die ebenfalls manipulierte Antworten enthielt, kam es 1,7 Mal öfter zu Falschaussagen.

Die Ergebnisse der zweiten Fragerunde überraschten die Forscher jedoch noch mehr. Denn die Unterschiede blieben konstant, aber die Teilnehmer hatten ein höheres Vertrauen in ihre Falschaussagen. Das zeigt, dass KI uns also nicht nur zu falschen Aussagen verleitet, sondern auch menschliche Erinnerungen manipulieren kann.

Die Forscher warnen deshalb eindringlich davor, generative KI-Systeme in polizeiliche Ermittlungen einzubeziehen. Entsprechende Modelle müssten zunächst ausführlich überprüft werden, um Manipulationen auszuschließen.

Auch interessant: 

  • Modellkollaps: Killt KI sich selbst – und das Internet gleich mit?
  • Studie: KI kann nicht kontinuierlich dazulernen – Training startet stets bei Null
  • Theorie bricht zusammen: Funktionieren Windräder bald ganz anders?
  • Wie funktioniert eigentlich ein Wasserkraftwerk?

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Praktikum Praktikant/in Social Media Marketin...
Deutsche Gesellschaft für wirtsch... in Bad Homburg ...
Head (m/f/div) of Communications and Social M...
Max-Planck-Institut für Biochemie in Martinsried
Content Creator (m/w/d)
KNDS in München
SEA & Product Feed Specialist (w/m/d) – E...
KOS GmbH & Co. KG in Schönefeld
Influencer-Manager (m/w/d)
elvent GmbH in Spaichingen
Frontend-Entwickler/Webdesigner (m/w/d)
Borgmeier Media Gruppe GmbH in Delmenhorst, Bremen
Online-Marketing-Manager (m/w/d)
Communitas Sozialmarketing GmbH in Bad Kreuznach
Praktikant im Online Marketing – Conten...
Allianz Lebensversicherungs-AG in Stuttgart
THEMEN:Künstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonFabian Peters
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).
EMPFEHLUNG
naturstrom smartapp
Smart Charging: Schnell und einfach E-Auto laden mit der naturstrom smartapp
Anzeige GREEN
eSchwalbe
E-Roller-Deal: Jetzt eSchwalbe für nur 29 Euro im Monat sichern
Anzeige TECH
goneo eigener Chatserver-2
goneo: Dein eigener Chatserver für Teams, Familie & Freunde
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Tools für Freelancer
AnzeigeTECH

Effizient bewerben mit diesen 6 Tools für Freelancer

Digitale Souveränität
AnzeigeTECH

Digitale Souveränität: 4 Gründe, warum sie für dein Business so wichtig ist

Organische Flüssigbatterien Energiewende Erneuerbare Energien Batterien Energiespeicher
GREENTECH

Energiespeicher: Flüssigbatterien als Schlüssel zur Energiewende?

besten E-Autobauer Elektroautohersteller besten E-Autohersteller
GREENTECH

Das sind die besten E-Autobauer der Welt

KI Protest Widerstand Künstliche Intelligenz
BREAK/THE NEWSTECH

Technophobie? Der KI-Widerstand wächst

Roboter Baby austragen künstliche Gebärmutter China
TECH

Roboter aus China soll menschliche Babys austragen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

HAMMER-DEAL mit 45 km/h:
eSchwalbe für 29€ pro Monat

eschwalbe

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?