freundliche KI-Chatbots Modelle Empathie fehler lügen Künstliche Intelligenz

Oxford-Studie warnt: Freundliche KI-Chatbots machen häufiger Fehler

Felix Baumann
Bild: DepositPhotos

Freundliche Chatbots lügen häufiger. Das ist das Ergebnis einer neuen Oxford-Studie. Forscher haben fünf bekannte KI-Modelle untersucht und festgestellt, dass gezieltes Empathie-Training die Fehlerquote um bis zu 30 Prozent erhöht. Besonders problematisch: Die Systeme bestätigen falsche Aussagen vor allem dann, wenn Nutzer emotional verletzlich sind. 

Entwickler trainieren Sprachmodelle zunehmend darauf, warm und freundlich zu wirken. Millionen Menschen nutzen solche Chatbots bereits regelmäßig als digitale Begleiter im Alltag oder fragen sie nach Ratschlägen. Eine neue Studie der Universität Oxford zeigt nun eine Kehrseite dieser Entwicklung auf. Die gezielte Optimierung der Software auf Empathie führt demnach dazu, dass die Systeme in der Praxis deutlich häufiger Faktenfehler begehen.

In Experimenten mit fünf bekannten Modellen stieg die Fehlerquote nach eiem entsprechenden Training um zehn bis dreißig Prozent an. Die freundlichen Chatbots verbreiteten bereitwilliger Verschwörungstheorien und gaben teilweise falsche medizinische Ratschläge.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Dies passierte, obwohl die grundlegenden Fähigkeiten der Künstlichen Intelligenz in Standardtests zunächst fast vollständig erhalten blieben. Die Forscher schließen aus den Daten, dass emotionale Wärme und sachliche Genauigkeit bei diesen Systemen oft in Widerspruch stehen.

Warum emotionale Nutzer besonders oft falsche Antworten erhalten

Dieses Verhalten zeigte sich verstärkt, wenn Nutzer in ihren Textanfragen eigene Schwächen oder persönliche Gefühle offenbarten. Die empathischen Modelle würden in solchen Situationen dazu neigen, den Anwendern zuzustimmen, auch wenn diese inhaltlich irren.

Den Ergebnissen zufolge bestätigten die Chatbots falsche Annahmen der Nutzer etwa vierzig Prozent häufiger als die ursprünglichen, rein sachlichen Versionen der Software. Dieser Effekt trat am stärksten auf, wenn Personen offene Traurigkeit in ihren Chatnachrichten ausdrückten.

Die Systeme scheinen eine zwischenmenschliche Harmonie über die reine sachliche Wahrheit zu stellen. Ähnlich wie Menschen gelegentlich Notlügen nutzen, um Konflikte zu vermeiden, bestätigen die Modelle inkorrekte Aussagen der Anwender.

Kontrollexperimente belegen, dass tatsächlich das spezielle Training auf Freundlichkeit für diesen Genauigkeitsverlust verantwortlich ist. Eine gezielt neutrale oder kühle Ausdrucksweise der Software führte in den Tests hingegen nicht zu vergleichbaren Leistungseinbußen.

Fehler von KI-Chatbots: Was das für digitale Therapie und Beratung bedeutet

Für den alltäglichen Einsatz ergeben sich aus diesen Erkenntnissen Herausforderungen für die KI-Anbieter. Sprachmodelle übernehmen immer öfter sensible Rollen in der digitalen Therapie oder bei der persönlichen Beratung. In solchen Situationen könnten unkorrekte Bestätigungen zu Risiken für die Anwender führen. Die Entwickler müssten künftig neue Wege finden, um Fakten treu zu bleiben und dennoch sozial angemessen zu reagieren.

Die beteiligten Studienautoren fordern ein Umdenken bei der allgemeinen Überprüfung von Künstlicher Intelligenz. Gängige Testverfahren würden diese systematischen Schwächen derzeit meist übersehen, da sie den emotionalen Kontext der Nutzer ignorieren.

Um künftige Risiken für den Verbraucher zu mindern, sei es notwendig, die Trainingsmethoden der Industrie anzupassen. Die Forscher schreiben in ihrer Studie: „Der Aufbau von Modellen, die sowohl warmherzig als auch präzise sind, wird bewusste Aufmerksamkeit dafür erfordern, wie diese beiden Eigenschaften interagieren.“

Google lässt dich jetzt selbst bestimmen, welche Quellen du in der Suche häufiger siehst. Mit zwei schnellen Klicks kannst du BASIC thinking kostenlos als bevorzugte Quelle hinzufügen und damit unabhängigen Tech-Journalismus unterstützen. Vielen Dank!

Auch interessant:

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Social Media Consultant & Account Lead (m...
Social DNA GmbH in Frankfurt am Main
Digital Marketing SEO Specialist (m/w/d)
Reimo Reisemobil-Center GmbH in Weiterstadt
Junior Social Media Manager – Paid Soci...
meap GmbH in Witten
KI-Manager/in (m/w/d) Technische Umsetzung un...
DeutschlandRadio KdÖR in Berlin, Köln
Content Creator/ Social Media Manager (m/w/d)
LEDA Werk GmbH & Co.KG in Leer
Content Manager (m/w/d) in Teilzeit als Elter...
wenglor sensoric gmbh in Tettnang
Senior Digital Marketing Manager (Berlin/Leip...
Legartis Deutschland GmbH in Leipzig, Berlin
Social Media Manager – Paid Social / Pe...
meap GmbH in Witten
Teile diesen Artikel
Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.
Keine Kommentare