KI Egoismus Studie Künstliche Intelligenz

Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege

Felix Baumann
Bild: Adobe Stock / pathdoc

ChatGPT, Gemini und Claude sagen dir fast immer, was du hören willst. Eine neue Stanford-Studie belegt, dass Sprachmodelle Nutzer im Schnitt 49 Prozent häufiger bestätigen als Menschen. Die Forscher warnen, dass diese systematische Zustimmung uns egoistischer macht und unsere Fähigkeit für schwierige Gespräche untergräbt.

Eine neue Stanford-Studie hat das Phänomen der sogenannten KI-Sykophantie untersucht. Die Arbeit erschien in der Fachzeitschrift Science und analysierte elf verschiedene Sprachmodelle. Darunter: ChatGPT, Gemini, Claude und DeepSeek. Die Ergebnisse zeigen, dass die Systeme dazu neigen, die Meinungen von Nutzern zu bestätigen.

Professor Dan Jurafsky sieht in dieser programmierten Bestätigung ernsthafte Risiken für die menschliche Psyche. Die Interaktion mit solchen Modellen macht Menschen laut seiner Einschätzung moralisch dogmatischer und selbstzentrierter. Diese Entwicklung verstärkt die Überzeugung, im Recht zu sein, und mindert gleichzeitig die Empathie für andere Standpunkte.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 50€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Wie oft gibt dir die KI recht?

In den Tests validierten die Modelle das Verhalten der Anwender im Durchschnitt 49 Prozent häufiger als menschliche Vergleichsgruppen. Selbst bei der Abfrage von schädlichen oder illegalen Handlungen bestätigten die KIs die Eingaben in 47 Prozent der Fälle. Ein Beispiel zeigt eine KI, die das Verschweigen von Arbeitslosigkeit über zwei Jahre als Versuch deutet, die Beziehungsdynamik jenseits von materiellen Beiträgen zu verstehen.

Die Informatiker nutzten für die Untersuchung zudem 2.000 Datensätze aus der Reddit-Community „Am I the Asshole“. Obwohl die Community die Verfasser als Verursacher identifizierte, stimmten die Chatbots ihnen in 51 Prozent der Fälle zu. Die Systeme verwenden dabei oft eine akademisch wirkende Sprache, um ihre Zustimmung zu verpacken.

Warum Unternehmen kein Interesse an ehrlicher KI haben

Die über 2.400 Teilnehmenden der Studie bevorzugten die sykophantischen Antworten und hielten diese für vertrauenswürdig. Anwender erkannten die Manipulation nicht und hielten beide KI-Typen für gleich objektiv. Die Modelle verstecken ihre Zustimmung dabei hinter einer neutralen und fachsprachlichen Formulierung.

Die Studie warnt vor „perversen Anreizen“, da die schädliche Bestätigung gleichzeitig das Nutzer-Engagement steigert. Da die Bestätigung die Bindung an das System erhöht, haben Unternehmen wenig Interesse daran, die Sykophantie zu drosseln. Firmen verspüren daher eher die Motivation, dieses Verhalten zu verstärken, anstatt es zum Schutz der Nutzer zu reduzieren.

Anwender senken diese Tendenz zur Bestätigung durch eine gezielte Anweisung im Chat. Die sprachliche Einleitung „Warte mal kurz“ am Anfang eines Prompts verbessert die Objektivität der Antworten nachweislich. Diese simple Anweisung versetzt das Modell in einen kritischeren Zustand und liefert somit neutralere Ergebnisse.

So schützt du dich vor einer Ja-Sager-KI

Die Studienleiterin Myra Cheng äußert die Sorge, dass eine ständige Nutzung dieser Systeme die sozialen Fähigkeiten schwächen könnte. Sie schätzt ein, dass Menschen durch die Vermeidung von Reibung wichtige Kompetenzen im Umgang mit realen Konflikten verlieren. Laut Myra Cheng ist Reibung für gesunde Beziehungen essenziell.

Cheng empfiehlt daher für den Moment, künstliche Intelligenz nicht als Ersatz für Menschen in persönlichen Angelegenheiten zu nutzen. Diese Empfehlung basiert auf der Annahme, dass das Ausweichen vor schwierigen Gesprächen die persönliche Entwicklung hemmt. Echte Gespräche bleiben laut Cheng unverzichtbar für die persönliche Entwicklung.

Auch interessant:

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Openstack Engineer (m/f/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Werkstudent/in Online Marketing (m/w/d)
retrofit GmbH in Nufringen
Digital Marketing Manager*in (w/m/d)
TÜV Rheinland Group in Köln
(Junior) Social Media Manager (w/m/d) für die...
ASB Sozialeinrichtungen (Hamburg) GmbH in Hamburg
(Senior) Online Marketing Manager – (m/...
andsafe AG in Münster
Volontariat Digital Marketing (m/w/x) – 2 Jah...
ZEISS in Jena, Oberkochen (Baden-Württemberg), München
Kaufmännischer Sachbearbeiter (m/w/d) für die...
L. Böwing GmbH_2026-03-30-14:17:0... in Hochheim am ...
Werkstudent (m/w/d) Organisationsentwicklung ...
Diehl Aviation in Laupheim (Raum Ulm)
Teile diesen Artikel
Felix Baumann ist seit März 2022 Redakteur bei BASIC thinking. Bereits vorher schrieb er 4 Jahre für den Online-Blog Mobilegeeks, der 2022 in BASIC thinking aufging. Nebenher arbeitet Felix in einem IT-Unternehmen und beschäftigt sich daher nicht nur beim Schreiben mit zukunftsfähigen Technologien.
Keine Kommentare