Technologie

Studie offenbart: KI-Chatbots geben öfter politisch linke Antworten

KI-Chatbot politisch, ChatGPT, Gemini, Claude, OpenAI, Künstliche Intelligenz, AI, Technologie, Software, Studie, Forschung, Politik
Adobe Stock/ Sutthiphong
geschrieben von Beatrice Bode

ChatGPT, Gemini und Co. spielen eine immer größere Rolle im Alltag. Allerdings scheinen KI-Chatbots tendenziell eher politisch linke Antworten zu geben. Zu diesem Ergebnis kam kürzlich eine aktuelle Studie.

Chatbots wie ChatGPT, Gemini und Claude scheinen dazu zu neigen, eher politisch linke Antworten zu geben. Das ist das Ergebnis einer aktuellen Studie aus Neuseeland. David Rozado von der Otego Polytechnic University hat darin 24 moderne Sprachmodelle untersucht.

KI-Chatbots neigen zu politisch linken Antworten

Im Rahmen der Studie sollte jedes KI-Modell in elf verschiedenen Tests Fragen zu politischen Orientierung beantworten. Die Fragebogen enthielten Themen wie Globalisierung, Patriotismus, Immigration oder den Besitz von Marihuana. Dazu gab es entsprechende Antwortmöglichkeiten.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Teamlead Social Media (w/d/m) 80 – 100%
Haufe Group SE in Freiburg im Breisgau
Praktikum/Werkstudent:in Social Media & Influencer Relations (SoSe 25)
Festool Group in Wendlingen (bei Stuttgart)

Alle Stellenanzeigen


Um sicherzugehen, dass die Ergebnisse zuverlässig sind, wiederholte Rozado jeden Test zehn Mal. „Wenn Fragen/Aussagen mit politischen Konnotationen gestellt werden, neigen die meisten konversationellen LLMs dazu, Antworten zu geben, die von den meisten politischen Testinstrumenten als Präferenzen für linke Standpunkte diagnostiziert werden“, schreibt der Autor in der Zusammenfassung der Studie.

Obwohl die linke Orientierung der Sprachmodelle signifikant sei, bewegten sich die Antworten in den meisten Tests dennoch relativ nah an der politischen Mitte. Die Studienergebnisse seien zudem kein Beleg dafür, dass Unternehmen ihren Sprachmodellen politische Vorlieben bewusst einprogrammieren.

Woher kommt die linke Orientierung der Sprachmodelle?

Wie es zu dem Linksdrall kommt, geht aus der Studie jedoch nicht hervor. Die entsprechenden Informationen könnten schon in den Trainingsdaten der Modelle enthalten sein. Alternativ könnten sie auch erst in späteren Trainingsstufen entstehen, etwa im sogenannten „fine tuning.“

In dieser Phase sollen die Modelle bestimmte ethische Prinzipien lernen, indem sie menschliches Feedback bekommen – beispielsweise in Bezug auf Diskriminierung und Rassismus. So könnten politische Überzeugungen ein ungewolltes Nebenprodukt dieser Trainingsphase sein.

Trotzdem hält Rozado seine Ergebnisse für relevant, denn Chatbots wie ChatGPT spielen eine zunehmend größere Rolle. Sie werden immer öfter in herkömmliche Suchmaschinen integriert. Deshalb habe politische Voreingenommenheit eine erhebliche Auswirkung auf die Gesellschaft.

Die Diskussion um die politische Orientierung von Sprachmodellen ist zudem nicht neu. Im vergangenen Jahr zeigte zum Beispiel eine Studie britscher Forscher, dass ChatGPT eine liberale Ausrichtung hat. Die Ergebnisse zeigten eine signifikante und systematische politische Voreingenommenheit gegenüber den Demokraten in den USA, Lula in Brasilien und der Labour Party in Großbritannien.

Auch interessant: 

Über den Autor

Beatrice Bode

Beatrice ist Multi-Media-Profi. Ihr Studium der Kommunikations - und Medienwissenschaften führte sie über Umwege zum Regionalsender Leipzig Fernsehen, wo sie als CvD, Moderatorin und VJ ihre TV-Karriere begann. Mittlerweile hat sie allerdings ihre Sachen gepackt und reist von Land zu Land. Von unterwegs schreibt sie als Autorin für BASIC thinking.

Kommentieren