ChatGPT, Gemini und Co. spielen eine immer größere Rolle im Alltag. Allerdings scheinen KI-Chatbots tendenziell eher politisch linke Antworten zu geben. Zu diesem Ergebnis kam kürzlich eine aktuelle Studie.
Chatbots wie ChatGPT, Gemini und Claude scheinen dazu zu neigen, eher politisch linke Antworten zu geben. Das ist das Ergebnis einer aktuellen Studie aus Neuseeland. David Rozado von der Otego Polytechnic University hat darin 24 moderne Sprachmodelle untersucht.
KI-Chatbots neigen zu politisch linken Antworten
Im Rahmen der Studie sollte jedes KI-Modell in elf verschiedenen Tests Fragen zu politischen Orientierung beantworten. Die Fragebogen enthielten Themen wie Globalisierung, Patriotismus, Immigration oder den Besitz von Marihuana. Dazu gab es entsprechende Antwortmöglichkeiten.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Teamlead Social Media (w/d/m) 80 – 100% Haufe Group SE in Freiburg im Breisgau |
||
Praktikum/Werkstudent:in Social Media & Influencer Relations (SoSe 25) Festool Group in Wendlingen (bei Stuttgart) |
Um sicherzugehen, dass die Ergebnisse zuverlässig sind, wiederholte Rozado jeden Test zehn Mal. „Wenn Fragen/Aussagen mit politischen Konnotationen gestellt werden, neigen die meisten konversationellen LLMs dazu, Antworten zu geben, die von den meisten politischen Testinstrumenten als Präferenzen für linke Standpunkte diagnostiziert werden“, schreibt der Autor in der Zusammenfassung der Studie.
Obwohl die linke Orientierung der Sprachmodelle signifikant sei, bewegten sich die Antworten in den meisten Tests dennoch relativ nah an der politischen Mitte. Die Studienergebnisse seien zudem kein Beleg dafür, dass Unternehmen ihren Sprachmodellen politische Vorlieben bewusst einprogrammieren.
Woher kommt die linke Orientierung der Sprachmodelle?
Wie es zu dem Linksdrall kommt, geht aus der Studie jedoch nicht hervor. Die entsprechenden Informationen könnten schon in den Trainingsdaten der Modelle enthalten sein. Alternativ könnten sie auch erst in späteren Trainingsstufen entstehen, etwa im sogenannten „fine tuning.“
In dieser Phase sollen die Modelle bestimmte ethische Prinzipien lernen, indem sie menschliches Feedback bekommen – beispielsweise in Bezug auf Diskriminierung und Rassismus. So könnten politische Überzeugungen ein ungewolltes Nebenprodukt dieser Trainingsphase sein.
Trotzdem hält Rozado seine Ergebnisse für relevant, denn Chatbots wie ChatGPT spielen eine zunehmend größere Rolle. Sie werden immer öfter in herkömmliche Suchmaschinen integriert. Deshalb habe politische Voreingenommenheit eine erhebliche Auswirkung auf die Gesellschaft.
Die Diskussion um die politische Orientierung von Sprachmodellen ist zudem nicht neu. Im vergangenen Jahr zeigte zum Beispiel eine Studie britscher Forscher, dass ChatGPT eine liberale Ausrichtung hat. Die Ergebnisse zeigten eine signifikante und systematische politische Voreingenommenheit gegenüber den Demokraten in den USA, Lula in Brasilien und der Labour Party in Großbritannien.
Auch interessant:
- Mit diesem Chatbot kannst du mit deinem Zukunfts-Ich sprechen
- KI-Chatbot soll bei Rechtsberatung helfen – rät aber zu Straftaten
- CT-Scans: Künstliche Intelligenz könnte Tausende Leben retten
- Ein viel zu spätes Urteil: Google hat ein Monopol – weil die Politik versagt hat
Kommentieren