Technologie

Studie offenbart: Künstliche Intelligenz zeigt menschenähnliches Verhalten

Künstliche Intelligenz, Roboter, KI-System, KI menschliches verhalten
Adobe Stock/ khunkornStudio
geschrieben von Maria Gramsch

Mit ihrer zunehmenden Popularität gerät Künstliche Intelligenz vermehrt in den Fokus der Forschung. Eine aktuelle Studie hat sich nun mit der Frage befasst, ob KI-Systeme ein menschenähnliches Verhalten aufzeigen können.

Ob bei der Übersetzung eines Textes oder im Chat mit dem Bot eines Kundenservices – Künstliche Intelligenz begegnet uns im Alltag bereits an vielen Stellen. Dabei sind manche Chatbots inzwischen so gut, dass man gar nicht mehr ausmachen kann, ob man es mit Mensch oder Maschine zu tun hat.

Doch inwieweit können KI-Systeme tatsächlich menschliches Verhalten nachahmen? Mit dieser Frage beschäftigt sich eine aktuelle Studie, die kürzlich in der Fachzeitschrift PNAS wurde.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Content Marketing Expert / Social Media Expert Publications (w|m|d)
zeb.rolfes.schierenbeck.associates gmbh in Münster
Senior Communication Manager – Social Media (f/m/d)
E.ON Energy Markets GmbH in Essen

Alle Stellenanzeigen


Wie menschenähnlich ist Künstliche Intelligenz?

Die Forschenden haben sich für ihre Studie die von OpenAI entwickelte GPT-Serie vorgenommen. Dabei ging es vor allem um die Unterschiede zwischen den Versionen ChatGPT-3 und ChatGPT-4 sowie die Free- und Plus-Versionen dieser Chatbots.

Für die vorliegenden Studie mussten die Chatbots einen Fragebogen des Big Five Modells beantworten. Danach haben sie sechs verschiedene Spiele gespielt, bei denen Verhaltensmerkmale wie Fairness oder Bosheit auftreten können.

Die Ergebnisse haben die Forschenden mit menschlichen Daten aus dem Big Five Persönlichkeitstest verglichen. Dabei kam ein Datensatz zum Einsatz, der die Antworten von mehr als 100.000 Proband:innen aus mehr als 50 Ländern enthält.

Was hat es mit dem Big Five Modell auf sich?

Bei dem Big Five Modell, das auch Fünf-Faktoren-Modell genannt wird, handelt es sich um ein Modell der Persönlichkeitspsychologie. Dieses Modell versucht, die individuellen Eigenschaften einzelner Menschen darzustellen.

Dafür werden die fünf Dimensionen Extraversion, Verträglichkeit, Gewissenhaftigkeit, Emotionale Stabilität und Offenheit herangezogen. Mit der Hilfe von Fragebögen können dann Persönlichkeitsprofile erstellt werden – ob vom Mensch oder vom KI-System.

So menschenähnlich verhält sich Künstliche Intelligenz

Doch wie haben die GPT-Systeme von OpenAI nun abgeschnitten? Die Ergebnisse der Studie zeigen, dass ChatGPT-4 in allen Persönlichkeitsdimensionen sehr nah an den mittleren menschlichen Werten liegt. ChatGPT-3 hingegen weist eine leichte Abweichung bei der Dimension Offenheit auf.

In den Dimensionen Extraversion und Emotionale Stabilität zeigen beide Chatbots Verhaltensmuster, die eng an menschliche Tendenzen angelehnt sind. Bei Offenheit und Verträglichkeit hingegen gibt es deutliche Unterschiede.

Bei den Spielen haben die Chatbots in Sachen Großzügigkeit und Fairness im Vergleich zum Menschen überdurchschnittlich abgeschnitten. Ähnlich wie beim Menschen kommt es aber auch bei einem KI-Chatbot den jeweiligen Rahmen und Kontext an. Denn diese Faktorenhaben – wie auch beim Menschen – einen erheblichen Einfluss auf die Verhaltensweisen.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.

Kommentieren