Forscher demonstrierten im Rahmen in einer Studie, inwieweit KI die politische Einstellung von Menschen anhand von Gesichtsscans vorhersagen kann. Die Hintergründe.
Die politische Landschaft ist breit gefächert. Doch neuste Studienergebnisse zeigen, dass alleine ein Gesichtsausdruck reichen soll, um politische Einstellungen zu identifizieren. Zumindest, wenn es nach neuen Forschungen der Stanford University Graduate School of Business geht.
Denn ein kürzlich veröffentlichte Forschungspapier legt nahe, dass Künstliche Intelligenz (KI) anhand eines Gesichtsscans die politische Orientierung voraussagen kann. Dafür reiche ein neutraler Gesichtsausdruck aus. Für ihre Analyse lud das Forschungsteam 591 Teilnehmern dazu ein, zunächst einen politischen Fragebogen auszufüllen. Ein Algorithmus erhielt dann die Information zu den Personen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Senior Social Media Manager (m/w/d) Müller Holding GmbH & Co. KG in Ulm-Jungingen |
||
Content & Community Manager (m/w/d) Social Media AS Arbeitsschutz GmbH in Bedburg-Mühlenerft bei Köln |
KI erkennt politische Einstellung anhand von Gesichtsausdruck
Dafür standen der KI keinerlei Alters-, Geschlechts- und Ethnizitätsdaten zur Verfügung. Dennoch konnte das System die politische Orientierung der Teilnehmer mit einer hohen Genauigkeit bestimmen. Die Vorhersagegenauigkeit verbesserte sich sogar noch weiter, nachdem die Informationen über das Alter, Geschlecht und die Ethnizität der Teilnehmer berücksichtigt wurden.
Das Forscherteam analysierte auch Unterschiede zwischen den durchschnittlichen Gesichtskonturen von Personen mit extrem liberalen oder konservativen Ansichten. Sie fanden heraus, dass Liberale tendenziell „kleinere untere Gesichter“ und „nach unten verschobene Lippen und Nasen“ haben. Konservative Menschen würden hingegen eine größere Kinnpartie aufweisen. Diese physischen Merkmale könnten soziale Erwartungen und die Persönlichkeitsentwicklung beeinflussen.
Systeme könnten eine massive Gefahr für unsere Demokratie sein
Die Studie wirft grundlegende Fragen zur Verwendung von biometrischer Überwachungstechnologie auf. Denn die Möglichkeit, politische Orientierungen zu erkennen, könnte insbesondere in der Werbeindustrie eine Rolle spielen. Parteien könnten gezielte politische Werbung an potenzielle Anhänger ausspielen.
Damit birgt die Technologie ein enormes Potenzial für Missbrauch. Die Ergebnisse deuten nämlich darauf hin, dass Gesichtserkennungstechnologien in politischer und ethischer Hinsicht möglicherweise gefährlicher sind, als bisher angenommen.
Die Studienergebnisse sind damit auch ein Weckruf. Das Forscherteam fordert daher zu einer kritischen Auseinandersetzung mit den ethischen Grenzen der Technologie in unserer Gesellschaft auf. Denn nur so lässt sich langfristig eine freie und demokratische Gesellschaft bewahren.
Auch interessant: