KI-generierte Gesichter können gezielt zur Täuschung eingesetzt werden und damit Desinformation, Identitätsmissbrauch und Manipulation in sozialen Netzwerken erleichtern. Eine neue Studie zeigt allerdings, dass schon wenige Minuten Training ausreichen, um Menschen deutlich besser darin zu machen, KI-generierte Gesichter zu erkennen.
Gefakte Inhalte können sich in den sozialen Netzwerken besonders schnell verbreiten. Oft bleiben sie dabei ungeprüft und können so Meinungen, Vertrauen und gesellschaftliche Debatten erheblich beeinflussen. Das ist besonders problematisch, da Nutzer zunehmend Entscheidungen auf Basis digitaler Inhalte treffen, deren Herkunft und Echtheit schwer zu überprüfen sind.
Immer besser werdende KI-Generatoren verschärfen diese Problematik noch weiter. Denn durch sie werden Fake-Inhalte immer realistischer, was gezielte Täuschungen in großem Maßstab ermöglichen.
Die Grenzen zwischen echt und gefälscht verschwimmen zunehmend, was die zuverlässige Einordnung digitaler Inhalte immer schwieriger macht. Forscher der Universitäten Leeds, Reading, Greenwich und Lincoln haben nun aber herausgefunden, dass bereits fünf Minuten Training Menschen bedeutend besser darin machen können, KI-generierte Fake-Gesichter von echten zu unterscheiden.
Wie gut können Menschen KI-generierte Gesichter erkennen?
Für ihre Studie, die im wissenschaftlichen Journal Royal Society Open Science veröffentlicht wurde, haben die Forscher die Fähigkeit von 664 Teilnehmern untersucht, zwischen echten menschlichen und KI-generierten Gesichtern zu unterscheiden.
Die Teilnehmer wurden dabei in mehrere Gruppen unterteilt. Insgesamt 283 Teilnehmer wurden dabei als sogenannte Super-Erkenner eingestuft. Dabei handelt es sich um Menschen, die Gesichter besonders gut erkennen können.
Beide Gruppen wurden dann mit echten sowie KI-genrierten Bildern von menschlichen Gesichtern konfrontiert. Für die Erstellung der fiktiven Bilder haben die Forscher auf die Computersoftware StyleGAN3 zurückgegriffen. Laut den Forschern habe es sich dabei zum Zeitpunkt der Studie um das fortschrittlichste System gehandelt.
„KI-Bilder sind immer einfacher zu erstellen und immer schwieriger zu erkennen“, erklärt Dr. Eilidh Noyes von der School of Psychology der Universität Leeds. „Sie können für kriminelle Zwecke missbraucht werden, daher ist es aus Sicherheitsgründen von entscheidender Bedeutung, dass wir Methoden zur Erkennung künstlicher Bilder testen.“
Ohne jegliches Training konnten die Super-Erkenner in 41 Prozent der Fälle gefälschte Gesichter korrekt erkennen. Studienteilnehmer mit normalen Fähigkeiten kamen im Schnitt hingegen nur auf 31 Prozent.
Training steigert die Erkennungsquote
Auch wenn KI-generierte Gesichter immer besser werden, gibt es dennoch meist Darstellungsfehler, wie falsch ausgerichtete Zähne, ungewöhnliche Haarlinien oder deformierte oder nicht passende Ohren oder Ohrringe. Mit der Hilfe eines kurzen Trainings wurden die Studienteilnehmer hinsichtlich dieser Fehler geschult.
Dadurch konnte die Erkennungsrate in beiden Gruppen erheblich verbessert werden. Super-Erkenner konnten ihre Quote um 20 Prozent steigern und kamen nach ihrem kurzen Training im Schnitt auf 61 Prozent. Normale Teilnehmer konnten nach dem Training ebenfalls ein Plus in Höhe von 20 Prozent verzeichnen und erkannten im Anschluss durchschnittlich 51 Prozent der gefälschten Bilder.
Dass sich das Training in beiden Gruppen gleichermaßen auswirkt, weise darauf hin, dass die sogenannten Super-Erkenner bei der Identifizierung KI-generierter Gesichter möglicherweise andere visuelle Hinweise nutzen als typische Beobachter. Durch die Kombination von Training und den Einsatz der natürlichen Fähigkeiten von Super-Erkennern könnten Probleme durch Fake-Gesichter im Netz behoben werden, so die Forscher.
Auch interessant:


