Technologie

Darum sieht eine KI eine optische Täuschung, wenn wir ein Eichhörnchen sehen

Optische Täuschung, optische Täuschungen
Auch eine Künstliche Intelligenz kann einer optischen Täuschung unterliegen. (Foto: Pixabay.com / Antranias)
geschrieben von Christian Erxleben

Was für uns ein Eichhörnchen an einem Brunnen ist, ist für eine Künstliche Intelligenz ein Seelöwe. Und eine Kerze auf einem Holztisch wird schnell einmal zum Nagel. Der Grund dafür ist eine optische Täuschung, die durch die Herangehensweise entsteht und Fehler erzeugt.

Wenn wir von einer optischen Täuschung sprechen, kommen wohl in fast jedem Menschen Bilder und Gefühle auf.

Die Gründe für die Emotionen liegen häufig darin begründet, dass unterschiedliche Menschen eine optische Täuschung unterschiedlich wahrnehmen. Das hat natürlich Konfliktpotenzial, weil wir das „andere“ Motiv ja zunächst einmal nicht erkennen.

Selbstverständlich verfügt eine Künstliche Intelligenz (KI) nicht über menschliche Emotionen. Trotzdem ist ebenfalls möglich, dass eine optische Täuschung eine KI überlistet – und das sogar mit einer sehr hohen Wahrscheinlichkeit.

Eine optische Täuschung der etwas anderen Art

Was es dafür braucht, sind sogenannte „Adversarial Images“ – also gegensätzliche Bilder. Das haben Dan Hendrycks, Jacob Steinhardt und Dawn Song von der Universität Berkeley in Zusammenarbeit mit Kevin Zhao von der University of Washington und Steven Basart von der University of Chicago herausgefunden.

Ihre Ergebnisse haben die fünf Forscher nun veröffentlicht. Neben der Arbeit an sich haben die Wissenschaftler jedoch ebenfalls noch einige der 7.500 Bilder zur Verfügung gestellt, die es geschafft haben, eine Künstliche Intelligenz hereinzulegen.

Künstliche Intelligenz, KI, optische Täuschung, Eichhörnchen, Seelöwe, Libelle, Kanaldeckel

Zwei Beispiele für je eine optische Täuschung, die eine KI zu fast 100 Prozent falsch zugeordnet hat. (Foto: Screenshot / Github.com)

Warum die Analyse-Variante der KI zum Verhängnis wird

Menschen erkennen auf dem linken Bild sofort ein Eichhörnchen und auf dem rechten Bild sofort eine Libelle. Warum liegt die Erkennungsquote einer KI laut den Forschern nur zwischen zwei und drei Prozent? Was verleitet die Künstliche Intelligenz zu dieser Fehleinschätzung?

Die Antwort liegt in der Analyse-Technik. Derartige Bilder verleiten die Technologie dazu, andere Inhalte zu erkennen. Der Grund dafür ist die übermäßige Abhängigkeit von Farben, Formen, Strukturen und Hintergründen.

Oder anders ausgedrückt: Wenn ein metallener oder schwarzer und länglicher Gegenstand in einer hölzernen Umgebung erscheint, handelt es sich dabei für eine KI sehr wahrscheinlich um einen Nagel. Dass es auch ein Kerzendocht sein kann, ist einfach zu unwahrscheinlich.

Welche Konsequenzen haben diese Fehleinschätzungen?

Grundsätzlich bedeutet die Fehl-Interpretation zunächst einmal, dass es noch Bereiche gibt, in denen wir Menschen der KI dabei helfen müssen, ihre Wissenslücken zu füllen.

Außerdem überwindet nicht jede optische Täuschung jede KI. Viele Systeme sind für spezielle Szenarien ausgelegt – zum Beispiel, um Auffälligkeiten auf Röntgenbildern zu erkennen. Da ist es nur logisch, dass sie in anderen Bereichen ihre Schwächen haben.

Trotzdem ist es selbstverständlich enorm wichtig, die Fehler möglichst überall auszumerzen.

Auch interessant:

Über den Autor

Christian Erxleben

Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.