Technologie

Fake News vorbestimmt: Adobe verkauft KI-Bilder zu Israel-Hamas Krieg

Adobe Israel Hamas, Adobe, KI-Bilder, Künstliche Intelligenz, Fake News, Israel-Hamas, Adobe Stock
Screenshot Adobe Stock
geschrieben von Fabian Peters

Adobe verkauft über seine Stockfoto-Bibliothek KI-generierte Bilder zum Krieg zwischen Israel und der Terrororganisation Hamas. Während sie auf der Plattform selbst als „generiert mit KI“ gekennzeichnet sind, sorgen sie im Netz für Fake News. Doch warum bietet man solche Bilder überhaupt an? Ein Kommentar.

Der Krieg zwischen Israel und der Terrororganisation Hamas findet auch im Netz statt. Denn Online-Propaganda und Falschnachrichten verzerren die Berichterstattung und damit auch die Realität. Einige Online-Unternehmen verdienen sogar Geld mit Anti-Israel-Produkten oder -Bildern – darunter auch Amazon und Adobe. Was für eine Farce!

Während der US-Versandhändler Anti-Israel-Produkte auf seiner Plattform zum Verkauf zulässt, verkauft Softwareunternehmen Adobe KI-generierte Bilder zum Krieg zwischen Israel und Hamas über seine Stockfoto-Bibliothek. Das Problem: Während sie auf Adobe Stock zumindest noch als „generiert mit KI“ gekennzeichnet sind, fehlt im Netz jeglicher Fake-Hinweise.

Adobe Stock bietet KI-Bilder zu Krieg zwischen Israel und Hamas an

Einige Bilder lassen sich zwar bereits auf den ersten Blick als computergeneriert entlarven, andere hingegen wirken jedoch täuschend echt. Wie die Vice und die australische Website Crikey übereinstimmend berichten landeten einige dieser Bilder bereits im Netz und auf Social Media.

Dort sorgen sie – Überraschung – für Falschinformationen. Denn es fehlen jegliche Hinweise auf einen KI-Hintergrund oder auf ein Fake. Doch warum bietet man KI-Bilder zu einem solch sensiblen Thema überhaupt an?

Stockfotos und Künstliche Intelligenz: Ein großes Problem!

Die Suchanfrage „Israel Hamas Krieg“ führt auf Adobe Stock zu zahlreichen Ergebnissen. Es erscheinen Explosionen, brennende Gebäude und in Trümmern stehende Menschen. Die Bilder stammen wiederum von Nutzern, die sie eingereicht haben. Das Unternehmen verlangt zwar, dass die „Künstler“ KI-generierte Bilder als solche kennzeichnen. Doch bei einigen davon ist das nur im Kleingedruckten der Fall.

Bei Titel wie „Bombenexplosion in Palästina, israelischer Angriff auf Gaza“ oder „Stimmen der Hoffnung: Kinder im Gazastreifen inmitten von Widrigkeiten“, dürfte jedoch klar sein, wem diese FAKE-Bilder am meisten nutzen.

Denn es war die Terrororganisation Hamas, die den Krieg mit ihrem Überfall auf Israel, der an einem Tag 1.200 Menschenleben gekostet hat, angezettelt hat. Und selbst bei berechtigter Kritik an Israel haben KI-Bilder von „renommierten“ Anbietern wie Adobe in diesem Zusammenhang einfach keinerlei Daseinsberechtigung. Denn sie verzerren die Realität!

Und nicht nur vor diesem Hintergrund sollten Stockfoto-Anbieter wie Adobe ihren Umgang mit KI-generierten Inhalten schleunigst überdenken. Denn Kennzeichnung hin oder her: Künstliche Intelligenz spiegelt nicht die Realität wider und der Missbrauchsfaktor ist enorm – vor allem bei solch sensiblen Themen wie Krieg.

Auch interessant:

Über den Autor

Fabian Peters

Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).