Social Media Technologie

Apple erntet Shitstorm für neues Kinderpornografie-Tool

Apple, iCloud, Apple iCloud, neuralMatch, Kinderpornografie
Pixabay.com / geralt
geschrieben von Maria Gramsch

Apple will in der iCloud gespeicherte Bilder auf kinderpornografisches Material überprüfen. Die Ankündigung von „neuralMatch“ ist erst wenige Tage alt, hat aber erwartungsgemäß hohe Wellen geschlagen. WhatsApp wehrt sich gegen den Kinderpornografie-Scan.

Im Herbst 2021 will Apple sein Tool „neuralMatch“ in den USA in Betrieb nehmen. Das im Betriebssystem seiner Geräte verankerte Feature soll dabei helfen, kinderpornografisches Material in der iCloud aufzuspüren.

Dafür will Apple in den USA mit dem National Center for Missing & Exploited Children zusammenarbeiten. Zusammen mit der NGO hat Apple sein „neuralMatch“ bereits mit 200.000 Bildern trainiert.

Doch nicht nur in den USA will der Tech-Konzern das Feature einführen. Mit dem Update auf die Betriebssysteme iOS 15, iPadOS 15, watchOS 8 und macOS Monterey könnte Apple den Weg bereiten, das Feature weltweit einzuführen.

Kinderpornografie-Schutz als Gefahr für die Privatsphäre

Doch die Einführung von „neuralMatch“ dürfte für Apple kein glatter Durchlauf werden. Nach Bekanntwerden der Pläne des iPhone-Konzerns wurde weltweit Kritik am Vorhaben laut. Weltweit haben mehr als 5.500 Menschen und Organisationen einen offenen Brief an den Konzern unterzeichnet – Tendenz steigend.

Hier heißt es „Sicherheits- und Datenschutzexperten, Kryptographen, Forscher, Professoren, Rechtsexperten und Apple-Verbraucher kritisieren Apples geplante Maßnahme, die Privatsphäre der Benutzer und die End-to-End-Verschlüsselung zu untergraben.“

Die größte Sorge der Unterzeichner:innen: Sie fürchten, dass Apple mit seinem „neuralMatch“ eine Hintertür im eigenen System verbaut, die den Datenschutz für alle Apple-Nutzer:innen „untergraben“ könnte. In der Liste der Unterstützer:innen des Briefes finden sich so prominente Namen wie Edward Snowden.

Snowden meldet sich auch bei Twitter zu Wort und mahnt an, Apple rolle mit der Einführung eine „Massenüberwachung auf die ganze Welt aus“.

Wieso ist das Kinderpornografie-Tool so gefährlich?

Mit der Funktion könne es auch zu Fälschungen kommen, warnt Verschlüsselungsexperte Matthew Green von der Johns-Hopkins-Universität im Interview mit der ARD. Menschen könnten „neutralMatch“ ausnutzen, um anderen Nutzer:innen „gefakte kinderpornografische Fotos“ unterzujubeln.

Außerdem sei die Funktion laut Green „ein Schritt in genau die falsche Richtung“. Seine Befürchtung: „Hat man sie erst einmal gebaut, werden einen Regierungen in der Welt bedrängen, um die Telefone nach anderen Dingen zu durchsuchen.“

WhatsApp unterstützt neues Feature nicht

Mit WhatsApp-Chef Will Cathcart meldet sich ein weiterer Tech-Promi zu Wort. Auf Twitter schreibt er: „Ich denke, das ist der falsche Ansatz und ein Rückschlag für die Privatsphäre der Menschen auf der ganzen Welt.“

Er stellt außerdem unmissverständlich klar, dass WhatsApp dieses System nicht übernehmen wird.

Auch Cathcart kritisiert, das von Apple gebaute System könne „sehr leicht verwendet werden, um private Inhalte auf alles zu scannen, was Apple oder eine Regierung kontrollieren“ wolle.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.