Apple will in der iCloud gespeicherte Bilder auf kinderpornografisches Material überprüfen. Die Ankündigung von „neuralMatch“ ist erst wenige Tage alt, hat aber erwartungsgemäß hohe Wellen geschlagen. WhatsApp wehrt sich gegen den Kinderpornografie-Scan.
Im Herbst 2021 will Apple sein Tool „neuralMatch“ in den USA in Betrieb nehmen. Das im Betriebssystem seiner Geräte verankerte Feature soll dabei helfen, kinderpornografisches Material in der iCloud aufzuspüren.
Dafür will Apple in den USA mit dem National Center for Missing & Exploited Children zusammenarbeiten. Zusammen mit der NGO hat Apple sein „neuralMatch“ bereits mit 200.000 Bildern trainiert.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Manager Digital Marketing / Social Media B2B (m/w/d) BRITA SE in Frankfurt (Main) |
||
Manager Digital Marketing / Social Media B2B (m/w/d) BRITA SE in Taunusstein |
Doch nicht nur in den USA will der Tech-Konzern das Feature einführen. Mit dem Update auf die Betriebssysteme iOS 15, iPadOS 15, watchOS 8 und macOS Monterey könnte Apple den Weg bereiten, das Feature weltweit einzuführen.
Kinderpornografie-Schutz als Gefahr für die Privatsphäre
Doch die Einführung von „neuralMatch“ dürfte für Apple kein glatter Durchlauf werden. Nach Bekanntwerden der Pläne des iPhone-Konzerns wurde weltweit Kritik am Vorhaben laut. Weltweit haben mehr als 5.500 Menschen und Organisationen einen offenen Brief an den Konzern unterzeichnet – Tendenz steigend.
Hier heißt es „Sicherheits- und Datenschutzexperten, Kryptographen, Forscher, Professoren, Rechtsexperten und Apple-Verbraucher kritisieren Apples geplante Maßnahme, die Privatsphäre der Benutzer und die End-to-End-Verschlüsselung zu untergraben.“
Die größte Sorge der Unterzeichner:innen: Sie fürchten, dass Apple mit seinem „neuralMatch“ eine Hintertür im eigenen System verbaut, die den Datenschutz für alle Apple-Nutzer:innen „untergraben“ könnte. In der Liste der Unterstützer:innen des Briefes finden sich so prominente Namen wie Edward Snowden.
Snowden meldet sich auch bei Twitter zu Wort und mahnt an, Apple rolle mit der Einführung eine „Massenüberwachung auf die ganze Welt aus“.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
Wieso ist das Kinderpornografie-Tool so gefährlich?
Mit der Funktion könne es auch zu Fälschungen kommen, warnt Verschlüsselungsexperte Matthew Green von der Johns-Hopkins-Universität im Interview mit der ARD. Menschen könnten „neutralMatch“ ausnutzen, um anderen Nutzer:innen „gefakte kinderpornografische Fotos“ unterzujubeln.
Außerdem sei die Funktion laut Green „ein Schritt in genau die falsche Richtung“. Seine Befürchtung: „Hat man sie erst einmal gebaut, werden einen Regierungen in der Welt bedrängen, um die Telefone nach anderen Dingen zu durchsuchen.“
WhatsApp unterstützt neues Feature nicht
Mit WhatsApp-Chef Will Cathcart meldet sich ein weiterer Tech-Promi zu Wort. Auf Twitter schreibt er: „Ich denke, das ist der falsche Ansatz und ein Rückschlag für die Privatsphäre der Menschen auf der ganzen Welt.“
Er stellt außerdem unmissverständlich klar, dass WhatsApp dieses System nicht übernehmen wird.
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world.
People have asked if we'll adopt this system for WhatsApp. The answer is no.
— Will Cathcart (@wcathcart) August 6, 2021
Auch Cathcart kritisiert, das von Apple gebaute System könne „sehr leicht verwendet werden, um private Inhalte auf alles zu scannen, was Apple oder eine Regierung kontrollieren“ wolle.
Auch interessant: