Technologie

Apple will mit „neuralMatch“ gegen Kinderpornografie vorgehen

Apple, iCloud, Apple iCloud, neuralMatch
Apple
geschrieben von Maria Gramsch

Apple sagt kinderpornografischen Inhalten in den USA den Kampf an. Der Tech-Konzern will mit dem System „neuralMatch“ Geräte und iCloud unter die Lupe nehmen und verspricht, den Datenschutz einhalten zu wollen.

Mit „neuralMatch“ gegen Kinderpornografie

Apple will ab Herbst 2021 die Geräte seiner Nutzer:innen sowie die in der iCloud gespeicherten Dateien auf kinderpornografisches Material prüfen. Das berichtet die Financial Times. In der Zwischenzeit sind die Fakten bestätigt worden.

Dafür hat der Tech-Konzern das System mit dem Namen „neuralMatch“ entwickelt. Entdeckt das System illegale Bilder, werden automatisch menschliche Prüfer benachrichtigt. Diese sollen dann „die Strafverfolgungsbehörden kontaktieren“.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Content Marketing Expert / Social Media Expert Publications (w|m|d)
zeb.rolfes.schierenbeck.associates gmbh in Münster
Senior Social Media Manager:in im Corporate Strategy Office (w/d/m)
Haufe Group SE in Freiburg im Breisgau

Alle Stellenanzeigen


Wie funktioniert neuralMatch?

Apple hat neuralMatch für den Einsatz mit 200.000 Bildern des National Center for Missing & Exploited Children trainiert.

Für die Erkennung von problematischem Material will Apple Hashes einsetzen. Damit können Bilder auf iPhones oder in der iCloud mit bereits bekannten, kinderpornografischen Bildern abgeglichen werden.

Laut der Financial Times will Apple „jedes Foto, das in den USA auf iCloud hochgeladen wird, mit einem Safety Voucher“ versehen. Darin verschlüsselt das System, ob es sich bei der Datei um einen verdächtigen Inhalt handelt oder nicht.

Von Apple über eine NGO zu den Strafbehörden

Kommt es hier zu Übereinstimmungen, kennzeichnet Apple das jeweilige verdächtige Bild mit einem Zertifikat. Ist dies der Fall, darf Apple die Dateien zur weiteren Prüfung öffnen.

Jedoch kommt es erst zu einer Prüfung, wenn eine bestimme Anzahl erreicht wird – wie hoch diese genau ist, hat der Konzern nicht bekanntgegeben.

Kommt es bei einer Prüfung zu einer Übereinstimmung, informiert Apple die NGO National Center for Missing & Exploited Children. Die wiederum informiert dann die Strafverfolgungsbehörden.

Apple will Nutzer:innen, bei denen der Konzern kinderpornografisches Material entdeckt, nicht informieren. Allerdings verlieren die User den Zugriff auf ihr Konto bei Apple.

Apple bereitet Geräte weltweit vor

Die Checks sollen zwar zunächst nur in den USA durchgeführt werden. Apple bereitet sich aber mit dem Update auf die Betriebssysteme iOS 15, iPadOS 15, watchOS 8 und macOS Monterey weltweit auf eine mögliche Einführung vor.

Denn mit den Updates auf die neuen Betriebssysteme landet die Hashes-Datei auf allen Apple-Geräten weltweit. Doch ob und wann die Überprüfung auch außerhalb der USA eingeführt wird, steht noch nicht fest.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.