Technologie

Apple will mit „neuralMatch“ gegen Kinderpornografie vorgehen

Apple, iCloud, Apple iCloud, neuralMatch
Apple
geschrieben von Maria Gramsch

Apple sagt kinderpornografischen Inhalten in den USA den Kampf an. Der Tech-Konzern will mit dem System „neuralMatch“ Geräte und iCloud unter die Lupe nehmen und verspricht, den Datenschutz einhalten zu wollen.

Mit „neuralMatch“ gegen Kinderpornografie

Apple will ab Herbst 2021 die Geräte seiner Nutzer:innen sowie die in der iCloud gespeicherten Dateien auf kinderpornografisches Material prüfen. Das berichtet die Financial Times. In der Zwischenzeit sind die Fakten bestätigt worden.

Dafür hat der Tech-Konzern das System mit dem Namen „neuralMatch“ entwickelt. Entdeckt das System illegale Bilder, werden automatisch menschliche Prüfer benachrichtigt. Diese sollen dann „die Strafverfolgungsbehörden kontaktieren“.


Neue Stellenangebote

Werkstudent Social Media und Community Management (m/w/d)
Walbusch Gruppe in Düsseldorf
Social Media Manager (m/w/d)
Xella International GmbH in Duisburg
Online Marketing Manager SEA /SEO /Social Media (m/w/d)
JACOBS DOUWE EGBERTS DE GmbH in Bremen

Alle Stellenanzeigen


Wie funktioniert neuralMatch?

Apple hat neuralMatch für den Einsatz mit 200.000 Bildern des National Center for Missing & Exploited Children trainiert.

Für die Erkennung von problematischem Material will Apple Hashes einsetzen. Damit können Bilder auf iPhones oder in der iCloud mit bereits bekannten, kinderpornografischen Bildern abgeglichen werden.

Laut der Financial Times will Apple „jedes Foto, das in den USA auf iCloud hochgeladen wird, mit einem Safety Voucher“ versehen. Darin verschlüsselt das System, ob es sich bei der Datei um einen verdächtigen Inhalt handelt oder nicht.

Von Apple über eine NGO zu den Strafbehörden

Kommt es hier zu Übereinstimmungen, kennzeichnet Apple das jeweilige verdächtige Bild mit einem Zertifikat. Ist dies der Fall, darf Apple die Dateien zur weiteren Prüfung öffnen.

Jedoch kommt es erst zu einer Prüfung, wenn eine bestimme Anzahl erreicht wird – wie hoch diese genau ist, hat der Konzern nicht bekanntgegeben.

Kommt es bei einer Prüfung zu einer Übereinstimmung, informiert Apple die NGO National Center for Missing & Exploited Children. Die wiederum informiert dann die Strafverfolgungsbehörden.

Apple will Nutzer:innen, bei denen der Konzern kinderpornografisches Material entdeckt, nicht informieren. Allerdings verlieren die User den Zugriff auf ihr Konto bei Apple.

Apple bereitet Geräte weltweit vor

Die Checks sollen zwar zunächst nur in den USA durchgeführt werden. Apple bereitet sich aber mit dem Update auf die Betriebssysteme iOS 15, iPadOS 15, watchOS 8 und macOS Monterey weltweit auf eine mögliche Einführung vor.

Denn mit den Updates auf die neuen Betriebssysteme landet die Hashes-Datei auf allen Apple-Geräten weltweit. Doch ob und wann die Überprüfung auch außerhalb der USA eingeführt wird, steht noch nicht fest.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und seit 2021 freie Autorin bei BASIC thinking. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig. Neben dem Studium hat sie als CvD, Moderatorin und VJ bei dem Regionalsender Leipzig Fernsehen und als Content-Uschi bei der Bastei-Lübbe-App oolipo gearbeitet. Im letzten Studienjahr war sie Mitgründerin, CvD und Autorin der Leipzig-Seite der taz. Maria lebt und paddelt in Leipzig und arbeitet unter anderem für turi2.de und die Leipziger Produktionsfirma schmidtFilm.

Kommentieren