Facebook-Konzern Meta lässt private Inhalte von externen Firmen in Afrika auswerten. Das ist das Ergebnis einer umfangreichen Recherche schwedischer Journalisten. Vor allem Fotos und Videos, die mithilfe der Ray-Ban-Kamerabrillen des Unternehmens aufgenommen werden, landen zur Auswertung in Kenia. Die dort Beschäftigten sind extremen psychischen Belastungen ausgesetzt – und zwar zu Hungerlöhnen. Eine kommentierende Analyse.
Klickworker in Kenia analysieren Bilder für Meta
- Journalisten der Göteborg Posten und des Svenska Dagbladet sind im Rahmen einer Recherche der Frage nachgegangen, was mit Aufnahmen passiert, die die Ray-Ban-Smart-Glasses von Meta macht. Ergebnis: Das Bildmaterial, das die KI-Brille aufnimmt, wird nicht nur automatisiert in den USA oder Europa verarbeitet. Ein Teil der Bilder und Videos wird von Billiglohnkräften externer Unternehmen analysiert. Darunter: die Daten-Firma Samasource aus Nairobi (Kenia).
- Den schwedischen Medien zufolge hätten Gespräche mit Beschäftigten bei Samasource offenbart, dass private Inhalte von Nutzern der KI-Brillen von Meta auf Bildschirmen in Afrika landen. Diese würden die meisten vermutlich nicht freiwillig weitergeben wollen. Bei den Inhalten soll es sich unter anderem um intime Szenen, Aufnahmen aus Schlafzimmern, Bankdaten sowie PIN-Eingaben an Geldautomaten handeln. Pikant: Sogar Gesichter sollen häufig zu erkennen sein, da die Anonymisierung der Daten oft nicht funktioniert.
- Hintergrund für die manuelle Auswertung ist die Funktionsweise Künstlicher Intelligenz. Für das Training von KI-Modellen und Verbesserungen bei der Bilderkennung müssen Menschen Bilder und Videos markieren und entsprechend einordnen. Sie erhalten dadurch jedoch Einblicke in private Lebensbereiche. Das betrifft sowohl Nutzer der KI-Brillen von Meta als auch Menschen, die womöglich gar nicht aufgenommen werden wollen. Zahlreiche Befragte, die die Daten in Afrika auswerten müssen, sprechen von einer hohen psychischen Belastung, langen Arbeitsschichten, geringen Gehältern sowie Druck und Existenzängsten.
Meta schickt Videos und Bilder ohne Zustimmung nach Afrika
Es ist nicht nur ein Skandal, dass Meta nach außen hin Datenschutz predigt und durch die Hintertür unanonymisierte und private Inhalte ohne explizite Zustimmung nach Afrika schickt. Die Tatsache, dass mitunter intime Aufnahmen bei schlecht bezahlten Klickarbeitern landen, ist nicht nur ein Datenschutz-, sondern auch ein Arbeitsproblem.
Denn wer täglich fremde Privatmomente katalogisieren muss, zahlt mit seiner Psyche. Und das zu Löhnen, bei denen im Silicon Valley vermutlich noch nicht einmal jemand die Kaffeemaschine anschmeißen würde. Die Verantwortung schiebt der Facebook-Konzern dabei wie einen Wanderpokal von sich.
Mal verweist man etwa auf seine Nutzungsbedingungen, mal auf die Eigenverantwortung der Nutzer und wieder ein anderes Mal verweisen Auftragnehmer wie Samasource auf einen angeblich freien Markt. Kurzum: Hinter den schicken KI-Brillen von Meta agiert eine schleimige Datenkrake, die sich weder um Datenschutz noch um Privatsphäre oder Arbeitsbedingungen schert.
Das größte Problem ist, dass viele Nutzer von diesen Praktiken keine Ahnung haben, weil sich das Unternehmen größte Mühe gibt, diese wie in einer Tintenwolke zu verschleiern. Klar: Irgendwo im Kleingedruckten der AGB gibt es Hinweise. Doch zwischen juristischen Floskeln und vagen Formulierungen bleibt das skrupellose Geschäftsmodell Metas absolut undurchsichtig.
Aber machen wir uns nichts vor: Tech-Konzerne kennen längst unsere intimsten Nachrichten, Gesichter und Gewohnheiten. Sie wollen uns möglichst nah sein und verkaufen das dann als tollen kostenlosen Service.
Stimmen
- Ein Mann aus Nairobi schilderte Svenska Dagbladet seine Erfahrungen: „In einigen Videos sieht man jemanden auf die Toilette gehen oder sich ausziehen. Ich glaube nicht, dass sie sich dessen bewusst sind. Man versteht, dass man in das Privatleben von jemandem hineinschaut, aber gleichzeitig wird erwartet, dass man die Arbeit erledigt. Man soll das nicht hinterfragen. Wenn man anfängt, Fragen zu stellen, ist man weg.“ Ein anderer Angestellter berichtet: „Wir sehen alles – von Wohnzimmern bis hin zu nackten Körpern. Meta hat solche Inhalte in seinen Datenbanken. Menschen können sich selbst in unvorteilhafter Weise filmen, ohne das überhaupt zu merken.“
- Meta hat sich zu den Vorwürfen bislang nicht konkret geäußert. Unternehmenssprecherin Joyce Omope eierte in einer E-Mail an Svenska Dagbladet lediglich herum: „Wenn Live-KI zum Einsatz kommt, verarbeiten wir diese Medien gemäß den Nutzungsbedingungen und Datenschutzrichtlinien von Meta AI.“ Ein europäischer Meta-Manager, der anonym bleiben möchte, sagte: „Viele glauben, dass Daten innerhalb der EU gespeichert werden müssen, um geschützt zu sein. Aber gemäß DSGVO spielt es keine Rolle, wo sich der Server befindet – solange das Land die Anforderungen der EU erfüllt. Ist dies nicht der Fall, dürfen die Daten nicht dorthin gesendet werden.“
- Der Kenianer Michael Geoffrey Asia hat jahrelang für KI-Unternehmen gearbeitet und Inhalte ausgewertet. Irgendwann erreichte er einen Punkt, an dem die Belastung zu groß wurde und er nicht mehr weitermachen konnte. Gegenüber 404 Media sagte er: „Es kam zu einem Punkt, an dem mein Körper nicht mehr funktionierte. Wenn ich jemanden nackt sah, spürte ich nichts mehr. Und ich habe eine Frau, die viel von mir erwartet, eine junge Familie, sie erwartet viel von mir in intimer Hinsicht. Aber man kann es einfach nicht mehr. Das hat mir vieles kaputtgemacht. Mein Körper funktioniert einfach nicht mehr.“
Meta wird immer skrupelloser
Die Enthüllungen aus Schweden dürften Meta noch länger beschäftigen. In den USA haben zwei Nutzer etwa bereits eine Sammelklage initiiert, weil sie sich durch die Werbesprüche des Unternehmens getäuscht fühlen. Zu Recht! Denn die allermeisten würden wohl nicht damit rechnen, dass Aufnahmen von ihnen oder Fremden auf anderen Kontinenten gesichtet werden.
Das ruft glücklicherweise bereits zahlreiche europäische Behörden auf den Plan. Die britische Datenschutzaufsicht ICO verlangt etwa eine umfangreiche Stellungnahme von Meta. Und: Innerhalb der EU stellt sich die Frage, ob Bildmaterial überhaupt nach Kenia übertragen werden darf. Problem ist aber, dass es laut DSGVO einen sogenannten Angemessenheitsbeschluss der EU-Kommission bräuchte, um gegen die Praktiken des Facebook-Konzerns vorzugehen. Für Kenia gibt es einen solchen Beschluss aber nicht.
Das erklärt, warum Meta den Umweg über Afrika geht. Aber auch, dass politische Eile geboten ist, um unwissende Nutzer zu schützen. Ironischerweise steht in den Nutzungsbedingungen des Unternehmens, dass man die KI-Brillen in privaten Umgebungen ausschalten sollte. Aber wer liest die schon? Persönlich würde ich deshalb einen Schritt weiter gehen und empfehlen, überhaupt keine Smart Glasses von Meta zu nutzen.
Denn: Die Praktiken des Unternehmens werden immer skrupelloser. Meta macht etwa Kinder und Jugendliche süchtig, setzt alle Nutzer psychischen Belastungen aus und macht sie obendrein gläsern, um mit ihren Daten Geld zu scheffeln. Oder kurzum: Mark Zuckerberg ist der größte Drogen- und Datenhändler der Welt.
Auch interessant:









