Social Media

Almans, Penis-Minarette und Co.: Was Facebook in Deutschland löscht – und was nicht

Delete, löschen, entfernen, Almans
Facebook löscht Inhalte nicht nach konsequenten Mustern. (Foto: Unsplash.com / ujesh)
geschrieben von Christian Erxleben

„Verfickte Almans“ werden gelöscht und Gleichstellungen von religiösen Symbolen und Geschlechtsorganen bleiben auf der Plattform. Was Facebook in Deutschland löscht – und vor allem was Facebook nicht löscht, sorgt erneut für berechtigte Diskussionen.

Hass gehört zu Facebook in Deutschland

Trotz aller (berechtigten) Kritik ist Facebook in Deutschland nach wie vor das größte soziale Netzwerk. Denn obwohl es in der Altersstruktur der Nutzer zu Verschiebungen gekommen ist, kommt der Dienst hierzulande immer noch auf über 30 Millionen monatliche Nutzer.

Diese posten zwar seltener Beiträge als Privatperson, sind jedoch dafür auf Seiten und in Facebook-Gruppen umso aktiver. Gerade in den Gruppen ist der Umgangston jedoch oftmals sehr schlecht. Beleidigungen und Hass sind hier eher Alltag als ein friedvoller Umgang.

In 80 Stunden lernen, was Hass ist

Um gegen jede Form von Diskriminierung vorzugehen, beschäftigt Facebook in Deutschland wie auch in anderen Ländern sogenannte Content-Moderatoren.

Das sind Mitarbeiter bei externen Firmen, die Tag für Tag Tausende Inhalte sehen und darüber entscheiden, ob sie gelöscht werden müssen. In Deutschland bezahlt Facebook in Berlin und Essen dafür 2.000 Angestellte bei den entsprechenden Dienstleistern.

Bevor die Arbeiter ihren neuen Job antreten, werden sie laut Aussagen von Facebook gegenüber dem Spiegel mindestens 80 Stunden lang geschult. Die dafür verwendeten Dokumente stammen aus dem Jahr 2018 und sind bis zum heutigen Zeitpunkt unverändert.

Schulungsunterlagen zeigen, was Facebook in Deutschland löscht

Die Angestellten in den Dienstleistungsbetrieben werden jede Minute und jeden Tag in ihrem Job mit sehr schwierigen Inhalten konfrontiert. Denn nur weil wir Nutzer keine Vergewaltigungen und Exekutionen auf Facebook sehen, bedeutet das nicht, dass derartige Inhalte nicht hochgeladen werden.

Was die Künstliche Intelligenz von Facebook nicht automatisch filtert, muss von den Content-Moderatoren gelöscht werden. Die internen Regeln und Schulungsunterlagen sind Medienberichten zu Folge jedoch nicht immer nachvollziehbar.

So hat der Spiegel in den Schulungsunterlagen beispielsweise gesehen, dass Hasskommentare, die von „verfickte(n) Almans“ sprechen oder andere Personen „als typisch dämlich deutsch“ bezeichnen, gelöscht werden.

Ethnophaulistische Begriffe wie Almans, „Kartoffel“ oder „Kraut“, die sich über Personen lustig machen, die vermeintliche deutsche Klischees erfüllen, haben auf Facebook in Deutschland also offenbar keinen Platz.

Was löscht Facebook nicht?

Noch spannender ist jedoch eigentlich, was Facebook nicht löscht. Ein besonders erstaunliches Beispiel aus den Schulungsunterlagen beschäftigt sich mit der Zeichnung eines Minaretts, das mit der Form eines riesigen Penis gleichgesetzt wird.

Dabei handelt es sich den Recherchen zu Folge nur um einen verbotenen Inhalt, wenn im Begleittext zum Bild gegen Muslime oder den Islam gehetzt werde. Nachvollziehbar ist das nicht.

Facebook wird zwischen Meinungsfreiheit, Memes und Diskriminierung zerrieben

Das Problem, mit dem sich Facebook konfrontiert sieht, ist im Prinzip unlösbar. Auf der einen Seite muss das soziale Netzwerk darauf achten, die Meinungsfreiheit seiner Nutzerinnen und Nutzer sicherzustellen. Das heißt: Nicht jedes Meme stellt eine Verletzung von Urheberrechten dar.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Social Media Manager (m|w|d)
envia Mitteldeutsche Energie AG in Chemnitz
Senior Social Media Manager:in im Corporate Strategy Office (w/d/m)
Haufe Group SE in Freiburg im Breisgau

Alle Stellenanzeigen


Auf der anderen Seite nehmen Hass und Diskriminierung immer weiter zu. Allerdings lassen sich die Milliarden Kommentare, mit denen Facebook jeden Tag konfrontiert wird, nicht durch eine Künstliche Intelligenz und auch nicht durch eine 80-stündige Schulung in den Griff bekommen.

Der Kampf erscheint aussichtslos. Facebook hat eine Plattform geschaffen, die sich nicht mehr kontrollieren lässt.

Auch interessant:

Über den Autor

Christian Erxleben

Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.