Social Media

Almans, Penis-Minarette und Co.: Was Facebook in Deutschland löscht – und was nicht

Delete, löschen, entfernen, Almans
Facebook löscht Inhalte nicht nach konsequenten Mustern. (Foto: Unsplash.com / ujesh)
geschrieben von Christian Erxleben

„Verfickte Almans“ werden gelöscht und Gleichstellungen von religiösen Symbolen und Geschlechtsorganen bleiben auf der Plattform. Was Facebook in Deutschland löscht – und vor allem was Facebook nicht löscht, sorgt erneut für berechtigte Diskussionen.

Hass gehört zu Facebook in Deutschland

Trotz aller (berechtigten) Kritik ist Facebook in Deutschland nach wie vor das größte soziale Netzwerk. Denn obwohl es in der Altersstruktur der Nutzer zu Verschiebungen gekommen ist, kommt der Dienst hierzulande immer noch auf über 30 Millionen monatliche Nutzer.

Diese posten zwar seltener Beiträge als Privatperson, sind jedoch dafür auf Seiten und in Facebook-Gruppen umso aktiver. Gerade in den Gruppen ist der Umgangston jedoch oftmals sehr schlecht. Beleidigungen und Hass sind hier eher Alltag als ein friedvoller Umgang.


Neue Stellenangebote

Leiterin Content Management Systeme, SEO, Online-Redaktion und Social Media (w/m/d)
Deutsche Bahn AG in Frankfurt (Main)
Social Media Creative Content Specialist (m/w/d)
Lidl Personaldienstleistung GmbH in Bad Wimpfen
Social Media Sales Advisor/Customer Agent (f/m/d) – HEBREW
Concentrix Management Holding GmbH & Co. KG in Berlin

Alle Stellenanzeigen


In 80 Stunden lernen, was Hass ist

Um gegen jede Form von Diskriminierung vorzugehen, beschäftigt Facebook in Deutschland wie auch in anderen Ländern sogenannte Content-Moderatoren.

Das sind Mitarbeiter bei externen Firmen, die Tag für Tag Tausende Inhalte sehen und darüber entscheiden, ob sie gelöscht werden müssen. In Deutschland bezahlt Facebook in Berlin und Essen dafür 2.000 Angestellte bei den entsprechenden Dienstleistern.

Bevor die Arbeiter ihren neuen Job antreten, werden sie laut Aussagen von Facebook gegenüber dem Spiegel mindestens 80 Stunden lang geschult. Die dafür verwendeten Dokumente stammen aus dem Jahr 2018 und sind bis zum heutigen Zeitpunkt unverändert.

Schulungsunterlagen zeigen, was Facebook in Deutschland löscht

Die Angestellten in den Dienstleistungsbetrieben werden jede Minute und jeden Tag in ihrem Job mit sehr schwierigen Inhalten konfrontiert. Denn nur weil wir Nutzer keine Vergewaltigungen und Exekutionen auf Facebook sehen, bedeutet das nicht, dass derartige Inhalte nicht hochgeladen werden.

Was die Künstliche Intelligenz von Facebook nicht automatisch filtert, muss von den Content-Moderatoren gelöscht werden. Die internen Regeln und Schulungsunterlagen sind Medienberichten zu Folge jedoch nicht immer nachvollziehbar.

So hat der Spiegel in den Schulungsunterlagen beispielsweise gesehen, dass Hasskommentare, die von „verfickte(n) Almans“ sprechen oder andere Personen „als typisch dämlich deutsch“ bezeichnen, gelöscht werden.

Ethnophaulistische Begriffe wie Almans, „Kartoffel“ oder „Kraut“, die sich über Personen lustig machen, die vermeintliche deutsche Klischees erfüllen, haben auf Facebook in Deutschland also offenbar keinen Platz.

Was löscht Facebook nicht?

Noch spannender ist jedoch eigentlich, was Facebook nicht löscht. Ein besonders erstaunliches Beispiel aus den Schulungsunterlagen beschäftigt sich mit der Zeichnung eines Minaretts, das mit der Form eines riesigen Penis gleichgesetzt wird.

Dabei handelt es sich den Recherchen zu Folge nur um einen verbotenen Inhalt, wenn im Begleittext zum Bild gegen Muslime oder den Islam gehetzt werde. Nachvollziehbar ist das nicht.

Facebook wird zwischen Meinungsfreiheit, Memes und Diskriminierung zerrieben

Das Problem, mit dem sich Facebook konfrontiert sieht, ist im Prinzip unlösbar. Auf der einen Seite muss das soziale Netzwerk darauf achten, die Meinungsfreiheit seiner Nutzerinnen und Nutzer sicherzustellen. Das heißt: Nicht jedes Meme stellt eine Verletzung von Urheberrechten dar.

Auf der anderen Seite nehmen Hass und Diskriminierung immer weiter zu. Allerdings lassen sich die Milliarden Kommentare, mit denen Facebook jeden Tag konfrontiert wird, nicht durch eine Künstliche Intelligenz und auch nicht durch eine 80-stündige Schulung in den Griff bekommen.

Der Kampf erscheint aussichtslos. Facebook hat eine Plattform geschaffen, die sich nicht mehr kontrollieren lässt.

Auch interessant:

Über den Autor

Christian Erxleben

Christian Erxleben ist seit Ende 2017 Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig. Durch seine Arbeit im Social-Media- und Marketing-Ressort der INTERNET WORLD Business, am Newsdesk von Focus Online und durch sein Journalismus-Studium sowie sein redaktionelles Volontariat hat er in den Bereichen der Redaktion und des Social Media Managements mehrjährige, fundierte Erfahrung gesammelt. Beruflich und privat beschäftigt er sich mit Social Media, New-Work-Konzepten und persönlicher Entwicklung.

Kommentieren