Wie konsequent hält sich YouTube an seine Richtlinien für diskriminierende Videos, wenn YouTuber Millionen Menschen erreichen und Milliarden US-Dollar generieren? Moderatoren der Plattform haben kritisiert, dass YouTube bei Stars gerne mal ein Auge zudrückt.
YouTube will strengere Regeln bei Inhalten durchsetzen, die für Menschen diskriminierend sein könnten oder Geschehnisse wie den Holocaust leugnen. Das erklärte die Video-Plattform im Juni 2019 in einem Blog-Post.
Das Unternehmen will also gegen diskriminierende Inhalte vorgehen und rassistisches, faschistisches und sexistisches Gedankengut einschränken beziehungsweise so gut es geht verbannen. Beleidigungen und Belästigungen zwischen und von YouTubern seien nämlich ein permanentes Problem.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media & Content Marketing Manager (m/w/d) bonprix Handelsgesellschaft mbH in Hamburg |
||
Projektbetreuer – Social Media / Datenerfassung / Recherche / Kundenservice (m/w/d) deecoob GmbH in Dresden |
YouTube geht gegen Hassreden und Belästigungen vor – aber nicht konsequent
YouTube sperrt demnach Clips, aus denen primär Inhalte wie Hassreden und Belästigungen hervorgehen. Rassistische Äußerungen oder Witze sollen aber durchgehen.
Diese Grenze zwischen freier Meinungsäußerung und Beleidigungen oder Hass ist eigentlich nicht streng genug. Trotzdem hat sich beispielsweise der YouTuber Steven Crowder über die Änderung beschwert.
Er griff einen anderen Inhalte-Ersteller immer wieder homophob und rassistisch an. YouTube reagierte zögerlich darauf, stellte aber schlussendlich die Werbe-Monetarisierung für seinen Kanal ein.
Crowder beschreibt sein YouTube-Format selbst als „konservative Late Night Commedy Nummer eins“. Sein Kanal hat über vier Millionen Abonnenten. Nun ist Crowder bei weitem nicht der einzige YouTuber, der diskriminierende Inhalte in seinen Videos verbreitet.
Laut einem Bericht der Washington Post geht die Plattform aber nicht konsequent gegen diese Ersteller vor, sondern drückt immer mal wieder ein Auge zu, wenn sie in ihren Clips andere beleidigen. Das haben gleich mehrere Moderatoren von YouTube kritisiert.
YouTube-Moderatoren können diskriminierende Inhalte nicht selbst löschen
Dazu zählen neben Crowder offenbar auch prominente Filmemacher wie Logan Paul und Felix Arvid Ulf „PewDiePie“ Kjellberg. Laut der Washington Post werden Moderatoren zwar schnell auf diskriminierende Inhalte aufmerksam.
Anders als auf Facebook und Twitter sind sie aber nicht alleine dazu berechtigt, diese auch selbst zu löschen.
Stattdessen sollen sie überprüfen, ob ein YouTuber erfolgreich genug ist, um in seinen Videos auch Werbung zu schalten. Damit generiert YouTube hauptsächlich seine Einnahmen. Aus diesem Grund verwässert die Plattform bei großen Kanälen offenbar auch ihre eigenen Regeln gegen Hass und Diskriminierung.
Das heißt, dass YouTube weniger darauf achtet, seine Nutzer nicht mit schädlichen Inhalten zu konfrontieren, sondern viel mehr darauf, dass Werbungtreibende möglichst viele Anzeigen schalten können. Die Plattform möchte schließlich Geld verdienen.
YouTuber stehen über Regeln: Moderatoren sind enttäuscht
Die Washington Post sprach mit mehreren Moderatoren, die sichtlich enttäuscht von ihrem Job sind beziehungsweise waren.
Eine Moderatorin aus der US-amerikanischen Stadt Austin im Bundesstaat Texas erklärte beispielsweise: „Ich dachte am Anfang, dass ich dabei helfen würde, schlechte Inhalte vor Kindern auf der Plattform fernzuhalten. Aber es ging nie um die Ersteller und Nutzer, sondern um die Werbungtreibenden.“
Das würde auch erklären, warum beispielsweise YouTuber Logan Paul erst dann eine zweiwöchige Werbe-Sperre erhielt, nachdem er eine ganze Reihe an geschmacklosen Videos auf seinem Kanal veröffentlichte.
2018 machte er sich in einem Clip erst über ein Suizid-Opfer lustig und filmte eine Leiche. In einem späteren Video schoss er mit einem Elektroschocker auch noch auf eine tote Ratte. Außerdem holte er einen lebenden Koifisch aus seinem Teich und versuchte ihn zu „reanimieren“, indem er eine Herzdruckmassage imitierte.
Seine Werbe-Sperre war nur von kurzer Dauer. YouTube wolle Werbungtreibenden zwar zeigen, dass der Konzern Maßnahmen gegen umstrittene Ersteller ergreift. Diese Werbungtreibenden dürfen auf Wunsch aber zum entsprechenden Kanal zurückkehren und Anzeigen schalten, als wäre nie etwas gewesen.
Im Fall von Paul habe es sich laut einem Moderator „wie ein Schlag ins Gesicht“ angefühlt. „Dir wird gesagt, dass die spezifischen Richtlinien für Monetarisierung extrem strikt sind. Und dann bricht Logan Paul eine der größten Regeln und kommt davon, als wäre nie etwas gewesen.“
Ist YouTube nur eine Geldmaschine?
Leider erwecken die Erzählungen der Moderatoren den Anschein, dass YouTube prominente Ersteller bevorzugt, um möglichst viel Geld zu verdienen. Welche Inhalte sie dafür produzieren und ob Minderheiten sich dadurch diskriminiert fühlen könnten, scheint für das Unternehmen zweitrangig zu sein.
Das sagt auch ein früherer Team-Leiter aus Austin nachdem Moderatoren ein Musikvideo der City Girls zum Song „Twerk“ gemeldet hatten. Das US-amerikanische Rap-Duo hatte für den Clip zu einem Contest aufgerufen, um die beste Twerking-Tänzerin zu finden.
Die Moderatoren hielten den Clip für „sexuell befriedigend“, weil darin zahlreiche Frauen in Bikinis ihre nackten Hintern in die Kamera halten. Sie meldeten den Clip aus Prinzip, obwohl sie wussten, dass YouTube eigene Richtlinien für Musikvideos aufgestellt hat.
Musikvideos gehören zu den am meisten angesehenen Clips auf der Plattform. Das Video der City Girls hat über 100 Millionen Aufrufe.
Laut dem Team-Chef soll YouTube aber nur daran gedacht haben, dass die Plattform mit einer Löschung des Videos mächtig an Reichweite verlieren oder Werbungtreibende beleidigt sein könnten, wenn sie in erfolgreichen Clips wie diesen keine Anzeigen schalten könnten.
Überhaupt sollen sich die Richtlinien „mindestens ein Mal im Monat“ ändern, sodass keine langfristigen Regeln für die Plattform zustande kommen. Wirklich konsequent scheint YouTube also nicht gegen Hass, Diskriminierung und andere störende Inhalte vorgehen zu wollen, wenn darunter die Werbe-Einnahmen leiden.
Auch interessant:
- Monatliche Zahlung statt Werbung: So viel Umsatz würden YouTube und Co. machen
- Das sind die 10 größten YouTube-Kanäle der Welt
- Studie untersucht YouTube-Nutzung – und wirft wichtige Frage auf
- Das sind die 10 bestverdienenden YouTuber der Welt
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media & Content Marketing Manager (m/w/d) bonprix Handelsgesellschaft mbH in Hamburg |
||
Social Media Community Manager (m/f/d) Flaconi GmbH in Berlin |
||
HR Social Media Manager / Content Creator (m/w/d) freenet AG in Hamburg |
||
Online Marketing Manager – Social Media / SEO / Grafikdesign / CMS (m/w/d) reputatio AG in Pforzheim |
||
Social Media Manager:in zur Vertretung (w/m/d) Universität Duisburg-Essen in Duisburg |
||
Content Creator & Social Media Manager (m/w/d) Synflex Elektro GmbH in Blomberg |
||
(Senior) Manager Online & Social Media (f/m/d) Uniper SE in Düsseldorf |
Steven Crowder hat nichts falsches gemacht
Hallo Acx, im Artikel haben wir die Gründe genannt. Rassistische Äußerungen sollten bestraft werden. Siehst du es anders?