Immer mehr Videos, die mithilfe Künstlicher Intelligenz generiert wurden, überschwemmen YouTube. Doch während sogenannter KI-Schrott einfach nur nervt und darauf abzielt, Einnahmen zu generieren, stellen DeepFakes und manipulierte Videos ein waschechtes Problem dar. Eine kommentierende Analyse.
KI-Schrott überschwemmt YouTube
- Immer mehr KI-generierte Videos fluten das Internet. Das gilt nicht nur für digitale Medien, sondern vor allem für Portale wie YouTube, von wo aus solche Clips weiterverbreitet werden. Das Problem: Statt handgemachter Unterhaltung, nerdigen Inhalten oder hochwertigen Dokumentationen spuckt der YouTube-Algorithmus immer mehr KI-Schrott aus. Heißt konkret: minderwertige und künstlich generierte Inhalte, die nur darauf abzielen, Klicks zu bekommen – auch, um durch Werbung Geld zu verdienen.
- Laut einer Analyse der Videobearbeitungsplattform Kapwing lassen sich über 20 Prozent der Videos, die YouTube neuen Nutzern anzeigt, in die Kategorie KI-Müll einordnen. Das Unternehmen hat für seine Untersuchung 15.000 der weltweit populärsten Kanäle analysiert. Ergebnis: 278 der Accounts produzieren ausschließlich KI-Inhalte. Zusammen kommen sie auf 63 Milliarden Aufrufe, 221 Millionen Abonnenten und einen jährlichen Umsatz von rund 117 Millionen US-Dollar.
- YouTube beteuert, verstärkt gegen minderwertige KI-Inhalte vorgehen zu wollen. Gleichzeitig nutzt das Unternehmen Künstliche Intelligenz, um Inhalte zu moderieren und bietet Nutzern KI-Werkzeuge zur Videobearbeitung an. Das bisherige System, das Spam- und Clickbait-Videos erkennen kann, soll künftig auch KI-Schrott filtern. Die Vergangenheit hat aber bereits gezeigt, dass solche automatisierten Kontrollen nicht perfekt sind.
YouTube wird immer schlechter
YouTube ist nicht die einzige Plattform, die mit KI-generierten Inhalten zu kämpfen hat. Auch auf Facebook, Instagram oder TikTok kursiert immer mehr KI-Schrott. Die Plattformbetreiber beteuern zwar, Gegenmaßnahmen einleiten zu wollen, doch bislang ist herzlich wenig passiert.
Zugegeben: KI-Videos können durchaus unterhaltsam oder auch beeindruckend sein. Doch lustige Kurzclips, schlechte Synchronisationen oder billige Zusammenschnitte sind das eine. Das andere und viel größere Problem sind DeepFakes, manipulierte Versionen echter Videos oder kurzum: Falschinformationen – vor allem im politischen Kontext.
Solche KI-Videos verrohen nicht nur die Informationslandschaft, sondern sind schlichtweg demokratiegefährdend. Denn während es vergleichsweise harmlos sein mag, KI-Schrott als Wirtschaftszweig zu nutzen, um Werbeeinnahmen zu generieren, stellen bewusst manipulierte Videos eine echte Gefahr dar.
Durch solche Inhalte wird Vertrauen in Medien und politische Akteure untergraben, während die Meinungsbildung gelenkt wird. Das erschwert nicht nur eine informierte, rationale demokratische Entscheidungsfindung, sondern spaltet zunehmend unsere Gesellschaft.
Stimmen
- YouTube-CEO Neal Mohen in einem Statement: „Als offene Plattform ermöglichen wir ein breites Spektrum an freier Meinungsäußerung und sorgen dafür, dass YouTube ein Ort bleibt, an dem sich die Menschen wohlfühlen. Um die Verbreitung von minderwertigen KI-Inhalten zu reduzieren, bauen wir aktiv auf unseren etablierten Systemen auf, die sich als sehr erfolgreich erwiesen haben.“
- Akhil Bhardwaj, Professor an der School of Management der University of Bath, gegenüber dem Guardian: „KI-Schrott überschwemmt das Internet mit Inhalten, die im Grunde genommen Müll sind. Diese Verschrottung ruiniert Online-Communities. Eine Möglichkeit, KI-Schrott zu regulieren, besteht darin, sicherzustellen, dass er nicht monetarisiert werden kann, wodurch der Anreiz für seine Erstellung wegfällt.“
- Moderator, Schauspieler und Komiker John Oliver in seiner wöchentlichen HBO-Show: „Es geht nicht nur darum, dass wir uns von gefälschten Inhalten täuschen lassen können, sondern dass deren bloße Existenz es böswilligen Akteuren ermöglicht, echte Videos und Bilder als Fälschungen abzutun. Ich sage nicht, dass es nicht Spaß macht, sich manche dieser Dinge anzusehen, aber ich sage, dass manche davon potenziell sehr gefährlich sind.“
Automatisierte Erkennungssysteme nicht perfekt
Es wird sich zeigen, ob und inwieweit es YouTube gelingt, mithilfe neuer Mechanismen KI-Schrott und -Fakes einzudämmen. Das Problem: Automatisierte Systeme sind alles andere als perfekt. Einige erinnern sich vielleicht noch an die Zeit, in der die Plattform von Raubkopien geschützter Kinofilme geflutet wurde.
Damals ließ sich der YouTube-Algorithmus austricksen, indem solche Videos in Rahmen, ein Kino-Setup oder grafische Umgebungen eingebettet wurden. Ähnliche Schlupflöcher wird es auch bezüglich minderwertiger KI-generierter Clips geben.
Hinzu kommt, dass solche Systeme auch immer wieder unbedenkliche Inhalte falsch einstufen und blockieren oder sogar zensieren. Eine weitaus effektivere und fairere Maßnahme wäre es deshalb, komplett KI-generierte Videos schlichtweg nicht mehr zu monetarisieren, um den Erstellern den Anreiz zu nehmen, die Plattform mit solchen Inhalten zu fluten und die kreative Arbeit professioneller YouTuber zu honorieren.
Letztlich geht es aber nicht nur darum, minderwertige Videos zu identifizieren, sondern vor allem inhaltlich falsche. Die Meinungsfreiheit ist zwar ein hohes Gut, kennt aber auch Grenzen. Etwa dann, wenn KI-generierte Videos Persönlichkeitsrechte missachten oder Menschen durch die Verzerrung der Wahrheit schaden.
Auch interessant:








