Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Social Media, Facebook Twitter, Smartphone
SOCIALTECH

Content-Moderation in sozialen Netzwerken: Sollten KIs kontrolliert werden?

Marinela Potor
Aktualisiert: 22. Dezember 2020
von Marinela Potor
Sollten KIs auf Social Media kontrolliert werden? (Foto: Pixabay.com / LoboStudioHamburg)
Teilen

Social Media ist der Marktplatz unserer Zeit – leider auch mit allen negativen Folgen von Diskriminierung bis hin zu illegalen Aktivitäten. KI-gesteuerte Content-Moderation soll das verhindern. Bislang mit mäßigem Erfolg. Eine Forschergruppe hat nun vorgeschlagen, KIs auf Social Media regelmäßig zu kontrollieren. 

Die einen hassen sie, die anderen können nicht ohne sie: soziale Netzwerke. Doch egal, wie man zu Facebook, Tik Tok & Co steht: Die Welt tauscht sich auf Social-Media-Plattformen aus.

Das reicht von Tanzanleitungen über Fitness-Tipps bis hin zu politischen Diskussionen. Die Dimensionen sind enorm. Im Jahr 2018 nutzte alle elf Sekunden jemand zum ersten Mal Social Media. Heute sind 3,8 Milliarden Menschen weltweit auf mindestens einem sozialen Netzwerk aktiv.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Die Anzahl von Posts ist entsprechend hoch – und menschliche Moderatoren kommen mit der Kontrolle kaum noch hinterher. Denn, das ist die Schattenseite von Social Media, hier tummeln sich auch viele beleidigende, diskriminierende oder auch schlicht illegale Inhalte.

Automated Content-Moderation soll unerwünschte Inhalte filtern

Um daher dafür zu sorgen, dass die Normen und Gesetze auf den Plattformen gewahrt werden, setzen viele Netzwerke Künstliche Intelligenz (KI) ein. Selbstlernende Algorithmen werden so programmiert, dass sie gefährliche oder verbotene Inhalte erkennen und entsprechend entfernen können.

Doch Automated Content-Moderation ist auch problematisch. Sie kann zwar große Mengen an Inhalten bewältigen. Doch die Entscheidungen, die die Algorithmen dabei treffen, sind nicht immer fair und sehr selten für Nutzer oder auch Gesetzgeber transparent.

Warum wurde ein Post gelöscht? Was war an dem Foto problematisch? Wie entscheidet eine KI, welche Inhalte sie herausfiltert? All das sind Fragen, über die die Social-Media-Plattformen die Öffentlichkeit im Dunkeln halten – teilweise auch bewusst.

Denn viele große Plattformen befürchten, dass sie durch Offenlegung ihrer Algorithmen Betriebsgeheimnisse freigeben.

Initiative fordert mehr Transparenz und Offenheit

Daher hat sich die Initiative „Ethics of Digitalisation“ zusammengetan, um Vorschläge für eine fairere und transparentere Automated Content-Moderation zu machen.

Hinter dem Projekt steckt das Global Network of Internet and Society Research Centers (NoC) unter der Schirmherrschaft von Bundespräsident Frank-Walter Steinmeier. Die Stiftung Mercator finanziert das Projekt.

Nun hat die Initiative erste Vorschläge veröffentlicht, wie die KI-gesteuerte Moderation auf Social Media offener gestaltet werden kann. Generell sind die Wissenschaftler der Meinung, dass KIs in sozialen Netzwerken bislang noch nicht sonderlich sauber arbeiten und auch problematisch sein können.

Content-Moderation per KI nicht so smart wie viele glauben

Je nach Plattform kann es zum Beispiel sein, dass Automated Content-Moderation dafür sorgt, dass viel zu viele Inhalte oder viel zu wenige gelöscht werden. Denn KIs haben bislang noch große Schwächen, wenn es darum geht, menschliche Posts richtig einzuordnen.

Nach Meinung der Initiative liegt das daran, dass smarte Algorithmen oftmals nur auf bestimmte Keywords achten, aber nicht unbedingt den Kontext eines Posts erkennen. Das führt beispielsweise dazu, dass ein Algorithmus ein Slang-Wort oder einen Regionalismus als Beleidigung auffasst, obwohl es nicht so gemeint war.

Zudem können Nutzer gezielt bestimmte Begriffe vermeiden und trotzdem illegale oder beleidigende Inhalte posten. Darüber hinaus fällt es den Algorithmen schwer, Inhalte auf Memes oder in GIFs zu interpretieren, sodass auch hier die Moderation eher mäßig ausfällt.

Gleichzeitig ist es manchmal auch einfach schwierig, eine genaue Trennlinie zwischen Hassrede und Meinungsfreiheit zu ziehen.

Die Forschungsinitiative hat nun darum in ihren ersten drei Briefings Vorschläge zusammengetragen, die Plattform-Betreiber für die Gestaltung ihrer Automated Content-Moderation stärker in die Verantwortung nimmt.

Mehr Transparenz für Nutzer

Wer oft auf Social Media unterwegs ist, hat es sicher schon erlebt: Posts verschwinden manchmal aus unerklärlichen Gründen. Wer hat sie entfernt – und warum? War es ein menschlicher Moderator oder ein automatisierter Vorgang?

Oftmals wissen betroffene User gar nicht, wo das Problem lag.

Das muss sich ändern, sagen die Forscher in ihrem Briefing. Wenn ein Post entfernt wird, sollten die Nutzer klar über die Hintergründe informiert werden und auch erfahren, ob es eine automatisierte Löschung war. Je besser Nutzer die Algorithmen verstehen, desto eher können sie sich auch an die gegebenen Normen halten.

Nutzer müssen sich beschweren können

Aufgrund der hohen Fehlerquote von Algorithmen beim Moderieren von Inhalten, muss es dann aber im Folgeschritt für Nutzer auch eine schnelle und vor allem effektive Ansprechstelle geben, an die sie Rückfragen oder Beschwerden einreichen können.

Einige soziale Netzwerke bieten zwar eine Kontaktmöglichkeit. Häufig sind die Reaktionen aber langsam oder die Nutzer bekommen gar keine Antwort. Auch das sei nicht im Sinne der Transparenz, beklagen die Forscher.

Unternehmen sollten offener sein

Die Wissenschaftler kritisieren ebenfalls, dass die Mechanismen der Algorithmen sehr undurchsichtig seien. Es gebe zwar einige Unternehmen, wie etwa Microsoft oder auch die Stadt Amsterdam, die ihre Daten in einem Open-Data-Programm mit der Öffentlichkeit teilen.

Ein solcher Austausch beruht aber bislang auf Freiwilligkeit. Entsprechend wenige Unternehmen zeigen darum offen, nach welchen Kriterien ihre Algorithmen Inhalte moderieren.

Gleichzeitig sperren sich viele Unternehmen davor, Wissenschaftlern Einblicke in die Funktionsweise der Algorithmen zu erlauben. Die vierteljährlichen Transparenz-Berichte sind oftmals zu allgemein. Auch fehlen allgemeine Standards, sodass die Daten nicht unbedingt vergleichbar sind.

Algorithmen von außen prüfen

Für die Forscher ist daher klar: Die Inhalte müssen nicht nur transparenter sein. Sie sollten auch regelmäßig von unabhängiger sowie wissenschaftlicher Stelle geprüft werden.

Ähnlich wie bei den Datenschutzprüfungen unter der DSGVO sollte dies auch für Automated Content-Moderation möglich sein.

Das könne zum Beispiel durch eine externe internationale Prüfungskommission geschehen, die sicherstellt, dass Unternehmen bei ihrer Content-Moderation Gesetze einhalten oder auch nicht (unbeabsichtigt) Vorurteile in die KIs programmiert haben.

Ihrer Meinung nach sei es möglich, Wissenschaftlern und Behörden Zugang zu den Algorithmen zu verschaffen, ohne Betriebsgeheimnisse offenzulegen.

Damit könnten Unternehmen sich auch nicht mehr hinter der Unkontrollierbarkeit von KI verstecken, sondern müssten Verantwortung für die Funktionsweise ihrer Algorithmen übernehmen.

Diese Prüfungskommission müsste natürlich unabhängig von den Unternehmen beauftragt und finanziert sein und das entsprechende technische Know-how mitbringen.

Da sich die wenigsten Unternehmen solchen Prüfungen freiwillig unterziehen würden, müssten solche Prüfungen gesetzlich vorgeschrieben sein. Damit, so hoffen die Forscher, könnte Automated Content-Moderation transparenter, verständlicher und ethisch verantwortungsvoller sein.

Auch interessant:

  • Künstliche Intelligenz: Wie bringt man einer KI das Vergessen bei?
  • Algorithmen in der Bewerbung: Automatische Absagen und unsichtbare Harvard-Absolventen
  • Transparenzbericht: So oft gibt Apple die Daten seiner Nutzer heraus
  • Töten medizinische Algorithmen Patienten? Studie zeigt Gefahr von rassistischen Formeln
BASIC thinking WhatsApp Kanal
STELLENANZEIGEN
Social Media Manager (m/w/d)
Digital Beat GmbH in Köln
Mitarbeiter*in Rezeption & Social Media (...
Magni Deutschland GmbH in Dülmen
Social Media Manager / Mediengestalter (m/w/d)
Ganzheitliche Energiekonzepte Gmb... in Villingen-Sc...
Social Media Manager – Content / Instag...
Filu GmbH in München
Content Manager (all gender)
TUI Cruises GmbH in Hamburg
Chief Editor Content Creation & Content M...
Daimler Buses GmbH in Neu-Ulm
Content Creator (w/m/d)
Schafferer & Co. KG in Freiburg im Breisgau
Senior E-Commerce Manager (m/w/d) Amazon/Shopify
MT.DERM GmbH in Berlin-Lichtenrade
THEMEN:AlgorithmusKünstliche IntelligenzWissenschaft
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonMarinela Potor
Folgen:
Marinela Potor ist Journalistin mit einer Leidenschaft für alles, was mobil ist. Sie selbst pendelt regelmäßig vorwiegend zwischen Europa, Südamerika und den USA hin und her und berichtet über Mobilitäts- und Technologietrends aus der ganzen Welt.
WA Kanal AirPods Square
EMPFEHLUNG
Strom-Wechselservice Wechselpilot-2
Strom-Wechselservice: Was bringt dir der Service wirklich?
Anzeige MONEY
PŸUR Black Friday
Black Friday bei PŸUR: Highspeed-Internet zu echten Dauertiefpreisen sichern
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

KI-Modus Quellen Deutschland Google AI Mode
TECH

KI-Modus von Google: Die Top-Quellen in Deutschland

Powerness
AnzeigeTECH

Zukunftssicher und flexibel: Solarstrom-Angebote mit Power Dock von Powerness

Google Milliarden Deutschland Rechenzentren Cloud
BREAK/THE NEWSMONEY

Google-Milliarden für Deutschland: Souveränität sieht anders aus

CRM mit Exit-Strategie
AnzeigeTECH

CRM mit Exit-Strategie: Wie Banken regulatorische Anforderungen erfüllen – und flexibel bleiben

50-MW-Windturbine
GREENTECH

China plant zweiköpfiges Windrad – eines der größten der Welt

Vodafone Black Week
AnzeigeTECH

Vodafone Black Week: iPhone 17 Pro für 1 Euro & AirPods 4 gratis

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Die besten Tech-Deals: Folge unserem WhatsApp-Kanal & gewinne AirPods Pro 3

BASIC thinking TECH-DEALS WhatsApp QR-Code

AGB gelten: bscthnkng.de/agbwa

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?