Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Social Media, Facebook Twitter, Smartphone
SOCIALTECH

Content-Moderation in sozialen Netzwerken: Sollten KIs kontrolliert werden?

Marinela Potor
Aktualisiert: 22. Dezember 2020
von Marinela Potor
Sollten KIs auf Social Media kontrolliert werden? (Foto: Pixabay.com / LoboStudioHamburg)
Teilen

Social Media ist der Marktplatz unserer Zeit – leider auch mit allen negativen Folgen von Diskriminierung bis hin zu illegalen Aktivitäten. KI-gesteuerte Content-Moderation soll das verhindern. Bislang mit mäßigem Erfolg. Eine Forschergruppe hat nun vorgeschlagen, KIs auf Social Media regelmäßig zu kontrollieren. 

Die einen hassen sie, die anderen können nicht ohne sie: soziale Netzwerke. Doch egal, wie man zu Facebook, Tik Tok & Co steht: Die Welt tauscht sich auf Social-Media-Plattformen aus.

Das reicht von Tanzanleitungen über Fitness-Tipps bis hin zu politischen Diskussionen. Die Dimensionen sind enorm. Im Jahr 2018 nutzte alle elf Sekunden jemand zum ersten Mal Social Media. Heute sind 3,8 Milliarden Menschen weltweit auf mindestens einem sozialen Netzwerk aktiv.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 100€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Die Anzahl von Posts ist entsprechend hoch – und menschliche Moderatoren kommen mit der Kontrolle kaum noch hinterher. Denn, das ist die Schattenseite von Social Media, hier tummeln sich auch viele beleidigende, diskriminierende oder auch schlicht illegale Inhalte.

Automated Content-Moderation soll unerwünschte Inhalte filtern

Um daher dafür zu sorgen, dass die Normen und Gesetze auf den Plattformen gewahrt werden, setzen viele Netzwerke Künstliche Intelligenz (KI) ein. Selbstlernende Algorithmen werden so programmiert, dass sie gefährliche oder verbotene Inhalte erkennen und entsprechend entfernen können.

Doch Automated Content-Moderation ist auch problematisch. Sie kann zwar große Mengen an Inhalten bewältigen. Doch die Entscheidungen, die die Algorithmen dabei treffen, sind nicht immer fair und sehr selten für Nutzer oder auch Gesetzgeber transparent.

Warum wurde ein Post gelöscht? Was war an dem Foto problematisch? Wie entscheidet eine KI, welche Inhalte sie herausfiltert? All das sind Fragen, über die die Social-Media-Plattformen die Öffentlichkeit im Dunkeln halten – teilweise auch bewusst.

Denn viele große Plattformen befürchten, dass sie durch Offenlegung ihrer Algorithmen Betriebsgeheimnisse freigeben.

Initiative fordert mehr Transparenz und Offenheit

Daher hat sich die Initiative „Ethics of Digitalisation“ zusammengetan, um Vorschläge für eine fairere und transparentere Automated Content-Moderation zu machen.

Hinter dem Projekt steckt das Global Network of Internet and Society Research Centers (NoC) unter der Schirmherrschaft von Bundespräsident Frank-Walter Steinmeier. Die Stiftung Mercator finanziert das Projekt.

Nun hat die Initiative erste Vorschläge veröffentlicht, wie die KI-gesteuerte Moderation auf Social Media offener gestaltet werden kann. Generell sind die Wissenschaftler der Meinung, dass KIs in sozialen Netzwerken bislang noch nicht sonderlich sauber arbeiten und auch problematisch sein können.

Content-Moderation per KI nicht so smart wie viele glauben

Je nach Plattform kann es zum Beispiel sein, dass Automated Content-Moderation dafür sorgt, dass viel zu viele Inhalte oder viel zu wenige gelöscht werden. Denn KIs haben bislang noch große Schwächen, wenn es darum geht, menschliche Posts richtig einzuordnen.

Nach Meinung der Initiative liegt das daran, dass smarte Algorithmen oftmals nur auf bestimmte Keywords achten, aber nicht unbedingt den Kontext eines Posts erkennen. Das führt beispielsweise dazu, dass ein Algorithmus ein Slang-Wort oder einen Regionalismus als Beleidigung auffasst, obwohl es nicht so gemeint war.

Zudem können Nutzer gezielt bestimmte Begriffe vermeiden und trotzdem illegale oder beleidigende Inhalte posten. Darüber hinaus fällt es den Algorithmen schwer, Inhalte auf Memes oder in GIFs zu interpretieren, sodass auch hier die Moderation eher mäßig ausfällt.

Gleichzeitig ist es manchmal auch einfach schwierig, eine genaue Trennlinie zwischen Hassrede und Meinungsfreiheit zu ziehen.

Die Forschungsinitiative hat nun darum in ihren ersten drei Briefings Vorschläge zusammengetragen, die Plattform-Betreiber für die Gestaltung ihrer Automated Content-Moderation stärker in die Verantwortung nimmt.

Mehr Transparenz für Nutzer

Wer oft auf Social Media unterwegs ist, hat es sicher schon erlebt: Posts verschwinden manchmal aus unerklärlichen Gründen. Wer hat sie entfernt – und warum? War es ein menschlicher Moderator oder ein automatisierter Vorgang?

Oftmals wissen betroffene User gar nicht, wo das Problem lag.

Das muss sich ändern, sagen die Forscher in ihrem Briefing. Wenn ein Post entfernt wird, sollten die Nutzer klar über die Hintergründe informiert werden und auch erfahren, ob es eine automatisierte Löschung war. Je besser Nutzer die Algorithmen verstehen, desto eher können sie sich auch an die gegebenen Normen halten.

Nutzer müssen sich beschweren können

Aufgrund der hohen Fehlerquote von Algorithmen beim Moderieren von Inhalten, muss es dann aber im Folgeschritt für Nutzer auch eine schnelle und vor allem effektive Ansprechstelle geben, an die sie Rückfragen oder Beschwerden einreichen können.

Einige soziale Netzwerke bieten zwar eine Kontaktmöglichkeit. Häufig sind die Reaktionen aber langsam oder die Nutzer bekommen gar keine Antwort. Auch das sei nicht im Sinne der Transparenz, beklagen die Forscher.

Unternehmen sollten offener sein

Die Wissenschaftler kritisieren ebenfalls, dass die Mechanismen der Algorithmen sehr undurchsichtig seien. Es gebe zwar einige Unternehmen, wie etwa Microsoft oder auch die Stadt Amsterdam, die ihre Daten in einem Open-Data-Programm mit der Öffentlichkeit teilen.

Ein solcher Austausch beruht aber bislang auf Freiwilligkeit. Entsprechend wenige Unternehmen zeigen darum offen, nach welchen Kriterien ihre Algorithmen Inhalte moderieren.

Gleichzeitig sperren sich viele Unternehmen davor, Wissenschaftlern Einblicke in die Funktionsweise der Algorithmen zu erlauben. Die vierteljährlichen Transparenz-Berichte sind oftmals zu allgemein. Auch fehlen allgemeine Standards, sodass die Daten nicht unbedingt vergleichbar sind.

Algorithmen von außen prüfen

Für die Forscher ist daher klar: Die Inhalte müssen nicht nur transparenter sein. Sie sollten auch regelmäßig von unabhängiger sowie wissenschaftlicher Stelle geprüft werden.

Ähnlich wie bei den Datenschutzprüfungen unter der DSGVO sollte dies auch für Automated Content-Moderation möglich sein.

Das könne zum Beispiel durch eine externe internationale Prüfungskommission geschehen, die sicherstellt, dass Unternehmen bei ihrer Content-Moderation Gesetze einhalten oder auch nicht (unbeabsichtigt) Vorurteile in die KIs programmiert haben.

Ihrer Meinung nach sei es möglich, Wissenschaftlern und Behörden Zugang zu den Algorithmen zu verschaffen, ohne Betriebsgeheimnisse offenzulegen.

Damit könnten Unternehmen sich auch nicht mehr hinter der Unkontrollierbarkeit von KI verstecken, sondern müssten Verantwortung für die Funktionsweise ihrer Algorithmen übernehmen.

Diese Prüfungskommission müsste natürlich unabhängig von den Unternehmen beauftragt und finanziert sein und das entsprechende technische Know-how mitbringen.

Da sich die wenigsten Unternehmen solchen Prüfungen freiwillig unterziehen würden, müssten solche Prüfungen gesetzlich vorgeschrieben sein. Damit, so hoffen die Forscher, könnte Automated Content-Moderation transparenter, verständlicher und ethisch verantwortungsvoller sein.

Auch interessant:

  • Künstliche Intelligenz: Wie bringt man einer KI das Vergessen bei?
  • Algorithmen in der Bewerbung: Automatische Absagen und unsichtbare Harvard-Absolventen
  • Transparenzbericht: So oft gibt Apple die Daten seiner Nutzer heraus
  • Töten medizinische Algorithmen Patienten? Studie zeigt Gefahr von rassistischen Formeln

Pünktlich zu Weihnachten: 50€ geschenkt bekommen!


Eröffne jetzt dein NIBC Tagesgeldkonto, zahle mindestens 1.000 Euro ein und erhalte mit der Weihnachtsprämie 50 Euro geschenkt. Und obendrauf gibt's noch attraktive 1,75 Prozent Zinsen!


Jetzt 50 Euro sichern!
NIBC
STELLENANZEIGEN
DLP-Security Specialist (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
IT-System Engineer – Endpoint and Privi...
CompuGroup Medical SE & Co. KGaA in Koblenz
Cloud Database Engineer (m/w/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Social Media Manager (f/m/x)
Corsair GmbH in Landshut
Marketing Tech & Content Automation Exper...
MAINGAU Energie GmbH in Obertshausen
Social Media Manager (m/w/d) im Team Kampagne...
Sächsische Lotto-GmbH in Leipzig
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
Content Manager / Redakteur (m/w/d)
Craemer GmbH in Herzebrock-Clarholz
THEMEN:AlgorithmusKünstliche IntelligenzWissenschaft
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonMarinela Potor
Folgen:
Marinela Potor ist Journalistin mit einer Leidenschaft für alles, was mobil ist. Sie selbst pendelt regelmäßig vorwiegend zwischen Europa, Südamerika und den USA hin und her und berichtet über Mobilitäts- und Technologietrends aus der ganzen Welt.
WhatsApp Kanal BASIC thinking Tech-Deals Sidebar
EMPFEHLUNG
ITSM Software aus Deutschland
ITSM Software aus Deutschland: Sicher & souverän für den Mittelstand
Anzeige TECH
Samsung Galaxy S25 Ultra
Android-Special bei o2: Samsung Galaxy S25 Ultra & Tab S10 für nur 7 Euro Anzahlung
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

KI Geothermie
GREENTECH

Geothermie: KI spürt verborgene Energiequellen auf

ChatGPT Social Media, Künstliche Intelligenz, Soziale Medien, LinkedIn, Facebook, Instagram, TikTok
TECH

Einheitsbrei: ChatGPT lässt Social Media-Beiträge alle gleich klingen

KI-Nationalpark
BREAK/THE NEWSGREEN

KI-Nationalpark: Natur- und Artenschutz mithilfe Künstlicher Intelligenz

welock U71
AnzeigeTECH

WELOCK U71 Smart Lock: Fingerabdruck-Türschloss für maximale Sicherheit

Lithium-Luft-Batterie Reichweite Verbrenner E-Auto
GREENTECH

Lithium-Luft-Batterie bringt E-Autos in Reichweite von Verbrennern

Ricardo Tunnissen Baufi
MONEYTECH

Ein Blick auf das Smartphone von Baufi-Chef Ricardo Tunnissen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Tagesgeldkonto eröffnen
50 € geschenkt bekommen

50 Euro

Anzeige

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?