Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Social Media, Facebook Twitter, Smartphone
SOCIALTECH

Content-Moderation in sozialen Netzwerken: Sollten KIs kontrolliert werden?

Marinela Potor
Aktualisiert: 22. Dezember 2020
von Marinela Potor
Sollten KIs auf Social Media kontrolliert werden? (Foto: Pixabay.com / LoboStudioHamburg)
Teilen

Social Media ist der Marktplatz unserer Zeit – leider auch mit allen negativen Folgen von Diskriminierung bis hin zu illegalen Aktivitäten. KI-gesteuerte Content-Moderation soll das verhindern. Bislang mit mäßigem Erfolg. Eine Forschergruppe hat nun vorgeschlagen, KIs auf Social Media regelmäßig zu kontrollieren. 

Die einen hassen sie, die anderen können nicht ohne sie: soziale Netzwerke. Doch egal, wie man zu Facebook, Tik Tok & Co steht: Die Welt tauscht sich auf Social-Media-Plattformen aus.

Das reicht von Tanzanleitungen über Fitness-Tipps bis hin zu politischen Diskussionen. Die Dimensionen sind enorm. Im Jahr 2018 nutzte alle elf Sekunden jemand zum ersten Mal Social Media. Heute sind 3,8 Milliarden Menschen weltweit auf mindestens einem sozialen Netzwerk aktiv.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Sonos Era 100 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Die Anzahl von Posts ist entsprechend hoch – und menschliche Moderatoren kommen mit der Kontrolle kaum noch hinterher. Denn, das ist die Schattenseite von Social Media, hier tummeln sich auch viele beleidigende, diskriminierende oder auch schlicht illegale Inhalte.

Automated Content-Moderation soll unerwünschte Inhalte filtern

Um daher dafür zu sorgen, dass die Normen und Gesetze auf den Plattformen gewahrt werden, setzen viele Netzwerke Künstliche Intelligenz (KI) ein. Selbstlernende Algorithmen werden so programmiert, dass sie gefährliche oder verbotene Inhalte erkennen und entsprechend entfernen können.

Doch Automated Content-Moderation ist auch problematisch. Sie kann zwar große Mengen an Inhalten bewältigen. Doch die Entscheidungen, die die Algorithmen dabei treffen, sind nicht immer fair und sehr selten für Nutzer oder auch Gesetzgeber transparent.

Warum wurde ein Post gelöscht? Was war an dem Foto problematisch? Wie entscheidet eine KI, welche Inhalte sie herausfiltert? All das sind Fragen, über die die Social-Media-Plattformen die Öffentlichkeit im Dunkeln halten – teilweise auch bewusst.

Denn viele große Plattformen befürchten, dass sie durch Offenlegung ihrer Algorithmen Betriebsgeheimnisse freigeben.

Initiative fordert mehr Transparenz und Offenheit

Daher hat sich die Initiative „Ethics of Digitalisation“ zusammengetan, um Vorschläge für eine fairere und transparentere Automated Content-Moderation zu machen.

Hinter dem Projekt steckt das Global Network of Internet and Society Research Centers (NoC) unter der Schirmherrschaft von Bundespräsident Frank-Walter Steinmeier. Die Stiftung Mercator finanziert das Projekt.

Nun hat die Initiative erste Vorschläge veröffentlicht, wie die KI-gesteuerte Moderation auf Social Media offener gestaltet werden kann. Generell sind die Wissenschaftler der Meinung, dass KIs in sozialen Netzwerken bislang noch nicht sonderlich sauber arbeiten und auch problematisch sein können.

Content-Moderation per KI nicht so smart wie viele glauben

Je nach Plattform kann es zum Beispiel sein, dass Automated Content-Moderation dafür sorgt, dass viel zu viele Inhalte oder viel zu wenige gelöscht werden. Denn KIs haben bislang noch große Schwächen, wenn es darum geht, menschliche Posts richtig einzuordnen.

Nach Meinung der Initiative liegt das daran, dass smarte Algorithmen oftmals nur auf bestimmte Keywords achten, aber nicht unbedingt den Kontext eines Posts erkennen. Das führt beispielsweise dazu, dass ein Algorithmus ein Slang-Wort oder einen Regionalismus als Beleidigung auffasst, obwohl es nicht so gemeint war.

Zudem können Nutzer gezielt bestimmte Begriffe vermeiden und trotzdem illegale oder beleidigende Inhalte posten. Darüber hinaus fällt es den Algorithmen schwer, Inhalte auf Memes oder in GIFs zu interpretieren, sodass auch hier die Moderation eher mäßig ausfällt.

Gleichzeitig ist es manchmal auch einfach schwierig, eine genaue Trennlinie zwischen Hassrede und Meinungsfreiheit zu ziehen.

Die Forschungsinitiative hat nun darum in ihren ersten drei Briefings Vorschläge zusammengetragen, die Plattform-Betreiber für die Gestaltung ihrer Automated Content-Moderation stärker in die Verantwortung nimmt.

Mehr Transparenz für Nutzer

Wer oft auf Social Media unterwegs ist, hat es sicher schon erlebt: Posts verschwinden manchmal aus unerklärlichen Gründen. Wer hat sie entfernt – und warum? War es ein menschlicher Moderator oder ein automatisierter Vorgang?

Oftmals wissen betroffene User gar nicht, wo das Problem lag.

Das muss sich ändern, sagen die Forscher in ihrem Briefing. Wenn ein Post entfernt wird, sollten die Nutzer klar über die Hintergründe informiert werden und auch erfahren, ob es eine automatisierte Löschung war. Je besser Nutzer die Algorithmen verstehen, desto eher können sie sich auch an die gegebenen Normen halten.

Nutzer müssen sich beschweren können

Aufgrund der hohen Fehlerquote von Algorithmen beim Moderieren von Inhalten, muss es dann aber im Folgeschritt für Nutzer auch eine schnelle und vor allem effektive Ansprechstelle geben, an die sie Rückfragen oder Beschwerden einreichen können.

Einige soziale Netzwerke bieten zwar eine Kontaktmöglichkeit. Häufig sind die Reaktionen aber langsam oder die Nutzer bekommen gar keine Antwort. Auch das sei nicht im Sinne der Transparenz, beklagen die Forscher.

Unternehmen sollten offener sein

Die Wissenschaftler kritisieren ebenfalls, dass die Mechanismen der Algorithmen sehr undurchsichtig seien. Es gebe zwar einige Unternehmen, wie etwa Microsoft oder auch die Stadt Amsterdam, die ihre Daten in einem Open-Data-Programm mit der Öffentlichkeit teilen.

Ein solcher Austausch beruht aber bislang auf Freiwilligkeit. Entsprechend wenige Unternehmen zeigen darum offen, nach welchen Kriterien ihre Algorithmen Inhalte moderieren.

Gleichzeitig sperren sich viele Unternehmen davor, Wissenschaftlern Einblicke in die Funktionsweise der Algorithmen zu erlauben. Die vierteljährlichen Transparenz-Berichte sind oftmals zu allgemein. Auch fehlen allgemeine Standards, sodass die Daten nicht unbedingt vergleichbar sind.

Algorithmen von außen prüfen

Für die Forscher ist daher klar: Die Inhalte müssen nicht nur transparenter sein. Sie sollten auch regelmäßig von unabhängiger sowie wissenschaftlicher Stelle geprüft werden.

Ähnlich wie bei den Datenschutzprüfungen unter der DSGVO sollte dies auch für Automated Content-Moderation möglich sein.

Das könne zum Beispiel durch eine externe internationale Prüfungskommission geschehen, die sicherstellt, dass Unternehmen bei ihrer Content-Moderation Gesetze einhalten oder auch nicht (unbeabsichtigt) Vorurteile in die KIs programmiert haben.

Ihrer Meinung nach sei es möglich, Wissenschaftlern und Behörden Zugang zu den Algorithmen zu verschaffen, ohne Betriebsgeheimnisse offenzulegen.

Damit könnten Unternehmen sich auch nicht mehr hinter der Unkontrollierbarkeit von KI verstecken, sondern müssten Verantwortung für die Funktionsweise ihrer Algorithmen übernehmen.

Diese Prüfungskommission müsste natürlich unabhängig von den Unternehmen beauftragt und finanziert sein und das entsprechende technische Know-how mitbringen.

Da sich die wenigsten Unternehmen solchen Prüfungen freiwillig unterziehen würden, müssten solche Prüfungen gesetzlich vorgeschrieben sein. Damit, so hoffen die Forscher, könnte Automated Content-Moderation transparenter, verständlicher und ethisch verantwortungsvoller sein.

Auch interessant:

  • Künstliche Intelligenz: Wie bringt man einer KI das Vergessen bei?
  • Algorithmen in der Bewerbung: Automatische Absagen und unsichtbare Harvard-Absolventen
  • Transparenzbericht: So oft gibt Apple die Daten seiner Nutzer heraus
  • Töten medizinische Algorithmen Patienten? Studie zeigt Gefahr von rassistischen Formeln

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Data Platform Team Lead (all genders) | Berli...
Aroundhome in Berlin
Referent PR & Social Media (m/w/d)
Bayerischer Landes-Sportverband e.V. in München
Senior Social Media Manager – DACH (m/w/d)
Apollo-Optik Holding GmbH & Co. KG in Schwabach
Praktikum im Bereich Kommunikation, PR und Co...
Daimler Truck AG in Leinfelden-Echterdingen
Werkstudent | Online Marketing | Mid & Up...
Otto GmbH & Co. KGaA in Hamburg
Creative Campaign & Content Manager (m/w/d)
bittl Schuhe + Sport GmbH in München
IT-Systemingenieur/in (m/w/d)
DeutschlandRadio KdÖR in Köln
Werkstudent:in Content & Social Media Man...
consultingheads GmbH in Köln
THEMEN:AlgorithmusKünstliche IntelligenzWissenschaft
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonMarinela Potor
Folgen:
Marinela Potor ist Journalistin mit einer Leidenschaft für alles, was mobil ist. Sie selbst pendelt regelmäßig vorwiegend zwischen Europa, Südamerika und den USA hin und her und berichtet über Mobilitäts- und Technologietrends aus der ganzen Welt.
EMPFEHLUNG
PŸUR BLACK SALE 2025
BLÄCK SALE bei PŸUR: Schnelles Internet für Zuhause – jetzt schon zum Black-Friday-Preis!
Anzeige TECH
American Express Gold Card
American Express: Höchstes Startguthaben und Membership Rewards Punkte seit Jahren!
Anzeige MONEY
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Sandbatterie
GREENTECH

Die weltweit größte Sandbatterie speichert Wärmeenergie

Ein Zeichnung eines Pferderennens, das die KI-Strategie von Microsoft symobilisiert.
BREAK/THE NEWSTECH

Microsofts KI-Strategie: Unbemerkt zum Big Player

Wellenenergie, Wellenkraft, Erneuerbare Energien, Eco Wave Power, Nachhaltigkeit, Klima, Klimawandel, Klimaziele, Strom
GREENTECH

Wellenenergie: Bojen könnten Strom für Millionen Menschen erzeugen

Ein Roboter schreibt liest einen journalistischen Text.
BREAK/THE NEWSTECH

KI-Journalismus: Wenn der Moderator vom Avatar ersetzt wird

E-Autos Autobahn Elektroauto Elektromobilität Verbrauch
GREENTECH

Warum E-Autos auf der Autobahn mehr Energie verbrauchen

begrünte Dachflächen Solaranlagen Solarenergie PV-Anlage Erneuerbare Energien
GREENTECH

Doppelnutzung: Begrünte Dachflächen mit Solaranlagen

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück SONOS gewinnen!

Sonos Era 100 Smart Speaker
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?