Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
KI, Roboter, Rassismus, Sexismus, Künstliche Intelligenz
TECH

Künstliche Intelligenz kann rassistische und sexistische Vorurteile haben

Beatrice Bode
Aktualisiert: 29. Juni 2022
von Beatrice Bode
pexels.com/Tara Winstead
Teilen

Forschende in den USA haben mithilfe einer Studie offenbart, dass eine Künstliche Intelligenz (KI) rassistische und sexistische Vorurteile haben kann. Der untersuchte Roboter war dabei mit einem gängigen Modell des Maschinellen Lernens ausgestattet.

Männer sind besser als Frauen und Weiße sind besser als People of Color. Zu diesem Entschluss kam ein Roboter, der mit einer fehlerhaften KI ausgestattet ist. Das belegt eine Studie von Forschenden des Georgia Institute of Technology. Neben den rassistischen und sexistischen Vorurteilen schrieb der Roboter menschlichen Gesichtern zudem stereotypische Berufe zu.

Künstliche Intelligenz bevorzugt weiße Männer

Das Forschungsteam die Vorurteile des Roboters an einem neuronalen Netzwerk namens CLIP nachgewiesen. Dieses System vergleicht Bilder mit Bildunterschriften. CLIP hilft Maschinen dabei, Objekte zu „sehen“ und sie mit Namen zu identifizieren.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Der Roboter hatte im Verlauf der Studie die Aufgabe, blockförmige Objekte in eine Schachtel zu legen. Dabei waren die Blöcke mit verschiedenen menschlichen Gesichtern bebildert. Das Team gab dem Roboter daraufhin 62 Befehle, nach denen er die Blöcke sortieren musste.

Er sollte beispielsweise unter den menschlichen Gesichtern Ärzte, Hausfrauen oder auch Kriminelle auswählen und sie in eine bestimmte Schachtel packen. Die Entscheidungen des Roboters zeigten, dass die KI nicht in der Lage war, ohne signifikante Stereotype zu agieren.

Zum Beispiel wählte sie acht Prozent häufiger Männer aus und bevorzugte vor allem weiße und asiatische Personen. Am seltensten wählte der Roboter schwarze weibliche People of Color aus. Außerdem wurden PoC-Männer zehn Prozent häufiger als Kriminelle identifiziert als weiße. Männliche Latinos wurden wiederum zehn Prozent häufiger als Hausmeister vermutet als kaukasische Männer.

Wieso ist die KI so fehlerhaft?

CLIP ist ein allgemein akzeptiertes und weit verbreitetes Modell des Maschinellen Lernens. Das System greift dabei auf riesige Datensätze zurück, die kostenlos im Internet zur Verfügung stehen.

Das Netz ist jedoch berüchtigt für ungenaue und offenkundig voreingenommene Inhalte. Das bedeute, dass Algorithmen, die mit diesen Datensätzen erstellt werden, mit denselben Problemen behaftet sein können.

Die von Robotern genutzten KIs verlassen sich dabei auf diese neuronalen Netze, um zu lernen, wie sie Objekte erkennen und mit der Welt interagieren können.

KI: Forschende befürchten rassistische Roboter-Generation

Dem Forschungsteam zufolge liefern die Ergebnisse der Studie Grund zur Sorge. „Der Roboter hat durch diese fehlerhaften neuronalen Netzwerkmodelle toxische Stereotypen erlernt“, sagt Studien-Autor Andrew Hundt.

Nach Auffassung der Wissenschaftler:innen hätte die KI niemanden für einen bestimmten Beruf auswählen dürfen, da dieser nicht am Gesicht eines Menschen ablesbar ist. Auch dürfe niemand aufgrund seiner Erscheinung als kriminell eingestuft werden.

Kommerzialisierung als Grund für fehlerhafte Künstliche Intelligenz

Die Forschenden sind von ihrem Studienergebnis trotz allem nicht überrascht. Unternehmen würden sich einen Wettlauf um die Kommerzialisierung der Robotik liefern. Im Zuge dessen werden fehlerhafte KIs durchaus akzeptiert.

„Wir laufen Gefahr, eine Generation von rassistischen und sexistischen Robotern zu schaffen, aber Menschen und Organisationen haben beschlossen, dass es in Ordnung ist, diese Produkte zu entwickeln, ohne sich mit den Problemen auseinanderzusetzen“, so Hundt.

Systematische Änderung der Forschung an KIs erforderlich

Um künftig zu verhindern, dass Maschinen diese menschlichen Stereotypen übernehmen und nachbilden, müsse die Forschung nach Ansicht des Teams systematisch geändert werden. Auch Geschäftspraktiken müssten überarbeitet und angepasst werden.

Dass Künstliche Intelligenzen durchaus mit rassistischen Vorurteilen arbeiten, hat sich in der Vergangenheit bereits an anderen Systemen gezeigt. Im Oktober 2021 beispielsweise hatte Google aufgrund von Rasissmus-Vorwürfen ein Update seiner Bildersuche veranlasst.

Auch interessant: 

  • Menschenartige Roboterhaut: Maschinen werden uns immer ähnlicher
  • In dieser französischen Pizzeria backt ein Roboter die Pizza
  • Ist der Algorithmus der Google-Bildersuche rassistisch?
  • Warum Disney rassistische Filme nicht löscht, sondern nur mit einem Hinweis versieht 

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Digital Marketing Analytics Specialist*in (w/...
TÜV Rheinland Group in Köln
Referent Unternehmenskommunikation (m/w/d) mi...
AWB Abfallwirtschaftsbetriebe Köln GmbH in Köln
Junior Content Writer (m/w/d)
Wirtgen International GmbH in Windhagen
(Senior) Paid Social Media Manager (m/w/d)
emetriq GmbH in Hamburg, Hamburg, Deutschland
Praktikant (w/m/d) Online-Marketing mit Schwe...
Drees & Sommer SE in Stuttgart
Director (m/w/d) Digital Media & Planning
emetriq GmbH in Hamburg, Hamburg, Deutschland
Praktikant/ Werkstudent (m/w/d) im Bereich So...
WESTFLEISCH SCE mbH in Münster
Fachreferent/-in Kommunikation – Social...
RAG Aktiengesellschaft in Essen
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonBeatrice Bode
Folgen:
Beatrice ist Multi-Media-Profi. Ihr Studium der Kommunikations - und Medienwissenschaften führte sie über Umwege zum Regionalsender Leipzig Fernsehen, wo sie als CvD, Moderatorin und VJ ihre TV-Karriere begann. Mittlerweile hat sie allerdings ihre Sachen gepackt und reist von Land zu Land. Von unterwegs schreibt sie als Autorin für BASIC thinking.
EMPFEHLUNG
Vodafone Business
Vodafone Business-Kracher: Doppeltes Datenvolumen + 10 GB pro Monat
Anzeige TECH
naturstrom smartapp
Smart Charging: Schnell und einfach E-Auto laden mit der naturstrom smartapp
Anzeige GREEN
goneo eigener Chatserver-2
goneo: Dein eigener Chatserver für Teams, Familie & Freunde
Anzeige TECH
PITAKA Hüllen Galaxy Z Fold7
Schlank, robust, smart: Die neuen Hüllen von PITAKA für das Galaxy Z Fold7 und Flip7
Anzeige TECH
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

KI Arzt Arztpraxis Künstliche Intelligenz Gesundheitssystem
BREAK/THE NEWSTECH

Geht eine KI zum Arzt, Diagnose: Algorithmusstörungen

KI im Job
AnzeigeTECH

Digitale Grundkompetenz: Warum Künstliche Intelligenz jetzt dazugehört

Zinn-Perowskit-Solarzellen, Nachhaltigkeit, Forschung, Wissenschaft, Solarenergie, Klima
GREENTECH

Zinn-Perowskit-Solarzellen: Forscher erhöhen Wirkungsgrad

Roboter Schulwege Verkehr KI
TECH

Humanoider Roboter soll Schulwege mit KI sicherer machen

KI-Tool Deepfakes erkennen Fake-Videos erkennen Künstliche Intelligenz UNITE
TECH

Neues KI-Tool soll Deepfakes erkennen – zuverlässiger als je zuvor

Flaggen EU Länder Wind Himmel Deutschland Dänemark Italien Griechenland
MONEYTECH

Digitalisierung: Diese EU-Länder schneiden am besten ab

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

UPDATE abonnieren & mit etwas Glück AirPods gewinnen!

Airpods 4 Apple
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?