Technologie

KI in der Schule: Forscher warnen vor Diskriminierung

KI Schule, KI, Schule, Künstliche Intelligenz, Bildungssystem
Adobe Stock / WavebreakMediaMicro
geschrieben von Maria Gramsch

Künstliche Intelligenz findet bereits in vielen Bereichen des täglichen Lebens Anwendung. Doch laut einer neuen Studie könnte der Einsatz von KI in der Schule zur Diskriminierung von Schülern führen.

Künstliche Intelligenz wird vermehr auch im Bildungsbereich eingesetzt. Doch eine Studie, die im Auftrag der niederländischen Regierung durchgeführt wurde, warnt nun vor Diskriminierung.

Denn laut den Ergebnissen könne der Einsatz von Algorithmen in der Bildungstechnologie zur Benachteiligung bestimmter Gruppen führen. Die Studie weist darauf hin, dass Lernsysteme, die KI nutzen, bestimmte Schüler:innen benachteiligen können, obwohl sie ihnen eigentlich personalisiert Bildungsinhalte bieten sollen.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Social Media Manager (m/w/d) in der Nähe von Rosenheim
Schön Klinik Vogtareuth GmbH & Co. KG in Vogtareuth
Social Media Advertising Manager (w/m/d)
dm-drogerie markt GmbH + Co. KG in Karlsruhe, hybrid

Alle Stellenanzeigen


Benachteiligung durch KI in der Schule

Die Forschenden haben für ihre Studie untersucht, welchen Einsatz Algorithmen in der Grundschule sowie in höheren Bildungsbereichen finden. Demnach nutzen viele Schulen in den Niederlanden adaptive Lernsysteme, die ihre Übungen automatisch an die Leistungen der Schüler:innen anpassen.

Diese Lernsysteme sind darauf ausgelegt, Schüler:innen gezielt zu unterstützen. Sind diese Systeme allerdings schlecht konzipiert, sei es möglich, bestehende Vorurteile zu verstärken.

„Leider spielen Vorurteile gegenüber bestimmten Schülergruppen im Bildungswesen bereits eine Rolle“, heißt es in dem Bericht des Niederländischen Instituts für Menschenrechte aus dem die NL Times zitiert. Schüler:innen aus einkommensschwachen Familien oder deren Eltern oder Großeltern in die Niederlande eingewandert sind werden demnach niedrigere Schulempfehlungen ausgesprochen – unabhängig von ihren Testergebnissen.

Um dieses Problem zu beheben und die Ungleichheiten nicht weiter zu verstärken, müsse man die Systeme „rigoros an unterschiedlichen Schülerpopulationen“ testen.

KI-Systeme schätzen Lernstile falsch ein

Problematisch sei auch die Einschätzung der Lernstile von einzelnen Schüler:innen, wenn diese von der Norm abweichen. Die Systeme stufe Kinder mit Aufmerksamkeitsdefiziten oder Legasthenie falsch ein und könne es so in seinem Fortschritt behindern.

„Jeder Schüler hat das Recht, sich zu entwickeln und in der Bildung gleich behandelt zu werden“, heißt es in dem Bericht. Dafür sei es besonders wichtig, die Implementierung von KI-gestützten Lernsystemen kritisch zu bewerten.

Schulen müssen und können den Softwareanbietern Anforderungen in den Bereichen Gleichbehandlung, Datenschutz, Autonomie und Transparenz auferlegen.

Aber nicht nur die Schulen seien dabei gefragt. Das Niederländische Institut für Menschenrechte nimmt auch die Politik in die Verantwortung. Diese müsse eine aktivere Rolle in diesem Prozess spielen und klare Standards für Entwickler:innen von Bildungssoftware festlegen.

Auch interessiert:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.