Künstliche Intelligenz soll objektiv sein, doch oft schleichen sich unbewusste Verzerrungen in KI-Modellen ein. Dieses Phänomen wird auch Bias genannt und durch verzerrte oder unausgewogene Trainingsdaten hervorgerufen.
Der Mensch ist von Natur aus voreingenommen, denn Erfahrungen, Erziehung oder Kultur können Einfluss auf unser Denken und unsere Entscheidungen haben. Diese kognitiven Verzerrungen können entweder bewusst oder unbewusst auftreten.
Ähnlich verhält es sich bei Künstlicher Intelligenz, bei der Voreingenommenheit als Bias bezeichnet wird. Doch wie kommt dieses Phänomen zustande und was beutetet Bias genau?
KI: Was bedeutet Bias?
KI-Systeme werden mit großen Mengen Daten trainiert. Doch wenn diese Trainingsdaten unausgewogen sind, kann sich Voreingenommenheit auf Künstliche Intelligenz überspringen. Es entsteht ein sogenannter Bias, der auch als systematische Verzerrungen in den Ergebnissen oder Entscheidungen eines Algorithmus bezeichnet wird.
Das kann beispielsweise dazu führen, dass ein Algorithmus bestimmte Gruppen bevorzugt und andere wiederum benachteiligt. Diskriminierende Entscheidungen, die meist auch bestehende gesellschaftliche Ungleichheiten widerspiegeln oder gar verstärken, können die Folge sein.
Problematisch ist vor allem fehlende Transparenz. Denn während Menschen ihre Voreingenommenheit reflektieren und gegebenenfalls ändern können, bleibt der Bias von KI oft im Verborgenen. Das erschwert die Korrektur, wenn sich Voreingenommenheit erst einmal in ein KI-System eingeschlichen hat.
Aus diesem Grund ist es notwendig, dass Trainingsdaten für KI-Systeme sorgfältig ausgewählt werden. Algorithmen müssen zudem regelmäßig überprüft werden, um das Bias-Risiko zu minimieren.
Welche Ursachen kann KI-Verzerrung haben?
Doch nicht nur voreingenommene Trainingsdaten können zu einem Bias in KI-Systemen führen. Auch fehlerhafte oder unvollständige Datensätze können für Verzerrungen verantwortlich sein. Denn diese können zu falschen Schlussfolgerungen führen.
Die Art und Weise, wie Algorithmen programmiert und optimiert werden, kann ebenfalls unbeabsichtigt bestimmte Gruppen bevorzugen oder benachteiligen. Ausgelöst werden kann das beispielsweise durch einen Mangel an Diversität im Entwicklerteam. Herrschen bereits einseitige Perspektiven in der Entwicklung und Bewertung von KI-Systemen vor, können unbewusste Vorurteile unentdeckt bleiben.
Tritt auch nur eine dieser Ursachen bei der Entwicklung oder beim Training von KI-Systemen auf, kann das schwerwiegende Folgen haben. Denn KI-Modelle sind darauf trainiert, Muster zu erkennen. Bestehende Muster in Datensätzen werden dann automatisch verstärkt. Enthalten die vorgegebenen Muster also bereits gesellschaftliche Ungleichheiten, führt das durch den Einsatz von KI-Systemen zu einer weiteren Verschärfung.
Auch interessant: