Technologie Wirtschaft

KI bei der Jobsuche: Was ist rechtlich erlaubt und (ethisch) vertretbar?

Bewerbung, Bewerbungsmappe, Lebenslauf, Ethik und KI bei der Jobsuche, Chancen Jobsuche, Name Jobsuche
Pixabay.com / USA-Reiseblogger
geschrieben von Christian Erxleben

Die Jobsuche läuft zunehmend digital ab. Sowohl Arbeitgebende als auch Arbeitnehmende setzen in diesem Kontext bewusst oder unbewusst auf Künstliche Intelligenz. Doch was gilt rechtlich und ethisch, wenn KI bei der Jobsuche zum Einsatz kommt? Ein Interview mit Juristen.

Immer mehr Unternehmen setzen bei der Suche nach Mitarbeitenden auf Technologie. Das beginnt beispielsweise damit, dass Job-Portale dazu in der Lage sind, alle relevanten, persönlichen Informationen automatisch aus einem Lebenslauf zu extrahieren und in ein Formular einzutragen.

Ebenso tragen Algorithmen und Künstliche Intelligenz (KI) dazu bei, dass schon die Stellenausschreibung überhaupt nur bei den Menschen landet, die sich auch potenziell dafür interessieren. Um diese Funktionsweise zu sehen, genügt ein Blick auf die Jobbörsen von Xing und LinkedIn.

KI bei der Jobsuche: Was ist rechtlich erlaubt?

Selbstverständlich ist der technologische Fortschritt hilfreich und erstaunlich. Zugleich rücken jedoch rechtliche Fragen in den Vordergrund. Wie sieht es beispielsweise mit Diskriminierung aus, wenn wir auf KI bei der Jobsuche setzen?

Über diese und weitere Fragen haben wir mit Simone Rosenthal, Rechtsanwältin für IT-, Datenschutz- und Vertragsrecht, sowie Thorsten Mehl, Rechtsanwalt für Datenschutz- und IT-Recht, von der Kanzlei „Schürmann Rosenthal Dreyer“ gesprochen.

BASIC thinking: Künstliche Intelligenz ist immer stärker in unseren beruflichen Alltag eingebunden. Das hat der Folge, dass auch unser Rechtssystem darauf reagieren muss. An welchen Stellen gibt es bereits konkrete Projekte der Rechtsprechung?

Erst kürzlich hat die EU-Kommission den Vorschlag für eine Verordnung unterbreitet, um einen europaweiten Rechtsrahmen für KI zu schaffen. Die Verordnung wäre das weltweit erste Gesetz, das sich ausschließlich mit KI beschäftigt.

Allerdings besteht aktuell kein rechtsfreier Raum, wenn es um den Einsatz oder die Entwicklung von KI geht. Bereits 2019 hat die Datenschutzkonferenz mit der Hambacher Erklärung ethische und rechtliche Leitlinien beschlossen.

Bindende rechtliche Vorgaben für KI-Systeme finden sich in ganz unterschiedlichen Gesetzen. Beispielsweise kennen das Haftungs-, Urheber- und Leistungsschutzrecht oder auch das Allgemeine Gleichbehandlungsgesetz eine Vielzahl unterschiedlicher Regulierungen, die auch für KI gelten.

Wer haftet für die Entscheidung einer KI?

Insbesondere wenn es darum geht, wer die Haftung bei Fehlern der KI übernimmt, gehen die Meinungen auseinander. Wie ist der aktuelle Stand der Debatte?

Zwar kennt die Rechtslage in Deutschland nur eine Haftung für menschliches Verhalten. Ebenso wenig gibt es ein spezielles „KI-Haftungsrecht“. Allerdings gelten die bestehenden Haftungsregeln für alle Entwickler:innen, Betreiber:innen und Nutzer:innen von KI. Sie greifen auch in den Fällen, in denen KI-Systeme Schäden verursacht haben.

Betreiber:innen haften nach der Produkthaftung. Anwender:innen kann gegebenenfalls eine Haftung aufgrund von Datenschutzverstößen, Diskriminierungen und aus anderen Gesetzen treffen.

Dennoch gibt es Vorschläge zur Erweiterung des Haftungsrechts für KI. Etwa dann, wenn Systeme so selbstständig sind, dass sie sich dem Einfluss ihres Besitzers entziehen. Daher ist eine rechtliche Zurechnung von Schäden in der Praxis schwierig.

Simone Rosenthal, Technologie-Kanzlei Schürmann Rosenthal Dreyer

Simone Rosenthal, Partnerin und Rechtsanwältin mit Fokus auf IT-, Datenschutz- und Vertragsrecht.

Wie könnte eine Haftungsregelung für eine KI konkret aussehen?

Grundsätzlich bleibt festzuhalten, dass das deutsche und europäische Recht technologieneutral formuliert sind. Es lässt sich neuen technischen Entwicklungen flexibel anpassen. Daher lassen sich Fälle mit durch KI verursachten Schäden mit den bestehenden Regeln zu einem ausgewogenen Ergebnis führen.

Eine mögliche Erweiterung, die im Rahmen der Haftung von KI diskutiert wird, ist zum Beispiel die Einführung einer verschuldensunabhängigen Gefährdungshaftung für KI-Systeme – gegebenenfalls in Verbindung mit einer Pflichtversicherung.

Ist eine KI eine Person?

Und wer wird dabei bestraft? Eine KI selbst ist ja im Sinne des Rechts keine Person – oder doch?

Zunächst ist festzuhalten, dass es sich bei der Haftung einer Person nicht um eine Strafe im strafrechtlichen Sinne handelt. Vielmehr geht es um einen zivilrechtlichen „Ausgleich“ für einen verursachten Schaden.

Hier können Personen unter Umständen zu Schadensersatzleistungen verpflichtet sein. Das gilt beispielsweise wenn Hersteller:innen eine fehlerhafte KI in Umlauf bringen. Sobald die KI aufgrund dieses Fehlers eine dritte Person oder eine fremde Sache schädigt, greift das Recht.

Wenn es um Straftaten geht, kann eine KI nicht Täter:in sein. Somit kann man sie auch nicht strafrechtlich verurteilen. Zwar diskutieren Juristen darüber. Jedoch hat KI nach jetzigem Stand keine eigene Rechtspersönlichkeit.

Wenn eine KI allerdings als Werkzeug für eine Straftat zum Einsatz kommt, droht der dahinterstehenden Person durchaus für die mit der KI begangenen Tat eine Strafe.

Kann es also sein, dass KIs und Algorithmen – wie beispielsweise der Facebook-Algorithmus – in Folge von Rechtsverstößen „sterben“ müssen. Also: Müssen die Unternehmen ihre Programme einstellen?

Sterben ist in diesem Zusammenhang sicherlich ein schwieriger Begriff. Aber grundsätzlich kann es dazu kommen, dass bestimmte Algorithmen nicht mehr verwendet werden dürfen, da sie gegen bestimmte rechtliche Vorgaben verstoßen.

Wenn der Facebook-Algorithmus schwerwiegende Datenschutzverletzungen begeht und sein Vorgehen nicht korrigiert wird oder nicht mehr korrigiert werden kann, ist es den Datenschutzbehörden möglich, die unrechtmäßige Verarbeitung personenbezogener Daten durch den Algorithmus zu verbieten.

Hinweispflicht für KI bei der Jobsuche

Besonders spannend ist die ethische Haltung einer KI bei der Job-Suche. Gibt es für Unternehmen eine Pflicht, auf den Einsatz von KI im Auswahl-Prozess hinzuweisen?

Wenn Unternehmen eine KI einsetzen, die Bewerber:innen inhaltlich bewertet und daraufhin selbstständig und ohne die Einschaltung einer natürlichen Person die Entscheidung über die Ablehnung oder Zusage trifft, liegt datenschutzrechtlich eine sogenannte „automatisierte Einzelfallentscheidung“ vor.

Dann müssen Unternehmen die Bewerber:innen darüber auch entsprechend informieren. Inhaltlich gehört zu dieser Informationspflicht, dass eine automatisierte Entscheidung durch eine KI vorliegt, welche Logik involviert ist und welche Auswirkungen auf die Bewerber:innen zukommen können.

Was bedeutet das für Bewerber:innen?

Es gibt die Informationspflicht, um den Bewerber:innen die notwendige Transparenz zu garantieren. Darüber hinaus bestehen für alle Entscheidungen von KI, die Personen gegenüber rechtliche Wirkung entfalten oder sie in ähnlicher Weise erheblich beeinträchtigen, verschärfte Anforderungen.

Solche Entscheidungen sind beispielsweise nur dann überhaupt zulässig, wenn die Bewerber:innen einwilligen oder die Entscheidungen von einer natürlichen Person nochmals überprüft werden.

Thorsten Mehl, Technologie-Kanzlei Schürmann Rosenthal Dreyer

Thorsten Mehl, Rechtsanwalt mit Fokus auf Datenschutzrecht, Wettbewerbsrecht, Marketing, Vertrieb, IT-Recht und Digital Business.

Wie bringt man einer KI bei der Jobsuche Neutralität bei?

Wie könnte man rechtlich garantieren, dass eine KI wirklich „neutral“ entscheidet – also, dass Trans, Frauen und Männer jeglichen Alters und jeglicher Herkunft gleich behandelt werden?

Diskriminierungen durch KI-Systeme sind ein großes Problem, da sie aufgrund der dahinterstehenden Algorithmen häufig dazu neigen, sich auf bestimmte Merkmale zu konzentrieren und ihre Entscheidungen auf diesen Merkmalen zu basieren. Hierbei kommt es vor allem auf die Daten an, mit denen Hersteller:innen und Betreiber:innen die KI „füttern“.

Zum einen besteht die Gefahr indirekter Diskriminierung, wenn eine KI anhand anderer Informationen das Geschlecht ermitteln kann, etwa wenn eine Person Damenmode kauft.

Zum anderen können sich Diskriminierungen ungewollt in das Verhalten einer KI einschleichen, beispielsweise wenn sich in der Vergangenheit zum Großteil männliche Bewerber bei einem Unternehmen beworben haben und die KI bei der Auswahl von Bewerber:innen darauf schließt, dass männliche Bewerber zu bevorzugen seien.

Daher gibt es rechtliche Anforderungen, um das zu verhindern. Nach der Hambacher Erklärung dürfen KI-Systeme nicht diskriminieren. Das Allgemeine Gleichbehandlungsgesetz verbietet Diskriminierungen auch für Algorithmen. Diese Vorgaben sollten daher bei der technischen Entwicklung und bei der Verwendung einer KI berücksichtigt werden.

Mehr Transparenz durch KI bei der Jobsuche

Und wer könnte die Haftung übernehmen, wenn eine KI bei der Bewerber-Auswahl nachweislich voreingenommen agiert?

Wer für Diskriminierungen im Bewerbungsprozess haftet, hängt von den jeweiligen Umständen des Einzelfalls ab. Infrage kommt einerseits der datenschutzrechtlich Verantwortliche.

Das heißt: Die Stelle, die über Zwecke und Mittel der Datenverarbeitung entscheidet. Das ist in aller Regel das Unternehmen, das die KI einsetzt. Nach dem Allgemeinen Gleichbehandlungsgesetz haftet der „Benachteiligende“ – im Rahmen der Bewerberauswahl also zumeist der Arbeitgeber.

Wäre das nicht sogar eine Möglichkeit, den gesamten Bewerbungsprozess komplett transparent darzustellen – von der Auswahl, über die Kriterien bis hin zur letztendlich Entscheidung? Dann würde auch jeder Bewerber endlich die wirklichen Gründe für eine Absage kennen.

Grundsätzlich besteht die Möglichkeit dazu durchaus. Allerdings hängt es von der technischen Ausgestaltung der jeweiligen KI ab, inwieweit sich die Prozesse ihrer Entscheidung nachverfolgen lassen.

In rechtlicher Hinsicht sind die nachverfolgbaren KI-Modelle grundsätzlich vorzugswürdig. Auch hier haben sich die Datenschutzbehörden in der Hambacher Erklärung eindeutig positioniert und bestimmt, dass Transparenz eine notwendige Bedingung für rechtskonforme KI ist.

Die Zukunft von KI im Recht

Wie verändert Künstliche Intelligenz in euren Augen die Zukunft der Rechtsprechung?

Dass KI jedenfalls in naher Zukunft die Rechtsprechung grundlegend verändert, erscheint nicht wahrscheinlich.

Zum einen, da Rechtsprechung in der Regel keine exakten Ergebnisse kennt, sondern meistens eine Frage der Abwägung ist, in die viele Besonderheiten eines Einzelfalls mit einfließen müssen und KI dazu noch nicht ausreichend in der Lage ist.

Zum anderen, da gesamtgesellschaftlich bislang kein Konsens darüber besteht, dass Algorithmen autonom etwa über die Strafwürdigkeit einer Person entscheiden dürfen sollen. Allerdings kann KI durchaus zur Unterstützung eingesetzt werden, indem sie zum Beispiel vorab Empfehlungen abgibt.

Ähnlich funktionieren bereits jetzt Legal Techs, die in verhältnismäßig gut zu berechnenden Fällen wie im Mietrecht eine erste Beurteilung für Nutzende abgeben, ob es sich im Einzelfall lohnt, Rechte geltend zu machen.

Überspitzt nachgefragt: Debattiert irgendwann eine KI mit einer anderen KI darüber, wie in einem Rechtsstreit entschieden wird?

Allgemein lässt sich wohl festhalten, dass ein starkes Bewusstsein für die Chancen, aber eben auch für die Risiken von KI besteht. Ethische Aspekte werden im Rahmen von KI so stark hervorgehoben wie in kaum einem anderen rechtlichen Feld.

Die Entwicklung geht dementsprechend auch eher in eine andere Richtung, wie die Hambacher Erklärung oder auch der Vorschlag der EU-Kommission für die KI-Verordnung zeigen.

Ob die technischen Voraussetzungen für das Führen eines Rechtsstreits durch KI einmal gegeben sein werden, ist also die eine Sache – die andere, ob eine Gesellschaft Künstlichen Intelligenzen dann auch die Macht geben wollen, solche weitreichenden Entscheidungen zu treffen.

Vielen Dank für das Gespräch.

Auch interessant:

Über den Autor

Christian Erxleben

Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.