Grenzkontrollen KI Überwachung Künstliche Intelligenz EU

Grenzkontrollen mit KI: „Diskriminierung, Rassismus und Schaden rechtfertigen“

Fabian Peters
Adobe Stock/ Vittaya_25

Anzeige

Die EU setzt auf KI-basierte Systeme, um Grenzkontrollen durchzuführen und ihre Außengrenzen zu überwachen. Die Organisation AlgorithmWatch zeigt jedoch zahlreiche Probleme der eingesetzten Technologien auf. Darunter: Intransparenz und potenzielle Menschenrechtsverletzungen.

Um ihre Außengrenzen zu überwachen und Grenzkontrollen durchzuführen, setzt die Europäische Union zunehmend automatisierte Systeme ein, die auf KI basieren. Laut der Organisation AlgorithmWatch sollen ethische Abwägung dabei jedoch kaum eine Rolle spielen – trotz potenzieller Menschenrechtsverletzungen.

Das geht aus einer eigens angelegten Datenbank der NGO hervor, die zahlreiche der eingesetzten Technologien aufführt und damit einhergehende Probleme aufzeigt. Obwohl es sich um öffentliche Forschung handelt, würde die EU zudem Projektinformationen zurückhalten. AlgorithmWatch forderte deshalb politische Konsequenzen.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats-Kopfhörer gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Grenzkontrollen mit KI gefährden Menschenrechte

Unter dem Projektnamen „Automation on the Move“ hat die Organisationen 24 Forschungsprojekt untersucht, die die EU in Auftrag gegeben hat und bezüglich potenzieller Risiken bewertet. Darunter: Systeme zur Kontrolle unbemannter Fahrzeuge und Drohnen, zur biometrischen Datenverarbeitung sowie weitere KI-basierte Überwachungsmodelle.

AlgorithmWatch hat Wissenschaftler, Journalisten und Zivilrechtler zu Rate gezogen, um die Risiken dieser Systeme aufzudecken. Der Untersuchung zufolge könnten technische Fehler zu irrtümlichen Identifikationen führen, die das Risiko einer ungerechtfertigte Überwachung von Menschen bergen.

Vor dem Hintergrund der immer strenger werdenden Migrationspolitik würde die Diskriminierung durch KI-basierte Algorithmen dabei zunehmend zu einem Problem werden. Laut AlgorithmWatch könnten die eingesetzten KI-Systeme etwa missbraucht werden oder die Bewegungsfreiheit von Menschen einschränken.

Diese Entwicklung würde grundlegende Menschenrechte gefährden. Darunter: das Recht auf Privatsphäre, das Recht auf Gleichbehandlung und das Recht auf Asyl. Diese Risiken würden in den Forschungsprojekte der EU nur unzureichend Erwähnung finden.

Wenig Transparenz und kaum ethische Abwägung

AlgorithmWatch kritisiert zudem eine mangelnde Transparenz – obwohl die Projekte öffentlich finanziert werden. Die European Research Executive Agency (REA) hätte der Organisation etwa wiederholt den Zugang zu Informationen verweigert. Begründung: Anbieter- und Sicherheits-Interessen seien wichtiger als Interessen der Öffentlichkeit.

Um an Informationen zu kommen, haben die Projektbeteiligten deshalb unter anderem Fernsehaufnahmen und Interviews analysiert. Eines der Ergebnisse: Unter anderem kommt bereits die umstrittene Überwachungstechnologie ANDROMEDA aktiv zum Einsatz.

AlgorithmWatch bezweifelt außerdem, dass das System auf Grenzkontrollen beschränkt sein wird. Die NGO fürchtet, dass viele Technologien militärisch eingesetzt werden könnten. So bestünde das Risiko, dass die Systeme autokratischen Ländern in die Hände fallen – zumal Belarus bis zum russischen Angriffskrieg auf die Ukraine an mindestens zwei Projekten beteiligte war.

Grenzkontrollen mit KI: AI Act bietet Spielraum

Mit dem sogenannten AI Act will die EU zwar den Einsatz von ethisch bedenklichen KI-Modellen beschränken. Laut AlgorithmWatch würden jedoch vor allem in den Bereichen Grenzschutz und Migration große Lücken klaffen. Da die EU-Mitgliedstaaten einen gewissen Handlungsspielraum haben, stellt die Organisation konkrete Forderungen.

Klare Aufsichts- und Transparenzrichtlinien sollten für Hochrisiko-Anwendungen demnach als Standard gelten. Für die Gestaltung und Bewertung von KI-System sei zudem die Einbindung der Zivilgesellschaft, von Betroffenen sowie Experten essentiell.

Der Einfluss der Verteidigungsindustrie müsse reduziert werden. Militärische und zivile Systeme sollten strikt getrennt werden – vor allem was die Transparenz von Forschungsergebnissen angeht. Fabio Chiusi, Leiter des Projekts „Automation on the Move“ bei AlgorithmWatch dazu:

Wann immer man eine automatisierte Technologie als Lösung für ein soziales Problem oder ein soziales Phänomen betrachtet, das so alt ist wie die Menschheit, wie die Migration, wird man am Ende Diskriminierung, Rassismus und Schaden rechtfertigen.

Auch interessant: 

🤝 25 Euro geschenkt!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld! Und obendrauf gibt's sogar noch 25 Euro geschenkt!


Jetzt Zinsen sichern

Voraussetzungen gelten, Anzeige

STELLENANZEIGEN
Graphic Designer & Content Creator (m/w/d)
FamiCord AG in Leipzig
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
Intern/Working Student (m/f/d) in Generative AI
Clarios Germany GmbH & Co. KG in Hannover
Intern (m/f/d) in Digital Marketing
Clarios Germany GmbH & Co. KG in Hannover
Senior Cyber Security Engineer (m/f/d)
Clarios Germany GmbH & Co. KG in Hannover
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Personalberater (m/w/d)
Ratbacher GmbH - Karriere bei Rat... in Stuttgart, M...
Vehicle Testing Lead (m/f/d)
Clarios Germany GmbH & Co. KG in
Teile diesen Artikel
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).