Wohin steuert Europa bei der Regulierung von Künstlicher Intelligenz? Ein neuer KI-Kodex der EU soll Rechtssicherheit schaffen, stößt aber auf heftige Kritik. Doch was bringt dieser freiwillige Verhaltenskodex– und was nicht?
Der GPAI Code of Practice ist kein Gesetz. Er ist ein freiwilliger Verhaltenskodex – ein Soft-Law-Instrument, das Anbieter von KI-Modellen dabei unterstützen soll, den europäischen „AI Act“ einzuhalten. Dieser ist das Herzstück der europäischen KI-Regulierung, das insbesondere bei fortschrittlichen Modellen hohe Anforderungen an Transparenz, Sicherheit und Urheberrechtskonformität stellt.
Der GPAI Code konkretisiert diese Anforderungen in drei Kapiteln: „Transparency“, „Copyright“ und „Safety and Security“. Es geht also um die Dokumentation der Modelle, um Strategien zur Einhaltung des Urheberrechts und um Verfahren zum Umgang mit systemischen Risiken. Und obwohl der Code freiwillig ist, signalisiert die EU deutlich: Wer sich daran hält, darf auf eine mildere Regulierung hoffen – eine Art „Presumption of Conformity“.
Für Unternehmen, die bisher im regulatorischen Nebel navigierten, ist das grundsätzlich eine gute Nachricht. Endlich gibt es Musterformulare, praktikable Checklisten und eine offizielle Richtschnur, was beispielsweise „ausreichende Transparenz“ in Artikel 53 des AI Act bedeutet.
KI-Kodex der EU: Zwischen Freiwilligkeit und politischem Druck
Doch dies ist nur die eine Seite der Medaille. Denn kaum war der Kodex veröffentlicht, meldeten sich kritische Stimmen. Der Digitalverband Bitkom etwas lobte die Richtung des Kodex, warnt aber vor einem „bürokratischen Monster“, das vor allem mit der offenen Risikopflicht – der sogenannten „open-ended risk identification“ – viele Unternehmen überfordern könnte.
Noch schärfer gingen große Unternehmen wie Siemens, SAP, Lufthansa oder Airbus mit dem Kodex ins Gericht: Der GPAI Code sei in seiner jetzigen Form nicht nur praxisfern, sondern innovationsfeindlich. SAP-Chef Christian Klein spricht beispielsweise davon, dass die Regulierung in dieser Form „toxisch“ sei – ein bemerkenswerter Begriff für eine europäische Digitalstrategie, die eigentlich Vertrauen schaffen will.
Aber auch aus der Zivilgesellschaft regt sich Widerstand. Die NGO „The Future Society“ kritisiert eine zu starke Einflussnahme US-amerikanischer Technologiekonzerne auf die finalen Leitlinien. Ausgerechnet dort, wo man Transparenz schaffen wollte, ist nach außen hin wenig nachvollziehbar, warum bestimmte Regelungen abgeschwächt wurden – oder gar ganz fehlen.
Der Preis der Kompromisse
Und tatsächlich: Der GPAI Code bleibt an einigen Stellen hinter dem zurück, was Experten und Datenschutzverfechter für notwendig ansehen. So sollen Risikoanalysen und Modellberichte erst nach der Markteinführung vorgelegt werden – das Prinzip „erst veröffentlichen, dann regulieren“ ist aber ausgerechnet bei KI nicht ungefährlich.
Zweitens fehlt ein echter Whistleblower-Schutz, obwohl interne Hinweise für das Risikomanagement enorm wichtig wären. Drittens gibt es keine Verpflichtung zu Notfallplänen – erstaunlich bei einem technologischen Bereich, der systemische Auswirkungen auf Infrastruktur, Bildung oder Gesundheit haben kann.
Und viertens überlässt der Kodex die konkrete Risikodefinition weitgehend den Anbietern selbst – inklusive der Bewertung und Kontrolle. Das alles ist in einem liberalen Innovationsklima verständlich. Aber es bleibt die Frage, ob dieser Vertrauensvorschuss gerechtfertigt ist.
KI-Kodex: Europa zwischen Kontrolle und Chance
Trotz aller berechtigten Kritik sollte man eines nicht vergessen: Der GPAI Code ist in meinen Augen ein mutiger Versuch, dem technologischen Fortschritt einen europäischen Rahmen zu geben – jenseits von amerikanischer Marktlogik und chinesischer Staatslenkung.
Die EU hätte auch einfach abwarten können, wie sich der globale Wettbewerb entwickelt. Stattdessen hat sie gehandelt – und einen strukturierten, öffentlich diskutierten Kodex geschaffen, der ambitioniert ist, aber eben nicht perfekt. Das verdient nach meinem Dafürhalten Anerkennung.
Denn gerade in Zeiten, in denen Vertrauen in Technologie keine Selbstverständlichkeit mehr ist, braucht es politische Initiativen, die versuchen, Sicherheit, Verantwortung und Innovationskraft zu verbinden. Auch wenn der GPAI Code noch Lücken hat – er kann ein wichtiger Baustein sein für eine wertebasierte KI-Politik, die europäische Anbieter nicht abschreckt, sondern stärkt.
KI-Kodex der EU: Ein erster Schritt – nicht mehr und nicht weniger
Natürlich wird der GPAI Code überarbeitet werden müssen. Die geäußerte Kritik ist zu konkret, die Schwächen zu offensichtlich, als dass man ihn unverändert in die Praxis überführen könnte und sollte. Aber er ist auch ein erstes Fundament – eine Einladung zur Mitgestaltung, eine Blaupause für Standards, die sich entwickeln können.
Was daraus wird, hängt nun davon ab, ob die beteiligten Akteure bereit sind, die Lücken zu benennen, ohne die ganze Idee zu verwerfen. Vielleicht braucht es eine zweite Version. Vielleicht braucht es zusätzliche Schutzmechanismen. Und ganz sicher braucht es mehr Dialog – zwischen Unternehmen, Regierungen, NGOs und der Zivilgesellschaft.
Denn der Kodex ist nur dann sinnvoll, wenn er nicht nur Regeln macht, sondern auch Vertrauen schafft. Vertrauen in eine Technologie, die nicht alles kann, aber vieles verändern wird – wenn man sie lässt. Und wenn man sie klug begleitet.
Auch interessant: