Seit dem 2. August 2025 gelten neue Regeln der KI-Verordnung der EU – des sogenannten AI Acts. Unternehmen, die KI-Modelle mit „allgemeinem Verwendungszweck“ anbieten, müssen demnach bestimmte Informationspflichten erfüllen. In unserem Format „Break The News“ haben wir die Hintergründe entschlüsselt.
Hintergrund: AI Act
- Der AI Act der Europäischen Union stuft KI-Modelle in verschiedene Risiko-Level ein. Dabei gilt: Je höher das Risiko einer Anwendung für Sicherheit, Gesundheit oder Grundrechte, desto strenger die Auflagen. Systeme, die eine „eindeutige Bedrohung“ darstellen, sind komplett verboten.
- Die Verordnung sieht vor, dass für „KI-Modelle mit allgemeinem Verwendungszweck“, die ab dem 2. August 2025 auf den Markt kommen, offengelegt werden muss, mit welchen Daten die KI trainiert wurde. Außerdem muss eine Strategie zum Umgang mit Urheberrechten erkennbar sein. Für Modelle, die bereits auf dem Markt sind, gilt eine Übergangsphase bis zum 2. August 2027.
- Bei Verstößen gegen den AI Act drohen ab 2026 Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des Jahresumsatzes. Solch hohe Strafen sind zunächst aber fraglich, denn die meisten großen KI-Anbieter wie Google, OpenAI und Anthropic haben bereits den freiwilligen „Code of Practice“ der EU unterzeichnet. Wer den Verhaltenskodex befolgt, gilt bis zum Beweis des Gegenteils als unschuldig. Nur Facebook-Konzern Meta weigert sich.
Einordnung: Neue KI-Regeln der EU
Den Möglichkeiten von KI sind gefühlt keine Grenzen gesetzt, es sei denn die Politik tut es – und das muss sie zweifellos. Denn unreguliert stellt Künstliche Intelligenz eine Gefahr für Demokratie und Gesellschaft dar – über politische Manipulation, die Verletzung von Persönlichkeits- oder Datenschutzrechten bis hin zu einem kompletten Kontrollverlust über autonome Systeme.
In seiner aktuellen Form schafft der AI Act jedoch mehr Unsicherheit als Sicherheit, da die EU geplante Richtlinien nicht fertiggestellt hat und dadurch viel Interpretationsspielraum schafft. Das wiederum zieht mehr Bürokratie nach sich – sowohl auf Seiten der EU als auch in vielen Unternehmen.
Während es für die großen KI-Anbieter ein Leichtes sein dürfte, die neuen KI-Regeln umzusetzen, stehen Start-ups und KMU vor großen Herausforderungen. Denn für sie stellt die aktuelle Unklarheit einen erheblichen Kostenfaktor und Mehraufwand dar, den sie nicht mit Milliarden in der Hinterhand auffangen können – die DSGVO lässt grüßen.
Nicht das KI-Gesetz selbst, sondern die mangelnde Umsetzung ist deshalb nicht nur eine Innovationsbremse, sondern führt den Grundgedanken, Klarheit, Sicherheit und Transparenz zu schaffen ad absurdum.
Stimmen
- Dirk Binding, Experte für Digitale Wirtschaft von der DIHK: „Neue Dokumentations- und Nachweispflichten bedeuten auch mehr Aufwand und Kosten für Unternehmer. Deshalb ist eine bürokratiearme Ausgestaltung des AI Acts immens wichtig.” Aktuell fehle es teilweise aber noch an Standards, die nicht rechtzeitig fertig geworden sind. Das sorge für Unsicherheit.
- Digital-Expertin Anke Domscheit-Berg vergleicht den AI Act mit einem Koloss auf tönernen Füßen. Bezüglich einer Aufsichtsbehörde in Deutschland sagt sie: „Voraussichtlich wird die Bundesnetzagentur diese Aufgabe übernehmen – das ist Konsens. So wird sie erneut eine weitere große Aufgabe bekommen, ohne ansatzweise ausreichend Ressourcen dafür – und so kann sie ihre Aufsichtsfunktion nicht sinnvoll wahrnehmen. Ich befürchte schon deshalb wird die KI-Verordnung in Deutschland wohl als relativ zahnloser Tiger starten.“
- BASIC thinking-Chefredakteur Fabian Peters findet: „Der AI Act lässt nicht nur viel Interpretationsspielraum, er ist in seiner aktuellen Form auch löchrig wie ein Sieb. Deshalb sollte er konsequent weitergedacht werden – und zwar als Prozess, der vielmehr am Anfang als am Ende steht. Kritik ist nicht nur angebracht, sondern wünschenswert – egal von welcher Seite. Eine grundsätzliche Abwehrhaltung wie von Meta ist aber nur schwer nachvollziehbar.“
Ausblick: Das Milliarden-Dilemma der EU
Die EU steht an einem Scheideweg, um für KI einen glaubwürdigen Mittelweg zwischen verantwortungsvoller Regulierung und innovationsfreundlicher Entwicklung zu definieren.
Denn: Richtig reguliert kann Künstliche Intelligenz sowohl gesellschaftlichen Fortschritt als auch wirtschaftliche Stärke fördern – und zwar ohne Grundrechte und Sicherheit zu beschneiden.
Was jedoch aktuell nicht zusammenpasst: Die Europäische Union will Milliarden in KI investieren – beispielsweise in Form von gigantischen Rechenzentren, die wiederum selbst unter den AI Act fallen.
Ein Teil der geplanten Investitionen, die zur Innovationsförderung gedacht sind, würde direkt in die selbstauferlegten Regeln fließen. Damit kostet man sich selbst Milliarden. Die KI-Verordnung sollte deshalb kontinuierlich weiterdiskutiert werden und anpassungsfähig sein – allein schon aufgrund der rasanten Entwicklung von KI.
Auch interessant: