Neues Regelsystem für Künstliche Intelligenz in der EU

08.03.2024

Neues Regelsystem für Künstliche Intelligenz in der EU

Von Prof. Dr. Domenik Wendt und Prof. Dr. Janine Wendt

Am 2.2.2024 hat der Ausschuss der Ständigen Vertreter im Rat der Europäischen Union (EU) den Artificial Intelligence Act (AI Act) einstimmig gebilligt. Elf Tage später folgte die mehrheitliche Zustimmung im Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und im Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE). Am 13.3.2024 wird im Plenum des EU-Parlaments über den Rechtsakt abgestimmt. Die Zustimmung des Rates wird für April erwartet.

 

Mit den Beschlüssen endet ein Gesetzgebungsprozess, der von zähen Verhandlungen zu einem herausfordernden Regelungsgegenstand geprägt war: Das Phänomen der Künstlichen Intelligenz (KI) sinnvoll zu regulieren, ist eine Pionierarbeit. Schließlich ist der AI Act das weltweit erste umfassende Regelwerk, das versucht, KI in produktsicherheitsrechtlichen und zugleich grundrechtssicheren Bahnen zu halten. Nicht nur der weite Zuschnitt des Regelwerks sorgte für Spannung in der rechtspolitischen Diskussion. Auch die allgegenwärtige Verfügbarkeit generativer KI und deren Manipulationseignung in einem Jahr, in dem beinahe die Hälfte der Weltbevölkerung neue Parlamente und Regierungen wählt, schaffen hohe Erwartungen.

Horizontaler, technologieneutraler, risikobasierter Regulierungsansatz

Mit dem horizontalen, also branchenübergreifenden Regulierungsansatz des AI Act geht eine risikobasierte Differenzierung der Eingriffsintensität einher, die sich grundsätzlich technologieneutral nach dem Einsatzgebiet eines KI-Systems richtet. Je nach Risikogeneigtheit des Anwendungsszenarios greift ein viergestuftes Regelungsniveau, das zwischen unannehmbaren Risiken, hohen Risiken, Transparenzrisiken und minimalen Risiken unterscheidet.

Der größte Teil des AI Acts richtet sich unverändert an Anbieter von Hochrisiko-KI-Systemen und sieht hierfür zahlreiche Anforderungen vor. Von besonderer Bedeutung ist für Anbieter von KI daher die Frage, ob ihr System in die Hochrisiko-Kategorie fällt. Der AI Act gibt eine Klassifizierung vor, erlaubt aber auch Ausnahmen für Systeme, die nur „enge operative Aufgaben“ erledigen oder menschliche Arbeiten verbessern sollen. Das verspricht anspruchsvolle Abwägungen.

General Purpose AI

Die erst im Laufe des Gesetzgebungsverfahrens in der öffentlichen Diskussion angekommene generative KI, die als System mit allgemeinem Verwendungszweck (General Purpose AI – GPAI) in einer Vielzahl von Anwendungen genutzt werden kann, stellt die Regelungssystematik der Verordnung auf die Probe. Schließlich haben diese KI-Systeme gerade keinen vorgezeichneten Anwendungszweck. Die im Trilog erarbeitete Kompromisslösung sieht nun ein abgestuftes Konzept vor, dass zwischen GPAI mit geringerem und mit systemischem Risiko unterscheidet. Der Differenzierung zugrunde gelegt werden die sog. Floating Point Operations per Second (FLOP).

Weitere umstrittene Vorgaben

Im Trilog umstritten war etwa auch das Verbot biometrischer Echtzeit-Fernidentifizierung im öffentlich zugänglichen Raum. Die Kompromisslösung sieht nun vor, dass Mitgliedstaaten zusätzliche Ausnahmen von dem Verbot vorsehen dürfen, diese aber der vorherigen Genehmigung durch eine Justiz- oder unabhängige Verwaltungsbehörde bedürfen.

Neues Aufsichtssystem

Bei der Aufsicht setzt der AI Act auf ein Zusammenspiel zwischen Behörden auf EU-Ebene und in den Mitgliedstaaten. Die EU-Kommission übernimmt mit dem AI Office die Kontrolle für GPAI und wird Leitlinien für bestimmte Aspekte des AI Acts gestalten. Die übrigen KI-Systeme werden von nationalen Behörden beaufsichtigt. Mit Blick auf die Marktüberwachung könnten die Zuständigkeiten auch entlang der im AI Act definierten Risikokategorien sektoral verteilt werden.

Gestufte Anwendbarkeit des AI Act

Die Anwendbarkeit des AI Acts vollzieht sich in Stufen: Verbote gelten bereits sechs Monate nach dem Inkrafttreten der Verordnung, Verpflichtungen für GPAI-Modelle nach zwölf Monaten. Für Hochrisiko-KI-Systeme, die in Anhang III als Liste der Anwendungsfälle mit hohem Risiko geführt sind, ist eine Übergangsfrist von 24 Monaten vorgesehen. Nach 36 Monaten werden abschließend auch die Verpflichtungen für Hochrisiko-KI-Systeme nach Anhang II anwendbar.

Regelsystem

Das mit dem Vorschlag vom 21.4.2021 angestoßene Gesetzgebungsverfahren findet noch in der aktuellen Legislaturperiode sein Ende. Ob es auch ein gutes Ende ist, wird der AI Act unter Beweis stellen müssen. Mit der geschaffenen Leitlinienkompetenz der EU-Kommission und den mit dem Rechtsakt verknüpften Standards, die aktuell von CEN/CENELEC erstellt werden, besteht die Hoffnung auf wertvolle Ergänzungen, die eine hinreichende Rechtssicherheit bei der Anwendung der neuen Vorgaben geben. Der AI Act steht damit nicht für sich allein, sondern als Basis eines neuen Regelsystems für KI in der EU.


Prof. Dr. Janine Wendt ist Leiterin des Fachgebietes für Bürgerliches Recht und Unternehmensrecht an der Technischen Universität Darmstadt.

Prof. Dr. Domenik H. Wendt, LL.M., hält die Professur für Bürgerliches Recht, Europäisches Wirtschaftsrecht und Europarecht an der Frankfurt University of Applied Sciences und ist Direktor des ReLLaTe.

 

Sie geben gemeinsam den Einführungsband „Das neue Recht der Künstlichen Intelligenz“ https://www.nomos-shop.de/nomos/titel/das-neue-recht-der-kuenstlichen-intelligenz-id-107080/  sowie einen Nomos-Großkommentar zum „Artificial Intelligence Act“ https://www.nomos-shop.de/nomos/titel/artificial-intelligence-act-id-100573/ heraus, die beide im Nomos Verlag erscheinen werden.