Künstliche Intelligenz soll erstmals reguliert werden

16.01.2023

Künstliche Intelligenz soll erstmals reguliert werden

Beitrag von Prof. Dr. Janine Wendt und Prof. Dr. Domenik H. Wendt

Derzeit wird auf europäischer Ebene intensiv über den Vorschlag der EU-Kommission für einen Artificial Intelligence Act (AI Act) beraten. Der Entwurf ist der erste Vorschlag zur Regulierung von Künstlicher Intelligenz (KI) in der Europäischen Union und das Ergebnis der von der EU-Kommission seit 2018 verfolgten KI-Strategie.

Schlüsselziele

In ihrer Strategie benennt die EU-Kommission vier Schlüsselziele, an denen der geplante AI Act gemessen werden kann. Dies sind die Schaffung günstiger Rahmenbedingungen für die Entwicklung von KI, Exzellenz vom Labor bis zum Markteintritt, die durchgängige Gewährleistung, dass die KI-Technologie dem Menschen dient, sowie die Übernahme einer strategischen Führungsrolle durch die EU.

Weite KI-Definition

Der AI Act-Entwurf sieht harmonisierte Regeln für die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen in der EU vor. Hierbei verwendet er eine bemerkenswert weite Definition von KI, die neben den Grundsätzen des Machine und Deep Learnings als „second wave of AI“ auch traditionelle Softwareanwendungen und statistische Methoden einbezieht. Die EU-Kommission verfolgt damit das Ziel, eine möglichst neutrale Definition zu finden, die KI in ihrer Gesamtheit abbildet und zukunftsfähig ist. Ein begrüßenswertes Ziel. Gleichwohl ist gerade die weite Definition aktuell großer Kritik ausgesetzt.

Risikobasierter Regulierungsansatz

Der dem AI Act-Entwurf zugrunde liegende Regulierungsansatz ist risikobasiert. Vorgesehen ist die Einstufung von KI-Systemen anhand ihres Risikograds. Systeme mit unannehmbarem Risiko werden verboten. KI-Systeme mit niedrigem oder hohem Risiko sind erlaubt. Je nach Risikograd sind unterschiedliche Anforderungen einzuhalten.

Ein Großteil der Regelungen des geplanten AI Acts bezieht sich auf Hochrisiko-KI. Gemeint sind KI-Systeme, die ein erhebliches Risiko für die Gesundheit und Sicherheit oder die Grundrechte des Einzelnen darstellen. Nach aktuellen Schätzungen dürften etwa bis zu 15 % aller KI-Systeme auf dem Markt in diese Risikokategorie fallen. Für sie sieht der AI Act-Entwurf horizontale Anforderungen und ein Konformitätsbewertungsverfahren vor.

Komplexe Regelungsstruktur

Der geplante AI Act ist nicht darauf ausgelegt, eine vollständige Regulierung zu bieten. Vielmehr soll er in Kohärenz und Komplementarität mit bestehendem Recht nur dort zusätzliche Anforderungen einführen, wo die spezifischen Merkmale der KI die Anwendung und Durchsetzung bestehender Vorschriften erschweren und Risiken für Sicherheit und Grundrechte mit sich bringen. Adressiert werden also insbes. das Autonomie- und Opazitätsrisiko. Im Kern enthält der AI Act-Entwurf damit spezifisches Produktsicherheitsrecht, das er um grundrechtsschützende Anforderungen ergänzt.

Das daraus resultierende durchmischte Normengefüge, das sich einerseits eng am produktsicherheitsrechtlichen New Legislative Framework (NLF) orientiert, andererseits aber als horizontaler Rechtsrahmen sektorunabhängig gilt, ist komplex. Auch deshalb steht der Regulierungsansatz in der Kritik. Haftungsrechtliche Fragen sollen ebenfalls nicht im AI Act, sondern in der AI Liability Directive behandelt werden. Diese ist wiederum im Zusammenhang mit der neuen Produkthaftungs-Richtlinie zu sehen.

Vorbildfunktion?

Die rechtspolitische Diskussion zum Entwurf des AI Acts lässt sich wohl am ehesten als kontrovers, aber sachlich beschreiben. Der Rat hat seine Stellungnahme zum Entwurf bereits abgeschlossen. Das EU-Parlament arbeitet an einer konsolidierten Fassung. Dem Vernehmen nach könnten die Trilog-Verhandlungen zu Beginn des zweiten Quartals 2023 starten. Wenn der AI Act ähnlich wie die DSGVO als Modellregelung eine Vorbildfunktion für andere Weltregionen erlangen soll, bedarf es einer informierten und auch in zeitlicher Hinsicht konzentrierten Fortsetzung der Diskussionen. Andernfalls besteht das Risiko, dass andere Regionen die notwendigen Standards setzen.


Prof. Dr. Janine Wendt ist Leiterin des Fachgebietes für Bürgerliches Recht und Unternehmensrecht an der Technischen Universität Darmstadt. Prof. Dr. Domenik H. Wendt, LL.M., hält die Professur für Bürgerliches Recht, Europäisches Wirtschaftsrecht und Europarecht an der Frankfurt University of Applied Sciences und ist Direktor des ReLLaTe. Sie geben gemeinsam einen Einführungsband sowie einen Großkommentar zum Artificial Intelligence Act heraus, die beide im Nomos Verlag erscheinen werden.