Am 8. Dezember 2023 erzielten das Europäische Parlament und der Rat der EU nach dreitägigen Verhandlungen eine politische Einigung zur EU-Verordnung über künstliche Intelligenz („AI Act“) und damit zur ersten umfassenden gesetzlichen Regelung für künstliche Intelligenz („KI“) in der EU. Das erklärte Ziel des AI Acts ist die Eindämmung von Risiken für Gesundheit, Sicherheit und Grundrechte, die mit dem Einsatz von KI-Systemen einhergehen, sowie der Schutz von Demokratie, Rechtsstaatlichkeit und Umwelt.
Die endgültige Fassung des AI Acts liegt derzeit noch nicht vor. Die wichtigsten Eckpunkte sowie Änderungen gegenüber dem ursprünglichen Kommissions-Vorschlag aus April 2021 [KWR Beitrag Artificial Intelligence: Neue EU-Regelungen] ergeben sich aber bereits aus den Pressemitteilungen des Parlaments und des Rates, sowie den Q&A zum AI Act der Europäische Kommission vom 12. Dezember 2023.
Wer ist vom AI Act erfasst?
Der AI Act erfasst sowohl öffentliche als auch private Akteure – Anbieter, Entwickler und Importeure – innerhalb und außerhalb der EU, sofern das KI-System in der EU in Verkehr gebracht wird oder Menschen in der EU davon betroffen sind.
Bestimme Ausnahmen bestehen unter anderem für Anbieter kostenloser und quelloffener KI-Modelle, sowie für bestimmte Tätigkeiten der Forschung, Entwicklung und Prototypentwicklung.
Der risikobasierte Ansatz
Da nicht von allen KI-System ein inakzeptables oder hohes Risiko, sondern von den meisten KI-Systemen nur ein geringes Risiko ausgeht, folgt der AI Act einem vierstufigen, risikobasierten Ansatz:
- Verbotene KI
Ein besonders umstrittener Punkt der Verhandlungen zwischen Parlament und Rat betraf jene Systeme, die ein inakzeptables Risiko für die Sicherheit und die Grundrechte darstellen und damit in die Kategorie der verbotenen Anwendungen fallen. Während das Parlament deutlich mehr Systeme erfassen wollte, setzte sich der Rat für mehr Freiheit beim Einsatz von KI für nationale Sicherheit und Strafverfolgung ein.
Zu den verbotenen Anwendungen zählen nun zum Beispiel:
- Gesichtserkennung im öffentlichen Raum für Strafverfolgung, wobei für Maßnahme mit vorheriger gerichtlicher Genehmigung und für bestimmte Straftaten Ausnahmen bestehen (zB zur Verhinderung einer unmittelbaren terroristischen Bedrohung oder von Menschenhandel).
- Social Scoring für private und öffentliche Zwecke;
- Ausnutzung von „Schwachstellen“ wie Alter, Behinderung, soziale oder wirtschaftliche Umstände;
- biometrische Kategorisierung anhand sensibler Merkmale (einschließlich politischer Ansichten, sexueller Orientierung, religiöser oder philosophischer Überzeugungen und Rasse);
- Hoch-Risiko-KI (High-Risk-AI)
Diese KI-Systeme stellen ein hohes Risiko für die Sicherheit oder für die Grundrechte dar und sind als Anhang dem AI Act beigefügt. Dieser Anhang wird von der Kommission laufend aktualisiert und überprüft. Erfasste Anwendungen betreffen etwa den Bereich der allgemeinen und beruflichen Bildung, Beschäftigung und Personalmanagement, Kreditwürdigkeitsprüfung, Strafverfolgung und Justizverwaltung.
KI-Systeme, die in diesem Anhang genannt werden, in Wahrheit aber kein erhebliches Risiko für die Sicherheit oder die Grundrechte darstellen, fallen unter eine Ausnahmeregelung.
High-Risk-AI-Systeme müssen eine Reihe von Verpflichtungen erfüllen, um in der EU in Verkehr gebracht oder in Betrieb genommen werden zu können:
- Konformitätsbewertung: die Anforderungen an vertrauenswürdige KI, etwa in Bezug auf die Datenqualität, Transparenz oder Cybersicherheit, müssen nachweislich erfüllt und die europäische Konformitätskennzeichnung (CE) muss angebracht werden;
- Qualitäts- und Risikomanagementsystem: die Risiken für Nutzer und betroffene Personen müssen eingeschränkt und die neuen Anforderungen eingehalten werden;
- Registrierung in einer öffentlichen EU-Datenbank: dies ist bei Einsatz durch Behörden oder im behördlichen Auftrag erforderlich;
- Folgenabschätzung in Bezug auf die Grundrechte: das Ergebnis muss nationalen Behörden mitgeteilt werden und bestimmte Informationen, wie etwa eine Beschreibung der Prozesse des Betreibers, in denen das High-Risk-AI-System verwendet werden soll, die betroffenen Personenkategorien oder Personengruppen sowie die Schadensrisiken für diese enthalten.
- KI mit allgemeinem Verwendungszweck (General-Purpose-AI)
Der AI Act regelt außerdem "General Purpose AI", die auf einer großen Datenmenge trainiert wurde, in einem zweistufigen Ansatz. General-Purpose-AI kann Aufgaben ganz unterschiedlicher Art ausführen und in eine Vielzahl von nachgelagerten KI-Systemen integriert werden (zB das GPT-Modell, auf dem ChatGPT basiert):
- Für allgemeine General-Purpose-AI (erste Stufe) sind vor allem Transparenzerfordernisse vorgesehen. Anbieter müssen etwa eine technische Dokumentation führen und ausreichende Informationen über ihr Modell bereitstellen, damit nachgelagerte Anbieter, die die General-Purpose-AI in ihr System integrieren, ihre eigenen Verpflichtungen nach dem AI Act erfüllen können. Daneben müssen bestimmte Informationen zum Umgang mit Urheberrechten und Trainingsdaten zur Verfügung gestellt werden.
- Für General-Purpose-AI mit "hoher Auswirkung", die ein "systemisches Risiko" darstellen (zweite Stufe), müssen eine Modellevaluierung und Tests durchgeführt werden, um mögliche Sicherheitsrisiken auf EU-Ebene zu bewerten, abzuschwächen und zu überwachen. Von einem systemischen Risiko wird ausgegangen, wenn die General-Purpose-AI mit einer kumulative Rechenleistung von mehr als 10^25 Gleitkommaoperationen trainiert wurde.
- KI mit minimalem Risiko
Alle anderen KI-Systeme, wozu nach Einschätzung der Kommission die Mehrheit der KI-Systeme fällt, die derzeit oder wahrscheinlich künftig in der EU verwendet werden, können unter Einhaltung des allgemein geltenden Rechts entwickelt und verwendet werden.
Welche Sanktionen drohen bei einem Verstoß gegen den AI Act?
Verstöße gegen das Verbot bestimmter Formen von KI sind mit 7% des weltweiten Jahresumsatzes des rechtswidrig handelnden Konzerns oder EUR 35 Mio, je nachdem welcher Betrag höher ist, sanktioniert.
Die Strafen für andere wesentliche Verstöße können bis zu 3% des weltweiten Jahresumsatzes oder EUR 15 Mio, je nachdem welcher Betrag höher ist, betragen.
Einzelpersonen können eine Beschwerde über ein KI-System einreichen, auf deren Grundlage die zuständigen Behörden eine Marktüberwachung einleiten können.
Ab wann gelten die neuen Vorschriften des AI Act?
Die finale Fassung des AI Acts erfordert noch die Klärung zahlreicher technischer Details, eine rechtliche Prüfung des Entwurfs, die förmliche Verabschiedung durch Parlament und Rat, sowie die Übersetzung in alle EU-Amtssprachen. Die Veröffentlichung des finalen Textes im Amtsblatt der EUsowie dessen Inkrafttreten 20 Tage danach werden voraussichtlich erst im Sommer 2024 erfolgen.
Der Geltungsbeginn der Bestimmungen erfolgt in den zwei darauffolgenden Jahren bis Mitte 2026 schrittweise, beginnend mit den Verbotstatbeständen für bestimmte Kategorien unzulässiger KI nach sechs Monaten und gefolgt von den Bestimmungen für General-Purpose-AI mit hoher Auswirkung und systemischen Risiken und jenen über die Verpflichtungen für High-Risk-AI nach zwölf Monaten.
Ausblick
Auch wenn die finale Fassung des AI Acts derzeit noch nicht bekannt ist, sollten Unternehmen bereits erste Überlegungen zu den Auswirkungen des AI Acts auf ihr Geschäftsmodell vornehmen und mit der Einrichtung eines AI-Governance-Prozesses im Zusammenhang mit dem Artificial Intelligence Act beginnen. Unser New Technologies- und IP-Team steht Ihnen dabei gerne zur Seite und hält Sie über alle wesentlichen Entwicklungen auf dem Laufenden.