Info: Die Europäische Kommission erarbeitet Leitlinien als Notfallmaßnahme, um möglichen Verzögerungen bei den technischen Standards des KI-Gesetzes entgegenzuwirken - The EU AI Act Newsletter artificialintelligenceact@substack.com 

EU-KI-Verordnung

Verordnung über künstliche IntelligenzVERORDNUNG (EU) 2024/1689 DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828


VERORDNUNG (EU) 2024/903 DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 13. März 2024

über Maßnahmen für ein hohes Maß an Interoperabilität des öffentlichen Sektors in der Union (Verordnung für ein interoperables Europa)

Die Verordnung dient dazu, ein hohes Maß an Interoperabilität zwischen den digitalen Systemen des öffentlichen Sektors in der EU zu erreichen.


Die Verordnung über künstliche tritt am zwanzigsten Tag nach ihrer Veröffentlichung im Amtsblatt der Europäischen Union in Kraft.

Sie gilt ab dem 2. August 2026.

Jedoch:

a) Die Kapitel I und II gelten ab dem 2. Februar 2025;

b) Kapitel III Abschnitt 4, Kapitel V, Kapitel VII und Kapitel XII sowie Artikel 78 gelten ab dem 2. August 2025, mit Ausnahme des Artikels 101;

c) Artikel 6 Absatz 1 und die entsprechenden Pflichten gemäß dieser Verordnung gelten ab dem 2. August 2027.

Grundsätze: Risikobasierter Ansatz, strengere Pflichten bei höherem Risiko, z. B. für Social Scoring, strengere Anforderungen für Hochrisiko-KI-Systeme, z. B. Risikomanagement, Datenqualität, Dokumentation, menschliche Aufsicht.
Adressaten: Anbieter und Betreiber von KI, Importeure, Händler und betroffene Personen in der EU.
Zentrale Regelungen: KI-Kompetenz des Personals, Katalog verbotener Praktiken, spezifische Anforderungen für Hochrisiko-KI-Systeme, Transparenzvorgaben für KI-Systeme mit interagierenden Personen (z. B. Chatbots), Vorgaben für KI-Modelle mit allgemeinem Verwendungszweck (GPAI), insbesondere mit systemischem Risiko.
Datenschutz: Bei der Verarbeitung personenbezogener Daten im Zusammenhang mit KI muss eine Rechtsgrundlage der DS-GVO vorliegen, Grundsätze der Datenverarbeitung sind einzuhalten, spezielle Pflichten im Falle automatisierter Einzelentscheidungen zu beachten. Bei besonders risikobehafteten Vorgängen ist eine Datenschutz-Folgenabschätzung erforderlich, die Verantwortlichkeiten sind im Einzelfall zu klären.


Leitlinien der Kommission zu verbotenen Praktiken der künstlichen Intelligenz


Der Digital Omnibus führt neue oder geänderte Bestimmungen ein, die zu Rechtsunsicherheit führen können (Empfehlungen an die EU-COM),

Anforderungen des BSI IT-Grundschutz++, den Regelungen des EU KI-Omnibus und des Digital-Omnibus



Im Rahmen des AI Acts ist relevant:

In Bezug auf die Umsetzung eines KI-Reallabors wird im Kontext des EU AI Acts und der Förderung europäischer Innovation nur ein spezifischer Hinweis gegeben:

Unbürokratischer Zugang: Um die Innovationskraft zu stärken und die Entwicklung innovativer KI-Lösungen zu fördern, wird die Schaffung von KI-Reallaboren mit unbürokratischem Zugang als entscheidend erachtet.

 

Notwendige Bestandteile eines KI-Reallabors

Obwohl der EU AI Act keine Liste der notwendigen Inhalte oder Bestandteile eines KI-Reallabors definiert, lässt sich der Zweck ableiten, der im weiteren Rahmen des AI Acts relevant ist:

  • Testen unter realen Bedingungen: Der Kontext, in dem Reallabore erwähnt werden, ist die Notwendigkeit, innovative KI-Lösungen in der Hochrisikoklasse zu fördern. Reallabore sind in diesem Sinne ein Mechanismus, der es ermöglicht, KI-Systeme unter realen Bedingungen zu testen, ohne dass sie sofort als "in Verkehr gebracht" oder "in Betrieb genommen" gelten, was die sofortige und vollständige Anwendung aller Anforderungen des AI Acts nach sich ziehen würde.

  • Alternative zur Markteinführung: Der EU AI Act erwähnt, dass Tests unter realen Bedingungen, die nicht unter die allgemeine Forschungs- und Entwicklungsausschlussklausel (Artikel 2(8) AI Act) fallen, nur dann zulässig sind, wenn das System in einem KI-Reallabor oder gemäß dem Sonderregime für Tests unter realen Bedingungen außerhalb der Sandbox getestet wird (Artikel 60 und 61 AI Act).

  • Gesetzliche Grundlage: Der AI Act enthält detaillierte und spezifische Verpflichtungen für KI-Reallabore (sogenannte AI Regulatory Sandboxes) und Tests unter realen Bedingungen.

KI-Reallabore dienen dazu, die Kluft zwischen Innovation und strenger Regulierung zu überbrücken, indem sie einen regulierten Rahmen (Sandbox) für die Erprobung von KI-Systemen z. B. der Hochrisikoklasse unter realen Bedingungen bieten, um die Einhaltung der Anforderungen (Compliance) zu prüfen und zu verifizieren.


KI-Omnibus

Die Novelle der Verordnungen 2024/1689 und 2018/1139 soll die Umsetzung der KI-Regulierung vereinfachen.
Stärken: Der Entwurf ist pragmatisch und koppelt Pflichten an Standards. Zudem wird die Aufsichtsbürokratie verringert und die Lösung von Konflikten verbessert.
Schwächen und Inkohärenzen: Kritisiert wird die kumulative Belastung, etwa durch mangelnde Harmonisierung mit anderen Verordnungen. Zudem gibt es Inkohärenzen bei Meldepflichten und anderen Problemen.
Vorschläge zur Integration: Es werden Methoden vorgeschlagen.
Institutionelle Hürden: Es mangelt an Äquivalenzmechanismen für Modelle aus Drittstaaten.


Basierend auf den verfügbaren Informationen aus den Artikeln 57-70 der EU-KI-Verordnung müssen folgende Anforderungen erfüllt werden (Quelle: EU-KI-VO, Non-Profit-Organisation, Future of Life Institute (FLI)):

Artikel 57 und 58: KI-Regulator Sandbox es

Verpflichtende Einrichtung:

  • Mindestens eine KI-Regulatory Sandbox auf nationaler Ebene, die bis zum 2. August 2026 betriebsbereit ist Article 57: AI Regulatory Sandboxes | EU Artificial Intelligence Act
  • Bereitstellung ausreichender Ressourcen für effektive und rechtzeitige Erfüllung
  • Koordination mit anderen relevanten Behörden und Einbezug von Akteur:innen im KI-Ökosystem

Funktionale Anforderungen:

  • Schaffung kontrollierter Umgebungen zur Innovationsförderung
  • Bereitstellung von Anleitung, Überwachung und Unterstützung
  • Offener, transparenter und fairer Zugang für alle Anbieter
  • Kostenloser Zugang für KMU und Start-ups

Artikel 59: Datenverarbeitung in Regulatory Sandboxes

Datenschutzbestimmungen:

Artikel 60: Tests außerhalb von Regulatory Sandboxes

Aufsichtspflichten:

Artikel 61: Informierte Einwilligung

Einwilligungsverfahren:

Artikel 70: Nationale Behörden

Behördenstruktur:

  • Jeder Mitgliedstaat muss mindestens eine Benennungsbehörde und eine Marktüberwachungsbehörde als nationale zuständige Behörden einrichten oder benennen 
  • Unabhängige, unparteiische und vorurteilsfreie Ausübung der Befugnisse
  • Benennung einer einheitlichen Anlaufstelle bis zum 2. August 2025

Ressourcenanforderungen:

  • Bereitstellung angemessener technischer, finanzieller und personeller Ressourcen sowie Infrastruktur für die Erfüllung der Aufgaben 
  • Ausreichende Anzahl von Personal mit Fachkenntnissen in KI-Technologien, Daten, Datenschutz, Cybersicherheit und Grundrechten
  • Jährliche Bewertung und Aktualisierung der Kompetenz- und Ressourcenanforderungen

Berichtspflichten:

  • Bis zum 2. August 2025 und danach alle zwei Jahre Berichte an die Kommission über den Status der finanziellen und personellen Ressourcen 
  • Kommunikation der Identität der Behörden an die Kommission

Weitere Artikel (62-69)

Die Artikel 62-69 behandeln zusätzliche Maßnahmen für Anbieter und Einsatzverantwortliche, Unterstützung für KMU, Governance-Strukturen und weitere spezifische Anforderungen, die eine detaillierte Analyse der einzelnen Artikel erfordern würden.