Der folgende Artikel ist eine gekürzte Fassung des Artikels "Hoe staat het met het voorstel voor de AI Act" von Agoria. Lesen Sie den Originalartikel von Agoria hier (auf Niederländisch)
Am 21. April 2021 schlug die Europäische Kommission den "AI Act" vor, einen Vorschlag für eine Verordnung über künstliche Intelligenz. Heute, fast ein Jahr nach der Veröffentlichung dieses Vorschlags, gibt es eine Reihe von Entwicklungen im Parlament und im Rat. Derzeit wird davon ausgegangen, dass das KI-Gesetz Anfang 2025 in Kraft treten wird.
Das KI-Gesetz ist die erste Verordnung auf europäischer Ebene, die sich speziell mit künstlicher Intelligenz befasst. Die Kommission ist sich bewusst, dass nicht alle KI-Systeme umfassend reguliert werden müssen, und verfolgt daher einen "risikobasierten Ansatz" für den Rechtsrahmen. Das bedeutet, dass das (potenzielle) Risiko einer KI-Anwendung darüber entscheidet, welche Regeln gelten werden. In dem Vorschlag werden 4 Kategorien mit jeweils einer Reihe von Regeln und Anforderungen aufgeführt: "geringes und minimales Risiko", "begrenztes Risiko", "hohes Risiko" und "unannehmbares Risiko".
Der Vorschlag befindet sich derzeit in der "Trilog-Phase", in der informelle Treffen zwischen Vertretern des Europäischen Parlaments, der Europäischen Kommission und des Rates stattfinden. Alle Elemente des Vorschlags werden erneut geprüft, da er viele unterschiedliche Reaktionen hervorgerufen hat. Nach Abschluss des Trilogs werden die drei Gremien ihre Vorschläge zusammenführen, um das AI-Gesetz fertig zu stellen. Danach wird eine Übergangszeit von voraussichtlich 24 Monaten folgen.
Zu den derzeit vom Europäischen Rat vorgeschlagenen Anpassungen gehört eine Neuformulierung der Definition von KI. Einige andere Themen wurden aktualisiert, wie z.B.:
Die Arten von Risiken eines KI-Systems sowie das Risikomanagement wurden neu formuliert (Art. 9). In Bezug auf das Datenmanagement werden mögliche Verzerrungen in Datensätzen nun als "die die Gesundheit und Sicherheit von Personen beeinträchtigen oder zu Diskriminierung führen könnten" definiert. Da Datensätze selten fehlerfrei oder vollständig sind, wurde der Begriff "so gut wie möglich" hinzugefügt, um die Bestimmungen abzuschwächen. Schließlich gelten die Bestimmungen jetzt nur noch für Datensätze, die zu Testzwecken verwendet werden, wenn ein KI-System nicht trainiert wurde (Artikel 10).
Der Artikel über Abhilfemaßnahmen wurde ebenfalls aktualisiert: Wenn ein KI-System von Nutzern als nicht konform befunden wird, müssen die Anbieter mit diesen Nutzern zusammenarbeiten, um das Problem zu untersuchen (Artikel 21). Die Feinheiten der menschlichen Aufsicht wurden neu formuliert (Art. 29).
Die Artikel über die Art und Weise und die Dauer der Aufbewahrung von Unterlagen und Protokollen wurden ebenfalls aktualisiert (Art. 11-14, 16-18, 20). In den Artikeln 53 und 54 wird beschrieben, wie Sandkästen zu einer Liste von Zielen beitragen sollten, sowie ihre finanziellen Bedingungen und verschiedene Vorschriften zur Koordinierung und Teilnahme an Sandkästen. Schließlich wurden neue Artikel hinzugefügt, in denen beschrieben wird, wie ein KI-System in einer Sandbox oder unter realen Bedingungen getestet werden kann, wie dies zu überwachen ist und wie die Zustimmung der Testpersonen einzuholen ist.
Eine vollständigere und ausführlichere Liste der vorgeschlagenen Anpassungen finden Sie im Originalartikel von Agoria hier (auf Niederländisch)