Mai 12, 2022

EU AI Act: Was Sie wissen m√ľssen

Mitwirkende
Caroline Adam
Leiter der Inkubationsabteilung & KI-Ethiker
Keine Artikel gefunden.
Newsletter abonnieren
Diesen Beitrag teilen

Der folgende Artikel ist eine gek√ľrzte Fassung des Artikels "Hoe staat het met het voorstel voor de AI Act" von Agoria. Lesen Sie den Originalartikel von Agoria hier (auf Niederl√§ndisch)

‚Äć

‚Äć

Was ist mit dem Vorschlag zum KI-Gesetz?

‚Äć

Am 21. April 2021 schlug die Europ√§ische Kommission den "AI Act" vor, einen Vorschlag f√ľr eine Verordnung √ľber k√ľnstliche Intelligenz. Heute, fast ein Jahr nach der Ver√∂ffentlichung dieses Vorschlags, gibt es eine Reihe von Entwicklungen im Parlament und im Rat. Derzeit wird davon ausgegangen, dass das KI-Gesetz Anfang 2025 in Kraft treten wird.¬†

‚Äć

‚Äć

Das AI-Gesetz in K√ľrze

‚Äć

Das KI-Gesetz ist die erste Verordnung auf europ√§ischer Ebene, die sich speziell mit k√ľnstlicher Intelligenz befasst. Die Kommission ist sich bewusst, dass nicht alle KI-Systeme umfassend reguliert werden m√ľssen, und verfolgt daher einen "risikobasierten Ansatz" f√ľr den Rechtsrahmen. Das bedeutet, dass das (potenzielle) Risiko einer KI-Anwendung dar√ľber entscheidet, welche Regeln gelten werden. In dem Vorschlag werden 4 Kategorien mit jeweils einer Reihe von Regeln und Anforderungen aufgef√ľhrt: "geringes und minimales Risiko", "begrenztes Risiko", "hohes Risiko" und "unannehmbares Risiko".

‚Äć

‚Äć

Der Vorschlag befindet sich derzeit in der "Trilog-Phase", in der informelle Treffen zwischen Vertretern des Europ√§ischen Parlaments, der Europ√§ischen Kommission und des Rates stattfinden. Alle Elemente des Vorschlags werden erneut gepr√ľft, da er viele unterschiedliche Reaktionen hervorgerufen hat. Nach Abschluss des Trilogs werden die drei Gremien ihre Vorschl√§ge zusammenf√ľhren, um das AI-Gesetz fertig zu stellen. Danach wird eine √úbergangszeit von voraussichtlich 24 Monaten folgen.

‚Äć

‚Äć

‚Äć

‚Äć

‚Äć

‚Äć

‚Äć

‚Äć

‚Äć

‚Äć

Aktuelle Entwicklungen im Europäischen Rat

‚Äć

Zu den derzeit vom Europäischen Rat vorgeschlagenen Anpassungen gehört eine Neuformulierung der Definition von KI. Einige andere Themen wurden aktualisiert, wie z.B.:

‚Äć

Die Arten von Risiken eines KI-Systems sowie das Risikomanagement wurden neu formuliert (Art. 9). In Bezug auf das Datenmanagement werden m√∂gliche Verzerrungen in Datens√§tzen nun als "die die Gesundheit und Sicherheit von Personen beeintr√§chtigen oder zu Diskriminierung f√ľhren k√∂nnten" definiert. Da Datens√§tze selten fehlerfrei oder vollst√§ndig sind, wurde der Begriff "so gut wie m√∂glich" hinzugef√ľgt, um die Bestimmungen abzuschw√§chen. Schlie√ülich gelten die Bestimmungen jetzt nur noch f√ľr Datens√§tze, die zu Testzwecken verwendet werden, wenn ein KI-System nicht trainiert wurde (Artikel 10).¬†

‚Äć

Der Artikel √ľber Abhilfema√ünahmen wurde ebenfalls aktualisiert: Wenn ein KI-System von Nutzern als nicht konform befunden wird, m√ľssen die Anbieter mit diesen Nutzern zusammenarbeiten, um das Problem zu untersuchen (Artikel 21). Die Feinheiten der menschlichen Aufsicht wurden neu formuliert (Art. 29).

‚Äć

Die Artikel √ľber die Art und Weise und die Dauer der Aufbewahrung von Unterlagen und Protokollen wurden ebenfalls aktualisiert (Art. 11-14, 16-18, 20). In den Artikeln 53 und 54 wird beschrieben, wie Sandk√§sten zu einer Liste von Zielen beitragen sollten, sowie ihre finanziellen Bedingungen und verschiedene Vorschriften zur Koordinierung und Teilnahme an Sandk√§sten. Schlie√ülich wurden neue Artikel hinzugef√ľgt, in denen beschrieben wird, wie ein KI-System in einer Sandbox oder unter realen Bedingungen getestet werden kann, wie dies zu √ľberwachen ist und wie die Zustimmung der Testpersonen einzuholen ist.

‚Äć

Eine vollst√§ndigere und ausf√ľhrlichere Liste der vorgeschlagenen Anpassungen finden Sie im Originalartikel von Agoria hier (auf Niederl√§ndisch)

 

‚Äć

Verwandte Beiträge

Alle anzeigen
Keine Ergebnisse gefunden.
Es gibt keine Ergebnisse mit diesen Kriterien. Versuchen Sie, Ihre Suche zu ändern.
Großes Sprachmodell
Stiftung Modelle
Unternehmen
Unser Team
Strukturierte Daten
Chat GPT
Nachhaltigkeit
Stimme und Ton
Front-End-Entwicklung
Schutz und Sicherheit von Daten
Verantwortungsvolle/ethische KI
Infrastruktur
Hardware und Sensoren
MLOps
Generative KI
Verarbeitung nat√ľrlicher Sprache
Computer Vision