17. Mai 2023

Änderungen des AI-Gesetzes (Abstimmung im Gemischten Ausschuss am 11/5/23)

Mitwirkende
Caroline Adam
Leiter der Abteilung Inkubation
Keine Artikel gefunden.
Newsletter abonnieren
Diesen Beitrag teilen

Es ist mehr als zwei Jahre her, dass der erste Entwurf des EU-KI-Gesetzes veröffentlicht wurde. Seitdem hat sich die Technologie immer schneller weiterentwickelt. Innovationen wie generative KI und Basismodelle haben öffentliche Aufmerksamkeit erlangt und werden in realen KI-Lösungen eingesetzt. Auch die Regulierungsbehörden haben sich weiterentwickelt, und es gab bedeutende Entwicklungen bei den vorgeschlagenen Regelungen. Vor dem Hintergrund der Abstimmung im gemeinsamen Ausschuss des EU-Parlaments am vergangenen Donnerstag (11. Mai 23) hier eine kurze Zusammenfassung einiger der unserer Meinung nach interessantesten Änderungen des Vorschlags von letzter Woche:

Verbotene und hochriskante Anwendungen

Das AI-Gesetz teilt die Anträge in 4 Risikokategorien ein. Im jüngsten Vorschlag wurden einige zusätzliche verbotene Praktiken eingeführt. So wird beispielsweise die Erkennung von Emotionen in den Bereichen Strafverfolgung, Bildung, Arbeitsplatz- und Grenzmanagement vollständig verboten. 

Auch die Liste der Anwendungen mit hohem Risiko wurde erweitert. So werden beispielsweise Empfehlungssysteme, die von Social-Media-Plattformen genutzt werden , aufgrund ihres Umfangs und ihres Potenzials, die öffentliche Meinung zu beeinflussen, als hochriskant eingestuft. Die Verpflichtungen für Hochrisikosysteme wurden ebenfalls erweitert, indem beispielsweise eine Folgenabschätzung für die Grundrechte und Informationen über den Energieverbrauch in die technischen Unterlagen aufgenommen wurden.

Grundlagenmodelle und generative KI

Eine der wichtigsten Ergänzungen sind die Bestimmungen zu Basismodellen (wie GPT oder Stable Diffusion), die bei der Veröffentlichung des ersten Entwurfs des KI-Gesetzes im Jahr 2021 noch nicht existierten. Anbieter von KI-Grundmodellen müssen angemessene vorhersehbare Risiken mindern, Data-Governance-Maßnahmen umsetzen, Verzerrungen bewerten und eine Dokumentation vorlegen. Anbieter von generativen KI-Grundlagenmodellen müssen außerdem erklären, dass eine Ausgabe KI-generiert ist, und eine Zusammenfassung der Verwendung von urheberrechtlich geschützten Trainingsdaten öffentlich zugänglich machen.

Open-Source

Anders als im ersten Entwurf aus dem Jahr 2021 wird Open-Source im geänderten Vorschlag nun ausdrücklich erwähnt. Die oben genannten Anforderungen für Anbieter von Stiftungsmodellen gelten auch für Anbieter von Open-Source-Stiftungsmodellen. Dies hat bereits zu einer öffentlichen Debatte über die Auswirkungen auf Open-Source in Europa geführt, falls der Vorschlag angenommen wird. Abgesehen von den Basismodellen sieht der aktuelle Vorschlag nun vor, dass die Verordnung nicht für quelloffene KI-Komponenten gilt, es sei denn, sie werden als Teil eines Hochrisikosystems auf den Markt gebracht.  

Nach einer weiteren Abstimmung im Parlament im Juni wird es in Trilogen weiter diskutiert und angepasst werden und voraussichtlich frühestens 2025 in Kraft treten. Gleichzeitig sind wir der Meinung, dass die Unternehmen nicht warten können, bis das KI-Gesetz endgültig und in Kraft ist. Diejenigen, die eine aktive Rolle bei der vertrauenswürdigen und positiven Nutzung von KI spielen wollen, müssen jetzt handeln und mit der Implementierung von Prozessen und Praktiken beginnen, die sowohl der bevorstehenden Verordnung als auch ihren eigenen Werten in Bezug auf ethische und robuste KI bereits heute Rechnung tragen. 

Verwandte Beiträge

Alle anzeigen
Keine Ergebnisse gefunden.
Es gibt keine Ergebnisse mit diesen Kriterien. Versuchen Sie, Ihre Suche zu ändern.
Stiftung Modelle
Unternehmen
Unser Team
Verantwortungsvolle und ethische KI
Strukturierte Daten
Chat GPT
Nachhaltigkeit
Stimme und Ton
Front-End-Entwicklung
Schutz und Sicherheit von Daten
Verantwortungsvolle/ethische KI
Infrastruktur
Hardware und Sensoren
MLOps
Generative KI
Verarbeitung natürlicher Sprache
Computer Vision