14. April 2021

Warum und wie sollte man eine ethische Risikobewertung für KI durchführen?

Mitwirkende
Caroline Adam
Leiter der Abteilung Inkubation
Keine Artikel gefunden.
Newsletter abonnieren
Diesen Beitrag teilen

Künstliche Intelligenz hat in den letzten Jahren erheblich an Zugkraft gewonnen, und wir sind der festen Überzeugung, dass KI viel Gutes bewirken kann. Wir sind uns jedoch bewusst, dass mit diesen Entwicklungen auch wachsende Bedenken hinsichtlich der Nutzung von KI und ihrer Auswirkungen auf die Gesellschaft einhergehen. In diesem Blogbeitrag erklären wir, was ethische und vertrauenswürdige KI ist und wie wir bei ML6 unseren Kunden helfen, den vollen Wert von KI zu erschließen und Vertrauen bei ihren Kunden, Mitarbeitern und der Gesellschaft als Ganzes aufzubauen. 

Eine kurze Einführung in vertrauenswürdige und ethische KI


Wir bei ML6 sind der festen Überzeugung, dass KI das Potenzial hat, viel Gutes zu bewirken - von der Schaffung von Unternehmenswert über die Steigerung des Wirtschaftswachstums bis hin zur Unterstützung bei der Bewältigung großer gesellschaftlicher Herausforderungen wie Klimawandel, Mobilität und Gesundheit. Dieses Potenzial kann jedoch nur ausgeschöpft werden, wenn Kunden, Mitarbeiter und die Gesellschaft den entwickelten KI-Lösungen vertrauen. Hier kommt das Argument für vertrauenswürdige KI ins Spiel - denn nur wenn wir die Entwicklung und Anwendung von KI an ethischen und rechtlichen Werten ausrichten und transparent darüber kommunizieren, können wir das Vertrauen und die Akzeptanz von KI-Technologie fördern. 


Lassen Sie uns zunächst einen Schritt zurückgehen.

Was meinen wir, wenn wir von vertrauenswürdiger KI sprechen? Vertrauenswürdige KI hat 3 Komponenten: Gesetzestreue KI, ethische KI und robuste KI. 


Komponenten einer vertrauenswürdigen KI (Quelle: Agoria)


Bei der gesetzeskonformen KI sind die Dinge ziemlich klar - jede Entwicklung von KI muss den geltenden Gesetzen und Vorschriften entsprechen, zum Beispiel der DSGVO. Bei den anderen beiden Komponenten wird es etwas schwieriger, da es schwierig ist, explizit umsetzbare Regeln und ein gemeinsames Verständnis zu definieren. 


Warum ist das so schwierig? Nun, die Ethik einer Technologie beginnt mit den ethischen Werten ihrer Schöpfer, also den Entwicklern und allen anderen, die am Prozess der Entwicklung einer KI-Lösung beteiligt sind. Ethik ist jedoch von Natur aus persönlich, es gibt keine "richtige Antwort". Jeder von uns hat andere Grundsätze, die oft von dem Kontext und der Kultur abhängen, in der wir aufgewachsen sind. 


Was müssen wir also bei der Entwicklung vertrauenswürdiger KI beachten?

Die Entwicklung von KI-Lösungen ist mit bestimmten Risiken verbunden, die berücksichtigt und proaktiv gemildert werden müssen. Die EU definiert diese Risiken anhand von 7 Dimensionen:

  1. Menschliches Handeln und Aufsicht
  2. Technische Robustheit und Sicherheit
  3. Datenschutz und Data Governance
  4. Transparenz
  5. Vielfalt, Nichtdiskriminierung und Fairness
  6. Gesellschaftliches und ökologisches Wohlergehen
  7. Verantwortlichkeit


Betrachten wir ein Beispiel, um dies anschaulicher zu machen. Stellen Sie sich eine KI-Lösung vor, die die am besten geeigneten Bewerber für eine offene Stelle vorhersagt. Wenn diese Lösung mit Daten aus der Vergangenheit gefüttert wird, könnte der Algorithmus lernen, dass männliche Bewerber häufiger für z. B. eine Stelle im Ingenieurwesen in Betracht gezogen wurden, und somit "lernt" er, dass Männer für diese Stelle besser geeignet sind. In diesem Fall führt das Training auf der Grundlage verzerrter historischer Daten zu einer Verzerrung unserer Vorhersagen. Ein solches Risiko muss erkannt und korrigiert werden. 


Die ML6 AI Ethical Risk Assessment - was ist das?


In letzter Zeit haben wir ein zunehmendes Interesse am Thema ethische KI festgestellt und Unternehmen haben uns gebeten, ihnen bei der Navigation durch dieses komplexe Umfeld zu helfen, insbesondere in Hochrisikobranchen wie dem Personalwesen, dem öffentlichen Sektor und dem Gesundheitswesen. Daher haben wir beschlossen, unser internes Rahmenwerk zur Bewertung der ethischen Risiken unserer KI-Projekte für unsere Kunden zu öffnen - in Form des AI Ethical Risk Assessment. 


Was ist das Angebot zur ethischen Risikobewertung von KI? Es ist der Ansatz von ML6, um die mit einer bestimmten KI-Lösung/einem bestimmten Anwendungsfall verbundenen Risiken zu verstehen und zu bewerten. ML6 hat einen Rahmen entwickelt, der auf den EU-Ethikrichtlinien für vertrauenswürdige KI basiert und die Bewertung von Projekten oder Ideen auf einer praktischeren Ebene ermöglichen soll. 



Ethische KI-Risikobewertung - Konzept



Während des kurzen Engagements arbeiten unsere ethischen KI-Experten an einem Bericht, der die Vorteile und Risiken eines bestimmten KI-Anwendungsfalls aufzeigt und mögliche Maßnahmen zur Abschwächung oder Begrenzung dieser Risiken empfiehlt. In Gesprächen mit geschäftlichen und technischen Experten auf Kundenseite machen wir uns ein klares Bild von Ziel und Zweck, der Technologie und dem beabsichtigten Einsatz der Anwendung.


Anschließend betrachten wir einerseits die Vorteile der Lösung für den Einzelnen, das Unternehmen und die Gesellschaft und andererseits die ethischen Risiken in den 7 Risikodimensionen. Für jede Dimension haben wir eine Reihe spezifischer Fragen entwickelt, um den Denkprozess zu unterstützen. Indem wir jede dieser Dimensionen auf einer Skala von 0 bis 5 bewerten, können wir die risikoreichen Dimensionen für ein bestimmtes Projekt in einer Zusammenfassung hervorheben und Maßnahmen zur Risikominderung vorschlagen. 


Illustrativ - Risikobewertung in 7 Dimensionen 



Es ist wichtig zu beachten, dass wir immer den Kontext einer Lösung in Betracht ziehen müssen. Eine KI-Anwendung, die Stellenbewerber mit potenziellen Arbeitsplätzen abgleicht, birgt wahrscheinlich höhere Risiken als eine Lösung zur Erkennung von Fehlern in der Fertigungslinie. 

Warum und wann sollten Sie sich darum kümmern?

Wann sollten Sie nun eine ethische Risikobewertung für KI in Betracht ziehen?

Wir sehen derzeit drei mögliche Szenarien für die Notwendigkeit einer solchen Bewertung:

  1. Haben Sie eine Idee für ein neues Produkt oder eine neue Dienstleistung, die KI beinhaltet? Sind Sie sich der Risiken dieses KI-Projekts noch nicht sicher und wissen nicht, worauf Sie bei der Entwicklung besonders achten müssen? Führen Sie zu Beginn Ihres Projekts eine Risikobewertung durch und beziehen Sie von Anfang an Überlegungen und Maßnahmen zur Risikominderung mit ein. 


  1. Haben Sie bereits mit dem Aufbau einer Lösung begonnen, stehen Sie vielleicht kurz davor, sie für eine breitere Nutzung einzusetzen, und wollen Sie Vertrauen in Ihre Lösung aufbauen? Zeigen Sie Ihren Kunden und Mitarbeitern, dass Sie ethische Aspekte berücksichtigen und Risiken proaktiv angehen.


  1. Sie haben Ihre KI-Lösung bereits eingeführt, aber es wurden von Kunden oder Mitarbeitern bestimmte Bedenken geäußert? Lassen Sie ML6 eine unabhängige Prüfung durchführen und die notwendige Dokumentation erstellen, um Bedenken zu entkräften und Vorschläge zur Behebung von Risikobereichen zu machen. 


Mit unserem Ethics Advisory-Angebot wollen wir Sie dabei unterstützen, vertrauenswürdige Lösungen zu entwickeln, bei Ihren Kunden und Mitarbeitern Vertrauen in KI zu schaffen und Ihr Risiko zu begrenzen. Mit diesem Rahmenwerk ausgestattet, werden Sie auch in der Lage sein, zukünftige Anwendungsfälle selbst zu bewerten.  


Haben wir Ihr Interesse geweckt? Sprechen Sie uns an, wenn Sie mehr wissen wollen oder möchten, dass wir Sie bei der Bewertung der ethischen Risiken Ihrer KI-Anwendung unterstützen!



Verwandte Beiträge

Alle anzeigen
Keine Ergebnisse gefunden.
Es gibt keine Ergebnisse mit diesen Kriterien. Versuchen Sie, Ihre Suche zu ändern.
Stiftung Modelle
Unternehmen
Unser Team
Verantwortungsvolle und ethische KI
Strukturierte Daten
Chat GPT
Nachhaltigkeit
Stimme und Ton
Front-End-Entwicklung
Schutz und Sicherheit von Daten
Verantwortungsvolle/ethische KI
Infrastruktur
Hardware und Sensoren
MLOps
Generative KI
Verarbeitung natürlicher Sprache
Computer Vision