14. April 2021

Warum und wie sollte man eine ethische Risikobewertung f√ľr KI durchf√ľhren?

Mitwirkende
Caroline Adam
Leiter der Inkubationsabteilung & KI-Ethiker
Keine Artikel gefunden.
Newsletter abonnieren
Diesen Beitrag teilen

K√ľnstliche Intelligenz hat in den letzten Jahren erheblich an Zugkraft gewonnen, und wir sind der festen √úberzeugung, dass KI viel Gutes bewirken kann. Wir sind uns jedoch bewusst, dass mit diesen Entwicklungen auch wachsende Bedenken hinsichtlich der Nutzung von KI und ihrer Auswirkungen auf die Gesellschaft einhergehen. In diesem Blogbeitrag erkl√§ren wir, was ethische und vertrauensw√ľrdige KI ist und wie wir bei ML6 unseren Kunden helfen, den vollen Wert von KI zu erschlie√üen und Vertrauen bei ihren Kunden, Mitarbeitern und der Gesellschaft als Ganzes aufzubauen.¬†

‚Äć

Eine kurze Einf√ľhrung in vertrauensw√ľrdige und ethische KI


Wir bei ML6 sind der festen √úberzeugung, dass KI das Potenzial hat, viel Gutes zu bewirken - von der Schaffung von Unternehmenswert √ľber die Steigerung des Wirtschaftswachstums bis hin zur Unterst√ľtzung bei der Bew√§ltigung gro√üer gesellschaftlicher Herausforderungen wie Klimawandel, Mobilit√§t und Gesundheit. Dieses Potenzial kann jedoch nur ausgesch√∂pft werden, wenn Kunden, Mitarbeiter und die Gesellschaft den entwickelten KI-L√∂sungen vertrauen. Hier kommt das Argument f√ľr vertrauensw√ľrdige KI ins Spiel - denn nur wenn wir die Entwicklung und Anwendung von KI an ethischen und rechtlichen Werten ausrichten und transparent dar√ľber kommunizieren, k√∂nnen wir das Vertrauen und die Akzeptanz von KI-Technologie f√∂rdern.¬†


Lassen Sie uns zun√§chst einen Schritt zur√ľckgehen.

Was meinen wir, wenn wir von vertrauensw√ľrdiger KI sprechen? Vertrauensw√ľrdige KI hat 3 Komponenten: Gesetzestreue KI, ethische KI und robuste KI.¬†


Komponenten einer vertrauensw√ľrdigen KI (Quelle: Agoria)

‚Äć


Bei der gesetzeskonformen KI sind die Dinge ziemlich klar - jede Entwicklung von KI muss den geltenden Gesetzen und Vorschriften entsprechen, zum Beispiel der DSGVO. Bei den anderen beiden Komponenten wird es etwas schwieriger, da es schwierig ist, explizit umsetzbare Regeln und ein gemeinsames Verständnis zu definieren. 


Warum ist das so schwierig? Nun, die Ethik einer Technologie beginnt mit den ethischen Werten ihrer Schöpfer, also den Entwicklern und allen anderen, die am Prozess der Entwicklung einer KI-Lösung beteiligt sind. Ethik ist jedoch von Natur aus persönlich, es gibt keine "richtige Antwort". Jeder von uns hat andere Grundsätze, die oft von dem Kontext und der Kultur abhängen, in der wir aufgewachsen sind. 


Was m√ľssen wir also bei der Entwicklung vertrauensw√ľrdiger KI beachten?

Die Entwicklung von KI-L√∂sungen ist mit bestimmten Risiken verbunden, die ber√ľcksichtigt und proaktiv gemildert werden m√ľssen. Die EU definiert diese Risiken anhand von 7 Dimensionen:

  1. Menschliches Handeln und Aufsicht
  2. Technische Robustheit und Sicherheit
  3. Datenschutz und Data Governance
  4. Transparenz
  5. Vielfalt, Nichtdiskriminierung und Fairness
  6. Gesellschaftliches und ökologisches Wohlergehen
  7. Verantwortlichkeit


Betrachten wir ein Beispiel, um dies anschaulicher zu machen. Stellen Sie sich eine KI-L√∂sung vor, die die am besten geeigneten Bewerber f√ľr eine offene Stelle vorhersagt. Wenn diese L√∂sung mit Daten aus der Vergangenheit gef√ľttert wird, k√∂nnte der Algorithmus lernen, dass m√§nnliche Bewerber h√§ufiger f√ľr z. B. eine Stelle im Ingenieurwesen in Betracht gezogen wurden, und somit "lernt" er, dass M√§nner f√ľr diese Stelle besser geeignet sind. In diesem Fall f√ľhrt das Training auf der Grundlage verzerrter historischer Daten zu einer Verzerrung unserer Vorhersagen. Ein solches Risiko muss erkannt und korrigiert werden.¬†


Die ML6 AI Ethical Risk Assessment - was ist das?


In letzter Zeit haben wir ein zunehmendes Interesse am Thema ethische KI festgestellt und Unternehmen haben uns gebeten, ihnen bei der Navigation durch dieses komplexe Umfeld zu helfen, insbesondere in Hochrisikobranchen wie dem Personalwesen, dem √∂ffentlichen Sektor und dem Gesundheitswesen. Daher haben wir beschlossen, unser internes Rahmenwerk zur Bewertung der ethischen Risiken unserer KI-Projekte f√ľr unsere Kunden zu √∂ffnen - in Form des AI Ethical Risk Assessment.¬†


Was ist das Angebot zur ethischen Risikobewertung von KI? Es ist der Ansatz von ML6, um die mit einer bestimmten KI-L√∂sung/einem bestimmten Anwendungsfall verbundenen Risiken zu verstehen und zu bewerten. ML6 hat einen Rahmen entwickelt, der auf den EU-Ethikrichtlinien f√ľr vertrauensw√ľrdige KI basiert und die Bewertung von Projekten oder Ideen auf einer praktischeren Ebene erm√∂glichen soll.¬†



Ethische KI-Risikobewertung - Konzept



Während des kurzen Engagements arbeiten unsere ethischen KI-Experten an einem Bericht, der die Vorteile und Risiken eines bestimmten KI-Anwendungsfalls aufzeigt und mögliche Maßnahmen zur Abschwächung oder Begrenzung dieser Risiken empfiehlt. In Gesprächen mit geschäftlichen und technischen Experten auf Kundenseite machen wir uns ein klares Bild von Ziel und Zweck, der Technologie und dem beabsichtigten Einsatz der Anwendung.


Anschlie√üend betrachten wir einerseits die Vorteile der L√∂sung f√ľr den Einzelnen, das Unternehmen und die Gesellschaft und andererseits die ethischen Risiken in den 7 Risikodimensionen. F√ľr jede Dimension haben wir eine Reihe spezifischer Fragen entwickelt, um den Denkprozess zu unterst√ľtzen. Indem wir jede dieser Dimensionen auf einer Skala von 0 bis 5 bewerten, k√∂nnen wir die risikoreichen Dimensionen f√ľr ein bestimmtes Projekt in einer Zusammenfassung hervorheben und Ma√ünahmen zur Risikominderung vorschlagen.¬†


Illustrativ - Risikobewertung in 7 Dimensionen 



Es ist wichtig zu beachten, dass wir immer den Kontext einer L√∂sung in Betracht ziehen m√ľssen. Eine KI-Anwendung, die Stellenbewerber mit potenziellen Arbeitspl√§tzen abgleicht, birgt wahrscheinlich h√∂here Risiken als eine L√∂sung zur Erkennung von Fehlern in der Fertigungslinie.¬†

Warum und wann sollten Sie sich darum k√ľmmern?

Wann sollten Sie nun eine ethische Risikobewertung f√ľr KI in Betracht ziehen?

Wir sehen derzeit drei m√∂gliche Szenarien f√ľr die Notwendigkeit einer solchen Bewertung:

  1. Haben Sie eine Idee f√ľr ein neues Produkt oder eine neue Dienstleistung, die KI beinhaltet? Sind Sie sich der Risiken dieses KI-Projekts noch nicht sicher und wissen nicht, worauf Sie bei der Entwicklung besonders achten m√ľssen? F√ľhren Sie zu Beginn Ihres Projekts eine Risikobewertung durch und beziehen Sie von Anfang an √úberlegungen und Ma√ünahmen zur Risikominderung mit ein.¬†


  1. Haben Sie bereits mit dem Aufbau einer L√∂sung begonnen, stehen Sie vielleicht kurz davor, sie f√ľr eine breitere Nutzung einzusetzen, und wollen Sie Vertrauen in Ihre L√∂sung aufbauen? Zeigen Sie Ihren Kunden und Mitarbeitern, dass Sie ethische Aspekte ber√ľcksichtigen und Risiken proaktiv angehen.


  1. Sie haben Ihre KI-L√∂sung bereits eingef√ľhrt, aber es wurden von Kunden oder Mitarbeitern bestimmte Bedenken ge√§u√üert? Lassen Sie ML6 eine unabh√§ngige Pr√ľfung durchf√ľhren und die notwendige Dokumentation erstellen, um Bedenken zu entkr√§ften und Vorschl√§ge zur Behebung von Risikobereichen zu machen.¬†


Mit unserem Ethics Advisory-Angebot wollen wir Sie dabei unterst√ľtzen, vertrauensw√ľrdige L√∂sungen zu entwickeln, bei Ihren Kunden und Mitarbeitern Vertrauen in KI zu schaffen und Ihr Risiko zu begrenzen. Mit diesem Rahmenwerk ausgestattet, werden Sie auch in der Lage sein, zuk√ľnftige Anwendungsf√§lle selbst zu bewerten.¬†¬†


Haben wir Ihr Interesse geweckt? Sprechen Sie uns an, wenn Sie mehr wissen wollen oder m√∂chten, dass wir Sie bei der Bewertung der ethischen Risiken Ihrer KI-Anwendung unterst√ľtzen!



Verwandte Beiträge

Alle anzeigen
Keine Ergebnisse gefunden.
Es gibt keine Ergebnisse mit diesen Kriterien. Versuchen Sie, Ihre Suche zu ändern.
Großes Sprachmodell
Stiftung Modelle
Unternehmen
Unser Team
Strukturierte Daten
Chat GPT
Nachhaltigkeit
Stimme und Ton
Front-End-Entwicklung
Schutz und Sicherheit von Daten
Verantwortungsvolle/ethische KI
Infrastruktur
Hardware und Sensoren
MLOps
Generative KI
Verarbeitung nat√ľrlicher Sprache
Computer Vision