Juli 13, 2021

Fälle und Beispiele für die Durchführung einer ethischen KI-Risikobewertung

Mitwirkende
Caroline Adam
Leiter der Abteilung Inkubation
Keine Artikel gefunden.
Newsletter abonnieren
Diesen Beitrag teilen

In unserem letzten Blogpost haben wir darüber gesprochen, was vertrauenswürdige und ethische KI ist und wie wir bei ML6 unseren Kunden dabei helfen, durch unser Ethical AI Risk Assessment Vertrauen bei ihren Kunden und Mitarbeitern aufzubauen. In diesem Beitrag wollen wir es praktischer machen und zeigen, welche Dimensionen und Fragen wir bei einer solchen Bewertung berücksichtigen können.

Durchführen einer ethischen KI-Risikobewertung in der Praxis


Die Notwendigkeit, vertrauenswürdige KI aufzubauen, ist klar (wenn Sie noch nicht wissen, was wir mit vertrauenswürdiger KI meinen, schauen Sie sich diesen Blogbeitrag oder dieses Video an). Aber wie geht man die Überprüfung von KI-Lösungen in der Praxis an? Lassen Sie uns gemeinsam ein hypothetisches Beispiel durchgehen und dabei das im letzten Blogpost beschriebene Konzept verwenden. 


Ethische KI-Risikobewertung - Konzept


Zu Beginn der Corona-Krise arbeiteten einige unserer ML6-Agenten an einem Proof of Concept zur Erkennung von (fehlenden) Gesichtsmasken auf einem Kamera-Feed mit Computer Vision, um unser Büro zu schützen (siehe diesen Blogbeitrag). Wir werden dieses Projekt als Beispiel verwenden. Bei Projekten, bei denen Menschen im Mittelpunkt stehen, wollen wir in der Regel noch mehr auf ethische Belange achten - die Gesichtsmaskenerkennung ist also ein ideales Beispiel dafür. 


Um es klar zu sagen - die Lösung, die wir beschreiben und bewerten werden, wird in keinem unserer Büros tatsächlich verwendet. Aber um zu demonstrieren, wie man eine ethische Risikobewertung praktisch angeht, nehmen wir an, dass wir den Konzeptnachweis tatsächlich implementieren möchten.


Ziel, Kontext & Technologie


Lassen Sie uns direkt eintauchen. Wir müssen uns zunächst einen Überblick über das Projekt verschaffen - was ist das Ziel und der Zweck der Lösung? Wie ist sie technisch aufgebaut und in welchem Kontext wird sie eingesetzt? In unserem Beispiel wäre unser Ziel, die Lösung zur Gesichtsmaskenerkennung zu nutzen, um unsere Büros dabei zu unterstützen, zu überwachen, ob die Covid-19-Sicherheitsmaßnahmen eingehalten werden. Die Lösung würde mit Hilfe von Computer Vision überprüfen, ob Personen beim Betreten des Bürogebäudes eine Gesichtsmaske tragen, und bei Erkennung einer fehlenden Maske eine verbale Warnung ausgeben. Aus technischer Sicht verwendet die (experimentelle) Proof of Concept-Lösung OpenCV, um Kamerabilder zu streamen, zu verarbeiten und zu modifizieren. Wir haben ein erstes Modell unter Verwendung von MTCNN entwickelt und anschließend unser eigenes Tiny YOLO-Modell für die Erkennung des Mundes der Person für jedes erkannte Gesicht trainiert - unter der Annahme, dass, wenn wir den Mund einer Person sehen können, die Person keine Gesichtsmaske trägt (weitere technische Details finden Sie im ursprünglichen Blogbeitrag). Als Letztes betrachten wir den Kontext. Der Mundmasken-Detektor wurde im Kontext der globalen Gesundheitskrise entwickelt, in der viele Länder Vorschriften zum Tragen von Gesichtsmasken an öffentlichen Orten erlassen haben. Wie Sie vielleicht bemerken, ist der Kontext in diesem Fall besonders wichtig - es gäbe keinen Grund oder Nutzen, eine solche Lösung außerhalb der aktuellen Gesundheitskrise zu implementieren. 


Anschauliches Beispiel für Boundingboxen für erkannte fehlende Masken. Bildquelle: https://www.enterprisersuite.com/more-than-370000-people-have-recovered-from-covid-19-heres-what-we-know-about-coronavirus-survivors/



Vorteile und Risiken


Sobald wir einen detaillierten Überblick über die Lösung haben, müssen wir deren Nutzen und Risiken bewerten. Auf der Nutzenseite betrachten wir drei Ebenen - Nutzen für die Organisation, den Einzelnen und die Gesellschaft als Ganzes. Für die Organisation besteht der Nutzen darin, dass sich die Mitarbeiter (oder Kunden) sicher fühlen und ein geringeres Risiko tragen, krank zu werden, sowie darin, dass weniger Aufwand für manuelle Kontrollen betrieben werden muss. Für den Einzelnen ergeben sich ähnliche Vorteile - einfache Erinnerungen, eine sicherere Büroumgebung und weniger unangenehme Gespräche, in denen man seine Kollegen bittet, eine Maske aufzusetzen. Für die Gesellschaft könnte jede Maßnahme, die einen kleinen Beitrag zur endgültigen Eindämmung der Gesundheitskrise leistet, Vorteile bringen. Natürlich hängt die Realisierung dieser Vorteile stark von der tatsächlichen Nutzung der Lösung, der Akzeptanz und Befolgung ihrer Vorschläge und vielen anderen Faktoren ab. 


Lassen Sie uns mit der Risikoseite fortfahren. Hier folgen wir den 7 Risikodimensionen, wie sie in den EU-Richtlinien für vertrauenswürdige KI definiert sind, und identifizieren die Risiken durch die Beantwortung einer kuratierten Reihe von Fragen. 



7 Dimensionen, wie von der Europäischen Kommission definiert. Bildquelle: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines/1.html



Zur Veranschaulichung haben wir hier ein paar Beispielfragen für jede Dimension aufgeführt, aber seien Sie versichert, dass wir bei einer realen Beurteilung viel mehr Fragen betrachten würden.
 

1. Menschliches Handeln und Beaufsichtigung:

In dieser Dimension befassen wir uns mit den Risiken im Zusammenhang mit dem Einfluss, den KI auf das menschliche Verhalten und die Entscheidungsfindung haben kann. Zum Beispiel sollten wir Fragen stellen wie: 

  1. Gibt es einen Menschen in der Schleife, der die Vorhersagen verifiziert und die Lösung überwacht? 
  2. Könnte der Mensch ein blindes Vertrauen in die Automatisierung entwickeln (d.h. davon ausgehen, dass die Maschine immer Recht hat)? 
  3. Besteht die Gefahr, dass der Benutzer denken könnte, er interagiere mit einem anderen Menschen und nicht mit einer KI-Lösung?

Für unser Beispiel birgt diese Dimension ein eher begrenztes Risiko. Selbst wenn es tatsächlich keinen Menschen in der Schleife gibt, der jede Vorhersage verifiziert, scheint es auch nur begrenzten Schaden zu geben, der angerichtet werden kann, wenn eine Vorhersage nicht korrekt ist - im schlimmsten Fall sind wir wieder bei Mahnungen durch Ihre Mitarbeiter (um ein Gegenbeispiel zu geben, wäre dies bei einer KI-Lösung, die zum Beispiel medizinische Behandlungsoptionen für einen Patienten vorhersagt, ganz anders - wir würden wollen, dass jede dieser Vorhersagen von einem qualifizierten Arzt verifiziert wird). Es ist auch unwahrscheinlich, dass unsere Mitarbeiter der Maschine blind vertrauen, und wir sind sicher, dass jeder wissen würde, dass es sich um eine Interaktion mit einer Maschine handelt - die mechanische Stimme verrät dies deutlich. 


2. Technische Robustheit und Sicherheit:

KI-Systememüssen belastbar, sicher und zuverlässig sein, um potenziellen Schaden zu verhindern. In dieser Dimension beantworten wir Fragen wie:

  1. Ist dem Anwender bewusst, wie genau die Lösung ist? 
  2. Kann es zu Schäden (z.B. an der Sicherheit) kommen, wenn das System nicht mehr funktioniert oder technische Defekte auftreten?
  3. Was könnte ein Akteur mit schlechten Absichten mit der Lösung anfangen?

Die technische Robustheit und Sicherheit wird in unserem Fall eine höhere Risikodimension sein. Einige Schäden, in diesem Fall an der Gesundheit der Mitarbeiter, könnten auftreten, wenn die Lösung nicht mehr funktioniert, allerdings glauben wir, dass die meisten Menschen die fehlende Maske recht schnell bemerken würden. Besorgniserregender ist die Tatsache, dass es recht einfach ist, die Lösung auszutricksen. Wenn Sie sich an den Anfang der Bewertung erinnern, haben wir erklärt, dass wir eigentlich fehlende Münder erkennen, nicht das Vorhandensein von Masken - wie wäre es also, den Mund hinter der Hand zu verstecken? Vielleicht müssen wir eine robustere Lösung bauen, wenn sich dies als Problem herausstellt. Natürlich ist diese Sorge noch wichtiger für KI, die größeren Schaden anrichten könnte, denken Sie zum Beispiel an selbstfahrende Autos. Sie würden wollen, dass die Technologie so robust und zuverlässig wie möglich ist (... ist Ihr Auto in der Lage, Straßenschilder korrekt zu erkennen, wenn diese mit Graffiti bedeckt sind?)

Das größte Risiko in dieser Dimension, das nichts mit KI zu tun hat, ist jedoch, dass ein böser Akteur die Kontrolle über die Kamera übernehmen oder die Lösung missbrauchen könnte, um Mitarbeiter auszuspionieren. 


3. Datenschutz und Data Governance:

Der Datenschutzist ein Grundrecht, das von KI-Systemen besonders betroffen ist. Eine Lösung muss den rechtlichen Anforderungen entsprechen (z. B. GDPR), sollte aber auch einen Schritt weiter gehen und die ethische Perspektive einbeziehen.

  1. Können die betroffenen Personen der Sammlung ihrer Daten widersprechen?
  2. Können Sie stattdessen mit anonymisierten oder pseudonymisierten Daten arbeiten?
  3. Was ist die schlimmste Schlagzeile in einer Zeitung in Bezug auf Datenschutzverletzungen, die Sie sich für dieses Projekt vorstellen können? 

Die Dimension der Privatsphäre birgt, wie zu erwarten war, in diesem speziellen Fall wahrscheinlich die größten Risiken. Wir verwenden Gesichtserkennung zur Identifizierung von Gesichtern und Gesichtsmerkmalen, was ein sehr umstrittenes Thema ist. Die Anwendung speichert jedoch keine Daten und wird rein "on edge" ausgeführt, wodurch sie weniger anfällig für Missbrauch oder Angriffe ist. 

Hinweis: Aus rechtlicher Sicht ist eine Datenverarbeitungs-Folgenabschätzung (Art. 35 GDPR) erforderlich, um die Datenschutzrisiken sowohl aus rechtlicher als auch aus technischer Sicht zu identifizieren, zu verwalten und zu mindern. 


4. Transparenz und Erklärbarkeit:

Die Erklärbarkeiteiner KI-Lösung ist ein wichtiger Aspekt für ethische KI. Wir wollen nicht nur in der Lage sein zu erklären, welche Merkmale von einem Modell berücksichtigt wurden und wie das Modell funktioniert, sondern die Erklärbarkeit ist auch erforderlich, um sicherzustellen, dass wir dem Modell vertrauen können, und könnte sogar zusätzliche Erkenntnisse bringen. Fragen, die wir uns stellen könnten, sind:

  1. Wie viel von den Datenquellen können Sie offenlegen?
  2. Können Sie (nicht-technischen) Benutzern das Modell und seine Entscheidungen leicht erklären?
  3. Können Sie den Menschen, die von der KI betroffen sind, transparent erklären & kommunizieren? Wenn nicht, gibt es einen guten Grund, warum nicht?

Die Lösung, die wir gebaut haben, ist ziemlich transparent - alle Daten, Ausgaben und verwendeten Modelle sind öffentlich kommuniziert und verfügbar. Während der Anwendungsfall selbst recht einfach zu verstehen ist, könnten die zugrundeliegenden Modelle jedoch für nicht-technische Benutzer weniger klar sein. Zum Beispiel könnte das verwendete Yolo-Modell schwieriger zu verstehen sein, da es sich um eine recht komplizierte Architektur eines faltbaren neuronalen Netzwerks handelt, das auf einer großen Datenmenge trainiert wurde.

5. Vielfalt, Unvoreingenommenheit und Fairness:

Voreingenommenheitoder Unvollständigkeit der von KI-Systemen verwendeten Datensätze oder des Systems selbst können zu Ungerechtigkeit führen oder Schaden verursachen. Wir müssen potenzielle Risiken der Voreingenommenheit aktiv erkennen und abmildern, um faire, unvoreingenommene Lösungen zu entwickeln. Fragen, die wir uns stellen könnten:

  1. Fällt Ihnen eine Gruppe von Personen ein, die im Datensatz unter- oder überrepräsentiert ist?
  2. Wessen Perspektive fehlt im Entwicklungs- und Designprozess?
  3. Was könnte eine mögliche historische Verzerrung in den Daten sein, die Sie verwenden?

Die Dimension der Vielfalt und Fairness könnte in unserem Fall ein hohes Risiko darstellen. Wir müssten uns den Trainingsdatensatz genau ansehen - könnte es eine Personengruppe geben, die in den Trainingsdaten unterrepräsentiert ist, zum Beispiel ethnische Minderheiten? Wenn ja, ist es denkbar, dass die Gesichter dieser Gruppen mit geringerer Genauigkeit erkannt werden. Solche Probleme könnten vor allem dann unbemerkt bleiben, wenn unser Entwicklungs- und Testteam nicht eine ausreichend vielfältige Gruppe von Personen umfasst. 


6. Ökologisches und gesellschaftliches Wohlergehen:

Dieweitergehenden Auswirkungen der KI auf die Gesellschaft und die Umwelt sollten natürlich ebenfalls berücksichtigt werden. Wir könnten über Folgendes nachdenken:

  1. Wie würde sich Ihr Produkt verändern, wenn Sie sich darauf konzentrieren würden, die umweltfreundlichste Lösung zu bauen, die es gibt?
  2. Könnten durch die Umsetzung der Lösung Arbeitsplätze gefährdet sein? 
  3. Was sind die möglichen negativen Auswirkungen der Lösung auf die Gesellschaft oder die Demokratie?

Bei ML6 haben wir starke Prinzipien zur Entwicklung nachhaltiger Lösungen. Die Verwendung von vortrainierten Open-Source-Modellen mit optimierter Modellgröße hilft beispielsweise dabei, möglichst umweltschonende Lösungen zu entwickeln. Auf der gesellschaftlichen Seite ist der Einsatz von Gesichtserkennungstechnologie stark umstritten. Wir müssen auch darauf achten, dass Lösungen, die mit einer bestimmten Absicht gebaut wurden, nicht für andere Zwecke wiederverwendet werden, und der Nutzung der Anwendung starke Grenzen setzen. 


7. Rechenschaftspflicht:

Bei der letzten Dimension, der Rechenschaftspflicht, geht es um die Übernahme von Verantwortung für Handlungen und Entscheidungen. Wir müssen in der Lage sein, festzustellen, ob ein Schaden verursacht wurde, und wissen, wie wir mögliche negative Auswirkungen korrigieren können. 

  1. Wer ist verantwortlich, wenn Anwender durch die KI-Lösung geschädigt werden?
  2. Wer wird die Entscheidungsgewalt über neue Funktionen oder Änderungen am System haben?
  3. Wie verfolgen und dokumentieren wir Entscheidungen nach der Einführung (z. B. Nutzungserweiterung, Änderungen im Zugang etc.)?

Die Verantwortlichkeit ist in unserem Fall nicht eine der höchsten Risikodimensionen. In unserem experimentellen Fall können die Verantwortlichkeiten ganz klar zugewiesen werden: Die ML-Ingenieure haben eine ursprüngliche Lösung gebaut und könnten nach der Einführung für die Überwachung und Dokumentation von Entscheidungen verantwortlich sein. Wenn die Lösung tatsächlich in unserem Büro implementiert wurde, sollte das Management für alle Entscheidungen, Änderungen oder Maßnahmen im Zusammenhang mit der Lösung verantwortlich sein. Natürlich sollten wir Grenzen setzen, wie lange die Lösung im Einsatz sein wird (z. B. bis zur Aufhebung der Regulierung) und wie sich das Tool in Zukunft weiterentwickeln darf (z. B. Anforderung, auf dem neuesten Stand zu bleiben). 


Wie wir sehen können, liegen die wichtigsten ethischen Risiken in diesem Anwendungsfall in den Dimensionen Datenschutz und Data Governance, Diversität und Fairness sowie technische Robustheit - nennen wir diese die Dimensionen mit hohem Risiko. Für jede Dimension müssen wir uns fragen, was wir tun können, um die Risiken zu mindern. Zunächst müssen wir jeden, der unser Büro besucht, darüber informieren, was die Lösung tut und wie sie funktioniert (wie genau sie ist, welche Technologie sie verwendet, usw.) und warum wir sie verwenden. Im Hinblick auf den Datenschutz sollten wir die Möglichkeit der Anonymisierung von Gesichtern am Rand prüfen, was ein Kompromiss mit der Leistung sein könnte. Wir könnten auch in Erwägung ziehen, Einzelpersonen die Möglichkeit zu geben, sich für oder gegen die Lösung zu entscheiden, und müssen sicherstellen, dass niemand auf die Idee kommen könnte, die erzeugten persönlichen Daten zu speichern (und dies auch umsetzen). Was die Fairness betrifft, könnten wir einen unserer Ingenieure damit beauftragen, die Lösung regelmäßig auf Verzerrungen zu überprüfen. Was die Robustheit betrifft, müssten wir die Lösung im Einsatz überwachen und ihre Robustheit verbessern, wenn wir feststellen, dass sie ausgetrickst wird, sowie die Lösung so robust wie möglich gegen potenzielle Hackerangriffe machen. Nicht zuletzt müssen wir klare Grenzen für die Lösung setzen - also entscheiden, wann wir sie nicht mehr verwenden (spätestens, wenn die Gesundheitsvorschriften aufgehoben werden). Dies sind nur ein paar Ideen für Entschärfungsmaßnahmen, natürlich sind die Möglichkeiten breit gefächert und hängen stark von der Lösung und dem Kontext ab. 


In einer echten ethischen KI-Risikobewertung würden wir nun unsere Kunden durch den Entscheidungsprozess führen - überwiegen die Vorteile die Risiken? Welche Maßnahmen zur Risikominderung müssen wir ergreifen, um sicherzustellen, dass wir eine vertrauenswürdige Lösung entwickeln? Reale Anwendungsfälle können natürlich viel komplexer werden als das vereinfachte hypothetische Beispiel, das wir beschrieben haben - eine ethische Risikobewertung kann ein guter Ausgangspunkt sein, um die Risiken einer KI-Lösung systematisch zu durchdenken und sich auf die kommende Regulierung durch die EU vorzubereiten. 


Zögern Sie nicht, uns anzusprechen, wenn Sie Fragen haben oder neugierig auf mehr sind!  


Suchen Sie nach weiteren Inspirationen für Fragen, die Sie in den verschiedenen Dimensionen stellen können? Sehen Sie sich zum Beispiel die Tarot-Karten der Technik und die Bewertungsliste für vertrauenswürdige KI.


Verwandte Beiträge

Alle anzeigen
Keine Ergebnisse gefunden.
Es gibt keine Ergebnisse mit diesen Kriterien. Versuchen Sie, Ihre Suche zu ändern.
Stiftung Modelle
Unternehmen
Unser Team
Verantwortungsvolle und ethische KI
Strukturierte Daten
Chat GPT
Nachhaltigkeit
Stimme und Ton
Front-End-Entwicklung
Schutz und Sicherheit von Daten
Verantwortungsvolle/ethische KI
Infrastruktur
Hardware und Sensoren
MLOps
Generative KI
Verarbeitung natürlicher Sprache
Computer Vision