Modelle des maschinellen Lernens werden immer häufiger zur Unterstützung wichtiger Entscheidungen eingesetzt - von der Unterstützung von Ärzten bei der Diagnose eines Gesundheitsproblems über die Empfehlung geeigneter Kandidaten für eine offene Stelle bis hin zur Aufdeckung betrügerischer Transaktionen in der Finanzbranche. Allerdings werden KI-Algorithmen noch immer häufig als "Blackboxen" wahrgenommen - Systeme, bei denen wir zwar die Daten, die einfließen, und die Vorhersagen, die herauskommen, beobachten können, aber nicht in der Lage sind, die inneren Abläufe zu interpretieren oder zu erklären. Erklärbare KI, oft auch als XAI bezeichnet, versucht, die Blackbox-Natur bestimmter maschineller Lernmodelle zu lösen.
Bei ML6 betrachten wir das Thema Erklärbarkeit gerne aus einem breiteren Blickwinkel. Wir sehen Erklärbarkeit als Teil des gesamten KI-Projekts, nicht nur als Teil des Modells. Für uns ist es wichtig, alle Schritte im ML-Workflow zu berücksichtigen, angefangen bei der Problemdefinition und den verwendeten Daten über das Modell selbst bis hin zur Benutzeroberfläche - denn in jedem Schritt können wir Maßnahmen ergreifen, um die Ergebnisse unserer Modelle besser interpretierbar und nützlich zumachen.
Wie eine erklärbare KI-Lösung aussieht, hängt stark vom Projekt und von dem Problem ab, das wir zu lösen versuchen. Im folgenden Blogbeitrag werden wir Einblicke und praktische Fallstudien geben, die die Ziele und die Bedeutung von erklärbarer KI aufzeigen. Anschließend werden wir uns ansehen, wie eine Lösung für maschinelles Lernen erklärbar oder interpretierbar gemacht werden kann, und zwar nicht nur auf Modellebene, sondern unter Berücksichtigung des gesamten ML-Projekts.
Wenn Menschen mit ML-Lösungen interagieren, ist ein gutes Verständnis der Art und Weise, wie und warum Vorhersagen gemacht werden, oft entscheidend, um Vertrauen zu schaffen und damit die Akzeptanz einer Lösung zu fördern. Dies wiederum führt letztlich zu einem zusätzlichen geschäftlichen Nutzen von KI-Projekten.
Die Gründe für die Einführung der Erklärbarkeit hängen oft vom Reifegrad der KI-Lösung ab. Eine KI-Lösung kann entweder 1) schwächer als der Mensch, 2) gleichwertig mit dem Menschen oder 3) stärker als der Mensch sein. Werfen wir in diesem Abschnitt einen Blick auf die Ziele der Erklärbarkeit für jeden Reifegrad*.
Wenn ein KI-Modell schwächer ist als ein Mensch, ist die Erklärbarkeit wichtig, um Fehler im Modell zu finden. Das Ziel in diesem Szenario ist es, die Maschine zu verbessern, indem man herausfindet, was falsch läuft.
Stellen Sie sich vor, wir trainieren ein Computer-Vision-Modell zur Erkennung von Pferden. Wir stellen fest, dass das Modell auf neuen Bildern nicht gut funktioniert, aber wir wissen nicht warum. Durch Hinzufügen einer Erklärungsebene, z. B. durch Visualisierung hervorstechender Bereiche, erkennen wir, dass das Modell nur gelernt hat, einen beschreibenden Text aus dem Trainingsdatensatz auf Bildern mit Pferden zu erkennen, anstatt zu lernen, wie man ein Pferd identifiziert. Wenn wir dies wissen, können wir den Text entfernen und den Fehler korrigieren, um unser Modell zu verbessern.
Ein weiteres Beispiel ist das aktive Lernen. Beim aktiven Lernen besteht das Ziel darin, die Leistung unseres Algorithmus zu verbessern, indem wir menschliches Wissen auf die effizienteste Weise nutzen. Stellen Sie sich vor, Sie wollen eine Qualitätskontrolle an einer Fertigungsstraße durchführen. Wir haben nur eine begrenzte Anzahl beschrifteter Bilder zur Verfügung, und der manuelle Beschriftungsprozess ist teuer. Mit einem Algorithmus für aktives Lernen können wir die Bilder identifizieren, bei denen der Algorithmus Fehler macht, und die Daten mit der höchsten Auswirkung für das Training eines Modells priorisieren, so dass wir unser Modell schneller und mit weniger Personal verbessern können.
Gehen wir zur nächsten Reifegradstufe über. Wenn die KI so ausgereift ist, dass sie dem Menschen ebenbürtig ist, geht es bei der Erklärbarkeit darum, bei den Nutzern des Modells Vertrauen aufzubauen und zusätzliche nützliche Erkenntnisse zu liefern. Die Konsequenzen einiger Vorhersagen können wichtig sein, z. B. bei einem Modell, das einen bösartigen Tumor vorhersagt. Ein Arzt, der mit einem solchen Modell arbeitet, würde sich sicherlich die Frage stellen: Kann ich darauf vertrauen, dass die Vorhersagen richtig sind? Warum hat das Modell dieses Ergebnis vorhergesagt, und wie kann ich es meinem Patienten erklären? Mit erklärbarer KI versuchen wir, den Grund für eine bestimmte Vorhersage zu liefern, um Vertrauen zu schaffen und die Akzeptanz der ML-Lösung zu erhöhen.
Vertrauen in eine KI-Lösung durch Erklärbarkeit zu schaffen, kann entscheidend sein - wie in diesem Anwendungsfall. Wir haben für einen Kunden eine ML-Lösung für den datengesteuerten Vertrieb entwickelt, die vorhersagt, ob ein Geschäft zu einem Verkauf führt oder nicht. Wir merkten jedoch recht schnell, dass die Empfehlung immer dann als ungenau verworfen wurde, wenn die Vorhersage nicht mit der Intuition des Vertriebsmitarbeiters übereinstimmte. Wir brauchten mehr Erklärungen, damit die Benutzer den Modellen vertrauten und ihr Verhalten tatsächlich änderten. Bleiben Sie dran, um zu lesen, wie wir die Erklärbarkeit in diesem speziellen Anwendungsfall später in diesem Beitrag hinzugefügt haben und welche Auswirkungen dies hatte.
Manchmal können zusätzliche Erkenntnisse direkt zu einem höheren Geschäftswert einer KI-Lösung führen. Lassen Sie uns dies an einem Projekt demonstrieren, das wir im Immobiliensektor durchgeführt haben. Unser Kunde, ein Immobilienmakler, wollte den Prozess der Suche nach interessierten Mietern für Gewerbeimmobilien digitalisieren - im Grunde eine Empfehlungsmaschine schaffen, die Unternehmen mit ihren idealen Geschäftsräumen zusammenbringt. Gemeinsam entwickelten wir eine KI-Lösung, die vorhersagen konnte, welche Gewerbekunden sich für eine bestimmte Immobilie interessieren würden - schließlich haben verschiedene Unternehmen unterschiedliche Bedürfnisse: Einige bevorzugen vielleicht die Nähe zu einer Autobahn, einer Schule oder einer U-Bahn-Station, andere legen mehr Wert auf die Größe der Immobilie, die Verfügbarkeit von Parkplätzen oder viele andere mögliche Merkmale. Während der Entwicklung der Lösung wurde uns jedoch klar, dass es für unseren Kunden nicht viel bringt, einfach nur zu wissen, wer zu ihm passt - eine wichtige Frage blieb unbeantwortet: Wie kann ich meinem Kunden erklären, warum ich glaube, dass diese bestimmte Immobilie die richtige für ihn ist? Also gingen wir zu einem erklärenden Ansatz über, bei dem wir auch die Gründe für die Übereinstimmung mitteilten. Dies ermöglichte es unserem Kunden, seine potenziellen Kunden mit sehr gezielten Informationen anzusprechen ("Wir haben eine Immobilie für Sie gefunden und glauben, dass sie für Sie interessant sein könnte, weil sie die richtige Größe für Ihr Unternehmen hat und in der Nähe eines Schul- und Büroviertels liegt"). Unser Kunde verzehnfachte die Zahl der Kontakte mit einer Rücklaufquote von 70 % und wurde bei der Betreuung seiner Kunden 600 % effizienter.
Es gibt auch Situationen, in denen ein KI-Modell den Menschen übertreffen kann. Wir sprechen natürlich nicht davon, dass KI die Welt erobert - mit stärker meinen wir die Fähigkeit, mehr oder komplexere Daten zu verarbeiten, als der menschliche Verstand auf einmal verarbeiten könnte.
In diesem Fall besteht das Ziel der Erklärbarkeit im KI-Modell darin, die Menschen zu informieren oder ihnen beim Verstehen zu helfen. Komplizierte Konzepte oder Beziehungen können enträtselt und für den Menschen erklärbar gemacht werden.
Ein gutes Beispiel für diese Situation ist die Ursachenanalyse. Zu Beginn dieses Jahres haben wir ein Projekt mit einem Windparkbetreiber durchgeführt. Ziel des Projekts war es, die Ursachen für die unzureichende Leistung von Windturbinen zu ermitteln, um die Leistungsverluste zu verringern. Wir haben ein ML-Modell entwickelt, um die Ausgangsleistung auf erklärbare Weise genau vorherzusagen, und zwar auf der Grundlage einer zu großen Menge an Daten wie Sensorwerten und Turbineninformationen, um sie menschenwürdig zu verarbeiten. Die Vorhersagen können dann zusammen mit den Erklärungen, die hinter der Vorhersage stehen, verwendet werden, um die Hauptursachen für eine unzureichende Leistung zu ermitteln, wenn sie auftritt. So erhalten wir Einblicke in einen ansonsten zu komplizierten Prozess und können die Energieverluste verringern.
Erklärbare KI hat eindeutig starke Vorteile in vielen Anwendungsfällen und kann direkten Einfluss auf die geschäftlichen Auswirkungen von maschinellen Lernmodellen haben. Dies führt uns zu der nächsten Frage: Wie kann man eine KI-Lösung erklärbar machen? Wir wollen Ihnen einen Überblick geben, ohne zu sehr ins Detail zu gehen.
Wie in der Einleitung erwähnt, geht es uns bei ML6 explainability nicht nur um erklärbare Modelle, sondern um die Einbeziehung der Erklärbarkeit in den gesamten Lebenszyklus von KI-Projekten. Lassen Sie uns daher einen Blick auf 3 sehr vereinfachte(!) Phasen der KI-Modellentwicklung werfen.
Die Erklärbarkeit kann bereits bei der Problemdefinition berücksichtigt werden. Manchmal können wir unsere Lösung erklärbarer machen, indem wir das Problem einfach neu formulieren. Bei der Definition eines Problems müssen wir uns selbst dazu herausfordern, das Problem aus verschiedenen Blickwinkeln zu betrachten und uns fragen, wie wir eine wirkungsvollere Lösung schaffen können, indem wir mehr Erklärbarkeit hinzufügen.
Hier ein Beispiel. Ein Kunde hatte uns gebeten, ein Modell zu entwickeln, das erkennt, ob ein Auto einen Kratzer hat oder nicht. Dieses Problem kann mit einem Computer-Vision-Klassifizierungsmodell gelöst werden, das die Frage "hat das Auto einen Kratzer - ja oder nein" beantwortet. Als wir über die Lösung dieses Anwendungsfalls nachdachten, kamen wir zu dem Schluss, dass es für den Benutzer verständlicher wäre, stattdessen einen Ansatz zur Objekterkennung zu verwenden, der die Frage "Erkenne und zeige auf den Kratzer am Auto" beantwortet. In der neuen Problemstellung kann der Benutzer viel leichter überprüfen, ob das Modell richtig ist, wodurch Vertrauen zwischen dem Benutzer und dem Modell geschaffen und die KI-Lösung wertvoller wird.
Wir sind auf ein weiteres Beispiel gestoßen, bei dem die Neudefinition des Problems zur Erklärbarkeit beigetragen hat. Erinnern wir uns an den bereits erwähnten Fall des datengesteuerten Verkaufs. Die erste Lösung, die uns in den Sinn kam, war diese: Sagen Sie anhand einiger Parameter für ein potenzielles Geschäft die Wahrscheinlichkeit voraus, dass es tatsächlich zustande kommen wird. Bei dieser Definition würden wir das Problem als ein Regressionsproblem behandeln. Wenn wir das Problem neu formulieren, könnten wir die Lösung jedoch umdrehen und stattdessen den wahrscheinlichsten Grund für das Scheitern des Geschäfts vorhersagen (z. B. dass es nicht zu unserem Unternehmen passt, dass nicht genügend Folgemaßnahmen getroffen werden usw.). Diese Methode ist viel besser interpretierbar und kann sogar dabei helfen, Folgemaßnahmen zu ergreifen.
Beiden Fällen ist gemeinsam, dass man für ein Problem-Reframing ein sehr gutes Verständnis des Anwendungsfalls, der Daten und des Problems, das man zu lösen versucht, braucht. Durch Gespräche mit dem Endnutzer, das Verstehen seiner Sorgen und der Art und Weise, wie er die Lösung nutzen wird, sowie die Konsultation von Fachleuten können wir die beste Lösung für ein bestimmtes Problem finden.
Dies ist die Phase in der Entwicklung von KI-Modellen, die in der Regel die meiste Aufmerksamkeit erhält, wenn es um die Erklärbarkeit geht. Um die Erklärbarkeit unserer Modelle zu verbessern, haben wir zwei Möglichkeiten: Wir können von Anfang an interpretierbare Modelle (z. B. Entscheidungsbäume) verwenden, oder wir können Werkzeuge auf "Blackbox"-Modelle aufsetzen.
Ein interpretierbares Modell ist ein Modell, das von einem Menschen allein verstanden werden kann, ohne dass zusätzliche Techniken oder Hilfsmittel zum Einsatz kommen. Um es anders zu formulieren: Wir können das Modell selbst betrachten und verstehen, wie es eine Vorhersage trifft. Ein einfaches Beispiel für ein interpretierbares Modell ist ein Entscheidungsbaum - wenn wir jeden Knoten des Baums durchgehen, können wir beobachten, wie das Modell jede Vorhersage getroffen hat.
Es besteht oft ein Kompromiss zwischen besser interpretierbaren Modellen und höherer Leistung. Anders als in der akademischen Welt wird in der Praxis jedoch oft ein Modell benötigt, das nur "gut genug" funktioniert; mit anderen Worten, die Interpretierbarkeit kann oft einen größeren Nutzen bringen als eine geringfügige Verbesserung der Leistung. In diesen Fällen können wir die Verwendung eines einfacheren, besser interpretierbaren Modells in Erwägung ziehen, z. B. logistische Regression, Entscheidungsbäume oder KNN.
Eine andere Möglichkeit, ein Modell besser interpretierbar zu machen, besteht in der Kombination von manuellen (Geschäfts-)Regeln mit maschinellem Lernen. Dies wird als "hybride KI" bezeichnet, ein Bereich, der in letzter Zeit viel Aufmerksamkeit erregt.
Normalerweise werden interpretierbare Modelle bevorzugt - sie sind leichter zu verstehen und zu erklären. Wenn jedoch die Verwendung eines einfacheren, besser interpretierbaren Modells in einem bestimmten Fall nicht die erste Wahl ist, können wir verschiedene Techniken und Werkzeuge einsetzen, um Licht in Black-Box-Modelle zu bringen (darauf beziehen sich die meisten Leute, wenn sie über erklärbare KI sprechen). In diesem Fall können wir verschiedene Techniken oder Werkzeuge verwenden, wie z. B. die Merkmalsbedeutung: welche Merkmale (oder Einflüsse) haben am meisten zum Ergebnis beigetragen. Diese Techniken liefern jedoch oft nur eine Annäherung daran, wie das Modell im Nachhinein funktioniert.
Welches Tool zu verwenden ist, hängt stark vom Modell und dem Anwendungsfall ab. Bei der Arbeit mit strukturierten Daten wird häufig SHAP verwendet, um die Bedeutung oder den Einfluss jedes Merkmals auf eine Vorhersage zu bestimmen (denken Sie zum Beispiel an den bereits erwähnten Anwendungsfall Windkraftanlage). Wie in der Abbildung unten zu sehen ist, zeigt SHAP für jede Vorhersage (Ausgabe) an, welches Merkmal (z. B. Alter, Geschlecht, BMI) in welchem Umfang zum endgültigen Wert der Vorhersage beigetragen hat.
Natürlich gibt es noch viele weitere Tools und Techniken, nicht nur für strukturierte Daten, sondern auch für Bilder und natürliche Sprache. Eigentlich zu viele für heute - bleiben Sie auf dem Laufenden für einen separaten (eher technischen) Blogpost!
Im letzten Schritt des KI-Workflows wollen wir in der Regel unsere Ergebnisse visualisieren (lassen wir die ganzen, sehr wichtigen Themen der KI-Workflows ausnahmsweise einmal außen vor). Das Hinzufügen von intuitiven Visualisierungen hilft den Nutzern in der Regel, das Ergebnis besser zu verstehen, und ist ein großartiges Werkzeug, um den Menschen zu helfen, zu verstehen, wie bestimmte Modelle funktionieren - was die Erklärbarkeit und das Vertrauen in die Lösung erhöht.
Kehren wir zu unserem früheren Beispiel auf dem Immobilienmarkt zurück. Nachdem wir die Gründe, warum eine Immobilie für einen gewerblichen Kunden geeignet ist, mit den entsprechenden Werkzeugen herausgefunden haben, haben wir diese Gründe in einer intuitiven Benutzeroberfläche visualisiert. Dies hilft dem Nutzer, die Ergebnisse zu verstehen, ohne mit den technischen Details des Modells überfordert zu sein, was wiederum zur Interpretierbarkeit beiträgt.
In diesem Blogbeitrag haben wir einen Überblick über die Gründe gegeben, warum wir Explainable AI für wichtig halten, und einige Hinweise gegeben, wie man dabei vorgehen kann. Um es kurz zu machen:
Wir hoffen, dass wir Sie davon überzeugen konnten, dass erklärungsbedürftige KI erhebliche geschäftliche Auswirkungen haben kann. Wenn Sie Kommentare, Fragen oder Feedback haben - lassen Sie uns reden!