Definition Was ist SHapley Additive exPlanations (SHAP)?

Von Dipl.-Ing. (FH) Stefan Luber 4 min Lesedauer

Anbieter zum Thema

SHapley Additive exPlanations (SHAP) ist die Bezeichnung eines Ansatzes und Verfahrens, mit dem sich die Ergebnisse von Machine-Learning-Modellen erklären lassen. Es handelt sich um eine Lösung aus dem Fachgebiet Explainable AI. Explainable AI verfolgt die Zielsetzung, die Vorhersagen von KI-Modellen menschenfreundlich zu interpretieren. SHAP trägt zu mehr Transparenz und einer besseren Nachvollziehbarkeit von Entscheidungen Künstlicher Intelligenz bei.

(Bild:  © aga7ta - stock.adobe.com)
(Bild: © aga7ta - stock.adobe.com)

Das Kürzel SHAP steht für SHapley Additive exPlanations. Es handelt sich um ein von Scott M. Lundberg und Su-In Lee an der Paul G. Allen School of Computer Science der Washington University entwickeltes und im Jahr 2017 mit dem Titel „A Unified Approach to Interpreting Model Predictions“ veröffentlichtes Verfahren. Mithilfe von SHAP lassen sich die Ergebnisse von Machine-Learning-Modellen erklären. SHAP geht auf einen Ansatz aus der Spieltheorie zurück und verwendet die nach Lloyd Shapley benannten Shapley-Werte (Shapley Values).

SHapley Additive exPlanations ist eine von mehreren Lösungen aus dem Fachgebiet Explainable AI. Ziel von Explainable AI ist es, die Vorhersagen von KI-Modellen menschenfreundlich zu interpretieren. SHAP trägt zu mehr Transparenz und einer besseren Interpretierbarkeit von Machine-Learning-Modellen bei. Das Verfahren ist modellunabhängig einsetzbar, kann mit dem komplexen Verhalten vieler Modelle umgehen und macht das „Black-Box-Verhalten“ Künstlicher Intelligenz ein Stück weit erklärbarer. SHapley Additive exPlanations ist als Python-Library unter MIT-Lizenz auf GitHub frei verfügbar.

Motivation für die Entstehung von SHAP

In den vergangenen Jahren wurden auf dem Gebiet der Künstlichen Intelligenz und des Maschinellen Lernens große Fortschritte erzielt. KI-Modelle haben in vielen Bereichen des täglichen Lebens und Arbeitens Einzug gehalten. Künstliche Intelligenz trifft Entscheidungen, erstellt Texte, berät Kunden, generiert oder klassifiziert Bilder und vieles mehr. In vielen Branchen und Anwendungen, beispielsweise im Finanzwesen, im Gesundheitswesen, für autonomes Fahren und für vieles mehr wird KI ausgiebig genutzt. Die Vorhersagen und Ergebnisse der KI-Modelle basieren auf komplexen Algorithmen und großen neuronalen Netzwerken mit vielen Milliarden Parametern, die mit riesigen Datenmengen trainiert wurden.

Unter anderem aufgrund ihrer Komplexität und Größe verhalten sich die Modelle für Menschen wie eine Art Black Box. Es ist kaum noch nachvollziehbar, wie ein Modell zu einem bestimmten Ergebnis oder einer Vorhersage gekommen ist. Diesen Mangel an Transparenz und an Interpretierbarkeit kann sich als ein großer Nachteil erweisen. Er verhindert unter Umständen einen Einsatz von Künstlicher Intelligenz in sensiblen oder kritischen Anwendungen, in denen getroffene Entscheidungen weitreichende Folgen haben können.

Der Output von Machine-Learning-Modellen muss aus verschiedenen Gründen, beispielsweise aus ethischen oder wirtschaftlichen Gründen, zu einem gewissen Grad erklärbar sein. Auch für die Fehlersuche oder bei unerwartetem Modellverhalten ist ein Mindestmaß an Transparenz erforderlich. Aus dieser Anforderung hat sich das Fachgebiet Explainable AI entwickelt, das versucht die Vorhersagen von KI-Modellen menschenfreundlich zu interpretieren. Im Rahmen der Forschungen im Fachgebiet Explainable AI sind verschiedene Ansätze zur Erklärung der Ergebnisse Künstlicher Intelligenz entstanden. SHapley Additive exPlanations ist einer davon und lässt sich in die Kategorie der agnostischen, modellunabhängigen Verfahren einsortieren.

Funktionsweise von SHAP

SHAP stützt sich auf einen im Jahr 1951 von Lloyd Shapley eingeführten Ansatz der kooperativen Spieltheorie. Er ordnet den einzelnen Spielern die nach Shapley benannten Shapley-Werte zu. Die Werte bilden in einem kooperativen Spiel den jeweiligen Beitrag eines Spielers am Erfolg einer Gruppe in Form einer Belohnung ab. Diese Idee übertrugen Scott M. Lundberg und Su-In Lee auf das Maschinelle Lernen. Das kooperative Spiel ist das Machine-Learning-Modell und die Eingabemerkmale (Input Features) sind die einzelnen Spieler.

Indem für die Eingabe-Features Shapley-Werte berechnet werden, lässt sich bestimmen, wie wichtig ein Feature für die Vorhersage beziehungsweise das Ergebnis des Machine-Learning-Modells gewesen ist. SHapley Additive exPlanations zerlegt die Vorhersage eines Modells in die Beiträge der einzelnen Features und berechnet ihre Anteilswerte am Gesamtergebnis. SHAP kann sowohl den generellen Beitrag der Features über alle Vorhersagen als auch den individuellen Beitrag eines bestimmten Features an einer spezifischen Vorhersage bestimmten.

Vorteile durch den Einsatz von SHAP

  • die wichtigsten Eingabemerkmale für ein KI-Ergebnis lassen sich identifizieren
  • Ergebnisse oder Vorhersagen von Machine-Learning-Modellen werden interpretierbar und erklärbar
  • erhöht die Transparenz und das Vertrauen in die KI
  • erleichtert die Fehlersuche und Problembehebung bei unerwarteten KI-Ergebnissen
  • ermöglicht eine fundierte Argumentation gegenüber Dritten bezüglich der Ergebnisse eines Modells
  • das Verfahren verhält sich agnostisch und ist modellunabhängig einsetzbar
  • kann auch mit komplexen Machine-Learning-Modellen umgehen
  • eine SHA-Python-Library ist frei verfügbar
  • kann sowohl den generellen Beitrag einzelner Features über alle Vorhersagen als auch den individuellen Beitrag bestimmter Features an einer spezifischen Vorhersage bestimmen

Schwächen von SHAP

Eine Schwäche von SHAP ist, dass die Berechnungen der Beiträge der Features zu einem Gesamtergebnis bei großen und komplexen Machine-Learning-Modellen sehr aufwendig werden können. Dadurch ist SHAP nur bedingt in Echtzeit-KI-Anwendungen einsetzbar.

(ID:49822296)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung