Definition Was ist Local Interpretable Model-Agnostic Explanations (LIME)?

Von Dipl.-Ing. (FH) Stefan Luber 4 min Lesedauer

Anbieter zum Thema

Local Interpretable Model-Agnostic Explanations, kurz LIME, kommt im Bereich der erklärbaren Künstliche Intelligenz (Explainable Artificial Intelligence) zum Einsatz. Mithilfe von LIME lässt sich das Vorhersageverhalten von Machine-Learning-Modellen interpretieren und erklären. LIME ist modellagnostisch und verwendet interpretierbare Ersatzmodelle, um sich der Vorhersage einer Black-Box-KI anzunähern.

(Bild:  © aga7ta - stock.adobe.com)
(Bild: © aga7ta - stock.adobe.com)

LIME ist das Akronym für Local Interpretable Model-Agnostic Explanations. Es handelt sich um ein Verfahren aus dem Bereich der erklärbaren Künstlichen Intelligenz (Explainable Artificial Intelligence – XAI). LIME ist modellagnostisch und macht das Vorhersageverhalten eines beliebigen Machine-Learning-Modells interpretierbar und besser erklärbar. Das Verfahren verwendet ein lokales, interpretierbares Modell, um sich einer Vorhersage anzunähern. Local Interpretable Model-Agnostic Explanations wurde im Jahr 2016 im Paper „Why Should I Trust You? – Explaining the Predictions of Any Classifier“ vorgestellt. Die Autoren der Veröffentlichung waren Marco Tulio Ribeiro, Sameer Singh und Carlos Guestrin von der University of Washington.

Explainable Artificial Intelligence

Explainable Artificial Intelligence (XAI), im Deutschen „erklärbare Künstliche Intelligenz“, ist ein Forschungsgebiet aus dem Bereich der Künstlichen Intelligenz (KI). Das Gegenteil einer erklärbaren Künstlichen Intelligenz ist die sogenannte Black-Box-KI mit für den Menschen intransparenten inneren Abläufen und nicht nachvollziehbaren Entscheidungs- und Vorhersageprozessen.

Ziel des Forschungsgebiets XAI ist es, das Verhalten von Machine-Learning-Modellen interpretierbar und transparent zu machen. Eine XAI ist eine Künstliche Intelligenz, deren Verhalten, Vorhersagen und Ergebnisse für den Benutzer transparent sind und erklärt werden können. Das Vertrauen von menschlichen Nutzern in Anwendungen mit Künstlicher Intelligenz soll dadurch gestärkt werden. Das sorgt für mehr Akzeptanz der Künstlichen Intelligenz und der von KI-Anwendungen und ML-Modellen getroffenen Vorhersagen und erzielten Ergebnisse. Weitere Ziele der erklärbaren Künstlichen Intelligenz sind ein verantwortungsvoller Umgang mit KI, ethische Fairness und die Einhaltung von Gesetzesvorgaben und Compliance-Richtlinien.

Um das Verhalten einer Black-Box-KI, beispielsweise eines Deep-Learning-Modells, erklärbar zu machen, können verschiedene Verfahren und Techniken zum Einsatz kommen. Neben Local Interpretable Model-Agnostic Explanations existieren weitere Verfahren wie SHAP (SHapley Additive exPlanations), DALEX (Descriptive mAchine Learning EXplanations), LPR (Layer-wise Relevance Propagation) und andere. Die Verfahren bieten Lösungen für den Zielkonflikt zwischen Leistungsfähigkeit einer KI und der Nachvollziehbarkeit ihrer Arbeitsergebnisse. Je performanter ein KI-Modell ist, desto weniger nachvollziehbar sind oft die inneren Abläufe des Modells. Im Gegensatz dazu erreichen transparente Modelle mit erklärbaren inneren Abläufen häufig nicht die gewünschte Leistungsfähigkeit.

Das Funktionsprinzip von LIME

Zur Erklärung der grundsätzlichen Funktionsweise von LIME lohnt ein kurzer Blick in die Langbezeichnung des Verfahrens „Local Interpretable Model-Agnostic Explanations“. „Model-Agnostic“ bedeutet, dass LIME für beliebige Machine-Learning-Modelle anwendbar ist. Das Verfahren betrachtet jedes Modell, unabhängig von der Komplexität als Black Box, und benötigt kein Einblick in das Innere des Modells. Mit „interpretable“ ist gemeint, dass die von LIME gelieferten Erklärungen für Menschen einfach zu verstehen sind. Das Wort „local“ schließlich bezieht sich darauf, dass LIME das Verhalten eines komplexen Modells nicht in allgemein globaler Form, sondern anhand einer ganz konkreten Vorhersage versucht zu verstehen und erklärbar zu machen.

Die grundsätzliche Funktionsweise von LIME lässt sich etwas vereinfacht dargestellt folgendermaßen beschreiben:

LIME verändert für eine konkrete Vorhersage des zu erklärenden KI-Modells die Eingabedaten, indem es Störungen einbaut und den Input dadurch leicht abändert. Anschließend wird beobachtet, welchen Einfluss der veränderte Input auf das Ergebnis des KI-Modells hat. LIME testet quasi, was mit den Ergebnissen passiert, wenn Variationen der Eingabedaten in das KI-Modell eingespeist werden. Mit diesen Informationen trainiert LIME für die konkret zu untersuchende Vorhersage ein lokales, leicht zu interpretierendes Modell. Das kann beispielsweise ein Entscheidungsbaum oder ein lineares Modell mit relativ wenig Koeffizienten sein.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das lokale Modell wird auch als Surrogate Model (Ersatzmodell) bezeichnet. Über das lokale Ersatzmodell und die Gewichtungen der Eingabedaten lässt sich die Bedeutung der einzelnen Bestandteile des Inputs für das Zustandekommen eines Ergebnisses erkennen und interpretieren. Das Ersatzmodell funktioniert aber immer nur für die konkret ausgewählte Instanz und kann nicht das globale Verhalten eines komplexen Modells erklären.

Local Interpretable Model-Agnostic Explanations ist für verschiedene Daten anwendbar. Es kann für Modelle und Klassifikatoren zum Einsatz kommen, die mit Bild-, Text- oder tabellarischen Daten arbeiten. Bei einem Bildklassifikator beispielsweise verändert LIME die Eingabedaten so, dass sie nur Bildausschnitte des ursprünglichen Bilds enthalten. LIME beobachtet das Ergebnis des Klassifikators und trainiert ein einfacheres lineares Modell mit den veränderten Eingabedaten und Klassifizierungsergebnissen. Mithilfe des einfachen, lokalen Modells lassen sich die Bildbereiche herausfinden und darstellen, die die höchste Relevanz für ein Klassifizierungsergebnis haben.

Im Textbereich werden durch zufälliges Weglassen von Wörtern verschiedene Versionen des ursprünglichen Eingabetextes erzeugt und in das zu erklärende komplexe Modell eingespeist. Die Relevanz bestimmter Schlüsselwörter für das Zustandekommen eines bestimmten Ergebnisses lässt sich anschließend über ein einfaches, lokales Model, das mit den veränderten Eingabedaten und zugehörigen Ergebnissen trainiert wurde, darstellen.

Vor- und Nachteile von LIME

Vorteile von LIME sind:

  • macht das Vorhersageverhalten und Entscheidungsprozesse von komplexen KI-Black-Box-Modellen interpretierbar
  • liefert für Menschen leicht zu verstehende Erklärungen
  • ist unabhängig vom zu erklärenden Modell anwendbar (modellagnostisch)
  • steigert das Vertrauen in Künstliche Intelligenz
  • trägt dazu bei, Bias oder Fehler in Modellen zu finden und beseitigen
  • ist im Vergleich zu einigen anderen Verfahren weniger rechenintensiv und schneller

Als Nachteile von Local Interpretable Model-Agnostic Explanations lassen sich aufführen:

  • ist nur auf konkrete Instanzen und Vorhersagen eines KI-Modells anwendbar und kann nicht das globale Modellverhalten erklären
  • Erklärungen sind stark vom Veränderungsprozess der synthetisch generierten Variationen der Eingabedaten abhängig
  • unter Umstände werden komplexe Vorhersageprozesse zu stark vereinfacht

(ID:50159363)