Definition Was ist Layer-wise Relevance Propagation?

Von Dipl.-Ing. (FH) Stefan Luber 4 min Lesedauer

Anbieter zum Thema

Layer-wise Relevance Propagation ist ein Verfahren für eine Explainable AI. Es macht durch schichtweise Rückwärtsübertragung das Vorhersageverhalten von Deep-Learning-Modellen erklärbar. Das Verfahren liefert die Merkmale der Eingangsdaten, die am stärksten zum jeweiligen Ergebnis beigetragen haben.

(Bild:  © aga7ta - stock.adobe.com)
(Bild: © aga7ta - stock.adobe.com)

Die Abkürzung für Layer-wise Relevance Propagation ist LRP. Ins Deutsche übersetzt bedeutet LRP „Schichtweise Relevanzübertragung“. Es handelt sich um ein Verfahren, das im Zusammenhang mit der Realisierung einer erklärbaren Künstlichen Intelligenz (Explainable AI – XAI) zum Einsatz kommen kann. Das Verfahren wurde 2015 erstmals beschrieben.

Layer-wise Relevance Propagation macht durch schichtweise Rückwärtsübertragung das Vorhersageverhalten von Deep-Learning-Modellen und künstlichen neuronalen Netzwerken erklärbar. Die Vorhersagefunktion wird quasi zerlegt und rückwärts durchlaufen. LRP bestimmt dabei die Merkmale der Eingangsdaten, die die größte Relevanz für die Entstehung eines bestimmten Ergebnisses haben. Dadurch lässt sich mehr Transparenz in das Black-Box-Verhalten von KI-Modellen bringen. Die Akzeptanz und das Vertrauen in die Vorhersagen der Künstlichen Intelligenz steigen.

LRP lässt sich für hochkomplexe künstliche neuronale Netzwerke anwenden, die zum Beispiel Bild-, Video- und Textinhalte verarbeiten und generieren. So lässt sich mit LRP beispielsweise visualisieren, welcher Teil eines Bildes am stärksten zur Vorhersage des Modells beigetragen hat. Neben LRP gibt es noch zahlreiche weitere Verfahren zur Realisierung einer erklärbaren Künstlichen Intelligenz.

Explainable Artificial Intelligence

Explainable Artificial Intelligence (XAI) bedeutet im Deutschen erklärbare Künstliche Intelligenz. Es handelt sich im Bereich der Künstlichen Intelligenz um ein noch recht junges Forschungsgebiet. XAI soll für eine bessere Interpretierbarkeit und mehr Transparenz von Künstlicher Intelligenz und Maschine- beziehungsweise Deep-Learning-Verfahren sorgen. Eine Explainable AI ist eine Form von Künstlicher Intelligenz, deren Funktionen, Arbeitsweise, Ergebnisse, Vorhersagen und Entscheidungsprozesse nachvollziehbar sind und dem Nutzer erklärt werden können. Zu diesem Zweck können verschiedene Verfahren und Techniken wie LRP, DALEX (Descriptive mAchine Learning EXplanations), SHAP (SHapley Additive exPlanations) oder Local Interpretable Model-Agnostic Explanations (LIME) zum Einsatz kommen. Das Gegenteil einer erklärbaren KI ist die Black-Box-KI, bei der die Abläufe im Inneren und das Zustandekommen von Ergebnissen oder Vorhersagen für den menschlichen Nutzer intransparent sind.

Wichtigstes Ziel einer erklärbaren KI ist es, das Vertrauen eines menschlichen Nutzers in eine KI zu stärken und für mehr Akzeptanz der von einer Künstlichen Intelligenz generierten Ergebnisse oder getroffenen Entscheidungen zu sorgen. XAI kann auch einen verantwortungsvollen Umgang mit Künstlicher Intelligenz ermöglichen und ethische Fairness schaffen. Darüber hinaus lassen sich mit einer XAI gesetzliche Vorgaben, Compliance-Richtlinien oder Rechenschaftspflichten erfüllen.

Funktionsweise von Layer-wise Relevance Propagation

Layer-wise Relevance Propagation arbeitet in zwei Schritten. Zunächst findet die standardmäßige Vorwärtspropagation durch das KI-Modell statt, bei dem das neuronale Netzwerk ein Ergebnis generiert beziehungsweise eine Vorhersage trifft. Anschließend wird das Ergebnis beziehungsweise die Vorhersage rückwärts durch das Modell Schicht für Schicht entlang der an dem Ergebnisprozess beteiligten neuronalen Pfade propagiert. Für jeden Schritt werden die jeweiligen Relevanzen der Merkmale der Eingangsdaten für das Zustandekommen des Ergebnisses berechnet. So lässt sich Layer für Layer bestimmen, welche Eingabemerkmale die stärksten Beiträge am Zustandekommen eines Ergebnisses geleistet haben. Der Vorgang der Berechnung der Relevanz wird so lange wiederholt, bis die erste Eingabeschicht des neuronalen Netzwerks erreicht ist.

Die errechneten Relevanzen zeigen, welche Eingabefeatures die relevantesten für ein Ergebnis oder eine Vorhersage waren. Im Bildbereich lassen sich die errechneten Relevanzen der Eingabefeatures visualisieren. So lässt sich in Form einer Heatmap darstellen, welches die relevantesten Bildbereiche beziehungsweise Pixel für die Klassifizierung eines vorgegebenen Bildes waren. Ein Beispiel für den Einsatz dieser Art der Visualisierung einer erklärbaren KI ist die KI-gestützte Diagnostik mithilfe bildgebender Systeme. So lässt sich im Nachhinein anhand der Heatmap-Darstellung feststellen, welche Bildbereiche eines Röntgen- oder Tomografiebildes entscheidend für die von der KI erstellte Diagnose waren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Vor- und Nachteile

Layer-wise Relevance Propagation ist ein nützliches Verfahren, um KI-Modelle interpretierbar und erklärbar zu machen. Daraus ergeben sich unter anderem diese Vorteile:

  • Vertrauen in die KI und die Akzeptanz ihrer Ergebnisse oder Vorhersagen steigen
  • Fehler oder Bias in KI-Modellen lassen sich identifizieren und korrigieren
  • die Sicherheit und Zuverlässigkeit von KI-Systemen lässt sich verbessern
  • verschiedene Modelle lassen sich mithilfe der von LRP errechneten Relevanzen der Eingabefeatures besser vergleichen
  • Angriffe auf KI-Modelle lassen sich besser analysieren und verstehen
  • Erklärungen in Form von visualisierten Heatmaps lassen sich schnell erfassen und einfach verstehen

Ein Nachteil von LRP ist, dass das Verfahren sehr rechenintensiv ist. Bei großen und komplexen Modellen kann es enormen Zeit- und Rechenaufwand erfordern, um die Ergebnisrelevanz der verschiedenen Eingabefeatures zu berechnen. Zudem ist LRP nicht in der Lage, alle Aspekte des Verhaltens und der Entscheidungsprozesse eines komplexen Modells offenzulegen.

(ID:50110885)