Layer-wise Relevance Propagation ist ein Verfahren für eine Explainable AI. Es macht durch schichtweise Rückwärtsübertragung das Vorhersageverhalten von Deep-Learning-Modellen erklärbar. Das Verfahren liefert die Merkmale der Eingangsdaten, die am stärksten zum jeweiligen Ergebnis beigetragen haben.
Die Abkürzung für Layer-wise Relevance Propagation ist LRP. Ins Deutsche übersetzt bedeutet LRP „Schichtweise Relevanzübertragung“. Es handelt sich um ein Verfahren, das im Zusammenhang mit der Realisierung einer erklärbaren Künstlichen Intelligenz (Explainable AI – XAI) zum Einsatz kommen kann. Das Verfahren wurde 2015 erstmals beschrieben.
Layer-wise Relevance Propagation macht durch schichtweise Rückwärtsübertragung das Vorhersageverhalten von Deep-Learning-Modellen und künstlichen neuronalen Netzwerken erklärbar. Die Vorhersagefunktion wird quasi zerlegt und rückwärts durchlaufen. LRP bestimmt dabei die Merkmale der Eingangsdaten, die die größte Relevanz für die Entstehung eines bestimmten Ergebnisses haben. Dadurch lässt sich mehr Transparenz in das Black-Box-Verhalten von KI-Modellen bringen. Die Akzeptanz und das Vertrauen in die Vorhersagen der Künstlichen Intelligenz steigen.
LRP lässt sich für hochkomplexe künstliche neuronale Netzwerke anwenden, die zum Beispiel Bild-, Video- und Textinhalte verarbeiten und generieren. So lässt sich mit LRP beispielsweise visualisieren, welcher Teil eines Bildes am stärksten zur Vorhersage des Modells beigetragen hat. Neben LRP gibt es noch zahlreiche weitere Verfahren zur Realisierung einer erklärbaren Künstlichen Intelligenz.
Explainable Artificial Intelligence
Explainable Artificial Intelligence (XAI) bedeutet im Deutschen erklärbare Künstliche Intelligenz. Es handelt sich im Bereich der Künstlichen Intelligenz um ein noch recht junges Forschungsgebiet. XAI soll für eine bessere Interpretierbarkeit und mehr Transparenz von Künstlicher Intelligenz und Maschine- beziehungsweise Deep-Learning-Verfahren sorgen. Eine Explainable AI ist eine Form von Künstlicher Intelligenz, deren Funktionen, Arbeitsweise, Ergebnisse, Vorhersagen und Entscheidungsprozesse nachvollziehbar sind und dem Nutzer erklärt werden können. Zu diesem Zweck können verschiedene Verfahren und Techniken wie LRP, DALEX (Descriptive mAchine Learning EXplanations), SHAP (SHapley Additive exPlanations) oder Local Interpretable Model-Agnostic Explanations (LIME) zum Einsatz kommen. Das Gegenteil einer erklärbaren KI ist die Black-Box-KI, bei der die Abläufe im Inneren und das Zustandekommen von Ergebnissen oder Vorhersagen für den menschlichen Nutzer intransparent sind.
Wichtigstes Ziel einer erklärbaren KI ist es, das Vertrauen eines menschlichen Nutzers in eine KI zu stärken und für mehr Akzeptanz der von einer Künstlichen Intelligenz generierten Ergebnisse oder getroffenen Entscheidungen zu sorgen. XAI kann auch einen verantwortungsvollen Umgang mit Künstlicher Intelligenz ermöglichen und ethische Fairness schaffen. Darüber hinaus lassen sich mit einer XAI gesetzliche Vorgaben, Compliance-Richtlinien oder Rechenschaftspflichten erfüllen.
Funktionsweise von Layer-wise Relevance Propagation
Layer-wise Relevance Propagation arbeitet in zwei Schritten. Zunächst findet die standardmäßige Vorwärtspropagation durch das KI-Modell statt, bei dem das neuronale Netzwerk ein Ergebnis generiert beziehungsweise eine Vorhersage trifft. Anschließend wird das Ergebnis beziehungsweise die Vorhersage rückwärts durch das Modell Schicht für Schicht entlang der an dem Ergebnisprozess beteiligten neuronalen Pfade propagiert. Für jeden Schritt werden die jeweiligen Relevanzen der Merkmale der Eingangsdaten für das Zustandekommen des Ergebnisses berechnet. So lässt sich Layer für Layer bestimmen, welche Eingabemerkmale die stärksten Beiträge am Zustandekommen eines Ergebnisses geleistet haben. Der Vorgang der Berechnung der Relevanz wird so lange wiederholt, bis die erste Eingabeschicht des neuronalen Netzwerks erreicht ist.
Die errechneten Relevanzen zeigen, welche Eingabefeatures die relevantesten für ein Ergebnis oder eine Vorhersage waren. Im Bildbereich lassen sich die errechneten Relevanzen der Eingabefeatures visualisieren. So lässt sich in Form einer Heatmap darstellen, welches die relevantesten Bildbereiche beziehungsweise Pixel für die Klassifizierung eines vorgegebenen Bildes waren. Ein Beispiel für den Einsatz dieser Art der Visualisierung einer erklärbaren KI ist die KI-gestützte Diagnostik mithilfe bildgebender Systeme. So lässt sich im Nachhinein anhand der Heatmap-Darstellung feststellen, welche Bildbereiche eines Röntgen- oder Tomografiebildes entscheidend für die von der KI erstellte Diagnose waren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Vor- und Nachteile
Layer-wise Relevance Propagation ist ein nützliches Verfahren, um KI-Modelle interpretierbar und erklärbar zu machen. Daraus ergeben sich unter anderem diese Vorteile:
Vertrauen in die KI und die Akzeptanz ihrer Ergebnisse oder Vorhersagen steigen
Fehler oder Bias in KI-Modellen lassen sich identifizieren und korrigieren
die Sicherheit und Zuverlässigkeit von KI-Systemen lässt sich verbessern
verschiedene Modelle lassen sich mithilfe der von LRP errechneten Relevanzen der Eingabefeatures besser vergleichen
Angriffe auf KI-Modelle lassen sich besser analysieren und verstehen
Erklärungen in Form von visualisierten Heatmaps lassen sich schnell erfassen und einfach verstehen
Ein Nachteil von LRP ist, dass das Verfahren sehr rechenintensiv ist. Bei großen und komplexen Modellen kann es enormen Zeit- und Rechenaufwand erfordern, um die Ergebnisrelevanz der verschiedenen Eingabefeatures zu berechnen. Zudem ist LRP nicht in der Lage, alle Aspekte des Verhaltens und der Entscheidungsprozesse eines komplexen Modells offenzulegen.