Definition Was ist Explainable AI?

Von Dipl.-Ing. (FH) Stefan Luber 4 min Lesedauer

Anbieter zum Thema

Eine Explainable Artificial Intelligence ist eine erklärbare Künstliche Intelligenz. Für die Explainable AI kommen verschiedene Verfahren und Methoden zum Einsatz, mit denen sich die Ergebnisse oder Vorhersagen nachvollziehen und erklären lassen. Die erklärbare KI ist das Gegenteil einer Black-Box-KI.

(Bild:  © aga7ta - stock.adobe.com)
(Bild: © aga7ta - stock.adobe.com)

Die deutsche Übersetzung für Explainable Artificial Intelligence, abgekürzt XAI, lautet erklärbare Künstliche Intelligenz. Explainable AI ist noch ein recht junges KI-Forschungsgebiet, bei der es um die Interpretierbarkeit von Künstlicher Intelligenz sowie Maschine- und Deep-Learning-Verfahren geht. Eine klare und allgemein akzeptierte Definition für Explainable Artificial Intelligence existiert noch nicht. Generell versteht man unter eine Explainable AI eine Form von Künstlicher Intelligenz, deren Funktions- und Arbeitsweise, Ergebnisse, Vorhersagen und Entscheidungsprozesse für den Nutzer erklärbar und nachvollziehbar sind. Hierfür können verschiedene Verfahren und Methoden zum Einsatz kommen.

Ziel der XAI ist es, dass menschliche Nutzer Vorgänge des maschinellen Lernens und den Output der KI-Algorithmen besser verstehen und den Ergebnissen vertrauen. Die Explainable KI ist das Gegenteil der Black-Box-KI. Bei einer Black-Box-KI sind die Abläufe im Inneren der KI für den menschlichen Nutzer vollständig intransparent. Hingegen erhält der Nutzer bei einer XAI eine für ihn verständliche Erklärung und Beschreibung der Ergebnisfindung.

In der Regel ist das aber nicht gleichzusetzen mit einer vollständigen Transparenz aller internen Prozesse der Künstlichen Intelligenz. Die eingesetzten Algorithmen oder exakten Abläufe können auch bei einer erklärbaren KI zu einem Großteil verborgen bleiben. Teilweise werden bei einer XAI auch nur die wichtigsten Einflussfaktoren oder Aspekte und deren Bewertungen oder Einfluss auf das Zustandekommen eines Ergebnisses genannt.

Ziele einer Explainable AI

Wichtigstes Ziel einer Explainable AI ist es, Vertrauen und Akzeptanz bei den menschlichen Nutzern einer KI für die von ihr generierten Ergebnisse oder Vorhersagen zu schaffen. Sind die Entscheidungen einer KI für den Nutzer nachvollziehbar, werden sie von ihm eher akzeptiert. Weitere Ziele einer XAI sind:

  • einen verantwortungsvollen Umgang mit Künstlicher Intelligenz ermöglichen und ethische Fairness schaffen
  • gesetzliche Vorgaben, Compliance-Richtlinien oder Rechenschaftspflichten erfüllen
  • Fehler innerhalb von KI-Modellen einfacher identifizieren und korrigieren
  • Voreingenommenheit und Vorurteile (Bias) der KI erkennen und minimieren
  • die Sicherheit und Zuverlässigkeit von KI-Systemen verbessern
  • auch fachfremden Nutzern den Zugang zu komplexen KI-Systemen ermöglichen
  • verschiedene Modelle und KI-Konzepte besser vergleichbar machen

Für Explainable AI angewandte Methoden und Verfahren

Um die Abläufe, Ergebnisgenerierung und Entscheidungsfindung einer Künstlichen Intelligenz erklärbar und nachvollziehbar zu machen, gibt es zahlreiche verschiedene Verfahren. Grundsätzlich lassen sich zwei Ansätze unterscheiden. Ein Ansatz ist es, die Nachvollziehbarkeit und Transparenz schon im Design einer Künstlichen Intelligenz zu berücksichtigen. In diesem Fall kommen Modelle, Algorithmen und Methoden zum Einsatz, deren Abläufe und Zusammenwirken grundsätzlich erklärbar und transparent sind. Diese Modelle werden teilweise auch White-Box-Modelle genannt. Es handelt sich zum Beispiel um regelbasierte Klassifikatoren oder Entscheidungsbäume.

Der zweite Ansatz versucht, die inneren Abläufe und Entscheidungsfindungsprozesse einer in sich eigentlich intransparenten Künstlichen Intelligenz im Nachhinein erklärbar zu machen. Bei diesem Ansatz handelt es sich bei der KI nach wie vor um eine Black-Box-KI, die beispielsweise auf tiefen neuronalen Netzen und Deep Learning basiert. Die Vorhersagen und Ergebnisse dieser KI werden mithilfe spezieller Verfahren oder eines zweiten transparenten Modells imitiert beziehungsweise reproduziert oder analysiert und dadurch erklärbar. Das Erklärungsmodell ist mit einer Nutzerschnittstelle ausgestattet, die es erlaubt, die wichtigsten Aspekte und Einflussfaktoren für die reproduzierten Ergebnisse darzustellen.

Angewandte Verfahren und Methoden, um Künstliche Intelligenz erklärbar zu machen, sind zum Beispiel DALEX (Descriptive mAchine Learning EXplanations), SHAP (SHapley Additive exPlanations), Local Interpretable Model-Agnostic Explanations (LIME) oder LRP (Layer-wise Relevance Propagation). LRP arbeitet rückwärtsgerichtet Layer für Layer eines künstlichen neuronalen Netzes und versucht so herauszufinden, welcher Input und welche Aspekte des Inputs ein Ergebnis maßgeblich beeinflusst haben. Sogenannte kontrafaktische Methoden verändern nach der Ausgabe eins Ergebnisses gezielt die Eingabedaten und beobachten, wie sich dadurch das Ergebnis verändert.

Typische Anwendungsbereiche erklärbarer Künstlicher Intelligenz

Ein Beispiel für einen typischen Einsatzbereich einer erklärbaren Künstlichen Intelligenz ist das autonome Fahren. Um die Sicherheit zu gewährleisten und zu verbessern, ist es entscheidend, dass Einblick in die Entscheidungsfindungsprozesse eines mit Künstlicher Intelligenz gesteuerten autonomen Fahrzeugs besteht. Ein weiteres typisches Beispiel ist die medizinische Diagnostik. Künstliche Intelligenz lässt sich einsetzen, um beispielsweise auf Basis von Patientendaten oder bildgebenden Systemen Diagnosen zu erstellen. Soll bei den Ärzten und den Patienten aber Vertrauen in die gestellten Diagnosen entstehen, ist es notwendig, über eine Explainable AI zu verstehen, wie eine Diagnose zustande gekommen ist. Ebenfalls Beispiele für Einsatzbereiche erklärbarer Künstlicher Intelligenz sind:

  • im Finanzbereich zur Erklärung KI-basierter Kreditvergabesysteme
  • im Hochfrequenzwertpapierhandel, um getroffene Handelsentscheidungen nachvollziehbar und transparent zu machen
  • im militärischen Bereich zur Erklärung von KI-basierten Kampfstrategien
  • im Human-Resources-Bereich für mehr Transparenz in einer KI-basierten Bewerberauswahl

(ID:50109914)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung