Definition Was ist eine Black Box?

Von Dipl.-Ing. (FH) Stefan Luber 4 min Lesedauer

Anbieter zum Thema

Eine Black Box ist eine Künstliche Intelligenz (KI), deren innere Abläufe nicht nachvollziehbar oder kaum erklärbar sind. Der Benutzer sieht die Ein- und Ausgaben der KI, weiß aber nicht, wie und warum die Ergebnisse zustande gekommen sind. Das Gegenteil einer Black-Box-KI ist die erklärbare KI.

(Bild:  © aga7ta - stock.adobe.com)
(Bild: © aga7ta - stock.adobe.com)

Im Allgemeinen versteht man unter einer Black Box ein System, dessen genaue interne Funktionsweise dem Betrachter verborgen bleibt. Die Blackbox erhält Eingaben von außen, verarbeitet diese und produziert einen Output. Die für das Generieren der Ergebnisse im Inneren ablaufenden Prozesse und Funktionen sind für den Benutzer nicht nachvollziehbar und kaum erklärbar. Der Benutzer sieht die Ein- und die Ausgaben des Systems und kennt lediglich das grundsätzliche Verhalten beziehungsweise die prinzipielle Funktionalität der Black Box. Die Details, wie und warum ein Ergebnis zustande gekommen ist, sind dem Benutzer unbekannt.

Übertragen auf den Bereich der Künstlichen Intelligenz bezeichnet der Begriff Black Box eine KI, die für den Benutzer wie ein undurchschaubares System arbeitet. Der Benutzer sieht die Eingaben und die Ausgaben, kann aber nicht nachvollziehen oder erklären, wie und warum die Künstliche Intelligenz eine bestimmte Entscheidung getroffen oder ein bestimmtes Ergebnis ausgegeben hat. Teilweise sind die im Inneren der KI ablaufenden Prozesse und die verwendeten Kombinationen von Daten und Parametern auch so komplex , dass es überhaupt nicht möglich ist, sie für den Menschen verständlich darzustellen und zu erklären. Das Gegenteil einer Black-Box-KI ist die sogenannte erklärbare KI (Explainable AI – XAI).

Künstliche Intelligenz mit Black-Box-Verhalten ist in vielen Bereichen vorzufinden. So handelt es sich beispielsweise bei großen generativen Sprachmodellen, Chatbots, Bilderkennungs- und Bildgenerierungs-KI-Modellen oder KI-Systeme für autonomes Fahren und andere Anwendungen häufig um Black-Box-Systeme.

Gründe für das Black-Box-Verhalten Künstlicher Intelligenz

Das Black-Box-Verhalten Künstlicher Intelligenz kann unterschiedliche Ursachen haben. Es lässt sich auf diese beiden Hauptgründe zurückführen:

  • 1. Technische Gründe: Die verwendeten Verfahren, Methoden, Modelle und Algorithmen sind komplex und führen zu schwer erklärbaren inneren Abläufen einer KI.
  • 2. Organisatorische Gründe: Die inneren Abläufe und verwendeten Verfahren, Methoden, Modelle und Algorithmen werden bewusst nicht offengelegt und sind dadurch für Außenstehende nicht nachvollziehbar.

Typische technische Gründe für das Black-Box-Verhalten einer Künstlichen Intelligenz sind die Nutzung von komplexen, vielschichtigen künstlichen neuronalen Netzen und Machine-Learning-Verfahren wie Deep Learning. Solche KI-Modelle besitzen häufig viele Milliarden Parameter. Sie werden mit riesigen Datenmengen trainiert und erwerben ihre Fähigkeiten und ihr Wissen per Training weitgehend selbstgesteuert, indem sie Merkmale, Muster und Zusammenhänge in den Trainingsdaten finden. Auf Grundlage dieser Erkenntnisse gewichten sie die Verknüpfungen der Neuronen des künstlichen Netzwerks. Die Komplexität der Verknüpfungen und die Menge an Parametern, die zur Ergebnisfindung herangezogen werden, machen es nahezu unmöglich nachzuvollziehen, wie ein Ergebnis zustande kommt.

Organisatorische Gründe für die Nichtoffenlegung der genauen Funktionsweise und inneren Abläufe einer KI können zum Beispiel der Schutz von geistigem Eigentum oder die Sicherung von Wettbewerbsvorteilen sein.

Abgrenzung der Black-Box-KI zur erklärbaren KI

Die sogenannte erklärbare KI – im Englischen: Explainable AI (XAI) – ist das Gegenteil einer Black-Box-KI. Bei einer erklärbaren KI werden Verfahren und Methoden eingesetzt, die sicherstellen, dass sich die von der KI generierten Ergebnisse oder die von der KI getroffene Entscheidungen nachvollziehen und erklären lassen. Die Verfahren und Methoden gestatten quasi einen Blick in die inneren Abläufe oder die Entscheidungsprozesse der Künstlichen Intelligenz. Der Benutzer eines XAI-Systems erhält für jedes Ergebnis eine verständliche Beschreibung der Ergebnisfindung. Die Erklärung der Ergebnisfindung ist aber nicht unbedingt gleichzusetzen mit der vollständigen Transparenz der inneren Abläufe der KI. Die Erklärungen können auch so gestaltet sein, dass die exakten Abläufe und verwendeten Algorithmen nach wie vor zu einem Großteil verborgen bleiben. Oft liefert die erklärbare KI nur die wichtigsten Aspekte und Einflussfaktoren sowie deren Bewertung und Einfluss für das Zustandekommen einer Entscheidung.

Ziel der Explainable AI ist es, das Vertrauen des menschlichen Nutzers in die KI und ihre Entscheidungsfindung zu stärken und für einen verantwortungsvollen Umgang mit Künstlicher Intelligenz zu sorgen. Unter Umständen können auch gesetzliche Vorgaben oder Rechenschaftspflichten den Einsatz einer XAI erforderlich machen.

Abhilfemaßnahmen für das Black-Box-Verhalten von KI

Das Black-Box-Verhalten Künstlicher Intelligenz ist unter Umständen problematisch. Um das Verhalten von KI-Systemen erklärbar zu machen, gibt es grundsätzlich zwei Möglichkeiten:

  • 1. Nachvollziehbarkeit und Transparenz wird schon im Design des KI-Systems berücksichtigt. Es kommen nur Modelle, Verfahren, Methoden und Algorithmen zum Einsatz, die eine grundsätzliche Transparenz bieten und deren Abläufe erklärbar sind.
  • 2. Durch den Einsatz spezieller Methoden und Verfahren wird versucht, die Abläufe und Entscheidungsprozesse einer eigentlich intransparenten KI nachträglich erklärbar zu machen. Es wird eine Art nachträgliche Transparenz geschaffen.

Bei der zweiten Möglichkeit handelt es sich nach wie vor um ein intransparentes Black-Box-KI-System. Das Modell an sich kann unverändert bleiben und beispielsweise weiterhin auf tiefen neuronalen Netzen und Deep Learning basieren. Durch die Anwendung spezieller Methoden wird versucht, die Entscheidungsprozesse des Modells in Nachhinein interpretierbar zu machen. Eine mögliche Methode dafür ist LIME (Local Interpretable Model-agnostic Explanations). Hierbei werden die Vorhersagen einer Black-Box-KI mithilfe eines zusätzlichen transparenten Modells reproduziert oder imitiert. Durch die Transparenz des zweiten Modells ist es anschließend möglich, die Merkmale und Einflussfaktoren für die reproduzierten Vorhersagen und Ergebnisse zu nennen. Weitere Erklärungsmethoden für die Entscheidungsprozesse Künstlicher Intelligenz sind LRP (Layer-wise Relevance Propagation), SHAP (SHapley Additive exPlanations) oder DALEX (Descriptive mAchine Learning EXplanations).

(ID:50033104)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung