Kommentar von Dr. Scott Zoldi, FICO Auditierbare KI bringt Licht in die Blackbox

Von Dr. Scott Zoldi

Künstliche Intelligenz (KI) leidet immer noch häufig an einem „Black-Box“-Problem. Viel zu oft können Entwickler und Anwender nicht genau sagen, wie ein KI-Modell zu seinen Entscheidungen kommt – und wissen daher auch nicht, welche Merkmale und Korrelationen in diesem Modell erlernt werden, beziehungsweise ob diese diskriminierend sein könnten. Für Kunden und End User birgt dies ein massives Problem: Fühlen sie sich von den Bits und Bytes unfair behandelt, können die Entscheidungen der KI oft nicht erklärt werden und sind inkorrekt – hier ist das Konzept der „erklärbaren KI“ eine Hilfestellung

Anbieter zum Thema

Der Autor: Dr. Scott Zoldi ist Chief Analytics Officer bei FICO
Der Autor: Dr. Scott Zoldi ist Chief Analytics Officer bei FICO
(Bild: FICO)

Verantwortungsbewusste KI-Anwender versuchen schon lange, dieses „Black-Box“-Problem zu beheben. Und inzwischen verstehen die meisten, dass nur ein unternehmensweiter Standard für die KI-Entwicklung dabei hilft. Hierbei kommt überprüfbare KI (auditierbare KI) zum Tragen: Sie vereinheitlicht Entwicklungsstandards, Assets, Dokumentation, Tests und Monitoring für KI-Modelle, die schon während der Modellentwicklung definiert und eingefordert werden. Das schützt Anwender vor ungerechten KI-Entscheidungen, während das Vertrauen in die Künstliche Intelligenz gestärkt wird.

Außerdem hilft auditierbare KI dabei, behördliche Überprüfungen zu bestehen. Dies liegt daran, dass sie in Verbindung mit einem unternehmensweiten Modell-Governance-Standard Informationen über die Daten zum Training des Machine-Learning-Modells vorhersagt und vorgibt sowie Modellentwicklungsentscheidungen und -ergebnisse aufzeichnet. So lässt sich nachweisen, ob das Problem der Datenverzerrung in der Entwicklungsphase adressiert wurde. Man kann überprüfen, ob das Modell umfänglich erklär- und interpretierbar ist und mit ebenso interpretierbaren Machine-Learning-Modellen hinterlegt wurde, die die automatisierten Entscheidungen des Modells detailliert darlegen. Mithilfe der auditierbaren KI lässt sich außerdem nachweisen, welche Stabilitätstests das Modell durchlaufen hat, um Veränderungen in Produktionsdaten zu verstehen und zu korrigieren. Wichtig ist auch, dass spezifische Monitoring-Anforderungen erfüllt werden, die sicherstellen, dass Datenveränderungen, Leistungsabfall oder zu wenig ethische Überprüfung kontrolliert werden.

Ethik – Erklärbarkeit – Effizienz: die „drei E“ von KI

Aber warum ist auditierbare KI so wichtig? Dazu gilt es zu verstehen, wie sich das Thema des verantwortungsbewussten Umgangs mit KI entwickelt hat. Hier sind die drei E – Ethik, Erklärbarkeit und Effizienz – der Künstlichen Intelligenz die Basis aller weiteren Betrachtungen. Beim Thema der ethischen KI geht es darum, Vorkehrungen zu treffen, die aufdecken, was das zugrunde liegende Modell möglicherweise lernt – und ob dies zu Verzerrungen oder Diskriminierung führt. Dabei helfen beispielsweise folgende Fragen: Wurde das Modell mit größter Sorgfalt erstellt? Was sind die Risiken bei der Nutzung des Modells? In welchen Situationen scheitert das Modell?

Bei der Erklärbarkeit von KI liegt das Augenmerk darauf, die Entscheidungsfindung und den Einfluss der Modellentscheidungen auf die Kunden ehrlich und korrekt aufzuzeigen. Wichtig für Entwickler und Anwender ist hier, dass die Erklärbarkeit und nicht die Vorhersagekraft des Modells im Vordergrund stehen sollte. Bei der Effizienz von KI geht es letztlich darum, alle prüfbaren KI-Assets vorzuhalten, damit Unternehmen schnell auf sich ändernde Bedingungen beim Einsatz des Modells reagieren können. Denn Datenabweichungen, Verzerrungen oder andere betriebliche Veränderungen können Zweifel aufkommen lassen, ob das Modell angemessen, ethisch vertretbar oder sicher zu verwenden ist. In diesem Fall wird versucht, die tatsächlich ethischen und erklärbaren Modelle so vorteilhaft wie möglich zu nutzen. Diese drei Bereiche sind entscheidend für den verantwortungsbewussten Umgang mit KI – doch in der Praxis fällt die Umsetzung oft noch schwer. Genau hier setzt auditierbare KI an.

Auditierbare KI macht verantwortungsbewusste KI real

Auditierbare KI sollte hier allerdings nicht zu nah am Begriff des „Audits“ gedacht werden. Denn während ein Audit den Blick retrospektiv auf Geschehenes wirft, geht es bei überprüfbarer KI darum, von Anfang an zu protokollieren, wie KI-Modelle erstellt werden. Bei der auditierbaren KI geht es also um die Einhaltung eines Modellentwicklungsstandards. So kann sichergestellt werden, dass das Modell robust, erklärbar und ethisch vertretbar ist und dass die Mittel vorhanden sind, um dies zu belegen. Außerdem können Änderungen antizipiert werden, wenn sich die Gegebenheiten in der Produktion ändern.

Auditierbare KI lässt „Responsible AI“ Realität werden, indem ein Audit-Pfad vom dokumentierten Standard eines Unternehmens für die Kontrolle bei der Modellentwicklung geschaffen wird. Das bringt enorme Vorteile: So wird nicht nur eine planlose, nachträgliche Prüfung nach Abschluss der Modellentwicklung vermieden. Das Unternehmen versteht auch früh genug, wann ein Modell versagt. Damit kann viel Ärger vermieden werden und negative Auswirkungen auf die Reputation oder Rechtsstreitigkeiten lassen sich umgehen.

Überprüfbare KI stellt somit sicher, dass die KI-Standards eines Unternehmens eingehalten werden. Dies geschieht, indem wichtige Entscheidungen und Ergebnisse im Modellentwicklungsprozess dokumentiert werden. Richtig gemacht bleiben die Informationen zur Modellentwicklung dauerhaft erhalten und können auch von neuen Data Scientists oder im Falle einer Beschwerde jederzeit für Reviews und Audits herangezogen werden. Das Vertrauen in die Modellentwicklung ist größer, weil sie dem dokumentierten Standard des Unternehmens entspricht und verhindert, dass unseriöse Data Scientists absichtlich oder versehentlich diese nicht einhalten und damit sowohl die Endnutzer als auch das Unternehmen in Gefahr bringen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Auditierbare KI umsetzen

Von der Entwicklung bis zum Einsatz von KI-Modellen sollten alle Beteiligten im Unternehmen einen einzigen unternehmensweiten Standard verfolgen. Nur so können Audits während der Entwicklung erstellt werden, die die Compliance durchgängig gewährleisten und sicherstellen, dass die Daten für die Modellentwicklung fair, unvoreingenommen und sicher sind. Darüber hinaus muss garantiert sein, dass auch Entscheidungen über Variablen, Modellstrukturen und Erklärungs-/Ethik-/Stabilitätstests in angemessener Weise getroffen werden. Viele Unternehmen leiden auch unter den verschiedenen Data-Science-Philosophien, die ihre Data Scientists unter Umständen verfolgen. Für die Entwicklung von auditierbarer KI und damit dem so dringend benötigten gemeinsamen und einzigen Standard sollten Unternehmen und KI-Verantwortliche daher folgende neun Schritte durchgehen:

  • 1. Aufbau und Zusammensetzung des Analytikteams: Hier sollte geklärt werden, wer die Leitung innehat. Außerdem muss gewährleistet werden, dass alle Beteiligten denselben Modellentwicklungsstandard nutzen.
  • 2. Aufbau und Zusammensetzung des Kontrollteams sowie Festlegung der Entscheidungswege, zum Beispiel darüber, was in KI-Algorithmen akzeptabel ist und wer die Unternehmensphilosophie zu KI-Technologien, KI-Typen und KI-Tests festlegt.
  • 3. Standards für die KI-Entwicklung: Verfügbare Tools und Assets sowie erlaubte Algorithmen.
  • 4. Unternehmensphilosophie bezüglich KI-Forschung: Möchte das Unternehmen erfinderisch agieren und damit höhere Risiken bei seinen KI-Investitionen tolerieren? Oder ist das Unternehmen eher konservativ und möchte sichergehen, dass nur geprüfte Technologie eingesetzt wird, die reguliert und einfach zu kontrollieren ist? Oder steht es für einen hybriden Ansatz mit zwei Teams im Einsatz – wobei das eine zeigt, was alles mit KI möglich ist und das andere, wie man KI in der Praxis einsetzen kann?
  • 5. Wie wird verantwortungsvolle KI adressiert? Wenn es ein aktives Monitoring-Programm gibt – wie arbeitet es? Sind unveränderbare Blockchain-Technologien im Einsatz, die dokumentieren, ob und wie der Standard für jedes Modell eingehalten wurde? Solche Systeme müssen erhalten bleiben, auch wenn sich Personal, Zuständigkeiten oder Schwerpunkte eines Unternehmens verändern.
  • 6. Einheitliche Unternehmenslinie in Bezug auf KI: Stellt die Firma nur einige Modelle unter verantwortungsvolle KI-Regularien andere aber nicht? Wie sind diese beiden Ansätze gegebenenfalls aufgesetzt? Kann man verantwortungsvolle KI in manchen Fällen außer Acht lassen – und wenn ja, wann?
  • 7. Datenethik-Programm und Regelungen zur Datennutzung: Wie werden synthetische Daten getestet und genutzt? Welche Stabilitätstests werden durchgeführt, damit die Modelle auch in sich verändernden Einsatzumgebungen effektiv funktionieren?
  • 8. Auswahl und Instandhaltung von Standard-Tools und Standard-Variablenbibliotheken: Gibt es freigegebene variable Code-Bibliotheken und tägliche Regressionstests? Wie werden angelernte latente Merkmale extrahiert und hinsichtlich Eignung, Stabilität und Voreingenommenheit getestet?
  • 9. Unternehmensziel ethische KI: Welche KI-Technologien dürfen eingesetzt werden? Wie werden sie getestet, damit sichergestellt ist, dass sie für den Einsatz in der Praxis taugen? Wird jedes Modell geprüft und wenn ja, was wird geprüft? Wird berücksichtigt, dass sich Daten, Performance und ethische Betrachtung verändern? Welche Grenzen sind gesetzt, damit angezeigt wird, wenn ein Modell nicht länger genutzt werden sollte?

Natürlich wirkt dieser Fragenkatalog erst einmal wie eine Mammutaufgabe, ist aber nicht unlösbar. Und das Ergebnis ist den Aufwand allemal wert. Denn letztendlich hängt die Zukunft von KI und der Business-Welt, wie wir sie kennen, davon ab, dass Künstliche Intelligenz bestens gemanagt und kontrolliert wird. Rückschläge durch Modelle, die plötzlich für diskriminierend oder unsicher gehalten werden oder Klagen und Beschwerden können so vermieden werden.

(ID:48200805)