Trusted AI

So wird Künstliche Intelligenz vertrauenswürdig

| Autor / Redakteur: Michael Matzer / Nico Litzel

Künstliche Intelligenz muss transparent arbeiten. Nur wenn die Ergebnisse nachvollziehbar sind, sind sie vertrauenswürdig.
Künstliche Intelligenz muss transparent arbeiten. Nur wenn die Ergebnisse nachvollziehbar sind, sind sie vertrauenswürdig. (Bild: © willyam - stock.adobe.com)

Mit der Ausbreitung von KI-Anwendungen stellen sich Schöpfern wie Benutzern zwei zentrale Fragen: Was befindet sich in der Black Box, die den Algorithmus und das Deep-Learning-Modell verbirgt? Und zweitens: Wie lässt sich sicherstellen, dass kein Unbefugter diese Software für seine Zwecke manipuliert hat? Manche KI-Hersteller und -Berater haben darauf bereits eine Antwort.

Derzeit ist das Vertrauen deutscher Endnutzer in den Einsatz von niedriger Künstlicher Intelligenz (Machine Learning usw.) noch ungebrochen, denn in ihren Augen überwiegen die Vorteile die möglichen Risiken. KI wird das Gesundheitswesen ebenso revolutionieren wie die Welt der Finanzdienstleistungen, um nur zwei Beispiele zu nennen. Hier gehen KI-Modelle jedoch mit sehr sensiblen Daten um. Für diese gelten die besonderen Vorschriften, Richtlinien und Gesetze, wie EU-DSGVO, PCI (in der Kreditwirtschaft) und HIPAA (im Gesundheitswesen der USA).

Doch mit Datenschutz und Datensicherheit wird es schon bald nicht mehr getan sein. Was ist mit den Daten, die in der sogenannten „Black Box“ eines KI-Modells verarbeitet werden? Nicht nur nimmt ihr Umfang ständig zu, sondern auch ihre Herkunft und Qualität werden relevant.

Big Data und Datenschutz

eBOOK

Big Data und Datenschutz

Wenn man Big Data als „große Datenmengen“ versteht, erscheinen bestimmte Forderungen der DSGVO/GDPR als schwierig. Das eBook zeigt auf, wie durch die Vorgabe zur Datenminimierung vieles einfacher wird. Auch der Datenschutz. weiter...

Der Verarbeiter solcher Daten muss nicht nur die Vertrauenswürdigkeit und die Repräsentativität bzw. Unvoreingenommenheit der Daten gewährleisten, sondern auch die Transparenz, Offenheit und Erklärbarkeit der Vorgänge in der Black Box des KI-Modells. Wenn sich also bereits ein Kundenberater in einer Bank auf einen Algorithmus und ein KI-Modell beruft, um etwa einen Kreditantrag abzulehnen oder eine bestimmte Anlageform zu empfehlen, so muss er in der Lage sein, seine Entscheidungsgrundlage zu erklären. Bei einer Black Box geht das nicht.

Das CRISP-DM-Vorgehensmodell

IBMs CEO Ginni Rometty hat die Parole ausgegeben: „Wenn wir leistungsfähige Technologien einführen, tragen wir Verantwortung, dass diese Technologien sinnvoll genutzt eingesetzt und genutzt werden.“ Die Technik solle den Menschen dienen, nicht umgekehrt. Romettys Unternehmen hat für Designer und Entwickler von „ethischer KI“ den Leitfaden „Everyday Ethics for Artificial Intelligence“ als Vorgabe ausgearbeitet. Er enthält Kontroll- und Korrekturmöglichkeiten und vereint technische, juristische und ethische Aspekte.

Auf dieser Grundlage haben IBM-Design-Teams das CRISP-DM-Vorgehensmodell eingeführt. Das Kürzel steht für „Cross-Industry Standard Process for Data Mining”. Es bezeichnet ein Prozessmodell zur Bearbeitung von KI-Fragestellungen, das bereits in den 1990er-Jahren unter Mitarbeit von IBM entstand. Wesentliches Element sind diverse Rücksprungpfeile. Sie veranschaulichen, dass gewonnene Erkenntnisse zügig ausgewertet, vorherige Prozessschritte angepasst und Ergebnisse auf diese Weise iterativ verbessert werden.

Im ersten CRISP-Schritt arbeiten die Designer heraus, welchen Zwecken die KI-Lösung dienen soll – aber auch, wie sich ihre Qualität beurteilen lässt und wie gut sie ihren Zweck erfüllen kann. Unter welchen Bedingungen lässt sich die Lösung als vertrauenswürdig einstufen und nutzen? Wie kann die Technologie dies gewährleisten? Wie lässt sich in der Planungsphase gewährleisten, dass die KI-Lösung gewisse ethische Probleme vermeidet, beispielsweise die Diskriminierung einzelner Personengruppen?

Auf der Seite des Datenverständnisses müssen die Trainingsdaten, die das KI-Modell nutzen wird, geprüft werden, so etwa im Hinblick auf verborgene systematische Fehler. Zudem stellt sich die Frage, ob solche Fehler eventuell negative Auswirkungen in der fertigen Lösung haben könnten. Womöglich werden während des Trainings Fehler erzeugt und das Modell lernt die falsche Aussage, die sich dann erst in der praktischen Erprobung zeigt. Wer nicht frühzeitig kontrolliert, muss später mitunter ein hohes Lehrgeld zahlen. Im Datenmodell müssen diese Fehlerquellen aufgedeckt und beseitigt werden.

AI Fairness 360

Mithilfe von IBMs Toolkit „AI Fairness 360“ soll es möglich sein, auf zwei Wegen zu erklärbaren KI-Ergebnissen zu gelangen, den „local direct“- bzw. „local post hoc“-Erklärungen. Deutlich ist zu sehen, dass die „Black Box“ links unten unerwünscht ist.
Mithilfe von IBMs Toolkit „AI Fairness 360“ soll es möglich sein, auf zwei Wegen zu erklärbaren KI-Ergebnissen zu gelangen, den „local direct“- bzw. „local post hoc“-Erklärungen. Deutlich ist zu sehen, dass die „Black Box“ links unten unerwünscht ist. (Bild: IBM)

In einem relativ neuen Werkzeug namens „AI Fairness 360“ hat IBM Research eine umfassende Bibliothek zum Aufzeigen und Herausrechnen von „Bias“ bereitgestellt, also von einer potenziellen Voreingenommenheit in datenbasierten Entscheidungssystemen. Diese Open-Source-Bibliothek kann von jedem Entwickler verwendet und erweitert werden.

Im nächsten Schritt müssen sich die Designer fragen, wie sie ihre Black Box „aufbohren“ und erklären können. Nach Angaben von IBM kommen hier diverse Programme, Services und Verfahren zum Einsatz. Dazu kann auch Watson OpenScale gehören, ein Monitoring-Werkzeug, mit dem sich KI-Lösungen nicht nur in Bezug auf ihre Zuverlässigkeit, sondern hinsichtlich ihrer Unvoreingenommenheit überwachen und generell nachvollziehen lassen. Hier wird KI erklärbar gemacht und die Black Box verschwindet.

In diesem Ablaufdiagramm sind die Rollen von Mitarbeitern zu sehen, die mit der Erzeugung von KI-Erklärungen aufgrund von Daten (links) und Modellen (rechts) beteiligt sind.
In diesem Ablaufdiagramm sind die Rollen von Mitarbeitern zu sehen, die mit der Erzeugung von KI-Erklärungen aufgrund von Daten (links) und Modellen (rechts) beteiligt sind. (Bild: IBM)

Zu guter Letzt wird die fertige Lösung zusammen mit dem Kunden beurteilt. Löst sie überhaupt das gegebene Problem? Ist sie vertrauenswürdig und sind ihre Ergebnisse nachvollziehbar? In der anschließenden Projektphase versuchen die Entwickler, die Fehlerrate eines KI-Modells zu senken. Sie eliminieren unerwünschte Einflussfaktoren auf das Modell und versuchen, gegebene Vorhersagen noch besser erklärbar zu machen.

Ein Aspekt, den IBM in seinem Whitepaper nicht erwähnt, ist nämlich die Gewichtung solcher Faktoren, wenn es darum geht, das KI-Modell und seinen Algorithmus zu entwerfen. Hierdurch kann es ebenso zu unerwünschten Verzerrungen wie durch das selbstlernende Modell selbst kommen: In der Black Box entwickelt sich der Algorithmus ja durch das Verarbeiten von weiteren Trainingsdaten weiter. Watson OpenScale müsste solche Verzerrungen erkennen und von einem Entwickler mit AI Fairness 360 korrigieren lassen.

So aufgeräumt sieht die Benutzeroberfläche des Tools „AI Fairness 360“ von IBM aus. Es wird hier noch „AI Explainability 360“ genannt.
So aufgeräumt sieht die Benutzeroberfläche des Tools „AI Fairness 360“ von IBM aus. Es wird hier noch „AI Explainability 360“ genannt. (Bild: IBM)

OpenScale lässt sich übrigens auch in einer Hybrid- und Multi-Cloud-Umgebung einsetzen, um KI-Modelle automatisch zu überwachen. Eine Vorgabe dafür ist im April 2019 als europäische Richtlinie unter dem Titel „Ethics Guidelines for Trustworthy AI“ veröffentlicht worden.

SAS

Seit 2018 unterstützt die Analytics-Plattform SAS Viya Advanced Analytics mit Frameworks wie PD (Partial Dependence), LIME (Local Interpretable Model-Agnostic Explanations) und ICE (Individual Conditional Expectation). Diese Features sollen die Transparenz für Unternehmen herstellen, die KI-gestützte Applikationen einführen wollen. In Version 3.4 sollen die drei genannten Frameworks die Erklärbarkeit der KI-Blackbox erleichtern. In einem Blogbeitrag erklärt ein SAS-Manager den theoretischen Hintergrund für die Thematik.

Salesforce

Das Salesforce-Forscherteam unter Leitung des Leipziger Informatikers Richard Socher hat nach eigenen Angaben kürzlich einen Durchbruch erzielt: Es hat die KI-Modelle dazu gebracht, sich selbst in Begriffen des „gesunden Menschenverstands“ zu erklären. Dieser Begriff umfasst zahlreiche Annahmen, die dem Menschen so geläufig sind, dass er sie stets als selbstverständlich voraussetzt, doch einer KI stehen sie nicht zur Verfügung.

CAGE (Commonsense Auto-Generated Explanation) ist ein Framework, das eine KI lehrt, ihr Denken bzw. ihre Denkprozesse zu erklären. Das würde in der Tat das Ende der Black Box bedeuten. Salesforce versichert: „Diese neue Transparenz geht nicht auf Kosten der KI-Leistung – im Gegenteil: Die Erklärung, wie Modelle denken, verbessert zugleich deren Genauigkeit.“

Manipulierte KI

In seinem Whitepaper „Künstliche Intelligenz als Innovationsbeschleuniger im Unternehmen“ warnt das Wirtschaftsprüfungsunternehmen PriceWaterhouseCoopers davor, dass Modelle des Machine Learning, besonders im Deep Learning, durch böswilligen Input negativ beeinflusst werden könnten. Dieser Input wird als „gegnerischer Angriff“ interpretiert. PWC hält es demnach für möglich, durch das Identifizieren und Einspeisen von entsprechenden Datenkombinationen das ML-Modell so zu manipulieren, dass das System unerwünschte Resultate produziert. Gewarnt wird auch vor der Gefahr manipulierter Daten von einem Partner, die möglicherweise unbesehen übernommen werden (für Trainings und Tests). Das Gleiche gilt auch in umgekehrter Richtung: „Die Kooperation mit einem KI-Anbieter kann unweigerlich einen Datenaustausch beinhalten, durch den Sie wertvolles geistiges Eigentum weitergeben.“

Wie lässt sich dies unterbinden, fragt sich der Experte verwundert, wenn er kein Watson OpenScale und AI Fairness 360 hat? „Die Gefahr einer Anfälligkeit für solche [manipulativen] Angriffe kann durch die Simulation gegnerischer Angriffe auf eigene Modelle und die Schulung dieser Modelle zur Erkennung solcher Manipulationsversuche verringert werden. Durch die Entwicklung einer spezialisierten Software bereits in der Designphase können Sie Ihre Modelle gegen Angriffe quasi immunisieren.“ Das ist vor dem Hintergrund der IBM-Angebote eine Aufforderung, das Rad neu zu erfinden. Nutzer der genannten IBM-Tools gelangen schneller ans Ziel.

Trust in AI Framework

Zwei Seiten weiter präsentieren die beiden PWC-Autoren Wilfried Meyer und Hendrik Reese hingegen ein umfassendes und detailliert beschriebenes „Trust in AI Framework“. In fünf Phasen, die aufeinander aufbauen, kann der Nutzer ein vertrauenswürdiges, immer wieder geprüftes KI-Betriebsmodell entwerfen und aufbauen. Die Stationen sehen aus wie das Londoner U-Bahn-Streckennetz: übersichtlich, aber voller Tücken. Der Nutzen ist ebenso groß wie das Risiko. Deshalb empfehlen Meyer und Reese: „KI ist mehr als nur eine Technologie. Die Disruption erfasst Märkte, Branchen und Unternehmen mit der Notwendigkeit, die Grundlage des effektiven Einsatzes früh zu berücksichtigen.“ Um eben die Grundlage dieser Transformation zu schützen: nämlich Vertrauen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46233798 / Künstliche Intelligenz)