Künstliche Intelligenz und Ethik Digitale Ethik mithilfe von KI-Werkzeugen realisieren

Von Michael Matzer |

KI-Modelle, die Entscheidungen unterstützen oder gar automatisch ausführen, müssen nach ethischen Prinzipien fungieren. Doch beim Trainieren der Modelle tritt immer wieder einseitige, unfaire Voreingenommenheit auf. Während also KI-basierte Entscheidungen Erfolg haben werden, sind Werkzeuge nötig, die für die Fairness, Transparenz und Erklärbarkeit der KI-Modelle sorgen. Der Artificial-Intelligence-Act der EU soll künftig den rechtlichen Rahmen dafür bereitstellen.

Anbieter zum Thema

Die EU will dafür sorgen, dass zumindest grundlegende Standards für die Qualität und Anwendung von KI-Algorithmen eingehalten werden.
Die EU will dafür sorgen, dass zumindest grundlegende Standards für die Qualität und Anwendung von KI-Algorithmen eingehalten werden.
(Bild: © Alexander - stock.adobe.com)

Im September 2020 führte ein Data Scientist ein Experiment mit dem Twitter-Algorithmus aus, der die Anzeige größerer Bilder steuerte. Twitter fokussiert stets auf den relevantesten Teil eines Bildes. In einem Foto, das einen Demonstranten mit einem Plakat zeigt, auf dem ein Slogan steht, wird Twitter in der Vorschau voraussichtlich auf den Slogan fokussieren.

Das Experiment ging anders vor, denn Twitter wurde vor eine Wahl gestellt. Es sollte zwischen einem prominenten weißen US-Politiker und dem prominentesten schwarzen Politiker, nämlich Barack Obama, wählen. Die Bezeichnung „der relevanteste Politiker“ war nicht durch die Krawattenfarbe festgelegt, sondern durch die Hautfarbe. Twitter musste eingestehen, dass das Unternehmen beim Testen des Algorithmus nicht genügend auf mögliche Voreingenommenheiten (bias) geachtet hatte. Das fing bereits in der Datenmenge an, die für das Training des KI-Modells verwendet worden war: viel mehr weiße als schwarze Männer, von Frauen ganz zu schweigen.

Apropos: Auch bei der Gleichbehandlung der Geschlechter neigte ein Google-Algorithmus dazu, einfach Stereotypen zu übersetzen, falls das grammatische bzw. natürliche Geschlecht sowohl männlich als auch weiblich sein konnte. In der türkischen Sprache etwa wird grammatisch gar nicht nach weiblich oder männlich unterschieden. Beide Versionen wären also korrekte Übersetzungen. Doch Google zeigte auch hier seine Voreingenommenheit: Ein „doctor“ war – vor der Änderung des Algorithmus – stets männlich.

Diese Befunde sind alles andere als trivial, sondern werden die künftige IT-Nutzung vieler Endkunden, Organisationen, Politiker und Unternehmen beeinflussen. Die Gesamtheit dieser Phänomene nennt Michael O'Connell, Chief Analytics Officer beim Softwarehersteller Tibco „Digitale KI-Ethik“. Er ist dieser Entwicklung gegenüber positiv eingestellt: „Politische Themen wie die Regulierung sozialer Plattformen hinsichtlich Falschmeldungen, Hassbotschaften und die Rekrutierung von Terroristen, werden üblicherweise durch eine ethische Brille betrachtet und führen zu Forderungen nach einer verantwortungsvollen, fairen, transparenten und haftbaren KI.“ Parlamente beraten über solche Maßnahmen ebenso wie über Autonomes Fahren und medizinische Implantate, die KI-gesteuert sind.

O'Connell kommt zu der Prognose: „Wir werden 2022 mehr KI-Start-ups sehen, die auf ethische KI und Tools fokussiert sein werden. Damit werden sich KI-Anwendungen regulieren lassen, indem sie Industriestandards wie die der Robotics Industry Association (RIA) und des IEEE folgen.“ Während so mancher der Meinung sei, dass dies die Innovationsfähigkeit einschränken werde, so erwartet O'Connell „eher einen gegenteiligen Effekt: Ethische KI wird in dem Maße zu besseren Datenerkenntnissen führen, wie Unternehmen dafür sorgen müssen, dass alle von Daten gespeiste Algorithmen, ohne diskriminierende Verzerrungen in den Ergebnissen, vertrauenswürdig und sauber sind.“

Die europäische Gesetzgebung will dafür sorgen, dass zumindest die grundlegenden Standards für die Qualität und Anwendung von KI-Algorithmen eingehalten werden. Die EU-Kommission definiert im Entwurf des Artificial Intelligence Act vom April 2021 in erster Linie, welche Gefahren durch „legale“ KI von den Anwendern abgewendet werden sollen. Es gibt vier Kategorien von Gefahren: verbotene Anwendungen, Hochrisiko-Anwendungen, Anwendungen mit bestimmten Merkmalen und sonstige Anwendungen. Die größte Gefahr gilt dem Leben, der Unversehrtheit und der Gesundheit von EU-Bürgern. Der Entwurf, der vom EU-Parlament debattiert werden muss, sieht bei Verstößen gravierende Rechtsfolgen vor, wie sie schon in der DSGVO zu sehen sind.

Verschiedene Institute und Organisationen haben den AI Act Entwurf bereits analysiert und kommentiert. Während sie die Absicht begrüßen, finden sie doch Lücken und Unzulänglichkeiten. Das Future of Life Institute sieht das Risiko, dass Einschränkungen, die nur auf individueller Ebene unterdrückt werden, auf gesamtgesellschaftlicher Ebene dennoch verheerende Auswirkungen haben können, so etwa dann, wenn es um demokratische Wahlverfahren geht.

Das „Leverhulme Centre for the Future of Intelligence“ und „Centre for the Study of Existential Risk“, zwei Institute der Universität Cambridge, empfehlen eine erhöhte Flexibilität der Regulierung. Und Access Now Europe, eine Organisation, die bedrohte digitale Rechte von Usern verteidigt und erweitert, sagt gar das Versagen des vorgelegten Gesetzes vor, wenn es um die Grundrechte der Bürger geht. Diese Grundrechte würden bei biometrischen Anwendungen wie Gefühlserkennung und KI-gestützten Lügendetektoren berührt. Transparenz bei deren Einsatz reiche nicht, sondern es müssten Verbote her.

IBM AI Fairness 360

In einem IBM-Werkzeug namens „AI Fairness 360“ hat IBM Research eine umfassende Bibliothek zum Aufzeigen und Herausrechnen von „Bias“ bereitgestellt, also von einer potentiellen Voreingenommenheit in datenbasierten Entscheidungssystemen. Diese Open-Source-Bibliothek kann von jedem Entwickler verwendet und erweitert werden.

Im nächsten Schritt müssen die Designer fragen, wie sie ihre Black Box „öffnen“ und erklären können. Nach IBM-Angaben kommen hier diverse Programme und Services als auch Verfahren zum Einsatz. Dazu kann auch Watson OpenScale gehören, ein Monitoring-Werkzeug, mit dem sich KI-Lösungen nicht nur in Bezug auf ihre Zuverlässigkeit, sondern hinsichtlich ihrer Unvoreingenommenheit überwachen und generell nachvollziehen lassen. Hier wird KI erklärbar gemacht und die Black Box des KI-Modells verschwindet.

Zu guter Letzt wird die fertige Lösung zusammen mit dem Kunden beurteilt. Löst sie überhaupt das gegebene Problem? Ist sie vertrauenswürdig und ihre Ergebnisse nachvollziehbar? In der anschließenden Projektphase versuchen die Entwickler, die Fehlerrate eines KI-Modells zu senken. Sie eliminieren unerwünschte Einflussfaktoren auf das Modell und versuchen, gegebene Vorhersagen noch besser erklärbar zu machen.

SAS

Die Analytics-Plattform SAS Viya unterstützt Advanced Analytics mit Frameworks wie PD (Partial Dependence), LIME (Local Interpretable Model-Agnostic Explanations) und ICE (Individual Conditional Expectation). Diese Features sollen die Transparenz für Unternehmen herstellen, die KI-gestützte Applikationen einführen wollen. In der Viya-Version 3.4 sollen die drei genannten Frameworks die Erklärbarkeit der KI-Blackbox erleichtern. In einem Blogbeitrag erklärt ein SAS-Manager den theoretischen Hintergrund für die Thematik.

Amazon SageMaker Clarify

Mit dem Feature Clarify in seinem ML-Service Amazon SageMaker bietet Amazon Web Services (AWS) mehrere Methoden, um im Machine Learning Voreingenommenheit und Einseitigkeit in den Trainingsdaten festzustellen und zu beseitigen. Clarify ist mit der Entwicklungsumgebung SageMaker Studio integriert. Auch Amazon SageMaker Data Wrangler, Amazon SageMaker Experiments und Amazon SageMaker Model Monitor lassen sich ankoppeln.

Data Scientists können damit Verzerrungen vor und nach dem Training des Modells entdecken und etwaige Voreingenommenheit begrenzen, sowie Vorhersagen besser erklären“, erklärt Constantin Gonzalez, Principal Solutions Architect bei AWS. Mithilfe einer Reihe statistischer Metriken können sie das Ausmaß des Bias messen und bestimmen. Das ist besonders wichtig, wenn so manchem Betrachter die „kleinen Unterschiede“ unerheblich scheinen sollten. Anschließend kann der Data Scientist erklären, wie bestimmte Werte zum vorhergesagten Ergebnis beitragen werden, und zwar sowohl im Gesamtmodell als auch für einzelne Vorhersagen. Gonzalez ergänzt: „Weil sich damit über den gesamten ML-Workflow hinweg Bias-Effekte erkennen lassen, können die Entwickler letztlich mehr Transparenz und Fairness in ihre ML-Modelle einbauen.“

Ein Aspekt, der unterschätzt wird, wird von Amazon SageMaker Model Monitor aufgedeckt, und zwar das Phänomen, dass im Laufe der Zeit der Bias und die Gewichtung der Faktoren „wandern“. Diese – zunächst nur unmerkliche – Drift lässt sich schwer feststellen, kann sich aber Jahre später in ihren Auswirkungen umso negativer bemerkbar machen. „Auch wenn Ihre ursprünglichen Daten oder Ihr Modell nicht verzerrt waren, können Veränderungen in der Welt zu Abweichungen in einem bereits trainierten Modell führen“, erläutert Gonzalez weiter. „So könnte beispielsweise eine wesentliche Änderung der demografischen Merkmale von Hauskäufern dazu führen, dass ein Modell zur Beantragung eines Hauskredits verzerrt wird, wenn bestimmte Gruppen in den ursprünglichen Trainingsdaten nicht vorhanden oder nicht genau repräsentiert waren.“ Ähnliches könnte bei Prä-Covid- und Covid-Daten auftreten.

In einem englischsprachigen Blog demonstriert AWS, wie sich die verschiedenen Tools nutzen lassen, um Verzerrungen aufzuspüren und die Transparenz des KI-Modells zu erhöhen.

Anwender

„Bundesliga Match Facts, powered by AWS“, bietet Bundesliga-Fans auf der ganzen Welt ein besseres Fan-Erlebnis bei Fußballspielen. „Mit diesen live aus den offiziellen Daten der Bundesliga-Spiele ermittelten Statistiken erhalten Zuschauer detaillierte Einblicke in das Spielgeschehen“, erklärt Gonzalez. Mit Amazon SageMaker Clarify kann die Bundesliga nun interaktiv erklären, was einige der wichtigsten, zugrunde liegenden Komponenten sind, die das ML-Modell dazu veranlasst haben, beispielsweise einen bestimmten „xGoals“-Wert vorherzusagen. Die Kenntnis der jeweiligen Merkmalszuordnungen und der erklärenden Ergebnisse hilft den Verantwortlichen bei der Modellfehlersuche und erhöht das Vertrauen in ML-Algorithmen, was zu qualitativ hochwertigeren Prognosen führt.

Die Varo Bank ist eine digitale Bank mit Sitz in den USA. Sie nutzt KI/ML, um schnelle, risikobasierte Entscheidungen zu treffen und ihren Kunden innovative Produkte und Dienstleistungen anzubieten. „Varo“, sagt Sachin Shetty, Head of Data Science, Varo Money, „setzt sich stark für die Erklärbarkeit und Transparenz unserer ML-Modelle ein, und wir sind gespannt auf die Ergebnisse von Amazon Sagemaker Clarify, um diese Bemühungen voranzutreiben.“ In den USA sind beispielsweise die beiden Gesetze „Equal Credit Opportunity Act“ (ECOA) und der „Fairness in Housing Act“ zu beachten.

Bei der Betrugserkennung spielen KI-Algorithmen bereits eine wichtige Rolle. Für digitale Banken ist Betrugserkennung umso bedeutsamer. „Zopa ist eine in Großbritannien ansässige digitale Bank und ein Peer-to-Peer-Kreditgeber“, erklärt Jiahang Zhong, Head of Data Science. „Bei unseren ML-Anwendungen, wie etwa unserer Anwendung zur Betrugserkennung, ist es für uns wichtig zu verstehen, wie jeder Faktor zur Entscheidung des Modells beiträgt. Der Einblick in die Logik des Modells schafft Vertrauen bei unseren internen und externen Stakeholdern. Außerdem hilft es unserem operativen Team, schneller zu reagieren und unseren Kunden einen besseren Service zu bieten. Mit Amazon SageMaker Clarify können wir jetzt schneller und nahtloser Modellerklärungen erstellen.“

(ID:48044443)