Ethik der Künstlichen Intelligenz, Teil 2 Ethische Prinzipien in KI-Entwicklung einbeziehen

Von Christian Rentrop 5 min Lesedauer

Anbieter zum Thema

Die Entwicklung und das Training von KI-Systemen ist komplex. Entwickler sollten dabei auch darauf achten, dass die KI nach ethischen Prinzipien agiert. Einzig: Wie lassen die sich in der Praxis umsetzen?

Soll eine KI ethisch agieren, muss der Mensch sie beim Lernen unterstützen.(Bild:  Art Gallery - stock.adobe.com)
Soll eine KI ethisch agieren, muss der Mensch sie beim Lernen unterstützen.
(Bild: Art Gallery - stock.adobe.com)

Künstliche Intelligenz braucht ethische Grundlagen, so viel liegt auf der Hand. Mangels moralischen Kompasses agieren die Systeme zunächst rein logisch, basierend auf den Trainingsdaten. Das kann dazu führen, dass der Output von KI-Systemen ethisch fragwürdig ist. Es kommt zu einem unerwünschten AI Bias, einem „Vorurteil der KI“.

In einem solchen Fall zieht das System aus den Trainingsdaten Rückschlüsse, die unerwünscht, diskriminierend oder sogar gefährlich sein können – insbesondere für Minderheiten oder marginalisierte Gruppen. Dabei geht es längst nicht mehr nur um Generative KI-Systeme, die auf einen Input einen ethisch fragwürdigen Output in Form eines Texts, eines Bildes oder eines Videos generieren.

Mit zunehmender Nutzung von und Automatisierung durch KI-Systeme kann der AI-Bias erhebliche Probleme generieren. In einem Blog-Beitrag aus dem Oktober 2023 listet IBM einige Beispiele für kognitive Verzerrungen auf. So kann eine Unterrepräsentation von Daten einer bestimmten Gruppe – etwa Frauen oder schwarze Menschen – im Gesundheitsbereich dazu führen, dass computergestützte Diagnosesysteme „männlich“ diagnostizieren, was zu Behandlungsfehlern führen kann.

Ein KI-gestütztes Bewerbungssystem bei Amazon wiederum hängte sich an bestimmten Begriffen auf – und bevorzugte systematisch männliche Bewerber. Und KI-Systeme für das Predictive Policing – die vorausschauende Polizeiarbeit – zeigten deutliche Tendenzen zum Racial Profiling.

Historische Trainingsdaten liefern oft unerwünschte Skalierungen

Ursächlich für diese Vorurteile sind die zumeist historischen, ihrerseits tendenziös geprägten Trainingsdaten. Im Gesundheitsbereich wurden die meisten Studien in der Vergangenheit an weißen, männlichen Personen durchgeführt. Die Arbeitswelt war lange Zeit männlich geprägt. Und in der Verbrechensprävention liefern historische Daten eine deutliche Schlagseite in Richtung (Vor)Verurteilungen Nicht-Weißer.

Das Problem sind in diesem Fall sogenannte Trainingsdaten-Vorurteile. Die rohen Daten in Form von Trainingsdaten geben der KI einen Hinweis, wie die reale Welt funktioniert. Daraus zieht sie logisch ihre Schlüsse, wodurch der KI-Bias entsteht. Das Ergebnis allerdings zementiert Vorurteile, die natürlich unerwünscht sind, zumal sie keine Skalierung in die Zukunft erlauben.

Inkonsistenzen im Labeling der Rohdaten sowie eine Überrepräsentation bestimmter Bevölkerungsgruppen oder menschlicher Charakteristika in historischen Trainingsdaten sind also Gründe für den „Denkfehler“. Hier kann es helfen, die Trainingsdaten mit Bedacht zu wählen und zu labeln, damit die KI nicht von vornherein von einer falschen Weltanschauung ausgeht.

Fehlerhafte Algorithmen öffnen unethische Hintertüren

Doch es gibt noch andere Gründe für KI-Vorurteile, etwa einen fehlerhaften Algorithmus, der Muster findet, wo augenscheinlich zunächst keine sind – und sich daraus selbst ein Vorurteil bildet. Die Berücksichtigung bestimmter Faktoren, etwa dem Haushaltseinkommen, kann dadurch zu einer Diskriminierung durch die Hintertür führen. So haben etwa migrantische Familien oft ein niedrigeres Haushaltseinkommen, niedrigeres Einkommen korreliert mit höherer Kriminalität

Doch heißt das im Umkehrschluss nicht, dass einzelne Menschen mit Migrationshintergrund automatisch krimineller sind als Menschen ohne. Der rassistische Bias würde aber bei einem polizeilichen Ermittlungssystem dafür sorgen, dass Migranten häufiger verdächtigt werden – ohne dass die KI auf „Racial Profiling“ trainiert ist. Auf solche unerwünschten Nebeneffekte müssen Entwickler beim Training ihrer KI ein Auge haben – und gegebenenfalls an den Algorithmen schrauben.

Kognitive Vorurteile aus der Welt schaffen

Die dritte Ursache für KI-Bias sind kognitiven Vorurteile seitens der KI-Trainer beziehungsweise der Auswahl der Trainingsdaten selbst: Die Vorauswahl und das Labeling der Daten an sich kann bereits zu ein Vorurteil verursachen. Menschen und Institutionen sind „werksseitig“ mit einer Reihe von Vorurteilen ausgestattet, die aus Lebenserfahrung, sozialem Hintergrund, politischer Einstellung und vielen anderen Faktoren bestehen. Diese Vorurteile sind den Betroffenen aber in aller Regel nicht bewusst oder nicht auf den ersten Blick erkennbar.

Selbst, wenn der Trainer neutral agiert und glaubt, neutrale Daten und Labels an die KI weiterzureichen, kann es sein, dass die Trainingsdaten an sich einem solchen Bias unterliegen. Dadurch kann es passieren, dass bereits die Trainingsdaten selbst einem Vorurteil unterliegen: Etwa, weil es einen kognitiven Bias in Fotos oder Texten gibt, die der KI zugeführt werden. Das Resultat ist, dass die KI diese Vorurteile entweder übernimmt oder sogar verstärkt. Das Ergebnis ist hier – wie in den anderen Beispielen – unerwünscht und damit unethisch.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ethik bei der KI-Entwicklung etablieren

Leider lässt sich keiner dieser Faktoren vollständig eliminieren. Von Menschen erstellte Daten sind immer auf die ein oder andere Weise mit Vorurteilen belegt. Daraus resultiert, dass KI-Entwickler nicht nur beim Training, sondern auch bei der KI-Entwicklung an sich dafür sorgen müssen, dass die vorhandene Datenbasis keine unethischen Ergebnisse erzeugt. Daher muss korrigierend in die Algorithmen der KI eingegriffen und notfalls mit Filtern nachgeholfen werden.

Beides kann seinerseits wieder ethische Probleme verursachen. Es ist daher umso wichtiger, einige Aspekte bei der KI-Entwicklung im Hinterkopf zu behalten. Zunächst sollte ein aufkommender AI-Bias analysiert werden: Woher stammen die Vorurteile, gibt es Möglichkeiten, diese etwa mit der Auswahl oder Aufbereitung der Trainingsdaten abzubauen? Anschließend ist es wichtig, verschiedene Maßnahmen zu etablieren.

So kann es zum Beispiel sinnvoll sein, ein Belohnungssystem in der KI einzubauen, die ein „richtig“ oder „falsch“ mittels Belohnung und Bestrafung im Training berücksichtigt. Wer beim „reinforced learning“ allerdings wie Peter Venkman im Film Ghostbusters (1984) virtuelle Elektroschocks für falsche Antworten verteilt, wird sich früher oder später natürlich der Frage stellen müssen, ob diese Vorgehensweise nicht gegenüber der KI unethisch ist.

Rechtssicherheit und Transparenz

Umso wichtiger ist es, in der ethischen KI-Entwicklung von vornherein für einige wichtige Wegpunkte zu sorgen. Die KI sollte sich jederzeit juristisch und politisch korrekt verhalten, sprich: Auch einmal etwas nicht wissen oder eine Ausgabe verweigern, wenn diese möglicherweise fehlerhaft oder unethisch sein könnte.

Wichtig ist außerdem, dass die Algorithmen und Trainingsdaten transparent sind. Hier hilft vor allem Dokumentation, um im Fall der Fälle herauszufinden, warum die KI – die ja in gewisser Weise als Blackbox arbeitet – handelt, wie sie handelt. Dadurch kann gegebenenfalls korrigierend eingegriffen werden.

Beim Training hilfreich kann zudem sein, die KI schon beim Lernen mit menschlichen Entscheidungen zu unterstützen, etwa durch einen zunächst zwischengeschalteten Trainer, der Antworten ethisch einordnet und der KI damit beim Training hilft. Und nicht zuletzt sollten Content-Filter eingesetzt werden, die die KI proaktiv daran hindern, gewisse unethische Aussagen zu treffen.

(ID:50038138)