Kommentar von Eric Waltert, Veritas Wie ein ethisch vertretbarer Einsatz von KI gelingt

Autor / Redakteur: Eric Waltert / Nico Litzel

Die Künstliche Intelligenz (KI) dringt in immer mehr Bereiche vor und wird zunehmend auch herangezogen, um wichtige Entscheidungen zu fällen. Damit ist sie in der Lage, unsere Gesellschaft zu verändern – im Guten wie im Schlechten. Umso wichtiger ist es, dass sie nach ethischen Standards programmiert wird.

Firmen zum Thema

Der Autor: Eric Waltert ist Regional VP DACH bei Veritas
Der Autor: Eric Waltert ist Regional VP DACH bei Veritas
(Bild: SUSANNE HESPING)

Sprachgesteuerte Assistenten, Übersetzungsprogramme, Chatbots im Kundenservice: Künstliche Intelligenz gehört mittlerweile zum Alltag und entwickelt sich in rasendem Tempo weiter. Vielerorts dient sie nicht mehr nur als nützliches Werkzeug, sondern fällt auch wesentliche Entscheidungen – etwa die Auswahl von Kandidaten für Bewerbungsgespräche oder die Bewilligung von Ansprüchen auf Sozialhilfe.

Algorithmen übernehmen klar definierte Aufgaben und greifen auf das zurück, was der Mensch ihnen beigebracht hat. Dabei arbeiten sie mit Verfahren wie Machine Learning (ML) und Deep Learning (DL). Das heißt, die Programme durchforsten riesige unstrukturierte Datenmengen und erkennen darin Muster. Anhand dieser Muster lernen sie weiter. Allerdings sind Algorithmen immer nur so gut wie die Annahmen, auf denen sie beruhen. Und die sind nicht immer fair und können zu Diskriminierung führen. Prominentes Beispiel ist eine in vielen US-Gerichten verwendete Software, mit der sich die Wahrscheinlichkeit berechnen lässt, dass ein vorzeitig erlassener Häftling wieder straffällig wird. Der Journalistenverbund ProPublica konnte belegen, dass das Programm Personen aufgrund ihrer Hautfarbe diskriminiert. Der Algorithmus war offenbar ausschließlich mit Daten von dunkelhäutigen Modellen trainiert worden, weil Farbige in den USA häufiger verhaftet werden und dadurch überproportional in den Daten vertreten sind.

Unbewusste Verzerrungen sind ein Datenproblem

Denn Algorithmen werden für die Ausführung einer bestimmten Aufgabe entworfen und trainiert. Damit sind sie vollkommen abhängig von den Daten, mit denen sie gefüttert werden. Nur auf dieser Grundlage können sie daraus das beste Ergebnis erzielen. Die unbewusste Verzerrung der KI ist daher ein Datenproblem: Ohne umfassende Datensätze fehlt der Kontext und die repräsentative Masse, die für datenbasierte Entscheidungen erforderlich sind. So gibt es zu manchen Krankheiten kaum Forschungsdaten, Minderheiten und Kinder sind unterrepräsentiert.

Die Personalabteilung eines Ingenieurbüros etwa kann zwar aus großen Mengen an Daten schöpfen. Wenn in der Vergangenheit jedoch vorrangig Männer dort tätig waren, ist es unwahrscheinlich, dass der Algorithmus auch Bewerberinnen vorschlägt. Eine KI, die auf solchen Datensätzen beruht, kann aber nicht ausgewogen sein. Was uns wie eine schlechte Entscheidung erscheint, ist dann in Wirklichkeit nur die optimale Entscheidung auf Basis eines schlechten Datensatzes. Das macht sie allerdings nicht weniger schwerwiegend.

Meistens steckt keine böse Absicht dahinter. Die Folgen der Verwendung von unzureichenden KI-Trainingsdaten können jedoch gravierend sein. Wir Menschen beeinflussen die neue Technologie im selben Maße wie sie uns. Dadurch besteht die Gefahr, dass sie auch unsere Fehleinschätzungen und Vorurteile übernimmt. Schon heute zählen unbewusste Verzerrungen zu den größten gesellschaftlichen Herausforderungen. Wenn wir sie nicht verhindern, können sie als strukturelle Verzerrungen fortbestehen und sich verfestigen.

Menge und Qualität der Daten geben den Ausschlag

Verhindern lassen sich solche Verzerrungen, wenn die KI-Systeme mit einer ausreichenden Menge an hochwertigen Daten trainiert werden. Nur aufbauend auf einer hohen Datenvielfalt und -qualität sind gerechte Aussagen und Prognosen möglich. Das heißt, Unternehmen müssen dafür sorgen, dass ihre Datenbanken regelmäßig mit einer Vielzahl von Informationen gefüttert werden. Und sie müssen sicherstellen, dass die KI diese auch effektiv nutzen kann. Letzten Endes kommt es darauf an, Datenmanagement-Tools einzusetzen und Richtlinien zu etablieren, nach denen die Informationen für die KI-Nutzung klassifiziert, konsolidiert und rationalisiert werden. Das reine Speichern reicht nicht aus. Entscheidend ist, sie in der richtigen Infrastruktur zu nutzen und dabei einer klar definierten Governance zu folgen.

Wie stellen Unternehmen die Weichen für eine gerechtere KI?

Um unbewusste Verzerrungen zu vermeiden, muss man sich ihrer aber auch bewusst sein. Und hier besteht noch einiges an Nachholbedarf. Viele Unternehmen behandeln die KI wie eine Black Box aus Inputs und Outputs. Um bei der Nutzung von Algorithmen Fairness und Gerechtigkeit zu wahren, ist jedoch ein tiefes Verständnis dafür notwendig, wie die KI-Lösung funktioniert und wie sie mit Daten interagiert. Das heißt, der Anwender braucht zunächst eine klare Vorstellung davon, welche Ergebnisse er erreichen will. Angewendet auf den Datensatz, mit dem die KI trainiert wird, lässt sich eine faire Darstellung für alle geschlechtsspezifischen, sozialen und ethnischen Gruppen erzielen.

Doch wer entscheidet eigentlich, was „fair" und gerecht ist? Das ist das Problem, denn ethische Prinzipien sind von Mensch zu Mensch unterschiedlich. Die Geschäftsleitung sollte daher gemeinsam mit den Mitarbeitern ein Rahmenwerk entwickeln, an dem sich alle orientieren. Ein Top-down-Ansatz ist dafür ungeeignet. Um einen Konsens zu erzielen, empfiehlt sich die Einrichtung eines Diversity-Ausschusses, der mit Interessenvertretern aus dem gesamten Unternehmen besetzt ist. Die hier gefällten Entscheidungen lassen sich dann auf die KI-Lösung und die Datensätze übertragen. Transparenz ist dabei entscheidend. Ein Unternehmen muss immer in der Lage sein, der Öffentlichkeit oder den Mitarbeitern zu erklären, wie bestimmte Entscheidungen zustande kommen und wie sie umgesetzt werden.

Neue Perspektiven sind gefragt

Um KI in Zukunft ethisch sinnvoll einzusetzen, werden Unternehmen aber auch ihre Perspektiven ändern müssen. Die meisten Firmen sind darauf fokussiert, Gewinne zu erzielen oder Quoten zu erreichen. Doch auch wenn sie damit erfolgreich sind, werden ihre KI-Lösungen wahrscheinlich nicht die besten Entscheidungen für die Gesellschaft treffen. KI, die nur auf die Steigerung von Umsatz und Gewinn abzielt, kann dem Unternehmen langfristig sogar Schaden zufügen – etwa durch Imageverluste und sinkende Kundenzahlen.

Die Entscheidung, was man mit einer KI-Lösung tatsächlich erreichen will, ist ein wichtiger Faktor bei der Bewertung, ob die Ergebnisse ethisch vertretbar sind. Mithilfe von KI lassen sich Unternehmensziele zwar schneller erreichen. Die Frage ist jedoch, ob es sich dabei um die richtigen Ziele handelt. Ein Finanzunternehmen etwa, das höhere Erträge aus Krediten erzielen will, kann eine KI-Lösung entwerfen, die Antragsteller mit der größten Zahlungswahrscheinlichkeit identifiziert. Erfolgt diese Zuordnung jedoch auf Basis von persönlichen Merkmalen, können bestimmte Gruppen diskriminiert und ihnen unabhängig von ihrer Zahlungsfähigkeit Darlehen verweigert werden.

Der Mensch trägt die Verantwortung

Daten können viel über eine Person aussagen, aber sie können nie alles verraten. Menschen dürfen daher nicht nur nach der Datenspur, die sie hinterlassen, beurteilt werden, sondern auch nach ihren Fähigkeiten oder ihrem Potenzial. Daher darf man KI nicht ausschließlich auf eine Aufgabe hin optimieren, sie muss auch immer Aspekte wie Fairness und Gerechtigkeit berücksichtigen. „Wenn Algorithmen versagen, sind wir Menschen verantwortlich“, fassen Jörg Dräger und Ralph Müller-Eiselt in ihrem Buch „Wir und die intelligenten Maschinen" zusammen. „Wir definieren ihre Ziele, wir programmieren ihren Code, entscheiden über ihren Einsatz. Deshalb sollten wir auch ihre Wirkung kontrollieren. Das erfordert mehr algorithmische Kompetenz und mehr ethische Verantwortung."

Nur wenige Menschen sind frei von einer unbewussten Voreingenommenheit. Einige Vorurteile sind in unserem Denken schon programmiert. Der einzige Weg, sie zu bekämpfen, besteht darin, ihre Existenz anzuerkennen und ihren Einfluss auf unsere Entscheidungen zu begrenzen. Dies lässt sich nicht von heute auf morgen erreichen, sondern muss auf die gleiche Weise trainiert werden wie eine KI. Und: Damit die KI mitfühlende, „humane" Entscheidungen trifft, müssen sich die Menschen weniger wie Maschinen verhalten. Das heißt, die Technologie nicht nur im Hinblick auf ein einziges konkretes Ziel einzusetzen, sondern sich ihrer möglichen Auswirkungen bewusst zu sein. Das Verständnis für Nuancen und Zusammenhänge ist einer unserer Hauptvorteile gegenüber Maschinen. Wir sollten ihn nutzen.

(ID:47006612)