Die Entwicklung und das Training von KI-Systemen ist komplex. Entwickler sollten dabei auch darauf achten, dass die KI nach ethischen Prinzipien agiert. Einzig: Wie lassen die sich in der Praxis umsetzen?
Soll eine KI ethisch agieren, muss der Mensch sie beim Lernen unterstützen.
(Bild: Art Gallery - stock.adobe.com)
Künstliche Intelligenz braucht ethische Grundlagen, so viel liegt auf der Hand. Mangels moralischen Kompasses agieren die Systeme zunächst rein logisch, basierend auf den Trainingsdaten. Das kann dazu führen, dass der Output von KI-Systemen ethisch fragwürdig ist. Es kommt zu einem unerwünschten AI Bias, einem „Vorurteil der KI“.
In einem solchen Fall zieht das System aus den Trainingsdaten Rückschlüsse, die unerwünscht, diskriminierend oder sogar gefährlich sein können – insbesondere für Minderheiten oder marginalisierte Gruppen. Dabei geht es längst nicht mehr nur um Generative KI-Systeme, die auf einen Input einen ethisch fragwürdigen Output in Form eines Texts, eines Bildes oder eines Videos generieren.
Mit zunehmender Nutzung von und Automatisierung durch KI-Systeme kann der AI-Bias erhebliche Probleme generieren. In einem Blog-Beitrag aus dem Oktober 2023 listet IBM einige Beispiele für kognitive Verzerrungen auf. So kann eine Unterrepräsentation von Daten einer bestimmten Gruppe – etwa Frauen oder schwarze Menschen – im Gesundheitsbereich dazu führen, dass computergestützte Diagnosesysteme „männlich“ diagnostizieren, was zu Behandlungsfehlern führen kann.
Ein KI-gestütztes Bewerbungssystem bei Amazon wiederum hängte sich an bestimmten Begriffen auf – und bevorzugte systematisch männliche Bewerber. Und KI-Systeme für das Predictive Policing – die vorausschauende Polizeiarbeit – zeigten deutliche Tendenzen zum Racial Profiling.
Historische Trainingsdaten liefern oft unerwünschte Skalierungen
Ursächlich für diese Vorurteile sind die zumeist historischen, ihrerseits tendenziös geprägten Trainingsdaten. Im Gesundheitsbereich wurden die meisten Studien in der Vergangenheit an weißen, männlichen Personen durchgeführt. Die Arbeitswelt war lange Zeit männlich geprägt. Und in der Verbrechensprävention liefern historische Daten eine deutliche Schlagseite in Richtung (Vor)Verurteilungen Nicht-Weißer.
Das Problem sind in diesem Fall sogenannte Trainingsdaten-Vorurteile. Die rohen Daten in Form von Trainingsdaten geben der KI einen Hinweis, wie die reale Welt funktioniert. Daraus zieht sie logisch ihre Schlüsse, wodurch der KI-Bias entsteht. Das Ergebnis allerdings zementiert Vorurteile, die natürlich unerwünscht sind, zumal sie keine Skalierung in die Zukunft erlauben.
Inkonsistenzen im Labeling der Rohdaten sowie eine Überrepräsentation bestimmter Bevölkerungsgruppen oder menschlicher Charakteristika in historischen Trainingsdaten sind also Gründe für den „Denkfehler“. Hier kann es helfen, die Trainingsdaten mit Bedacht zu wählen und zu labeln, damit die KI nicht von vornherein von einer falschen Weltanschauung ausgeht.
Doch es gibt noch andere Gründe für KI-Vorurteile, etwa einen fehlerhaften Algorithmus, der Muster findet, wo augenscheinlich zunächst keine sind – und sich daraus selbst ein Vorurteil bildet. Die Berücksichtigung bestimmter Faktoren, etwa dem Haushaltseinkommen, kann dadurch zu einer Diskriminierung durch die Hintertür führen. So haben etwa migrantische Familien oft ein niedrigeres Haushaltseinkommen, niedrigeres Einkommen korreliert mit höherer Kriminalität
Doch heißt das im Umkehrschluss nicht, dass einzelne Menschen mit Migrationshintergrund automatisch krimineller sind als Menschen ohne. Der rassistische Bias würde aber bei einem polizeilichen Ermittlungssystem dafür sorgen, dass Migranten häufiger verdächtigt werden – ohne dass die KI auf „Racial Profiling“ trainiert ist. Auf solche unerwünschten Nebeneffekte müssen Entwickler beim Training ihrer KI ein Auge haben – und gegebenenfalls an den Algorithmen schrauben.
Kognitive Vorurteile aus der Welt schaffen
Die dritte Ursache für KI-Bias sind kognitiven Vorurteile seitens der KI-Trainer beziehungsweise der Auswahl der Trainingsdaten selbst: Die Vorauswahl und das Labeling der Daten an sich kann bereits zu ein Vorurteil verursachen. Menschen und Institutionen sind „werksseitig“ mit einer Reihe von Vorurteilen ausgestattet, die aus Lebenserfahrung, sozialem Hintergrund, politischer Einstellung und vielen anderen Faktoren bestehen. Diese Vorurteile sind den Betroffenen aber in aller Regel nicht bewusst oder nicht auf den ersten Blick erkennbar.
Selbst, wenn der Trainer neutral agiert und glaubt, neutrale Daten und Labels an die KI weiterzureichen, kann es sein, dass die Trainingsdaten an sich einem solchen Bias unterliegen. Dadurch kann es passieren, dass bereits die Trainingsdaten selbst einem Vorurteil unterliegen: Etwa, weil es einen kognitiven Bias in Fotos oder Texten gibt, die der KI zugeführt werden. Das Resultat ist, dass die KI diese Vorurteile entweder übernimmt oder sogar verstärkt. Das Ergebnis ist hier – wie in den anderen Beispielen – unerwünscht und damit unethisch.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ethik bei der KI-Entwicklung etablieren
Leider lässt sich keiner dieser Faktoren vollständig eliminieren. Von Menschen erstellte Daten sind immer auf die ein oder andere Weise mit Vorurteilen belegt. Daraus resultiert, dass KI-Entwickler nicht nur beim Training, sondern auch bei der KI-Entwicklung an sich dafür sorgen müssen, dass die vorhandene Datenbasis keine unethischen Ergebnisse erzeugt. Daher muss korrigierend in die Algorithmen der KI eingegriffen und notfalls mit Filtern nachgeholfen werden.
Beides kann seinerseits wieder ethische Probleme verursachen. Es ist daher umso wichtiger, einige Aspekte bei der KI-Entwicklung im Hinterkopf zu behalten. Zunächst sollte ein aufkommender AI-Bias analysiert werden: Woher stammen die Vorurteile, gibt es Möglichkeiten, diese etwa mit der Auswahl oder Aufbereitung der Trainingsdaten abzubauen? Anschließend ist es wichtig, verschiedene Maßnahmen zu etablieren.
So kann es zum Beispiel sinnvoll sein, ein Belohnungssystem in der KI einzubauen, die ein „richtig“ oder „falsch“ mittels Belohnung und Bestrafung im Training berücksichtigt. Wer beim „reinforced learning“ allerdings wie Peter Venkman im Film Ghostbusters (1984) virtuelle Elektroschocks für falsche Antworten verteilt, wird sich früher oder später natürlich der Frage stellen müssen, ob diese Vorgehensweise nicht gegenüber der KI unethisch ist.
Rechtssicherheit und Transparenz
Umso wichtiger ist es, in der ethischen KI-Entwicklung von vornherein für einige wichtige Wegpunkte zu sorgen. Die KI sollte sich jederzeit juristisch und politisch korrekt verhalten, sprich: Auch einmal etwas nicht wissen oder eine Ausgabe verweigern, wenn diese möglicherweise fehlerhaft oder unethisch sein könnte.
Wichtig ist außerdem, dass die Algorithmen und Trainingsdaten transparent sind. Hier hilft vor allem Dokumentation, um im Fall der Fälle herauszufinden, warum die KI – die ja in gewisser Weise als Blackbox arbeitet – handelt, wie sie handelt. Dadurch kann gegebenenfalls korrigierend eingegriffen werden.
Beim Training hilfreich kann zudem sein, die KI schon beim Lernen mit menschlichen Entscheidungen zu unterstützen, etwa durch einen zunächst zwischengeschalteten Trainer, der Antworten ethisch einordnet und der KI damit beim Training hilft. Und nicht zuletzt sollten Content-Filter eingesetzt werden, die die KI proaktiv daran hindern, gewisse unethische Aussagen zu treffen.