Die Künstliche Intelligenz (KI) dringt in immer mehr Bereiche vor und wird zunehmend auch herangezogen, um wichtige Entscheidungen zu fällen. Damit ist sie in der Lage, unsere Gesellschaft zu verändern – im Guten wie im Schlechten. Umso wichtiger ist es, dass sie nach ethischen Standards programmiert wird.
Der Autor: Eric Waltert ist Regional VP DACH bei Veritas
(Bild: SUSANNE HESPING)
Sprachgesteuerte Assistenten, Übersetzungsprogramme, Chatbots im Kundenservice: Künstliche Intelligenz gehört mittlerweile zum Alltag und entwickelt sich in rasendem Tempo weiter. Vielerorts dient sie nicht mehr nur als nützliches Werkzeug, sondern fällt auch wesentliche Entscheidungen – etwa die Auswahl von Kandidaten für Bewerbungsgespräche oder die Bewilligung von Ansprüchen auf Sozialhilfe.
Algorithmen übernehmen klar definierte Aufgaben und greifen auf das zurück, was der Mensch ihnen beigebracht hat. Dabei arbeiten sie mit Verfahren wie Machine Learning (ML) und Deep Learning (DL). Das heißt, die Programme durchforsten riesige unstrukturierte Datenmengen und erkennen darin Muster. Anhand dieser Muster lernen sie weiter. Allerdings sind Algorithmen immer nur so gut wie die Annahmen, auf denen sie beruhen. Und die sind nicht immer fair und können zu Diskriminierung führen. Prominentes Beispiel ist eine in vielen US-Gerichten verwendete Software, mit der sich die Wahrscheinlichkeit berechnen lässt, dass ein vorzeitig erlassener Häftling wieder straffällig wird. Der Journalistenverbund ProPublica konnte belegen, dass das Programm Personen aufgrund ihrer Hautfarbe diskriminiert. Der Algorithmus war offenbar ausschließlich mit Daten von dunkelhäutigen Modellen trainiert worden, weil Farbige in den USA häufiger verhaftet werden und dadurch überproportional in den Daten vertreten sind.
Unbewusste Verzerrungen sind ein Datenproblem
Denn Algorithmen werden für die Ausführung einer bestimmten Aufgabe entworfen und trainiert. Damit sind sie vollkommen abhängig von den Daten, mit denen sie gefüttert werden. Nur auf dieser Grundlage können sie daraus das beste Ergebnis erzielen. Die unbewusste Verzerrung der KI ist daher ein Datenproblem: Ohne umfassende Datensätze fehlt der Kontext und die repräsentative Masse, die für datenbasierte Entscheidungen erforderlich sind. So gibt es zu manchen Krankheiten kaum Forschungsdaten, Minderheiten und Kinder sind unterrepräsentiert.
Die Personalabteilung eines Ingenieurbüros etwa kann zwar aus großen Mengen an Daten schöpfen. Wenn in der Vergangenheit jedoch vorrangig Männer dort tätig waren, ist es unwahrscheinlich, dass der Algorithmus auch Bewerberinnen vorschlägt. Eine KI, die auf solchen Datensätzen beruht, kann aber nicht ausgewogen sein. Was uns wie eine schlechte Entscheidung erscheint, ist dann in Wirklichkeit nur die optimale Entscheidung auf Basis eines schlechten Datensatzes. Das macht sie allerdings nicht weniger schwerwiegend.
Meistens steckt keine böse Absicht dahinter. Die Folgen der Verwendung von unzureichenden KI-Trainingsdaten können jedoch gravierend sein. Wir Menschen beeinflussen die neue Technologie im selben Maße wie sie uns. Dadurch besteht die Gefahr, dass sie auch unsere Fehleinschätzungen und Vorurteile übernimmt. Schon heute zählen unbewusste Verzerrungen zu den größten gesellschaftlichen Herausforderungen. Wenn wir sie nicht verhindern, können sie als strukturelle Verzerrungen fortbestehen und sich verfestigen.
Menge und Qualität der Daten geben den Ausschlag
Verhindern lassen sich solche Verzerrungen, wenn die KI-Systeme mit einer ausreichenden Menge an hochwertigen Daten trainiert werden. Nur aufbauend auf einer hohen Datenvielfalt und -qualität sind gerechte Aussagen und Prognosen möglich. Das heißt, Unternehmen müssen dafür sorgen, dass ihre Datenbanken regelmäßig mit einer Vielzahl von Informationen gefüttert werden. Und sie müssen sicherstellen, dass die KI diese auch effektiv nutzen kann. Letzten Endes kommt es darauf an, Datenmanagement-Tools einzusetzen und Richtlinien zu etablieren, nach denen die Informationen für die KI-Nutzung klassifiziert, konsolidiert und rationalisiert werden. Das reine Speichern reicht nicht aus. Entscheidend ist, sie in der richtigen Infrastruktur zu nutzen und dabei einer klar definierten Governance zu folgen.
Wie stellen Unternehmen die Weichen für eine gerechtere KI?
Um unbewusste Verzerrungen zu vermeiden, muss man sich ihrer aber auch bewusst sein. Und hier besteht noch einiges an Nachholbedarf. Viele Unternehmen behandeln die KI wie eine Black Box aus Inputs und Outputs. Um bei der Nutzung von Algorithmen Fairness und Gerechtigkeit zu wahren, ist jedoch ein tiefes Verständnis dafür notwendig, wie die KI-Lösung funktioniert und wie sie mit Daten interagiert. Das heißt, der Anwender braucht zunächst eine klare Vorstellung davon, welche Ergebnisse er erreichen will. Angewendet auf den Datensatz, mit dem die KI trainiert wird, lässt sich eine faire Darstellung für alle geschlechtsspezifischen, sozialen und ethnischen Gruppen erzielen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Doch wer entscheidet eigentlich, was „fair" und gerecht ist? Das ist das Problem, denn ethische Prinzipien sind von Mensch zu Mensch unterschiedlich. Die Geschäftsleitung sollte daher gemeinsam mit den Mitarbeitern ein Rahmenwerk entwickeln, an dem sich alle orientieren. Ein Top-down-Ansatz ist dafür ungeeignet. Um einen Konsens zu erzielen, empfiehlt sich die Einrichtung eines Diversity-Ausschusses, der mit Interessenvertretern aus dem gesamten Unternehmen besetzt ist. Die hier gefällten Entscheidungen lassen sich dann auf die KI-Lösung und die Datensätze übertragen. Transparenz ist dabei entscheidend. Ein Unternehmen muss immer in der Lage sein, der Öffentlichkeit oder den Mitarbeitern zu erklären, wie bestimmte Entscheidungen zustande kommen und wie sie umgesetzt werden.
Neue Perspektiven sind gefragt
Um KI in Zukunft ethisch sinnvoll einzusetzen, werden Unternehmen aber auch ihre Perspektiven ändern müssen. Die meisten Firmen sind darauf fokussiert, Gewinne zu erzielen oder Quoten zu erreichen. Doch auch wenn sie damit erfolgreich sind, werden ihre KI-Lösungen wahrscheinlich nicht die besten Entscheidungen für die Gesellschaft treffen. KI, die nur auf die Steigerung von Umsatz und Gewinn abzielt, kann dem Unternehmen langfristig sogar Schaden zufügen – etwa durch Imageverluste und sinkende Kundenzahlen.
Die Entscheidung, was man mit einer KI-Lösung tatsächlich erreichen will, ist ein wichtiger Faktor bei der Bewertung, ob die Ergebnisse ethisch vertretbar sind. Mithilfe von KI lassen sich Unternehmensziele zwar schneller erreichen. Die Frage ist jedoch, ob es sich dabei um die richtigen Ziele handelt. Ein Finanzunternehmen etwa, das höhere Erträge aus Krediten erzielen will, kann eine KI-Lösung entwerfen, die Antragsteller mit der größten Zahlungswahrscheinlichkeit identifiziert. Erfolgt diese Zuordnung jedoch auf Basis von persönlichen Merkmalen, können bestimmte Gruppen diskriminiert und ihnen unabhängig von ihrer Zahlungsfähigkeit Darlehen verweigert werden.
Der Mensch trägt die Verantwortung
Daten können viel über eine Person aussagen, aber sie können nie alles verraten. Menschen dürfen daher nicht nur nach der Datenspur, die sie hinterlassen, beurteilt werden, sondern auch nach ihren Fähigkeiten oder ihrem Potenzial. Daher darf man KI nicht ausschließlich auf eine Aufgabe hin optimieren, sie muss auch immer Aspekte wie Fairness und Gerechtigkeit berücksichtigen. „Wenn Algorithmen versagen, sind wir Menschen verantwortlich“, fassen Jörg Dräger und Ralph Müller-Eiselt in ihrem Buch „Wir und die intelligenten Maschinen" zusammen. „Wir definieren ihre Ziele, wir programmieren ihren Code, entscheiden über ihren Einsatz. Deshalb sollten wir auch ihre Wirkung kontrollieren. Das erfordert mehr algorithmische Kompetenz und mehr ethische Verantwortung."
Nur wenige Menschen sind frei von einer unbewussten Voreingenommenheit. Einige Vorurteile sind in unserem Denken schon programmiert. Der einzige Weg, sie zu bekämpfen, besteht darin, ihre Existenz anzuerkennen und ihren Einfluss auf unsere Entscheidungen zu begrenzen. Dies lässt sich nicht von heute auf morgen erreichen, sondern muss auf die gleiche Weise trainiert werden wie eine KI. Und: Damit die KI mitfühlende, „humane" Entscheidungen trifft, müssen sich die Menschen weniger wie Maschinen verhalten. Das heißt, die Technologie nicht nur im Hinblick auf ein einziges konkretes Ziel einzusetzen, sondern sich ihrer möglichen Auswirkungen bewusst zu sein. Das Verständnis für Nuancen und Zusammenhänge ist einer unserer Hauptvorteile gegenüber Maschinen. Wir sollten ihn nutzen.