Künstliche Intelligenz (KI) prägt längst die Zuverlässigkeit digitaler Dienste – von Empfehlungssystemen über automatisierte Workflows bis hin zu Sicherheitsanwendungen. Wie gut ein Modell arbeitet, hängt dabei unmittelbar von der Qualität seiner Trainingsdaten ab. Verzerrte, unvollständige oder unausgewogene Datensätze erzeugen systematische Bias-Effekte, die in realen Anwendungen spürbare Auswirkungen haben.
Der Autor: Montaser Awal ist Director AI & ML bei IDnow
(Bild: IDnow)
Besonders sichtbar wird das bei der biometrischen Gesichtserkennung. Sie kommt im Smartphone, im Banking oder an Flughäfen zum Einsatz und gilt als Paradebeispiel für KI-gestützte Mustererkennung – zugleich aber auch als Warnsignal für die Schwächen aktueller Modelle. Sind bestimmte Bevölkerungsgruppen in Datensätzen unterrepräsentiert, sinkt die Erkennungsgenauigkeit teils massiv.
Die Studie „Gender Shades“ des MIT Media Lab zeigte bereits 2018, wie ausgeprägt diese Unterschiede sein können: Weiße Männer wurden nahezu fehlerfrei erkannt, während bei schwarzen Frauen Fehlerraten von über 30 Prozent auftraten – ein technisches Problem mit weitreichenden Folgen. Dieses Ungleichgewicht trifft vor allem „Black, Indigenous, and People of Color“ (BiPoC) bzw. Menschen mit dunkleren Hauttönen und verschärft bestehende digitale Ungleichheiten.
Bias wirkt über den Code hinaus – und trifft Menschen direkt
Wenn Gesichtserkennung bestimmte Gruppen – etwa BiPoC oder Menschen mit dunklerer Haut – systematisch schlechter erfasst, hat das eine ganze Reihe praktischer Folgen: verzögerte Identifikationsprozesse in Banking-Apps, zusätzliche Kontrollen an Flughäfen oder fehlerhafte Zuordnungen in automatisierten Sicherheitssystemen. In sicherheitskritischen Situationen steigt zudem das Risiko für Spoofing oder Identitätsdiebstahl, weil inkonsistente Modelle leichter zu umgehen sind – besonders dann, wenn biometrische Verfahren als alleinige Form der Authentifizierung dienen.
Algorithmische Verzerrungen gefährden digitale Teilhabe und grundlegende Rechte
Menschenrechtsorganisationen warnen seit Jahren, dass biometrische Systeme BiPoC strukturell benachteiligen. Wer digital schlechter erkannt wird, hat erschwerten Zugang zu zentralen Services – von der Kontoeröffnung über Verwaltungsprozesse bis hin zu Gesundheits- und Sozialleistungen.
Damit wird aus einem technischen Modellfehler schnell ein Eingriff in das Recht auf gleichberechtigten Zugang zu digitaler Infrastruktur. Verzerrte KI verschiebt Diskriminierung nicht nur in den digitalen Raum, sondern verstärkt sie auch im Alltag.
Forschung schafft Lösungen – Europa baut faire Systeme auf
Um bestehende Verzerrungen wirksam zu reduzieren, entwickeln europäische Forschungsteams neue Methoden zur Bias-Mitigation. Ein besonders relevantes Vorhaben ist das Projekt MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems). Es wurde im November 2022 von der European Research Executive Agency gemeinsam mit zwölf Partnern aus Wissenschaft, Zivilgesellschaft und Wirtschaft gestartet und im Oktober 2025 abgeschlossen. Die finalen Ergebnisse zeigen, dass praktische Verbesserungen bei der Erkennung, Erklärung und Reduzierung von Verzerrungen nicht nur möglich sind, sondern bereits nachweisbar.
Synthetische Daten verringern Erkennungslücken um mehr als 50 Prozent
Die Projektteams stellten fest, dass viele Modelle schlechter arbeiten, weil Menschen mit dunkleren Hauttönen in den Trainingsdaten klar unterrepräsentiert sind. Das führt zu deutlichen Erkennungsunterschieden zwischen hellen und dunklen Hauttönen.
Um diese Lücke zu schließen, erzeugte MAMMOth realistische synthetische Bilder, die Merkmale bislang benachteiligter Gruppen – etwa verschiedene Hauttöne, Altersstufen oder Beleuchtungssituationen – glaubwürdig abbilden. Das Ergebnis: Die Genauigkeitslücke ließ sich in Tests um mehr als 50 Prozent reduzieren. Synthetische Daten werden damit zu einem wichtigen Hebel für fairere und robustere Gesichtserkennung.
Verbesserte Trainingslogiken steigern die Zuverlässigkeit zusätzlich
Daten allein lösen das Problem nicht vollständig. Deshalb optimierte MAMMOth auch die Trainingsverfahren. Durch Data Augmentation, adaptive Loss-Funktionen, Regularisierung und Modellkalibrierung stiegen sowohl die Verifikationsgenauigkeit als auch die Stabilität der Modelle deutlich – um rund acht Prozent, und das ohne zusätzliche reale Daten. Damit wird klar: Fairness hängt nicht nur von der Datenbasis ab, sondern ebenso von Modellarchitektur und Trainingslogik.
Transparenz bildet einen weiteren zentralen Baustein. Modellkarten, Feature-Attribution und Fairness-Benchmarks dokumentieren Entscheidungen und machen potenzielle Verzerrungen sichtbar. Unternehmen profitieren gleich doppelt: Sie erfüllen künftige Auditpflichten des EU AI Act leichter und können interne Risiken präziser bewerten.
Fairness bleibt ein Prozess – kein einmaliger Audit
Bias verschwindet nicht dauerhaft durch eine einmalige Analyse. Modelle entwickeln sich weiter – durch neue Daten, unterschiedliche Nutzungsszenarien und veränderte Interaktionsmuster. Unternehmen müssen ihre Systeme daher kontinuierlich überwachen, testen und neu trainieren. Nur durch konsequentes Monitoring bleibt eine KI verlässlich, und potenzielle neue Verzerrungen lassen sich früh erkennen, bevor Schaden entsteht. Gleichzeitig stellt sich für Organisationen die Frage, nach welchen Kriterien sie biometrische Systeme auswählen sollten, um Fairness und Sicherheit gleichermaßen sicherzustellen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Was Unternehmen bei der Auswahl beachten sollten
Unternehmen sollten biometrische Lösungen nicht allein nach technischer Performance bewerten, sondern gezielt prüfen, wie Anbieter mit potenziellen Verzerrungen umgehen. Dazu gehören nachweisbare Bias-Mitigation-Methoden, transparente Dokumentation und erklärbare Modelle. Wichtig ist außerdem, dass Anbieter offenlegen, wie ihre Systeme bei unterschiedlichen Bevölkerungsgruppen performen, welche Fairness-Frameworks sie einsetzen und wie regelmäßig sie Modelle auditieren oder aktualisieren.
Ebenso zentral sind robuste Sicherheitsmechanismen wie Anti-Spoofing und Liveness-Verfahren, damit Fairness nicht zulasten der Betrugsprävention geht. Unternehmen profitieren zudem, wenn Anbieter kontinuierliches Monitoring, modellbezogene Risikoanalysen und klare Compliance-Nachweise bereitstellen, einschließlich verständlicher Reportings für Geschäftskunden. Wer solche Kriterien berücksichtigt, minimiert operative Risiken und stellt sicher, dass biometrische Systeme sowohl fair als auch sicher arbeiten.
Regulierung setzt Leitplanken – doch nicht alle Fragen sind geklärt
Mit dem EU AI Act entsteht erstmals ein verbindlicher Rahmen für Hochrisiko-KI. Biometrische Identifikationssysteme fallen häufig in diese Kategorie und müssen künftig strenge Dokumentationspflichten, Risikomanagementprozesse und technische Nachweise erfüllen. Gleichzeitig verbietet die EU bestimmte Formen biometrischer Überwachung im öffentlichen Raum.
Wie die Vorgaben national umgesetzt werden, ist jedoch weiterhin offen. In Deutschland fehlen einheitliche Leitlinien und Pilotprojekte wie die Gesichtserkennung am Bahnhof Südkreuz zeigen, wie umstritten das Thema bleibt. Datenschutzbehörden fordern klare Regelungen, während Industrievertreter betonen, dass privatwirtschaftliche Identifikation und staatliche Überwachung unterschiedlich bewertet werden müssen.
Faire KI wird zum strategischen Erfolgsfaktor
Die bisherigen Erkenntnisse zeigen: Faire biometrische Systeme sind nicht nur technisch realisierbar, sondern zunehmend wirtschaftlich relevant. Unternehmen, die früh in vielfältige Datensätze, transparente Modelle und kontinuierliche Prüfmechanismen investieren, schaffen robuste Identifikationsverfahren, erfüllen regulatorische Anforderungen leichter und stärken das Vertrauen von Nutzenden, Partnern und Behörden.
Wer Fairness aktiv verankert, macht aus einer Compliance-Pflicht einen strategischen Vorteil und trägt dazu bei, digitale Infrastrukturen zu schaffen, die allen Menschen gleichermaßen dienen.