Kommentar von Montaser Awal, IDnow Faire KI – biometrische Systeme im Bias-Test

Von Montaser Awal 5 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI) prägt längst die Zuverlässigkeit digitaler Dienste – von Empfehlungssystemen über automatisierte Workflows bis hin zu Sicherheitsanwendungen. Wie gut ein Modell arbeitet, hängt dabei unmittelbar von der Qualität seiner Trainingsdaten ab. Verzerrte, unvollständige oder unausgewogene Datensätze erzeugen systematische Bias-Effekte, die in realen Anwendungen spürbare Auswirkungen haben.

Der Autor: Montaser Awal ist Director AI & ML bei IDnow(Bild:  IDnow)
Der Autor: Montaser Awal ist Director AI & ML bei IDnow
(Bild: IDnow)

Besonders sichtbar wird das bei der biometrischen Gesichtserkennung. Sie kommt im Smartphone, im Banking oder an Flughäfen zum Einsatz und gilt als Paradebeispiel für KI-gestützte Mustererkennung – zugleich aber auch als Warnsignal für die Schwächen aktueller Modelle. Sind bestimmte Bevölkerungsgruppen in Datensätzen unterrepräsentiert, sinkt die Erkennungsgenauigkeit teils massiv.

Die Studie „Gender Shades“ des MIT Media Lab zeigte bereits 2018, wie ausgeprägt diese Unterschiede sein können: Weiße Männer wurden nahezu fehlerfrei erkannt, während bei schwarzen Frauen Fehlerraten von über 30 Prozent auftraten – ein technisches Problem mit weitreichenden Folgen. Dieses Ungleichgewicht trifft vor allem „Black, Indigenous, and People of Color“ (BiPoC) bzw. Menschen mit dunkleren Hauttönen und verschärft bestehende digitale Ungleichheiten.

Bias wirkt über den Code hinaus – und trifft Menschen direkt

Wenn Gesichtserkennung bestimmte Gruppen – etwa BiPoC oder Menschen mit dunklerer Haut – systematisch schlechter erfasst, hat das eine ganze Reihe praktischer Folgen: verzögerte Identifikationsprozesse in Banking-Apps, zusätzliche Kontrollen an Flughäfen oder fehlerhafte Zuordnungen in automatisierten Sicherheitssystemen. In sicherheitskritischen Situationen steigt zudem das Risiko für Spoofing oder Identitätsdiebstahl, weil inkonsistente Modelle leichter zu umgehen sind – besonders dann, wenn biometrische Verfahren als alleinige Form der Authentifizierung dienen.

Algorithmische Verzerrungen gefährden digitale Teilhabe und grundlegende Rechte

Menschenrechtsorganisationen warnen seit Jahren, dass biometrische Systeme BiPoC strukturell benachteiligen. Wer digital schlechter erkannt wird, hat erschwerten Zugang zu zentralen Services – von der Kontoeröffnung über Verwaltungsprozesse bis hin zu Gesundheits- und Sozialleistungen.

Damit wird aus einem technischen Modellfehler schnell ein Eingriff in das Recht auf gleichberechtigten Zugang zu digitaler Infrastruktur. Verzerrte KI verschiebt Diskriminierung nicht nur in den digitalen Raum, sondern verstärkt sie auch im Alltag.

Forschung schafft Lösungen – Europa baut faire Systeme auf

Um bestehende Verzerrungen wirksam zu reduzieren, entwickeln europäische Forschungsteams neue Methoden zur Bias-Mitigation. Ein besonders relevantes Vorhaben ist das Projekt MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems). Es wurde im November 2022 von der European Research Executive Agency gemeinsam mit zwölf Partnern aus Wissenschaft, Zivilgesellschaft und Wirtschaft gestartet und im Oktober 2025 abgeschlossen. Die finalen Ergebnisse zeigen, dass praktische Verbesserungen bei der Erkennung, Erklärung und Reduzierung von Verzerrungen nicht nur möglich sind, sondern bereits nachweisbar.

Synthetische Daten verringern Erkennungslücken um mehr als 50 Prozent

Die Projektteams stellten fest, dass viele Modelle schlechter arbeiten, weil Menschen mit dunkleren Hauttönen in den Trainingsdaten klar unterrepräsentiert sind. Das führt zu deutlichen Erkennungsunterschieden zwischen hellen und dunklen Hauttönen.

Um diese Lücke zu schließen, erzeugte MAMMOth realistische synthetische Bilder, die Merkmale bislang benachteiligter Gruppen – etwa verschiedene Hauttöne, Altersstufen oder Beleuchtungssituationen – glaubwürdig abbilden. Das Ergebnis: Die Genauigkeitslücke ließ sich in Tests um mehr als 50 Prozent reduzieren. Synthetische Daten werden damit zu einem wichtigen Hebel für fairere und robustere Gesichtserkennung.

Verbesserte Trainingslogiken steigern die Zuverlässigkeit zusätzlich

Daten allein lösen das Problem nicht vollständig. Deshalb optimierte MAMMOth auch die Trainingsverfahren. Durch Data Augmentation, adaptive Loss-Funktionen, Regularisierung und Modellkalibrierung stiegen sowohl die Verifikationsgenauigkeit als auch die Stabilität der Modelle deutlich – um rund acht Prozent, und das ohne zusätzliche reale Daten. Damit wird klar: Fairness hängt nicht nur von der Datenbasis ab, sondern ebenso von Modellarchitektur und Trainingslogik.

Transparenz bildet einen weiteren zentralen Baustein. Modellkarten, Feature-Attribution und Fairness-Benchmarks dokumentieren Entscheidungen und machen potenzielle Verzerrungen sichtbar. Unternehmen profitieren gleich doppelt: Sie erfüllen künftige Auditpflichten des EU AI Act leichter und können interne Risiken präziser bewerten.

Fairness bleibt ein Prozess – kein einmaliger Audit

Bias verschwindet nicht dauerhaft durch eine einmalige Analyse. Modelle entwickeln sich weiter – durch neue Daten, unterschiedliche Nutzungsszenarien und veränderte Interaktionsmuster. Unternehmen müssen ihre Systeme daher kontinuierlich überwachen, testen und neu trainieren. Nur durch konsequentes Monitoring bleibt eine KI verlässlich, und potenzielle neue Verzerrungen lassen sich früh erkennen, bevor Schaden entsteht. Gleichzeitig stellt sich für Organisationen die Frage, nach welchen Kriterien sie biometrische Systeme auswählen sollten, um Fairness und Sicherheit gleichermaßen sicherzustellen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Was Unternehmen bei der Auswahl beachten sollten

Unternehmen sollten biometrische Lösungen nicht allein nach technischer Performance bewerten, sondern gezielt prüfen, wie Anbieter mit potenziellen Verzerrungen umgehen. Dazu gehören nachweisbare Bias-Mitigation-Methoden, transparente Dokumentation und erklärbare Modelle. Wichtig ist außerdem, dass Anbieter offenlegen, wie ihre Systeme bei unterschiedlichen Bevölkerungsgruppen performen, welche Fairness-Frameworks sie einsetzen und wie regelmäßig sie Modelle auditieren oder aktualisieren.

Ebenso zentral sind robuste Sicherheitsmechanismen wie Anti-Spoofing und Liveness-Verfahren, damit Fairness nicht zulasten der Betrugsprävention geht. Unternehmen profitieren zudem, wenn Anbieter kontinuierliches Monitoring, modellbezogene Risikoanalysen und klare Compliance-Nachweise bereitstellen, einschließlich verständlicher Reportings für Geschäftskunden. Wer solche Kriterien berücksichtigt, minimiert operative Risiken und stellt sicher, dass biometrische Systeme sowohl fair als auch sicher arbeiten.

Regulierung setzt Leitplanken – doch nicht alle Fragen sind geklärt

Mit dem EU AI Act entsteht erstmals ein verbindlicher Rahmen für Hochrisiko-KI. Biometrische Identifikationssysteme fallen häufig in diese Kategorie und müssen künftig strenge Dokumentationspflichten, Risikomanagementprozesse und technische Nachweise erfüllen. Gleichzeitig verbietet die EU bestimmte Formen biometrischer Überwachung im öffentlichen Raum.

Wie die Vorgaben national umgesetzt werden, ist jedoch weiterhin offen. In Deutschland fehlen einheitliche Leitlinien und Pilotprojekte wie die Gesichtserkennung am Bahnhof Südkreuz zeigen, wie umstritten das Thema bleibt. Datenschutzbehörden fordern klare Regelungen, während Industrievertreter betonen, dass privatwirtschaftliche Identifikation und staatliche Überwachung unterschiedlich bewertet werden müssen.

Faire KI wird zum strategischen Erfolgsfaktor

Die bisherigen Erkenntnisse zeigen: Faire biometrische Systeme sind nicht nur technisch realisierbar, sondern zunehmend wirtschaftlich relevant. Unternehmen, die früh in vielfältige Datensätze, transparente Modelle und kontinuierliche Prüfmechanismen investieren, schaffen robuste Identifikationsverfahren, erfüllen regulatorische Anforderungen leichter und stärken das Vertrauen von Nutzenden, Partnern und Behörden.

Wer Fairness aktiv verankert, macht aus einer Compliance-Pflicht einen strategischen Vorteil und trägt dazu bei, digitale Infrastrukturen zu schaffen, die allen Menschen gleichermaßen dienen.

(ID:50649982)