Bias in der KI BSI warnt vor systematischen Vorurteilen in KI-Systemen

Von Manuel Christa 2 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI) kann nie ganz neutral sein. Viele Systeme übernehmen unbewusst Vorurteile aus Trainingsdaten oder Algorithmen. Das zeigt jetzt ein Whitepaper des BSI, wie verbreitet und hartnäckig solche Verzerrungen sind. Diese haben Folgen für Wirtschaft, Verwaltung und Gesellschaft.

KI-Biases: Von der Qualität der Trainingsdaten bis zur Auswertung.(Bild:  Bundesamt für Sicherheit in der Informationstechnik)
KI-Biases: Von der Qualität der Trainingsdaten bis zur Auswertung.
(Bild: Bundesamt für Sicherheit in der Informationstechnik)

Ob in Bewerbungsverfahren, bei Kreditanträgen oder automatisierter Bilderkennung: Künstliche Intelligenz bewertet, filtert und priorisiert oft ohne nachvollziehbare Kriterien für die Nutzer. Genau das wird zum Problem, wenn sogenannte Biases, also systematische Verzerrungen oder Voreingenommenheiten, das Ergebnis beeinflussen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) erklärt in einem 34-seitigen Whitepaper, wie diese entstehen, warum sie schwer zu erkennen sind und was man dagegen tun kann.

Voreingenommen vom Training bis zur Ausgabe

Der erste Trugschluss: Vorurteile in KI-Systemen stammen nicht allein aus den Daten. „Bias kann in jeder Phase des KI-Lebenszyklus auftreten“, heißt es im Whitepaper. Das beginnt bei der Auswahl der Datenquellen, setzt sich fort bei der Definition der Zielgrößen und kann selbst beim Deployment noch durch ungeprüfte Wechselwirkungen oder falsche Gewichtungen entstehen.

Ein Beispiel: Wenn ein System automatisch Bewerbungen vorsortiert und dafür historische Daten nutzt, in denen Männer bevorzugt eingestellt wurden, reproduziert es diese Bevorzugung – selbst wenn das Geschlecht gar nicht explizit berücksichtigt wird. Ähnliche Effekte zeigen sich bei Gesichtserkennung: Systeme schneiden bei weißen Männern deutlich besser ab als bei People of Color oder Frauen. Ursache ist häufig ein Ungleichgewicht in den Trainingsdaten.

Transparenz allein reicht nicht aus

Viele Anbieter setzen inzwischen auf Transparenzberichte, Dokumentationspflichten oder Audits. Doch laut BSI reicht das nicht aus. „Selbst bei offenen Systemen bleiben viele Verzerrungen unerkannt, weil sie tief in den Modellentscheidungen oder der Zieldefinition verborgen liegen“, steht es im Paper. Gerade in sicherheitsrelevanten oder regulierten Bereichen brauche es mehr als nur Offenlegung, nämlich eine systematische Bias-Analyse, inklusive Risikoabwägung und technischer Maßnahmen zur Korrektur.

Besonders kritisch sei der Einsatz von KI in öffentlichen Infrastrukturen oder hoheitlichen Entscheidungen, etwa im Sozialwesen, bei polizeilichen Analysen oder der Steuerprüfung. Hier bestehe ein besonderes Risiko, dass einzelne Gruppen benachteiligt oder systematisch ausgeschlossen werden, auch unbeabsichtigt. 

Praktische Empfehlungen für Behörden und Unternehmen

Das Whitepaper empfiehlt zum Abschluss konkrete Handlungsoptionen: KI-Projekte sollten bereits in der Planungsphase auf mögliche Verzerrungen hin geprüft werden. Auch müsse klar sein, wer für die Ergebnisse der KI verantwortlich ist – eine oft vernachlässigte Frage, gerade bei automatisch generierten Entscheidungen.

Datensätze sollten möglichst divers zusammengestellt und kontinuierlich evaluiert werden. Auch technische Korrekturverfahren – etwa Reweighting oder Bias-Mitigations-Algorithmen – sollten eingesetzt werden, um Verzerrungen aktiv zu reduzieren. Wichtig sei zudem, dass Teams interdisziplinär arbeiten und die Perspektiven der Betroffenen einbeziehen.

Wer genauer einsteigen will, findet im Whitepaper viele Beispiele, eine systematische Bias-Taxonomie und konkrete Maßnahmenkataloge zur Prävention und Behandlung. Auch Open-Source-Tools zur Erkennung und Korrektur von Verzerrungen werden vorgestellt.

Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

(ID:50499396)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung