Kommentar von Richio Aikawa, Panasas Künstliche Intelligenz – wie vorurteilsbehaftete Daten entkräftet werden können

Von Richio Aikawa

Anbieter zum Thema

Voreingenommenheit im Bereich der Künstlichen Intelligenz (KI) ist oft komplex. Könnte KI selbst dazu beitragen, Stereotype zu beseitigen?

Der Autor: Richio Aikawa ist Senior Director of Strategic Marketing bei Panasas
Der Autor: Richio Aikawa ist Senior Director of Strategic Marketing bei Panasas
(Bild: Panasas)

Wer im Technologie-Sektor unterwegs ist, beobachtet die Fortschritte der Künstlichen Intelligenz in der Regel mit Spannung. Von der Aufdeckung betrügerische Transaktionen bis hin zur Prognose eines Krankheitsverlaufs ist KI in der Lage, Automatisierungsprozesse zu optimieren und die Forschung zu unterstützen. Eine Umfrage des Pew Research Centers aus dem Jahr 2021 hat allerdings ergeben, dass die zunehmende Dominanz von KI „eher mit Sorge als mit Begeisterung“ von vielen Menschen wahrgenommen wird. Weshalb ist das so?

Von der häufig zitierten Furcht, den eigenen Arbeitsplatz zu verlieren (und gar der Angst vor einem generellen Aufstand aller Roboter) einmal ganz abgesehen, geht es beim öffentlichen Misstrauen gegenüber Künstlicher Intelligenz vorrangig um die Themenfelder Datenschutz, Vertrauen und Ethik.

Professor Frank Rudzicz von der University of Toronto skizziert die aktuell größten ethischen Bedenken zu KI:

  • Der tatsächliche Einsatz von KI entspricht oft nicht der eigentlichen in den Vordergrund gestellten Absicht
  • Nicht alle Menschen steht der Zugang offen zu KI sowie KI-beeinflussten Bereichen
  • Es kann sehr leicht passieren, dass unbewusste menschliche Voreingenommenheit in unserer Gesellschaft über Daten ihren Weg in die Künstliche Intelligenz findet und dort dann noch verstärkt wird.
  • Mit Blick auf den letztgenannten Punkt fordert Professor Rudzicz Experten der Industrie zum Handeln auf: „Wir müssen Wege finden, diesen Effekt zu minimieren. Daten, die wir der KI zur Verfügung stellen, müssen so vorurteilsfrei wie möglich sein.“

Da KI eine immer wichtigere Rolle bei wesentlichen Entscheidungen spielt, die sich direkt auf uns alle auswirken – insbesondere in heiklen Bereichen wie etwa dem Finanzsektor und dem Gesundheitswesen – wird die Forderung nach Beseitigung von Voreingenommenheit immer dringlicher.

Da sich in jeder Phase der KI-Pipeline Voreingenommenheit einschleichen und in extrem schädlichen Ergebnissen resultieren kann, müssen weitreichende Strategien zur Eindämmung her. Ergänzend dazu können wir uns der Technologie selbst zuwenden. Wir müssen KI so entwickeln, dass sie in der Lage ist, Voreingenommenheit zu erkennen, die uns entgeht, bzw. sie sogar ganz zu verhindern.

So ernst wie ein Herzinfarkt

Hier ein hypothetisches, aber leider sehr plausibles Szenario: Ein Mann und eine Frau, beide in den späten Vierzigern, bewegen sich ähnlich viel, ernähren sich ähnlich und haben eine ähnliche Familienanamnese. Beide werden außerdem in den nächsten 72 Stunden einen Herzinfarkt erleiden.

Sie nutzen beide eine medizinische App auf ihren Smartphones, die mit ihren Smartwatches synchronisiert sind, um ihre Gesundheit zu überwachen. Sowohl der Mann als auch die Frau kreuzen Symptomkästchen für Druck in der Brust, Müdigkeit, Atembeschwerden und übermäßiges Schwitzen an. Die App zeigt der Frau folgende Nachricht an: Sie leiden möglicherweise unter Angstzuständen; sprechen Sie mit Ihrem Arzt. Dem Mann zeigt die App folgende Warnung an: Sie haben möglicherweise ein hohes Risiko für einen Herzinfarkt. Wenn Sie außerdem eines der folgenden Symptome aufweisen, rufen Sie sofort den Notarzt. So sieht Voreingenommenheit in der KI oft aus.

Vielleicht überrascht es, dass es nicht unbedingt „falsche“ Daten waren, die zu der falschen Prognose für die Frau geführt haben, sondern eher historisch verzerrte Datensätze. Es existiert eine tief verwurzelte, geschlechtsspezifische Diskrepanz in den Forschungsdaten der Kardiologie, die seit langem zu grundlegenden Mängeln in der medizinischen Versorgung von Frauen mit Herzerkrankungen führt. Die App in unserem Beispiel war also von Anfang an durch die geschlechtsspezifische Verzerrung in den Datensätzen zum Trainieren ihrer Modelle eingeschränkt.

Das ist zwar eine der bekanntesten Quellen für KI-Verzerrungen, aber nicht alle sind in den Trainingsdatensätzen begründet – dann wäre die Situation ja viel einfacher zu beheben. In Wirklichkeit gibt es viel mehr Ansatzpunkte, die berücksichtigt werden müssen, und nicht alle sind so leicht zu erkennen. In der Studie „A Survey on Bias and Fairness in Machine Learning“ wurden 19 verschiedene Arten definiert, die in drei verschiedenen Interaktionsschleifen auftreten: Daten zu Algorithmus, Algorithmus zu Benutzer und Benutzer zu Daten.

Die Entwicklung der KI steht noch am Anfang, aber die Wirtschaft und die Gesellschaft sind von diesem Sachverhalt gleichermaßen beunruhigt. Tatsächlich hat Gartner vorausgesagt, dass 2022 ca. 85 % aller KI-Projekte fehlerhafte Ergebnisse liefern werden, die auf implizierte Voreingenommenheit zurückzuführen sind.

Die Technologie existiert bereits

Zum Glück stellen viele Experten sogenannte Game Plans bereit, mit denen Unternehmen KI-Voreingenommenheit reduzieren können. Zu den bereits vorgeschlagenen Strategien zur Eindämmung gehören die Erweiterung von Datenerfassungspools, die Einführung synthetischer Datensätze, die Investition in Audits durch Dritte sowie die Erhöhung der Diversität von KI-Teams.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Das alles sind solide Schritte auf dem Weg zu einer ethischen KI. Aber wir können noch einen Schritt weiter gehen, indem wir genau die Technologie, die wir als Problem diagnostizieren, dazu nutzen, neue Lösungen zu finden.

2019 beschrieb Karen Hao im MIT Technology Review-Artikel „This is how AI bias really happens — and why it’s so hard to fix“ einen der komplexeren Fälle von Voreingenommenheit als „unbekannte“: „Die Integration der Voreingenommenheit ist nicht immer offensichtlich (…) die Auswirkungen der Daten und Entscheidungen werden möglicherweise erst viel später erkannt. In diesem Fall ist es schwierig, rückwirkend festzustellen, woher die Verzerrung kommt und wie man sie beheben kann.“

Wie können wir ein Problem beheben, von dem wir nicht wissen, dass es existiert? Im Fall der „unbekannten“ müssen wir über die oben beschriebenen Verfahren hinausgehen.

Hilfe kommt von der KI

Und genau hier kann KI helfen. Hao verweist auf die Entwicklung von „Algorithmen, die dabei helfen, versteckte Verzerrungen in den Trainingsdaten zu erkennen und abzuschwächen, oder aber die vom Modell erlernten Verzerrungen unabhängig von der Datenqualität abzuschwächen“.

Forscher an der Penn State und der Columbia University, die diesen Weg verfolgen, haben ein KI-Tool zu Erkennung von Voreingenommenheit entwickelt, das sowohl bei menschlichen Entscheidungsträgern als auch bei KI-Systemen versteckte Diskriminierung in Bezug auf „geschützte Merkmale“ erkennen kann.

Self-Supervised Learning (SSL) könnte eine weitere Lösung darstellen – diesmal in Form von Prävention statt Erkennung. SSL ist ein Ansatz für das maschinelle Lernen, bei dem riesige Mengen unmarkierter Daten zum Trainieren von Modellen verwendet werden, um die oft mit Verzerrungen behafteten Markierungen zu umgehen. Es mag noch zu früh sein, um das Entschärfungspotenzial von SSL zu beurteilen, aber Yann LeCunn und Ishan Misra beschrieben die Methode auf ihrem Blog als „einen der vielversprechendsten Wege, ... sich einer Form von gesundem Menschenverstand in KI-Systemen anzunähern.“

Es ist ermutigend, dass der Weg zu einer ethischen KI mehrere Strategien zur Verringerung von Voreingenommenheit aufweisen kann. Je mehr wir über diese aufkommenden Ansätze erfahren, die den Einsatz von KI selbst zur Beseitigung von Voreingenommenheit beinhalten, desto klarer wird, dass die Technologie-Community als Ganzes die Verantwortung trägt, mit Forschern zusammenzuarbeiten und Verbesserungen bei Software- und Hardware-Lösungen zu ermöglichen.

Artikelfiles und Artikellinks

(ID:48425243)