Kommentar von Axel Demel, Qdive KIDD – ein Prozess zur Gestaltung ethischer KI

Von Axel Demel |

Anbieter zum Thema

Die Einsatzmöglichkeiten von Künstlicher Intelligenz sind schier unendlich groß. Doch dürfen ethische Aspekte nicht vergessen werden: Fragen der Diversität und damit der Fairness sind ebenso wichtig wie Funktionalitäten. Genau damit beschäftigt sich das Projekt „KIDD – Künstliche Intelligenz im Dienste der Diversität“.

Der Autor: Axel Demel ist Data Scientist bei Qdive
Der Autor: Axel Demel ist Data Scientist bei Qdive
(Bild: Qdive)

KIDD klingt fast wie K.I.T.T. Doch anders als das mit Künstlicher Intelligenz ausgestattete Allrounder-Auto des 80er-Jahre-Serienhelden Michael Knight aus der beliebten Serie „Knight Rider“ befasst sich KIDD nicht mit Action und Verbrecherjagd, sondern mit Fragen des Zusammenspiels von KI und Diversität. KIDD steht für „Künstliche Intelligenz im Dienste der Diversität“. Dahinter steht ein dreijähriges Forschungsprojekt des Bundesministeriums für Arbeit und Soziales (BMAS) unter dem Dach der Initiative Neue Qualität der Arbeit (INQA), das von einem breit aufgestellten Konsortium umgesetzt wird. Dazu gehören auch die Data-Science-Schmiede Qdive und das Mutterunternehmen Q_Perior.

KIDD soll künftig vor allem dort zum Einsatz kommen, wo es um Menschen geht – also bei sogenannter menschenzentrierter KI. Spannende Einsatzgebiete sind etwa die Einsatzplanung von Personal oder der Aufbau von Matching-Plattformen. Bei solch sensiblen Themen ist es essenziell, dass KI möglichst fair und diskriminierungsfrei arbeitet. Doch wie kann das gelingen? Und wie muss KI gestaltet werden, damit der Trade-off zwischen Effizienz und Betrachtung der Einzelperson gelingt?

Die Kernfragen, die für KIDD beantwortet werden müssen, lauten daher: Wie lassen sich KI-Systeme so aufbauen, dass ihre Entscheidungen für den Menschen transparent dargestellt werden? Wie lässt sich verhindern, dass sich diskriminierende Daten im Lernprozess des Algorithmus weiter verfestigen, und wie wird nachvollziehbar, dass KI tatsächlich diskriminierungsfrei arbeitet? Kurz: Wie lässt sich Künstliche Intelligenz so gestalten, dass Fairness und Fragen der Diversität bei Entscheidungen ausreichend berücksichtigt werden?

Wer an KIDD beteiligt ist

KIDD ist Gegenstand eines Forschungsprojekts des Bundesministeriums für Arbeit und Soziales (BMAS). Das Projekt ist auf drei Jahre ausgelegt. Dafür hat sich ein Konsortium aus Großunternehmen, Vertretern aus KMUs, NGOs und Universitäten zusammengeschlossen.

Die Mitglieder im Konsortium sind: Msg Systems, Chemistree, Epsum, Heraeus Medical, Female.Vision, die TU Berlin, das Nexus Institut und Q_Perior.

Menschenzentrierte KI und wie sie diskriminierungsfrei gestaltet werden kann

Dass auch KI schnell zu Diskriminierung beitragen kann, lässt sich gut an einem Beispiel aus dem Projektgeschäft skizzieren: Hier ist entscheidend, die jeweils am besten geeigneten Mitarbeiterinnen und Mitarbeiter mit den für sie am besten passenden Aufgaben zusammenzubringen. Ein anspruchsvolles Unterfangen, das viel Zeit und Ressourcen bindet und das gut auch von Software erledigt werden kann. Dabei entsteht jedoch die Gefahr der Diskriminierung: Es muss sichergestellt werden, dass tatsächlich die jeweils besten Kandidaten und Kandidatinnen ausgewählt werden.

Das birgt große Herausforderungen hinsichtlich der Kriterien, auf deren Grundlage die KI Entscheidungen und Zuordnungen trifft. Je nachdem, welche Parameter priorisiert werden, können die Ergebnisse unterschiedlich ausfallen. Zählen zum Beispiel Berufsjahre stärker als Skills, werden Entscheidungen zugunsten der Älteren getroffen. Wird dagegen priorisiert, wann das letzte Projekt abgeschlossen wurde, basierend auf der Prämisse, dass je kürzer das Projekt her ist, die spezifischen Fachkenntnisse noch frisch sind, werden Mitarbeiter, die gerade aus der Elternzeit kommen oder in Teilzeit arbeiten, benachteiligt. Mit dem Einsatz von KIDD soll erprobt werden, wie im Einführungsprozess von KI solche Probleme identifiziert und behoben werden können.

Wie KI transparent gestaltet wird

Im Mittelpunkt von KIDD steht die Entwicklung von Prozessen und Methoden, die den Aufbau sowie die Funktions- und Wirkungsweise von IT-Systemen so anpassen sollen, dass diese Systeme transparent, zieldienlich und gerecht sind – in Bezug auf Daten, Software-Architektur und angewandte Regeln von KI-Systemen. Welche Stellschrauben sowie kritische Stellen einer KI gibt es beispielsweise, um Transparenz herzustellen, und welche Darstellungsmethoden eignen sich besonders? All das wird derzeit gesammelt, erprobt und validiert. Im KIDD-Prozess werden unter anderem iterativ eine Stellschrauben-Matrix und ein Transparenz-Katalog entwickelt. Dieser wird aktuell verprobt und soll künftig dabei helfen, Funktions- und Wirkungsweisen von Systemen aufzuschlüsseln und kritische Stellen zu erkennen, die dann gesondert hinsichtlich ihres Diskriminierungspotenzials überprüft und angepasst werden müssen.

Stufe 1, das Buddy Matching

Um den KIDD-Prozess operativ zu erproben, hat Q_Perior im eigenen Haus einen so genannten Experimentierraum geschaffen. Verprobt wird ein Projekt mit dem Titel „Buddy Matching“, das beim Onboarding neuer Mitarbeiterinnen und Mitarbeiter zum Einsatz kommt. Konkret geht es darum, Neuzugänge bei Q_Perior mit Kollegen und Kolleginnen zu vernetzen, die dann als Mentoren dabei helfen, gut im Unternehmen anzukommen. Das Q_Buddy Matching hat dabei die Aufgabe, automatisiert auf Basis verschiedener sozialer Präferenzen die jeweils am besten passenden Matches zu finden. Mit Erfolg: Monat für Monat entstehen dabei neue Matches, viele Verbindungen zwischen Kolleginnen und Kollegen überdauern den initialen Onboarding-Prozess und haben sich sogar zu Freundschaften weiterentwickelt. Damit hat sich das Q_Buddy Matching bereits als wertvolles Tool für die Mitarbeiterbindung erwiesen.

Nächster Schritt: Capability-Matching

Aktuell werden die Möglichkeiten des Matchings auf die nächste Stufe gehoben: Beim Capability Matching geht es darum, offene Positionen in Projekten bestmöglich zu besetzen. Dafür werden Projektanfragen und Mitarbeiter anhand ihrer Skills, Kenntnisse, Wünsche und Verfügbarkeiten automatisiert zusammengebracht. Um eine gute Datengrundlage zu schaffen, müssen die Beschäftigten dafür detaillierte Lebensläufe zur Verfügung stellen.

Beim Matching-Prozess gibt es auf dieser Stufe der Erprobung zusätzliches Potenzial für Diskriminierung. Deshalb muss die Priorisierung der Parameter fein justiert werden: Was soll schwerer wiegen, zeitlich bemessene Erfahrung oder die Qualität der Ausbildung? Sollen und dürfen Alter und Geschlecht der Kandidatinnen und Kandidaten eine Rolle spielen? Inwiefern ist es sinnvoll, neben quantitativen Kriterien auch qualitative einzuarbeiten und wie kann das konkret aussehen und gelingen? All das sind Fragen, die derzeit mithilfe des KIDD-Prozesses gelöst werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Panel der Vielfalt: Menschliche Unterstützung für die KI

Schnell wurde dabei klar, dass KI ohne menschliche Kontrolle nicht diskriminierungsfrei arbeiten kann. Deshalb hat Q_PERIOR das sogenannte Panel der Vielfalt gegründet: eine Jury mit aktuell 17 Mitgliedern, die möglichst divers zusammengesetzt sind, was Geschlecht, Alter, Bildungsabschlüsse und Migrationshintergrund, aber auch Organisationseinheiten bei Q_Perior betrifft. Das Gremium soll sicherstellen, dass die Einführung von menschenzentrierter KI aus möglichst vielen Perspektiven kritisch begleitet und ethische Fragestellungen divers diskutiert werden. Dieser Ansatz hat sich bewährt.

Noch ist der KIDD-Prozess nicht finalisiert. Das Projekt zu diesem hochkomplexen Thema steckt noch bis September 2023 in der Entwicklung. Ziel ist es, die bereits zahlreich vorhandenen ethischen Richtlinien für KI, darunter zu Human Agency and Oversight, Technical Robustness and Safety oder Accountability oder auch für Diversity, Non-discrimination and Fairness, in die Praxis zu überführen: Wer setzt diese Guidelines um und wie? Für genau diese Punkte soll das KIDD-Projekt mit seinem partizipativen Ansatz einen standardisierten Prozess bei der Einführung von KI entwickeln, der Antworten auf diese Fragen gibt und Wege zur Umsetzung aufzeigt.

Die Chancen stehen gut, dass am Ende des KIDD-Projektes ein Prozess etabliert werden kann, der Unternehmen und Organisationen dabei unterstützt, menschenzentrierte KI-Lösungen zu implementieren. Und so hat KIDD am Ende doch Parallelen zu K.I.T.T.: Beide stehen auf ihre Weise im Dienste der Menschlichkeit.

(ID:48734985)