Gesponsert

Ethik als Grundlage für erfolgreiche KI-Projekte Vertrauen und Transparenz bei der Verwendung von künstlicher Intelligenz

Wer der Welt neue, mächtige Technologien zur Verfügung stellt, sollte darauf achten, dass Vertrauen und Transparenz genauso im Fokus stehen, wie der technische Nutzen. Maschinen haben die Aufgabe, die Begabungen von Menschen zu stärken und sie zu unterstützen. Dabei kann KI helfen. Der Beitrag zeigt, auf was dabei geachtet werden muss.

Gesponsert von

(Bild: duncanandison@stock.adobe.com)

Nach einer Untersuchung von Gartner wollen 70 Prozent aller Unternehmen die Produktivität ihrer Mitarbeiter mit KI-Technologien verbessern. Gleichzeitig sehen 60 Prozent der Unternehmen (https://www.ibm.com/downloads/cas/MV6LX6R2) regulatorische Beschränkungen als Hindernis für die erfolgreiche Implementierung der KI.

Mangelndes Vertrauen in die künstliche Intelligenz ist einer der größten Hinderungsfaktoren für das erfolgreiche Einführen von KI. Aus diesem Grund gilt es bereits bei der Planung von KI-Projekten das Vertrauen der Menschen zu gewinnen, die mit der KI in Berührung kommen.

Nicht nur die maximalen Möglichkeiten der Technologie spielen eine Rolle, sondern auch der verantwortungsvolle Umgang damit. Dabei schließen sich Effizienz und Vertrauen nicht aus, im Gegenteil. Ein ganzheitlich betrachtetes KI-Projekt bringt nach der erfolgreichen Einführung den maximalen Nutzen für die Menschen, die damit arbeiten und damit für die Organisation oder das Unternehmen.

Grundlagen für Ethik und Fairness beim Einsatz von KI

Wenn Menschen modernen Technologien nicht vertrauen, sind IT-Projekte oft nicht erfolgreich. Das gilt natürlich auch für den Einsatz von KI und dem maschinellen Lernen (Machine Learning, ML). Die Aufgabe von KI soll es sein, Menschen zu unterstützen und ihre Begabungen und Stärken zu verbessern. Es ist nicht die Aufgabe von KI die Arbeitsplätze „wegzurationalisieren“ oder Daten ohne Grenzen zu verarbeiten. Technologien mit künstlicher Intelligenz finden darüber hinaus immer mehr in heiklen Gebieten Einsatz, wie zum Beispiel der Gesundheitsversorgung und in Personalabteilungen. Mir fehlt hier der Link von den Einsatzgebieten zum KI-Ethikrat. Entweder wir beziehen und darauf, dass einige Unternehmen so etwas bereits implementiert haben (unter Angaben der Source) oder wir sollten es anders formulieren. Ein KI-Ethikrat ermöglicht zum Beispiel eine zentrale, disziplinübergreifende Überprüfung und Entscheidungsfindung, wenn es darum geht, KI im Unternehmen oder der Organisation zu nutzen.

Die Einhaltung von Gesetzen und Regeln ist dabei genauso wichtig. Technologien wie eine automatisierte AI (AutoAI) helfen dabei, KI so zu entwickeln, dass die zu Grunde liegenden Modelle nicht nur technisch auf der Höhe der Zeit sind, sondern Datenschutz, Fairness und Unvoreingenommenheit genauso Berücksichtigung finden, wie Transparenz und Nachverfolgbarkeit der Entscheidungen.

Ein negatives Beispiel ist Correctional Offender Management Profiling for Alternative Sanctions (COMPAS). Dabei handelt es sich um einen Algorithmus, der vorhersagen soll, ob Angeklagte wahrscheinlich ein Verbrechen begehen würden, wenn sie nicht wieder inhaftiert würden. Eine Untersuchung der Journalisten von ProPublica im Jahr 2016 ergab, dass der COMPAS-Algorithmus afro-amerikanische Angeklagte fälschlicherweise fast doppelt so häufig als hochriskant einstufte wie weiße Angeklagte. Dies verdeutlicht den signifikanten negativen Einfluss, den ein KI-Algorithmus auf die Gesellschaft haben kann. Die Verarbeitung der Daten durch KI-Technologien, wie zum Beispiel beim Machine Learning (ML) oder Deep Learning (DL) müssen nachvollziehbar sein.

Mehr zur verantwortungsvollen Nutzung von KI

Unvoreingenommenheit in Lernmodellen sicherstellen

Künstliche Intelligenz baut auf die Trainingsmodelle auf, die sie zum Beispiel von Data Scientists erhält. Das richtige Modell spielt für den späteren Aufbau der KI natürlich eine wichtige Rolle. Sind diese Modelle unfair und voreingenommen, dann entsteht auch bei der KI eine Voreingenommenheit, die aber ursächlich durch menschliche Schwächen entsteht. Das Ergebnis ist allerdings, dass Menschen der KI misstrauen, da deren Ergebnis vermeintlich unfair ist.

Der richtige Umgang mit den vorliegen Daten entstehen bereits bei der Planung und Umsetzung der Modelle. Gehen an dieser Stelle Data Scientists bereits mit falschen Herangehensweisen vor, entstehen im laufenden Lernen der KI unfaire Tendenzen. Diese hindern am Ende die KI daran, ihr volles Potential auszuschöpfen. Das Endergebnis kann in diesem Fall also nicht nur voreingenommen sein, sondern auch weniger effizient als erhofft.

Ein Beispiel dafür ist die Einführung des Prime Free Same-Day-Delivery-Service für viele Produkte ab einem Bestellwert von 35 US-Dollar in den USA. Elf Monate nach der Einführung bot Amazon den Same-Day-Service in 27 Ballungsräumen an. Eine Analyse von Bloomberg News aus dem Jahr 2016 ergab, dass sechs Regionen mit überwiegend schwarzen US-Amerikanern in unterschiedlichem Ausmaß ausschlossen wurden. In Atlanta, Chicago, Dallas, Washington, Boston und New York hatten schwarze Bürger etwa halb so häufig wie weiße Einwohner Zugang zu Amazon Same-Day-Delivery. Ursächlich war hier die KI. Diese hat vor allem Stadtviertel, in denen vor allem Afroamerikaner leben von Smaw-Day-Service ausgeklammert. In Atlanta, Chicago, Dallas und Washington ist die Wahrscheinlichkeit, dass Afroamerikaner in Vierteln mit Zugang zu Amazon Same-Day-Delivery leben, etwa halb so hoch wie bei weißen Einwohnern.

Beim maschinellen Lernen kommt es auch immer wieder zu algorithmischen Verzerrungen. Häufig werden dafür die zugrundeliegenden Daten verantwortlich gemacht. Trainingsmodelle für das maschinelle Lernen basieren sehr oft auf menschlichen Entscheidungen. Diese können fehlerhaft oder voreingenommen sein. Um Verzerrungen zu verhindern, helfen Technologien wie AutoAI.

Live-Event: KI-Lifecycle mit Vertrauen und Transparenz

AutoAI: Lebenszyklus von künstlicher Intelligenz begleiten

Nach einer Untersuchung von Deloitte verbringen Data Scientists bis zu 80 Prozent ihrer Arbeitszeit mit Aufgaben, die leicht automatisierbar sind. Diese wiederholenden Aufgaben sind zum Beispiel Datenvorbereitung, Feature Engineering oder die Auswahl und Bewertung von Algorithmen. Durch die Automatisierung dieser Aufgaben können Data Scientists sehr viel Zeit einsparen, die sie wichtigeren Dingen widmen können. Das hilft dabei AI-Projekte sehr viel besser zu entwickeln.

Automatische AI (AutoAI) beschreibt die komplette automatisierte Modellerstellung im Machine Learning. Dabei wird der komplette Lebenszyklus eines Lernmodells begleitet. AutoAI hilft bei der Datenaufbereitung, Modellerstellung, dem Feature Engineering und der Optimierung. Neben einer deutlichen Verbesserung der Transparenz und des Vertrauens der Anwender, sparen Data Scientists bei der Automatisierung von AI-Modellen sehr viel Arbeitszeit ein und erhöhen dadurch deutlich ihre Produktivität.

Mit AutoAI kann intelligente Automatisierung für die Erstellung von prädiktiven, maschinellen Lernmodellen genutzt werden. Das System analysiert die relevanten Daten und trifft auf Basis der Analyse Vorentscheidungen. Im Rahmen von Feature Engineering wählt das System aus, welche Merkmale in einem Modell relevant sind und rechnet zunächst Standard-Algorithmen durch. Bis zu 100 Standardalgorithmen werden automatisch ausgeführt.

Als Ergebnis liefert das System Wahrscheinlichkeiten, welche Features für das Modell ausschlaggebend sind und mit welcher Wahrscheinlichkeit bestimmte Algorithmen zum Erfolg führen. Der Data Scientist weiß jetzt genauer worauf er sich konzentrieren sollte, um ein möglichst gutes Modell zu erhalten.

Das “Data Science and AI Elite Team” von IBM verwendet KI-Technologien und maschinelles Lernen in Kombination mit Datenmanagement, um Workflows für maschinelles Lernen und Data Science zu verbessern. AutoAI ist über IBM Watson Studio verfügbar.

Mehr Informationen zur AutoAI

Fazit

Maschinelles Lernen ist mehr als die Analyse von vorgegebenen Daten. Nur beim Einsatz von Modellen, aus denen das KI-System sich selbst ständig verbessert, ist eine KI in der Lage effektiv Aufgaben zu lösen. Bei der Erstellung der Modelle und der Definition der verwendeten Daten helfen Technologien wie AutoAI.

Transparenz, Fairness und Unvoreingenommenheit spielen beim Einsatz von KI eine genauso wichtige Rolle, wie die Analyse der Daten und das Festlegen der verwendeten Modelle. Dabei helfen Plattformen wie IBM Watson Studio, um KI-Projekte schneller, besser und für alle Beteiligten auch zufriedenstellender umzusetzen.

(ID:47306753)