Suchen

Künstliche Intelligenz Können Maschinen ethisch korrekt agieren?

| Autor / Redakteur: Uwe Becker / Nico Litzel

Der Einsatz Künstlicher Intelligenz (KI) hat für viele Unternehmen bereits heute eine große Bedeutung. Doch mit zunehmendem Einsatz von Maschinen, die Entscheidungen beeinflussen oder sogar treffen, tritt eine Frage immer stärker in den Vordergrund: Wie kann sichergestellt werden, dass Künstliche Intelligenz ethisch korrekt agiert?

Firma zum Thema

Der Autor: Uwe Becker ist Head of Global Services Germany & Austria bei Orange Business Services
Der Autor: Uwe Becker ist Head of Global Services Germany & Austria bei Orange Business Services
(Bild: Uwe Becker)

Der Ursprung der Künstlichen Intelligenz liegt viele Jahre zurück: Bereits 1936 zeigte der Mathematiker Alan Turing, dass eine Maschine in der Lage ist, ein Problem zu lösen – vorausgesetzt, dass dieses durch einen Algorithmus dargestellt und gelöst werden kann. Inzwischen hat sich die Künstliche Intelligenz enorm weiterentwickelt und ist damit weiter an den Menschen herangerückt. Vor allem im Zuge von zunehmend selbstlernenden Maschinen droht jedoch die Gefahr, dass Ergebnisse nicht mehr nachvollzogen und verifiziert werden können.

Einsatz Künstlicher Intelligenz in vielfältigen Bereichen

Von der Finanzbranche über das Gesundheitswesen hin zur Automobilindustrie: In unzähligen Bereichen wird Künstliche Intelligenz bereits eingesetzt. Kreditinstitute nutzen beispielsweise KI-Systeme, um Bewertungen eines Kreditausfallrisikos zu erhalten oder über die Kreditwürdigkeit einer Person zu entscheiden. Ein schöner Nebeneffekt des Einsatzes von KI ist das Einsparen von Kosten, denn Maschinen können aufwendige Analysen viel schneller erledigen als ein Mensch.

Im Gesundheitswesen können beispielsweise CT- und MRT-Scans automatisch auf Anzeichen bestimmter Krankheiten untersucht und Grenzbilder schneller zur Analyse an einen Facharzt weitergeleitet werden. Dadurch kann wertvolle Zeit gewonnen und Krankheiten früher entdeckt und behandelt werden.

Die Automobilindustrie arbeitet bereits heute daran, dass unsere Autos in Zukunft auf keinen Fahrer mehr angewiesen sind und sich vollkommen autonom fortbewegen. Dadurch sollen Fahrer physisch sowie psychisch entlastet und die Unfallwahrscheinlichkeit verringert werden.

Wertfreie KI?

Die Beispiele zeigen, wie nah die KI inzwischen an den menschlichen Alltag herangerückt ist. Entsprechend tritt eine Frage immer stärker in den Vordergrund: Kann Maschinen wirklich eine Objektivität zugeschrieben werden?

Auf den ersten Blick könnte diese Frage Verwunderung hervorrufen – denn wie soll eine Maschine unmoralisch agieren? Was jedoch nicht vergessen werden darf: Der Ursprung eines KI-Systems ist menschliches Handeln. Und damit ist die Basis gegeben für nicht-wertfreies Agieren.

Und die Diskussion hat noch einen zweiten Kern: Inzwischen sind selbstlernende Systeme an der Tagesordnung. Wie kann man also sicherstellen, dass Entscheidungen der Maschine nicht auf Verzerrungen beruhen, die aufgrund von zufällig gebildeten Datenmustern entstanden sind?

Das Hauptproblem bei der zu vertrauensvollen Anwendung von KI ist, dass alle verfügbaren Daten zur Verfügung gestellt werden. Entsprechend verwendet die Maschine auch alle Datenelemente und arbeitet daran, bestimmte Muster und Beziehungen in den Daten zu finden. Wenn sich nun in einem großen Datensatz ein Parameter befindet, auf Basis dessen eine Aussage über das Gewicht und das Alter möglich ist, wäre eine Herleitung des Gesundheitszustandes möglich. Zweifelsohne würde es sich dabei um eine schwache Korrelation handeln – und doch sind Verzerrungen möglich.

Aufgrund des selbstlernenden Ansatzes ist oft nicht mehr nachvollziehbar, an welcher Stelle und aufgrund welcher Daten solche Verzerrungen stattgefunden haben. Oder schlimmer noch: die Verzerrung wird gar nicht erkannt. Natürlich ist KI an sich nicht moralisch oder unmoralisch. Sie ist lediglich ein Werkzeug, das auf Basis von verfügbaren Daten Muster und Modelle bildet. Es ist Aufgabe des Menschen, dafür zu sorgen, dass die Maschine keine Muster bildet und Verbindungen zu den Kunden erkennt, die als unethisch angesehen werden können.

Die Notwendigkeit von Explainable AI

Künstliche Intelligenz gilt als eine der „Black Box“-Technologien, die keine Informationen oder Erklärungen für ihre Ergebnisse liefern. Doch genau diese Tatsache ist es, die mit fortschreitendem Einsatz von KI immer inakzeptabler wird. In Zukunft muss eine Entschlüssel- und Nachvollziehbarkeit der Algorithmen und Entscheidungskriterien gewährleistet werden.

Es gibt jedoch Möglichkeiten, um vorab herauszufinden, welche Beziehungen zwischen einzelnen Variablen zu Verzerrungen führen könnten – und genau das ist der Schlüssel, um KI in Zukunft ethisch einwandfrei aufzusetzen und Verzerrungen zu vermeiden. Organisationen müssen sich in Zukunft also auf andere Weise als bisher mit KI auseinandersetzen. Nur so können schlecht aufgesetzte Modelle vermieden werden – und Unternehmen wirklich verstehen, wie ihre KI agiert und ob sie dies in einem ethischen und regulatorisch korrekten Sinne tut.

KI auf diese Weise erklärbar zu machen, ist ein wichtiger Schritt in Richtung einer ethisch korrekten Anwendung. Doch natürlich ist es ebenso wichtig, die Modelle auch in der Nutzung beständig zu monitoren, um regelmäßig auftretende Verzerrungen zu vermeiden.

Schaffung ethischer Leitlinien und Vertrauen in KI

Das Zusammenspiel von Künstlicher Intelligenz und Ethik wird auch in der Politik heiß diskutiert. Die EU-Kommission in Brüssel hat sich dieses Themas angenommen und „Ethik-Leitlinien für eine vertrauenswürdige KI“ entworfen. Darin wird unter anderem festgelegt, dass KI-Systeme die Grundrechte des Menschen wahren sollen und keinesfalls die Autonomie des Menschen einschränken dürfen. Darüber hinaus soll eine vertrauenswürdige KI Algorithmen aufbauen, die „sicher, verlässlich und robust genug sind, um Fehler und Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen“. Weiter fordert die EU-Kommission, dass die Privatsphäre gewahrt werden muss und das System niemanden schädigen oder diskriminieren darf.

In der DSGVO hat die Frage nach transparenter KI ebenfalls Einzug gehalten: In Artikel 22 wird Verbrauchern das Recht zugeschrieben, dass eine Entscheidungsfindung transparent offengelegt werden muss, wenn der Verbraucher danach verlangt.

Es ist nicht von der Hand zu weisen, dass vor allem in Deutschland eine gewisse Skepsis gegenüber KI besteht. Letztlich ist es Aufgabe der Unternehmen, ihre Kunden davon zu überzeugen, dass sie den angewandten Technologien vertrauen können. Denn auch wenn es scheinen könnte, als würden Maschinen irgendwann das Denken übernehmen, so sind Menschen in der Lage, die Logik der Maschinen nachzuvollziehen, erklärbar zu machen und entsprechend zu beeinflussen. Und genau das gilt es jetzt zu tun, um auch in Zukunft von den enormen Möglichkeiten der KI profitieren zu können.

(ID:46496220)