Kommentar von Lynn Heidmann, Dataiku

Die Frage der Künstlichen Intelligenz und der Ethik

| Autor / Redakteur: Lynn Heidmann / Nico Litzel

Die Autorin: Lynn Heidmann ist Marketing Content Director bei Dataiku
Die Autorin: Lynn Heidmann ist Marketing Content Director bei Dataiku (Bild: Dataiku)

Es ist die dystopische Kulisse eines jeden Science-Fiction-Romans, welcher sich mit dem Thema der Künstlichen Intelligenz befasst: ein dunkler und stürmischer Polizeistaat, in dem kalte, gefühllose Roboter auf der Suche nach fehlerhaften Menschen sind. Während wir bei Dataiku optimistisch sind, dass wir ein wenig von dieser trostlosen Zukunft entfernt sind, war 2018 ein Jahr voll mit ethischen Fragen über die Auswirkungen von Künstlicher Intelligenz auf unser Leben.

Ob es sich nun um die Verwendung von Facebook-Daten durch Cambridge Analytics zur Beeinflussung von Wahlen oder um die Beteiligung von Google am Drohnenprojekt des Verteidigungsministeriums handelt, Daten hatten in der letzten Zeit eine hohe Aufmerksamkeit in den Medien. Künstliche Intelligenz ist das trendige Schlagwort von 2018, das die einzigartige Fähigkeit besitzt, sowohl Staunen zu erwecken als auch ein starkes Unbehagen in der Bevölkerung auszulösen.

Der technische Fortschritt stellt oft ein spannendes Spiel zwischen Fortschritt und Pragmatismus dar, bei dem die Bedürfnisse der Nutzer gegen die Auswirkungen seiner Nutzung abgewogen werden müssen. Generell gesehen gibt es zwei große Problembereiche, wenn es um die Ethik der Künstlichen Intelligenz geht: der Ersatz von menschlicher Arbeitskraft und Amoralität.

Ersatz oder Verbesserung?

Wie die sehr treffend benannte Webseite Will Robots Take My Job bereits formuliert, ist die Idee, dass Künstliche Intelligenz „meinen Job wegnehmen“ wird, sehr beliebt und für viele Menschen sehr beängstigend. In verschiedenen Diskussionen über die Ethik der Künstlichen Intelligenz wurde die Frage des Arbeitsplatzverlustes so gut wie immer erwähnt. Denn was sollen wir in einer Welt tun, in der Computer in der Lage sind, alle unsere Aufgaben besser zu erledigen als wir selbst?

Die Realität ist jedoch, dass die Richtung, in welche sich Künstliche Intelligenz bewegt hat, viel stärker auf eine Narrativität der Verbesserung ausgerichtet ist als den absolute Ersatz. Die überwiegende Mehrheit der KI-Anwendungsfälle besteht darin, sich wiederholende Aufgaben, welche einen hohen Zeitaufwand und somit Kosten mit sich bringen, zu reduzieren. Dazu gehören Dinge wie das Sortieren tausender Aktien, das Treffen von Kauf- und Verkaufsentscheidungen oder das Durchsuchen langer Listen von Transaktionen nach Anzeichen von Betrug (alles sind keine extrem komplizierten Prozesse, aber sehr zeitaufwendig).

Ja, es wird einige Berufe geben, welche die Künstliche Intelligenz überflüssig machen kann. Im Mittelpunkt der Enterprise-KI steht die Idee, von teuren und unnötigen Prozessen wegzukommen und hin zu intelligent optimierten Prozessen. So wie man sich vor 30 Jahren Berufe wie „Data Scientist“ oder „IoT Solution Architect“ nicht vorstellen konnte, wird dieser Optimierungsprozess fast mit Sicherheit eine Reihe von neuen Berufen schaffen, in denen der Einsatz von Künstlicher Intelligenz von Anfang an integriert ist.

Amoralität

Die zweite, und vielleicht beunruhigendere, Implikation der Künstlichen Intelligenz ist ihre notwendige Amoralität. Es ist wichtig, hier den Unterschied zwischen Amoral und Unmoral deutlich zu machen. Die Künstliche Intelligenz wird wahrscheinlich keine eigene Terminator-ähnliche Übernahme der Welt starten. Es sind die Menschen, die diese Roboter programmieren, mit ihren einzigartigen menschlichen Vorurteilen und Motiven, die um einiges beängstigender sind.

Ein besonders beliebtes Beispiel für diese Feststellung ist das intensiv untersuchte Feld der Rassen- und Geschlechterverzerrung in der Künstlichen Intelligenz. Neuronale Netzwerke, die nicht repräsentative oder diskriminierende Eingangsmaterialien verwenden, haben keine andere Wahl, als die Verzerrungen der verwendeten Daten zu internalisieren. Das hat sich bei Gesichtserkennungssoftware, Bilderkennungen als auch Assoziationen, natürlicher Sprachverarbeitung, beim Predictive Policing wie auch in anderen Bereichen gezeigt. Da die Künstliche Intelligenz als eine Blackbox und undurchsichtige Technologie angesehen wird, treten viele dieser Probleme völlig unbeabsichtigt auf.

So wie Gmail nicht für die passiv-aggressive E-Mail verantwortlich ist, die der Chef gestern geschickt hat, kann die Künstliche Intelligenz nicht für die fragwürdigen Entscheidungen derjenigen verantwortlich sein, die hinter ihrem Gebrauch stehen, selbst wenn diese Entscheidungen unbeabsichtigt getroffen wurden. Die Lösung dieses Problems kann nur dann erfolgen, wenn Teams aus verschiedenen Branchen und mit unterschiedlichem Hintergrund in der Lage sind, Werkzeuge zur Integration von KI in ihre Prozesse richtig einzusetzen. Wenn die Künstliche Intelligenz demokratisiert wird, wird sie notwendigerweise gerechter.

Nun, was jetzt?

Obwohl diese Dinge beängstigend erscheinen mögen, ist es wichtig zu erkennen, dass die Vorteile der Künstlichen Intelligenz mit ziemlicher Sicherheit die beängstigenden Aspekte überwiegen werden. Die Künstliche Intelligenz wird Ärzten helfen, Krebs schneller als je zuvor zu erkennen. Sie wird dabei helfen, dass Pakete schneller zu nach Hause kommen und sie wird weite Teile der Medizin revolutionieren.

Die Angst vor Künstlicher Intelligenz kommt nicht von der Technologie selbst, sondern von ihrer Wahrnehmung als eine ferne, überragende Technologie, die den Doktoranden bei Google und Informatikern am MIT vorbehalten ist. Es fühlt sich exklusiv und elitär an und so viele, viele Menschen fühlen sich bereits zurückgelassen.

Die Wahrheit ist jedoch, dass maschinelles Lernen und Künstliche Intelligenz immer mehr demokratisiert werden, wobei Unternehmen daran arbeiten, sie zu Instrumenten für alle zu machen. Der ethische Gebrauch von Künstlicher Intelligenz ist nicht irgendeine Top-Down-Sache, die passieren wird, weil ein Tech-Riese sagt, dass es das wird – es wird von echten Menschen kommen, die zusammenarbeiten, um die Technologie zum Wohle aller anderen funktionieren zu lassen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45641430 / Künstliche Intelligenz)