Kommentar von Edna Kropp, LivePerson

Siri, Alexa und Co. müssen Sozialkompetenz lernen

| Autor / Redakteur: Edna Kropp / Nico Litzel

Die Autorin: Edna Kropp ist Digital Engagement Specialist bei LivePerson
Die Autorin: Edna Kropp ist Digital Engagement Specialist bei LivePerson (Bild: LivePerson)

Sprachassistenten sind längst zu unseren täglichen Begleitern geworden. Kurz vor dem Feierabend fragen wir: „Siri, ist mein Zug pünktlich?“ Und falls der mal wieder ausfällt, folgt die schlecht gelaunte Aufforderung: „Siri, suche mir eine alternative Verbindung!“ Die Künstliche Intelligenz (KI) versorgt uns in kürzester Zeit mit Informationen und kann uns sogar das Aufstehen vom Sofa ersparen: „Alexa, schalte Netflix ein.“

Immer mehr Firmen nutzen KI. Die Software kann große Datenmengen verwalten und selbstständig auf Eingaben reagieren. Menschen sind nur notwendig, um die KI anzulernen. Und genau hier liegt das Problem: Auch wenn die Künstliche Intelligenz eine emotionslose Maschine ist – sie ist nur so unvoreingenommen, wie die Person, die sie programmiert hat.

Wie hilfreich sind KIs?

Besondere Aufmerksamkeit erlangte dieser Zusammenhang in den USA. Um die Wahrscheinlichkeit erneuter Straftaten bei Häftlingen einzuschätzen, nutzen US-amerikanische Gerichte die Software COMPAS, die mit einer Künstlichen Intelligenz ausgestattet ist. Die KI nutzt zur Analyse Daten aus einem Katalog mit 137 Fragen. Ihre Vorhersage ist jedoch nicht genauer als die nicht juristisch gebildeter Personen. Das fanden die Wissenschaftler Julia Dressel und Hany Farid in einer Studie heraus, die im Januar 2018 in der Zeitschrift Science Advances veröffentlicht wurde. Schlimmer noch: Die KI verhielt sich rassistisch. Während die Fehlerquote für die Voraussage einer erneuten Straftat bei weißen Häftlingen 23,5 Prozent betrug, lag sie bei schwarzen Häftlingen mit 44,9 Prozent fast doppelt so hoch.

Warum verhalten sich KIs rassistisch?

Auch wenn die Künstliche Intelligenz eine emotionslose Maschine ist – die Daten, mit denen sie operiert, stammen von Menschen. Programmiert werden die Maschinen nämlich meist von weißen Männern. Schätzungen gehen davon aus, dass rund 80 Prozent der Softwareentwickler und Programmierer männlich sind. Die Daten, mit denen diese Menschen eine Künstliche Intelligenz trainieren, bilden ihre Lebenswelt ab. Hat ein Programmierer etwa hauptsächlich weiße Freunde, wird er der KI zur Gesichtserkennung vornehmlich Fotos weißer Menschen zeigen. Folglich kann die KI später auf weniger Bildmaterial zurückgreifen und Gesichter von nicht weißen Menschen schlechter unterscheiden.

Künstliche Intelligenzen müssen soziale Kompetenzen erlernen

Dabei hören die Probleme nicht bei rassistischen Ressentiments der KI auf. Sie umfassen durch die Spiegelung der Lebenswelt der dominant weißen männlichen Programmierer verschiedenste Bereiche, die jeweils problembehaftet sind. Die Lösung für dieses Problem liegt auf der Hand: KIs brauchen bessere, also mehr und vor allem diversere Daten. Diese bekommen sie, wenn Menschen aus unterschiedlichen sozialen und kulturellen Kontexten solche Maschinen programmieren. Leider entscheiden sich bisher zu wenige Personen mit diesen Hintergründen für eine Karriere in der Software-Programmierung. Die Initiative EqualAI (gleichberechtigte Künstliche Intelligenz) setzt sich dafür ein, dass mehr Frauen und Personen aus Minderheiten in der Technologie-Branche ausgebildet werden.

Miriam Vogel, die frühere stellvertretende Generalstaatsanwältin der Obama-Regierung, ist die Geschäftsführerin bei EqualAI und setzte sich bereits an verschiedenen Stationen ihrer Karriere, etwa im Justizministerium, für die Abschaffung unbewusster Vorurteile ein. Gegründet wurde die Initiative von Robert LoCascio. Er ist Gründer und CEO von LivePerson – einer Firma, die die Kommunikation zwischen Unternehmen und Kunden mittels Conversational Commerce grundlegend verändert und dabei selbst auf KI zurückgreift. Weitere Gründungsmitglieder waren zum Beispiel, Arianna Huffington, die Gründerin und Geschäftsführerin der Huffington Post, sowie Jimmy Wales, der Gründer von Wikipedia.

Das Ziel der Initiative ist es, unbewusste Vorurteile in der Entwicklung Künstlicher Intelligenzen zu korrigieren und zu verhindern. Dazu entwickeln sie mit verschiedenen Akteuren aus Wirtschaft, Wissenschaft und Technik Richtlinien und neue Tools für die Programmierung von KIs.

Die Nutzer müssen genauso lernen wie die Maschine

Auch auf der Seite der Nutzerinnen und Nutzer gibt es Verbesserungsbedarf. Wie häufig haben Sie sich schon bei Alexa für einen Service bedankt? Wann sagen Sie: „Siri, kannst du mir bitte die schnellste Verbindung von Berlin nach Frankfurt suchen?“, anstelle von „Siri, such mir die schnellste Verbindung.“ Erwachsenen mag zwar bewusst sein, dass sie hier mit einer Maschine sprechen, aber welche Wirkung hat diese Art der Kommunikation, vor allem mit weiblichen Stimmen, auf Kinder?

Künstliche Intelligenzen bieten große Vorteile für unser tägliches Leben, die Wissenschaft und Technik. Die KI-Technologie betrifft nahezu alle Lebensbereiche. Künftig werden wir nicht nur privat mit KIs interagieren, sondern auch unsere Geschäftsbeziehungen damit regeln. Je kommunikativer diese KIs jedoch werden, desto mehr Sozialkompetenz sollten wir ihnen beibringen. Denn eine Maschine reflektiert das Verhalten, dass man ihr einprogrammiert.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46068403 / Künstliche Intelligenz)