Suchen

Die Intelligenz der Maschinen Wissen wir noch, was sie tun?

| Autor / Redakteur: Dipl. Betriebswirt Otto Geißler / Nico Litzel

Mithilfe Künstlicher Intelligenz (KI) treffen Maschinen bereits heute eigene Entscheidungen, die sogar viele Fachleute nicht mehr durchschauen können. Solche KI-Entscheidungen beeinflussen immer stärker auch das menschliche Leben. Droht ein Kontrollverlust? Sind Regeln ein Ausweg? Oder sind diese Bedenken einfach nur übertrieben

Blindes Vertrauen in die Ergebnisse, die KI-Systeme liefern, kann mitunter sehr gefährlich sein. Daher müssen die KI-Systeme kritisch im Auge behalten werden.
Blindes Vertrauen in die Ergebnisse, die KI-Systeme liefern, kann mitunter sehr gefährlich sein. Daher müssen die KI-Systeme kritisch im Auge behalten werden.
(Bild: © ryzhi – stock.adobe.com)

Beim Thema Künstlicher Intelligenz gehen die Meinungen weit auseinander. Während der Unternehmer und Visionär Elon Musk darin eine große Bedrohung sieht, sind es für den Facebook-Chef Mark Zuckerberg gerade die lernenden Maschinen, die unser Leben in vielen Bereichen besser und angenehmer machen sollen.

Unabhängig davon, ob man der Technologie optimistisch oder eher pessimistisch gegenübersteht, liegt es auf der Hand, dass den lernenden Algorithmen zusehends mehr Eigenständigkeit und damit mehr Verantwortung übertragen werden. Von diesen Innovationen profitieren Bereiche wie beispielsweise das Autonome Fahren, die Sicherheit, die Medizin oder wenn es allgemein um die automatische Auswertung riesiger Datenmengen geht.

Damit wurden Aufgaben endlich lösbar, an denen Generationen von Programmierern bislang kläglich scheiterten. So werden heute die Algorithmen von den Rechnern anhand von Trainingsdaten gleich selbst entwickelt. Auf diese Weise lassen sich die Ergebnisse per Machine Learning (ML) als Teilbereich innerhalb der KI immer präziser ermitteln, ohne dabei explizit programmiert werden zu müssen.

Funktionsweise der neuronalen Netze

KI beruht – wie menschliche Intelligenz – auf Lernfähigkeit und selbstständiger Anpassungsfähigkeit. Hierfür werden die Algorithmen für maschinelles Lernen in sogenannte überwachte und unbeaufsichtigte Algorithmen unterteilt.

Bei überwachten Algorithmen liefert der Mensch für das Machine Learning sowohl den Input und den gewünschten Output als auch das Feedback über die Genauigkeit der Vorhersagen, während die Maschine trainiert wird. Nach Abschluss des Trainings kann der Algorithmus das Gelernte auch auf neue Daten anwenden.

Sollen nicht überwachte Algorithmen zum Einsatz kommen, so müssen diese nicht mit den gewünschten Output-Daten trainiert werden. An deren Stelle treten iterative Ansätze, die Deep Learning genannt werden, um Daten in neuronalen Netzen zu überprüfen und daraus Schlussfolgerungen zu ziehen. Wobei die unterste Ebene Input-Daten wie zum Beispiel Bildpixel erhält, die von Ebene zu Ebene mithilfe zunehmend abstrakterer Konzepte verarbeitet werden. Entscheidend ist dabei, dass der Rechner innerhalb dieser Ebenen selbst bestimmt, wie nun diese Input-Daten in immer abstrakteren Konzepten am besten zu klassifizieren sind.

Blick in die Black Box

Dadurch ist vor allem in letzter Zeit das Bewusstsein gewachsen, den tiefen neuronalen Netzwerken etwas genauer in ihr kryptisches Handwerk zu blicken. Es gilt dabei herauszufinden, welche Kriterien dafür ursächlich waren, einen Input einem bestimmten Output zuzuordnen. Das heißt, den Grund zu detektieren, warum ein zu untersuchendes Bild zum Beispiel als ein Bild eines Pferdes klassifiziert wurde.

Betrachtet man nun diejenigen Eigenschaften der Input-Daten, die für die Entscheidung des Algorithmus jeweils ausschlaggebend waren, so tun sich überraschende Ergebnisse auf. Denn Algorithmen können in der sogenannten Black Box für ein und dieselbe Aufgabe sehr unterschiedliche Strategien entwickeln. Für die Erkennung von Pferdebildern können das zum Beispiel Konturen im Bild oder auch kleine Beschriftungen sein, die ausschließlich in Pferdebildern auftauchen und dort das Copyright der Bilder angeben.

Dass eine solche Eigenschaft der Bilder aber nichts mit Pferden zu tun hat, kann dieser Algorithmus nicht detektieren. Wendet man nun diese Algorithmen auf völlig beliebige Pferdebilder an, so schneiden die Algorithmen trotz ähnlicher Performance im Test sehr unterschiedlich ab. Das Beispiel der Pferdebilder zeigt, dass im Testsample Pferde und Copyright zwar in diesem Fall korrelieren und immer zusammen auftreten, aber der Zusammenhang rein zufällig entsteht.

Fatale Konsequenzen

Ein weiteres, in der Fachwelt sehr bekanntes Beispiel für falsche Korrelationen ist ein selbstlernendes System, das vorhersagen sollte, ob eine erkrankte Person als Risikopatient bei einer Lungenentzündung sofort behandelt werden muss. Die Software kam zu dem fatalen Ergebnis, dass Personen mit Asthma, Brustschmerzen und Herzproblemen nicht als Risikopatienten einzuordnen sind.

Wie kommt das System zu diesem Befund? Mithilfe der Daten, welche die Software untersucht, stuft sie das Sterberisiko der Asthmapatienten als deutlich geringer ein und gibt ihnen daher keine Priorität. Tatsächlich sind ihre Sterblichkeitsraten so niedrig, weil sie aufgrund ihres anhaltenden Gesundheitszustands, stets sofortige Hilfe in medizinischen Einrichtungen erhalten.

Ein katastrophales Resultat, das jeder menschlichen Intuition zuwiderläuft. Denn ein mathematisches Modell verfügt nicht über eine solche Fähigkeit, weil es ganz einfach lernt und dann Daten verallgemeinert. So auch in dem Beispiel, als der Algorithmus von Google dunkelhäutige Menschen als Gorillas klassifizierte, weil die Bilderkennungssoftware hauptsächlich mit Bildern von Gesichtern hellhäutiger Menschen trainiert wurde.

Noch schlimmer als falsche Korrelationen sind sogenannte Feedback Loops, die eine Situation beschreiben, in der die Entscheidungen eines Algorithmus die Realität beeinflussen, was den Algorithmus wiederum in seiner Schlussfolgerung bestätigt. Ein Beispiel: Das System empfiehlt zur Verbrechensbekämpfung, dass die Polizei aufgrund der hohen Kriminalitätsrate in afroamerikanische Viertel stärker präsent sein sollte. Als Folge der Maßnahme meldeten die Anwohner Straftaten häufiger als zuvor, was wiederum zu einer höheren Kriminalitätsrate und letztlich zu einer noch höheren Polizeipräsenz führte.

Hinzu kommt, dass ein Algorithmus standardgemäß nichts über Ethik wissen kann. Sollte nun ein Programm vor die Aufgabe gestellt werden, ein Staatsbudget mit dem Ziel „Maximierung des Bruttoinlandsprodukts (BIP) ohne ethische Einschränkungen zu erstellen, so würde das System die Budgets für Schulen, Krankenhäuser und Umweltfragen streichen, weil sie das BIP nicht aktiv zu steigern vermögen. Gleichzeitig könnte es auch empfehlen, alle arbeitsunfähigen Menschen zu eliminieren, um die Produktivität zu steigern. Daher müssen ethische Fragen von Anfang an mit einbezogen werden.

Thick Data statt Big Data

Selbst in den einfachsten Situationen kann ein gut funktionierendes mathematisches Modell überraschend einfach ausgetrickst werden. Ein Forscherteam fand heraus, wie man einen Algorithmus für Gesichtserkennung mit einer speziell gefärbten Brillenfassung manipulieren kann, die nur mit minimalen Verzerrungen das Endergebnis vollständig verändern würde.

Wobei Änderungen, die für das menschliche Auge kaum wahrnehmbar sind, völlig ausreichen, um ein mathematisches Modell, das auf maschinellen Lernalgorithmen basiert, auszutricksen. So könnten KI-Systeme Gepäckröntgenaufnahmen am Flughafen analysieren und nach Waffen durchsuchen. Kriminelle mit Köpfchen werden dann in der Lage sein, ein Objekt mit einer spezifischen Form neben eine Schusswaffe zu legen und dadurch die Waffe unkenntlich zu machen.

Daher braucht man nicht Big Data als Grundlage, sondern vielmehr Thick Data in Kombination mit viel Forschung, um dem Ziel einer interpretierbaren KI näher zu kommen. Nur so lassen sich Entscheidungen auch hinterfragen – und künftige Entscheidungen positiv beeinflussen.

Neue Regeln braucht das Land

Zusätzlich sollte sich die Gesellschaft dringend Regeln für das digitale Zeitalter überlegen. Im Mai 2018 ging Deutschland einen ersten Schritt in diese Richtung und erließ ethische Regeln für autonome Autos:

  • Sachschaden geht vor Personenschaden. In Gefahrensituationen hat der Schutz menschlichen Lebens immer höchste Priorität.
  • Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) unzulässig.
  • Das automatisierte und vernetzte Fahren ist ethisch dann geboten, wenn die Systeme weniger Unfälle verursachen als menschliche Fahrer (positive Risikobilanz).‎

Fazit

Bei allen erstaunlichen Erfolgen lernender Algorithmen, die bereits entwickelt wurden oder noch zu erwarten sind, scheint also folgendes zu gelten: Blindes Vertrauen kann mitunter sehr gefährlich sein. Daher müssen die KI-Systeme kritisch im Auge behalten werden. Gerade eben, wenn sie mehr und mehr den Alltag bestimmen. Zumindest in diesem Sinne ist Elon Musk in seinem Ruf nach einer Kontrolle der KI eindeutig zuzustimmen.

(ID:45889319)

Über den Autor