Kommentar von Dr. Devis Lussi, Yokoy Eine kurze Geschichte der KI – Teil 2
Anbieter zum Thema
Trotz der jüngst großen Fortschritte in Sachen Künstlicher Intelligenz (KI) ist der Begriff für viele Menschen immer noch wenig greifbar. Was auch daran liegt, dass sie reichlich verworren ist und es viele Vorstellungen gibt und gab, was KI ist und wie sich die Leistungsfähigkeit von KI-Applikationen bewerten lässt. Ihre Geschichte kurz und übersichtlich darzustellen, scheint also zum Scheitern verurteilt. Ein Versuch lohnt sich dennoch.

1970er
Zu den herausragenden Programmen aus den Anfangsjahren der KI gehört auch SHRDLU. Es war von Terry Winograd als Doktorarbeit unter der Aufsicht von Marvin Minsky entwickelt worden und sollte das Gespräch zwischen Mensch und Maschine voranbringen. Die Gesprächsthemen waren sehr beschränkt: Sie mussten einen Bezug haben zu einer Microworld, in der es nichts gab außer farbigen geometrischen Objekten, Pyramiden und Würfeln in verschiedenen Größen. Der Mensch konnte dem Computer befehlen, die Objekte anders anzuordnen. Oder er konnte über die Anordnung der Objekte Auskunft verlangen. Der Computer wusste, dass man einen Würfel nicht auf eine Pyramide stellen konnte oder dass man, um den Würfel unterhalb der Pyramide zu bewegen, zuerst die Pyramide beseitigen muss. Man stellte sich damals vor, dass man das Programm, Zeile um Zeile, einfach nur erweitern, dass man die Microworld, Ding für Ding, einfach nur vergrößern müsste, um schließlich mit dem Computer über Gott und die Welt reden zu können. Diese Vorstellung erwies sich als falsch.
Als der britische Mathematiker James Lighthill zu Beginn der 1970er-Jahre im Auftrag der britischen Regierung einen Bericht über die Aussichten der KI-Forschung erarbeitete, kam er zu einem vernichtenden Urteil. Diese Wissenschaftsdisziplin habe nichts hervorgebracht, was den hohen Erwartungen, die sie geweckt habe, gerecht werde. In Fachkreisen soll dieser Bericht große Wirkungen gezeitigt haben, er soll die Sponsoren verunsichert und die Finanzierung der KI-Forschung erschwert haben. Allerdings: Der Berühmtheit des Programms Eliza konnte auch der Lighthill-Report nichts anhaben.
1980er
In den 1980ern konnte das konnektionistische Paradigma rasch Fortschritte machen. Das ist nicht zuletzt Geoffrey Hinton zu verdanken. Zusammen mit den US-Psychologen David Rumelhart und James McClelland bildeten die drei Wissenschaftler den Kern einer Parallel Distributed Processing (PDP) Research Group. Dieses Forscherteam begründete in den 1980er-Jahren mit einer Serie von wissenschaftlichen Publikationen eine konnektionistische „Gegenrevolution“.
An erster Stelle steht hier die vielgelesene „Bibel“ des Konnektionismus, das mehr als 1.000 Seiten umfassende zweibändige Werk „Parallel Distributed Processing: Explorations in the Microstructure of Cognition“ (1987). Die Forscher der PDP Research Group konnten darin zeigen, dass, anders als von Minsky und Papert vorausgesagt, große, vielschichtige neuronale Netzwerke, die über Mechanismen der Fehlerrückführung verfügen, durchaus in der Lage sind, im Bereich der Mustererkennung schwierige Aufgaben zu lösen.
Viele Fortschritte im Bereich des Deep Learning sind auf eine Innovation aus der Schweiz angewiesen: Die von Jürg Schmidhuber und seinem Doktoranden Sepp Hochreiter entwickelte und Long short-term memory genannte Speichertechnik erlaubt es vielschichtigen neuroyalen Netzwerken, die richtigen Lerninhalte zu behalten. Eine weitere Neuerung der „Deep Neuronal Networks“ ist die Fehlerrückführung (Backpropagation), die Hinton und Rummelhart in der Fachzeitschrift „Nature“ 1987 vorstellten. Später stellte sich heraus, dass der finnische Computerwissenschaftler Seppo Linnainmaa diese Erfindung auch schon gemacht hatte. Allerdings konnte er damals, in den 1970er-Jahren, niemanden finden, der sich dafür interessierte.
1990er
Am 12. Januar 1992 wurde in den HAL Laboratories im US-Städtchen Urbana, Illinois, ein Computer fertiggestellt, der es intelligenzmäßig mit den Menschen aufnehmen konnte. Dieser Computer existierte zwar nur auf dem Papier, der Science-Fiction-Autor Arthur C. Clarke hatte ihn sich ausgedacht, er war eine Ausgeburt der Fantasie. Trotzdem hat er mehr als alle realen Computer und KI-Programme, mehr als alle wissenschaftlichen Disputationen und wissenschaftsjournalistischen Analysen, die Vorstellungen der Menschen bezüglich der KI geprägt. Dieser Computer, Hal 9000 genannt, verfügt über menschenähnliche Intelligenz, er versteht Sprache, er kann sogar Lippen lesen. Hal 9000 ist neben dem Schauspieler Keir Dullea Hauptdarsteller in dem Film „2001: A Space Odyssey“, den Stanley Kubrick 1968 in die Kinos brachte. Hal 9000 ist überzeugt, dass er bei seinem Flug durchs All die Ziele der Mission ohne Menschen besser erfüllen kann. Nachdem der Computer mehrere Astronauten getötet hat, gelingt es dann dem letzten überlebenden Menschen, den größenwahnsinnigen Computer zu zerstören, aber ohne diese Maschine werden sie nicht überleben können.
1997 musste sich erstmals ein Schachweltmeister einem Computer geschlagen geben: Garri Kasparow verlor zwei Spiele gegen den von IBM-Ingenieuren konstruierten Schachcomputer „Deep Blue“. Diese Maschine glänzte vor allem mit Typ-A-Fähigkeiten: Mit ihren 480 Spezialprozessoren konnte sie bis zu 200 Millionen Schachpositionen pro Sekunde berechnen. Kasparow bat vergeblich um eine Revanche. Bald nach seinem publikumsträchtigen Auftritt wurde „Deep Blue“ verschrottet.
2012
Alphazero ist nicht einfach ein besserer Deep Blue. Die IBM-Software steht für ein Forschungsprogramm, das Intelligenz mithilfe von logischen Regeln beschreiben möchte. Man nennt dieses Paradigma symbolische KI. Es dürfte mit Deep Blue seinen Zenit erreicht haben. Alphazero nutzt wie Alphago Methoden des Deep Learning, um aus einer sehr großen Zahl von Spielpartien die erfolgreichen Spielzüge zu erkennen. Fast alle jüngeren Durchbrüche in der KI nutzen Methoden des Deep Learning.
„Deep Learning hat große Fortschritte gemacht bei der Lösung von Problemen, die sich den besten Anstrengungen der KI-Forscher während Jahren widersetzt hatten“, schrieb Geoffrey Hinton 2015 in einem viel gelesenen Aufsatz in der Wissenschaftszeitschrift Nature. Dieser Text markiert einen Wendepunkt, einen Paradigmenwechsel. Es ist nun aber nicht so, dass Deep Learning als Nachfolger die symbolische KI verdrängt hätte. Vielmehr ist Deep Learning der ältere Ansatz, der aber durch viele fiese Intrigen während Jahrzehnten an der Entfaltung gehindert wurde. Und es gibt heute ernsthafte KI-Forscher, die glauben, dass Deep Learning seinen Zenit erreicht habe, dass die Zukunft der KI darin bestehe, dass sich das symbolische und das konnekionistische Paradigma vereinen.
Geoffrey Hinton lehrt heute an der University of Toronto. Zudem leitet er die KI-Forschung bei Google. Als KI-Forscher tat er sich etwa mit Innovationen im Bereich der Bilderkennung hervor oder er erzielte zusammen mit Forschern von Google, IBM und Microsoft bei der Sprachanalyse einen Durchbruch. Nach Jahren der Stagnation brachten diese bemerkenswerten Leistungen die KI wieder zurück ins öffentliche Gespräch.
2017
2017 hat die Londoner Firma Deepmind ein Schachprogramm vorgestellt, das sich innerhalb von Stunden das Schachspielen selbst beibringen konnte, um danach die besten Schachspieler oder Schachprogramme zu besiegen. Berühmt wurde Deepmind, das 2014 von Google übernommen wurden, mit einer Software namens Alphago. Im Brettspiel Go besiegte sie 2016 den weltbesten Spieler. Die erste Version dieser Software lernte das Spiel, indem sie von Menschen gespielte Partien nachspielte.
Es gibt heute viele Schachprogramme – Stockfish, Houdini, Komodo, Fritz, Deep Shredder und andere –, die einen Schachweltmeister in die Schranken weisen können. Doch Schaukämpfe zwischen Mensch und Maschine haben an Attraktivität verloren. Interessanter ist der Wettbewerb zwischen den Maschinen. Hier konnte sich vor einem Jahr Deepmind Alphazero an die Spitze setzen und das beste Schachprogramm Stockfish deutlich schlagen.
Interessant ist, dass die heutigen Schachprogramme auch mit weniger Rechenleistung besser spielen als Deep Blue. Im Match gegen Alphazero analysierte Stockfish 60 Millionen Positionen pro Sekunde. Und Alphazero brauchte gar nur 60.000 Positionen durchzurechnen, um mithilfe eines Monte Carlo Tree Search (MCTS) genannten Verfahrens gute Spielzüge zu finden. Man habe sich, so schreiben die Alphazero-Entwickler – unter ihnen auch der Deepmind-Gründer Demis Hassabis – dem von Shannon als Typ B beschriebenen Ideal einer „menschenähnlichen“ Spielweise angenähert.
Die Alphazero-Software habe ihre Limitationen, schreibt in „Science“ der kanadische Computerwissenschaftler Murray Campbell, der für IBM tätig ist und einst an der Entwicklung von Deep Blue beteiligt war. Die Software habe sehr hohe Anforderungen an die Hardware und sei schwer interpretierbar. Trotzdem glaubt Campbell, dass mit Alphazero in der Geschichte der Künstlichen Intelligenz ein „Kapitel“ abgeschlossen und ein Projekt beendet wurde, das „mehrere Jahrzehnte“ gedauert habe. KI-Forscher müssten sich nach neuen Herausforderungen umsehen.
2018
Eine 2018 publizierte Expertenumfrage sieht die Maschinen auf die Überholspur einschwenken: Aufgaben wie das Schreiben eines Schulaufsatzes, das Übersetzen von Texten, die Verschriftlichung von gesprochener Sprache oder das Zusammenfalten von Kleidungsstücken sollen von den Maschinen bereits in den 2020er-Jahren besser oder billiger erledigt werden können. Bis die Maschinen sich auf der ganzen Linie durchgesetzt haben und etwa auch als Popmusiker, Romanschriftsteller oder als Chirurgen Menschen übertreffen, sei eine Frage von ein paar Jahrzehnten: Eine Mehrheit der 352 befragten Experten sagte den Durchbruch einer High Level Machine Intelligence für die Mitte des Jahrhunderts voraus.
Die Umfrage wurde vom Future of Humanity Institute der renommierten britischen Oxford University durchgeführt. Bemerkenswert an dieser Studie ist, dass von den an der Umfrage beteiligten Experten fast alle der Ansicht sind, dass sich in ihrem Fachgebiet der Fortschritt beschleunige. Das würde bedeuten, dass wir uns dem Ziel einer „Superintelligenz“ mit ständig steigender Geschwindigkeit annähern.
Heute
Fortschritte bei der Erforschung der KI werden oft als Schaukampf zwischen Mensch und Maschine inszeniert: der US-Schauspieler Keir Dullea in der Rolle des Astronauten gegen Hal 9000, Garry Kasparow gegen Deep Blue, Lee Sedol gegen Alphago. Diese Schaukämpfe haben vor allem dann eine große mediale Ausstrahlung, wenn die Maschine gewinnt, wenn die Position des Menschen als Krone der Schöpfung in Frage gestellt wird. Jedoch ist es sehr schwierig, die Fähigkeiten der Maschinen realistisch einzuschätzen. Unternehmen, die KI entwickeln, haben kein Interesse, über ihre Misserfolge zu berichten. Deshalb beruht der aktuelle Boom der KI auch ein bisschen auf Übertreibung.
Feststeht jedoch: Wenn die KI sich im Alltag der Menschen nützlich machen will, muss sie lernen, im Team zu arbeiten. Gefordert ist eine „kollaborative Intelligenz“. Die Maschinen müssen lernen, das menschliche Gegenüber bei der Lösungsfindung einzubeziehen, sie müssen lernen, sich selbst zu hinterfragen, mit Unsicherheiten umzugehen, zu improvisieren. Sie werden nicht nur Lösungen liefern müssen, sondern auch Lösungswege, nicht nur Antworten, sondern auch Fragen.
Artikelfiles und Artikellinks
Link: Yokoy im Web
(ID:48564000)