Kommentar von Dr. Devis Lussi, Yokoy Eine kurze Geschichte der KI – Teil 1

Von Dr. Devis Lussi |

Anbieter zum Thema

Trotz der jüngst großen Fortschritte in Sachen Künstlicher Intelligenz (KI) ist der Begriff für viele Menschen immer noch wenig greifbar. Was auch daran liegt, dass sie reichlich verworren ist und es viele Vorstellungen gibt und gab, was KI ist und wie sich die Leistungsfähigkeit von KI-Applikationen bewerten lässt. Ihre Geschichte kurz und übersichtlich darzustellen, scheint also zum Scheitern verurteilt. Ein Versuch lohnt sich dennoch.

Der Autor: Dr. Devis Lussi ist Co-Gründer und CTO von Yokoy
Der Autor: Dr. Devis Lussi ist Co-Gründer und CTO von Yokoy
(Bild: Yokoy)

1943

Bei der Suche nach den Pionieren der KI kommen einem die Namen Alan Turing und Norbert Wiener in den Sinn oder John von Neumann: Der ungarische Mathematiker, der an der ETH-Zürich Chemie studiert hatte, engagierte sich zu Beginn der 1940er-Jahre für den Bau von elektronischen Computern und beschäftigte sich in mehreren Schriften mit den Ähnlichkeiten zwischen Gehirn und Rechenautomat.

Claude Shannon muss an dieser Stelle erwähnt werden und seine höchst einflussreiche Informationstheorie. Weiter gilt es, sich an die bahnbrechenden Arbeiten von Warren McCulloch und Walter Pitts zu erinnern, die zu Beginn der 1940er-Jahre neuronale Netzwerke mithilfe mathematischer Modelle zu beschreiben versuchten. Ihre Arbeiten erschienen in einer Zeitschrift namens „Bulletin of Mathematical Biophysics“, die in den späten 1930er-Jahre gegründet worden war.

1950er

Das Dartmouth Summer Project von 1956 markiert nicht einen Anfang, sondern ein Ende: Was in den 1940er- bis Mitte der 1950er-Jahre als Kybernetik oder Automatentheorie ein breit abgestütztes, interdisziplinäres Forschungsprogramm war, wird nun zu einem Teilbereich der Computerwissenschaft. Eine internationale Bewegung wird zu einem Projekt einiger weniger US-Universitäten. Und eine Wissenschaft, die einst Hard- ebenso wie auch Software und theoretische ebenso wie auch angewandte Aspekte umfasste, wird nun auf Software-Entwicklung zurückgestutzt. Viele interessante Forschungsprojekte in der Nachfolge von Warren McCulloch und Walter Pitts hatten im Schatten des von John McCarthy und Marvin Minsky propagierten Paradigmas einer symbolischen KI keine Chance auf finanzielle Unterstützung durch Regierung oder Privatwirtschaft.

Dabei sollte das Dartmouth Summer Research Project on Artificial Intelligence einer „sorgfältig ausgewählten“ Gruppe von Wissenschaftler ermöglichen, „signifikante Fortschritte“ beim Versuch „Lernfähigkeit und andere Erscheinungsformen von Intelligenz“ so präzise zu beschreiben, dass sie von Maschinen nachgeahmt werden könnten.

Viele junge Wissenschaftler, die im Sommer 1956 in Hanover Station machten, waren nur mit vagen Vorstellungen, Erwartungen, Hoffnungen angereist. Die Einzigen, die etwas Konkretes vorzuzeigen hatten, waren Allen Newell und Herbert Simon. Beide waren fasziniert von der Vorstellung, Entscheidungsprozesse von militärischen oder privatwirtschaftlichen Führungsstäben mit Computerhilfe nachbilden zu können. Sie hatten eine „Logic Theorist“ genannte Software entwickelt, die mathematische Theoreme beweisen konnte. Und weil vielen Mathematikern das Lösen von Theoremen Inbegriff einer intelligenten Tätigkeit ist, konnte der Logic Theorist als Inbegriff einer künstlich intelligenten Software in Hanover 1956 alle anwesenden Mathematiker auf Anhieb begeistern.

Newell und Simon verbrachten in diesem Jahr nur wenige Tage am Dartmouth College, aber sie beeinflussten mit ihren Ideen, die sie aus der Rüstungsindustrie mitbrachten, das Forschungsprogramm der KI nachhaltig. Doch als es darum ging, für die neue Wissenschaftsdisziplin einen Namen zu finden, setzte sich gegen ihre Einwände der Begriff KI durch. Sie hätten Complex Information Processing oder Simulation of Cognitive Processes bevorzugt. Nicht auszudenken, wie die Geschichte der KI sich entwickelt hätte, stünde KI nicht für KI, sondern für Komplexe Informationsverarbeitung.

Und schließlich entwickelte Frank Rosenblatt Ende der 1950er-Jahre in der Tradition von Warren McCulloch und Walter Pitts einen Computer namens Perceptron, der ein neuronales Netzwerk nachahmte. Seine Ideen verwirklichte Rosenblatt als Software-Simulation und auch in Form von Hardware. Übrigens kann der 1958 vorgestellte Mark-1-Perceptron-Computer in Washington in einem Museum der Smithsonian Institution besichtigt werden. Es ist ein Gewirr von Drähten, das einen ganzen Kleiderkasten füllt. Auf diese Weise konnte die Maschine lernen. Mithilfe einer Matrix von lichtempfindlichen Elementen konnte sie Zahlen erkennen. Eine Tobermory genannte Version eines Perceptron-Computers konnte gesprochene Sprache verstehen. Die Journalisten waren von diesem lernfähigen „Computer Embryo“, wie die New York Times ihn nannte, schwer beeindruckt.

1960er

Ein Computerprogramm, mit dem man nicht nur über Klötzchen, sondern auch über die Gefühle der Menschen reden kann, erlangte Ende der 1960er-Jahre über die Hochschulinstitute hinaus Berühmtheit. Das Programm hieß Eliza, es wurde von dem US-Computerwissenschaftler Josef Weizenbaum geschrieben. Er wollte nicht die Fähigkeiten der künstlichen, sondern die Begrenztheit der natürlichen Intelligenz, nicht die Stärke der Computer, sondern die Leichtgläubigkeit der Menschen demonstrieren. Er wollte zeigen, wie ein sehr simples Stück Software, das nichts weiter tut als Aussagen des Gesprächspartners in Frageform zurückzuspielen, um so den Gesprächspartner zu neuen Aussagen zu animieren, wie ein solches Progrämmchen sich den Menschen als intelligentes Gegenüber andienen kann. Die Begeisterung, mit der Eliza außerhalb der Computerbranche aufgenommen wurde, brachte Weizenbaum dazu, ein Buch zu schreiben über „Die Macht der Computer und die Ohnmacht der Vernunft“.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ebenfalls in den 1960ern entwickelten Newell und Simon mit Logic Theorist (LT) das erste KI-Programm. Es konnte mathematische Theoreme beweisen, das heißt: Es war in der Lage, mathematische Aussagen mithilfe von logischen Transformationsregeln auf bereits bewiesene Aussagen zurückzuführen. Das Programm fand keine neuen Theoreme und keine neuen Beweise, aber schon ein neues Problemlösungsverfahren: Der Zusammenhang zwischen den mathematischen Aussagen präsentierte sich hier als eine Baumstruktur, die Aufgabe des Programms bestand darin, innerhalb dieser Struktur zwischen Ästen und Stamm Verbindungen herzustellen.

Viele Probleme, mit denen sich die ersten KI-Forscher beschäftigten, lassen sich als Baumstruktur darstellen. Es zeigte sich in der Geschichte der KI aber schon sehr früh, dass diese Bäume rasch in den Himmel wachsen und dass es dann mit vertretbarem Aufwand nicht mehr möglich ist, allen Verästelungen zu folgen.

1959 haben Newell und Simon in der Nachfolge des LT einen General Problem Solver (GPS) vorgestellt als Program That Simulates Human Thought. Das Programm konnte Probleme lösen, die mit den Mitteln der Prädikatenlogik aufbereitet worden waren. Allerdings: Die meisten interessanten Probleme lassen sich nicht auf logische Formeln reduzieren.

Ein anderes frühes KI-Programm versuchte sich beim Dame-Spiel zu bewähren. Entwickelt von Arthur Samuels von IBM zeigte sich dieses Programm als lernfähig. Samuels benutze Baumstrukturen zur Beschreibung des Spielverlaufs. Der erste Zug schafft Raum für mehrere Gegenzüge, von denen jeder wiederum mehrere Spielvarianten hervorbringt. Der Computer konnte nicht alle Verästelungen analysieren, dazu reichte damals die Rechenleistung bei Weitem nicht aus. Das Programm versuchte aber wenigstens die erfolgversprechendsten Züge zu erkennen. Es beeindruckte viele menschliche Spieler, konnte sich aber gegen Weltklasse-Champions nicht durchsetzen.

Newell und Simon waren überzeugt, dass Denken nichts anderes ist als Symbolverarbeitung. Sie stellten sich vor, dass die Wirklichkeit im Kopf des Menschen ein Spiegelbild hat, das sich aus Symbolen zusammensetzt. Diese Symbole, so glaubten sie, könnte man als Bestandteil von mathematischen Ausdrücken auch in einen Computer einbringen. Von einem Programm werden sie dort, je nach Problemstellung, so angeordnet, dass eine Antwort ersichtlich wird. Ausgestattet mit der der richtigen KI-Software, könne sich ein Computer verhalten wie ein menschliches Gehirn. Diese Vorstellung begründete die sogenannte symbolische KI. Dieses Forschungsparadigma dominierte bis Ende der 1970er-Jahre.

Hier geht es zum zweiten Teil: Von den 1970er-Jahren bis zur Gegenwart

Artikelfiles und Artikellinks

Link: Yokoy im Web

(ID:48563752)