TU Berlin stellt mathematische Idee vor Künstliches Gehirn mit nur einem Neuron realisiert

Von Martin Hensel

Forscher der Technischen Universität Berlin konnten ein neuronales Netz aus Tausenden Nervenzellen in einem Computer simulieren. Dabei kam erstmals nur ein einziges, im Softwarecode programmiertes Neuron zum Einsatz.

Anbieter zum Thema

Die TU Berlin forscht an neuronalen Netzen.
Die TU Berlin forscht an neuronalen Netzen.
(Bild: Gerd Altmann / Pixabay )

Rund 86 Milliarden Nervenzellen sorgen im Gehirn dafür, dass Menschen außergewöhnliche kognitive Leistungen vollbringen können. Diese Neuronen sind durch Synapsen miteinander verbunden und kommunizieren in einem riesigen Netzwerk miteinander. Bereits seit Jahrzehnten entwerfen Forscher künstliche neuronale Netze, die wie ihr echtes Vorbild lernfähig sind. Je nach Training können derartige Netze beispielsweise Objekte erkennen, Bilder klassifizieren oder selbstständig Texte erstellen.

Die Forschung an der TU Berlin adressiert zwei Beschränkungen aktueller neuronaler Netze: Zum einen betrifft das den durch den Einsatz von Supercomputern verursachten hohe Stromverbrauch, der bei einem späteren industriellen Einsatz des KI-Programms sogar noch steigen kann. „Auf der anderen Seite gibt es auch neuronale Netze, deren Neuronen als reale physikalische Systeme aufgebaut werden“, erklärt PD Dr. Serhiy Yanchuk, Leiter der Arbeitsgruppe Angewandte Dynamische Systeme an der TU Berlin. Dies könne etwa mittels rein elektrischer Halbleiter-Bauelemente oder über Laser-basierte optische Technologien realisiert werden. Allerdings gebe es hierbei Grenzen bezüglich der möglichen Hardware-Neuronen und der möglichen Verbindungen. Während in Supercomputern Milliarden von Neuronen möglich sind, erreichen Hardware-Implementierungen nur einige Tausend künstliche Nervenzellen.

Neuartiger Ansatz

Die Lösung für diese Herausforderungen könnte im Einsatz eines einzigen Neurons liegen, das durch zeitverzögertes Ansteuern und Auslesen nacheinander die Rollen aller Neuronen im neuronalen Netz einnimmt. Dabei nehmen spezielle Verzögerungsleitungen den Zustand des Neurons auf, modulieren ihn in geeigneter Weise und senden das daraus resultierende Signal zurück. „Dass das prinzipiell möglich ist, haben wir jetzt im Computer gezeigt. Für eine Realisierung in Hardware kämen vor allem laserbasierte Schaltungen in Frage, weil diese so schnell sind, dass die Zeitverzögerungen besonders kurz ausfallen“, meint Florian Stelzer, Erstautor der entsprechenden Studie.

Das Verfahren erleichtert nicht nur die Hardware-Implementierung, sondern würde höchstwahrscheinlich auch den Energieverbrauch künstlicher neuronaler Netze senken. Letztlich sei das System laut Stelzer nichts anderes als eine mathematische nicht-lineare Funktion, die man genau definieren könne. Neu sei, dass durch die veränderbaren Zeitverzögerungen Lernen möglich werde. „Zudem können wir in unserer Konfiguration erstmals die verschiedenen Netzebenen eines tiefen neuronalen Netzes simulieren“, so der Wissenschaftler. Das Ergebnis wurde auf die Bezeichnung „Folded-in-time Deep Neural Network“ (Fit-DNN) getauft. Im Testlauf konnte das Verfahren bereits Kleidungsstücke rekonstruieren, die zuvor durch übergelagertes Rauschen unkenntlich gemacht wurden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:48030079)