TU Graz verfolgt neuen Ansatz Forscher entwickeln energiesparende neuronale Netzwerke

Von Martin Hensel |

Anbieter zum Thema

Wissenschaftler der Technischen Universität Graz haben eine neue Design-Methode vorgestellt, die besonders energieschonende neuronale Netze ermöglicht. Sie kommen mit extrem wenigen Signalen aus.

TU-Graz-Informatiker Wolfgang Maass arbeitet an energieeffizienten KI-Anwendungen und lässt sich dabei von der Funktionsweise des menschlichen Gehirns inspirieren.
TU-Graz-Informatiker Wolfgang Maass arbeitet an energieeffizienten KI-Anwendungen und lässt sich dabei von der Funktionsweise des menschlichen Gehirns inspirieren.
(Bild: Lunghammer - TU Graz)

Große neuronale Netze mit hunderten Millionen Neuronen sind zwar leistungsfähig, verbrauchen aber auch sehr viel Energie. Das gilt insbesondere für Systeme zur Bildklassifizierung, wie etwa bei der Gesichts- oder Objekterkennung, da sie in jedem Zeittakt sehr viele Zahlenwerte mit großer Genauigkeit von einer Neuronenschicht zur nächsten senden müssen.

Der Informatiker Wolfgang Maass hat nun gemeinsam mit seinem Doktoranden Christoph Stöckl eine neuartige Design-Methode für künstliche neuronale Netzwerke gefunden. Sie soll den Weg zu energieeffizienter, leistungsfähiger KI-Hardware ebnen, wie beispielsweise Chips für Fahrassistenzsysteme oder Smartphones. Dazu haben die beiden Forscher neuronale Netze zur Bildklassifizierung so optimiert, dass die Neuronen, ähnlich wie im menschlichen Gehirn, nur noch vergleichsweise selten Signale aussenden und diese sehr einfach sind. Dennoch sei die Genauigkeit sehr nahe am aktuellen Stand der Technik von Bildklassifizierungstools.

Mensch als Vorbild

Das menschliche Gehirn diente den Forschern als Vorbild: Es verarbeitet mehrere Billionen Rechenoperationen pro Sekunde, benötigt dafür aber nur rund 20 Watt. Möglich wird dies durch die zwischenneuronale Kommunikation mittels sehr einfacher elektrischer Impulse („Spikes“). Die Information wird dabei nicht nur durch die Anzahl der Spikes, sondern auch durch zeitlich variable Muster kodiert. „Man kann sich das vorstellen wie einen Morse-Code. Auch die Pausen zwischen den Signalen übertragen Informationen“, verdeutlicht Maass.

Dass Spike-basierte Hardware den Energieverbrauch reduzieren kann, war keine neue Erkenntnis – allerdings auch bislang bei den tiefen und großen neuronalen Netzen für Bildklassifikation nicht umsetzbar. Die Methode von Maass und Stöckl nutzt auch die zeitlichen Abstände zwischen den Spikes, um zusätzliche Information zu transportieren. „Wir zeigen, dass mit wenigen Spikes – in unseren Simulationen sind es durchschnittlich zwei – genauso viel Informationen zwischen den Prozessoren vermittelt werden können wie in energieaufwendiger Hardware“, so Maass. Die Ergebnisse der Forscher könnten die Entwicklung von energieeffizienten KI-Anwendungen drastisch beschleunigen.

Publikation in Nature Machine Intelligence:

Optimized spiking neurons can classify images with high accuracy through temporal coding with two spikes.
C. Stoeckl and W. Maass.

DOI: 10.1038/s42256-021-00311-4

Artikelfiles und Artikellinks

(ID:47297800)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung