Definition Was ist eine Gated Recurrent Unit (GRU)?

Aktualisiert am 25.02.2025 Von Dipl.-Ing. (FH) Stefan Luber 3 min Lesedauer

Anbieter zum Thema

Die Gated Recurrent Unit (GRU) ist eine fortschrittliche Architektur für rekurrente neuronale Netzwerke (RNNs), optimiert für die Verarbeitung sequenzieller Daten. Durch adaptive Gate-Mechanismen – das Update-Gate und das Reset-Gate – steuert sie effizient den Informationsfluss, minimiert Speicherbedarf und verbessert die Trainingsgeschwindigkeit. GRUs finden Anwendung in der Sprachverarbeitung, bei Zeitreihenanalysen und in KI-Systemen.

Eine Gated Recurrent Unit (GRU) ist eine Art von künstlicher Intelligenz, die dabei hilft, sich an wichtige Informationen zu erinnern und unwichtige zu vergessen.(Bild:  Bipul Kumar - stock.adobe.com)
Eine Gated Recurrent Unit (GRU) ist eine Art von künstlicher Intelligenz, die dabei hilft, sich an wichtige Informationen zu erinnern und unwichtige zu vergessen.
(Bild: Bipul Kumar - stock.adobe.com)

Eine Gated Recurrent Unit (GRU) ist ein Mechanismus in rekurrenten neuronalen Netzwerken (RNNs). Sie dient dazu, Erinnerungsprozesse in RNNs effizient zu steuern und ermöglicht es, Sequenzdaten besser zu verarbeiten, indem sie die Notwendigkeit expliziter Speicherstrukturen reduziert.

GRUs sind besonders vorteilhaft bei der Modellierung von Zeitreihendaten und natürlichen Sprachverarbeitungssystemen, da sie eine adaptive Speicherung und Verarbeitung von Informationen in variablen Zeitintervallen ermöglichen. Das macht sie zu einer beliebten Wahl für Anwendungen mit begrenzter Rechenleistung, wie z. B. mobile Geräte oder eingebettete Systeme.

Grundlagen zu rekurrenten neuronalen Netzwerken

Für ein besseres Verständnis der Funktionsweise von Gated Recurrent Units zunächst einige grundlegende Informationen zu rekurrenten neuronalen Netzwerken (RNN): Ein RNN ist eine besondere Form eines neuronalen Netzwerks. Es unterscheidet sich von einfachen Feed-Forward-Netzen durch seine rückgekoppelten Neuronen. Die Neuronenverschaltung ist dem menschlichen Gehirn ähnlicher und ermöglicht die Lösung aufwendigerer Aufgabenstellungen. Das Training dieser Netze ist allerdings komplexer und erfordert den Einsatz spezieller Mechanismen und mathematischer Verfahren, um typische Probleme rekurrenter neuronaler Netzwerke zu lösen. Die Rückkopplungen verursachen beispielsweise lokale Optima und können zu unübersichtlichen Netzzuständen führen.

Vor allem die Verknüpfung zurückliegender und weiter entfernter Informationen stellt RNNs vor Probleme. Aufgrund von Gradientenproblemen, wie verschwindende Gradienten, haben RNNs Probleme mit dem Kurzzeitgedächtnis und können sich nicht an Erfahrungen aus längeren Datenreihen erinnern. Verfahren wie Long Short-Term Memory (LSTM) oder Gated Recurrent Unit lösen diese Probleme.

Wie funktioniert eine Gated Recurrent Unit?

Die GRU verwendet zwei Hauptkomponenten, um den Informationsfluss zu kontrollieren:

  • 1. Update-Gate: Dieses Gate bestimmt, wie viel der vorherigen Informationen beibehalten und wie viel durch neue Eingaben ersetzt wird. Es hilft dabei, relevante Informationen über längere Sequenzen hinweg zu speichern.
  • 2. Reset-Gate: Dieses Gate entscheidet, wie sehr neue Eingaben die gespeicherten Informationen überschreiben. Ein niedriger Wert des Reset-Gates führt dazu, dass weniger vergangene Informationen berücksichtigt werden, während ein hoher Wert mehr vergangene Informationen einbezieht.

Durch die Kombination dieser Gates kann die GRU flexibel entscheiden, welche Informationen zu behalten und welche zu vergessen sind, was besonders bei der Verarbeitung von Sequenzdaten wie Text oder Zeitreihen vorteilhaft ist.

Unterschiede zwischen GRU und LSTM

Gated Recurrent Unit und LSTM sind beides Verfahren, mit denen sich typische Gradientenprobleme von Standard-RNNs lösen lassen. Beide Verfahren haben vergleichbare Funktionalität und statten rekurrente neuronale Netzwerke mit Erinnerungsprozessen aus. Die rekurrenten neuronalen Netzwerke eignen sich dank LSTM und GRU besser für die Verarbeitung von Zeitreihendaten und liefern genauere Prognosen und Klassifizierungen.

LSTM schafft mithilfe von drei Gates (Eingang, Ausgang und Vergessen) eine Art langes Kurzzeitgedächtnis. GRU benötigt dafür nur zwei Gates (Update und Reset). Gated Recurrent Units haben weniger Parameter und verursachen weniger Rechenaufwand und Speicherbedarf. Im Vergleich zu LSTM, das bereits im Jahr 1997 erstmals vorgestellt wurde, ist GRU ein neueres Verfahren und wurde erst 2014 entwickelt. GRU gilt vor allem bei kleineren Datasets als leistungsfähiger und schneller. LSTM zeigt bei größeren Datasets mit längeren Sequenzen seine Vorteile.

Aktuelle Entwicklungen

Seit der Einführung der GRU wurden verschiedene Varianten und Verbesserungen vorgeschlagen. Eine bemerkenswerte Weiterentwicklung ist die Einführung von gewichteten Zeitverzögerungs-Feedback-Mechanismen, die darauf abzielen, die Modellierung von Langzeitabhängigkeiten in sequenziellen Daten zu verbessern. Diese Mechanismen ermöglichen es dem Modell, zeitverzögerte Rückkopplungen zu berücksichtigen, was zu einer besseren Generalisierung und schnelleren Konvergenz führen kann.

Anwendungsbereiche rekurrenter neuronaler Netzwerke mit GRU

Rekurrente neuronale Netzwerke mit Gated Recurrent Unit finden Anwendung in verschiedenen Bereichen der Künstlichen Intelligenz und des maschinellen Lernens, darunter:

  • Sprachverarbeitung: Verwendung in Sprachmodellen, Chatbots und maschinellen Übersetzungssystemen, um Kontextinformationen über längere Sequenzen hinweg zu berücksichtigen.
  • Zeitreihenanalyse: Prognose von Finanzdaten, Wettervorhersagen oder Sensoranalysen, bei denen zeitliche Abhängigkeiten eine Rolle spielen.
  • Bild- und Videoverarbeitung: Analyse von Videodaten, bei denen die zeitliche Abfolge von Frames wichtig ist, z. B. zur Objekterkennung oder für automatische Untertitelgenerierung.
  • Medizinische Diagnostik: Nutzung von GRUs zur Vorhersage von Krankheitsverläufen anhand von Patientendaten, beispielsweise in der Analyse von EEG- oder EKG-Signalen.
  • Autonomes Fahren: Verarbeitung von Sensordaten in Echtzeit zur Steuerung von Fahrzeugen, um beispielsweise Hindernisse vorherzusagen oder Fahrverhalten anzupassen.
  • Personalisierte Empfehlungssysteme: Verbesserung der Nutzererfahrung durch Vorhersage von Präferenzen in Streaming-Diensten oder Online-Shops.

Die Fähigkeit der GRU, relevante Informationen über verschiedene Zeitschritte hinweg zu speichern und irrelevante zu vergessen, macht sie zu einem leistungsfähigen Werkzeug in vielen Bereichen der Datenverarbeitung.

(ID:48441126)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung