Gated wiederkehrende Einheit (gru)

Definition - Was bedeutet Gated Recurrent Unit (GRU)?

Eine Gated Recurrent Unit (GRU) ist Teil eines bestimmten Modells eines wiederkehrenden neuronalen Netzwerks, das Verbindungen über eine Folge von Knoten verwenden soll, um maschinelle Lernaufgaben auszuführen, die beispielsweise mit Speicher und Clustering bei der Spracherkennung verbunden sind. Gated Recurrent Units helfen dabei, die Eingangsgewichte für neuronale Netze anzupassen, um das Problem des verschwindenden Gradienten zu lösen, das bei wiederkehrenden neuronalen Netzen häufig auftritt.

Technische.me erklärt Gated Recurrent Unit (GRU)

Als Verfeinerung der allgemeinen wiederkehrenden neuronalen Netzwerkstruktur haben wiederkehrende Gate-Einheiten ein sogenanntes Update-Gate und ein Reset-Gate. Unter Verwendung dieser beiden Vektoren verfeinert das Modell die Ausgaben, indem es den Informationsfluss durch das Modell steuert. Wie andere Arten von wiederkehrenden Netzwerkmodellen können Modelle mit wiederkehrenden Einheiten über einen bestimmten Zeitraum Informationen speichern. Daher ist eine der einfachsten Möglichkeiten, diese Arten von Technologien zu beschreiben, dass sie ein "speicherzentrierter" Typ eines neuronalen Netzwerks sind . Im Gegensatz dazu können andere Arten von neuronalen Netzen ohne wiederkehrende Einheiten häufig keine Informationen speichern.

Zusätzlich zur Spracherkennung können neuronale Netzwerkmodelle unter Verwendung von gesteuerten wiederkehrenden Einheiten für die Erforschung des menschlichen Genoms, die Handschriftenanalyse und vieles mehr verwendet werden. Einige dieser innovativen Netzwerke werden in der Börsenanalyse und in der Regierungsarbeit eingesetzt. Viele von ihnen nutzen die simulierte Fähigkeit von Maschinen, sich Informationen zu merken.