Gleichgerichtete Lineareinheit (relu)

Definition - Was bedeutet Rectified Linear Unit (ReLU)?

Die gleichgerichtete Lineareinheit (ReLU) ist eine der häufigsten Aktivierungsfunktionen in Modellen für maschinelles Lernen. Als Bestandteil eines künstlichen Neurons in künstlichen neuronalen Netzen (ANN) ist die Aktivierungsfunktion für die Verarbeitung gewichteter Eingaben und die Bereitstellung einer Ausgabe verantwortlich.

Technische.me erklärt Rectified Linear Unit (ReLU)

Mit der ReLU als Aktivierungsfunktion gibt die Funktion positive Werte zurück, jedoch keine negativen Werte. Bei negativer Eingabe wird Null zurückgegeben.

Experten erklären, wie ReLU bei Interaktionseffekten mit Eingaben funktioniert und nichtlineare Ergebnisse berücksichtigt.

Im Allgemeinen arbeitet ReLU mit Prinzipien wie dem Gradientenabstieg, um ein Modell für eine funktionierende Aktivierungsfunktion in einem neuronalen Netzwerk bereitzustellen. Darüber hinaus verfeinern Ingenieure die algorithmische Arbeit von Programmen für maschinelles Lernen und entwickeln Schichten von Neuronen in ANNs, um die Konvergenz oder Lösung spezifischer Probleme zu unterstützen, mit denen sich die Technologien befassen.

Alternativen zu ReLU umfassen Sigmoid- und Tanh-Funktionen.