Tiefe Q-Netzwerke

Definition - Was bedeutet Deep Q-Networks?

Deep Q Networks (DQN) sind neuronale Netze (und / oder verwandte Tools), die Deep Q Learning nutzen, um Modelle wie die Simulation eines intelligenten Videospiels bereitzustellen. Deep Q Networks ist kein spezifischer Name für einen bestimmten Aufbau eines neuronalen Netzwerks, sondern kann aus Faltungs-Neuronalen Netzen und anderen Strukturen bestehen, die bestimmte Methoden verwenden, um verschiedene Prozesse kennenzulernen.

Technische.me erklärt Deep Q-Networks

Die Methode des Deep-Q-Lernens verwendet normalerweise eine sogenannte allgemeine Richtlinieniteration, die als Verbindung von Richtlinienbewertung und Richtlinieniteration beschrieben wird, um Richtlinien aus hochdimensionalen sensorischen Eingaben zu lernen.

Beispielsweise verwendet ein gängiger Typ eines Deep-Q-Netzwerks, der in technischen Veröffentlichungen wie Medium behandelt wird, sensorische Eingaben von Atari 2600-Videospielen, um die Ergebnisse zu modellieren. Dies geschieht auf einer sehr grundlegenden Ebene, indem Samples gesammelt, gespeichert und für die Wiedergabe von Erfahrungen verwendet werden, um das Q-Netzwerk zu aktualisieren.

Im Allgemeinen trainieren Deep-Q-Netzwerke auf Eingaben, die aktive Spieler in Bereichen oder anderen erfahrenen Stichproben darstellen, und lernen, diese Daten mit den gewünschten Ausgaben abzugleichen. Dies ist eine leistungsstarke Methode zur Entwicklung künstlicher Intelligenz, mit der Spiele wie Schach auf hohem Niveau gespielt oder andere kognitive Aktivitäten auf hohem Niveau ausgeführt werden können. Das Beispiel für das Spielen von Atari- oder Schachvideospielen ist auch ein gutes Beispiel dafür, wie KI das verwendet Arten von Schnittstellen, die traditionell von menschlichen Agenten verwendet wurden.

Mit anderen Worten, beim Deep-Q-Lernen wird der KI-Spieler beim Lernen, um die gewünschten Ergebnisse zu erzielen, eher wie ein menschlicher Spieler.