Recurrent Neural Networks Flashcards
(9 cards)
Welche Rückkopplungen (Feedback Loops) bei Recurrent Neural Networks?
Rückkoplung (oder Rekursion) gibt es in verschiedenen Arten:
- direkte Rückkopplung (blau)
- indirekte Rückkopplung (grün)
- seitliche Rückkopplung (rot)
- vollständige Verbindung (gelb)
Welche Anwendung haben RNNs?
Bei Problemstellungen die das Verarbeiten von Sequenzen erfordern (Rekursion)
- kann Vorhersagen machen
- hat ein Gedächtnis
Bsp.
Handschrifterkennung, Spracherkennung
Simple Recurrent Network
Für jede Schicht existieren Kontext-Neuronen (Context Units - CU)
Elman Netz
-Ist ein Simple Recurrent Network
-Zusätzliche Kontextschicht
-> Kann eine einfache zeitliche Abhängigkeit erfassen
ABER weniger geeignet als LSTMs
Jordan Netz vs Elman Netz
-elman Rückkopplung von Hidden zu Kontextschicht
jordan Output zu Kontextschicht
-Elman-Netz besser für interne Zustandsänderungen, Jordan-Netz besser für direkte Abhängigkeiten vom Output.
Backpropagation Through Time
Erweiterung BP-Algo.
Fehler über mehrere Zeitschritte hinweg zu berechnen und die Gewichte entsprechend anzupassen
Welches Problem behandelt Long-Short Term Memory (LSTM)
Für RNNs
das Problem der verschwindenden Gradienten zu lösen und langfristige Abhängigkeiten in Sequenzdaten zu lernen
Verschwindende Gradienten (Vanishing Gradient Problem)
Gradienten während des Backpropagation-Trainings immer kleiner
frühe Neuronen (z. B. aus früheren Zeitschritten in RNNs) kaum noch lernen
Warum?
Ableitungen der Akt.F. oft kleiner als 1
Hopfield-Netze
RNNs die als assoziativer Speicher dienen
- Speichern eines Musters
- verrauscht Eingabe rekonstruieren
Mustererkennung und Speicherprobleme