Long Short-Term Memory und rekursive Netze
Rekurrente neuronale Netze können zur Darstellung von Funktionen verwendet werden, die Folgen reellwertiger Vektoren auf einen reellwertigen Vektor abbilden.Sind weit auseinander liegende Komponenten der Folge für einen Wert im Bildvektor zuständig, so liegen Langzeitabhängigkeiten vor. Hier versagen viele Lernalgorithmen für rekurrente Netze. Long Short-Term Memory (LSTM) bietet hierfür eine Abhilfe und trainiert Netze für Probleme, die bisher von keinem anderen Algorithmus in so allgemeiner Form adaptiert wurden. In dieser Arbeit wird LSTM auf rekursive Netze übertragen, also auf Netze, die in Baumstrukturen angeordnete Vektoren auf einen Vektor abbilden. Anhand eines lauffähigen Systems, das auch mit unendlichen, gerichteten, geordneten, azyklischen Graphen mit gewisser Form arbeitet, wird gezeigt, dass auch rekursives LSTM gut funktioniert, die Wahl der konkreten Architektur jedoch schwierig sein kann.
Preview
Cite
Access Statistic


