Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Definition 7.3 (Elmannetz). Ein Elmannetz ist ein MLP, welches pro informationsverarbeitendem<br />
Neuron ein Kontextneuron besitzt. Die Menge der Kontextneurone<br />
nennen wir K. Pro informationsverarbeitender Neuronenschicht existiert also eine<br />
Kontextschicht mit exakt gleichvielen Kontextneuronen. Jedes Neuron besitzt eine gewichtete<br />
Verbindung zu exakt einem Kontextneuron, während die Kontextschicht in<br />
Richtung ihrer Ursprungsschicht vollverknüpft ist.<br />
Interessant ist nun, das Training rückgekoppelter <strong>Netze</strong> zu betrachten, da z.B. das<br />
normale Backpropagation of Error nicht auf rückgekoppelten <strong>Netze</strong>n funktionieren<br />
kann. Dieser Teil ist wieder etwas informeller gehalten, so dass ich dort keine formalen<br />
Definitionen verwenden werde.<br />
7.3 Training rückgekoppelter <strong>Netze</strong><br />
Um das Training so anschaulich wie möglich darzustellen, müssen wir einige Vereinfachungen<br />
verabreden, die das Lernprinzip an sich aber nicht beeinträchtigen.<br />
Gehen wir für das Training also davon aus, dass die Kontextneurone zu Anfang mit<br />
einer Eingabe initiiert werden, da sie sonst eine undefinierte Eingabe haben (das ist<br />
keine Vereinfachung, sondern wird tatsächlich gemacht).<br />
Weiterhin verwenden wir für unsere Trainingsgehversuche ein Jordannetz, welches keine<br />
versteckte Neuronenschicht hat, so dass die Outputneurone direkt wieder Input liefern.<br />
Dies ist eine starke Vereinfachung, da in der Regel kompliziertere <strong>Netze</strong> verwendet<br />
werden. Dies verändert soweit aber nichts am Lernprinzip.<br />
7.3.1 Unfolding in Time<br />
Erinnern wir uns an unser eigentliches Lernverfahren für MLPs, Backpropagation of<br />
Error, das die Deltawerte rückwärts propagiert. Im Falle rückgekoppelter <strong>Netze</strong> würden<br />
die Deltawerte also zyklisch immer wieder rückwärts durch das Netz propagiert, was<br />
das Training schwieriger macht. Zum einen kann man nicht wissen, welche der vielen<br />
generierten Deltawerte für ein Gewicht nun für das Training gewählt werden sollen,<br />
also sinnvoll sind, zum anderen können wir auch nicht unbedingt wissen, wann das<br />
lernen nun beendet werden soll. Der Vorteil von rückgekoppelten <strong>Netze</strong>n ist eine große<br />
Zustandsdynamik innerhalb des Netzbetriebs – der Nachteil rückgekoppelter <strong>Netze</strong> ist,<br />
dass diese Dynamik auch dem Training zuteil wird und dieses somit erschwert.