28.09.2013 Aufrufe

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Definition 7.3 (Elmannetz). Ein Elmannetz ist ein MLP, welches pro informationsverarbeitendem<br />

Neuron ein Kontextneuron besitzt. Die Menge der Kontextneurone<br />

nennen wir K. Pro informationsverarbeitender Neuronenschicht existiert also eine<br />

Kontextschicht mit exakt gleichvielen Kontextneuronen. Jedes Neuron besitzt eine gewichtete<br />

Verbindung zu exakt einem Kontextneuron, während die Kontextschicht in<br />

Richtung ihrer Ursprungsschicht vollverknüpft ist.<br />

Interessant ist nun, das Training rückgekoppelter <strong>Netze</strong> zu betrachten, da z.B. das<br />

normale Backpropagation of Error nicht auf rückgekoppelten <strong>Netze</strong>n funktionieren<br />

kann. Dieser Teil ist wieder etwas informeller gehalten, so dass ich dort keine formalen<br />

Definitionen verwenden werde.<br />

7.3 Training rückgekoppelter <strong>Netze</strong><br />

Um das Training so anschaulich wie möglich darzustellen, müssen wir einige Vereinfachungen<br />

verabreden, die das Lernprinzip an sich aber nicht beeinträchtigen.<br />

Gehen wir für das Training also davon aus, dass die Kontextneurone zu Anfang mit<br />

einer Eingabe initiiert werden, da sie sonst eine undefinierte Eingabe haben (das ist<br />

keine Vereinfachung, sondern wird tatsächlich gemacht).<br />

Weiterhin verwenden wir für unsere Trainingsgehversuche ein Jordannetz, welches keine<br />

versteckte Neuronenschicht hat, so dass die Outputneurone direkt wieder Input liefern.<br />

Dies ist eine starke Vereinfachung, da in der Regel kompliziertere <strong>Netze</strong> verwendet<br />

werden. Dies verändert soweit aber nichts am Lernprinzip.<br />

7.3.1 Unfolding in Time<br />

Erinnern wir uns an unser eigentliches Lernverfahren für MLPs, Backpropagation of<br />

Error, das die Deltawerte rückwärts propagiert. Im Falle rückgekoppelter <strong>Netze</strong> würden<br />

die Deltawerte also zyklisch immer wieder rückwärts durch das Netz propagiert, was<br />

das Training schwieriger macht. Zum einen kann man nicht wissen, welche der vielen<br />

generierten Deltawerte für ein Gewicht nun für das Training gewählt werden sollen,<br />

also sinnvoll sind, zum anderen können wir auch nicht unbedingt wissen, wann das<br />

lernen nun beendet werden soll. Der Vorteil von rückgekoppelten <strong>Netze</strong>n ist eine große<br />

Zustandsdynamik innerhalb des Netzbetriebs – der Nachteil rückgekoppelter <strong>Netze</strong> ist,<br />

dass diese Dynamik auch dem Training zuteil wird und dieses somit erschwert.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!