Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server
Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server
Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Menge Klasse 1 Klasse 2 Klasse 3 Klasse 4<br />
Testmenge 247 76 353 346<br />
Trainingsmenge 1028 405 2000 1346<br />
Tabelle 3.2: Anzahl der Test- und Trainingsbeispiele für den Vorhersagezeitraum 30 Minuten.<br />
Lernverfahren<br />
Zum Training der neuronalen Netze wurde der in Abschnitt 3.1.1 beschriebene Backpropagation-<br />
Algorithmus verwendet. Dazu muß gemäß Gleichung (3.6) die Lernschrittweite festgelegt werden.<br />
Da im hier verwendeten online-Verfahren die Gewichte nach jedem Trainingsbeispiel geändert<br />
werden, spielt es außerdem eine Rolle, wie die Trainingsbeispiele präsentiert werden.<br />
Als Beispiel wurde für den Vorhersagezeitraum 30 Minuten ein zweischichtiges Netz mit vollständiger<br />
Verbindung der Schichten betrachtet, wobei N = 60 Moden zur Repräsentation der Bilder verwendet<br />
wurden. Die Vorhersagefehler in Abhängigkeit von der Anzahl der Trainingsschritte sind<br />
für verschiedene Lernschrittweiten von η = 0.01 bis η = 0.1 in Abb. 3.10 dargestellt. Werden die<br />
Trainingsbeispiele bei jedem Trainingsschritt in der gleichen Reihenfolge präsentiert (siehe Abb.<br />
3.10, linkes Bild), werden für die größeren der betrachteten Werte von η die optimalen Gewichte<br />
nicht gefunden. Je kleiner die Lernschrittweite, desto besser werden die Ergebnisse, desto mehr<br />
Trainingsschritte sind aber auch erforderlich. Schnellere Konvergenz kann erreicht werden, wenn<br />
die Trainingsbeispiele bei jedem Trainingsschritt in zufällig wechselnder Reihenfolge präsentiert<br />
werden (siehe Abb. 3.10, rechtes Bild). Auch bei größeren Werten von η, bei denen das Verfahren<br />
vergleichsweise schnell konvergiert, wird die gleiche Vorhersagequalität erreicht, wie für kleinere<br />
Werte von η. Wegen der wechselnden Reihenfolge der Beispiele, an die die Gewichte angepaßt<br />
werden, ergeben sich, auch nach Konvergenz, Schwankungen in den Kurven. Diese sind um so<br />
größer, je größer die Lernschrittweite ist.<br />
Es wurde weiterhin versucht, das Lernverfahren durch Addition eines Momentum-Terms zu verbessern<br />
(siehe [Zell 1999]). Da dies die Ergebnisse jedoch verschlechtert, wurde dieses Verfahren<br />
im Weiteren nicht angewandt.<br />
Für die Parameteroptimierung ist, wegen der Vielzahl der Trainingsläufe, die durchgeführt werden<br />
müssen, schnelle Konvergenz ein wichtiger Faktor. Deswegen werden für die folgenden Betrachtungen<br />
die Beispiele in zufällig wechselnder Reihenfolge präsentiert. Soweit nicht anders<br />
angegeben, ist die Lernschrittweite auf η = 0.1 gesetzt, und das Training wird nach 4000 Trainingschritten<br />
beendet. Für das Training der Netze nach Festlegung der optimalen Parameter wurden<br />
die Trainingsbeispiele, bei einem genügend kleinen Wert von η, für alle Trainingsschritte in der<br />
gleichen Reihenfolge berücksichtigt, da die Ergebnisse hier stabiler sind.<br />
Länge der Trainingsmenge<br />
Das neuronale Netz soll anhand der Trainingsbeispiele den Zusammenhang zwischen Ein- und<br />
Ausgabe lernen. Der Zusammenhang zwischen Ein- und Ausgabe ist dabei nicht völlig determi-<br />
38