28.02.2014 Aufrufe

Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server

Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server

Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Menge Klasse 1 Klasse 2 Klasse 3 Klasse 4<br />

Testmenge 247 76 353 346<br />

Trainingsmenge 1028 405 2000 1346<br />

Tabelle 3.2: Anzahl der Test- und Trainingsbeispiele für den Vorhersagezeitraum 30 Minuten.<br />

Lernverfahren<br />

Zum Training der neuronalen Netze wurde der in Abschnitt 3.1.1 beschriebene Backpropagation-<br />

Algorithmus verwendet. Dazu muß gemäß Gleichung (3.6) die Lernschrittweite festgelegt werden.<br />

Da im hier verwendeten online-Verfahren die Gewichte nach jedem Trainingsbeispiel geändert<br />

werden, spielt es außerdem eine Rolle, wie die Trainingsbeispiele präsentiert werden.<br />

Als Beispiel wurde für den Vorhersagezeitraum 30 Minuten ein zweischichtiges Netz mit vollständiger<br />

Verbindung der Schichten betrachtet, wobei N = 60 Moden zur Repräsentation der Bilder verwendet<br />

wurden. Die Vorhersagefehler in Abhängigkeit von der Anzahl der Trainingsschritte sind<br />

für verschiedene Lernschrittweiten von η = 0.01 bis η = 0.1 in Abb. 3.10 dargestellt. Werden die<br />

Trainingsbeispiele bei jedem Trainingsschritt in der gleichen Reihenfolge präsentiert (siehe Abb.<br />

3.10, linkes Bild), werden für die größeren der betrachteten Werte von η die optimalen Gewichte<br />

nicht gefunden. Je kleiner die Lernschrittweite, desto besser werden die Ergebnisse, desto mehr<br />

Trainingsschritte sind aber auch erforderlich. Schnellere Konvergenz kann erreicht werden, wenn<br />

die Trainingsbeispiele bei jedem Trainingsschritt in zufällig wechselnder Reihenfolge präsentiert<br />

werden (siehe Abb. 3.10, rechtes Bild). Auch bei größeren Werten von η, bei denen das Verfahren<br />

vergleichsweise schnell konvergiert, wird die gleiche Vorhersagequalität erreicht, wie für kleinere<br />

Werte von η. Wegen der wechselnden Reihenfolge der Beispiele, an die die Gewichte angepaßt<br />

werden, ergeben sich, auch nach Konvergenz, Schwankungen in den Kurven. Diese sind um so<br />

größer, je größer die Lernschrittweite ist.<br />

Es wurde weiterhin versucht, das Lernverfahren durch Addition eines Momentum-Terms zu verbessern<br />

(siehe [Zell 1999]). Da dies die Ergebnisse jedoch verschlechtert, wurde dieses Verfahren<br />

im Weiteren nicht angewandt.<br />

Für die Parameteroptimierung ist, wegen der Vielzahl der Trainingsläufe, die durchgeführt werden<br />

müssen, schnelle Konvergenz ein wichtiger Faktor. Deswegen werden für die folgenden Betrachtungen<br />

die Beispiele in zufällig wechselnder Reihenfolge präsentiert. Soweit nicht anders<br />

angegeben, ist die Lernschrittweite auf η = 0.1 gesetzt, und das Training wird nach 4000 Trainingschritten<br />

beendet. Für das Training der Netze nach Festlegung der optimalen Parameter wurden<br />

die Trainingsbeispiele, bei einem genügend kleinen Wert von η, für alle Trainingsschritte in der<br />

gleichen Reihenfolge berücksichtigt, da die Ergebnisse hier stabiler sind.<br />

Länge der Trainingsmenge<br />

Das neuronale Netz soll anhand der Trainingsbeispiele den Zusammenhang zwischen Ein- und<br />

Ausgabe lernen. Der Zusammenhang zwischen Ein- und Ausgabe ist dabei nicht völlig determi-<br />

38

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!