28.09.2013 Aufrufe

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

5.4.3.1 Variation der Lernrate über die Zeit<br />

Weiteres Stilmittel beim Training kann eine variable Lernrate sein: Eine große Lernrate<br />

lernt am Anfang gut, aber später nicht mehr genau, eine kleinere ist aufwändiger,<br />

lernt aber genauer. Also verringert man einmal oder mehrere Male die Lernrate um<br />

eine Größenordnung – während des Lernvorgangs.<br />

Ein beliebter Fehler (der obendrein noch auf den ersten Blick sehr elegant wirkt) ist,<br />

die Lernrate kontinuierlich sinken zu lassen: Hier kommt es sehr leicht vor, dass der<br />

Abfall der Lernrate größer ist als die Steigung eines Hügels der Fehlerfunktion, die<br />

wir gerade erklimmen – was zur Folge hat, dass wir an dieser Steigung einfach hängen<br />

bleiben. Lösung: Lieber wie beschrieben die Lernrate stufenweise verringern.<br />

5.4.3.2 Verschiedene Schichten – verschiedene Lernraten<br />

Je weiter man sich während des Lernvorganges von der Ausgabeschicht wegbewegt,<br />

um so langsamer lernt Backpropagation – es ist also eine gute Idee, für die Gewichtsschichten<br />

nahe der Eingabeschicht eine größere Lernrate zu nehmen als für diejenigen<br />

nahe der Ausgabeschicht. Der Unterschied kann hier ruhig bis zu einer Größenordnung<br />

betragen.<br />

5.5 Resilient Backpropagation ist eine Erweiterung von<br />

Backpropagation of Error<br />

Gerade haben wir zwei Backpropagation-spezifische Eigenschaften angesprochen, die<br />

hin und wieder zum Problem werden können (zusätzlich zu denjenigen, die Gradientenabstiege<br />

ohnehin schon mit sich bringen): Zum einen kann der Benutzer von Backpropagation<br />

eine schlechte Lernrate wählen, und zum anderen lernt Backpropagation<br />

immer langsamer, je weiter die Gewichte von der Ausgabeschicht entfernt sind. Aus<br />

diesem Grund haben Martin Riedmiller et al. Backpropagation weiterentwickelt,<br />

und ihre Variante Resilient Backpropagation (kurz: Rprop) getauft [RB93,Rie94].<br />

Ich möchte Backpropagation und Rprop hier gegenüberstellen, ohne ausdrücklich eine<br />

Variante als „besser“ zu deklarieren. Bevor wir uns nun wirklich mit Formeln auseinandersetzen,<br />

wollen wir die zwei primären Ideen hinter Rprop (und ihre Folgen) erst<br />

einmal umgangsprachlich dem schon bekannten Backpropagation gegenüberstellen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!