28.09.2013 Aufrufe

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Err<br />

b)<br />

c)<br />

Globales Minimum<br />

Abbildung 4.4: Mögliche Fehler während eines Gradientenabstiegs: a) Finden schlechter Minima,<br />

b) Quasi-Stillstand bei kleinem Gradienten, c) Oszillation in Schluchten, d) Verlassen guter Minima.<br />

4.5.1 Gradientenverfahren bringen verschiedene Probleme mit sich<br />

Wie in Abschnitt 4.5 angedeutet, ist der Gradientenabstieg (und damit Backpropagation)<br />

erfolgversprechend, jedoch nicht fehlerresistent, wobei eines der Probleme ist,<br />

dass man nicht immer anhand des Ergebnisses ersehen kann, ob ein Fehler passiert ist.<br />

4.5.1.1 Häufig konvergieren Gradientenverfahren nur gegen suboptimale Minima<br />

Jedes Gradientenabstiegsverfahren kann zum Beispiel in einem lokalen Minimum hängen<br />

bleiben (ein Beispiel findet sich in Teil a der Abb. 4.4) – dieses Problem wächst mit<br />

der Größe der Fehlerfläche an und hierfür gibt es keine allgemeingültige Lösung. In der<br />

Realität kann man nicht wissen, ob man das optimale Minimum gefunden hat – also<br />

gibt man sich zufrieden, sobald man ein Minimum ausreichender Qualität gefunden<br />

hat.<br />

a)<br />

d)<br />

W

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!