19.03.2014 Aufrufe

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Multi Layer Perzeptron<br />

Multi Layer Perzeptron<br />

Multi Layer Perzeptron<br />

Multi Layer Perzeptron<br />

Fehlergradient für w i lautet:<br />

F/ w i<br />

= (o-t) 2 /w i<br />

= ((w . y) - t) 2 /w i<br />

= 2 . (o-t) . '(w . y) . (w . y)/w i<br />

x 1 x 2 ...<br />

v 11 v 12<br />

y 1 y 2 y 3 ...<br />

w 2 w 3<br />

w 1 w n<br />

o<br />

x m<br />

v nm<br />

y n<br />

Fehlergradient für v ij lautet:<br />

F/v ij<br />

= F/y i<br />

.<br />

y i<br />

/v ij<br />

= F/y i<br />

.<br />

(v i.<br />

x)/v ij<br />

(Fehler von Neuron i)<br />

= F/y i<br />

.<br />

'(v i.<br />

x) . x j<br />

= F/o . o/y i<br />

.<br />

'(v i.<br />

x) . x j<br />

= F/o . (w . y)/y i<br />

.<br />

'(v i.<br />

x) . x j<br />

= F/o . '(w . y) . w i.<br />

'(v i.<br />

x) . x j<br />

x 1 x 2 ...<br />

v 11 v 12<br />

y 1 y 2 y 3 ...<br />

w 2 w 3<br />

w 1 w n<br />

= 2 . (o-t) . '(w . y)y i<br />

58<br />

o<br />

x m<br />

v nm<br />

y n<br />

Vorlesung Knowledge Discovery<br />

57<br />

Vorlesung Knowledge Discovery<br />

= 2 . (o-t) . '(w . y) . w i.<br />

'(v i.<br />

x) . x j<br />

Fehler bei<br />

der Ausgabe<br />

Gewicht<br />

Info von<br />

Zwischenschicht<br />

Input<br />

Info von Inputschicht<br />

Multi Layer Perzeptron<br />

Multi Layer Perzeptron<br />

Multi Layer Perzeptron<br />

Backpropagation Algorithmus<br />

• Die schichtweise Berechnung der Gradienten ist auch für<br />

mehr als zwei Schichten möglich<br />

• Fehler wird schichtenweise nach oben propagiert (Back-<br />

Propagation)<br />

• allgemein gilt für den Output-Fehler e eines Neurons j<br />

e j = F/x j<br />

• Gewichtsänderung<br />

• Wähle ein Muster x aus der Menge der Trainingsbeispiele D<br />

aus<br />

• präsentiere das Muster dem Netz und propagiere es<br />

• anhand der resultierenden Neuronenaktivität wird der Fehler<br />

F ermittelt<br />

• die Fehlerinformationen werden durch das Netz<br />

zurückpropagiert (Backpropagation)<br />

w ik = a . e .<br />

k ‘(a k ) . x i<br />

• die Gewichte zwischen den einzelnen Schichten werden so<br />

angepasst (w ik ), dass der mittlere Ausgabefehler für das<br />

Muster sinkt<br />

60<br />

Vorlesung Knowledge Discovery<br />

59<br />

Vorlesung Knowledge Discovery

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!