Künstliche Neuronale Netze
Künstliche Neuronale Netze
Künstliche Neuronale Netze
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
12.05.2009<br />
Back-Propagation Lernen<br />
• Lernen bei Perzeptrons einfach<br />
• Nur ein Gewicht zwischen Input<br />
und Output<br />
• Wenn Fehler vorhanden<br />
(Target, Output), t) dann werden<br />
die Gewichte verändert.<br />
• Bei Multilayer Netzwerken<br />
schwieriger<br />
• Viele Gewichte zwischen jedem<br />
Input und Output vorhanden<br />
• Back-Propagation Algorithmus<br />
• Verteilt die Gewichtsveränderungen<br />
‘vernünftig’<br />
• Auch hier wird versucht, den<br />
Fehler zwischen Ziel und<br />
aktuellem Output zu minimieren<br />
Multilayer Netzwerke<br />
• Outputschicht<br />
• Gewichtsveränderung ähnlich<br />
der des Perzeptrons. Zwei<br />
Unterschiede gibt es:<br />
• Aktivierung der<br />
Hiddenneuronen statt<br />
Inputneuronen.<br />
• Regel enthält einen Term für<br />
den Gradienten der<br />
Aktivierungsfunktion. Wenn<br />
Err i = (T - O) der Fehler des<br />
Outputneurons ist, dann ist die<br />
Gewichtsveränderung zwischen<br />
Neuron i und j<br />
w = w + α × a × Err × g´(<br />
in )<br />
j, i j,<br />
i<br />
j i<br />
i<br />
31<br />
Back-Propagation Lernen<br />
W j,i = W j,i + α ×a j × Err i × g’(in i )<br />
• g’(in g( i i) ist die Ableitung der Aktivierungsfunktion g. Wir defineren einen neuen<br />
Fehlerterm Δ i , der für Outputneuronen als Δ i = Err i g’(in i ) definiert ist.<br />
W j,i = W j,i + α ×a j ×Δ i<br />
• Für die Veränderungen der Gewichte zwischen zwischen den Hidden- und<br />
den Inputneuronen wird Error-Back-Propagation eingesetzt. Die Idee ist, daß<br />
das Hiddenneuron j für einen Teil des Δ i -Fehlers eines jeden Outputneurons,<br />
mit dem es verbunden ist, verantwortlich ist. Also werden die Δ i -Werte<br />
abhängig von der Stärke der Verbindung aufgeteilt und zu den Δ j -Werten für<br />
die Hiddenschicht zurückpropagiert.<br />
Δ j = g’(in j ) ∑ i W j,i Δ i<br />
Multilayer Netzwerke<br />
32<br />
16