03.11.2013 Aufrufe

Künstliche Neuronale Netze

Künstliche Neuronale Netze

Künstliche Neuronale Netze

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

12.05.2009<br />

Back-Propagation Lernen<br />

• Lernen bei Perzeptrons einfach<br />

• Nur ein Gewicht zwischen Input<br />

und Output<br />

• Wenn Fehler vorhanden<br />

(Target, Output), t) dann werden<br />

die Gewichte verändert.<br />

• Bei Multilayer Netzwerken<br />

schwieriger<br />

• Viele Gewichte zwischen jedem<br />

Input und Output vorhanden<br />

• Back-Propagation Algorithmus<br />

• Verteilt die Gewichtsveränderungen<br />

‘vernünftig’<br />

• Auch hier wird versucht, den<br />

Fehler zwischen Ziel und<br />

aktuellem Output zu minimieren<br />

Multilayer Netzwerke<br />

• Outputschicht<br />

• Gewichtsveränderung ähnlich<br />

der des Perzeptrons. Zwei<br />

Unterschiede gibt es:<br />

• Aktivierung der<br />

Hiddenneuronen statt<br />

Inputneuronen.<br />

• Regel enthält einen Term für<br />

den Gradienten der<br />

Aktivierungsfunktion. Wenn<br />

Err i = (T - O) der Fehler des<br />

Outputneurons ist, dann ist die<br />

Gewichtsveränderung zwischen<br />

Neuron i und j<br />

w = w + α × a × Err × g´(<br />

in )<br />

j, i j,<br />

i<br />

j i<br />

i<br />

31<br />

Back-Propagation Lernen<br />

W j,i = W j,i + α ×a j × Err i × g’(in i )<br />

• g’(in g( i i) ist die Ableitung der Aktivierungsfunktion g. Wir defineren einen neuen<br />

Fehlerterm Δ i , der für Outputneuronen als Δ i = Err i g’(in i ) definiert ist.<br />

W j,i = W j,i + α ×a j ×Δ i<br />

• Für die Veränderungen der Gewichte zwischen zwischen den Hidden- und<br />

den Inputneuronen wird Error-Back-Propagation eingesetzt. Die Idee ist, daß<br />

das Hiddenneuron j für einen Teil des Δ i -Fehlers eines jeden Outputneurons,<br />

mit dem es verbunden ist, verantwortlich ist. Also werden die Δ i -Werte<br />

abhängig von der Stärke der Verbindung aufgeteilt und zu den Δ j -Werten für<br />

die Hiddenschicht zurückpropagiert.<br />

Δ j = g’(in j ) ∑ i W j,i Δ i<br />

Multilayer Netzwerke<br />

32<br />

16

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!