28.09.2013 Aufrufe

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

⊲ Lernrate η,<br />

⊲ Ausgabe des Vorgängerneurons op,k,<br />

⊲ Gradient der Aktivierungsfunktion an der Stelle der <strong>Netze</strong>ingabe des Nachfolgerneurons<br />

f ′ act(netp,h),<br />

⊲ sowie, und hier liegt der Unterschied, aus der gewichteten Summe der Gewichtsveränderungen<br />

zu allen Neuronen, die h nachfolgen, <br />

l∈L (δp,l · wh,l)<br />

geändert.<br />

Definition 5.8 (Backpropagation). Fassen wir die Formeln 5.38 auf der linken Seite<br />

und 5.39 auf der linken Seite zusammen, so erhalten wir folgende Gesamtformel für<br />

Backpropagation (die Bezeichner p werden der Übersichtlichkeit halber weggelassen):<br />

∆wk,h = ηokδh <br />

mit<br />

f<br />

δh =<br />

′ act(neth) · (th − yh) (h außen)<br />

f ′ act(neth) · <br />

l∈L (δlwh,l) (h innen)<br />

SNIPE: Eine online-Variante von Backpropagation ist in der Methode<br />

trainBackpropagationOfError der Klasse NeuralNetwork implementiert.<br />

(5.40)<br />

Offensichtlich ist also, dass Backpropagation zunächst die hinterste Gewichtsschicht<br />

direkt mit dem Teaching Input bearbeitet und sich anschließend ebenenweise unter<br />

Berücksichtigung der jeweils vorhergehenden Gewichtsänderungen weiter nach vorn arbeitet.<br />

Der Teaching Input hinterlässt also Spuren in sämtlichen Gewichtsschichten.<br />

Ich beschreibe hier gerade den ersten Teil (Delta-Regel) und zweiten Teil von Backpropagation<br />

(Verallgemeinerte Delta-Regel auf mehr Schichten) in einem Zug, was<br />

vielleicht der Sache, nicht jedoch der Forschung daran gerecht wird. Der erste Teil<br />

ist offensichtlich, das werden wir gleich im Rahmen einer mathematischen Spielerei<br />

sehen. Zwischen dem ersten und zweiten, rekursiven Teil liegen jedoch Jahrzehnte an<br />

Entwicklungszeit und -arbeit, denn wie bei vielen bahnbrechenden Erfindungen merkte<br />

man auch dieser erst nach der Entwicklung an, wie einleuchtend sie eigentlich ist.<br />

5.4.2 Der mathematische Rückweg: Reduktion von Backpropagation auf<br />

Delta-Regel<br />

Wie oben erläutert, ist die Delta-Regel ein Spezialfall von Backpropagation für einstufige<br />

Perceptrons und lineare Aktivierungsfunktionen – diesen Umstand möchte ich<br />

hier kurz näher erläutern und die Delta-Regel aus Backpropagation entwickeln, um

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!