30.12.2013 Aufrufe

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

2.5 Backpropagation-Netze 45<br />

(ii) In <strong>der</strong> zweiten Phase werden die partiellen Fehler aller Neuronen ermittelt. Die Fehler <strong>der</strong><br />

Ausgabeneuronen werden dabei durch Vergleich mit dem Ausgabemuster bestimmt (2.5.8 für<br />

v ∈ U n ). Diese Fehler werden anschließend über die zur Ausgabeschicht führenden Kanten<br />

– gewichtet mit <strong>der</strong>en Kantengewichten – zur vorangegangenen inneren Schicht zurückgeleitet.<br />

Die Neuronen dieser Schicht können nun anhand <strong>der</strong> Fehlersignale aus <strong>der</strong> nachfolgenden<br />

Schicht ihre eigenen partiellen Fehler ermitteln (2.5.8 für v ∈ U j , 2 ≤ j < n). Der Vorgang<br />

<strong>der</strong> Weiterleitung <strong>der</strong> Fehler an die vorangegangene Schicht (Backpropagation) <strong>und</strong> die Bestimmung<br />

<strong>der</strong> partiellen Fehler <strong>der</strong> Neuronen dieser Schicht wie<strong>der</strong>holt sich nun, bis alle inneren<br />

Schichten bearbeitet wurden. Anschließend werden für alle Neuronen die Gewichtsän<strong>der</strong>ungen<br />

<strong>der</strong> eingehenden Kanten in Abhängigkeit von ihrem partiellen Fehler <strong>und</strong> ihrer aktuellen Aktivierung<br />

berechnet (2.5.7).<br />

(iii) In <strong>der</strong> dritten Phase werden schließlich die Gewichte aller Kanten entsprechend <strong>der</strong> ermittelten<br />

Än<strong>der</strong>ungen angepasst.<br />

Diese Schritte werden für alle Lernmuster wie<strong>der</strong>holt durchgeführt, bis eine vorgegebene Abbruchbedingung<br />

erfüllt ist. Dabei werden dem Verfahren die Muster entwe<strong>der</strong> in fester o<strong>der</strong> zufälliger Reihenfolge<br />

präsentiert. Hierbei ist anzumerken, dass diese Form <strong>der</strong> Gewichtsanpassung nicht exakt den in<br />

Abschnitt 2.5.3.1 beschriebenen Gradientenabstieg realisiert. Dies kann jedoch leicht durch eine häufig<br />

angewandte Modifikation des Verfahrens erfolgen. Dazu werden die Gewichte nicht jeweils nach<br />

<strong>der</strong> Propagierung eines einzelnes Lernmusters, son<strong>der</strong>n erst nach <strong>der</strong> Verarbeitung aller Muster angepasst.<br />

Die Än<strong>der</strong>ung eines Gewichtes W (u, v) ergibt sich dabei durch Aufsummieren <strong>der</strong> einzelnen<br />

Gewichtsän<strong>der</strong>ungen über alle Lernmuster:<br />

∆W (u, v) = ∑ p∈ ˆL<br />

∆ p W (u, v). (2.5.9)<br />

Die Schritte (i) <strong>und</strong> (ii) werden also zunächst für alle Lernmuster ausgeführt <strong>und</strong> die ermittelten Gewichtsän<strong>der</strong>ungen<br />

<strong>auf</strong>summiert, erst danach erfolgt die Aktualisierung <strong>der</strong> Gewichte in Schritt (iii).<br />

Der Vorteil dieser Vorgehensweise liegt darin, dass Än<strong>der</strong>ungen, die durch die Verarbeitung eines<br />

Lernmusters hervorgerufen wurden, nicht durch nachfolgende Lernmuster rückgängig gemacht werden.<br />

Auch die Berechnung <strong>der</strong> Gewichtsän<strong>der</strong>ung erfolgt häufig in einer abgewandelten Form (Rumelhart<br />

u. a. 1986, Nauck u. a. 1996, Zell 1997): Wurde die vergangene Än<strong>der</strong>ung ∆ t pW (u, v) eines Gewichtes<br />

W (u, v) zum Zeitpunkt t berechnet, dann ergibt sich die aktuelle Gewichtsän<strong>der</strong>ung ∆ t+1<br />

p W (u, v)<br />

entsprechend<br />

∆ t+1<br />

p<br />

W (u, v) := σδ v<br />

(p) a (p)<br />

u + β∆ t pW (u, v) (2.5.10)<br />

bzw. für den Fall <strong>der</strong> für alle Muster einheitlichen Anpassung (2.5.9)<br />

∆ t+1 W (u, v) := ∑ p∈ ˆL<br />

σδ v<br />

(p) a (p)<br />

u + β∆ t W (u, v). (2.5.11)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!