30.12.2013 Aufrufe

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

40 Problemanalyse <strong>und</strong> Lösungsentwicklung<br />

4. O ordnet jedem Neuron u ∈ U eine Ausgabefunktion O u : IR → IR zur Berechnung <strong>der</strong><br />

Ausgabe o u zu, so dass gilt:<br />

o u = O u (a u ) = a u .<br />

5. NET ordnet jedem Neuron u ∈ U i (2 ≤ i ≤ n) eine Funktion<br />

NET u : (IR × IR) U i−1<br />

→ IR<br />

zu, die die Netzeingabe net u wie folgt berechnet:<br />

net u =<br />

∑<br />

a v W (v, u).<br />

v∈U i−1<br />

6. ex : U 1 → IR ordnet je<strong>der</strong> Eingabeeinheit u ∈ U 1 eine externe Eingabe zu.<br />

2.5.2 Dynamische Eigenschaften<br />

Die Ein- <strong>und</strong> Ausgabe von Daten erfolgt bei Backpropagation-Netzen entsprechend den Ausführungen<br />

in Abschnitt 2.4.2. Da hier nur Kanten zwischen Neuronen benachbarter Schichten existieren,<br />

reicht es aus, die Aktivierungen schichtweise zu aktualisieren. Zunächst werden dazu die Aktivierungen<br />

<strong>der</strong> Eingabeneuronen mit externen Eingaben initialisiert. Anschließend werden die Aktivierungen<br />

<strong>der</strong> Neuronen <strong>der</strong> zweiten Schicht berechnet <strong>und</strong> so fort, bis die Berechnung für alle Neuronen abgeschlossen<br />

ist. Auf diese Weise wird sichergestellt, dass vor <strong>der</strong> Berechnung <strong>der</strong> Aktivierung eines<br />

Neurons sämtliche Eingangssignale bereits aktualisiert wurden. Die Neuronen innerhalb einer Schicht<br />

können dabei in beliebiger Reihenfolge, insbeson<strong>der</strong>e parallel, abgearbeitet werden.<br />

2.5.3 Das Backpropagation-Lernverfahren<br />

Das Backpropagation-Verfahren (BP-Verfahren, (Rumelhart u. a. 1986)) ist ein Lernverfahren, mit<br />

dem überwachte, schwere Lern<strong>auf</strong>gaben gelöst werden können, die Netzwerkstruktur wird durch das<br />

Verfahren nicht verän<strong>der</strong>t (vgl. Abbildung 2.6). Eingabe für dieses Lernverfahren ist eine überwachte<br />

Lern<strong>auf</strong>gabe, die aus diesem Gr<strong>und</strong> zunächst etwas genauer definiert wird.<br />

Definition 2.5.2 (überwachte Lern<strong>auf</strong>gabe)<br />

Gegeben sei ein Backpropagation-Netz N = (U, W, A, O, NET , ex) mit den Eingabeneuronen U 1 =<br />

{u 1 , . . . , u k } <strong>und</strong> den Ausgabeneuronen U n = {v 1 , . . . , v l }. Es seien weiterhin i = (i 1 , . . . , i k ) ∈ IR k<br />

ein Eingabevektor <strong>und</strong> t = (t 1 , . . . , t l ) ∈ IR l ein Ausgabevektor, <strong>der</strong> die Sollausgabe des Netzes bei<br />

Eingabe von i darstellt.<br />

Das Paar (i, t) wird dann als Lernmuster für N bezeichnet, i wird dabei als Eingabemuster, t als

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!