30.12.2013 Aufrufe

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

Darstellung und Analyse hydrologischer Topologien auf der Basis ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.4 Künstliche neuronale Netze 37<br />

2.4.2 Dynamische Eigenschaften<br />

Die Eingabe für ein neuronales Netz (U, W, A, O, NET , ex) mit den Eingabeneuronen {u 1 , . . . , u k } ⊆<br />

U besteht aus einem Eingabevektor (x 1 , . . . , x k ) ∈ IR k , wobei jedem Eingabeneuron das korrespondierende<br />

Element des Vektors als externe Eingabe zugewiesen wird:<br />

∀i ∈ {1, . . . , k} : ex(u i ) = x i .<br />

Anschließend können die Aktivierungen aller Neuronen des Netzes berechnet werden. Um sicherzustellen,<br />

dass zum Zeitpunkt <strong>der</strong> Berechnung <strong>der</strong> Aktivierung eines jeden Neurons die Signale an<br />

eingehenden Kanten bereits aktualisiert wurden, werden die Neuronen in Feedforward-Netzen in einer<br />

festgelegten Reihenfolge besucht. Nachdem entsprechend dieser Reihenfolge alle Aktivierungen<br />

aktualisiert wurden, repräsentieren die Ausgaben <strong>der</strong> Ausgabeneuronen {v 1 , . . . , v l } ⊆ U den Ausgabevektor<br />

(y 1 , . . . , y l ) des Netzes (Abbildung 2.4):<br />

∀i ∈ {1, . . . , l} : y i = O vi (a vi ).<br />

Die Signalweiterleitung in neuronalen Netzen von <strong>der</strong> Eingabeschicht bis zur Ausgabeschicht wird<br />

als Propagierung bezeichnet.<br />

2.4.3 Lernen<br />

Für viele neuronale Netze existieren so genannte Lernverfahren, mit Hilfe <strong>der</strong>er die Gewichte im Netz<br />

gezielt angepasst werden können. Das Ziel dieser Anpassung ist es, die Gewichte so zu verän<strong>der</strong>n,<br />

dass das Netz <strong>auf</strong> bestimmte Eingaben mit bestimmten Ausgaben reagiert <strong>und</strong> <strong>auf</strong> diese Weise auch<br />

<strong>auf</strong> neue, unbekannte Eingaben mit einer geeigneten Reaktion antwortet. Die Eingabe für Lernverfahren<br />

besteht üblicherweise aus einer Lern<strong>auf</strong>gabe, welche aus einer endlichen Menge von Trainingsmustern<br />

besteht. Jedes dieser Trainingsmuster besteht aus einem Eingabevektor (i 1 , . . . , i k ) <strong>und</strong>, im<br />

Falle überwachter Lern<strong>auf</strong>gaben, einem zugehörigen Ausgabevektor (o 1 , . . . , o l ). Dieser Ausgabevektor<br />

gibt die korrekte Anwort des neuronalen Netzes bei Eingabe des assoziierten Eingabevektors<br />

an. Bei unüberwachten Lern<strong>auf</strong>gaben ist die korrekte Ausgabe des Netzes <strong>und</strong>efiniert.<br />

Überwachte Lern<strong>auf</strong>gaben lassen sich weiter unterteilen in einfache <strong>und</strong> schwere Lern<strong>auf</strong>gaben. Bei<br />

einfachen Lern<strong>auf</strong>gaben bestehen die Trainingsmuster aus Eingabevektoren <strong>und</strong> dazugehörigen korrekten<br />

Aktivierungen für alle Neuronen. Im Fall von schweren Lern<strong>auf</strong>gaben sind innere Neuronen<br />

vorhanden, jedoch nur die korrekten Aktivierungen <strong>der</strong> Ausgabeneuronen bekannt. Schwere Lern<strong>auf</strong>gaben<br />

können weiter klassifiziert werden in Aufgaben mit variabler Netzwerkstruktur sowie Aufgaben<br />

mit fixer Netzwerkstruktur. Im ersten Fall dürfen während des Lernverfahrens innere Neuronen hinzugefügt<br />

o<strong>der</strong> entfernt sowie Än<strong>der</strong>ungen an <strong>der</strong> Netzwerkstruktur vorgenommen werden. Bei Aufgaben<br />

mit fixer Netzwerkstruktur dürfen lediglich Kantengewichte modifiziert werden (Abbildung 2.6).

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!