28.02.2014 Aufrufe

Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server

Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server

Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Abbildung 3.1: Schematische Darstellung eines Feed-Forward-Netzes (aus [Zell 1999]).<br />

die Netzarchitektur für ein gegebenes Problem festgelegt, müssen noch die Gewichte so eingestellt<br />

werden, daß aus einer Eingabe die gewünschte Ausgabe möglichst genau reproduziert werden<br />

kann. Dieser Vorgang wird als Training des Netzes bezeichnet. Die optimale Netzarchitektur für<br />

ein Problem kann durch systematischen Vergleich der Ergebnisse auf einer Testmenge für verschiedene<br />

trainierte Netzwerke ermittelt werden.<br />

Lernverfahren: Backpropagation<br />

Ziel des Lernens ist es, die Verbindungen im Neuronalen Netz so einzustellen, daß sie an ein vorgegebenes<br />

Problem angepaßt sind und den Zusammenhang zwischen Ein- und Ausgabe möglichst<br />

genau approximieren. Bei überwachtem Lernen werden die Gewichte zunächst für eine Trainingsmenge<br />

von Ein- und Ausgabepaaren optimiert. Der gelernte Zusammenhang kann dann auf unbekannte<br />

Eingabemuster übertragen werden, wobei man davon ausgeht, daß für diese die gleiche<br />

Abbildungsvorschrift gilt, wie für die Trainingsmenge.<br />

Die Optimierung der Gewichte erfolgt nach dem folgenden Prinzip: Zunächst werden die Gewichte<br />

initialisiert. Dann werden die nachfolgenden Schritte wiederholt, bis das Verfahren konvergiert<br />

oder eine maximale Anzahl von Trainingsschritten erreicht ist:<br />

• Präsentation der Eingabe<br />

• Berechnung der Ausgabe<br />

• Vergleich der berechneten Ausgabe mit der gewünschten Ausgabe über eine Fehlerfunktion<br />

• Veränderung der Gewichte zur Minimierung der Fehlerfunktion mit einem Gradientenabstiegsverfahren<br />

18

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!