Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server
Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server
Download (1800Kb) - oops/ - Oldenburger Online-Publikations-Server
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Abbildung 3.1: Schematische Darstellung eines Feed-Forward-Netzes (aus [Zell 1999]).<br />
die Netzarchitektur für ein gegebenes Problem festgelegt, müssen noch die Gewichte so eingestellt<br />
werden, daß aus einer Eingabe die gewünschte Ausgabe möglichst genau reproduziert werden<br />
kann. Dieser Vorgang wird als Training des Netzes bezeichnet. Die optimale Netzarchitektur für<br />
ein Problem kann durch systematischen Vergleich der Ergebnisse auf einer Testmenge für verschiedene<br />
trainierte Netzwerke ermittelt werden.<br />
Lernverfahren: Backpropagation<br />
Ziel des Lernens ist es, die Verbindungen im Neuronalen Netz so einzustellen, daß sie an ein vorgegebenes<br />
Problem angepaßt sind und den Zusammenhang zwischen Ein- und Ausgabe möglichst<br />
genau approximieren. Bei überwachtem Lernen werden die Gewichte zunächst für eine Trainingsmenge<br />
von Ein- und Ausgabepaaren optimiert. Der gelernte Zusammenhang kann dann auf unbekannte<br />
Eingabemuster übertragen werden, wobei man davon ausgeht, daß für diese die gleiche<br />
Abbildungsvorschrift gilt, wie für die Trainingsmenge.<br />
Die Optimierung der Gewichte erfolgt nach dem folgenden Prinzip: Zunächst werden die Gewichte<br />
initialisiert. Dann werden die nachfolgenden Schritte wiederholt, bis das Verfahren konvergiert<br />
oder eine maximale Anzahl von Trainingsschritten erreicht ist:<br />
• Präsentation der Eingabe<br />
• Berechnung der Ausgabe<br />
• Vergleich der berechneten Ausgabe mit der gewünschten Ausgabe über eine Fehlerfunktion<br />
• Veränderung der Gewichte zur Minimierung der Fehlerfunktion mit einem Gradientenabstiegsverfahren<br />
18