07.10.2013 Aufrufe

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

18 2 Statische und dynamische Neuronale Netze<br />

wird. Diese Abweichung zwischen wahrem und geschätztem Wert wird als Ausgangsfehler<br />

e( ˆ <br />

Θ) = y − ˆy( ˆ <br />

Θ)<br />

(2.9)<br />

bezeichnet.<br />

Ausgangspunkt für die folgenden Überlegungen ist das quadratische Fehlermaß<br />

E( ˆ Θ) = 1<br />

2 e2 ( ˆ Θ) = 1<br />

<br />

y − ˆy(<br />

2<br />

ˆ 2 Θ)<br />

(2.10)<br />

Die Einführung des Faktors 1 ist für die Adaption der Gewichte unerheblich, führt<br />

2<br />

jedoch zu einem übersichtlicheren Lerngesetz.<br />

Das Ziel des Lernverfahrens ist es, Gleichung (2.10) bezüglich der Parameter ( ˆ Θ) zu<br />

minimieren. Da im Allgemeinen E( ˆ Θ) nicht analytisch vorliegt, bzw. deren Ableitung<br />

bezüglich der Parameter ˆ Θ nicht analytisch berechnet werden kann, ist man auf eine<br />

iterative Lösung angewiesen [Papageorgiou, 1991].<br />

Die grundsätzliche algorithmische Struktur besteht aus nachfolgenden Schritten und<br />

wird in Abbildung 2.10 für den zweidimensionalen Fall illustriert.<br />

(1) Wahl eines Startpunktes ˆ Θ (0)<br />

und Festlegung des Iterationsindexes zu l = 0.<br />

(2) Bestimmung einer Suchrichtung s (l)<br />

(3) Bestimmung einer skalaren Schrittweite η (l) > 0 durch Lösung des folgenden<br />

eindimensionalen Minimierungsproblemes<br />

min<br />

η>0 E<br />

<br />

(l)<br />

ˆΘ + η (l) s (l)<br />

<br />

(2.11)<br />

anschließend ergibt sich der l + 1-te Parametervektor aus<br />

ˆΘ (l+1)<br />

= ˆ Θ (l)<br />

+ η (l) s (l)<br />

(4) Ist ein geeignetes Abbruchkriterium erfüllt, dann stop. Ansonsten:<br />

(5) Beginn einer neuen Iteration l := l + 1 und Rücksprung nach (2).<br />

(2.12)<br />

Das in [Papageorgiou, 1991] beschriebene Gradientenabstiegsverfahren verwendet<br />

für die Suchrichtung am jeweiligen Iterationspunkt die Richtung des steilsten<br />

Abstiegs, also die negative Gradientenrichtung<br />

s (l) = − ∂E(l) ( ˆ Θ (l)<br />

)<br />

∂ ˆ Θ (l)<br />

(2.13)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!