07.10.2013 Aufrufe

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

3.1 Strukturierte rekurrente Netze 49<br />

des rekurrenten Netzes zusammengefasst werden. Im Parametervektor sind entsprechend<br />

alle zu identifizierenden Gewichte enthalten.<br />

Im Allgemeinen setzt sich der Parametervektor aus p Elementen zusammen und<br />

beinhaltet die Gewichte ˆ Ψ, die die linearen Systemanteile erfassen und die Gewichte<br />

ˆΘ, welche die nichtlinearen Systemanteile über Funktionsapproximatoren berücksichtigen.<br />

Die Gewichte ˆ Ψ werden daher im Folgenden als lineare und die Gewichte<br />

ˆΘ als nichtlineare Parameter bezeichnet.<br />

3.1.2 Parameteradaption<br />

Für PSfrag die Parameteradaption replacements wird die in Kapitel 2.2 vorgestellte Ausgangsfehleranordnung<br />

verwendet. <strong>mit</strong> Dies ist in Abbildung 3.3 noch einmal dargestellt.<br />

u<br />

Prozess<br />

rekurrentes Netz<br />

Abb. 3.3: Prinzip der Ausgangsfehleranordnung<br />

Das Lerngesetz für das strukturierte rekurrente Netz wird analog zur Herleitung des<br />

Gradientenverfahrens für statische Neuronale Netze berechnet.<br />

Ausgangspunkt ist der quadratische Fehler<br />

E(ˆw) = 1<br />

2 · e2 (ˆw) = 1<br />

(y − ˆy(ˆw))2<br />

2<br />

e<br />

−<br />

y<br />

ˆy<br />

(3.1)<br />

Analog zu Gleichung (2.14) ergibt sich folgende Gleichung für die Parameteradaption<br />

ˆw[k + 1] = ˆw[k] − η ·<br />

∂E[ ˆw,k]<br />

∂ ˆw1<br />

. . .<br />

∂E[ ˆw,k]<br />

∂ ˆwp<br />

ˆw[k]<br />

η ist hierbei die an das Problem angepasste Lernschrittweite, wobei die Bedingung<br />

η > 0 erfüllt sein muss 3 .<br />

Zur übersichtlicheren Schreibweise wird der Nabla-Operator eingeführt<br />

<br />

∇ =<br />

∂<br />

∂ ˆw1<br />

· · ·<br />

∂<br />

∂ ˆwp<br />

T 3 Mit η < 0 führt das Gradientenverfahren auf ein lokales Maximum in der Funktion E, wo<strong>mit</strong><br />

eine stabile <strong>Identifikation</strong> nicht möglich ist.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!