07.10.2013 Aufrufe

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

50 3 <strong>Identifikation</strong> <strong>nichtlinearer</strong> <strong>Systeme</strong><br />

wo<strong>mit</strong> die Gleichung zur Parameteradaption in der Form<br />

ˆw[k + 1] = ˆw[k] − η · ∇E[ˆw, k]| ˆw[k]<br />

angegeben werden kann. Kern dieser Gleichung ist der Gradient ∇E[ˆw, k], der entsprechend<br />

der Definition von E nach Gleichung (3.1) weiter zerlegt werden kann<br />

∇E[ˆw, k]| ˆw[k] = 1<br />

<br />

<br />

· 2 · (y[k] − ˆy[ˆw, k]) · − ∇ˆy[ˆw, k]| ˆw[k] = −e[ˆw, k] · ∇ˆy[ˆw, k]| ˆw[k]<br />

2<br />

Wird dieser Gradient in die Gleichung zur Parameteradaption eingesetzt, ergibt sich<br />

das Lerngesetz nach dem Gradientenabstiegsverfahren zu<br />

ˆw[k + 1] = ˆw[k] + η · e[k] · ∇ˆy[ˆw, k]| ˆw[k]<br />

(3.2)<br />

Dieses Lerngesetz wird dahingehend erweitert, dass die Lernschrittweite η nicht<br />

ein skalarer Wert ist, sondern für jedes Gewicht ˆwi eine eigene Lernschrittweite<br />

ηi vorhanden ist. Da<strong>mit</strong> erweitert sich η zu einem Vektor. Zusätzlich wird für jeden<br />

Parameter ein Momentumterm 0 ≤ αi < 1 eingeführt, der in die Berechnung<br />

der aktuellen Gewichtsänderung auch die vergangene Gewichtsänderung einbezieht.<br />

Der Momentumterm hat den Vorteil, dass die Gewichtsanpassung unempfindlicher<br />

gegenüber Plateaus in der Fehlerebene E und Rauschanteilen im Gradienten ∇E<br />

wird.<br />

Diese Ergänzungen führen auf die für die strukturierten rekurrenten Netze eingesetzte<br />

Form des Lerngesetzes 4<br />

<strong>mit</strong><br />

ˆw[k + 1] = ˆw[k] + ∆ˆw[k] (3.3)<br />

∆ˆw[k] = e[k] · diag η · ∇ˆy[ˆw, k]| ˆw[k] + diag (α) · ∆ˆw[k − 1]<br />

Mit dem Lerngesetz kann der neue Parametervektor ˆw für den Abtastschritt k+1 aus<br />

dem Parametervektor ˆw, dem Ausgangsfehler e[k] und den partiellen Ableitungen<br />

∇ˆy zum aktuellen Abtastschritt k und der vergangenen Gewichtsänderung ∆ˆw[k−1]<br />

berechnet werden.<br />

Da es sich bei dem Gradientenverfahren um eine iterative Methode handelt, sind für<br />

die erste Gewichtsanpassung die Startwerte ˆw[0] notwendig. Die Startwerte stellen<br />

Vorwissen dar, das bei der <strong>Identifikation</strong> zusätzlich zur Struktur des rekurrenten<br />

Netzes eingebracht werden muss. Das Gradientenverfahren führt dann auf das lokale<br />

Minimum von E im Bereich der Startwerte [Meyberg und Vachenauer, 1995].<br />

Wegen der Initialisierung des Gradientenverfahrens <strong>mit</strong> konstanten Startwerten ˆw[0]<br />

ergibt sich für die Gewichtsänderung ∆ˆw[0] = 0. Nachteilig bei diesem Verfahren<br />

ist die große Abhängigkeit der Konvergenzgeschwindigkeit der Gewichte von den<br />

Lernparametern η und α. Für die Wahl der Lernparameter, die manuell bestimmt<br />

4 diag(η) ist eine Diagonalmatrix <strong>mit</strong> den Elementen des Vektors η in der Hauptdiagonalen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!