07.10.2013 Aufrufe

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

Identifikation nichtlinearer mechatronischer Systeme mit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

42 2 Statische und dynamische Neuronale Netze<br />

Approximationsgüte darauf zurückführen, dass die im Jordan-Netz implementierte<br />

Vorwärts-Struktur nur eine versteckte Schicht besitzt.<br />

Die Elman-Netze, welche eine Modifikation der Jordan-Netze sind, zeigten hier ein<br />

deutlich besseres Approximationsverhalten. Dies gilt insbesondere für die hierarchisch<br />

aufgebauten Elman-Netze.<br />

Vergleicht man die drei dynamischen Neuronalen Netze <strong>mit</strong>einander, so kann festgestellt<br />

werden, dass sich das Jordan-Netz zur Approximation eines nichtlinearen<br />

dynamischen <strong>Systeme</strong>s nur sehr schlecht eignet. Elman-Netze und das TDNN-Netz<br />

haben gleich gute Approximationseigenschaften gezeigt. Allerdings waren die Konvergenzzeiten<br />

für das Elman-Netz deutlich geringer als für das TDNN-Netz, was an<br />

der geringeren Parameteranzahl liegt.<br />

Ein anderer Weg, unbekannte nichtlineare dynamische <strong>Systeme</strong> zu identifizieren, ist<br />

der Ansatz über die Volterra-Funktionalpotenzreihe. Dieser Ansatz wird ebenfalls<br />

den dynamischen Neuronalen Netzen <strong>mit</strong> externer Dynamik zugeordnet. Werden<br />

keine Basisfunktionen verwendet, so lässt sich dieser Ansatz in die Kategorie NFIR<br />

in Abbildung 1.1 einordnen. Werden Basisfunktionen verwendet, so erhält man einen<br />

NOBF-Ansatz.<br />

Es wurde gezeigt, dass sich blockorientierte Modelle wie das Hammerstein-Modell<br />

<strong>mit</strong> Hilfe der Volterra-Reihe darstellen lassen. Nachteilig hierbei ist die große Anzahl<br />

an zu schätzenden Parametern. Dies lässt sich allerdings durch die Einführung von<br />

Basisfunktionen verringern. Mit Hilfe dieses Ansatzes ist es nun möglich, das nichtlineare<br />

<strong>Systeme</strong> in der Form zu approximieren, dass man eine nichtlineare statische<br />

Funktion und eine lineare Übertragungsfunktion erhält.<br />

Einen tabellarischen Vergleich der dynamischen Neuronalen Netze zeigt Tabelle 2.3.<br />

Netztyp Strukturwissen Aufwand Approximationserforderlich<br />

güte<br />

TDNN nein hoch sehr gut<br />

Jordan nein gering schlecht<br />

Elman nein <strong>mit</strong>tel sehr gut<br />

Volterra-Ansatz ja <strong>mit</strong>tel sehr gut<br />

Tabelle 2.3: Einsatzbereich der dynamischen Neuronalen Netze

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!