05.06.2013 Aufrufe

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

2-38 Black-Box-<strong>Modellierung</strong><br />

Art von Strategien empfiehlt sich auch bei sequentieller Approximation unbekannter<br />

Daten, wobei mit fortlaufender Zeit auch die Schranken erniedrigt <strong>und</strong> somit<br />

die Ansprüche erhöht werden können.<br />

Ein überwachter Clusteralgorithmus zum Erzeugen <strong>und</strong> Anpassen von Glockenkurven<br />

ist beispielsweise auch von (Lee <strong>und</strong> Kil ,1991) vorgestellt worden. Hier<br />

werden solange neue Glockenfunktionen erzeugt, bis alle Eingabemuster innerhalb<br />

eines sog. "effektiven Radius" fallen <strong>und</strong> somit durch eine Glockenfunktion<br />

"abgedeckt" werden. Tritt keine Verkleinerung des Fehlers mehr ein ("Sättigung")<br />

<strong>und</strong> ist der Fehler noch zu hoch, so werden die Weiten σ der Glockenfunktionen<br />

verkleinert <strong>und</strong> Training <strong>und</strong> Erzeugung neuer Funktionen erneut durchgeführt,<br />

bis der vorgegebene Maximalfehler unterschritten wird.<br />

2.9.2 Anpassen der Parameter der zweiten Schicht<br />

Die Approximation mit Radialen Basisfunktionen verbindet verschiedene Mechanismen<br />

miteinander. In der ersten Schicht werden Muster aus dem Eingaberaum<br />

auf Reaktionen von RBF-Neuronen abgebildet. Durch ihre Eigenschaften wird<br />

trotz geringen Variationen die Eingabe auf gleiche Ausgabe abgebildet; dies bedeutet<br />

eine Tolerierung von Abweichungen. Beispielsweise wird eine Linie im<br />

zwei-dimensionalen Eingaberaum bei radialsymmetrischer RBF immer auf die<br />

gleiche Ausgabeerregung abgebildet, egal in welchem Winkel sie durch den Eingaberaum<br />

des RBF-Neurons verläuft, was große Vorteile, z.B. bei der Erkennung<br />

von handgeschriebenen Buchstaben, bedeutet. Die erste Schicht lässt sich dabei<br />

als deformationsinvariante Mustervorverarbeitung betrachten, die von der zweiten<br />

Schicht, einem adaptiven Filter, weiterverwendet wird.<br />

Für die Verbesserung der Gewichte wi dieser zweiten, linearen Schicht lässt<br />

sich nun, wie für einen adaptiven, linearen Filter üblich, beispielsweise die<br />

Backpropagation-Lernregel (2.70) verwenden, sich für lineare Neuronen zu<br />

Δwij (2) (x) = –γ (yi (2) – Li) xj (2) (2.85)<br />

verkürzt.<br />

Eine andere Möglichkeit ist die Minimierung des TLSME aus Gl.(2.19). Hierbei<br />

lernt ein Neuron mit einem Gradientenabstieg, d.h. einer negativen Hebb-Regel<br />

(Anti-Hebb-Regel) bei normierten Gewichten, den Eigenvektor mit dem kleinsten<br />

Eigenwert für das Minimum der Varianz. Für den stochastischen Fall ist dies<br />

w ~ w%<br />

(t + 1)<br />

(t+1) = w(t) − γ1xy <strong>und</strong> w(t+1) =<br />

w%<br />

(t + 1)<br />

(2.86)<br />

wobei mit x := (x1,..,xn,L) <strong>und</strong> w := (w1,..,wn,wn+1) für die Neuronenausgabe y =<br />

S(x) := g(x) = x T w – w0 geschrieben wird. Die konstante Nullpunktsverschiebung<br />

w0 lässt sich ebenfalls als Mittelwert lernen<br />

w0(t+1) = w0(t) + γ2(x T w - w0(t)) (2.87)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!