Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
2-38 Black-Box-<strong>Modellierung</strong><br />
Art von Strategien empfiehlt sich auch bei sequentieller Approximation unbekannter<br />
Daten, wobei mit fortlaufender Zeit auch die Schranken erniedrigt <strong>und</strong> somit<br />
die Ansprüche erhöht werden können.<br />
Ein überwachter Clusteralgorithmus zum Erzeugen <strong>und</strong> Anpassen von Glockenkurven<br />
ist beispielsweise auch von (Lee <strong>und</strong> Kil ,1991) vorgestellt worden. Hier<br />
werden solange neue Glockenfunktionen erzeugt, bis alle Eingabemuster innerhalb<br />
eines sog. "effektiven Radius" fallen <strong>und</strong> somit durch eine Glockenfunktion<br />
"abgedeckt" werden. Tritt keine Verkleinerung des Fehlers mehr ein ("Sättigung")<br />
<strong>und</strong> ist der Fehler noch zu hoch, so werden die Weiten σ der Glockenfunktionen<br />
verkleinert <strong>und</strong> Training <strong>und</strong> Erzeugung neuer Funktionen erneut durchgeführt,<br />
bis der vorgegebene Maximalfehler unterschritten wird.<br />
2.9.2 Anpassen der Parameter der zweiten Schicht<br />
Die Approximation mit Radialen Basisfunktionen verbindet verschiedene Mechanismen<br />
miteinander. In der ersten Schicht werden Muster aus dem Eingaberaum<br />
auf Reaktionen von RBF-Neuronen abgebildet. Durch ihre Eigenschaften wird<br />
trotz geringen Variationen die Eingabe auf gleiche Ausgabe abgebildet; dies bedeutet<br />
eine Tolerierung von Abweichungen. Beispielsweise wird eine Linie im<br />
zwei-dimensionalen Eingaberaum bei radialsymmetrischer RBF immer auf die<br />
gleiche Ausgabeerregung abgebildet, egal in welchem Winkel sie durch den Eingaberaum<br />
des RBF-Neurons verläuft, was große Vorteile, z.B. bei der Erkennung<br />
von handgeschriebenen Buchstaben, bedeutet. Die erste Schicht lässt sich dabei<br />
als deformationsinvariante Mustervorverarbeitung betrachten, die von der zweiten<br />
Schicht, einem adaptiven Filter, weiterverwendet wird.<br />
Für die Verbesserung der Gewichte wi dieser zweiten, linearen Schicht lässt<br />
sich nun, wie für einen adaptiven, linearen Filter üblich, beispielsweise die<br />
Backpropagation-Lernregel (2.70) verwenden, sich für lineare Neuronen zu<br />
Δwij (2) (x) = –γ (yi (2) – Li) xj (2) (2.85)<br />
verkürzt.<br />
Eine andere Möglichkeit ist die Minimierung des TLSME aus Gl.(2.19). Hierbei<br />
lernt ein Neuron mit einem Gradientenabstieg, d.h. einer negativen Hebb-Regel<br />
(Anti-Hebb-Regel) bei normierten Gewichten, den Eigenvektor mit dem kleinsten<br />
Eigenwert für das Minimum der Varianz. Für den stochastischen Fall ist dies<br />
w ~ w%<br />
(t + 1)<br />
(t+1) = w(t) − γ1xy <strong>und</strong> w(t+1) =<br />
w%<br />
(t + 1)<br />
(2.86)<br />
wobei mit x := (x1,..,xn,L) <strong>und</strong> w := (w1,..,wn,wn+1) für die Neuronenausgabe y =<br />
S(x) := g(x) = x T w – w0 geschrieben wird. Die konstante Nullpunktsverschiebung<br />
w0 lässt sich ebenfalls als Mittelwert lernen<br />
w0(t+1) = w0(t) + γ2(x T w - w0(t)) (2.87)