Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
2-34 Black-Box-<strong>Modellierung</strong><br />
bedimensionen einheitlich zu behandeln <strong>und</strong> daraus die gewünschten Parameter zu<br />
bestimmen.<br />
2.9 RBF-Lernverfahren<br />
Ein RBF-Netzwerk besteht meist aus zwei oder mehr Schichten. Jede Schicht hat<br />
ihre Parameter, die ihre Funktion festlegen. Die Lernverfahren, mit denen diese<br />
Parameter bestimmt werden können, lassen sich in zwei Ansätze unterteilen:<br />
1) dem Anpassen zuerst der ersten Schicht, also Lage ci <strong>und</strong> Varianz C der<br />
RBF-Neuronen, <strong>und</strong> dann Anpassen der Gewichte wj nächsten Schicht bei<br />
konstanter Lage,<br />
2) dem gleichzeitigen Anpassen aller Parameter aller Schichten bei gegebenen<br />
Anzahlen der RBF-Neuronen in der ersten Schicht <strong>und</strong> der Neuronen in den<br />
weiteren Schichten.<br />
Die getrennte Optimierung der Parameter der ersten <strong>und</strong> zweiten Schicht hat verschiedene<br />
Vorteile. So lassen sich zum einen verschiedene, voneinander unabhängige<br />
Methoden zur Optimierung der ersten <strong>und</strong> der zweiten Schicht einsetzen, zum<br />
anderen ist die Konvergenz dieser Verfahren für die Anpassung einer einzelnen<br />
Schicht deutlich besser als bei der gleichzeitigen Anpassung beider Schichten.<br />
Dies hängt damit zusammen, dass der Suchraum bei beiden Schichten (die Anzahl<br />
aller möglichen Parameterwertekombinationen) exponentiell größer ist als der<br />
Suchraum bei Beschränkung auf die Parameter nur einer Schicht; die Dimensionszahl<br />
beider Suchräume addieren sich.<br />
2.9.1 Anpassung der Parameter der ersten Schicht<br />
Ein gängiger Ansatz für die erste Schicht besteht darin, die Wahrscheinlichkeitsdichten<br />
der Eingabemuster durch die Lage der RBF-Neuronen zu approximieren.<br />
Ein Lernalgorithmus für die Approximation mit Glockenfunktionen besteht gr<strong>und</strong>sätzlich<br />
aus zwei Schritten:<br />
• einer initialen Verteilung (Anzahl, Lage <strong>und</strong> Form) der Glockenfunktionen<br />
• der iterativen Adaption der Parameter an die Trainingsdaten<br />
Während die Adaption der Parameter relativ leicht durchzuführen ist, ist die initiale<br />
Phase für das Lernen entscheidend <strong>und</strong> der häufigste Gr<strong>und</strong>, wenn das System<br />
nach dem Training nicht die gewünschte Leistung zeigt, sondern in lokalen Minima<br />
"hängen" bleibt oder nur langsame bzw. keine Konvergenz aufweist.<br />
Wichtigstes Ziel der Initialisierung ist eine Aufteilung der "Datenwolke" in unterschiedliche<br />
Haufen (cluster), die jeweils von einer RBF "besetzt" werden. Als