05.06.2013 Aufrufe

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2-34 Black-Box-<strong>Modellierung</strong><br />

bedimensionen einheitlich zu behandeln <strong>und</strong> daraus die gewünschten Parameter zu<br />

bestimmen.<br />

2.9 RBF-Lernverfahren<br />

Ein RBF-Netzwerk besteht meist aus zwei oder mehr Schichten. Jede Schicht hat<br />

ihre Parameter, die ihre Funktion festlegen. Die Lernverfahren, mit denen diese<br />

Parameter bestimmt werden können, lassen sich in zwei Ansätze unterteilen:<br />

1) dem Anpassen zuerst der ersten Schicht, also Lage ci <strong>und</strong> Varianz C der<br />

RBF-Neuronen, <strong>und</strong> dann Anpassen der Gewichte wj nächsten Schicht bei<br />

konstanter Lage,<br />

2) dem gleichzeitigen Anpassen aller Parameter aller Schichten bei gegebenen<br />

Anzahlen der RBF-Neuronen in der ersten Schicht <strong>und</strong> der Neuronen in den<br />

weiteren Schichten.<br />

Die getrennte Optimierung der Parameter der ersten <strong>und</strong> zweiten Schicht hat verschiedene<br />

Vorteile. So lassen sich zum einen verschiedene, voneinander unabhängige<br />

Methoden zur Optimierung der ersten <strong>und</strong> der zweiten Schicht einsetzen, zum<br />

anderen ist die Konvergenz dieser Verfahren für die Anpassung einer einzelnen<br />

Schicht deutlich besser als bei der gleichzeitigen Anpassung beider Schichten.<br />

Dies hängt damit zusammen, dass der Suchraum bei beiden Schichten (die Anzahl<br />

aller möglichen Parameterwertekombinationen) exponentiell größer ist als der<br />

Suchraum bei Beschränkung auf die Parameter nur einer Schicht; die Dimensionszahl<br />

beider Suchräume addieren sich.<br />

2.9.1 Anpassung der Parameter der ersten Schicht<br />

Ein gängiger Ansatz für die erste Schicht besteht darin, die Wahrscheinlichkeitsdichten<br />

der Eingabemuster durch die Lage der RBF-Neuronen zu approximieren.<br />

Ein Lernalgorithmus für die Approximation mit Glockenfunktionen besteht gr<strong>und</strong>sätzlich<br />

aus zwei Schritten:<br />

• einer initialen Verteilung (Anzahl, Lage <strong>und</strong> Form) der Glockenfunktionen<br />

• der iterativen Adaption der Parameter an die Trainingsdaten<br />

Während die Adaption der Parameter relativ leicht durchzuführen ist, ist die initiale<br />

Phase für das Lernen entscheidend <strong>und</strong> der häufigste Gr<strong>und</strong>, wenn das System<br />

nach dem Training nicht die gewünschte Leistung zeigt, sondern in lokalen Minima<br />

"hängen" bleibt oder nur langsame bzw. keine Konvergenz aufweist.<br />

Wichtigstes Ziel der Initialisierung ist eine Aufteilung der "Datenwolke" in unterschiedliche<br />

Haufen (cluster), die jeweils von einer RBF "besetzt" werden. Als

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!