Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
RBF-Lernverfahren 2-37<br />
Abb. 2.19 Annäherung von Anzahl <strong>und</strong> Überdeckung von Glockenfunktionen an<br />
die Intensitätsverteilung eines Bildes (nach [Hinton1992]).<br />
In beiden Situationen, bei bekannten <strong>und</strong> unbekannten Daten, lässt sich die<br />
Komplexität des Netzwerks <strong>und</strong> die Trainingszeiten deutlich verringern, wenn<br />
man anstelle von einer festen Anzahl von Neuronen das Netzwerk durch die sukzessive<br />
Erzeugung neuer Glockenfunktionen (Hinzufügen von Neuronen) verbessert.<br />
Eine typische Methode ist die der sequentiellen Regression.<br />
Überdeckung durch Fehlerminimierung<br />
Dazu wird versucht, nur mit wenigen Neuronen anzufangen (ideal mit einem) <strong>und</strong><br />
dann inkrementell weitere hinzuzufügen. Kriterium für die Lage der neuen RBF-<br />
Neuronen bei diesem Verfahren ist der Punkt, an dem der größte Fehler gemacht<br />
wird. Vermutet man an Orten mit größerem mittleren Fehler auch mehr Information<br />
(z.B. bei der Adaption von RBF-Bereiche an Bildkonturen, s. Abb. 2.19), so ist<br />
die Erzeugung <strong>und</strong> damit die Konzentration neuer Neuronen gerade an diesen<br />
Häufigkeitspunkten sinnvoll.<br />
Bei bekannten Daten kann man nach jedem Trainingslauf mit allen Mustern den<br />
Ort des größten Fehlers des Netzes feststellen <strong>und</strong> dort ein Neuron platzieren. Sein<br />
Gewicht in der zweiten Schicht wird entweder so gewählt, dass es nur den Fehler<br />
an dieser Stelle kompensiert, oder aber durch eine Minimierung des quadratischen<br />
Fehlers mit allen Gewichten der zweiten Schicht. Das Training bricht ab, wenn der<br />
maximale Fehler klein genug ist.<br />
Gibt man einen festen Fehlerwert als Schranke vor, bei dessen Überschreiten jeweils<br />
ein Neuron eingefügt wird, so kann man bei jedem Trainingslauf auch mehrere<br />
Neuronen zum Netz hinzufügen. Dazu kann man auch die Strategie einer<br />
Fehlerschranke mit der einer Abstandsschranke (Überschreiten des Abstands | x–<br />
cm | der Eingabe x vom Zentrum cm des nächsten Neurons) kombinieren, um eine<br />
einigermaßen konsistente Überdeckung des Eingaberaumes zu erreichen. Diese