05.06.2013 Aufrufe

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

Adaptive Modellierung und Simulation - Adaptive Systemarchitektur ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

RBF-Lernverfahren 2-37<br />

Abb. 2.19 Annäherung von Anzahl <strong>und</strong> Überdeckung von Glockenfunktionen an<br />

die Intensitätsverteilung eines Bildes (nach [Hinton1992]).<br />

In beiden Situationen, bei bekannten <strong>und</strong> unbekannten Daten, lässt sich die<br />

Komplexität des Netzwerks <strong>und</strong> die Trainingszeiten deutlich verringern, wenn<br />

man anstelle von einer festen Anzahl von Neuronen das Netzwerk durch die sukzessive<br />

Erzeugung neuer Glockenfunktionen (Hinzufügen von Neuronen) verbessert.<br />

Eine typische Methode ist die der sequentiellen Regression.<br />

Überdeckung durch Fehlerminimierung<br />

Dazu wird versucht, nur mit wenigen Neuronen anzufangen (ideal mit einem) <strong>und</strong><br />

dann inkrementell weitere hinzuzufügen. Kriterium für die Lage der neuen RBF-<br />

Neuronen bei diesem Verfahren ist der Punkt, an dem der größte Fehler gemacht<br />

wird. Vermutet man an Orten mit größerem mittleren Fehler auch mehr Information<br />

(z.B. bei der Adaption von RBF-Bereiche an Bildkonturen, s. Abb. 2.19), so ist<br />

die Erzeugung <strong>und</strong> damit die Konzentration neuer Neuronen gerade an diesen<br />

Häufigkeitspunkten sinnvoll.<br />

Bei bekannten Daten kann man nach jedem Trainingslauf mit allen Mustern den<br />

Ort des größten Fehlers des Netzes feststellen <strong>und</strong> dort ein Neuron platzieren. Sein<br />

Gewicht in der zweiten Schicht wird entweder so gewählt, dass es nur den Fehler<br />

an dieser Stelle kompensiert, oder aber durch eine Minimierung des quadratischen<br />

Fehlers mit allen Gewichten der zweiten Schicht. Das Training bricht ab, wenn der<br />

maximale Fehler klein genug ist.<br />

Gibt man einen festen Fehlerwert als Schranke vor, bei dessen Überschreiten jeweils<br />

ein Neuron eingefügt wird, so kann man bei jedem Trainingslauf auch mehrere<br />

Neuronen zum Netz hinzufügen. Dazu kann man auch die Strategie einer<br />

Fehlerschranke mit der einer Abstandsschranke (Überschreiten des Abstands | x–<br />

cm | der Eingabe x vom Zentrum cm des nächsten Neurons) kombinieren, um eine<br />

einigermaßen konsistente Überdeckung des Eingaberaumes zu erreichen. Diese

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!