09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

C.3 Radial Basis Function Netze 201<br />

w1<br />

PSfrag replacements<br />

w2<br />

φ1(��x − �x1�) φb(��x − �xb�)<br />

�y<br />

wb<br />

x1 x2 xn<br />

Abbildung C.11: Radial Basis Function Netz mit einem Ausgang.<br />

• sie werden über einen überwachten Ansatz mit einem Gradientenabstiegsverfahren ausgewählt,<br />

oder<br />

• sie werden über einen selbstorganisierenden Ansatz berechnet 9 .<br />

Um den Abstand ��x− �xi� zu messen wird oft die euklidische Distanz eingesetzt. Alternativ kann man<br />

auch die Mahalanobis Distanz verwenden. Die Aktivierungsfunktion eines Neurons der verdeckten<br />

Schicht ist dann:<br />

φ(��x − �xi�) = e − (��x− �x i �)2<br />

2σ 2 (C.65)<br />

Dabei bestimmt die Standardabweichung σ den Einflussbereich des Neurons, also die Region der<br />

�x-Werte um die Stützstelle �xi, in der das Neuron mit hohen Werten aktiv wird. Dadurch werden<br />

RBF-Netze trainiert nur auf lokale Stimuli zu reagieren; es werden nur die Neuronen aktiviert, deren<br />

Stützstelle �xi sich in der Nähe des Eingangsvektors befinden. Dadurch gehören RBF Netze zur Gruppe<br />

der lokalen Approximatoren 10 , da nur die aktiven Neuronen zur Lösung beitragen 11 .<br />

Die Ausgangsebene eines RBF Netzwerkes besteht aus Neuronen mit linearen Aktivierungsfunktionen.<br />

Alternativ kann man auch die sigmoidal Aktivierungsfunktion einsetzen:<br />

wobei T eine Konstante ist.<br />

f(x) =<br />

1<br />

x<br />

− 1 + e T<br />

(C.66)<br />

9 In dieser Arbeit kommt der selbstorganisierende Ansatz zum Einsatz.<br />

10 Zu den lokalen Approximatoren gehören beispielsweise auch die SOM Netze.<br />

11 Bei Back-Propagation Netzen tragen dagegen alle Neuronen zur Lösung bei. BP Netze produzieren auch immer eines<br />

Ausgabe und klassifizieren den Eingangsvektor zu einer trainierten Gruppe, was bei lokalen Approximatoren nicht der<br />

Fall ist.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!