09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

200 C.3 Radial Basis Function Netze<br />

Die Bestimmung der Parameter wi findet durch die Lösung eines linearen Gleichungssystems statt,<br />

das mit Hilfe der m Trainingsdaten (�xi, yi) aufgestellt wird.<br />

⎛<br />

⎜<br />

⎝<br />

y1<br />

y2<br />

.<br />

⎞<br />

⎟<br />

⎠ =<br />

⎛<br />

⎜<br />

⎝<br />

φ1( �x1)<br />

φ1( �x2)<br />

.<br />

φ2( �x1)<br />

φ2( �x2)<br />

.<br />

· · ·<br />

· · ·<br />

. ..<br />

φb( �x1)<br />

φb( �x2)<br />

.<br />

⎞ ⎛<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎠ ⎝<br />

w1<br />

w2<br />

.<br />

⎞<br />

⎟<br />

⎠<br />

(C.60)<br />

φ1( xm) � φ2( xm) � · · · φb( xm) �<br />

ym<br />

oder in Matrixform zusammengefasst:<br />

wm<br />

�y = Φ�w (C.61)<br />

Um die Gewichte zu berechnen setzt man die Pseudoinverse Φ + der Matrix Φ ein:<br />

�w = (Φ T Φ) −1 Φ T �y = Φ + �y (C.62)<br />

Diese Beziehungen lassen sich mit einem neuronalen Netz realisieren. RBF Netze stellen einen<br />

spezialisierten Fall solcher neuronalen Netzen dar, die für φi() radiale Basisfunktionen einsetzen<br />

[Kra03b]. Als Basisfunktion kommt oft die nicht-normierte Gaußfunktion zur Anwendung:<br />

x2<br />

−<br />

φ(x) = e 2σ2 (C.63)<br />

Jede Basisfunktion erhält am Eingang den Abstand des Eingabevektors �x von einem der Funktion<br />

zugehörigen Stützstellenvektor �xi, der während der Trainingsphase festgelegt wird. Somit erhält man<br />

für die Approximation der Funktion:<br />

�y(�x) =<br />

b�<br />

wiφi(��x − �xi�) (C.64)<br />

i=1<br />

Diese Beziehung lässt sich als ein dreischichtiges neuronales Netz interpretieren (siehe auch Abbildung<br />

C.11). Die erste Schicht funktioniert als Eingang des Netzes und die Anzahl der Neuronen<br />

entspricht der Anzahl der Elemente des Merkmalsvektors, der klassifiziert werden soll. Die Ausgaben<br />

der verdeckten Schicht entsprechen den ausgewerteten radialen Basisfunktionen φi(��x − �xi�).<br />

Die letzte Schicht gewichtet die Ausgaben mit wi, die aus Gleichung C.62 berechnet werden, und<br />

summiert sie.<br />

Die versteckte Neuronenebene ist verantwortlich für das Approximationsverhalten des Netzes, da sie<br />

Gleichung C.64 umsetzt. Drei Elemente bestimmen das Verhalten eines Neurons i dieser Ebene:<br />

• die Position der Stützstelle im Eingangsraum, d.h. der Wert von �xi,<br />

• die Methode zur Bestimmung des Abstandes des Eingangsvektor von der Stützstelle, also ��x −<br />

�xi�, und<br />

• die Aktivierungsfunktion des Neurons, also φi().<br />

Die Position der Stützstellen wird während der Trainingsphase festgelegt. Nach Haykin [Hay94] gibt<br />

es drei Möglichkeiten:<br />

• sie können willkürlich gesetzt werden,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!