Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
200 C.3 Radial Basis Function Netze<br />
Die Bestimmung der Parameter wi findet durch die Lösung eines linearen Gleichungssystems statt,<br />
das mit Hilfe der m Trainingsdaten (�xi, yi) aufgestellt wird.<br />
⎛<br />
⎜<br />
⎝<br />
y1<br />
y2<br />
.<br />
⎞<br />
⎟<br />
⎠ =<br />
⎛<br />
⎜<br />
⎝<br />
φ1( �x1)<br />
φ1( �x2)<br />
.<br />
φ2( �x1)<br />
φ2( �x2)<br />
.<br />
· · ·<br />
· · ·<br />
. ..<br />
φb( �x1)<br />
φb( �x2)<br />
.<br />
⎞ ⎛<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎠ ⎝<br />
w1<br />
w2<br />
.<br />
⎞<br />
⎟<br />
⎠<br />
(C.60)<br />
φ1( xm) � φ2( xm) � · · · φb( xm) �<br />
ym<br />
oder in Matrixform zusammengefasst:<br />
wm<br />
�y = Φ�w (C.61)<br />
Um die Gewichte zu berechnen setzt man die Pseudoinverse Φ + der Matrix Φ ein:<br />
�w = (Φ T Φ) −1 Φ T �y = Φ + �y (C.62)<br />
Diese Beziehungen lassen sich mit einem neuronalen Netz realisieren. RBF Netze stellen einen<br />
spezialisierten Fall solcher neuronalen Netzen dar, die für φi() radiale Basisfunktionen einsetzen<br />
[Kra03b]. Als Basisfunktion kommt oft die nicht-normierte Gaußfunktion zur Anwendung:<br />
x2<br />
−<br />
φ(x) = e 2σ2 (C.63)<br />
Jede Basisfunktion erhält am Eingang den Abstand des Eingabevektors �x von einem der Funktion<br />
zugehörigen Stützstellenvektor �xi, der während der Trainingsphase festgelegt wird. Somit erhält man<br />
für die Approximation der Funktion:<br />
�y(�x) =<br />
b�<br />
wiφi(��x − �xi�) (C.64)<br />
i=1<br />
Diese Beziehung lässt sich als ein dreischichtiges neuronales Netz interpretieren (siehe auch Abbildung<br />
C.11). Die erste Schicht funktioniert als Eingang des Netzes und die Anzahl der Neuronen<br />
entspricht der Anzahl der Elemente des Merkmalsvektors, der klassifiziert werden soll. Die Ausgaben<br />
der verdeckten Schicht entsprechen den ausgewerteten radialen Basisfunktionen φi(��x − �xi�).<br />
Die letzte Schicht gewichtet die Ausgaben mit wi, die aus Gleichung C.62 berechnet werden, und<br />
summiert sie.<br />
Die versteckte Neuronenebene ist verantwortlich für das Approximationsverhalten des Netzes, da sie<br />
Gleichung C.64 umsetzt. Drei Elemente bestimmen das Verhalten eines Neurons i dieser Ebene:<br />
• die Position der Stützstelle im Eingangsraum, d.h. der Wert von �xi,<br />
• die Methode zur Bestimmung des Abstandes des Eingangsvektor von der Stützstelle, also ��x −<br />
�xi�, und<br />
• die Aktivierungsfunktion des Neurons, also φi().<br />
Die Position der Stützstellen wird während der Trainingsphase festgelegt. Nach Haykin [Hay94] gibt<br />
es drei Möglichkeiten:<br />
• sie können willkürlich gesetzt werden,