07.08.2013 Aufrufe

View/Open - JUWEL - Forschungszentrum Jülich

View/Open - JUWEL - Forschungszentrum Jülich

View/Open - JUWEL - Forschungszentrum Jülich

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

84 KAPITEL 5. Klassifizierung mit neuronalen Netzen<br />

5.2 . Feed Forward Netz mit Kalman<br />

Trainingsalgorithmus<br />

Ziel jeder Klassifikation ist die Trennung von Eigenschaften in verschiede-<br />

ne Unterkategorien (R ICHARDS & J IA 2006 [160]) . Eine Maximum Likelihood-<br />

Klassifikation berechnet einen Mittelwert einer Verteilung und davon ausgehend<br />

die Wahrscheinlichkeit der Zugeh örigkeit jedes zu klassifizierenden Merkmals zu<br />

einer Klasse. Ein neuronales Netz dagegen berechnet eine Funktion, die die<br />

Merkmale wie z .B. Grauwerte von Pixeln voneinander trennt. In Abbildung 5 .2<br />

(links) ist eine lineare Separation f ür ein zweidimensionales Beispiel dargestellt.<br />

Die zwei Dimensionen werden durch die beiden Kanäle xl und x2 aufgespannt.<br />

Die Zugehörigkeit zu einer Klasse entscheidet sich über die Diskriminantenfunk-<br />

tion n; . Liegt der Wert von n für ein Pixel über 0, so geh ört es zu Klasse 1, liegt<br />

der Wert unter 0, so geh ört es zu Klasse 2.<br />

x2<br />

-w /w<br />

0 2<br />

Abbildung 5 .2 . : Eine lineare Diskriminante für zwei Klassen (verändert nach CANTY 2006<br />

[41]).<br />

Diese Funktion trennt im Merkmalsraum die Pixel einer Klasse von denjenigen ei-<br />

ner anderen Klasse ab . Ebenfalls in Abbildung 5 .2 wird rechts das dazugeh örige<br />

Berechnungssystem gezeigt, aber in diesem Fall für N-dimensionale Daten . Es<br />

wird nach R OSENBLATT 1962 [162] Perzeptron genannt. Dieses Perzeptron ist je-<br />

doch schon für mehrere Dimensionen ausgelegt . Das Neuron j bezieht seine zu<br />

verarbeitenden Daten von einem Eingangssignal x = x„ x2 . . . xN , das zunächst<br />

mit synaptischen Gewichten wj wil , wj2 . . . wj N multipliziert bzw. gewichtet wird.<br />

Das Eingangssignal wird durch ein weiteres Element erg änzt, das den Verlauf der<br />

nichtlinearen Aktivierungsfunktion g für weitere Alternativen öffnet und das mit<br />

dem Vorspannungsgewicht w,o multipliziert wird . Eine genauere Untersuchung<br />

x 1<br />

1<br />

X,<br />

X,<br />

XN<br />

n;

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!