21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

3.8. ANALYTISCHE METHODEN (VA.1.2.2, 10.01.2004) 227<br />

Damit und mit der in (3.8.10) definierten Matrix Q (2) ist<br />

n<br />

s2 = 2<br />

ν=1<br />

ϕ T ν Q (2) ϕ ν . (3.8.26)<br />

Man sieht, dass Q (2) symmetrisch ist, und wegen der Definition <strong>von</strong> s2 als Abstandsquadrat ist<br />

sie auch positiv definit, d. h. es gilt x T Q (2) x > 0, ∀x = 0. Damit ist gezeigt, dass s2 aus n Summanden<br />

besteht, <strong>von</strong> denen jeder eine quadratische Form mit positiv definitem symmetrischem<br />

Kern ist. Aufgrund der erwähnten Eigenschaften solcher Formen wird s2 dann maximiert, wenn<br />

man als Vektoren ϕ ν, ν = 1, . . . , n die n Eigenvektoren <strong>von</strong> Q (2) wählt, die zu den n größten<br />

Eigenwerten gehören. Das ist aber gerade die Aussage <strong>von</strong> Satz 3.8. Eine ganz analoge<br />

Rechnung lässt sich für s1 und s3 durchführen. Damit ist der Satz 3.8 bewiesen.<br />

Für einen Vektor f mit M Abtastwerten, wie in Abschnitt 2.1.1 ausgeführt, wird bei der<br />

Merkmalsgewinnung gemäß (3.2.2) stets n ≤ M sein, d. h. man hat weniger Merkmale cν als<br />

Abtastwerte fi. Ist die Zahl N der Stichprobenelemente j f größer als die Zahl M der Abtastwerte,<br />

also N > M, und sind die Muster j f, j = 1, . . . , N linear unabhängig, so hat die<br />

M × M Matrix Q (2) den Rang M mit Wahrscheinlichkeit Eins. Es ist bekannt, dass Q (2) dann<br />

genau M verschiedene positive reelle Eigenwerte und M verschiedene orthogonale Eigenvektoren<br />

ϕ ν, ν = 1, . . . , M hat.<br />

Wenn man ein Bild der Größe Mx × My betrachtet, so wird daraus durch Aneinanderreihen<br />

der Zeilen (oder der Spalten) ein Vektor der Länge M = Mx × My gebildet und da<strong>von</strong> eine<br />

Kernmatrix Q der Größe M 2 = (Mx × My) 2 berechnet. Wenn man z. B. ein Bild der (moderaten)<br />

Größe 128 × 128 hat, ist Q bereits eine Matrix der Größe 16.384 × 16.384. Bei diesen<br />

Größenordnungen wird man u. U. nicht mehr die Bedingung N > M einhalten können und numerische<br />

Probleme mit der großen Matrix bekommen. In diesem Falle hat man natürlich auch<br />

nicht mehr M positive reelle Eigenwerte, sondern nur noch N < M. Statt der Eigenwerte und<br />

–vektoren der sehr großen Matrix Q M×M kann man dann die einer kleineren Matrix Q N×N<br />

berechnen. Zu dem Zweck wird Q M×M wie in (3.8.15) faktorisiert in<br />

Q M×M = V M×N V TN×M<br />

und mit den Faktoren eine neue Matrix Q N×N definiert durch<br />

(3.8.27)<br />

Q N×N = V TN×M V M×N . (3.8.28)<br />

Die Eigenwerte und –vektoren der neuen Matrix ergeben sich analog zu (3.8.6) aus<br />

Q ϕ ν = λνϕ ν . (3.8.29)<br />

Setzt man oben (3.8.28) ein und multipliziert <strong>von</strong> links her mit V , so erhält man<br />

V TN×M V M×N ϕ ν = λνϕ ν ,<br />

V V T (V ϕ ν) = λν (V ϕ ν) ,<br />

Q (V ϕν) = λν (V ϕν) , (3.8.30)<br />

1<br />

ϕν =<br />

|V ϕν| V ϕν , λν = λν . (3.8.31)<br />

Man sieht, dass Eigenwerte der Matrix Q M×M auch Eigenwerte der Matrix Q N×N sind. Ihre<br />

Eigenvektoren hängen über (3.8.31) zusammen. Man kann also wahlweise mit der einen oder<br />

anderen Kernmatrix rechnen, je nach dem, welche kleiner ist.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!