23.11.2014 Aufrufe

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

16 Pr<strong>in</strong>cipal Component Analysis<br />

def<strong>in</strong>iert, d.h. es gilt C = 1/N ˜C.<br />

Wie oben beschrieben, besteht die Matrix X <strong>der</strong> E<strong>in</strong>gangsdaten aus N Zeilenvektoren<br />

<strong>der</strong> Dimension n, C ist also e<strong>in</strong>e n × n-Matrix. Besteht nun <strong>der</strong><br />

Datensatz aus relativ wenigen Punkten sehr hoher Dimension (n ≫ N), so<br />

ist die Anzahl n 2 <strong>der</strong> Elemente <strong>der</strong> Kovarianzmatrix sehr groß im Vergleich<br />

zur Anzahl nN <strong>der</strong> Elemente von X. In e<strong>in</strong>em solchen Fall ist es s<strong>in</strong>nvoll,<br />

statt <strong>der</strong> Kovarianzmatrix C die Skalarproduktmatrix S = XX T ∈ R N×N <strong>der</strong><br />

E<strong>in</strong>gangsdaten zu betrachten, die nur aus N 2 Elementen besteht.<br />

Sei µ > 0 e<strong>in</strong> Eigenwert von S zum Eigenvektor v ∈ R N \{0}. Dann gilt:<br />

Sv = XX T v = µv ≠ 0<br />

⇒ (X T X)X T v = µX T v ≠ 0<br />

(2.10)<br />

X T v ∈ R n ist also e<strong>in</strong> Eigenvektor von ˜C zum Eigenwert µ > 0. Da die<br />

paarweise orthogonalen Eigenvektoren von ˜C e<strong>in</strong> Orthonormalsystem bilden<br />

und damit die Länge 1 haben sollen, müssen sie noch normiert werden 3 .<br />

Bezeichnet man den zum Eigenwert µ gehörenden normierten Eigenvektor<br />

mit u, so folgt mit dem Ansatz u = ηX T v für die Normierungskonstante η<br />

1 ! = u T u =η 2 v T XX T v = η 2 µ<br />

⇒ η = 1/ √ µ .<br />

(2.11)<br />

Nach [34] stimmen die echt positiven Eigenwerte von XX T und X T X übere<strong>in</strong><br />

und haben die gleiche geometrische Vielfachheit 2 . Die Eigenvektoren von ˜C<br />

zu diesen Eigenwerten lassen sich e<strong>in</strong>fach aus den Eigenvektoren von S gew<strong>in</strong>nen:<br />

Insgesamt gilt also: Hat man die Skalarproduktmatrix S = XX T diagonalisiert<br />

und e<strong>in</strong> Orthonormalsystem aus Eigenvektoren v 1 , . . . , v N und zugehörigen<br />

Eigenwerten µ 1 ≥ . . . ≥ µ r > µ r+1 = . . . = µ N = 0 gefunden 4 , so ergeben<br />

sich daraus die r größten, echt positiven Eigenwerte λ und zugehörigen Eigenvektoren<br />

u <strong>der</strong> Kovarianzmatrix C zu<br />

λ i = 1 N µ i (2.12)<br />

u i = 1 √<br />

µi<br />

X T v i , i = 1, . . . , r . (2.13)<br />

2 D.h. die Dimensionen ihrer Eigenräume s<strong>in</strong>d gleich.<br />

3 Obwohl die v e<strong>in</strong> Orthonormalsystem bilden, s<strong>in</strong>d die X T v nicht notwendigerweise<br />

normiert, da X i.A. nicht spaltenorthogonal ist.<br />

4 Dabei ist r = rang(S) = rang(C) ≤ N, also die Anzahl <strong>der</strong> echt positiven Eigenwerte.<br />

Es gibt immer m<strong>in</strong>destens e<strong>in</strong>en echt positiven Eigenwert, sofern nicht alle E<strong>in</strong>gangsdatenpunkte<br />

identisch s<strong>in</strong>d.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!