23.11.2014 Aufrufe

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

32 Multidimensional Scal<strong>in</strong>g<br />

zugehörigen Eigenwerten λ 1 ≥ . . . ≥ λ N ≥ 0. Sei Λ k ∈ R k×k die Diagonalmatrix,<br />

die nur aus den ersten k Spalten von Λ besteht und V k = (v 1 , . . . , v k )<br />

die Matrix mit den zugehörigen Eigenvektoren. Nach [21] wird für beliebiges<br />

k ≤ n (4.13) m<strong>in</strong>imal für<br />

Y = V k Λ 1 2<br />

k<br />

. (4.17)<br />

Bis jetzt wurde immer angenommen, dass ∆ e<strong>in</strong>e euklidische Distanzmatrix<br />

ist. S<strong>in</strong>d die Unähnlichkeiten jedoch nicht-euklidische Distanzen, so ist die<br />

Matrix B ∆ = − 1 2 J∆(2) J aus (4.7) i.A. nicht mehr positiv semidef<strong>in</strong>it und<br />

besitzt deshalb negative Eigenwerte. Das bedeutet gleichzeitig, dass sich ∆ (2)<br />

nicht mehr als XX T mit e<strong>in</strong>er reellen Matrix X ∈ R N×n schreiben lässt.<br />

Beim klassischen MDS, bei dem trotzdem e<strong>in</strong>e euklidische E<strong>in</strong>bettung gesucht<br />

wird, werden solche negativen Eigenwerte als Fehler betrachtet und auf Null<br />

gesetzt, d.h. die Matrix Λ k <strong>in</strong> (4.17) wird ersetzt durch<br />

˜Λ k := diag(λ + 1 , . . . , λ + k ) , λ+ i := max(λ i , 0) ∀i . (4.18)<br />

In diesem Fall ist die E<strong>in</strong>bettung Ỹ, die den Stra<strong>in</strong> (4.13) m<strong>in</strong>imiert, gegeben<br />

durch<br />

1<br />

2<br />

Ỹ = V k ˜Λ<br />

k . (4.19)<br />

Äquivalenz von klassischem MDS und PCA<br />

In diesem Abschnitt soll gezeigt werden, dass die Lösung (4.17) des klassischen<br />

MDS äquivalent ist zur PCA. Die Kovarianzmatrix (2.1) lässt sich<br />

für unzentrierte Daten X ∈ R N×n mit Hilfe <strong>der</strong> Zentrierungsmatrix (4.6)<br />

schreiben als<br />

C = 1 N (JX)T (JX) = 1 N XT JJX = 1 N XT JX ∈ R n×n . (4.20)<br />

Ensprechend ist die Skalarproduktmatrix <strong>der</strong> zentrierten Konfiguration JX<br />

gegeben durch<br />

S = (JX)(JX) T = JXX T J ∈ R N×N , (4.21)<br />

und die p ≤ m<strong>in</strong>(n, N) echt positiven Eigenwerte λ 1 ≥ . . . ≥ λ p > 0 bei<strong>der</strong><br />

Matrizen stimmen übere<strong>in</strong>.<br />

Im Folgenden werden die Hauptkomponenten von X aus <strong>der</strong> Eigenwertzerlegung<br />

<strong>der</strong> Skalarproduktmatrix S berechnet. Sei v i Eigenvektor von S zum<br />

Eigenwert λ i > 0. Dann folgt aus (2.10), dass wegen<br />

(X T JJX)(X T Jv i ) = λ i X T Jv i (4.22)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!