Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI
Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI
Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
32 Multidimensional Scal<strong>in</strong>g<br />
zugehörigen Eigenwerten λ 1 ≥ . . . ≥ λ N ≥ 0. Sei Λ k ∈ R k×k die Diagonalmatrix,<br />
die nur aus den ersten k Spalten von Λ besteht und V k = (v 1 , . . . , v k )<br />
die Matrix mit den zugehörigen Eigenvektoren. Nach [21] wird für beliebiges<br />
k ≤ n (4.13) m<strong>in</strong>imal für<br />
Y = V k Λ 1 2<br />
k<br />
. (4.17)<br />
Bis jetzt wurde immer angenommen, dass ∆ e<strong>in</strong>e euklidische Distanzmatrix<br />
ist. S<strong>in</strong>d die Unähnlichkeiten jedoch nicht-euklidische Distanzen, so ist die<br />
Matrix B ∆ = − 1 2 J∆(2) J aus (4.7) i.A. nicht mehr positiv semidef<strong>in</strong>it und<br />
besitzt deshalb negative Eigenwerte. Das bedeutet gleichzeitig, dass sich ∆ (2)<br />
nicht mehr als XX T mit e<strong>in</strong>er reellen Matrix X ∈ R N×n schreiben lässt.<br />
Beim klassischen MDS, bei dem trotzdem e<strong>in</strong>e euklidische E<strong>in</strong>bettung gesucht<br />
wird, werden solche negativen Eigenwerte als Fehler betrachtet und auf Null<br />
gesetzt, d.h. die Matrix Λ k <strong>in</strong> (4.17) wird ersetzt durch<br />
˜Λ k := diag(λ + 1 , . . . , λ + k ) , λ+ i := max(λ i , 0) ∀i . (4.18)<br />
In diesem Fall ist die E<strong>in</strong>bettung Ỹ, die den Stra<strong>in</strong> (4.13) m<strong>in</strong>imiert, gegeben<br />
durch<br />
1<br />
2<br />
Ỹ = V k ˜Λ<br />
k . (4.19)<br />
Äquivalenz von klassischem MDS und PCA<br />
In diesem Abschnitt soll gezeigt werden, dass die Lösung (4.17) des klassischen<br />
MDS äquivalent ist zur PCA. Die Kovarianzmatrix (2.1) lässt sich<br />
für unzentrierte Daten X ∈ R N×n mit Hilfe <strong>der</strong> Zentrierungsmatrix (4.6)<br />
schreiben als<br />
C = 1 N (JX)T (JX) = 1 N XT JJX = 1 N XT JX ∈ R n×n . (4.20)<br />
Ensprechend ist die Skalarproduktmatrix <strong>der</strong> zentrierten Konfiguration JX<br />
gegeben durch<br />
S = (JX)(JX) T = JXX T J ∈ R N×N , (4.21)<br />
und die p ≤ m<strong>in</strong>(n, N) echt positiven Eigenwerte λ 1 ≥ . . . ≥ λ p > 0 bei<strong>der</strong><br />
Matrizen stimmen übere<strong>in</strong>.<br />
Im Folgenden werden die Hauptkomponenten von X aus <strong>der</strong> Eigenwertzerlegung<br />
<strong>der</strong> Skalarproduktmatrix S berechnet. Sei v i Eigenvektor von S zum<br />
Eigenwert λ i > 0. Dann folgt aus (2.10), dass wegen<br />
(X T JJX)(X T Jv i ) = λ i X T Jv i (4.22)