Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI
Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI
Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Kapitel 2<br />
Pr<strong>in</strong>cipal Component Analysis<br />
Die Pr<strong>in</strong>cipal Component Analysis (PCA, Hauptkomponentenanalyse) stellt<br />
e<strong>in</strong> Verfahren zur l<strong>in</strong>earen Dimensionsreduktion dar, das zuerst 1901 von<br />
Pearson [23] beschrieben und unabhängig davon 1931 von Hotell<strong>in</strong>g [14]<br />
entwickelt wurde.<br />
Pearsons Herleitung <strong>der</strong> PCA löst das geometrische Problem, e<strong>in</strong>e Menge<br />
von Punkten x 1 , . . . , x N ∈ R n aus e<strong>in</strong>em n-dimensionalen Raum bestmöglich<br />
l<strong>in</strong>ear auf e<strong>in</strong>en Unterraum niedrigerer Dimension q < n abzubilden. ”<br />
Bestmöglich“<br />
ist dabei im quadratischen S<strong>in</strong>ne zu verstehen, d.h. die Summe <strong>der</strong><br />
quadrierten Abstände zwischen den Punkten und ihren jeweiligen Projektionen<br />
auf den Unterraum soll m<strong>in</strong>imal werden.<br />
Hotell<strong>in</strong>g h<strong>in</strong>gegen suchte <strong>in</strong> e<strong>in</strong>er Menge von Punkten aus e<strong>in</strong>em hochdimensionalen<br />
Raum nach zue<strong>in</strong>an<strong>der</strong> orthogonalen Richtungen, <strong>in</strong> denen die<br />
Varianz <strong>der</strong> Daten möglichst groß ist. Man kann zeigen, dass beide Probleme<br />
äquivalent s<strong>in</strong>d.<br />
Es seien N mittelwertfreie Daten x 1 , . . . , x N ∈ R n <strong>der</strong> Dimension n gegeben. 1<br />
Diese Vektoren können als Messwerte o<strong>der</strong> Samples e<strong>in</strong>er Zufallsvariablen x<br />
aufgefasst werden. Aus den Samples ergibt sich die geschätzte Kovarianzmatrix<br />
C von x zu<br />
C = 1 N∑<br />
x i x T i = 1 N<br />
N XT X , (2.1)<br />
i=1<br />
wobei die Matrix X = (x 1 , . . . , x N ) T ∈ R N×n die Vektoren als Zeilen enthält.<br />
Die Lösung <strong>der</strong> obigen Probleme läuft auf e<strong>in</strong>e Hauptachsentransformation<br />
1 Ist <strong>der</strong> Mittelwert ¯x = 1/N ∑ N<br />
i=1 x i <strong>der</strong> Daten von Null verschieden, so ersetze man<br />
im Folgenden immer x i durch die mittelwertfreie Größe ˜x i = x i − ¯x, i = 1, . . . , N.