23.11.2014 Aufrufe

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

Nichtlineare Dimensionsreduktionsmethoden in der ... - DPI

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Kapitel 2<br />

Pr<strong>in</strong>cipal Component Analysis<br />

Die Pr<strong>in</strong>cipal Component Analysis (PCA, Hauptkomponentenanalyse) stellt<br />

e<strong>in</strong> Verfahren zur l<strong>in</strong>earen Dimensionsreduktion dar, das zuerst 1901 von<br />

Pearson [23] beschrieben und unabhängig davon 1931 von Hotell<strong>in</strong>g [14]<br />

entwickelt wurde.<br />

Pearsons Herleitung <strong>der</strong> PCA löst das geometrische Problem, e<strong>in</strong>e Menge<br />

von Punkten x 1 , . . . , x N ∈ R n aus e<strong>in</strong>em n-dimensionalen Raum bestmöglich<br />

l<strong>in</strong>ear auf e<strong>in</strong>en Unterraum niedrigerer Dimension q < n abzubilden. ”<br />

Bestmöglich“<br />

ist dabei im quadratischen S<strong>in</strong>ne zu verstehen, d.h. die Summe <strong>der</strong><br />

quadrierten Abstände zwischen den Punkten und ihren jeweiligen Projektionen<br />

auf den Unterraum soll m<strong>in</strong>imal werden.<br />

Hotell<strong>in</strong>g h<strong>in</strong>gegen suchte <strong>in</strong> e<strong>in</strong>er Menge von Punkten aus e<strong>in</strong>em hochdimensionalen<br />

Raum nach zue<strong>in</strong>an<strong>der</strong> orthogonalen Richtungen, <strong>in</strong> denen die<br />

Varianz <strong>der</strong> Daten möglichst groß ist. Man kann zeigen, dass beide Probleme<br />

äquivalent s<strong>in</strong>d.<br />

Es seien N mittelwertfreie Daten x 1 , . . . , x N ∈ R n <strong>der</strong> Dimension n gegeben. 1<br />

Diese Vektoren können als Messwerte o<strong>der</strong> Samples e<strong>in</strong>er Zufallsvariablen x<br />

aufgefasst werden. Aus den Samples ergibt sich die geschätzte Kovarianzmatrix<br />

C von x zu<br />

C = 1 N∑<br />

x i x T i = 1 N<br />

N XT X , (2.1)<br />

i=1<br />

wobei die Matrix X = (x 1 , . . . , x N ) T ∈ R N×n die Vektoren als Zeilen enthält.<br />

Die Lösung <strong>der</strong> obigen Probleme läuft auf e<strong>in</strong>e Hauptachsentransformation<br />

1 Ist <strong>der</strong> Mittelwert ¯x = 1/N ∑ N<br />

i=1 x i <strong>der</strong> Daten von Null verschieden, so ersetze man<br />

im Folgenden immer x i durch die mittelwertfreie Größe ˜x i = x i − ¯x, i = 1, . . . , N.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!