11.05.2013 Aufrufe

Multimodale Segmentierung und Klassifikation zerebraler Läsionen ...

Multimodale Segmentierung und Klassifikation zerebraler Läsionen ...

Multimodale Segmentierung und Klassifikation zerebraler Läsionen ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Methoden 7<br />

Abbildung 4: Wassergehalt vs. T ∗ 2<br />

für verschiedene <strong>Läsionen</strong>. Die unterschiedlichen Datenpunkte<br />

der <strong>Läsionen</strong> sind durch verschiedene Farben <strong>und</strong> Symbole voneinander unterscheidbar.<br />

3.2 Hauptkomponentenanalyse<br />

Die Hauptkomponentenanalyse arbeitet mit multivariaten Datensätzen, deren Dimension der<br />

Anzahl an Variablen entspricht (z.B. drei für T1, T ∗ 2 <strong>und</strong> H2O). Das wichtigste Ziel der PCA ist<br />

die Reduktion der Dimensionen. Aus dem Anfangssatz von Variablen werden die Hauptkompo-<br />

nenten, latente Variablen, berechnet. Diese Hauptkomponenten sind Linearkombinationen der<br />

ursprünglichen Variablen. Nun kann man mit wenigen Variablen ein vorher viel komplexeres<br />

Problem darstellen (siehe Abb. 5). Dies hilft mehrdimensionale Probleme auf zwei- oder dreidi-<br />

mensionale Probleme zu vereinfachen. Somit ist es auch möglich, die Objekte des multivariaten<br />

Datensatzes graphisch darzustellen, um so ihre Beziehung oder Ähnlichkeiten aufzuzeigen. Die<br />

Haupkomponentenanalyse ist bei Datensätzen mit korrelierten Variablen besonders geeignet, da<br />

solche Variablen zusammengefasst werden können. Damit ein Datensatz unter einem möglichst<br />

kleinem Informationsverlust zu einer geringeren Dimension transformiert werden kann, sollte<br />

jede Hauptkomponente einen möglichst großen Anteil der Varianz der Daten erklären, die noch<br />

nicht von einer anderen Hauptkomponente beschrieben wurde. Die Hauptkomponenten sind<br />

deshalb unkorreliert.<br />

Mathematisch gesehen handelt es sich bei der PCA um das Lösen eines Eigenwertproblems. Man<br />

betrachtet dazu n Zufallsvariablen X1, ..., Xn mit der Dimension m. Wobei n ≥ 2 <strong>und</strong> m ≥ 1 ist.<br />

Somit weißt die zugehörige Datenmatrix X die Dimension mxn auf <strong>und</strong> besteht aus m Objekten<br />

7

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!