11.05.2013 Aufrufe

Multimodale Segmentierung und Klassifikation zerebraler Läsionen ...

Multimodale Segmentierung und Klassifikation zerebraler Läsionen ...

Multimodale Segmentierung und Klassifikation zerebraler Läsionen ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Methoden 11<br />

der kleinsten Determinante beschreibt. Das richtige Auswählen der Teilmengen H1, zum Starten<br />

des Algorithmus, ist entscheidend für das Resultat. Zwei Möglichkeiten zum Auswählen der<br />

Teilmenge werden im Folgenden betrachtet:<br />

1. Man wählt zufällig eine h-Teilmenge H1 aus der Gesamtmenge aus. Dabei werden mindes-<br />

tens 50% der Beobachtungen ausgewählt.<br />

2. Man wählt zufällig eine (p+1)-Teilmenge aus der Gesamtmenge aus, hierbei ist p die<br />

Anzahl an Variablen. Nach der Auswahl von (p+1) Beobachtungen wird T0 = mean(J)<br />

<strong>und</strong> S0 = cov(J) berechnet. Sollte det(S0) = 0 sein wird eine weitere Beobachtung<br />

zufällig hinzugefügt. Dies wird solange wiederholt bis det(S0) > 0 ist.<br />

Im folgenden Beispiel sollen die Unterschiede zwischen den beiden Auswahlmethoden verdeut-<br />

licht werden. Dafür betrachten wir einen Datensatz mit 400 Beobachtungen <strong>und</strong> p = 2 Variablen.<br />

205 dieser Beobachtungen sind folgenderweise normal verteilt:<br />

<br />

N1 =<br />

0<br />

0<br />

,<br />

1<br />

0<br />

0<br />

2<br />

<strong>und</strong> 195 sind<br />

N2 =<br />

<br />

10<br />

0<br />

<br />

,<br />

<br />

2 0<br />

0 2<br />

Hierbei ist N1 die gesuchte Menge <strong>und</strong> N2 die Menge der Ausreißer. Abbildung 6 zeigt den<br />

2D-Plot des Datensatzes. Es ist leicht ersichtlich, dass es viel schwieriger ist mit Methode 1<br />

eine Teilmenge auszuwählen, die aus nur nicht verrauschten Beobachtungen besteht, als dies<br />

für Methode 2 der Fall ist. Bei Methode 1 würde MCD die Ausreißer genauso berücksichtigen<br />

<strong>und</strong> damit die entsprechende Ellipse falsch berechnen (siehe Abb. 7). Für ansteigende m ist<br />

die Wahrscheinlichkeit eine „saubere“, ohne Noise, (p+1)-Teilmenge aus m zufällig gewählten<br />

(p+1)-Teilmengen zu bekommen:<br />

<br />

1 − (1 − (1 − ɛ) p+1 ) m > 0,<br />

wobei p die Anzahl Variablen <strong>und</strong> m die Anzahl von zufällig gewählten Teilmengen ist. Dabei ist<br />

ɛ der Prozentwert der Ausreißer. Im Gegensatz dazu ist die Wahrscheinlichkeit eine “saubere”<br />

h-Teilmenge zu bekommen annähernd null.<br />

Daher ist es gerade bei solchen Grenzfällen sinnvoll, die (p+1)-Teilmenge als Startmenge zu<br />

nutzen. Der Algorithmus läuft dann wie in Abbildung 8 beschrieben ab. Im zweiten Teil der<br />

Methode werden 50% der Punkte ausgewählt, wobei man nach Möglichkeit 1 zum Auswählen<br />

der Teilmenge wie auf Seite 11 beschrieben vorgeht. Dies garantiert, durch die höhere Anzahl an<br />

11

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!