21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.2. STATISTISCHE KLASSIFIKATOREN (VA.3.3.4, 29.09.2004) 333<br />

Eine vierte Spezialisierung ist die konkrete Festlegung der Merkmale cx, die hier aber noch<br />

offen gelassen wird. Eine fünfte Spezialisierung ist die Berechnung lokaler Merkmale nicht in<br />

jedem Bildpunkt sondern nur in jedem m–ten sowie die Einführung einer Auflösungshierarchie.<br />

Die zunächst rein formalen unterschiedlichen Faktorisierungen in (4.2.33) und (4.2.34) bedeuten<br />

unterschiedliche Ansätze für die Modellierung. Für ein einfaches Beispiel wird als Merkmalsvektor<br />

cx der Grauwert f verwendet, der Koordinatenvektor x auf eine Variable x beschränkt<br />

und die Bedingung durch Objektklasse und –lage fortgelassen. Damit reduzieren sich<br />

die bedingten Dichten auf p (x|cx, aκ, t, R) → p(x|f) und p (cx|x, aκ, t, R) → p(f |x). Im<br />

Falle <strong>von</strong> (4.2.33) wird die Verteilungsdichte <strong>von</strong> x bedingt durch einen bestimmten Grauwert f<br />

angegeben. Da die Merkmale im Prinzip beliebig sind, kann man z. B. auch die Verteilungsdichte<br />

<strong>von</strong> x, allgemeiner <strong>von</strong> (x, y, t) T , bedingt durch einen Eckpunkt oder eine Kante angeben. Im<br />

Falle <strong>von</strong> (4.2.34) wird die Verteilungsdichte der Grauwerte f bedingt durch einen bestimmten<br />

Wert <strong>von</strong> x angegeben. Statt des Grauwertes f kann man z. B. auch die Verteilung <strong>von</strong> Waveletkoeffizienten<br />

c(x,y) bedingt durch die Position (x, y) angeben.<br />

Die Fülle der Möglichkeiten zur Definition stochastischer Objektmodelle ist damit angedeutet<br />

aber nicht ausgeschöpft.<br />

4.2.2 Parameterschätzung<br />

Die Konstruktion statistischer Modelle erfordert die Schätzung <strong>von</strong> Wahrscheinlichkeiten und<br />

Modellparametern, wie der letzte Abschnitt zeigte. Das Prinzip der Schätzung <strong>von</strong> Wahrscheinlichkeiten<br />

ist das Abzählen der Häufigkeit <strong>von</strong> Ereignissen, das bereits in Definition 2.3, S. 79,<br />

oder in (3.9.9), S. 249, angewendet wurde.<br />

Maximum-likelihood- und BAYES-Schätzung<br />

Zwei typische Parameterschätzverfahren sind die Maximum-likelihood- und die BAYES-<br />

Schätzung. Beide setzen eine Stichprobe ω <strong>von</strong> beobachteten Werten voraus, die dem zu modellierenden<br />

Problemkreis entstammen und deren Elemente statistisch unabhängig sein müssen.<br />

Wenn je Klasse eine repräsentative Stichprobe<br />

ωκ = { ϱ cκ|ϱ = 1, . . . , Nκ, ϱ cκ ∈ R n } (4.2.35)<br />

gegeben ist und die Stichprobenelemente statistisch unabhängig sind, so ist die Wahrscheinlichkeit<br />

für die Beobachtung der Stichprobe<br />

Nκ <br />

p(ωκ|aκ) = p( ϱ cκ|aκ) , aκ ∈ R m . (4.2.36)<br />

ϱ=1<br />

Die Maximum-likelihood-Schätzung berechnet denjenigen Schätzwert der Parameter einer Verteilungsdichte,<br />

der die Wahrscheinlichkeit der Beobachtung der Stichprobe maximiert.<br />

Definition 4.7 Der Maximum-likelihood-Schätzwert (MLS ) des Parameters aκ ist derjenige<br />

Wert aκ, der die Wahrscheinlichkeit der Stichprobe maximiert, d. h.<br />

aκ = argmax p(ωκ|aκ) . (4.2.37)<br />

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!