21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.2. STATISTISCHE KLASSIFIKATOREN (VA.3.3.4, 29.09.2004) 329<br />

<strong>von</strong> Zufallsvariablen. Für die i–te Zufallsvariable wird, ähnlich wie in (2.4.6), S. 109, eine<br />

Nachbarschaft Nm(Xi), die m ≤ n Werte aus X enthält, definiert mit<br />

Nm(Xi) = {Xν |Xν ist Nachbar <strong>von</strong> Xi} . (4.2.19)<br />

Die Nachbarschaft <strong>von</strong> Xi kann im Prinzip beliebig definiert werden; Beispiele sind die Menge<br />

der Bildpunkte, die in einer 4–Nachbarschaft (s. Definition 2.13, S. 136) liegen; oder die Menge<br />

der Bildpunkte, deren Grau–, Farb–, Geschwindigkeits– oder Tiefenwerte sich um weniger als<br />

ein vorgegebener Schwellwert unterscheiden (die Menge dieser Bildpunkte wird i. Allg. nicht<br />

räumlich benachbart oder zusammenhängend sein); oder die Menge der z. B. drei Merkmale<br />

(cν, cν+1, cν+2) einer orthonormalen Entwicklung, die aufeinanderfolgende Ordnung haben.<br />

Definition 4.5 Ein MARKOV-Zufallsfeld ist definiert durch die Positivität, d. h. p( X) > 0 und<br />

die MARKOV-Eigenschaft<br />

p(Xi|{X1, . . . , Xi−1, Xi+1, . . . , Xn}) = p(Xi|Nm(Xi)) . (4.2.20)<br />

Die durch die Menge { X\Xi} bedingte Wahrscheinlichkeit <strong>von</strong> Xi hängt damit nur <strong>von</strong> den<br />

Elementen in der Nachbarschaft ab. Die MARKOV-Eigenschaft begrenzt also die statistischen<br />

Abhängigkeiten zwischen Zufallsvariablen umso mehr, je kleiner die Zahl m der Elemente der<br />

Nachbarschaft gegenüber der Zahl n der Zufallsvariablen ist. Die MARKOV-Eigenschaft führt<br />

dazu, dass sich die Berechnung der Verbundwahrscheinlichkeit p( X) wesentlich vereinfachen<br />

lässt.<br />

Die Zufallsvariablen werden nun als Knoten eines Graphen G aufgefasst. Zwischen zwei<br />

Knoten wird eine Kante gezogen, wenn die zugehörigen Zufallsvariablen benachbart sind. Als<br />

Clique Ci eines Graphen bezeichnet man eine Menge <strong>von</strong> Knoten, wenn es zwischen jedem Paar<br />

<strong>von</strong> Knoten eine Kante gibt. Die Cliquen sind also vollständig zusammenhängende Teilgraphen.<br />

Die Menge aller Cliquen <strong>von</strong> G ist CG = {C1, . . . , CP } und XCi ist die Menge der zu der<br />

Clique Ci gehörigen Zufallsvariablen. Für die Verbundwahrscheinlichkeit p( X) gelten folgende<br />

Aussagen:<br />

Satz 4.5 Es gibt eine Menge <strong>von</strong> reellwertigen Cliquenfunktionen ΦCi (XCi ), i = 1, . . . , P ,<br />

die symmetrisch in den Argumenten sind, sodass gilt<br />

p( X) = 1<br />

Z<br />

<br />

Ci∈ e CG<br />

ΦCi (XCi ) . (4.2.21)<br />

Dabei ist Z eine Konstante, die die Verteilungsdichte p( X) auf das Integral Eins normiert.<br />

Symmetrie in den Argumenten bedeutet, dass eine Vertauschung der Reihenfolge der Argumente<br />

keine Änderung des Funktionswertes bewirkt. Die obige Gleichung lässt sich in äquivalenter<br />

Form durch ein GIBBS-Feld darstellen:<br />

Satz 4.6 Die Verbundwahrscheinlichkeit ist auch gegeben durch ein GIBBS-Feld<br />

p( X) = 1<br />

Z exp<br />

⎡<br />

⎣− <br />

⎤<br />

VCi (XCi ) ⎦ = 1<br />

Z exp<br />

<br />

−U( <br />

X) . (4.2.22)<br />

Ci∈ e CG

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!