21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

3.9. MERKMALSBEWERTUNG UND –AUSWAHL (VA.1.2.3, 13.04.2004) 251<br />

8. Der PATRICK–FISHER-Abstand<br />

G P <br />

<br />

κλ = (pκp(c|Ωκ) − pλp(c|Ωλ)) 2 dc . (3.9.21)<br />

9. Der quadratische Abstand (Spezialfall <strong>von</strong> (3.9.21))<br />

G Q<br />

κλ =<br />

<br />

(p(c|Ωκ) − p(c|Ωλ)) 2 dc . (3.9.22)<br />

Alle Integrale sind oben als bestimmte Integrale über den gesamten n–dimensionalen Merkmalsraum<br />

Rc zu verstehen. Obwohl die Liste der Gütemaße nicht vollständig ist, mag sie hier<br />

genügen. Allen Maßen, mit Ausnahme der Transinformation (3.9.16), ist gemeinsam, dass jeweils<br />

ein Paar <strong>von</strong> Klassen betrachtet wird (und nicht k Klassen gemeinsam). Die Maße Gκλ<br />

nehmen kleine Werte an für p(c|Ωκ) = p(c|Ωλ) und pκ = pλ, und sie nehmen große Werte<br />

an, wenn p(c|Ωκ) = 0 für p(c|Ωλ) = 0. Diese Eigenschaft ist nützlich, da im ersten Falle<br />

die Merkmale zur Unterscheidung der Klassen ungeeignet sind, im zweiten Falle gestatten sie<br />

eine vollkommene Unterscheidung. Es handelt sich bei den Gκλ um Größen, die den „Abstand“<br />

zwischen den bedingten Dichten p(c|Ωκ) und p(c|Ωλ) messen, und je größer dieser Abstand,<br />

desto besser die Merkmale. Diese Idee wird im BHATTACHARYYA-Abstand G B κλ<br />

in (3.9.14)<br />

direkt umgesetzt.<br />

Sowohl die Divergenz G D κλ in (3.9.15) als auch die Transinformation GT in (3.9.16) gehen<br />

auf informationstheoretische Begriffe zurück, die hier kurz ohne weitere Beweise angeführt<br />

werden. Die Entropie H(Ω) der Klassen Ωκ ist definiert durch<br />

H(Ω) = − <br />

pκ log2 pκ . (3.9.23)<br />

κ<br />

Sie ist ein Maß für die Unsicherheit über das Auftreten <strong>von</strong> Werten <strong>von</strong> Ω, bzw. ein Maß für<br />

die Information, die man gewinnt, wenn ein Wert <strong>von</strong> Ω (eine Klasse) beobachtet wird. Die<br />

bedingte Entropie H(Ω|c) wurde bereits in (3.9.6) eingeführt und ist<br />

H(Ω|c) = − <br />

<br />

p(c, Ωκ) log2 p(Ωκ |c) dc . (3.9.24)<br />

Rc<br />

κ<br />

Die Transinformation (wechselseitige Information) GT (Ω; c) ist definiert durch<br />

G T (Ω; c) = G T (c; Ω) = − <br />

<br />

p(c, Ωκ)<br />

p(c, Ωκ) log<br />

κ Rc<br />

p(c)pκ<br />

= H(c) − H(c|Ω) = H(Ω) − H(Ω|c)<br />

= H(c) + H(Ω) − H(c, Ω) .<br />

(3.9.25)<br />

Die Minimierung der bedingten Entropie entspricht also bei konstanten a priori Wahrscheinlichkeiten<br />

pκ der Maximierung der wechselseitigen Information. Im Hinblick auf (3.9.26) lässt<br />

sich GT auch als ein Maß für den Abstand der Dichten p(c, Ωκ) und p(c)pκ auffassen. Die<br />

relative Entropie oder der KULLBACK–LEIBLER-Abstand zwischen zwei Verteilungsdichten<br />

p1 = p(c|Ω1), p2 = p(c|Ω2) ist definiert durch<br />

<br />

D(p1; p2) = p1 ln p1<br />

dc . (3.9.26)<br />

p2

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!