21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.1. STATISTISCHE ENTSCHEIDUNGSTHEORIE (VA.1.2.3, 13.04.2004) 317<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

Bild 4.1.3: Muster in dem mit Ω1 bezeichneten Bereich sind mit einer Wahrscheinlichkeit, die<br />

der senkrecht schraffierten Fläche entspricht, tatsächlich aus Ω1; entsprechendes gilt für Ω2 usw.<br />

Die Wahrscheinlichkeit pc ein Muster richtig zu klassifizieren, entspricht also der Summe der<br />

schraffierten Flächen, und das ist gerade das in (4.1.38) auftretende Integral<br />

pz =<br />

pf =<br />

k<br />

pκp(Ω0 |Ωκ) ,<br />

κ=1<br />

k<br />

κ=1<br />

pκ<br />

k<br />

p(Ωλ |Ωκ) , (4.1.40)<br />

λ=1<br />

λ=κ<br />

1 = pc + pz + pf .<br />

4.1.6 Verallgemeinerungen der <strong>Klassifikation</strong> eines Merkmalsvektors<br />

Wegen der Problematik der geeigneten Definition allgemeiner Kostenfunktionen rλκ wird oft<br />

die (0, 1)–Kostenfunktion verwendet, d. h. die Fehlerwahrscheinlichkeit minimiert. Die Vorgehensweise<br />

ist durch den BAYES-Klassifikator und Satz 4.3 gegeben. Dort ist zunächst nur<br />

die <strong>Klassifikation</strong> eines einfachen Musters, das durch einen Merkmalsvektor fester Dimension<br />

beschrieben wird, betrachtet worden. Es gibt jedoch einige praktisch wichtige unmittelbare<br />

Verallgemeinerungen, die am Beispiel der <strong>Klassifikation</strong>sprobleme <strong>von</strong> Abschnitt 1.5 betrachtet<br />

werden.<br />

1. Der einfachste und auch der „klassische“ Fall ist die <strong>Klassifikation</strong> eines einzelnen Merkmalsvektors<br />

bzw. eines Musters als Ganzes in Bild 1.5.1, S. 30. Es werden gemäß (4.1.34)<br />

die a posteriori Wahrscheinlichkeiten aller Klassen berechnet und die Klasse mit maximaler<br />

a posteriori Wahrscheinlichkeit ausgewählt<br />

p(Ωλ |c) = p(Ωλ)p(c|Ωλ)<br />

p(c)<br />

. (4.1.41)<br />

2. Daraus ergibt sich sofort die allgemeine Lösung für die <strong>Klassifikation</strong> <strong>von</strong> <strong>Mustern</strong> im<br />

Kontext in Bild 1.5.2, S. 31. Dazu wird die Folge der beobachteten Merkmalsvektoren<br />

[ 1 c, . . . , N c] zu einem erweiterten Merkmalsvektor C zusammengefasst und analog die<br />

Folge der zu bestimmenden Klassen [ 1 Ω, . . . , N Ω] zu einer erweiterten Klasse Ω. Damit

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!