21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

318 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

geht (4.1.34) über in<br />

p(Ω|C) = p(Ω)p(C|Ω)<br />

p(C)<br />

. (4.1.42)<br />

Ein wesentliches Problem liegt hier in der Komplexität der Bestimmung der maximalen a<br />

posteriori Wahrscheinlichkeit. Auf Lösungsansätze dafür wird in Abschnitt 4.7 eingegangen.<br />

3. Die <strong>Klassifikation</strong> <strong>von</strong> Texturen (Bild 1.5.4, S. 32) bedeutet entweder die <strong>Klassifikation</strong><br />

eines Musters als Ganzes oder <strong>von</strong> <strong>Mustern</strong> im Kontext, bringt also gegenüber den obigen<br />

beiden Gleichungen nichts Neues.<br />

4. Die <strong>Klassifikation</strong> isoliert gesprochener Wörter (Worterkennung) basiert direkt auf<br />

(4.1.34) . Die Erkennung der Wörter in zusammenhängend gesprochener Sprache (kontinuierliche<br />

Spracherkennung), die in Bild 1.5.5, S. 32, illustriert wurde, beruht auf einer<br />

Verallgemeinerung <strong>von</strong> (4.1.34). Der üblichen Notation folgend bezeichnen wir das beobachtete<br />

akustische Signal mit o, wobei es im Augenblick unerheblich ist, ob dieses<br />

direkt das Ausgangssignal eines Mikrofons ist, eine Folge <strong>von</strong> Merkmalsvektoren oder<br />

dergleichen. Eine Folge der Länge N <strong>von</strong> Wörtern aus einem vorgegebenen Vokabular<br />

wird mit w = [w1, . . . , wN] bezeichnet. Der BAYES-Ansatz beruht dann wieder darauf,<br />

die Wortfolge mit maximaler a posteriori Wahrscheinlichkeit zu bestimmen, d. h.<br />

p(w|o) = p(w)p(o|w)<br />

p(o)<br />

. (4.1.43)<br />

Diese Beziehung enthält in dem Term p(o|w) die akustische Information und in dem<br />

Term p(w) ein stochastisches Sprachmodell, sodass sich eine theoretisch fundierte Lösung<br />

auf einer einheitlichen Basis ergibt.<br />

5. Das Problem der Erkennung dreidimensionaler Objekte (Objekterkennung) aus zweidimensionalen<br />

Ansichten wurde in Bild 1.5.8, S. 33, dargestellt. Hier spielen noch die Algorithmen,<br />

die auf der Zuordnung <strong>von</strong> Modell– zu Bildmerkmalen basieren, eine große Rolle;<br />

allerdings gewinnen statistische Ansätze zunehmend Interesse und Bedeutung. Wenn<br />

man das statistische Modell der Klasse Ωκ mit Mκ bezeichnet und die im Bild beobachteten<br />

Merkmale mit O, so ergibt der BAYES-Ansatz direkt<br />

p (Mλ |O) = p(Mλ)p (O|Mλ)<br />

p(O)<br />

. (4.1.44)<br />

In dieser allgemein gehaltenen Formulierung ist z. B. das Problem der unbekannten Lageparameter<br />

in Mλ „versteckt“.<br />

Für die Bestimmung der Klasse mit maximaler a posteriori Wahrscheinlichkeit ist in<br />

(4.1.44), wie auch in den anderen drei obigen Gleichungen, der Nenner unerheblich.<br />

Man sieht, dass die statistische Entscheidungsthoerie mit ihrem Ansatz der Minimierung des<br />

Risikos bei der <strong>Klassifikation</strong> theoretisch fundierte Lösungen für recht unterschiedliche Probleme<br />

liefert. Insbesondere lässt sich das Problem der Unterscheidung <strong>von</strong> mehreren Klassen, das

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!