21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.2. STATISTISCHE KLASSIFIKATOREN (VA.3.3.4, 29.09.2004) 331<br />

Der erste Zustand s1 wird mit einer Wahrscheinlichkeit gewählt, die durch den Vektor der<br />

Anfangswahrscheinlichkeiten definiert ist<br />

π = (πi) , i = 1, 2, . . . , I , (4.2.26)<br />

πi = P (s1 = Si) , 0 ≤ πi , <br />

πi = 1 .<br />

i<br />

Mit der Festlegung π1 = 1, πi = 0, i = 2, 3, . . . , I kann der Start im Zustand S1 erzwungen<br />

werden. Die generierten Zustände sind nicht beobachtbar – daher der Zusatz “hidden”.<br />

Der zweite Mechanismus generiert eine Beobachtung oi, wenn das Modell im Zustand Si<br />

ist. Beobachtbar ist die Folge der Beobachtungen o = [oi], die aus einer endlichen Menge <strong>von</strong><br />

Ausgabesymbolen oder Beobachtungssymbolen<br />

O = {O1, O2, . . . , OL} (4.2.27)<br />

gewählt wird. Ein Ausgabesymbol wird mit einer Wahrscheinlichkeit ausgewählt, die durch die<br />

Matrix der Ausgabewahrscheinlichkeiten definiert ist zu<br />

B I×L = (bil) , i = 1, . . . , I , l = 1, . . . , L , (4.2.28)<br />

bil = P (Ol wird emittiert im Zustand Si|sn = Si)<br />

= P (on = Ol |sn = Si) , 0 ≤ bil , <br />

bil = 1 .<br />

Damit werden Varianten der Aussprache <strong>von</strong> Wörtern und Fehler in der Erkennung einzelner<br />

Wortuntereinheiten (z. B. Laute) modelliert. Neben den oben angegebenen diskreten Ausgabewahrscheinlichkeiten<br />

können auch andere verwendet werden, z. B. eine Mischung aus Normalverteilungen.<br />

Definition 4.6 Ein MARKOV-Modell bzw. ein Hidden-MARKOV-Modell (HMM) ist definiert<br />

durch das Tripel<br />

HMM = (π, A, B) (4.2.29)<br />

der Anfangs–, Zustandsübergangs– und Ausgabewahrscheinlichkeiten.<br />

Ein Wort w wird also wie folgt generiert. Mit der Wahrscheinlichkeit πi wird das Zustandssymbol<br />

Si als Anfangszustand s1 gewählt. Von Si erfolgt ein Zustandsübergang nach Sj mit<br />

der Wahrscheinlichkeit aij. Im Zustand Si wird das Ausgabesymbol Ol mit der Wahrscheinlichkeit<br />

bil emittiert. Die Schritte Zustandsübergang und Emission einer Ausgabe werden so oft<br />

wiederholt, bis eine Beobachtung der Länge T generiert wurde.<br />

Je nach Einschränkung der Zustandsübergangswahrscheinlichkeiten unterscheidet man z. B.<br />

ergodische HMM, bei denen alle Zustandsübergänge möglich sind und links–rechts HMM,<br />

bei denen zeitlich rückwärts gerichtete Zustandsübergänge ausgeschlossen sind. Diese links–<br />

rechts–Modelle sind die in der Worterkennung verwendeten, da sie dem Fortschreiten in der<br />

Zeit entsprechen.<br />

Bei den Hidden–MARKOV-Modellen wird die Struktur einmal festgelegt und nur die Parameter<br />

im Training berechnet; dafür können die Ausgabewahrscheinlichkeiten diskret oder kontinuierlich<br />

durch Mischungsverteilungen modelliert werden. Bei den strukturierten MARKOV-<br />

Modellen, für die auf die Literatur verwiesen wird, kann auch die Struktur im Training verändert<br />

werden, jedoch wird nur eine Normalverteilung verwendet.<br />

l

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!