21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

408 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

<br />

<br />

<br />

Bild 4.7.1: Der Einfluss <strong>von</strong> Kontext auf die Zeichenerkennung<br />

Bezeichnungen <strong>von</strong> (4.7.2) sind dieses k N Werte und k N Dichten <strong>von</strong> n · N–dimensionalen<br />

Vektoren.<br />

Zur Anwendung <strong>von</strong> (4.7.4) sind vereinfachende Annahmen erforderlich. Eine mögliche<br />

besteht darin, statistische Unabhängigkeit der Merkmalsvektoren anzunehmen. Dann ist<br />

p(C |Ω) =<br />

N<br />

p( ϱ c| ϱ Ω = Ωκ) . (4.7.5)<br />

ϱ=1<br />

Die Annahme statistischer Unabhängigkeit der Werte <strong>von</strong> 1 Ω, . . . , N Ω würde dagegen den Verzicht<br />

auf Kontextberücksichtigung bedeuten und ist daher nicht möglich. Es gilt hier<br />

p(Ω) = p( 1 Ω, 2 Ω, . . . , N Ω) (4.7.6)<br />

= p( 1 Ω) pu( 2 Ω| 1 Ω) pu( 3 Ω| 1 Ω, 2 Ω) . . . pu( N Ω| 1 Ω . . . N−1 Ω) .<br />

Eine vereinfachende Annahme kann nun darin bestehen, dass man nur Abhängigkeiten zum<br />

direkten Nachfolger berücksichtigt. Dann ist<br />

p(Ω) = p( 1 Ω) pu( 2 Ω| 1 Ω) pu( 3 Ω| 2 Ω) . . . pu( N Ω| N−1 Ω) . (4.7.7)<br />

Statt k N Werten sind nur k 2 Werte pu(Ωκ|Ωλ), κ, λ = 1, . . . , k und die k Werte p(Ωκ) zu<br />

speichern. Mit pu(Ωκ |Ωλ) wird die Wahrscheinlichkeit bezeichnet, dass ein Muster aus Ωκ auftritt,<br />

wenn direkt vorher eines aus Ωλ aufgetreten ist. Diese Übergangswahrscheinlichkeiten<br />

lassen sich durch Auszählen <strong>von</strong> Paaren schätzen; sie sind nicht mit den bedingten Fehlerwahrscheinlichkeiten<br />

p(Ωλ |Ωκ) in (4.1.8) zu verwechseln. Aus Bild 1.5.2, S. 31 geht hervor, dass die<br />

effiziente Berechnung der maximalen a posteriori Wahrscheinlichkeit <strong>von</strong> der effizienten Suche<br />

unter den möglichen Alternativen abhängt. Dieses ist mit dem VITERBI-Algorithmus möglich.<br />

VITERBI-Algorithmus<br />

Es handelt sich hierbei um einen Algorithmus, der mit Hilfe der dynamischen Programmierung<br />

(DP) die Folge Ω mit maximaler a posteriori Wahrscheinlichkeit bestimmt, wenn man die<br />

Kosten bzw. die Gewichte der Kanten geeignet wählt. Im Prinzip ist das auch das Anliegen in<br />

(4.7.4) und Satz 4.3.<br />

Die N Merkmalsvektoren ϱ c und die k je Vektor möglichen Klassen Ωκ sind in Bild 4.7.2<br />

als Knoten eines Netzwerkes gezeigt. Der zum Vektor ϱ c und zur Klasse Ωκ gehörige Knoten<br />

entspricht dem Ereignis, dass der Vektor ϱ c beobachtet wird, wenn das Muster aus Ωκ ist; ihm<br />

wird das Gewicht ln p( ϱ c|Ωκ) zugeordnet. Die den Knoten zugeordneten Gewichte sind also<br />

abhängig <strong>von</strong> den Beobachtungen. Jede Kante zwischen zwei Knoten, <strong>von</strong> denen der eine zu<br />

ϱ c und Ωκ, der andere zu ϱ−1 c und Ωλ gehört, entspricht dem Ereignis, dass auf ein Muster aus

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!