21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

410 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

FOR ϱ = 1 TO N (also für alle Spalten)<br />

FOR λ = 1 To k (also für alle Knoten einer Spalte)<br />

berechne Gλϱ = ln p( ϱ c | Ωλ) + maxj∈{1,...,k}{Gj,ϱ−1 + ln pu(Ωλ | Ωj)} ;<br />

setze für ϱ = 1 das maxj{Gj,ϱ−1 + ln pu(Ωλ | Ωj)} = ln pu(Ωλ | #) oder ln p(Ωλ) ;<br />

speichere die Indizes des Vorgängerknotens, der zum Maximum <strong>von</strong> Gλϱ führt<br />

in der letzten Spalte (ϱ = N) liegen k Gewichte GλN, λ = 1, . . . , k vor; man bestimme<br />

das größte dieser Gewichte GκN = maxλ GλN; es gehört zu dem Pfad mit maximalem<br />

Gewicht<br />

man ermittle den Pfad maximalen Gewichtes, indem man vom Knoten (κ, N) aus die<br />

Zeiger zurück zum Startknoten verfolgt; die Folge dieser Knoten gibt die Folge Ω;<br />

Bild 4.7.3: Bestimmung des Pfades maximalen Gewichts<br />

die Robustheit gegenüber einzelnen Fehlklassifikationen <strong>von</strong> <strong>Mustern</strong> ϱ f zu erhöhen, werden<br />

oft die m Folgen Ωi , i = 1, . . . , m mit größter a posteriori Wahrscheinlichkeit bestimmt. Dieses<br />

kann beispielsweise wie es oben als statistischer Ansatz beschrieben wurde geschehen oder<br />

indem man einfach alle kombinatorisch möglichen Folgen bildet, die sich aus einer bestimmten<br />

Anzahl alternativer <strong>Klassifikation</strong>en jedes Musters ϱ f ergeben. Man vergleicht die Folgen Ωi<br />

der Reihe nach mit dem Wörterbuch. Ist die mit höchster a posteriori Wahrscheinlichkeit ein<br />

gültiges Wort, wird sie als das richtige Wort betrachtet und sonst die mit zweithöchster a posteriori<br />

Wahrscheinlichkeit untersucht, usw. Ein rascher Zugriff zum Wörterbuch ist über eine<br />

Hash–Codierung möglich.<br />

n–Gramme<br />

Statt vollständige Wörter der Länge N in einem Wörterbuch zu speichern, kann man auch zulässige<br />

Folgen <strong>von</strong> zwei, drei,... oder n Buchstaben (oder Klassen), die als n-Gramme bezeichnet<br />

werden, speichern und unter Umständen auch ihre Auftrittswahrscheinlichkeiten. Die Übergangswahrscheinlichkeiten<br />

pu(Ωκ |Ωλ) werden als Bigramm–Wahrscheinlichkeiten für das Paar<br />

(Ωλ, Ωκ) bezeichnet. Eine weitere Spezialisierung besteht noch darin, diese n–Gramme abhängig<br />

<strong>von</strong> der Position im Wort zu ermitteln. Wegen Einzelheiten der Anwendung der n-Gramme<br />

zur Kontextberücksichtigung wird auf die Literatur verwiesen. Ein Vorteil der n–Gramme besteht<br />

darin, dass sie unabhängig vom Umfang des Lexikons sind, vorausgesetzt sie wurden mit<br />

einer repräsentativen Stichprobe bestimmt.<br />

Relaxation<br />

Kontext wird in Relaxationsverfahren dadurch berücksichtigt, dass man die Wahrscheinlichkeiten<br />

möglicher alternativer Bedeutungen eines Musters iterativ in Abhängigkeit <strong>von</strong> den Bedeutungen<br />

benachbarter Muster verändert. Um bei der bisherigen Notation zu bleiben, nehmen wir<br />

an, dass zum Muster j f die möglichen Klassen oder Bedeutungen Ω j ⊂ {Ω1, . . . , Ωk} gehören.<br />

Diese können zum Beispiel diejenigen Klassen sein, deren a posteriori Wahrscheinlichkeit über<br />

einer vorgegebenen Schwelle liegt. Damit lässt sich jeder Klasse oder Bedeutung Ωκ ∈ Ω j die<br />

Wahrscheinlichkeit p(Ωκ| j f) zuordnen, mit der Ωκ bei Beobachtung <strong>von</strong> j f auftritt. Für jedes<br />

Paar <strong>von</strong> <strong>Mustern</strong> i f, j f wird es eine Menge Ω ij ⊆ Ω i × Ω j <strong>von</strong> kompatiblen Bedeutungen<br />

geben; eine Bedeutung (Ωκ, Ωλ) ∈ Ω ij ist kompatibel mit i f, j f, wenn in der Nachbarschaft

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!