21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.1. STATISTISCHE ENTSCHEIDUNGSTHEORIE (VA.1.2.3, 13.04.2004) 319<br />

Problem der Berücksichtigung <strong>von</strong> Kontext, das Problem der Kombination <strong>von</strong> Informationsquellen<br />

und i. Allg. das Problem des Treffens einer optimalen Folge <strong>von</strong> Entscheidungen durch<br />

den BAYES-Klassifikator lösen. Was die statistische Entscheidungsthoerie nicht leistet ist die<br />

Entwicklung <strong>von</strong> statistischen Modellen, die die Gegebenheiten eines Problemkreises angemessen<br />

approximieren, und die Entwicklung <strong>von</strong> effizienten Algorithmen für die Auswertung<br />

z. B. <strong>von</strong> (4.1.43) oder (4.1.44).<br />

Jeder gute Algorithmus zur <strong>Klassifikation</strong> <strong>von</strong> <strong>Mustern</strong> wird versuchen, ein geeignetes Gütekriterium<br />

zu optimieren. Die mittleren Kosten bzw. das Risiko V in (4.1.10) sind ein Beispiel<br />

für ein relativ allgemeines Gütekriterium, die Fehlerwahrscheinlichkeit pf ist ein Beispiel für<br />

ein spezialisiertes Gütekriterium. Für beide wurden in diesem Abschnitt Lösungen angegeben.<br />

Weitere Elemente eines Gütekriteriums können z. B. die Komplexität (Rechenzeit), der Trainingsaufwand,<br />

die Kosten einer speziellen Hardwarerealisierung, die Adaptierbarkeit an neue<br />

Beobachtungen oder die Wartbarkeit sein. Diese Elemente entziehen sich bisher einer formalen<br />

Behandlung. Wie schon erwähnt, ist ein anderer Ansatz die Einbeziehung des Einflusses<br />

einer endlichen Stichprobe in die Ableitung eines Klassifikators; dafür wird auf Abschnitt 4.3<br />

verwiesen.<br />

Schließlich ist es naheliegend, die gleiche <strong>Klassifikation</strong>saufgabe mit mehreren Klassifikatoren<br />

durchzuführen und deren Ergebnisse so zu kombinieren, dass die resultierende Fehlerrate<br />

kleiner ist als die jedes einzelnen Klassifikators. Im Prinzip liegt hier ein erneutes <strong>Klassifikation</strong>sproblem<br />

vor, das in optimaler Weise zu lösen ist; wie das geschieht, folgt grundsätzlich aus<br />

Satz 4.1 – Satz 4.3. Soll also z. B. die aus der Kombination oder Fusion <strong>von</strong> Klassifikatoren<br />

resultierende Fehlerrate minimiert werden, so werden die (nichtquantisierten analogen) Ausgaben<br />

der Klassifikatoren als Merkmalsvektor eines weiteren BAYES-Klassifikators aufgefasst.<br />

Auf diese Weise können prinzipiell ganz verschiedene Klassfikationsergebnisse wie die eines<br />

statistischen Klassifikators, einer Support Vektor Maschine und eines neuronalen Netzes kombiniert<br />

werden. Da der BAYES-Klassifikator auf recht unterschiedliche Arten approximiert werden<br />

kann (wie eben z. B. mit einem statistischen Klassifikator, einer Support Vektor Maschine<br />

oder einem neuronalen Netz) ergeben sich hier zahlreiche mögliche Varianten. Für systematische<br />

Verfahren zur Generierung unterschiedlicher Klassifikatoren sowie zur Fusion <strong>von</strong> deren<br />

Ergebnissen wird auf die Literatur in Abschnitt 4.11 verwiesen.<br />

4.1.7 Klassenspezifische <strong>Klassifikation</strong><br />

Die optimale Entscheidungsregel in (4.1.16) sowie auch speziell der BAYES-Klassifikator in<br />

Satz 4.3 sind so aufgebaut, dass ein und derselbe Merkmalsvektor für jede der k Klassen Ωκ<br />

verwendet wird. Es ist bemerkenswert, dass die statistische Entscheidungstheorie sich auch so<br />

formulieren lässt, dass für jede Klasse klassenspezifische Merkmale gemäß (3.1.3), S. 164, verwendet<br />

werden, was in einer klassenspezifischen <strong>Klassifikation</strong> resultiert. Die Entscheidungsregel<br />

(4.1.35) gilt im Prinzip für beliebige Merkmalsvektoren, insbesondere natürlich auch für<br />

die ursprünglichen Abtastwerte des Musters. Wenn im Merkmalsvektor die gleiche Information<br />

enthalten ist wie in den Abtastwerten, gilt<br />

κ = argmax pλp(c|Ωλ)<br />

λ∈{1,...,k}<br />

= argmax pλp(f |Ωλ) ,<br />

λ∈{1,...,k}<br />

(4.1.45)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!