21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

3.9. MERKMALSBEWERTUNG UND –AUSWAHL (VA.1.2.3, 13.04.2004) 247<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

Bild 3.9.1: Beispiele für Bereiche, die <strong>von</strong> Merkmalen verschiedener Klassen eingenommen<br />

werden. Der Abstand der Mittelwerte |µ 1 − µ 2| ist allein nicht ausreichend, die Güte der Merkmale<br />

zu beurteilen.<br />

Aus der obigen Diskussion geht hervor, dass es i. Allg. nicht möglich ist, die beste Untermenge<br />

<strong>von</strong> Merkmalen zu bestimmen. Andererseits liefern erfahrungsgemäß auch einfache<br />

Auswahlverfahren bereits wesentlich bessere Ergebnisse als eine Zufallsauswahl. Es wird noch<br />

erwähnt, dass oft auch die Verfahren <strong>von</strong> Abschnitt 3.8 als Merkmalsauswahl bezeichnet werden,<br />

da eine Reduzierung der Zahl der Variablen erreicht wird. Der Unterschied ist, dass dort<br />

neue Merkmale durch Linearkombination der vorhandenen gebildet werden, während hier die<br />

n besonders geeigneten unverändert aus der Menge der vorgegebenen übernommen werden.<br />

3.9.2 Gütemaße für Merkmale<br />

Der erste Schritt zur Auswahl einer Untermenge <strong>von</strong> Merkmalen aus einer Menge vorgegebener<br />

Merkmale ist, wie im vorigen Abschnitt erörtert, die Vorgabe eines Maßes zur Bewertung<br />

der Güte <strong>von</strong> Merkmalen. Dieses Gütemaß sollte im Zusammenhang mit der Fehlerwahrscheinlichkeit<br />

bei der <strong>Klassifikation</strong> stehen. Theoretisch besonders befriedigend sind natürlich solche<br />

Gütemaße, mit denen sich sehr enge obere und untere Schranken der Fehlerwahrscheinlichkeit<br />

angeben lassen. Das Gütemaß sollte aber auch numerisch noch mit vertretbarem Aufwand<br />

berechenbar sein, um für Zwecke der Musterklassifikation praktisch interessant zu sein; besonders<br />

günstig sind dafür solche Gütemaße, für die sich bei bestimmten Verteilungsdichten<br />

der Merkmale geschlossene Formeln angeben lassen. Diese beiden sich widersprechenden Forderungen<br />

führen zu der Vermutung, dass eine enge Abschätzung der Fehlerwahrscheinlichkeit<br />

(im Extremfall die Fehlerwahrscheinlichkeit selbst) numerisch nicht mehr auswertbar ist und<br />

eine auswertbare Abschätzung nur sehr grob ist. Ein sinnvoller Kompromiss wird stets vom<br />

jeweiligen Problem und der verfügbaren Rechenkapazität abhängen.<br />

Zunächst geht aus Bild 3.9.1 hervor, dass die Güte <strong>von</strong> Merkmalen sicher mit dem Abstand<br />

<strong>von</strong> Merkmalsvektoren verschiedener Klassen zusammenhängt, dass aber der Abstand<br />

der Mittelwerte allein nicht ausreicht, um vernünftige Aussagen zu bekommen. Im Allgemeinen<br />

kommt es darauf an, ein geeignetes Maß für den Abstand der Verteilungsdichten der Merkmale<br />

aus verschiedenen Klassen zu finden, und dabei spielen alle Parameter eine Rolle. Dieses wird<br />

auch in Abschnitt 4.8.4 in (4.8.26), S. 424, und (4.8.44), S. 427, wieder aufgegriffen. Praktisch<br />

alle Gütemaße für Merkmale beruhen daher auf geeigneten verallgemeinerten Abstandsmaßen.<br />

In Abschnitt 4.1.4 wird gezeigt, dass der Klassifikator, der die Fehlerwahrscheinlichkeit<br />

pf minimiert (der sog. BAYES-Klassifikator, Satz 4.3), die a posteriori Wahrscheinlichkeiten<br />

p(Ωκ|c ), κ = 1, . . . , k der Klassen berechnet und sich für die Klasse mit maximaler a posteriori<br />

Wahrscheinlichkeit entscheidet. Die Fehlerwahrscheinlichkeit dieses Klassifikators ist pB.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!