21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.6. ANDERE KLASSIFIKATORTYPEN (VA.1.1.3, 13.04.2004) 395<br />

man klassifiziere ein vorgelegtes Muster mit n0 Merkmalen, wobei anfangs<br />

eine hohe Rückweisungsschwelle eingestellt wird<br />

IF das Muster wurde zurückgewiesen<br />

THEN Klassifiziere mit n0 = n0 + ∆n , ∆n ≥ 1 und ganzzahlig, Merkmalen,<br />

wobei die Rückweisungsschwelle erniedrigt wurde<br />

UNTIL [das Muster ist in einer der Klassen eingeordnet] ODER [Die Zahl<br />

n0 erreicht eine vorgegebene Größe nmax]<br />

Bild 4.6.1: Prinzip der sequentiellen <strong>Klassifikation</strong><br />

4.6 Andere Klassifikatortypen (VA.1.1.3, 13.04.2004)<br />

4.6.1 Sequentielle Klassifikatoren<br />

Die in den vorigen Abschnitten beschriebenen Klassifikatoren verwenden stets eine feste Anzahl<br />

n <strong>von</strong> Merkmalen. Bei der Wahl <strong>von</strong> n muss ein Kompromiss zwischen Aufwand und<br />

Klassifikatorleistung geschlossen werden. Wenn man Muster zu klassifizieren hat, die nahe am<br />

Klassenzentrum (weit <strong>von</strong> der Klassengrenze) liegen, wird man vermutlich mit kleineren Werten<br />

<strong>von</strong> n auskommen als bei anderen. Ein sequentieller Klassifikator beginnt die <strong>Klassifikation</strong><br />

mit wenigen Merkmalen, im Grenzfall n = 1, prüft dann, ob damit eine <strong>Klassifikation</strong> genügend<br />

zuverlässig möglich ist, und nimmt weitere Merkmale dazu, falls eine <strong>Klassifikation</strong> noch<br />

nicht möglich ist. Dieses Prinzip ist grundsätzlich bei statistischen, verteilungsfreien und nichtparametrischen<br />

Klassifikatoren anwendbar. Es ist zu erwarten, dass bei richtiger Anwendung<br />

im Mittel weniger Merkmale erforderlich sind. Allerdings erfordert sequentielle <strong>Klassifikation</strong><br />

auch zusätzlich Maßnahmen, sodass im Einzelfall zu prüfen ist, ob dieses insgesamt lohnend<br />

ist.<br />

Zu sequentiellen Methoden gibt es eine umfangreiche Literatur, jedoch ist die Bedeutung<br />

dieses Ansatzes für die Musterklassifikation gering geblieben. Die Vorgehensweise ist in<br />

Bild 4.6.1 skizziert. Sie lohnt sich insbesondere, wenn die Kosten für die Ermittlung eines<br />

Merkmals sehr hoch sind, wie z. B. in der medizinischen oder technischen Diagnostik.<br />

Der sog. sequentielle Wahrscheinlichkeitstest ist ein Spezialfall, bei dem n0 = △n =<br />

1 , k = 2 , nmax → ∞, feste Rückweisungsschranken und ein statistischer Klassifikator<br />

mit p1 = p2 verwendet werden. In diesem Spezialfall lässt sich zeigen, dass die sequentielle<br />

Vorgehensweise im Mittel die Zahl der zur <strong>Klassifikation</strong> erforderlichen Merkmale<br />

minimiert. Trotzdem bleibt das Problem, dass man die Folge der bedingten Dichten der<br />

1−, 2−, ..., nmax−dimensionalen Merkmalsvektoren bestimmen und speichern muss. Für den<br />

Normalverteilungsklassifikator ist also die Folge der inversen Kovarianzmatrizen wachsender<br />

Größe zu speichern. Eine wesentliche Voraussetzung für die sinnvolle Anwendung sequentieller<br />

Verfahren ist offenbar, dass die mit n0 Merkmalen berechneten Prüfgrößen – z. B. uλ in (4.1.13),<br />

(4.2.122) oder dλ in (4.4.6) – für eine iterative Berechnung der Prüfgrößen mit n0 + △n Merkmalen<br />

herangezogen werden können. Das ist in den meisten Fällen möglich, trotzdem ist der<br />

Gesamtaufwand für die Realisierung eines Skalarproduktes wie in (4.2.122), (4.4.6) meistens<br />

geringer als der mit der sequentiellen <strong>Klassifikation</strong> verbundene. Bei den in Abschnitt 4.6.4 erörterten<br />

abstandsmessenden Klassifikatoren ist dagegen eine sequentielle Vorgehensweise ohne<br />

wesentlichen zusätzlichen Aufwand möglich. Der mit n Merkmalen berechnete Abstand D (n)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!