21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

3.9. MERKMALSBEWERTUNG UND –AUSWAHL (VA.1.2.3, 13.04.2004) 257<br />

4.2 Es seien bereits l Merkmale, l = 0, 1, . . . , n ′ − n − 1 eliminiert. Man berechne<br />

n<br />

Gκλ =<br />

′ −l<br />

<br />

Gκλν . (3.9.44)<br />

ν=1<br />

4.3 Man bestimme das Klassenpaar mit dem kleinsten Wert <strong>von</strong> Gκλ und eliminiere das<br />

Merkmal, das zu diesem Gκλ den kleinsten Einzelbeitrag Gκλν liefert.<br />

4.4 Man wiederhole Schritt 4.2 und 4.3 bis <strong>von</strong> den anfänglichen n ′ Merkmalen nur noch n<br />

übrig sind.<br />

Die Auswahlverfahren 1 und 4 sind rechnerisch am einfachsten, da jedes Merkmal nur für<br />

sich allein bewertet wird. Die Verfahren 2 und 3 berücksichtigen auch Beziehungen zu den<br />

schon ausgewählten Merkmalen. Im Verfahren 2 müssen insgesamt n(n ′ − (n − 1)/2) Untermengen<br />

mit einer <strong>von</strong> 1 bis n wachsenden Zahl <strong>von</strong> Merkmalen durchsucht werden. Für das<br />

Beispiel <strong>von</strong> Abschnitt 3.9.1 mit n ′ = 300, n = 30 bedeutet das statt 1, 7 · 10 41 Untermengen<br />

„nur“ 8565. Allerdings wird man i. Allg. mit keinem dieser Auswahlverfahren die im Sinne <strong>von</strong><br />

Definition 3.16 beste Untermenge finden. Abgesehen <strong>von</strong> der Zahl der zu durchsuchenden Untermengen<br />

hängt der erforderliche Aufwand auch vom verwendeten Gütekriterium ab, wie aus<br />

dem vorigen Abschnitt hervorgeht. Wählt man als Gütekriterium die mit dem NN–Klassifikator<br />

ermittelte Erkennungsrate 1 − pN und speichert die erforderlichen Abstandsquadrate<br />

dn−1( j c, k n−1<br />

c ) =<br />

ν=1<br />

( j cν − k cν) 2<br />

(3.9.45)<br />

in einer Abstandsmatrix, so lässt sich diese bei Hinzunahme eines weiteren n–ten Merkmals<br />

iterativ auffrischen gemäß<br />

dn( j c, j c ) =<br />

n<br />

ν=1<br />

( j cν − k cν) 2 = dn−1( j c, k c ) + ( j cn − k cn) 2 . (3.9.46)<br />

Damit wird der Aufwand für die wiederholte Berechnung <strong>von</strong> pN mit unterschiedlicher Zahl<br />

<strong>von</strong> Merkmalen wesentlich reduziert, jedoch muss man die Abstandsmatrix speichern. Die Auswahlverfahren<br />

3 und 4 eignen sich dann, wenn die über alle Klassen gemittelten Gütemaße nicht<br />

genügend aussagekräftig sind, weil sehr starke Unterschiede in den Werten Gκλ für einzelne<br />

Klassenpaare auftreten.<br />

Weitere heuristische Auswahlverfahren erhält man durch Vergrößerung der Zahl der durchsuchten<br />

Untermengen. In Bild 3.9.2d wird nicht nur das beste einzeln bewertete, sondern auch<br />

das am zweitbesten bewertete in die weitere Suche mit einbezogen. In Bild 3.9.2e wird zunächst<br />

die beste Untermenge mit zwei Merkmalen durch vollständige Suche über alle n ′ <br />

Untermen-<br />

2<br />

gen bestimmt, dann die beste Untermenge mit vier Merkmalen, welche die zwei schon ausgewählten<br />

enthält, usw. Es wurde wieder eine Umordnung analog Bild 3.9.2c2 angenommen.<br />

Neben den obigen heuristischen Auswahlverfahren gibt es auch systematische Auswahlverfahren<br />

auf der Basis der dynamischen Programmierung und der „branch–and–bound“ Suche.<br />

Bei geeigneten Gütekriterien lässt sich mit der branch–and–bound Suche sogar die beste Untermenge<br />

finden, d. h. die beste im Sinne des Gütekriteriums, das i. Allg. nicht die Fehllerrate ist.<br />

Daher wird dieses Verfahren als nächstes und dann ein auf der dynamischen Programmierung<br />

beruhendes erläutert.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!