21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

358 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

Erzeuge aus ω eine Anfangsstichprobe ω0 = SPEICHER; ω0 enthalte NS Muster.<br />

FOR i = 1 TO NS<br />

Klassifiziere alle Muster aus ω nur unter Verwendung <strong>von</strong> <strong>Mustern</strong> aus ω0−{ i c}<br />

IF alle Muster aus ω richtig klassifiziert<br />

THEN Setze ω0 = ω0 − { i c}<br />

Bild 4.2.8: Weitere Reduktion einer verdichteten Stichprobe<br />

FOR i = 1 TO N1<br />

FOR j = 1 TO N2<br />

Berechne mij = ( i c1 + j c2)/2 ; i c1 ∈ ω1, j c2 ∈ ω2.<br />

IF [für alle ϱ c1 ∈ ω1 gilt d(mij , ϱ c1) ≥ d(mij , i c1) ] AND [für alle<br />

ϱ c2 ∈ ω2 gilt d(mij , ϱ c2) ≥ d(mij , j c2)]<br />

THEN Übernimm das Paar { i c1, j c2} nach K–GRENZE<br />

Bild 4.2.9: Bestimmung <strong>von</strong> <strong>Mustern</strong> auf der Klassengrenze, gespeichert in K–GRENZE<br />

dass man auch mit weniger als den in SPEICHER befindlichen <strong>Mustern</strong> die gesamte Stichprobe<br />

ω richtig klassifizieren kann. Daher wird in Bild 4.2.8 ein erweiterter Algorithmus angegeben.<br />

Am Ende ist die reduzierte Untermenge in ω0 enthalten. Alle Muster aus ω werden mit ω0<br />

richtig klassifiziert, aber am Ende enthält ω0 i. Allg. weniger Muster als das anfängliche ω0 =<br />

SPEICHER.<br />

Auch zu dem zweiten Algorithmus sind Verbesserungen denkbar. Aus Bild 4.2.6 geht hervor,<br />

dass es reichen würde, die Muster zu speichern, welche die Trennfläche zwischen den<br />

Klassen bestimmen. Ein entsprechender Algorithmus ist in Bild 4.2.9 gezeigt. Dabei werden<br />

nur zwei Klassen Ω1, Ω2, repräsentiert durch zwei Stichproben ω1, ω2, angenommen; die Stichprobenumfänge<br />

seien N1, N2. Wie in Abschnitt 4.8.1 dargelegt wird, lässt sich ein Mehrklassenproblem<br />

stets auf mehrere Zweiklassenprobleme zurückführen.<br />

Am Ende des Algorithmus in Bild 4.2.9 enthält K–GRENZE Paare <strong>von</strong> <strong>Mustern</strong>, die die<br />

Klassengrenze bestimmen. Auf die Muster in K–GRENZE kann noch der Algorithmus in<br />

Bild 4.2.7 angewendet werden. Allerdings ist der Algorithmus gemäß Bild 4.2.9 auf relativ klei-<br />

Bilde eine zufällige Zerlegung der Stichprobe ω in L Teilmengen ω1, . . . , ωL , L ≥ 3.<br />

FOR i = 1 TO L<br />

j = (i + 1) mod L<br />

Klassifiziere Muster aus ωi mit der NN Regel unter Verwendung <strong>von</strong> <strong>Mustern</strong><br />

aus ωj.<br />

Eliminiere alle Muster, die beim vorhergehenden Schritt falsch klassifiziert<br />

wurden.<br />

Bilde aus den verbleibenden <strong>Mustern</strong> eine neue Stichprobe ω.<br />

UNTIL [in den letzten I Iterationen gab es keine Eliminationen mehr]<br />

Bild 4.2.10: Algorithmus zum Editieren einer Stichprobe

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!