21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.2. STATISTISCHE KLASSIFIKATOREN (VA.3.3.4, 29.09.2004) 357<br />

Initialisiere zwei Speicherbereiche SPEICHER und REST zur Aufnahme <strong>von</strong> <strong>Mustern</strong>;<br />

beide sind anfänglich leer.<br />

Bringe das erste Muster aus ω nach SPEICHER.<br />

FOR i = 1 TO N (N = Stichprobenumfang)<br />

Klassifiziere mit der NN-Regel das i-te Muster aus ω nur unter Verwendung<br />

<strong>von</strong> <strong>Mustern</strong> aus SPEICHER.<br />

IF i-tes Muster richtig klassifiziert<br />

THEN Bringe das Muster nach REST.<br />

ELSE Bringe das Muster nach SPEICHER.<br />

FOR i = 1 TO NR (NR = Anzahl der Muster in REST)<br />

Klassifiziere das i-te Muster aus REST nur unter Verwendung <strong>von</strong> <strong>Mustern</strong><br />

aus SPEICHER.<br />

IF i-tes Muster nicht richtig klassifiziert<br />

THEN Entferne das Muster aus REST und bringe es nach SPEICHER.<br />

UNTIL [Rest ist leer] ODER [es wurde kein Muster <strong>von</strong> REST nach SPEICHER<br />

gebracht]<br />

Bild 4.2.7: Berechnung einer „verdichteten“ Stichprobe für die NN–Regel<br />

Die Einführung <strong>von</strong> Rückweisungen ist bei der mNN–Regel ebenfalls möglich. Dafür gibt<br />

es die zwei Vorschriften<br />

bestimme die m nächsten Nachbarn eines neuen Musters c;<br />

wenn alle m Nachbarn aus Ωκ sind,<br />

dann klassifiziere c nach Ωκ, sonst weise c zurück, (4.2.155)<br />

bestimme die m nächsten Nachbarn eines neuen Musters c;<br />

wenn mindestens m ′ der m Nachbarn aus Ωκ sind,<br />

dann klassifiziere c nach Ωκ, sonst weise c zurück. (4.2.156)<br />

Für das Zweiklassenproblem lassen sich auch hier Abschätzungen der Fehlerwahrscheinlichkeiten<br />

angeben. Bei ungeraden Werten <strong>von</strong> m und k = 2 Klassen ist es nicht sinnvoll,<br />

m ′ ≤ (m + 1)/2 zu wählen, da es dann keine Rückweisungen geben kann.<br />

Bei Anwendung der Regeln (4.2.147), (4.2.154) – (4.2.156) muss man die gesamte Stichprobe<br />

speichern und durchsuchen. Um den damit verbundenen Aufwand zu reduzieren, wurden<br />

verschiedene Vorschläge zur Verdichtung der Stichprobe gemacht, d. h. zur Eliminierung „unwichtiger“<br />

Muster. Zum einen wird auf die Anmerkungen bei der PARZEN-Schätzung verwiesen,<br />

d. h. die Verwendung einer Vektorquantisierung oder eines anderen Ansatzes zur Analyse<br />

<strong>von</strong> Häufungsgebieten; zum anderen wurden spezielle Verfahren entwickelt, <strong>von</strong> denen einige<br />

kurz erwähnt werden. Jedes Muster aus einer klassifizierten Stichprobe ω wird mit der NN–<br />

Regel richtig klassifiziert. Wenn man nun Muster aus ω entfernen kann und immer noch alle<br />

Muster mit der verdichteten Stichprobe richtig klassifiziert werden, so ist diese bezüglich der<br />

<strong>Klassifikation</strong> äquivalent zu ω. Einen darauf basierenden Algorithmus zeigt Bild 4.2.7.<br />

Am Ende des Algorithmus in Bild 4.2.7 enthält SPEICHER eine verdichtete Stichprobe,<br />

mit der ebenfalls alle Muster aus ω richtig klassifiziert werden. Ein Nachteil dieses Algorithmus<br />

ist, dass ein einmal in SPEICHER befindliches Muster nie mehr daraus entfernt wird. Im<br />

Allgemeinen wird daher SPEICHER keine minimale Stichprobe enthalten, d. h. es ist möglich,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!