21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

356 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

✻ c2<br />

△<br />

ω2<br />

△<br />

△<br />

ω1<br />

❜ ❜<br />

❜<br />

❜<br />

❜<br />

. ... .<br />

△<br />

△<br />

△<br />

✷<br />

.<br />

✷<br />

✷<br />

ω3<br />

✠<br />

✒∗<br />

c<br />

dmin → c ∈ Ω3<br />

.✛<br />

Bild 4.2.6: Zerlegung des Merkmalsraumes in Klassenbereiche durch die Nächster–Nachbar–<br />

Regel<br />

dem Polynomklassifikator <strong>von</strong> Abschnitt 4.4, nur relativ einfache Trennflächen realisiert werden,<br />

ergeben sich bei der NN–Regel i. Allg. komplizierte nichtlineare Flächen, wie Bild 4.2.6<br />

verdeutlicht. Verwendet man in (4.2.147) den EUKLID-Abstand, so gilt<br />

✷<br />

✷<br />

d(c, j c) = (c − j c) T (c − j c) . (4.2.150)<br />

Die Lage des Minimums <strong>von</strong> d bezüglich j ändert sich nicht, wenn in (4.2.147) statt d eine<br />

monoton zunehmende Funktion verwendet wird. Man kann also auch<br />

d 2 (c, j c) = c T c − 2c T j c + j c T j c (4.2.151)<br />

berechnen. Definiert man Vektoren<br />

c T = (−0.5, c1, c2, . . . , cn) (4.2.152)<br />

j c T = ( j c T j c, j c1, j c2, . . . , j cn) ,<br />

so kann man auch das Maximum <strong>von</strong><br />

j c ∈ ω ,<br />

uj = j c T c , j = 1, . . . , N (4.2.153)<br />

bezüglich j ermitteln und das neue Muster der Klasse zuordnen, die das Muster aus ω mit<br />

maximalem Wert <strong>von</strong> uj hat.<br />

Eine naheliegende Verbesserung der NN–Regel besteht darin, statt nur des nächsten Nachbarn<br />

die m nächsten Nachbarn zu bestimmen. Diese mNN–Regel arbeitet nach der Vorschrift<br />

bestimme die m nächsten Nachbarn eines neuen Musters c;<br />

ordne c der Klasse zu, der die meisten der m Nachbarn angehören. (4.2.154)<br />

Es lässt sich zeigen, dass für sehr große m und N die Fehlerwahrscheinlichkeit der mNN–Regel<br />

gegen die des BAYES-Klassifikators strebt. Ein guter Wert <strong>von</strong> m kann durch Verwendung<br />

einer <strong>von</strong> Trainings– und Teststichprobe disjunkten Validierungsstichprobe bestimmt werden.<br />

Praktisch werden oft Werte m = 3 bis m = 13 verwendet. Mit der mNN–Regel lassen sich<br />

also bessere Ergebnisse erzielen als mit der NN–Regel. Dieses ist wegen (4.2.145) plausibel, da<br />

der Schätzwert der a posteriori Wahrscheinlichkeit umso zuverlässiger wird, je größer m wird.<br />

Auch dieses Ergebnis gilt i. Allg. nur im Grenzfalle N → ∞.<br />

✷<br />

✲ c1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!