21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.2. STATISTISCHE KLASSIFIKATOREN (VA.3.3.4, 29.09.2004) 359<br />

ne Stichproben beschränkt, da für jedes der N1N2 Paare { ic1, jc2} der Abstand aller N1 + N2<br />

Muster nach mij zu berechnen ist. Für N1 = N2 wächst also der Aufwand etwa mit N 3 1 . Muster,<br />

die auf der Klassengrenze liegen, bilden auch die Basis für die <strong>Klassifikation</strong> mit Support Vektor<br />

Maschinen in Abschnitt 4.3; sie werden dort systematisch durch einen Optimierungsprozess<br />

gewonnen.<br />

Eine Verbesserung der NN–Regel wird durch eine sog. Editierung der Stichprobe ω erreicht.<br />

Dafür gibt es verschiedene Ansätze, <strong>von</strong> denen einer als Beispiel in Bild 4.2.10 gezeigt<br />

ist. Er bildet relativ homogene Häufungsgebiete in der Stichprobe ω heraus. Der Effekt dieser<br />

Editierung ist, dass klar abgegrenzte Gebiete entstehen und Muster nahe den Klassengrenzen<br />

eliminiert werden. Am Ende ist ω die editierte Stichprobe.<br />

Zwar gelten, wie schon erwähnt, alle Sätze über die NN– und mNN–Regel nur für einen<br />

Stichprobenumfang N → ∞, jedoch wendet man diese natürlich stets auf endliche, oft sogar<br />

recht kleine, Stichproben an. Die Erwartung ist, dass Ergebnisse, die man für N < ∞ erhält,<br />

zumindest in ihrer Tendenz auch für N → ∞ gelten. Die NN– oder mNN–Regel ist leicht<br />

realisierbar, der Rechenaufwand für kleinere Stichproben gering. Bei größeren Stichproben ist<br />

allerdings eine effiziente Suche nach den nächsten Nachbarn unverzichtbar; für Algorithmen<br />

dazu wird auf die Literatur verwiesen. Der NN–Klassifikator ist beispielsweise für eine schnelle<br />

Voruntersuchung zur Abschätzung der zu erwartenden Leistungsfähigkeit interessant. Es ist<br />

wichtig, für die Abstandsberechnung in (4.2.146) nur vergleichbare Merkmale zu verwenden,<br />

also solche mit gleicher Dimension bzw. dimensionslose; auf diesen Punkt wurde schon im<br />

Zusammenhang mit (2.5.47), S. 131, hingewiesen. Das Prinzip der <strong>Klassifikation</strong> nach dem<br />

nächsten Nachbarn wird auch bei der Suche in Multimedia Datenbanken verwendet.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!