21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.2. STATISTISCHE KLASSIFIKATOREN (VA.3.3.4, 29.09.2004) 355<br />

wobei N der Umfang der Stichprobe ω und m die Zahl der Muster im Volumen V ist, so ist ein<br />

Schätzwert der a posteriori Wahrscheinlichkeit<br />

p(Ωκ|c) = pκ p(c|Ωκ)<br />

p(c)<br />

= mκ<br />

m<br />

. (4.2.145)<br />

Um zuverlässige Schätzungen zu erhalten, müssen mκ und m genügend groß sein. Es lässt<br />

sich aber zeigen, dass schon der nächste Nachbar, also nur ein Stichprobenelement, eine recht<br />

zuverlässige <strong>Klassifikation</strong> erlaubt.<br />

Zur Durchführung der NN <strong>Klassifikation</strong> wird eine beliebige Metrik d(c, j c) gewählt, mit<br />

der der Abstand eines neuen Musters c <strong>von</strong> einem Stichprobenelement j c gemessen wird. Eine<br />

Klasse <strong>von</strong> Metriken sind beispielsweise<br />

d (r) (c, j c) =<br />

n<br />

ν=1<br />

|cν − j cν | r<br />

1<br />

r<br />

, r = 1, 2, . . . . (4.2.146)<br />

Bekannte Spezialfälle sind für r = 1 die Cityblock Metrik, für r = 2 der EUKLID-Abstand und<br />

für r = ∞ die Maximumnorm. Die NN <strong>Klassifikation</strong> arbeitet nach der Vorschrift<br />

wenn d(c, ϱ c) = min<br />

j d(c, j c) und ϱ c ∈ ωκ , dann entscheide c ∈ Ωκ . (4.2.147)<br />

Ein Beispiel ist in Bild 4.2.6 gezeigt. Die Fehlerwahrscheinlichkeit pf dieser NN–Regel kann relativ<br />

zur Fehlerwahrscheinlichkeit pB des optimalen BAYES-Klassifikators (4.1.33) abgeschätzt<br />

werden, wobei diese Abschätzung unabhängig <strong>von</strong> der bedingten Verteilungsdichte der Merkmalsvektoren<br />

ist.<br />

Satz 4.11 Unter sehr allgemeinen Voraussetzungen gilt für jede Metrik und nahezu beliebige<br />

bedingte Verteilungsdichten für N → ∞ und k Klassen die Abschätzung<br />

<br />

<br />

k<br />

pB ≤ pf ≤ pB 2 − pB . (4.2.148)<br />

k − 1<br />

Die obigen Grenzen sind so eng wie möglich.<br />

Beweis: s. z. B. [Duda und Hart, 1972b, Cover und Hart, 1967]<br />

Da obiger Satz für praktisch alle Familien <strong>von</strong> Verteilungsdichten gilt, enthält er eine im obigen<br />

Sinne echt nichtparametrische Aussage. Ist die Fehlerwahrscheinlichkeit klein, also pB ≪ 1, so<br />

geht (4.2.148) näherungsweise über in<br />

pB ≤ pf ≤ 2pB . (4.2.149)<br />

Wenn man statt des einen nächsten Nachbarn die gesamte Stichprobe vom Umfang N → ∞<br />

zur <strong>Klassifikation</strong> heranzieht, kann man also die Fehlerwahrscheinlichkeit bestenfalls noch halbieren.<br />

In diesem Sinne kann man sagen, dass die halbe Information im nächsten Nachbarn<br />

steckt. Es ist wichtig, dass (4.2.148) und daher auch (4.2.149) nur für sehr großen Stichprobenumfang<br />

gelten. Praktisch kann man die NN–Regel (4.2.147) natürlich nur für endliches N<br />

auswerten. Es ist zu vermuten, dass auch für kleine Stichproben die Fehlerrate der NN–Regel<br />

einen Anhaltspunkt für die mit irgendeinem Klassifikator erreichbare gibt. Während mit den parametrischen<br />

Klassifikatoren, z. B. dem Normalverteilungsklassifikator <strong>von</strong> Abschnitt 4.2 oder

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!