21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

354 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

eine Fensterfunktion, deren Breite durch den Parameter hN bestimmt wird und den Bedingungen<br />

∞<br />

0 ≤ g0(x) , g0(x) dx = 1 ,<br />

genügt.<br />

0 = lim g0(x)<br />

|x|→∞<br />

−∞<br />

n<br />

xν , sup g0(x) < ∞ ,<br />

ν=1<br />

0 = lim<br />

N→∞ hn N , lim<br />

N→∞ Nhn N = ∞ (4.2.141)<br />

Satz 4.10 Die PARZEN-Schätzung<br />

p(c|Ωκ) = 1<br />

Nκ <br />

g0<br />

Nκ<br />

j=1<br />

<br />

j<br />

(c − cκ)|hN<br />

(4.2.142)<br />

konvergiert im quadratischen Mittel gegen die Dichte p(c|Ωκ), wenn diese an der Stelle c<br />

stetig ist.<br />

Beweis: s. z. B. [Parzen, 1962, Murthy, 1965].<br />

Mögliche Fensterfunktionen sind z. B. das Rechteckfenster und die GAUSS-Funktion. Bei<br />

letzterer wird oft, wie auch in (4.8.37), S. 426, die Kovarianzmatrix vereinfacht zu Σ = σ 2 I,<br />

womit sich hN = σ 2 ergibt; zur Verwendung einer allgemeinen Matrix Σ bei der Schätzung<br />

wird auf die Literatur verwiesen. Auch bei dieser Schätzung muss die gesamte Stichprobe gespeichert<br />

werden. Eine Reduktion oder Verdünnung, z. B. durch Ersetzung der Stichprobe durch<br />

eine genügend große Anzahl <strong>von</strong> Kodebuchvektoren einer Vektorquantisierung oder durch ein<br />

anderes Verfahren zur Analyse <strong>von</strong> Häufungsgebieten (s. Abschnitt 4.8.4, „Clusteranalyse“),<br />

kann dieses Problem mildern. Es ist weiterhin möglich, auf dieser Basis auch die Moden (relativen<br />

Extrema) einer Verteilungsdichte zu schätzen. Durch Einsatz <strong>von</strong> Optimierungsverfahren<br />

kann die Stichprobe reduziert und damit die Schätzung vereinfacht werden. Auch dafür wird<br />

auf die Literatur verwiesen.<br />

4.2.7 Nächster Nachbar Klassifikator<br />

Der nächste Nachbar (NN) Klassifikator beruht darauf, ein Muster der Klasse zuzuordnen, zu<br />

der auch der nächste Nachbar im Merkmalsraum bzw. die Mehrzahl seiner m nächsten Nachbarn<br />

gehören. Dieser zunächst rein intuitiv naheliegende Ansatz lässt sich auch als Schätzung<br />

der a posteriori Wahrscheinlichkeiten p(Ωκ |c) auffassen und damit auf Satz 4.3 zurückführen.<br />

Ersetzt man in (4.1.34) die bedingte Dichte durch den Schätzwert (4.2.134), die a priori Wahrscheinlichkeit<br />

durch den Schätzwert<br />

pκ = Nκ<br />

N<br />

und die Dichte p(c) analog zu (4.2.134) durch den Schätzwert<br />

p(c) = m<br />

NV<br />

(4.2.143)<br />

, (4.2.144)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!