21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.8. UNÜBERWACHTES LERNEN (VA.1.2.3, 13.04.2004) 423<br />

S(N, k) B(N)<br />

N k = 2 k = 4 k = 10<br />

4 7 1 0 15<br />

10 511 34 105 1 1, 16 · 10 5<br />

20 5, 24 · 10 5 4, 52 · 10 10 5, 92 · 10 12 5, 17 · 10 13<br />

50 5, 63 · 10 14 5, 29 · 10 28 2, 62 · 10 43 1, 86 · 10 47<br />

Tabelle 4.1: Einige Beispiele für STERLING-Zahlen und BELL-Zahlen<br />

Minimierung einer Kostenfunktion<br />

Das Prinzip vieler Verfahren zur Ermittlung <strong>von</strong> Häufungsgebieten lässt sich kurz damit zusammenfassen,<br />

dass eine Kostenfunktion vorgegeben wird, welche die Kosten einer bestimmten<br />

Klasseneinteilung der Muster einer Stichprobe bewertet, sowie ein Optimierungsalgorithmus<br />

angegeben wird, der die Muster so auf Klassen verteilt, dass die Kosten minimiert werden.<br />

Bei der Wahl der Kostenfunktion ergibt sich analog die in Bild 4.8.1 angedeutete Problematik,<br />

dass man mehr oder weniger intuitiv die Vorstellungen eines menschlichen Betrachters<br />

bzw. die Erfordernisse einer Anwendung in den gewählten Kosten erfassen muss. Dabei gibt<br />

es Kostenfunktionen, die nur Parameter bis zur Ordnung zwei enthalten, also Mittelwert und<br />

Kovarianzmatrix wie in (4.8.26), und solche, die auf im Prinzip beliebigen Verteilungsdichten<br />

basieren, wie z. B. Mischungen <strong>von</strong> Normalverteilungen (s. (4.2.15), S. 327) oder der (nichtparametrischen)<br />

PARZEN-Schätzung (s. (4.2.142), S. 354); ein Beispiel dafür ist das informationstheoretisch<br />

basierte Maß in (4.8.44). Solche Kostenfunktionen können auch als Abstände<br />

<strong>von</strong> Verteilungsdichten aufgefasst werden, wofür Beispiele bereits in (3.9.14) – (3.9.22), S. 251,<br />

gebracht wurden.<br />

Ähnlich wie beim Problem der Merkmalsbewertung und –auswahl in Abschnitt 3.9 ist es<br />

auch hier aus Komplexitätsgründen nicht möglich, alle möglichen Zuordnungen <strong>von</strong> <strong>Mustern</strong><br />

in Klassen systematisch auszuprobieren, um die im Sinne der Kostenfuntkion optimale zu finden.<br />

Man ist daher auf heuristische suboptimale Verfahren angewiesen, für die Beispiele in<br />

Bild 4.8.2 und Bild 4.8.3 angegeben werden. Dazu kommt das in (4.8.50) angegebene Beispiel<br />

für hierarchische Zerlegungen.<br />

Die Zahl der Zerlegungen (Partitionen) einer Stichprobe vom Umfang N in genau k Klassen<br />

ist gleich der STERLING-Zahl zweiter Art S(N, k). Die Zahl der Zerlegungen einer Stichprobe<br />

in 1, 2, . . . , oder N Klassen ist gleich der BELL-Zahl B(N). Es gilt<br />

S(N, k) = 0 , für k > N ,<br />

S(N, 1) = S(N, N) = 1 ,<br />

S(N + 1, k) = S(N, k − 1) + kS(N, k) , (4.8.25)<br />

N<br />

B(N) = S(N, κ) .<br />

κ=1<br />

Tabelle 4.1 gibt einige Beispiele, die zeigen, dass schon bei kleinem Stichprobenumfang die<br />

Zahl der Zerlegungen so groß wird, dass ein systematisches Ausprobieren aller Möglichkeiten<br />

zur Optimierung einer Kostenfunktion keine praktikable Lösung ist.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!