21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.2. STATISTISCHE KLASSIFIKATOREN (VA.3.3.4, 29.09.2004) 343<br />

hingewiesen, dass mit einer Mischung <strong>von</strong> Normalverteilungen gemäß (4.2.15) praktisch beliebige<br />

Verteilungsdichten approximierbar sind. Die Schätzung <strong>von</strong> deren Parametern wird in<br />

Abschnitt 4.8.2 behandelt.<br />

4.2.4 Modelle mit maximaler Entropie<br />

Motivation<br />

Wir betrachten ein Zufallsexperiment mit K möglichen Ereignissen, das N mal ausgeführt wird,<br />

sodass K N Ergebnisse möglich sind; d. h. ein Ergebnis (<strong>von</strong> N Ausführungen) besteht aus N<br />

Ereignissen und deren Ordnung. Jedes Ergebnis liefert absolute Häufigkeiten Ni und relative<br />

Häufigkeiten pi = Ni/N, i = 1, . . . , K der beobachteten Ereignisse. Diese haben die Entropie<br />

H(p1, . . . , pK) = −<br />

K<br />

pi ln pi . (4.2.76)<br />

i=1<br />

Beispiele sind ein Würfel mit K Flächen, der N mal geworfen wird und die i–te Fläche Ni mal<br />

zeigt, oder ein Bild mit Gesamthelligkeit N, die auf K Bildpunkte so verteilt ist, dass der i-te<br />

Bildpunkt den Anteil pi = Ni/N der Gesamthelligkeit erhält.<br />

Das Ergebnis eines Zufallsexperiments mit absoluten Häufigkeiten Ni kann auf viele Arten<br />

realisiert werden, indem die Ordnung der Ereignisse permutiert wird. Die Vielfachheit V ist<br />

V =<br />

N!<br />

N1! N2! . . . NK!<br />

. (4.2.77)<br />

Mit der STIRLING-Formel erhält man für sehr große Werte <strong>von</strong> N<br />

1 Ni Ni<br />

ln V ≈ − ln<br />

N N N<br />

i<br />

, (4.2.78)<br />

d. h. die Entropie (4.2.76) nach SHANNON. Die Bevorzugung <strong>von</strong> Verteilungen mit hoher Entropie<br />

bedeutet die Bevorzugung <strong>von</strong> Verteilungen mit größerer Vielfachheit; sie können („<strong>von</strong> der<br />

Natur“) auf viele verschiedene Arten realisiert werden.<br />

Weiterhin seien m < K linear unabhängige Nebenbedingungen der Form<br />

K<br />

aij pi = dj , 1 ≤ j ≤ m (4.2.79)<br />

i=1<br />

gegeben. Diese bedeuten, dass m Messungen oder Beobachtungen gemacht wurden, wobei die<br />

Matrix A = [aij] deren Art bestimmt und der Vektor d = (d1, . . . , dm) T die gemessenen<br />

Daten enthält. Es sei M die Menge aller Ergebnisse des Zufallsexperiments, die kompatibel mit<br />

den Nebenbedingungen (4.2.79) ist. Die Daten d erlauben nur den Schluss, dass das aktuelle<br />

Ergebnis aus M ist, bestimmen aber nicht die relativen Häufigkeiten pi.<br />

Ein bestimmter Anteil b der Ergebnisse aus M wird eine Entropie im Bereich<br />

Hmax − ∆H ≤ H(p1, . . . , pK) ≤ Hmax<br />

(4.2.80)<br />

ergeben. Der Zusammenhang zwischen b und ∆H, d. h. die Konzentration der Entropie um die<br />

obere Grenze ist durch den folgenden Satz gegeben.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!