21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

344 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

Satz 4.8 (Konzentration der Entropie) Die Größe 2N∆H ist asymptotisch χ2 –verteilt mit<br />

r = K − m − 1 Freiheitsgraden, und zwar unabhängig <strong>von</strong> der Art der Nebenbedingungen.<br />

Die χ2 –Verteilung mit r Freiheitsgraden auf dem 100s% Signifikanzniveau sei χ2 r (s). Damit<br />

gilt<br />

2N∆H = χ 2 r (1 − b) . (4.2.81)<br />

Beweis: s. z. B. [Jaynes, 1982].<br />

Die Unabhängigkeit <strong>von</strong> den Nebenbedingungen besagt, dass für alle Zufallsexperimente<br />

mit r Freiheitsgraden z. B. auf dem 95% Signifikanzniveau gilt<br />

Hmax − χ2r (0, 05)<br />

≤ H ≤ Hmax . (4.2.82)<br />

2N<br />

Der Wert <strong>von</strong> Hmax hängt allerdings vom Experiment und den Nebenbedingungen ab. Im Allgemeinen<br />

folgt aus dem Satz, dass die Breite des Intervalls (4.2.80) mit 1/N abnimmt.<br />

Als Beispiel wird ein Experiment mit K = 6 (Würfel) und N = 1000 betrachtet. Es gebe<br />

keine Nebenbedingungen (ausser pi = 1). Es ist bekannt, dass die maximale Entropie<br />

Hmax = ln 6 = 1, 792 <strong>von</strong> der Gleichverteilung der Ereignisse erreicht wird. Eine χ2 –Verteilung<br />

mit r = K − m − 1 = 6 − 1 = 5 Freiheitsgraden auf dem Signifikanzniveau 95% hat den Wert<br />

χ2 5 (0, 05) = 11, 07. Der Konzentrationssatz sagt, dass 2N∆H = 11, 07 ist und damit 95% aller<br />

möglichen Ergebnisse eine Entropie im Bereich<br />

Hmax − ∆H = 1, 786 ≤ H ≤ 1, 792 (4.2.83)<br />

haben, oder anders gesagt, die weit überwiegende Mehrheit der Ergebnisse wird eine Verteilung<br />

haben, die sehr nahe an der Gleichverteilung liegt. Man braucht also nicht die „Intuition“<br />

zu bemühen, um auf die Gleichverteilung zu schließen, sondern diese folgt aus einem Häufigkeitsargument<br />

– man wird das annehmen, was aus kombinatorischen Gründen am häufigsten zu<br />

erwarten ist.<br />

Betrachten wir nun das gleiche Experiment wie im letzten Absatz und nehmen zusätzlich<br />

an, dass die Nebenbedingung<br />

6<br />

i pi = 4, 5 (4.2.84)<br />

i=1<br />

gegeben ist, d. h. die mittlere gewürfelte Augenzahl ist nicht mehr 3, 5 wie bei einem echten<br />

Würfel. Was kann man nun über die relativen Häufigkeiten pi sagen? Die Intuition wird hier<br />

nicht hilfreich sein. Man bestimmt wieder die relativen Häufigkeiten, die die Entropie maximieren<br />

mit dem MAXENT–Algorithmus (s. u. ) und findet<br />

(p1, . . . , p6) = (0, 0543, 0, 0788, 0, 1142, 0, 1654, 0, 2398, 0, 3475) (4.2.85)<br />

sowie Hmax = 1, 614. Eine Tabelle ergibt 2N∆H = χ 2 4 (0, 05) = 9, 48, sodass die Entropie im<br />

Intervall 1, 609 ≤ H ≤ 1, 614 liegt. Auch hier hat also die weit überwiegende Mehrheit der<br />

Ergebnisse eine Entropie, die recht nahe um die maximale konzentriert ist, und damit ist es sehr<br />

selten, dass die relativen Häufigkeiten andere sind als in (4.2.85).<br />

Stochastische Modelle mit maximaler Entropie ordnen Ereignissen also die relativen Häufigkeiten<br />

zu, die zur weit überwiegenden Mehrheit der Ergebnisse, die kompatibel mit den gemessenen<br />

Daten (Nebenbedingungen) sind, führen. Anders gesagt vermeidet man mit dieser

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!