27.08.2014 Aufrufe

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

114 12 SCHLIEßENDE STATISTIK<br />

Anhang A<br />

Mit Hilfe der Bayesschen Formel erfolgreich klassifizieren<br />

Angenommen es gäbe k mögliche Zustände. Man entscheide möglichst optimal, welcher<br />

der Zustände vorliegt.<br />

Gegeben seien <strong>die</strong> Wahrsche<strong>in</strong>lichkeiten π(i) des i-ten Zustandes vor der Ziehung. Dabei<br />

∑<br />

gelte π(i) ≥ 0 für i = 1, ..., k und k π(i) = 1.<br />

i=1<br />

p(x|i), x ∈ X sei <strong>die</strong> Wahrsche<strong>in</strong>lichkeit x zu beobachten, wenn der Zustand i vorliegt.<br />

Nach der Bayesschen Formel gilt:<br />

p(j|x) =<br />

∑<br />

p(x|j)π(j)<br />

p(x|i)π(i) .<br />

i<br />

E<strong>in</strong>e Abbildung d : X → {1, ..., k} heißt Klassifikationsvariable.<br />

Beispiel:<br />

d ∗ (x) = j, falls p(j|x) ≥ p(i|x)∀i.<br />

π(i) heißt a priori-Wahrsche<strong>in</strong>lichkeit,<br />

p(i|x) nennt man a posteriori-Wahrsche<strong>in</strong>lichkeit.<br />

Ist d e<strong>in</strong>e Klassifikationsvariable, so ist das Risiko e<strong>in</strong>e falsche Entscheidung zu treffen<br />

∑<br />

R(d) = k π(i)P i ({x ∈ X|d(x) ≠ i}). Dabei ist P i das Wahrsche<strong>in</strong>lichkeitsmaß auf X bei<br />

i=1<br />

Vorliegen des i-ten Zustandes.<br />

Satz<br />

Für alle Klassifikationsvariablen d gilt R(d ∗ ) ≤ R(d).<br />

Beweis:<br />

d ∗ (x) = j ⇔ p(j|x) = max p(i|x)<br />

i<br />

⇔ p(x|j)π(j) = max p(x|i)π(i)<br />

i

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!