Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
114 12 SCHLIEßENDE STATISTIK<br />
Anhang A<br />
Mit Hilfe der Bayesschen Formel erfolgreich klassifizieren<br />
Angenommen es gäbe k mögliche Zustände. Man entscheide möglichst optimal, welcher<br />
der Zustände vorliegt.<br />
Gegeben seien <strong>die</strong> Wahrsche<strong>in</strong>lichkeiten π(i) des i-ten Zustandes vor der Ziehung. Dabei<br />
∑<br />
gelte π(i) ≥ 0 für i = 1, ..., k und k π(i) = 1.<br />
i=1<br />
p(x|i), x ∈ X sei <strong>die</strong> Wahrsche<strong>in</strong>lichkeit x zu beobachten, wenn der Zustand i vorliegt.<br />
Nach der Bayesschen Formel gilt:<br />
p(j|x) =<br />
∑<br />
p(x|j)π(j)<br />
p(x|i)π(i) .<br />
i<br />
E<strong>in</strong>e Abbildung d : X → {1, ..., k} heißt Klassifikationsvariable.<br />
Beispiel:<br />
d ∗ (x) = j, falls p(j|x) ≥ p(i|x)∀i.<br />
π(i) heißt a priori-Wahrsche<strong>in</strong>lichkeit,<br />
p(i|x) nennt man a posteriori-Wahrsche<strong>in</strong>lichkeit.<br />
Ist d e<strong>in</strong>e Klassifikationsvariable, so ist das Risiko e<strong>in</strong>e falsche Entscheidung zu treffen<br />
∑<br />
R(d) = k π(i)P i ({x ∈ X|d(x) ≠ i}). Dabei ist P i das Wahrsche<strong>in</strong>lichkeitsmaß auf X bei<br />
i=1<br />
Vorliegen des i-ten Zustandes.<br />
Satz<br />
Für alle Klassifikationsvariablen d gilt R(d ∗ ) ≤ R(d).<br />
Beweis:<br />
d ∗ (x) = j ⇔ p(j|x) = max p(i|x)<br />
i<br />
⇔ p(x|j)π(j) = max p(x|i)π(i)<br />
i