21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

340 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

{ ϱ cκ|ϱ = 1, . . . , Nκ} sowie zur Abkürzung eine Stichprobe ω ′ κ = { ϱ cκ|ϱ = 1, . . . , Nκ − 1}.<br />

Aus (4.2.58) ergibt sich dann<br />

p(aκ|ωκ) =<br />

=<br />

=<br />

=<br />

p(aκ)p(ωκ|aκ)<br />

<br />

p(aκ)p(ωκ|aκ) daκ<br />

Ra<br />

p(aκ) p( Nκcκ|aκ) p(ω ′ κ |aκ)<br />

<br />

p(aκ) p(<br />

Ra<br />

Nκcκ|aκ) p(ω ′ κ|aκ) daκ<br />

p(aκ) p( Nκcκ|aκ) p(aκ |ω ′ κ )p(ω′ κ )<br />

p(aκ)<br />

<br />

p(aκ) p( Nκ cκ|aκ) p(aκ|ω ′ κ)p(ω ′ κ)<br />

p(aκ)<br />

daκ<br />

Ra<br />

p( Nκcκ |aκ) p(aκ| 1cκ, . . . , Nκ−1 <br />

Ra<br />

cκ)<br />

p( Nκcκ|aκ)p(aκ| 1cκ, . . . , Nκ−1 cκ) daκ<br />

. (4.2.63)<br />

Dieses ist die Basis der rekursiven MAPS bzw. des BAYES-Lernens. Dabei treten i. Allg. zwei<br />

Probleme auf. Zum einen werden zur Berechnung eines verbesserten Schätzwertes alle vorher<br />

beobachteten Muster gebraucht, zum anderen kann p(aκ| 1 cκ, . . . , Nκ−1 cκ) eine andere Funktion<br />

sein als p(aκ| 1 cκ, . . . , Nκ cκ). Es gibt aber Spezialfälle, in denen diese allgemeine Schätzgleichung<br />

(4.2.63) sich auf eine rekursiv auswertbare Form reduziert. Die Voraussetzungen dafür<br />

sind, dass es eine einfache hinreichende Statistik s zur Schätzung <strong>von</strong> aκ gibt und dass es eine<br />

selbstreproduzierende Verteilungsdichte p(aκ) gibt; beide Begriffe werden noch näher erläutert.<br />

Es sei<br />

s(ωκ) = (s1(ωκ), . . . , sl(ωκ)) T<br />

(4.2.64)<br />

eine Statistik, also eine Funktion <strong>von</strong> ωκ. Eine hinreichende Statistik s enthält alle Information,<br />

die zum Schätzen <strong>von</strong> aκ notwendig ist. Definitionsgemäß wird s als hinreichende Statistik<br />

bezeichnet, wenn<br />

p(ωκ|aκ, s) = p(ωκ|s) (4.2.65)<br />

ist, d. h. wenn p(ωκ|aκ, s) unabhängig <strong>von</strong> aκ ist. Damit ergibt sich<br />

p(aκ|s, ωκ) = p(ωκ|aκ, s)p(aκ|s)<br />

p(ωκ|s)<br />

= p(aκ |s) , (4.2.66)<br />

d. h. die a posteriori Wahrscheinlichkeit <strong>von</strong> aκ hängt nur <strong>von</strong> der hinreichenden Statistik s ab.<br />

Die wichtigste Aussage enthält<br />

Satz 4.7 (Faktorisierungstheorem) Eine notwendige und hinreichende Bedingung dafür,<br />

dass s(ωκ) eine hinreichende Statistik für aκ ist, besteht darin, dass sich die Dichte p(ωκ|aκ)<br />

faktorisieren lässt in<br />

p(ωκ|aκ) = g(s(ωκ), aκ)h(ωκ) . (4.2.67)<br />

Beweis: s. z. B. [Duda und Hart, 1972b], Sect. 3.6.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!