21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

418 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

=<br />

=<br />

∂<br />

∂aλν<br />

N<br />

j=1<br />

Mit der Beziehung<br />

pλ<br />

<br />

N<br />

<br />

k<br />

log pκp( j <br />

k<br />

<br />

c|aκ) − ϑ pκ − 1<br />

j=1<br />

k<br />

κ=1 pκp( j c|aκ) =<br />

ergibt sich für den MLS<br />

0 =<br />

=<br />

N<br />

j=1<br />

N<br />

j=1<br />

κ=1<br />

pλ<br />

k κ=1 pκp( jc|aκ) · ∂p(jc|aλ) ∂aλν<br />

pλ<br />

p( j c)<br />

= p(Ωλ | j c)<br />

p( j c|aλ)<br />

p(Ωλ | jc) p( jc|aλ) · ∂p(jc|aλ) ∂aλν<br />

p(Ωλ | j c) ∂ log [p(j c|aλ)]<br />

∂aλν<br />

κ=1<br />

pλ<br />

=<br />

p( jc) · p(jc|aλ) p( jc|aλ) ,<br />

. (4.8.16)<br />

und das ist gerade (4.8.9), sodass auch dieser Teil <strong>von</strong> Satz 4.21 gezeigt ist.<br />

Um zu einem konkreten Schätzwert für die Parameter aλν zu kommen, ist eine Annahme<br />

über die bedingte Verteilungsdichte p( j c|aλ) erforderlich; wie oben ausgeführt, kommt dafür<br />

nur eine identifizierbare Familie in Frage. Setzt man für p( j c|aλ) eine Normalverteilungsdichte<br />

mit den Parametern µ λ, Σλ, ergibt sich:<br />

Satz 4.22 Die MLS für Mittelwert und Kovarianzmatrix einer Mischung <strong>von</strong> Normalverteilungsdichten<br />

sind bei bekannter Klassenzahl<br />

µ λ =<br />

Σλ =<br />

1<br />

N pλ<br />

1<br />

N pλ<br />

N<br />

p(Ωλ | j c) j c =<br />

j=1<br />

N<br />

(p(Ωλ | jc) · jc) j=1<br />

N<br />

p(Ωλ | jc) j=1<br />

N<br />

p(Ωλ | j c)( j c − µ λ)( j c − µ λ) T , λ = 1, . . . , k . (4.8.17)<br />

j=1<br />

Beweis: s. z. B. [Bock, 1974, Wolfe, 1967]<br />

Die obigen Schätzwerte lassen sich mit einem intuitiven Argument begründen. Angenommen<br />

man habe zwar keine Klasseneinteilung der Muster in der Stichprobe aber Werte für die<br />

Parameter. Zu jedem Muster lässt sich dann die a posteriori Wahrscheinlichkeit berechnen, die<br />

vermutlich für alle Klassen <strong>von</strong> Null verschiedene Werte aufweist. Beim unüberwachten Lernen<br />

gehört also jedes Muster aus der Stichprobe zu jeder Klasse mit einer Wahrscheinlichkeit<br />

zwischen Null und Eins, während beim überwachten Lernen jedes Muster mit der Wahrscheinlichkeit<br />

Eins zu einer Klasse gehört. Beim überwachten Lernen werden z. B. zur Berechnung<br />

des bedingten Mittelwertes µ λ alle Muster aufsummiert, die zur Stichprobe ωλ gehören und<br />

,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!