21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

416 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

Satz 4.20 Die Familie der n–dimensionalen Normalverteilungen (4.2.3), S. 324, ist identifizierbar,<br />

ebenso die der n–dimensionalen Exponentialverteilungen (4.2.11), S. 325.<br />

Ist P (c|a) eine eindimensionale identifizierbare Familie, so ist auch das Produkt aus n solcher<br />

Funktionen identifizierbar.<br />

Beweis: s. z. B. [Yakowitz, 1970]<br />

Maximum-likelihood-Schätzwert<br />

Zur tatsächlichen Berechnung <strong>von</strong> Schätzwerten kommen wieder die Verfahren <strong>von</strong> Abschnitt<br />

4.2.2 in Betracht, wobei hier als Beispiel die MLS gemäß (4.2.37), S. 333, betrachtet<br />

werden. Dabei wird die Klassenzahl k als bekannt vorausgesetzt.<br />

Die Berechnung <strong>von</strong> MLS für unüberwachtes Lernen beruht auf (4.2.57). Da k hier als<br />

bekannt vorausgesetzt wurde, ist der Logarithmus der “likelihood”–Funktion<br />

l({pκ, aκ}) = log [p(ω|{pκ, aκ})]<br />

=<br />

N<br />

log p( j c|{pκ, aκ}) <br />

=<br />

j=1<br />

N<br />

<br />

k<br />

log pκp( j <br />

c|aκ)<br />

j=1<br />

κ=1<br />

(4.8.7)<br />

bezüglich pκ und aκ zu maximieren mit der Nebenbedingung (4.8.3). Ohne eine konkrete Annahme<br />

über die Verteilungsdichten p( j c|aκ) erhält man folgendes Ergebnis:<br />

Satz 4.21 Bei bekannter Klassenzahl sind die MLS gegeben durch<br />

pλ = 1<br />

N<br />

p(Ωλ |<br />

N<br />

j=1<br />

j c) = 1<br />

N pλp(<br />

N<br />

j=1<br />

jc|aλ) k κ=1 pκp( j ,<br />

c|aκ)<br />

λ = 1, . . . , k (4.8.8)<br />

0 =<br />

N<br />

p(Ωλ | j c) ∂ log [p(jc|aλ)] , λ = 1, . . . , k , µ = 1, . . . , m . (4.8.9)<br />

j=1<br />

∂aλµ<br />

Zum Beweis <strong>von</strong> (4.8.8) wird mit einem LAGRANGE-Multiplikator ϑ die modifizierte<br />

likelihood–Funktion l ′ in (4.8.10) gebildet, die partielle Ableitung nach pλ in (4.8.11) gebildet,<br />

das Ergebnis zu Null gesetzt, mit pλ multipliziert und über λ summiert; daraus ergibt<br />

sich zunächst der Wert des LAGRANGE-Multiplikators in (4.8.14). Die modifizierte likelihood–<br />

Funktion l ′ ist<br />

l ′ N<br />

<br />

k<br />

({pκ, aκ}) = log pκp( j <br />

k<br />

<br />

c|aκ) − ϑ pκ − 1 . (4.8.10)<br />

j=1<br />

κ=1<br />

Die partielle Ableitung nach pλ ist<br />

κ=1<br />

0 = ∂l′ ({pκ, aκ})<br />

∂pλ<br />

= ∂<br />

<br />

N<br />

<br />

k<br />

log pκp(<br />

∂pλ<br />

j <br />

k<br />

<br />

c|aκ) − ϑ pκ − 1<br />

j=1<br />

κ=1<br />

κ=1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!