21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

20 1. Grundlagen<br />

folgt. Dies ist die Approximation der r-lokalen Verteilungen ˜p(x|r; θ) durch die Normalverteilungen<br />

ˆp(x|r; θr).<br />

Die Definition (1-21) der r-lokalen Verteilungen ˜p(x|r; θ) induziert r-lokale Erwartungswerte<br />

�<br />

� �<br />

f(x) r,�:= f(x) ˜p(x|r; θ) dx, (1-27)<br />

M<br />

die gemäß (1-21) durch die Partitionsfunktionen ˆ P(r|x; θ) gegeben sind, d.h.<br />

� �<br />

� � ˆP(r|x; θ) f(x) X<br />

f(x) r,�= � � . (1-28)<br />

ˆP(r|x; θ)<br />

Ein Vergleich mit den Extremalitätsbedingungen (1-13) und (1-14) zeigt nun sofort,<br />

dass diese durch die ersten und zweiten r-lokalen Momente<br />

cr = � x �<br />

r,�und (1-29)<br />

Σr = � (x − cr)(x − cr) T�<br />

(1-30)<br />

der Verteilungen ˜p(x|r; θ) ausgedrückt werden können. Diese beiden Gleichungen stellen<br />

Konsistenzbedingungen für die Parameter θ dar, wobei nach (1-23) die zusätzliche<br />

Bedingung (1-15),<br />

ˆPr = � �<br />

P(r|x; ˆ θ) , (1-31)<br />

X<br />

X<br />

r,�<br />

an die Load der r-ten Komponente gestellt werden muss.<br />

Ziel jedes algorithmischen Verfahrens zur Maximum-likelihood-Dichteschätzung ist, mit<br />

einem sicher konvergierenden Verfahren die Parameter θ so zu bestimmen, dass die<br />

Selbstkonsistenzbedingungen (1-29) bis (1-31) erfüllt werden.<br />

1.1.1 Der multivar-Algorithmus<br />

Ein batch-Algorithmus für den Gradientenabstieg auf E(θ) wurde <strong>von</strong> Dempster, Laird<br />

& Rubin (1977) als Expectation-Maximization (EM)-Algorithmus eingeführt. Seine<br />

sequentielle Version, die das Grundgerüst des multivar-Algorithmus darstellt, lautet<br />

(Albrecht et al. 2000)<br />

(EM-1) Initialisiere die Parameter θ(t=0)<br />

(EM-2) Ziehe einen zufälligen Punkt xt aus dem Datensatz X und berechne die<br />

Zuständigkeiten der Modellkomponenten r nach dem Bayes’schen Satz (1-10)<br />

(EM-3) Berechne die neue Schätzung durch sequentiellen stochastischen Gradientenabstieg.<br />

Verwende dabei die Update-Regeln θ(t+1) = θ(t) + ε∆θ,<br />

∆cr = ˆ P(r|xt; θ(t)) � xt − cr(t) � , (1-32)<br />

∆Σr = ˆ �<br />

P(r|xt; θ(t)) (xt − cr(t)) (xt − cr(t)) T �<br />

− Σr(t) , (1-33)<br />

∆ ˆ Pr = ˆ P(r|xt; θ(t)) − ˆ Pr(t). (1-34)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!