Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
20 1. Grundlagen<br />
folgt. Dies ist die Approximation der r-lokalen Verteilungen ˜p(x|r; θ) durch die Normalverteilungen<br />
ˆp(x|r; θr).<br />
Die Definition (1-21) der r-lokalen Verteilungen ˜p(x|r; θ) induziert r-lokale Erwartungswerte<br />
�<br />
� �<br />
f(x) r,�:= f(x) ˜p(x|r; θ) dx, (1-27)<br />
M<br />
die gemäß (1-21) durch die Partitionsfunktionen ˆ P(r|x; θ) gegeben sind, d.h.<br />
� �<br />
� � ˆP(r|x; θ) f(x) X<br />
f(x) r,�= � � . (1-28)<br />
ˆP(r|x; θ)<br />
Ein Vergleich mit den Extremalitätsbedingungen (1-13) und (1-14) zeigt nun sofort,<br />
dass diese durch die ersten und zweiten r-lokalen Momente<br />
cr = � x �<br />
r,�und (1-29)<br />
Σr = � (x − cr)(x − cr) T�<br />
(1-30)<br />
der Verteilungen ˜p(x|r; θ) ausgedrückt werden können. Diese beiden Gleichungen stellen<br />
Konsistenzbedingungen für die Parameter θ dar, wobei nach (1-23) die zusätzliche<br />
Bedingung (1-15),<br />
ˆPr = � �<br />
P(r|x; ˆ θ) , (1-31)<br />
X<br />
X<br />
r,�<br />
an die Load der r-ten Komponente gestellt werden muss.<br />
Ziel jedes algorithmischen Verfahrens zur Maximum-likelihood-Dichteschätzung ist, mit<br />
einem sicher konvergierenden Verfahren die Parameter θ so zu bestimmen, dass die<br />
Selbstkonsistenzbedingungen (1-29) bis (1-31) erfüllt werden.<br />
1.1.1 Der multivar-Algorithmus<br />
Ein batch-Algorithmus für den Gradientenabstieg auf E(θ) wurde <strong>von</strong> Dempster, Laird<br />
& Rubin (1977) als Expectation-Maximization (EM)-Algorithmus eingeführt. Seine<br />
sequentielle Version, die das Grundgerüst des multivar-Algorithmus darstellt, lautet<br />
(Albrecht et al. 2000)<br />
(EM-1) Initialisiere die Parameter θ(t=0)<br />
(EM-2) Ziehe einen zufälligen Punkt xt aus dem Datensatz X und berechne die<br />
Zuständigkeiten der Modellkomponenten r nach dem Bayes’schen Satz (1-10)<br />
(EM-3) Berechne die neue Schätzung durch sequentiellen stochastischen Gradientenabstieg.<br />
Verwende dabei die Update-Regeln θ(t+1) = θ(t) + ε∆θ,<br />
∆cr = ˆ P(r|xt; θ(t)) � xt − cr(t) � , (1-32)<br />
∆Σr = ˆ �<br />
P(r|xt; θ(t)) (xt − cr(t)) (xt − cr(t)) T �<br />
− Σr(t) , (1-33)<br />
∆ ˆ Pr = ˆ P(r|xt; θ(t)) − ˆ Pr(t). (1-34)