Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Chapitre 3. Mélange <strong>de</strong> régressions logistiques<br />
Etape espérance Traitement <strong>de</strong> la donnée z j non observable par l’espérance conditionnelle<br />
<strong>de</strong> log L c (ψ; y), sachant ce que nous observons y. Soit ψ(0) la valeur initiale <strong>de</strong> ψ. Nous<br />
calculons<br />
Q(ψ, ψ (0) ) = E ψ (0)[log L c (ψ) | y],<br />
or log L c (ψ) est linéaire en z ij , donc l’étape espérance requiert uniquement le calcul <strong>de</strong><br />
E[Z ij | y]. Nous avons<br />
E ψ (k)[Z ij | y] = P ψ (k)(Z ij = 1 | y) = τ i (y j ; ψ (k) ), (3.4)<br />
avec τ i la probabilité a posteriori à l’étape k d’appartenir à la composante i. En injectant (3.4)<br />
dans (3.3), nous pouvons calculer à l’étape (k + 1) l’expression <strong>de</strong> Q :<br />
Q(ψ, ψ (k) ) =<br />
Q(ψ, ψ (k) ) =<br />
n∑ G∑<br />
E[Z ij | y] × [log π i + log f i (y j ; θ i )],<br />
j=1 i=1<br />
n∑<br />
j=1 i=1<br />
G∑<br />
τ i (y j ; ψ (k) ) [log π i + log f i (y j ; θ i )], (3.5)<br />
avec grâce à (3.1.1),<br />
τ i (y j ; ψ (k) ) = π (k) f i (y j ; θ (k)<br />
i<br />
)<br />
i<br />
f(y j ; ψ (k) ) = π(k) i<br />
f i (y j ; θ (k)<br />
i<br />
)<br />
∑ G<br />
h=1 π(k) h<br />
f h(y j ; θ (k)<br />
h ).<br />
Etape maximisation A l’étape k + 1, nous voulons maximiser globalement Q(ψ, ψ (k) ) par<br />
rapport à ψ sur Ψ, pour donner une estimation ψ (k+1) . Dans le cas <strong>de</strong>s mélanges finis, nous<br />
estimons séparément les proportions <strong>et</strong> les <strong>de</strong>nsités <strong>composantes</strong>. Il vient :<br />
⎧<br />
⎪⎨ π (k+1)<br />
i<br />
= 1 ∑ n<br />
n j=1 τ i(y j ; ψ (k) ) : moyenne empirique <strong>de</strong>s probabilités a posteriori,<br />
⎪⎩ ξ (k+1) est obtenu en résolvant ∑ n ∑ G<br />
j=1 i=1 τ i(y j ; ψ (k) ) δ log f i(y j ; θ i )<br />
= 0.<br />
δξ<br />
La propriété <strong>de</strong> d’accroissement monotone <strong>de</strong> la vraisemblance <strong>de</strong>s données complètes Q(ψ, ψ (k) )<br />
à chaque étape garantit la convergence <strong>de</strong> la vraisemblance vers une valeur stationnaire (maximum<br />
local ou global). En eff<strong>et</strong>, en notant L la vraisemblance d’un modèle mélange, on a :<br />
Theorem 3.1.1. (Propriété fondamentale <strong>de</strong> l’algorithme EM).<br />
∀ψ, ψ ′ ∈ Ψ<br />
Q(ψ ′ , ψ) ≥ Q(ψ, ψ) ⇒ L(ψ ′ ) ≥ L(ψ),<br />
avec égalité si <strong>et</strong> seulement si Q(ψ ′ , ψ) = Q(ψ, ψ) <strong>et</strong> τ i (y; ψ) = τ i (y; ψ ′ ) pour tout i <strong>et</strong> presque<br />
tout x.<br />
La log-vraisemblance observée étant la log-vraisemblance <strong>de</strong>s données complètes moins un<br />
terme toujours négatif d’après l’inégalité <strong>de</strong> Jensen, le même résultat <strong>de</strong> convergence est applicable<br />
pour les données observées.<br />
Nous répétons successivement ces étapes jusqu’à ce que le critère d’arrêt <strong>de</strong> l’algorithme soit<br />
74