23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre 3. Mélange <strong>de</strong> régressions logistiques<br />

Etape espérance Traitement <strong>de</strong> la donnée z j non observable par l’espérance conditionnelle<br />

<strong>de</strong> log L c (ψ; y), sachant ce que nous observons y. Soit ψ(0) la valeur initiale <strong>de</strong> ψ. Nous<br />

calculons<br />

Q(ψ, ψ (0) ) = E ψ (0)[log L c (ψ) | y],<br />

or log L c (ψ) est linéaire en z ij , donc l’étape espérance requiert uniquement le calcul <strong>de</strong><br />

E[Z ij | y]. Nous avons<br />

E ψ (k)[Z ij | y] = P ψ (k)(Z ij = 1 | y) = τ i (y j ; ψ (k) ), (3.4)<br />

avec τ i la probabilité a posteriori à l’étape k d’appartenir à la composante i. En injectant (3.4)<br />

dans (3.3), nous pouvons calculer à l’étape (k + 1) l’expression <strong>de</strong> Q :<br />

Q(ψ, ψ (k) ) =<br />

Q(ψ, ψ (k) ) =<br />

n∑ G∑<br />

E[Z ij | y] × [log π i + log f i (y j ; θ i )],<br />

j=1 i=1<br />

n∑<br />

j=1 i=1<br />

G∑<br />

τ i (y j ; ψ (k) ) [log π i + log f i (y j ; θ i )], (3.5)<br />

avec grâce à (3.1.1),<br />

τ i (y j ; ψ (k) ) = π (k) f i (y j ; θ (k)<br />

i<br />

)<br />

i<br />

f(y j ; ψ (k) ) = π(k) i<br />

f i (y j ; θ (k)<br />

i<br />

)<br />

∑ G<br />

h=1 π(k) h<br />

f h(y j ; θ (k)<br />

h ).<br />

Etape maximisation A l’étape k + 1, nous voulons maximiser globalement Q(ψ, ψ (k) ) par<br />

rapport à ψ sur Ψ, pour donner une estimation ψ (k+1) . Dans le cas <strong>de</strong>s mélanges finis, nous<br />

estimons séparément les proportions <strong>et</strong> les <strong>de</strong>nsités <strong>composantes</strong>. Il vient :<br />

⎧<br />

⎪⎨ π (k+1)<br />

i<br />

= 1 ∑ n<br />

n j=1 τ i(y j ; ψ (k) ) : moyenne empirique <strong>de</strong>s probabilités a posteriori,<br />

⎪⎩ ξ (k+1) est obtenu en résolvant ∑ n ∑ G<br />

j=1 i=1 τ i(y j ; ψ (k) ) δ log f i(y j ; θ i )<br />

= 0.<br />

δξ<br />

La propriété <strong>de</strong> d’accroissement monotone <strong>de</strong> la vraisemblance <strong>de</strong>s données complètes Q(ψ, ψ (k) )<br />

à chaque étape garantit la convergence <strong>de</strong> la vraisemblance vers une valeur stationnaire (maximum<br />

local ou global). En eff<strong>et</strong>, en notant L la vraisemblance d’un modèle mélange, on a :<br />

Theorem 3.1.1. (Propriété fondamentale <strong>de</strong> l’algorithme EM).<br />

∀ψ, ψ ′ ∈ Ψ<br />

Q(ψ ′ , ψ) ≥ Q(ψ, ψ) ⇒ L(ψ ′ ) ≥ L(ψ),<br />

avec égalité si <strong>et</strong> seulement si Q(ψ ′ , ψ) = Q(ψ, ψ) <strong>et</strong> τ i (y; ψ) = τ i (y; ψ ′ ) pour tout i <strong>et</strong> presque<br />

tout x.<br />

La log-vraisemblance observée étant la log-vraisemblance <strong>de</strong>s données complètes moins un<br />

terme toujours négatif d’après l’inégalité <strong>de</strong> Jensen, le même résultat <strong>de</strong> convergence est applicable<br />

pour les données observées.<br />

Nous répétons successivement ces étapes jusqu’à ce que le critère d’arrêt <strong>de</strong> l’algorithme soit<br />

74

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!