Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Chapitre 4. Sélection <strong>de</strong> mélange <strong>de</strong> <strong>GLMs</strong><br />
adm<strong>et</strong> une représentation sous forme <strong>de</strong> famille exponentielle.<br />
Dans le contexte <strong>de</strong>s mélanges d’inverses gaussiennes, la <strong>de</strong>nsité pour une observation y j<br />
peut s’écrire : ∀ψ G ∈ Ψ G ,<br />
f(y j ; ψ G ) = L(ψ G ; y j ) =<br />
=<br />
=<br />
G∑<br />
π i f IN (y j ; µ i , σi 2 )<br />
i=1<br />
G∑<br />
i=1<br />
G∑<br />
i=1<br />
1<br />
π i √<br />
2πσi 2y3 j<br />
1<br />
π i √<br />
2πσi 2y3 j<br />
(<br />
exp − 1 2<br />
⎛<br />
⎜<br />
exp ⎝− 1 2<br />
(y j − µ i ) 2 )<br />
µ 2 i σ2 i y j<br />
(<br />
y j −<br />
√<br />
1<br />
X j β i<br />
) 2<br />
1<br />
X j β i<br />
σ 2 i y j<br />
⎞<br />
⎟<br />
⎠ ,<br />
où β i = (β i0 , β i1 , ..., β ip ) T <strong>et</strong> X j = (1, X j1 , X j2 , ..., X jp ).<br />
Ainsi, pour une observation :<br />
ln L cc (ψ G ; y j ) = ln L(ψ G ; y j ) +<br />
(<br />
)<br />
G∑ π i f IN (y j ; µ i , σi 2 ∑ )<br />
G<br />
k=1 π k f IN (y j ; µ k , σk 2) ln π i f IN (y j ; µ i , σi 2 ∑ )<br />
G<br />
k=1 π k f IN (y j ; µ k , σk 2) i=1<br />
( G<br />
)<br />
∑<br />
= ln π i f IN (y j ; µ i , σi 2 ) +<br />
i=1<br />
D’où en développant,<br />
⎛<br />
⎜<br />
G∑<br />
ln L cc (ψ G ; y j ) = ln ⎝<br />
G∑<br />
i=1<br />
G∑<br />
k=1<br />
π i<br />
√<br />
2πσ 2 i y3 j<br />
π k<br />
√<br />
2πσ 2 k y3 j<br />
i=1<br />
⎛<br />
⎜<br />
exp ⎝− 1 2<br />
⎛<br />
⎜<br />
exp ⎝− 1 2<br />
π i<br />
√<br />
2πσ 2 i y3 j<br />
(<br />
y j −<br />
√<br />
1<br />
G∑<br />
i=1<br />
⎛<br />
π i f IN (y j ; µ i , σi 2)<br />
ln ⎜<br />
G∑<br />
π k f IN (y j ; µ k , σk 2) ⎝<br />
k=1<br />
⎜<br />
exp ⎝− 1 2<br />
X j β i<br />
) 2<br />
1<br />
X j β i<br />
σi 2y j<br />
( √<br />
y j − 1<br />
⎞<br />
X j β k<br />
) 2<br />
1<br />
X j β k<br />
σ 2 k y j<br />
(<br />
y j −<br />
√<br />
1<br />
X j β i<br />
) 2<br />
1<br />
X j β i<br />
σ 2 i y j<br />
⎛<br />
⎟<br />
⎠<br />
⎞ ln<br />
⎟ ⎜ G∑<br />
⎠ ⎝<br />
k=1<br />
π i<br />
√<br />
2πσ 2 i y3 j<br />
π k<br />
⎞⎞<br />
√<br />
2πσ 2 k y3 j<br />
⎛<br />
⎟⎟<br />
⎠⎠ +<br />
⎞<br />
π i f IN (y j ; µ i , σi 2)<br />
⎟<br />
G∑<br />
π k f IN (y j ; µ k , σk 2) ⎠ .<br />
k=1<br />
⎛<br />
⎜<br />
exp ⎝− 1 2<br />
⎛<br />
⎜<br />
exp ⎝− 1 2<br />
(<br />
y j −<br />
√<br />
1<br />
X j β i<br />
) 2<br />
1<br />
X j β i<br />
σi 2y j<br />
( √<br />
y j − 1<br />
⎞<br />
X j β k<br />
) 2<br />
1<br />
X j β k<br />
σ 2 k y j<br />
En annexe D.5.2, nous détaillons les limites obtenues pour la log-vraisemblance classifiante<br />
conditionnelle lorsque les paramètres <strong>de</strong> la distribution ten<strong>de</strong>nt vers les frontières <strong>de</strong> leur espace<br />
<strong>de</strong> définition. Nous <strong>de</strong>vons finalement éviter :<br />
– σ 2 i → 0 ou σ2 i → +∞ ;<br />
– β i → −∞ ou β i → +∞.<br />
Ces limites définissent les contraintes à satisfaire pour que l’estimateur ML cc E existe d’une<br />
part, <strong>et</strong> soit convergent d’autre part. Leur équivalent sur l’espace <strong>de</strong>s paramètres <strong>de</strong> θ <strong>et</strong> φ<br />
est immédiat grâce à l’utilisation <strong>de</strong>s relations bijectives les liant (cf tableau 4.2). Ainsi nous<br />
<strong>de</strong>vons éviter φ i → 0 ou φ i → +∞, <strong>de</strong> même θ i doit rester borné.<br />
156<br />
⎞<br />
⎟<br />
⎠<br />
⎞<br />
.<br />
⎟⎟<br />
⎠⎠