Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
4.3. Extension aux mélanges <strong>de</strong> <strong>GLMs</strong><br />
tion y j s’exprime comme suit : ∀ψ G ∈ Ψ G ,<br />
f(y j ; ψ G ) = L(ψ G ; y j ) =<br />
=<br />
=<br />
G∑<br />
π i f Γ (y j ; µ i , ν i )<br />
i=1<br />
G∑<br />
i=1<br />
G∑<br />
i=1<br />
π i<br />
1<br />
Γ(ν i )<br />
( ) νi<br />
(<br />
νi<br />
y ν i−1<br />
j<br />
exp − ν )<br />
i<br />
y j<br />
µ i µ i<br />
π i<br />
1<br />
Γ(ν i ) (ν iX j β i ) ν i<br />
y ν i−1<br />
j<br />
exp (−ν i X j β i y j ) ,<br />
où β i = (β i0 , β i1 , ..., β ip ) T <strong>et</strong> X j = (1, X j1 , X j2 , ..., X jp ).<br />
C<strong>et</strong>te <strong>de</strong>nsité <strong>de</strong> mélange nous perm<strong>et</strong> d’exprimer la vraisemblance classifiante conditionnelle<br />
qui en découle (toujours pour une observation y j ) :<br />
(<br />
)<br />
G∑ π i f Γ (y j ; µ i )<br />
ln L cc (ψ G ; y j ) = ln L(ψ G ; y j ) + ∑ G<br />
i=1 k=1 π k f Γ (y j ; µ k ) ln π i f Γ (y j ; µ i )<br />
∑ G<br />
k=1 π k f Γ (y j ; µ k )<br />
( G<br />
)<br />
(<br />
)<br />
∑<br />
G∑ π i f Γ (y j ; µ i )<br />
= ln π i f Γ (y j ; µ i ) + ∑ G<br />
k=1 π k f Γ (y j ; µ k ) ln π i f Γ (y j ; µ i )<br />
∑ G<br />
k=1 π .<br />
k f Γ (y j ; µ k )<br />
D’où en développant,<br />
ln L cc (ψ G ; y j ) = ln<br />
G∑<br />
i=1<br />
π i<br />
i=1<br />
( G<br />
∑<br />
i=1<br />
Γ(ν i ) (ν iX j β i ) ν i<br />
G∑ π k<br />
Γ(ν k ) (ν kX j β k ) ν k<br />
k=1<br />
π i<br />
Γ(ν i ) (ν iX j β i ) ν i<br />
y ν i−1<br />
j<br />
e −ν iX j β i y j<br />
y ν k−1<br />
j<br />
i=1<br />
ln ⎜<br />
e −ν ⎝<br />
kX j β k y j<br />
y ν i−1<br />
j<br />
e −ν iX j β i y j<br />
)<br />
+<br />
⎛<br />
π i<br />
Γ(ν i ) (ν iX j β i ) ν i<br />
G∑ π k<br />
Γ(ν k ) (ν kX j β k ) ν k<br />
k=1<br />
y ν i−1<br />
j<br />
e −ν iX j β i y j<br />
y ν k−1<br />
j<br />
⎞<br />
⎟<br />
e −ν ⎠ .<br />
kX j β k y j<br />
Nous <strong>de</strong>vons imposer certaines contraintes pour conserver les propriétés <strong>de</strong> bornitu<strong>de</strong> <strong>de</strong><br />
la vraisemblance classifiante conditionnelle : notamment, il ne faut pas que (cf annexe D.4.2)<br />
– ν i → 0 ou ν i → +∞ ;<br />
– β i → −∞ ou β i → +∞.<br />
En eff<strong>et</strong>, quand les paramètres β i <strong>et</strong> ν i vers les frontières <strong>de</strong> leur domaine <strong>de</strong> définition,<br />
l’étu<strong>de</strong> <strong>de</strong>s limites <strong>de</strong> la vraisemblance L cc montre que c<strong>et</strong>te <strong>de</strong>rnière explose. Traduisons<br />
maintenant les contraintes équivalentes sur l’espace <strong>de</strong>s paramètres <strong>de</strong> la famille exponentielle<br />
(cf tableau 4.2) : il faut éviter que φ i → +∞ ou que φ i → 0, <strong>et</strong> s’assurer que θ i soit borné.<br />
Mélange d’Inverses Gaussiennes<br />
L’Inverse Gaussienne fait partie <strong>de</strong> la famille exponentielle, <strong>et</strong> constitue à ce titre un choix<br />
possible <strong>de</strong> modélisation <strong>de</strong> l’erreur dans un modèle linéaire généralisé. Elle est utilisée dans<br />
la modélisation <strong>de</strong> la sévérité <strong>de</strong>s sinistres en Assurance, <strong>et</strong> a comme support l’ensemble <strong>de</strong>s<br />
réels positifs. Ses <strong>de</strong>ux paramètres µ <strong>et</strong> σ 2 appartiennent à l’ensemble <strong>de</strong>s réels strictement<br />
positifs. Ainsi, une variable aléatoire Y <strong>de</strong> loi Inverse Gaussienne IN (µ, σ 2 ), dont la <strong>de</strong>nsité<br />
vaut<br />
f(y; µ, σ 2 ) =<br />
(<br />
1<br />
√<br />
2πσ 2 y exp − 1 3 2<br />
(y − µ) 2 )<br />
µ 2 σ 2 ,<br />
y<br />
155