Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Chapitre 4. Sélection <strong>de</strong> mélange <strong>de</strong> <strong>GLMs</strong><br />
déjà dans ce mémoire, <strong>et</strong> vaut : ∀ψ G ∈ Ψ G ,<br />
f(y j ; ψ G ) = L(ψ G ; y j ) =<br />
=<br />
=<br />
G∑<br />
π i f B (y j ; p i )<br />
i=1<br />
G∑<br />
π i p i<br />
i=1<br />
G∑<br />
i=1<br />
π i<br />
exp(X j β i )<br />
1 + exp(X j β i ) ,<br />
où β i = (β i0 , β i1 , ..., β ip ) T <strong>et</strong> X j = (1, X j1 , X j2 , ..., X jp ).<br />
Nous en déduisons la log-vraisemblance classifiante conditionnelle d’une observation y j pour<br />
les mélanges <strong>de</strong> régressions logistiques :<br />
(<br />
)<br />
G∑ π i f B (y j ; p i )<br />
ln L cc (ψ G ; y j ) = ln L(ψ G ; y j ) + ∑ G<br />
i=1 k=1 π k f B (y j ; p k ) ln π i f B (y j ; p i )<br />
∑ G<br />
k=1 π k f B (y j ; p k )<br />
( G<br />
)<br />
(<br />
)<br />
∑<br />
G∑ π i f B (y j ; p i )<br />
= ln π i f B (y j ; p i ) + ∑ G<br />
k=1 π k f B (y j ; p k ) ln π i f B (y j ; p i )<br />
∑ G<br />
k=1 π .<br />
k f B (y j ; p k )<br />
D’où en développant,<br />
ln L cc (ψ G ; y j ) = ln<br />
( G<br />
∑<br />
i=1<br />
)<br />
e X jβ i<br />
π i<br />
1 + e X jβ i<br />
i=1<br />
+<br />
i=1<br />
i=1<br />
e<br />
G∑<br />
X jβ i<br />
⎛<br />
e X jβ i<br />
⎞<br />
π i<br />
1 + e X jβ i<br />
π i<br />
∑ G<br />
k=1 π e X ln ⎜ 1 + e X jβ i<br />
⎟<br />
jβ k ⎝∑ G<br />
k<br />
1 + e X jβ k k=1 π e X jβ k ⎠ .<br />
k<br />
1 + e X jβ k<br />
Toujours par l’étu<strong>de</strong> <strong>de</strong>s limites <strong>de</strong> c<strong>et</strong>te vraisemblance aux frontières <strong>de</strong> l’espace <strong>de</strong>s paramètres,<br />
les contraintes à imposer <strong>de</strong>viennent flagrantes (annexe D.3.2). En fait, l’unique cas<br />
critique pour la bornitu<strong>de</strong> <strong>de</strong> la log-vraisemblance classifiante conditionnelle correspond à<br />
β i → −∞. De par la relation bijective qu’il existe entre les paramètres θ i <strong>et</strong> φ i <strong>et</strong> les paramètres<br />
originels <strong>de</strong> c<strong>et</strong>te distribution, nous étendons ces contraintes aux contraintes à imposer<br />
sur l’espace <strong>de</strong>s paramètres <strong>de</strong> la famille exponentielle. Ainsi, il suffit d’imposer que θ i reste<br />
borné.<br />
Mélange <strong>de</strong> régressions Gamma<br />
Parfois, l’erreur peut être <strong>de</strong> loi Gamma lorsque nous désirons modéliser la charge <strong>de</strong>s<br />
sinistres. C<strong>et</strong>te loi continue est à valeur dans l’ensemble <strong>de</strong>s réels positifs, <strong>et</strong> ses paramètres µ<br />
<strong>et</strong> ν appartiennent tous <strong>de</strong>ux à l’ensemble <strong>de</strong>s réels strictement positifs. Pour Y une variable<br />
aléatoire <strong>de</strong> loi Gamma Γ(µ, ν), la <strong>de</strong>nsité est donnée par<br />
154<br />
f(y; µ, ν) = 1<br />
Γ(ν)<br />
( ν<br />
µ<br />
) ν<br />
y ν−1 exp<br />
(− ν µ y )<br />
.<br />
Après quelques calculs, la <strong>de</strong>nsité d’un mélange <strong>de</strong> régressions Gamma pour une observa-