Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
4.3. Extension aux mélanges <strong>de</strong> <strong>GLMs</strong><br />
La <strong>de</strong>nsité d’une observation avec <strong>de</strong>s mélanges <strong>de</strong> régressions <strong>de</strong> Poisson s’exprime sous<br />
la forme suivante après quelques calculs : ∀ψ G ∈ Ψ G ,<br />
f(y j ; ψ G ) = L(ψ G ; y j ) =<br />
=<br />
=<br />
G∑<br />
π i f P (y j ; µ i )<br />
i=1<br />
G∑<br />
i=1<br />
π i exp(−µ i ) µy j<br />
i<br />
y j !<br />
G∑<br />
π i exp (− exp(X j β i )) [exp(X jβ i )] y j<br />
,<br />
y j !<br />
i=1<br />
où β i = (β i0 , β i1 , ..., β ip ) T <strong>et</strong> X j = (1, X j1 , X j2 , ..., X jp ).<br />
C<strong>et</strong>te <strong>de</strong>nsité <strong>de</strong> mélange nous perm<strong>et</strong> d’exprimer la vraisemblance classifiante conditionnelle<br />
qui en découle (toujours pour une observation y j ) :<br />
(<br />
)<br />
G∑ π i f P (y j ; µ i )<br />
ln L cc (ψ G ; y j ) = ln L(ψ G ; y j ) + ∑ G<br />
i=1 k=1 π k f P (y j ; µ k ) ln π i f P (y j ; µ i )<br />
∑ G<br />
k=1 π k f P (y j ; µ k )<br />
( G<br />
)<br />
(<br />
)<br />
∑<br />
G∑ π i f P (y j ; µ i )<br />
= ln π i f P (y j ; µ i ) + ∑ G<br />
i=1<br />
i=1 k=1 π k f P (y j ; µ k ) ln π i f P (y j ; µ i )<br />
∑ G<br />
k=1 π k f P (y j ; µ k )<br />
[ ]<br />
(<br />
∑ G<br />
[ ]<br />
= ln π i e −eX j β i e<br />
X j β yj<br />
)<br />
i<br />
G∑<br />
π i e −eX j β i e<br />
X j β yj<br />
⎛<br />
[ ]<br />
i<br />
y j !<br />
π i e −eX j β i e<br />
X j β yj<br />
⎞<br />
i y j !<br />
+<br />
[ ]<br />
y<br />
i=1<br />
j !<br />
G∑<br />
i=1<br />
π k e −eX j β k e<br />
X j β yj ln ⎜<br />
[ ]<br />
k ⎝ G∑<br />
π k e<br />
y j !<br />
−eX j β k e<br />
X j β yj ⎟<br />
k ⎠<br />
y j !<br />
k=1<br />
Faisons tendre le paramètre µ i vers les frontières <strong>de</strong> son domaine <strong>de</strong> définition <strong>et</strong> étudions<br />
les limites <strong>de</strong> la vraisemblance L cc . Nous obtenons comme contrainte après calculs (cf<br />
annexe D.2.2) que les coefficients <strong>de</strong> régression β i <strong>de</strong>s <strong>composantes</strong> doivent rester bornés<br />
(|β i | ≠ ∞), ce qui signifie la même contrainte pour les paramètres θ i .<br />
Mélange <strong>de</strong> régressions logistiques<br />
Dans nos <strong>application</strong>s, c’est le mélange que nous utilisons : en eff<strong>et</strong>, le <strong>nombre</strong> <strong>de</strong> rachats<br />
à l’échelle d’un portefeuille suit une loi binomiale B(n, p). C<strong>et</strong>te loi fait partie <strong>de</strong> la famille<br />
exponentielle, a un support défini par l’ensemble <strong>de</strong>s entiers naturels, <strong>et</strong> ses paramètres n <strong>et</strong> p<br />
représentent respectivement le <strong>nombre</strong> d’assurés en portefeuille <strong>et</strong> la probabilité individuelle <strong>de</strong><br />
rachat. n est un entier naturel, <strong>et</strong> p ∈ [0, 1]. La variable aléatoire Y représentant la proportion<br />
<strong>de</strong> rachat dans la population prend donc <strong>de</strong>s valeurs dans [0, 1/n, ..., 1] <strong>et</strong> adm<strong>et</strong> pour <strong>de</strong>nsité<br />
P (Y = y) = f(y; n, p) = C ny<br />
n p ny (1 − p) n−ny .<br />
Nous pouvons encore une fois transformer l’écriture <strong>de</strong> c<strong>et</strong>te <strong>de</strong>nsité sous la forme <strong>de</strong> celle <strong>de</strong><br />
la famille exponentielle, en fixant le paramétrage donné par le tableau 4.2.<br />
En travaillant sur une observation, la décision <strong>de</strong> rachat est une loi <strong>de</strong> Bernoulli <strong>de</strong> paramètre<br />
p. La <strong>de</strong>nsité <strong>de</strong>s mélanges <strong>de</strong> régressions logistiques a été donnée à plusieurs reprises<br />
k=1<br />
153