23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

4.3. Extension aux mélanges <strong>de</strong> <strong>GLMs</strong><br />

La <strong>de</strong>nsité d’une observation avec <strong>de</strong>s mélanges <strong>de</strong> régressions <strong>de</strong> Poisson s’exprime sous<br />

la forme suivante après quelques calculs : ∀ψ G ∈ Ψ G ,<br />

f(y j ; ψ G ) = L(ψ G ; y j ) =<br />

=<br />

=<br />

G∑<br />

π i f P (y j ; µ i )<br />

i=1<br />

G∑<br />

i=1<br />

π i exp(−µ i ) µy j<br />

i<br />

y j !<br />

G∑<br />

π i exp (− exp(X j β i )) [exp(X jβ i )] y j<br />

,<br />

y j !<br />

i=1<br />

où β i = (β i0 , β i1 , ..., β ip ) T <strong>et</strong> X j = (1, X j1 , X j2 , ..., X jp ).<br />

C<strong>et</strong>te <strong>de</strong>nsité <strong>de</strong> mélange nous perm<strong>et</strong> d’exprimer la vraisemblance classifiante conditionnelle<br />

qui en découle (toujours pour une observation y j ) :<br />

(<br />

)<br />

G∑ π i f P (y j ; µ i )<br />

ln L cc (ψ G ; y j ) = ln L(ψ G ; y j ) + ∑ G<br />

i=1 k=1 π k f P (y j ; µ k ) ln π i f P (y j ; µ i )<br />

∑ G<br />

k=1 π k f P (y j ; µ k )<br />

( G<br />

)<br />

(<br />

)<br />

∑<br />

G∑ π i f P (y j ; µ i )<br />

= ln π i f P (y j ; µ i ) + ∑ G<br />

i=1<br />

i=1 k=1 π k f P (y j ; µ k ) ln π i f P (y j ; µ i )<br />

∑ G<br />

k=1 π k f P (y j ; µ k )<br />

[ ]<br />

(<br />

∑ G<br />

[ ]<br />

= ln π i e −eX j β i e<br />

X j β yj<br />

)<br />

i<br />

G∑<br />

π i e −eX j β i e<br />

X j β yj<br />

⎛<br />

[ ]<br />

i<br />

y j !<br />

π i e −eX j β i e<br />

X j β yj<br />

⎞<br />

i y j !<br />

+<br />

[ ]<br />

y<br />

i=1<br />

j !<br />

G∑<br />

i=1<br />

π k e −eX j β k e<br />

X j β yj ln ⎜<br />

[ ]<br />

k ⎝ G∑<br />

π k e<br />

y j !<br />

−eX j β k e<br />

X j β yj ⎟<br />

k ⎠<br />

y j !<br />

k=1<br />

Faisons tendre le paramètre µ i vers les frontières <strong>de</strong> son domaine <strong>de</strong> définition <strong>et</strong> étudions<br />

les limites <strong>de</strong> la vraisemblance L cc . Nous obtenons comme contrainte après calculs (cf<br />

annexe D.2.2) que les coefficients <strong>de</strong> régression β i <strong>de</strong>s <strong>composantes</strong> doivent rester bornés<br />

(|β i | ≠ ∞), ce qui signifie la même contrainte pour les paramètres θ i .<br />

Mélange <strong>de</strong> régressions logistiques<br />

Dans nos <strong>application</strong>s, c’est le mélange que nous utilisons : en eff<strong>et</strong>, le <strong>nombre</strong> <strong>de</strong> rachats<br />

à l’échelle d’un portefeuille suit une loi binomiale B(n, p). C<strong>et</strong>te loi fait partie <strong>de</strong> la famille<br />

exponentielle, a un support défini par l’ensemble <strong>de</strong>s entiers naturels, <strong>et</strong> ses paramètres n <strong>et</strong> p<br />

représentent respectivement le <strong>nombre</strong> d’assurés en portefeuille <strong>et</strong> la probabilité individuelle <strong>de</strong><br />

rachat. n est un entier naturel, <strong>et</strong> p ∈ [0, 1]. La variable aléatoire Y représentant la proportion<br />

<strong>de</strong> rachat dans la population prend donc <strong>de</strong>s valeurs dans [0, 1/n, ..., 1] <strong>et</strong> adm<strong>et</strong> pour <strong>de</strong>nsité<br />

P (Y = y) = f(y; n, p) = C ny<br />

n p ny (1 − p) n−ny .<br />

Nous pouvons encore une fois transformer l’écriture <strong>de</strong> c<strong>et</strong>te <strong>de</strong>nsité sous la forme <strong>de</strong> celle <strong>de</strong><br />

la famille exponentielle, en fixant le paramétrage donné par le tableau 4.2.<br />

En travaillant sur une observation, la décision <strong>de</strong> rachat est une loi <strong>de</strong> Bernoulli <strong>de</strong> paramètre<br />

p. La <strong>de</strong>nsité <strong>de</strong>s mélanges <strong>de</strong> régressions logistiques a été donnée à plusieurs reprises<br />

k=1<br />

153

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!