23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre 4. Sélection <strong>de</strong> mélange <strong>de</strong> <strong>GLMs</strong><br />

déjà dans ce mémoire, <strong>et</strong> vaut : ∀ψ G ∈ Ψ G ,<br />

f(y j ; ψ G ) = L(ψ G ; y j ) =<br />

=<br />

=<br />

G∑<br />

π i f B (y j ; p i )<br />

i=1<br />

G∑<br />

π i p i<br />

i=1<br />

G∑<br />

i=1<br />

π i<br />

exp(X j β i )<br />

1 + exp(X j β i ) ,<br />

où β i = (β i0 , β i1 , ..., β ip ) T <strong>et</strong> X j = (1, X j1 , X j2 , ..., X jp ).<br />

Nous en déduisons la log-vraisemblance classifiante conditionnelle d’une observation y j pour<br />

les mélanges <strong>de</strong> régressions logistiques :<br />

(<br />

)<br />

G∑ π i f B (y j ; p i )<br />

ln L cc (ψ G ; y j ) = ln L(ψ G ; y j ) + ∑ G<br />

i=1 k=1 π k f B (y j ; p k ) ln π i f B (y j ; p i )<br />

∑ G<br />

k=1 π k f B (y j ; p k )<br />

( G<br />

)<br />

(<br />

)<br />

∑<br />

G∑ π i f B (y j ; p i )<br />

= ln π i f B (y j ; p i ) + ∑ G<br />

k=1 π k f B (y j ; p k ) ln π i f B (y j ; p i )<br />

∑ G<br />

k=1 π .<br />

k f B (y j ; p k )<br />

D’où en développant,<br />

ln L cc (ψ G ; y j ) = ln<br />

( G<br />

∑<br />

i=1<br />

)<br />

e X jβ i<br />

π i<br />

1 + e X jβ i<br />

i=1<br />

+<br />

i=1<br />

i=1<br />

e<br />

G∑<br />

X jβ i<br />

⎛<br />

e X jβ i<br />

⎞<br />

π i<br />

1 + e X jβ i<br />

π i<br />

∑ G<br />

k=1 π e X ln ⎜ 1 + e X jβ i<br />

⎟<br />

jβ k ⎝∑ G<br />

k<br />

1 + e X jβ k k=1 π e X jβ k ⎠ .<br />

k<br />

1 + e X jβ k<br />

Toujours par l’étu<strong>de</strong> <strong>de</strong>s limites <strong>de</strong> c<strong>et</strong>te vraisemblance aux frontières <strong>de</strong> l’espace <strong>de</strong>s paramètres,<br />

les contraintes à imposer <strong>de</strong>viennent flagrantes (annexe D.3.2). En fait, l’unique cas<br />

critique pour la bornitu<strong>de</strong> <strong>de</strong> la log-vraisemblance classifiante conditionnelle correspond à<br />

β i → −∞. De par la relation bijective qu’il existe entre les paramètres θ i <strong>et</strong> φ i <strong>et</strong> les paramètres<br />

originels <strong>de</strong> c<strong>et</strong>te distribution, nous étendons ces contraintes aux contraintes à imposer<br />

sur l’espace <strong>de</strong>s paramètres <strong>de</strong> la famille exponentielle. Ainsi, il suffit d’imposer que θ i reste<br />

borné.<br />

Mélange <strong>de</strong> régressions Gamma<br />

Parfois, l’erreur peut être <strong>de</strong> loi Gamma lorsque nous désirons modéliser la charge <strong>de</strong>s<br />

sinistres. C<strong>et</strong>te loi continue est à valeur dans l’ensemble <strong>de</strong>s réels positifs, <strong>et</strong> ses paramètres µ<br />

<strong>et</strong> ν appartiennent tous <strong>de</strong>ux à l’ensemble <strong>de</strong>s réels strictement positifs. Pour Y une variable<br />

aléatoire <strong>de</strong> loi Gamma Γ(µ, ν), la <strong>de</strong>nsité est donnée par<br />

154<br />

f(y; µ, ν) = 1<br />

Γ(ν)<br />

( ν<br />

µ<br />

) ν<br />

y ν−1 exp<br />

(− ν µ y )<br />

.<br />

Après quelques calculs, la <strong>de</strong>nsité d’un mélange <strong>de</strong> régressions Gamma pour une observa-

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!