Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
4.3. Extension aux mélanges <strong>de</strong> <strong>GLMs</strong><br />
Notre objectif est d’étudier le comportement <strong>de</strong> la vraisemblance classifiante conditionnelle<br />
pour chaque classe <strong>de</strong> fonction appartenant à la famille <strong>de</strong>s <strong>GLMs</strong>. Les fonctions a(), b(),<br />
<strong>et</strong> c() constituent également un intérêt certain dans le but <strong>de</strong> potentiellement i<strong>de</strong>ntifier <strong>de</strong>s<br />
similitu<strong>de</strong>s (entre les différents <strong>GLMs</strong>) sur les restrictions à imposer, afin <strong>de</strong> conserver <strong>de</strong><br />
bonnes propriétés pour la fonction <strong>de</strong> vraisemblance. A la fin <strong>de</strong> ce panorama, nous <strong>de</strong>vons<br />
être capables <strong>de</strong> formuler les contraintes à imposer sur l’espace <strong>de</strong>s paramètres <strong>de</strong> chaque classe<br />
<strong>de</strong> fonctions <strong>de</strong> la famille exponentielle, ainsi que sur les fonctions auxiliaires utilisées dans<br />
la <strong>de</strong>nsité générale (4.23). Nos résutats sont exprimés pour une réponse Y unidimensionnelle<br />
dans un but <strong>de</strong> simplification d’écriture, mais sont généralisables au cas où Y ∈ R d .<br />
Mélange <strong>de</strong> régressions linéaires<br />
La loi Normale fait partie <strong>de</strong> la famille exponentielle, <strong>et</strong> constitue à ce titre un choix<br />
possible <strong>de</strong> modélisation <strong>de</strong> l’erreur dans un modèle linéaire généralisé. Le support <strong>de</strong> la loi<br />
Normale est la droite <strong>de</strong>s réels, <strong>et</strong> ses paramètres µ <strong>et</strong> σ 2 appartiennent respectivement à<br />
l’ensemble <strong>de</strong>s réels <strong>et</strong> aux réels strictement positifs. Ainsi, une variable aléatoire Y <strong>de</strong> loi<br />
normale N (µ, σ 2 ), dont la <strong>de</strong>nsité vaut<br />
f N (y; µ, σ 2 ) =<br />
(<br />
1<br />
√ exp − 1 (y − µ) 2 )<br />
2πσ 2 2 σ 2 ,<br />
adm<strong>et</strong> une représentation sous forme <strong>de</strong> famille exponentielle. En eff<strong>et</strong>, en considérant que la<br />
<strong>de</strong>nsité <strong>de</strong> Y est également donnée par<br />
{ }<br />
yθ − b(θ)<br />
f(y; θ, φ) = exp<br />
+ c(y, Φ) ,<br />
a(Φ)<br />
⎧<br />
θ = µ, d’où l’ensemble <strong>de</strong> définition pour θ : θ ∈ R,<br />
⎪⎨ b(θ) = θ2<br />
avec<br />
2 = µ2<br />
2 , d’où b(θ) ∈ R+ ,<br />
φ = a(φ) = σ 2 , d’où l’ensemble <strong>de</strong> définition pour φ : φ ∈ R +∗ ,<br />
⎪⎩ c(y; φ) = − 1 ( )<br />
y<br />
2<br />
2 σ 2 + ln 2πσ2 , d’où c(y; φ) ∈ R;<br />
nous r<strong>et</strong>rouvons après quelques calculs la <strong>de</strong>nsité originelle d’une gaussienne.<br />
Lorsque nous travaillons avec <strong>de</strong>s mélanges <strong>de</strong> régressions linéaires, la <strong>de</strong>nsité pour une<br />
observation peut s’écrire sous la forme suivante (en reprenant nos notations) après quelques<br />
calculs : ∀ψ G ∈ Ψ G ,<br />
f(y j ; ψ G ) = L(ψ G ; y j ) =<br />
=<br />
=<br />
G∑<br />
π i f N (y j ; µ i , σi 2 )<br />
i=1<br />
G∑<br />
i=1<br />
G∑<br />
i=1<br />
1<br />
π i √<br />
2πσi<br />
2<br />
1<br />
π i √<br />
2πσi<br />
2<br />
(<br />
exp − 1 2<br />
(<br />
exp − 1 2<br />
(y j − µ i ) 2 )<br />
σ 2 i<br />
(y j − X j β i ) 2<br />
σ 2 i<br />
)<br />
,<br />
151