Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
4.3. Extension aux mélanges <strong>de</strong> <strong>GLMs</strong><br />
Résumé <strong>de</strong>s contraintes à imposer sur l’espace <strong>de</strong>s paramètres<br />
Le tableau 4.2 reprend l’ensemble <strong>de</strong>s résultats <strong>de</strong> l’étu<strong>de</strong> <strong>de</strong> chaque classe <strong>de</strong> la famille<br />
<strong>de</strong>s <strong>GLMs</strong>. Il perm<strong>et</strong> <strong>de</strong> récapituler le support contraint <strong>de</strong> chaque paramètre θ <strong>et</strong> φ, ce qui va<br />
nous être très utile pour la formulation <strong>de</strong>s hypothèses <strong>de</strong> convergence <strong>de</strong> l’estimateur ML cc E<br />
<strong>et</strong> du critère <strong>de</strong> sélection ICL. En eff<strong>et</strong>, nous voyons bien que l’ensemble <strong>de</strong>s membres <strong>de</strong> la<br />
famille GLM se comporte <strong>de</strong> manière i<strong>de</strong>ntique d’un point <strong>de</strong> vue <strong>de</strong>s contraintes à imposer<br />
sur les paramètres <strong>de</strong> la famille exponentielle. Dès que le paramètre <strong>de</strong> tendance <strong>et</strong>/ou la<br />
dispersion sont bornés, la log-vraisemblance classifiante conditionnelle reste finie (à condition<br />
que la dispersion ne ten<strong>de</strong> pas vers 0), <strong>de</strong> même que sa dérivée (dont particulièrement la<br />
dérivée <strong>de</strong> l’entropie !). Ces résultats montrent tout l’intérêt <strong>de</strong> se placer dans <strong>de</strong>s ensembles<br />
compacts pour l’espace <strong>de</strong>s paramètres.<br />
4.3.3 Propriétés <strong>de</strong> convergence avec les mélanges <strong>de</strong> <strong>GLMs</strong><br />
Nous avons longuement discuté <strong>de</strong>s hypothèses qui interviennent dans les théorèmes <strong>et</strong><br />
lemmes précé<strong>de</strong>nts. Finalement, il apparait que le point essentiel à vérifier est la bornitu<strong>de</strong><br />
<strong>de</strong> la vraisemblance classifiante conditionnelle, ainsi que <strong>de</strong> sa dérivée. L’étu<strong>de</strong> plus précise <strong>de</strong><br />
chaque famille <strong>de</strong>s GLM a montré qu’il n’était pas nécessaire d’imposer <strong>de</strong>s contraintes sur les<br />
fonctions a(), b() <strong>et</strong> c() <strong>de</strong> la famille exponentielle. Nous savons donc qu’en imposant <strong>de</strong>s bornes<br />
sur les paramètres <strong>de</strong> localisation <strong>et</strong> <strong>de</strong> dispersion <strong>de</strong>s membres <strong>de</strong>s GLM, nous vérifions l’ensemble<br />
<strong>de</strong>s hypothèses requises (notamment le fait que c<strong>et</strong>te famille soit P-Glivenko-Cantelli).<br />
Evi<strong>de</strong>mment, certaines autres hypothèses sont indispensables dans la pratique (support borné<br />
pour les <strong>de</strong>nsités, matrice d’information inversible, compacité/convexité <strong>de</strong> l’espace <strong>de</strong>s paramètres,<br />
...), mais elles ne semblent pas poser <strong>de</strong> problème concrètement.<br />
Loi <strong>de</strong> Y : Normale Binomiale Poisson Gamma Inverse Gaussienne<br />
N (µ, σ 2 ) B(n, µ) P(µ) G(µ, ν) IN (µ, σ 2 )<br />
Supports y ∈ R y ∈ 0, n y ∈ N y ∈ R + y ∈ R +<br />
µ ∈ R n ∈ N ∗ µ ∈ R + µ ∈ R +∗ µ ∈ R +∗<br />
σ 2 ∈ R +∗ µ ∈ [0, 1] ν ∈ R +∗ σ 2 ∈ R +∗<br />
Tendance θ(µ) µ ln[µ/(1 − µ)] ln µ −µ −1 −(2µ 2 ) −1<br />
Support <strong>de</strong> θ θ ∈ R θ ∈ R θ ∈ R θ ∈ R −∗ θ ∈ R −∗<br />
Dispersion φ σ 2 1 1 ν −1 σ 2<br />
Support <strong>de</strong> φ φ ∈ R +∗ φ ∈ R +∗ φ ∈ R +∗<br />
Fonction b(θ) θ 2 /2 ln(1 + e θ ) e θ − ln(−θ) −(−2θ) 1/2<br />
Fonction c(y, Φ) − 1 ( )<br />
y<br />
2<br />
2 Φ + ln(2πφ) ln(Cn ny ) − ln(y!) − 1 {<br />
ln(2πΦy 3 ) + 1 }<br />
2<br />
Φy<br />
µ(θ) = E[Y ; θ] θ e θ /(1 + e θ ) e θ −1/θ (−2θ) −1/2<br />
|θ| < +∞ |θ| < +∞ |θ| < +∞ |θ| < +∞ |θ| < +∞<br />
Contraintes φ < +∞ φ < +∞ φ < +∞<br />
φ ↛ 0 φ ↛ 0 φ ↛ 0<br />
Table 4.2 – Résumé <strong>de</strong>s contraintes sur l’espace <strong>de</strong>s paramètres <strong>de</strong>s <strong>GLMs</strong>.<br />
157