Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
B.2. La régression logistique<br />
<strong>et</strong> est estimée par l’inverse <strong>de</strong> la matrice d’information <strong>de</strong> Fisher, qui vaut<br />
[ ∂ 2 ln(L(β))<br />
]<br />
I(β) = −E<br />
.<br />
∂β∂β ′<br />
Un <strong>de</strong>s caractéristiques intéressantes est que le <strong>de</strong>rnier terme <strong>de</strong> c<strong>et</strong>te équation est déjà calculé<br />
par l’algorithme <strong>de</strong> Newton-Raphson, ce qui perm<strong>et</strong> d’estimer les coefficients <strong>de</strong> régression <strong>et</strong><br />
leur matrice <strong>de</strong> covariance simultanément.<br />
Comme d’habitu<strong>de</strong>, l’estimateur par maximum <strong>de</strong> vraisemblance ˆβ converge asymptotiquement<br />
vers une loi normale <strong>de</strong> moyenne la vraie valeur <strong>de</strong> β <strong>et</strong> <strong>de</strong> variance l’inverse <strong>de</strong> la matrice<br />
<strong>de</strong> Fisher I(β). Le terme dans l’espérance est appelé la Hessienne <strong>et</strong> est également utilisé dans<br />
les tests <strong>de</strong> significativité <strong>de</strong>s coefficients <strong>de</strong> régression β.<br />
B.2.5<br />
Statistique <strong>de</strong> déviance <strong>et</strong> tests<br />
Evaluation statistique <strong>de</strong> la régression<br />
Pour vérifier la pertinence du modèle, nous utilisons la statistique du test du ratio <strong>de</strong><br />
vraisemblance : l’hypothèse nulle <strong>de</strong> ce test est β 1 = β 2 = ... = β k = 0 (H 0 ) ;<br />
Et l’hypothèse alternative est "au moins un <strong>de</strong>s coefficients <strong>de</strong> régression n’est pas nul" (H 1 ).<br />
Soit l(β) la log-vraisemblance du modèle <strong>de</strong> régression logistique avec k + 1 coefficients <strong>de</strong><br />
régression, <strong>et</strong> l(β 0 ) la log-vraisemblance du modèle <strong>de</strong> régression logistique le plus simple<br />
(avec seulement l’ordonnée à l’origine β 0 ), la statistique du ratio <strong>de</strong> vraisemblance vaut<br />
(<br />
)<br />
Λ = 2 × l(β) − l(β 0 ) . (B.14)<br />
C<strong>et</strong>te statistique suit une loi du χ 2 k<br />
à k <strong>de</strong>grès <strong>de</strong> liberté (d.f.).<br />
Si la p-valeur est plus p<strong>et</strong>ite que le niveau <strong>de</strong> confiance que nous nous accordons, alors le<br />
modèle est globalement significatif <strong>et</strong> H 0 est rej<strong>et</strong>ée.<br />
Plus intuitivement, les statisticiens utilisent parfois le coefficient R 2 (ou coefficient <strong>de</strong> MC<br />
Fad<strong>de</strong>n) : R 2 = 1 − l(β)<br />
l(β 0 ) .<br />
Un coefficient R 2 proche <strong>de</strong> 0 signifie que le ratio <strong>de</strong> vraisemblance est proche <strong>de</strong> 1, <strong>et</strong> donc<br />
que la log-vraisemblance du modèle compl<strong>et</strong> est proche <strong>de</strong> celle du modèle le plus simple.<br />
Ainsi il n’est pas très utile d’introduire <strong>de</strong>s variables explicatives supplémentaires pour la<br />
modélisation. A l’opposé, si R 2 est proche <strong>de</strong> 1, alors il y a une gran<strong>de</strong> différence en termes<br />
<strong>de</strong> vraisemblance entre les <strong>de</strong>ux modèles <strong>et</strong> il est intéressant <strong>de</strong> considérer le modèle compl<strong>et</strong><br />
qui est bien meilleur.<br />
Pertinence <strong>et</strong> significativité d’une variable explicative<br />
L’idée <strong>de</strong> ce test est <strong>de</strong> comparer la valeur du coefficient estimé β j (associé à la variable<br />
explicative X j ) à sa variance, elle-même extraite <strong>de</strong> la matrice hessienne.<br />
L’hypothèse nulle (H 0 ) est : β j = 0 ; <strong>et</strong> l’hypothèse alternative (H 1 ) est donnée par : β j ≠ 0.<br />
Nous utilisons la statistique <strong>de</strong> Wald qui suit une distribution du χ 2 1 pour réaliser ce test :<br />
ˆβ j<br />
2<br />
Λ =<br />
V ar( ˆβ j ) .<br />
Choisissons par exemple un seuil <strong>de</strong> confiance <strong>de</strong> 5%, <strong>et</strong> notons χ 2 95% (1) le 95eme percentile<br />
<strong>de</strong> la loi du chi-<strong>de</strong>ux à 1 d.f. H 0 est vraie si le ratio est plus p<strong>et</strong>it que ce quantile, sinon nous<br />
rej<strong>et</strong>ons H 0 .<br />
197