23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

B.2. La régression logistique<br />

<strong>et</strong> est estimée par l’inverse <strong>de</strong> la matrice d’information <strong>de</strong> Fisher, qui vaut<br />

[ ∂ 2 ln(L(β))<br />

]<br />

I(β) = −E<br />

.<br />

∂β∂β ′<br />

Un <strong>de</strong>s caractéristiques intéressantes est que le <strong>de</strong>rnier terme <strong>de</strong> c<strong>et</strong>te équation est déjà calculé<br />

par l’algorithme <strong>de</strong> Newton-Raphson, ce qui perm<strong>et</strong> d’estimer les coefficients <strong>de</strong> régression <strong>et</strong><br />

leur matrice <strong>de</strong> covariance simultanément.<br />

Comme d’habitu<strong>de</strong>, l’estimateur par maximum <strong>de</strong> vraisemblance ˆβ converge asymptotiquement<br />

vers une loi normale <strong>de</strong> moyenne la vraie valeur <strong>de</strong> β <strong>et</strong> <strong>de</strong> variance l’inverse <strong>de</strong> la matrice<br />

<strong>de</strong> Fisher I(β). Le terme dans l’espérance est appelé la Hessienne <strong>et</strong> est également utilisé dans<br />

les tests <strong>de</strong> significativité <strong>de</strong>s coefficients <strong>de</strong> régression β.<br />

B.2.5<br />

Statistique <strong>de</strong> déviance <strong>et</strong> tests<br />

Evaluation statistique <strong>de</strong> la régression<br />

Pour vérifier la pertinence du modèle, nous utilisons la statistique du test du ratio <strong>de</strong><br />

vraisemblance : l’hypothèse nulle <strong>de</strong> ce test est β 1 = β 2 = ... = β k = 0 (H 0 ) ;<br />

Et l’hypothèse alternative est "au moins un <strong>de</strong>s coefficients <strong>de</strong> régression n’est pas nul" (H 1 ).<br />

Soit l(β) la log-vraisemblance du modèle <strong>de</strong> régression logistique avec k + 1 coefficients <strong>de</strong><br />

régression, <strong>et</strong> l(β 0 ) la log-vraisemblance du modèle <strong>de</strong> régression logistique le plus simple<br />

(avec seulement l’ordonnée à l’origine β 0 ), la statistique du ratio <strong>de</strong> vraisemblance vaut<br />

(<br />

)<br />

Λ = 2 × l(β) − l(β 0 ) . (B.14)<br />

C<strong>et</strong>te statistique suit une loi du χ 2 k<br />

à k <strong>de</strong>grès <strong>de</strong> liberté (d.f.).<br />

Si la p-valeur est plus p<strong>et</strong>ite que le niveau <strong>de</strong> confiance que nous nous accordons, alors le<br />

modèle est globalement significatif <strong>et</strong> H 0 est rej<strong>et</strong>ée.<br />

Plus intuitivement, les statisticiens utilisent parfois le coefficient R 2 (ou coefficient <strong>de</strong> MC<br />

Fad<strong>de</strong>n) : R 2 = 1 − l(β)<br />

l(β 0 ) .<br />

Un coefficient R 2 proche <strong>de</strong> 0 signifie que le ratio <strong>de</strong> vraisemblance est proche <strong>de</strong> 1, <strong>et</strong> donc<br />

que la log-vraisemblance du modèle compl<strong>et</strong> est proche <strong>de</strong> celle du modèle le plus simple.<br />

Ainsi il n’est pas très utile d’introduire <strong>de</strong>s variables explicatives supplémentaires pour la<br />

modélisation. A l’opposé, si R 2 est proche <strong>de</strong> 1, alors il y a une gran<strong>de</strong> différence en termes<br />

<strong>de</strong> vraisemblance entre les <strong>de</strong>ux modèles <strong>et</strong> il est intéressant <strong>de</strong> considérer le modèle compl<strong>et</strong><br />

qui est bien meilleur.<br />

Pertinence <strong>et</strong> significativité d’une variable explicative<br />

L’idée <strong>de</strong> ce test est <strong>de</strong> comparer la valeur du coefficient estimé β j (associé à la variable<br />

explicative X j ) à sa variance, elle-même extraite <strong>de</strong> la matrice hessienne.<br />

L’hypothèse nulle (H 0 ) est : β j = 0 ; <strong>et</strong> l’hypothèse alternative (H 1 ) est donnée par : β j ≠ 0.<br />

Nous utilisons la statistique <strong>de</strong> Wald qui suit une distribution du χ 2 1 pour réaliser ce test :<br />

ˆβ j<br />

2<br />

Λ =<br />

V ar( ˆβ j ) .<br />

Choisissons par exemple un seuil <strong>de</strong> confiance <strong>de</strong> 5%, <strong>et</strong> notons χ 2 95% (1) le 95eme percentile<br />

<strong>de</strong> la loi du chi-<strong>de</strong>ux à 1 d.f. H 0 est vraie si le ratio est plus p<strong>et</strong>it que ce quantile, sinon nous<br />

rej<strong>et</strong>ons H 0 .<br />

197

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!