03.07.2015 Views

Le mod`ele de régression multiple

Le mod`ele de régression multiple

Le mod`ele de régression multiple

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Matrice <strong>de</strong> projection<br />

Bien entendu, on retrouve l’idée que la métho<strong>de</strong> d’estimation par MCO partitionne<br />

y en 2 parties orthogonales. On peut réinterpréter l’estimation effectuée<br />

comme la détermination <strong>de</strong> la projection orthogonale <strong>de</strong> y sur l’espace engendré par<br />

les X, etlasérie ajustée ŷ est alors orthogonale au résidu ˆε.<br />

Cette interprétation permet <strong>de</strong> retrouver directement la définition <strong>de</strong> l’estimateur<br />

<strong>de</strong>s MCO. En effet, puisque ˆε est orthogonal à l’ensemble <strong>de</strong>s X, ona:<br />

X ′ˆε =0⇔ X ′ (y − X ˆβ) =0⇔ X ′ y = X ′ X ˆβ<br />

A partir <strong>de</strong> la définition <strong>de</strong> l’estimateur MCO, on peut définir les matrices <strong>de</strong><br />

projection :<br />

ˆε = y − X ˆβ = y − X(X ′ X) −1 X ′ y =[I − X(X ′ X) −1 X ′ ]y = M X y<br />

La matrice M X est fondamentale dans la théorie <strong>de</strong> la régression. Elle est<br />

symétrique (M X ′ = M X), i<strong>de</strong>mpotente (MX 2 = M X). Appliquée à y, elle donne<br />

les résidus <strong>de</strong> la régression <strong>de</strong> y sur X.<br />

Ainsi, M X X = 0 : quand X est régressé surX, le fit (ou ajustement) est parfait<br />

et le résidu est nul.<br />

On a<br />

ŷ = y − ˆε =[I − M X ]y = P X y<br />

La matrice P X telle que M X = I−P X ou P X = X(X ′ X) −1 X ′ est aussi symétrique<br />

et i<strong>de</strong>mpotente. C’est une matrice <strong>de</strong> projection. Appliquée à y, elle donne la série<br />

ajustée. On a alors P X X = X et P X M X = M X P X =0.<br />

La notion <strong>de</strong> corrélation partielle<br />

En utilisant les matrices <strong>de</strong> projection, on peut étudier les régressions partitionnées,<br />

afin <strong>de</strong> voir l’effet <strong>de</strong> l’ajout ou <strong>de</strong> l’oubli d’une variable dans la régression.<br />

Ceci nous permet d’étendre la notion <strong>de</strong> corrélation simple afin d’étudier le lien<br />

entre la variable à expliquer et UNE variable explicative prise séparément : dans les<br />

variations <strong>de</strong> y, qu’est-ce qui est du à la variation d’une variable explicative, l’autre<br />

étant maintenue constante. Il s’agit du coefficient <strong>de</strong> corrélation partielle : c’est la<br />

corrélation entre y et X 1 une fois qu’on a retiré l’effet <strong>de</strong>s autres variables àlafois<br />

sur y et sur X 1 .<br />

Supposons que le modèle s’écrive :<br />

( )<br />

β1<br />

y = X 1 β 1 + X 2 β 2 + ε =[X 1 X 2 ] + ε<br />

β 2<br />

X 1 et X 2 pouvant être <strong>de</strong>s matrices à plusieurs colonnes (contenant plusieurs variables).<br />

<strong>Le</strong>s équations normales donnent :<br />

X 1X ′ 1 β 1 + X 1X ′ 2 β 2 = X 1y<br />

′<br />

X 2X ′ 1 β 1 + X 2X ′ 2 β 2 = X 2y<br />

′<br />

soit<br />

ˆβ 1 =(X ′ 1 X 1) −1 X ′ 1 (y − X 2β 2 )<br />

34

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!