Le mod`ele de régression multiple
Le mod`ele de régression multiple
Le mod`ele de régression multiple
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Matrice <strong>de</strong> projection<br />
Bien entendu, on retrouve l’idée que la métho<strong>de</strong> d’estimation par MCO partitionne<br />
y en 2 parties orthogonales. On peut réinterpréter l’estimation effectuée<br />
comme la détermination <strong>de</strong> la projection orthogonale <strong>de</strong> y sur l’espace engendré par<br />
les X, etlasérie ajustée ŷ est alors orthogonale au résidu ˆε.<br />
Cette interprétation permet <strong>de</strong> retrouver directement la définition <strong>de</strong> l’estimateur<br />
<strong>de</strong>s MCO. En effet, puisque ˆε est orthogonal à l’ensemble <strong>de</strong>s X, ona:<br />
X ′ˆε =0⇔ X ′ (y − X ˆβ) =0⇔ X ′ y = X ′ X ˆβ<br />
A partir <strong>de</strong> la définition <strong>de</strong> l’estimateur MCO, on peut définir les matrices <strong>de</strong><br />
projection :<br />
ˆε = y − X ˆβ = y − X(X ′ X) −1 X ′ y =[I − X(X ′ X) −1 X ′ ]y = M X y<br />
La matrice M X est fondamentale dans la théorie <strong>de</strong> la régression. Elle est<br />
symétrique (M X ′ = M X), i<strong>de</strong>mpotente (MX 2 = M X). Appliquée à y, elle donne<br />
les résidus <strong>de</strong> la régression <strong>de</strong> y sur X.<br />
Ainsi, M X X = 0 : quand X est régressé surX, le fit (ou ajustement) est parfait<br />
et le résidu est nul.<br />
On a<br />
ŷ = y − ˆε =[I − M X ]y = P X y<br />
La matrice P X telle que M X = I−P X ou P X = X(X ′ X) −1 X ′ est aussi symétrique<br />
et i<strong>de</strong>mpotente. C’est une matrice <strong>de</strong> projection. Appliquée à y, elle donne la série<br />
ajustée. On a alors P X X = X et P X M X = M X P X =0.<br />
La notion <strong>de</strong> corrélation partielle<br />
En utilisant les matrices <strong>de</strong> projection, on peut étudier les régressions partitionnées,<br />
afin <strong>de</strong> voir l’effet <strong>de</strong> l’ajout ou <strong>de</strong> l’oubli d’une variable dans la régression.<br />
Ceci nous permet d’étendre la notion <strong>de</strong> corrélation simple afin d’étudier le lien<br />
entre la variable à expliquer et UNE variable explicative prise séparément : dans les<br />
variations <strong>de</strong> y, qu’est-ce qui est du à la variation d’une variable explicative, l’autre<br />
étant maintenue constante. Il s’agit du coefficient <strong>de</strong> corrélation partielle : c’est la<br />
corrélation entre y et X 1 une fois qu’on a retiré l’effet <strong>de</strong>s autres variables àlafois<br />
sur y et sur X 1 .<br />
Supposons que le modèle s’écrive :<br />
( )<br />
β1<br />
y = X 1 β 1 + X 2 β 2 + ε =[X 1 X 2 ] + ε<br />
β 2<br />
X 1 et X 2 pouvant être <strong>de</strong>s matrices à plusieurs colonnes (contenant plusieurs variables).<br />
<strong>Le</strong>s équations normales donnent :<br />
X 1X ′ 1 β 1 + X 1X ′ 2 β 2 = X 1y<br />
′<br />
X 2X ′ 1 β 1 + X 2X ′ 2 β 2 = X 2y<br />
′<br />
soit<br />
ˆβ 1 =(X ′ 1 X 1) −1 X ′ 1 (y − X 2β 2 )<br />
34