Le mod`ele de régression multiple
Le mod`ele de régression multiple
Le mod`ele de régression multiple
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
ˆb ∼N(b, var(ˆb)) =⇒<br />
ˆb − b<br />
√ ∼N(0, 1)<br />
var(ˆb)<br />
On remarque que les variances <strong>de</strong>s coefficients estimés varient directement avec<br />
var(u i )=σ 2 . Ainsi, on pourra obtenir <strong>de</strong>s estimateurs d’autant plus efficaces que<br />
cette variance est faible. De plus, les variances <strong>de</strong>s estimateurs varient inversement<br />
avec var(x i ). Ainsi, plus les x i sont dispersés et plus on peut avoir <strong>de</strong>s estimateurs<br />
précis. En effet, si les variables x i varient très peu, on aura du mal à obtenir <strong>de</strong><br />
bons estimateurs <strong>de</strong> la droite <strong>de</strong> régression puisque toutes les observations seront<br />
concentrées.<br />
On a vu que la variance <strong>de</strong>s estimateurs dépend <strong>de</strong> σ 2 qui est inconnue. Il faut<br />
alors trouver un estimateur <strong>de</strong> σ 2 . On montre que :<br />
1<br />
n − 2<br />
est un estimateur sans biais <strong>de</strong> la variance σ 2 .Onan − 2etnonpasn pour définir<br />
la variance estimée <strong>de</strong>s résidus car pour estimer les résidus û i ,onadûestimer2<br />
paramètres, àsavoirâ et ˆb.<br />
Ainsi, la variance estimée par maximum <strong>de</strong> vraisemblance <strong>de</strong>vient vali<strong>de</strong> quand<br />
le nombre d’observations n est élevé.<br />
Puisque σ 2 doit être estimée, alors les paramètres estimés suivent une loi <strong>de</strong><br />
stu<strong>de</strong>nt et non plus une loi normale (voir chapitre 1) :<br />
∑<br />
i<br />
û 2 i<br />
â − a<br />
√ ∼St n−2<br />
var(â) ˆ<br />
ˆb − b<br />
√<br />
var(ˆb) ˆ<br />
∼St n−2<br />
On se servira <strong>de</strong> ce résultat pour faire <strong>de</strong>s tests sur les paramètres a et b.<br />
3 Décomposition <strong>de</strong> la variance et qualité <strong>de</strong>la<br />
régression<br />
L’idée est <strong>de</strong> savoir quelle est la part <strong>de</strong> la variation <strong>de</strong> y qui est expliquée par les<br />
variations <strong>de</strong> x. Pour cela, décomposons la variance <strong>de</strong> y i . Puisque y i =ŷ i +û i ,en<br />
retranchant ȳ (qui est égal à ¯ŷ) <strong>de</strong>s2cotés, on obtient:<br />
y i − ȳ =ŷ i − ¯ŷ +û i<br />
Or, comme ŷ i et û i sont orthogonaux, alors la variation totale à expliquer, ou Somme<br />
<strong>de</strong>s Carrés Totale SCT = ∑ (y i − ȳ) 2 ,peutsedécomposer en Somme <strong>de</strong>s Carrés<br />
Expliquée (par le modèle, ou plus précisément par la variable x) SCE = ∑ (ŷ i − ȳ) 2<br />
et en Somme <strong>de</strong>s Carrés <strong>de</strong>s Résidus (partie que le modèle n’explique pas) SCR =<br />
∑<br />
û2 i . On a alors l’équation d’analyse <strong>de</strong> la variance suivante :<br />
SCT = SCE + SCR<br />
26