03.07.2015 Views

Le mod`ele de régression multiple

Le mod`ele de régression multiple

Le mod`ele de régression multiple

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

ˆb ∼N(b, var(ˆb)) =⇒<br />

ˆb − b<br />

√ ∼N(0, 1)<br />

var(ˆb)<br />

On remarque que les variances <strong>de</strong>s coefficients estimés varient directement avec<br />

var(u i )=σ 2 . Ainsi, on pourra obtenir <strong>de</strong>s estimateurs d’autant plus efficaces que<br />

cette variance est faible. De plus, les variances <strong>de</strong>s estimateurs varient inversement<br />

avec var(x i ). Ainsi, plus les x i sont dispersés et plus on peut avoir <strong>de</strong>s estimateurs<br />

précis. En effet, si les variables x i varient très peu, on aura du mal à obtenir <strong>de</strong><br />

bons estimateurs <strong>de</strong> la droite <strong>de</strong> régression puisque toutes les observations seront<br />

concentrées.<br />

On a vu que la variance <strong>de</strong>s estimateurs dépend <strong>de</strong> σ 2 qui est inconnue. Il faut<br />

alors trouver un estimateur <strong>de</strong> σ 2 . On montre que :<br />

1<br />

n − 2<br />

est un estimateur sans biais <strong>de</strong> la variance σ 2 .Onan − 2etnonpasn pour définir<br />

la variance estimée <strong>de</strong>s résidus car pour estimer les résidus û i ,onadûestimer2<br />

paramètres, àsavoirâ et ˆb.<br />

Ainsi, la variance estimée par maximum <strong>de</strong> vraisemblance <strong>de</strong>vient vali<strong>de</strong> quand<br />

le nombre d’observations n est élevé.<br />

Puisque σ 2 doit être estimée, alors les paramètres estimés suivent une loi <strong>de</strong><br />

stu<strong>de</strong>nt et non plus une loi normale (voir chapitre 1) :<br />

∑<br />

i<br />

û 2 i<br />

â − a<br />

√ ∼St n−2<br />

var(â) ˆ<br />

ˆb − b<br />

√<br />

var(ˆb) ˆ<br />

∼St n−2<br />

On se servira <strong>de</strong> ce résultat pour faire <strong>de</strong>s tests sur les paramètres a et b.<br />

3 Décomposition <strong>de</strong> la variance et qualité <strong>de</strong>la<br />

régression<br />

L’idée est <strong>de</strong> savoir quelle est la part <strong>de</strong> la variation <strong>de</strong> y qui est expliquée par les<br />

variations <strong>de</strong> x. Pour cela, décomposons la variance <strong>de</strong> y i . Puisque y i =ŷ i +û i ,en<br />

retranchant ȳ (qui est égal à ¯ŷ) <strong>de</strong>s2cotés, on obtient:<br />

y i − ȳ =ŷ i − ¯ŷ +û i<br />

Or, comme ŷ i et û i sont orthogonaux, alors la variation totale à expliquer, ou Somme<br />

<strong>de</strong>s Carrés Totale SCT = ∑ (y i − ȳ) 2 ,peutsedécomposer en Somme <strong>de</strong>s Carrés<br />

Expliquée (par le modèle, ou plus précisément par la variable x) SCE = ∑ (ŷ i − ȳ) 2<br />

et en Somme <strong>de</strong>s Carrés <strong>de</strong>s Résidus (partie que le modèle n’explique pas) SCR =<br />

∑<br />

û2 i . On a alors l’équation d’analyse <strong>de</strong> la variance suivante :<br />

SCT = SCE + SCR<br />

26

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!