7.3 Estimation par Intervalle slide 306 - STAT
7.3 Estimation par Intervalle slide 306 - STAT
7.3 Estimation par Intervalle slide 306 - STAT
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>7.3</strong> <strong>Estimation</strong> <strong>par</strong> <strong>Intervalle</strong> <strong>slide</strong> <strong>306</strong><br />
Pivots<br />
Un élément clé de la statistique est de donner une idée de l’incertitude d’un constat.<br />
Soit θ un <strong>par</strong>amètre inconnu, et soit t =1la valeur d’une estimation de θ basée sur un échantillon de<br />
taille n :<br />
– alors si n =10 5 on est beaucoup plus sûr que θ ≈ t que si n =10;<br />
–enplusdet on aimerait ainsi donner un intervalle qui serait plus large quand n =10que quand<br />
n =10 5 , pour expliciter l’incertitude liée à t.<br />
Rappels :<br />
–lesdonnées y 1 ,...,y n sont traitées comme une réalisation<br />
–d’unéchantillonY 1 ,...,Y n tiré d’un modèle statistique f(y; θ)<br />
–dontle<strong>par</strong>amètre θ est considéré comme inconnu,<br />
–estimé<strong>par</strong>l’estimateur T = t(Y 1 ,...,Y n ) dont la réalisation est t = t(y 1 ,...,y n ).<br />
On doit donc trouver un moyen de lier θ et y 1 ,...,y n .<br />
Définition 275. Soient Y =(Y 1 ,...,Y n ) des données issues d’une loi F avec <strong>par</strong>amètre θ. Alors un<br />
pivot est une fonction Q = q(Y,θ) dont la loi est connue et qui ne dépend pas de θ. On dit alors que<br />
Q est pivotale.<br />
Exemple 276. Soient Y 1 ,...,Y n<br />
iid ∼ U(0,θ) avec θ inconnu, M =max(Y1 ,...,Y n ) et<br />
Y = n −1 ∑ Y j . (a) Montrer que Q 1 = M/θ est un pivot ; (b) utiliser le théorème central limite pour<br />
trouver un pivot approximatif Q 2 pour n grand, basé sur Y .<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 307<br />
Les intervalles de confiance<br />
Définition 277. Soient Y =(Y 1 ,...,Y n ) des données issues d’une loi <strong>par</strong>amétrique F de <strong>par</strong>amètre θ<br />
scalaire. Un intervalle de confiance (B I ,B S ) pour θ est une statistique sous forme d’intervalle qui<br />
contient θ avec un probabilité spécifiée. Cette probabilité s’appelle le niveau de l’intervalle. Noter que<br />
–leslimitesB I ,B S sont des fonctions des données Y 1 ,...,Y n et non pas des inconnus ;<br />
– un intervalle de confiance bilatéral, de la forme (B I ,B S ) est le plus souvent utilisé, mais<br />
– un intervalle de confiance unilatéral, de la forme<br />
(−∞,B S ) ou (B I , ∞),<br />
est <strong>par</strong>fois utile, B S et B I étant les bornes de confiance supérieure et inférieure pour θ.<br />
Si nous écrivons<br />
Pr{θ ∈ (−∞,B S )} =Pr(θB I )=1− α I ,<br />
alors le niveau de l’intervalle (B I ,B S ) est<br />
Pr (B I ≤ θ
Construction d’un IC<br />
– Avec l’aide d’un pivot, on peut construire des IC pour θ :<br />
1. on trouve un pivot Q = q(Y,θ) qui contient θ ;<br />
2. on obtient les quantiles q 1−α1 , q α2 de Q ;<br />
3. puis on transforme l‘équation<br />
en la forme<br />
Pr{q α2 ≤ q(Y,θ) ≤ q 1−α1 } =1− α 1 − α 2<br />
Pr(B I ≤ θ ≤ B S )=1− α 1 − α 2 ,<br />
où les bornes B I , B S sont fonction de Y , q α2 , q 1−α1 ,etpasdeθ.<br />
– Dans beaucoup de cas, les bornes sont d’une forme standard.<br />
– Pour les IC unilatéraux, on peut prendre soit α 1 =0soit α 2 =0.<br />
Exemple 278. Dans l’exemple 276, trouver les IC basés sur Q 1 et Q 2 .<br />
Exemple 279. Un échantillon de n =16plaques des voitures vaudoises a maximum 523308 et<br />
moyenne 320869. Donner des IC bilatéraux à 95% pour le nombre de voitures vaudoises.<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 309<br />
Interprétation d’un IC<br />
– (B I ,B S ) est un intervalle aléatoire qui contient θ avec probabilité 1 − α.<br />
– On imagine une suite infinie de répétitions de l’expérience qui a donné (B I ,B S )<br />
–L’ICquel’onacalculéestundesICspossibles,etonpeutconsidérer qu’il a été choisi au hasard<br />
<strong>par</strong>mi ces possibilités.<br />
– Bien que nous ne sachions pas si notre IC contient θ, cet événement a une probabilité 1 − α.<br />
– Pour illustrer ce raisonnement, ici le <strong>par</strong>amètre θ (vert) est contenu (ou pas) dans des réalisations<br />
de l’IC (rouge) :<br />
Repetition<br />
0 20 40 60 80 100<br />
−2 0 2 4 6 8 10 12<br />
Parameter<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 310<br />
283
Rélation avec des tests<br />
Il y a une relation intime entre les IC et les tests d’hypothèse concernant les <strong>par</strong>amètres.<br />
–SoitH 0 : θ = θ 0 une hypothèse nulle concernant un <strong>par</strong>amètre θ.<br />
–SoitI =(B I ,B S ) un IC au niveau (1 − α) × 100% pour θ.<br />
– Alors<br />
–siθ 0 ∈I, on considère que θ 0 est compatible avec les données, et on ne rejette pas H 0 au niveau<br />
α.<br />
– Si <strong>par</strong> contre θ ∉ I, on considère que θ 0 est incompatible avec les données au niveau α, eton<br />
rejette H 0 .<br />
– Donc une manière générale de faire un test au niveau α sur θ est de construire un IC au niveau<br />
(1 − α) et d’accepter tout θ se trouvant dans le IC, et de rejéter toute autre valeur de θ.<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 311<br />
Les écart-types<br />
Dans le plu<strong>par</strong>t des cas, on utilise des pivots approximatifs, basés sur des estimateurs, dont on a<br />
besoin d’estimer les variances.<br />
Définition 280. Soient T = t(Y 1 ,...,Y n ) un estimateur de θ, τn 2 =var(T ) sa variance, et<br />
V = v(Y 1 ,...,Y n ) une statistique estimateur de τn 2. Alors on appelle V 1/2 (également sa réalisation<br />
v 1/2 )uné c a r t - t y p dee<br />
T .<br />
Théorème 281. Soient T un estimateur et V son écart-type se basant sur un échantillon de taille n,<br />
avec<br />
T − θ D V P<br />
−→ Z, −→ 1, n →∞,<br />
τ n<br />
où Z ∼N(0, 1). Alors <strong>par</strong> le théorème 237 on a<br />
τ 2 n<br />
T − θ<br />
V 1/2<br />
= T − θ<br />
τ n<br />
× τ n<br />
V 1/2<br />
D −→ Z,<br />
n →∞.<br />
Implication : En construisant un IC <strong>par</strong> le TCL, on peut remplacer τ n <strong>par</strong> V 1/2 .<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 312<br />
284
Des IC approximatifs<br />
En général on construit des ICs approximatifs à l’aide du théorème central limite. Rappelons que la<br />
plu<strong>par</strong>t des statistiques se basant sur les moyennes (implicites ou explicites) des variables<br />
Y =(Y 1 ,...,Y n ) ont des lois normales pour n grand. Si T = t(Y ) est un estimateur de θ avec<br />
écart-type √ V ,etsi<br />
T ∼ · N(θ, V ),<br />
alors (T − θ)/ √ V ∼ · N(0, 1). Ainsi<br />
{<br />
Pr z α2 < (T − θ)/ √ } .=Φ(z1−α1<br />
V ≤ z 1−α1 ) − Φ(z α2 )=1− α 1 − α 2 ,<br />
impliquant qu’un IC (approx) de niveau (1 − α 1 − α 2 ) pour θ est<br />
(T − √ Vz 1−α1 ,T − √ Vz α2 ).<br />
L’exemple 278 en est un exemple, avec T =2Y et V = T 2 /(3n), carpourn grand on a<br />
B I ≈ T − Tz 1−α1 /(3n) 1/2 , B S ≈ T − Tz α2 /(3n) 1/2 .<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 313<br />
Moyenne et variance d’un échantillon normal<br />
Un cas très important où les IC exacts sont disponibles est l’échantillon normal.<br />
Théorème 282. Soient Y 1 ,...,Y n<br />
iid ∼N(µ, σ 2 ), alors<br />
Y ∼N(µ, σ 2 }<br />
/n)<br />
(n − 1)S 2 = ∑ n<br />
j=1 (Y j − Y ) 2 ∼ σ 2 χ 2 n−1<br />
indépendantes<br />
où χ 2 ν<br />
represente la loi khi-deux avec ν degrés de liberté.<br />
Ainsi si σ 2 est inconnu,<br />
Y − µ<br />
√<br />
S 2 /n ∼ t n−1,<br />
(n − 1)S 2<br />
σ 2<br />
∼ χ 2 n−1<br />
sont des pivots que l’on peut utiliser pour trouver des IC à (1 − α) × 100% pour µ et σ 2 ,<br />
respectivement, de forme<br />
Y ± √ S ( (n − 1)S<br />
2<br />
)<br />
(n − 1)S2<br />
t n−1 (α/2),<br />
n χ 2 ,<br />
n−1 (1 − α/2) χ 2 n−1 (α/2) ,<br />
où t ν (p) et χ 2 ν (p) sont les quantiles des lois Student t avec ν degrés de liberté et khi-deux avec ν<br />
degrés de liberté.<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 314<br />
285
Densités de khi-deux et de Student<br />
PDF<br />
0.0 0.2 0.4<br />
1<br />
2<br />
4<br />
6<br />
10<br />
PDF<br />
0.0 0.1 0.2 0.3 0.4<br />
0 5 10 15 20<br />
w<br />
-4 -2 0 2 4<br />
t<br />
Densités (à gauche) χ 2 ν avec ν =1, 2, 4, 6, 10, et (à droite) t ν avec ν =1(le plus bas au centre), 2, 4,<br />
20, ∞ (plus haut au centre).<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 315<br />
Exemple<br />
Exemple 283. On suppose que la résistance X d’un certain type d’équipements électriques est<br />
distribuée approximativement suivant une loi normale avec S 2 =0.12 2 ohm 2 .Unéchantillondetaille<br />
n =9a donné comme moyenne empirique la valeur x =5.34 ohm.<br />
(a) Trouver un IC bilatéral pour µ au niveau 95%.<br />
(b) Trouver un IC à 95% pour σ 2 .<br />
(c) Dans (a), qu’est-ce qui change s’il est connu que σ 2 =0.12 2 <br />
Note : Le remplacement d’un σ 2 inconnu <strong>par</strong> S 2 élargit l’IC, car la variabilité de S augmente<br />
l’incertitude concernant µ.<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 316<br />
Commentaires<br />
– Un IC donne non seulement une idée d’où se trouve un <strong>par</strong>amètre inconnu, mais sa largeur donne<br />
en plus un sens de la précision de l’estimation.<br />
– En générale la largeur varie comme n −1/2 ,etdoncmultiplier<strong>par</strong>100latailledel’échantillon<br />
augmente la précision <strong>par</strong> un facteur de 10 seulement.<br />
– La construction des IC se base sur les pivots, souvent utilisant le théorème centrale limite pour<br />
approcher la loi d’un estimateur, et donc souvent approximatifs.<br />
– Dans certains cas, notamment pour des modèles normaux, les IC exactssontdisponibles.<br />
Probabilités et Statistique pour SIC <strong>slide</strong> 317<br />
286