11.07.2015 Views

cours et TD - Enseeiht

cours et TD - Enseeiht

cours et TD - Enseeiht

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

2. PRINCIPES GÉNÉRAUX 113Par suite S 2 n’est pas un estimateur sans biais de σ 2 . Pour obtenir un estimateur sans biais il faut en fait prendre :T (Y 1 , . . . , Y n ) = 1 n∑(Y i −n − 1 Ȳ )2 = nn − 1 S2 (Y )En eff<strong>et</strong> la propriété de linéarité le l’espérance mathématique donne immédiatement :( ) nEn − 1 S2 = nn − 1 E ( S 2) = σ 2i=1Illustrons ceci par la simulation. Construisons 5000 échantillons de taille 5 de données provenant d’une loi normaleN (100, 25). Pour chacun des 5000 échantillons nous calculons la quantité SCE/n. Nous obtenons ainsi5000 réalisations de la variable aléatoire S 2 . Traçons alors l’histogramme de ces 5000 nombres. Nous obtenons ledeuxième graphique de la figure (6.2). Si maintenant pour les mêmes 5000 échantillons nous calculons les quantitésSCE/(n − 1), nous obtenons 5000 réalisations de la variable aléatoire n/(n − 1)S 2 . L’histogramme de ces 5000valeurs nous donne alors le troisième graphique de la figure (6.2).0.1Données0.05SCE/n0.080.040.060.030.040.020.020.01085 90 95 100 105 110 11500 25 900.05SCE/(n−1)0.040.030.020.0100 25 90Fig. 6.2 – Echantillonnage de S 2 <strong>et</strong> de nS 2 /(n − 1)Nous pouvons observer que la valeur moyenne obtenue pour le troisème graphique est bien la valeur de lavariance σ 2 recherchée alors que sur le deuxième elle est inférieure (la valeur est de 4/5σ 2 )Remarque 2.2.4. Nous tenons a rapeller ici que l’illustration via la simulation informatique n’est qu’une illustration.Il faudrait en fait non pas prendre 5000 échantillons, mais une infinité. Ce sont les théorèmes mathématiquesqui nous perm<strong>et</strong>tent d’affirmer que le résultat est bien exact.n−1nS 2 n’est pas un estimateur de la variance sans biais, mais il est asymptotiquement sans biais puisque E(S 2 ) =σ2 tend vers σ 2 quand n tend vers +∞.Une deuxième propriété, qui est fondamentale, que doit avoir tout ”bon” estimateur est que si l’on a suffisammentde données la valeur de la variable aléatoire soit très proche de la valeur du paramètre recherché. Ceci ce traduit parle fait que l’estimateur soit asymptotiquement sans biais <strong>et</strong> qu’il fluctue peu autour de son espérance mathématiquelorsque n est grand, c’est-à-dire que sa variance soit p<strong>et</strong>ite pour n grand. Nous débouchons ainsi sur la notiond’estimateur convergent.Définition 2.2.5 (Estimateur convergent). Soit (P e ) un problème d’estimation. Un estimateur T n est dit convergentsi <strong>et</strong> seulement si il est asymptotiquement sans biais <strong>et</strong> si sa variance tend vers 0 quand n tend vers +∞ :E(T n ) −→ θ <strong>et</strong> V ar(T n ) −→ 0n −→ +∞ n −→ +∞Exemple 2.2.6. Considérons le problème de l’estimation d’une moyenne µ. Soit donc (Y 1 , . . . , Y n ) un n-échantillonaléatoire Bernoullien de la variable aléatoire X dont on cherche à estimer la moyenne. Considérons l’estimateurT n (Y 1 , . . . , Y n ) = Ȳn = 1 n∑Y inNous savons alors que : E(Ȳn) = µ pour tout n. Par suite c<strong>et</strong> estimateur est sans biais <strong>et</strong> donc asympotiquementsans biais. Quand à la variance de c<strong>et</strong> estimateur elle est :V ar(Ȳn) = σ2nPar suite c<strong>et</strong> estimateur est un estimateur convergent.i=1

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!