11.07.2015 Views

cours et TD - Enseeiht

cours et TD - Enseeiht

cours et TD - Enseeiht

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

2. INTRODUCTION À LA THÉORIE DE L’ÉCHANTILLONNAGE 6321.5110.50140 150 160 170 180longueur140 150 160 170longueur0.080.060.040.020150 160 170longueurFig. 4.1 – Données, boîte à moustaches <strong>et</strong> histogrammeNous allons écrire Ȳ comme la moyenne de n variables aléatoires de loi de Bernoulli indépendantes. Nous endéduirons alors la loi de Ȳ . Pour cela on considère la variable aléatoire X de loi de Bernoulli de paramètrep = 5/20 = 1/4X : U −→ {0, 1}une boule ↦−→ 0 si la boule est noireune boule ↦−→ 1 si la boule est blanche.On construit alors le vecteur aléatoire Y de dimension nY = (Y 1 , . . . , Y n ) : U n −→ {0, 1} nb = (b 1 , . . . , b n ) ↦−→ Y (b) = (Y 1 (b), . . . , Y n (b))= (X(b 1 ), . . . , X(b n )).Ainsi Y est le vecteur aléatoire de dimension n qui associe à chaque tirage le n-uppl<strong>et</strong> de 0 <strong>et</strong> de 1 suivant lacouleur des boules tirées. La i-ème composante de Y , Y i , représente quant à elle, l’application qui a un échantillonassocie 1 si la i-ème boule tirée est blanche <strong>et</strong> 0 si elle est noire. C<strong>et</strong>te variable aléatoire Y i s’écrit alorsY i : U −→ {0, 1} (4.1)b ↦−→ Y i (b) = X(b i ). (4.2)(4.3)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!