62 CHAPITRE 4.THÉORIE DE L’ÉCHANTILLONNAGE2 Introduction à la théorie de l’échantillonnage2.1 Modélisation des donnéesOn considère les données de la tables 4.1, [5]. Ces données, notées (y 1 , . . . , y n ) sont des longueurs de la rectricecentrale de la gélinotte huppée mâle, juvénile. Ces 50 données sont 50 réalisations ou 50 observations de la variablealéatoireX : P −→ Cune gélinotte ↦−→ la longueur de sa rectrice centrale.où P est la population des gélinottes huppées mâles juveniles. Il s’agit d’un premier point de vue. C’est celui-ci quiest pris en considération lorsque l’on représente graphiquement les données (voir la figure 4.1).153 165 160 150 159 151 163160 158 149 154 153 163 140158 150 158 155 163 159 157162 160 152 164 158 153 162166 162 165 157 174 158 171162 155 156 159 162 152 158164 164 162 158 156 171 164158Tab. 4.1 – Longueurs de la rectrice centrale de la gélinotte huppée mâle, juvénileMais nous pouvons adopter un autre point de vue qui est beaucoup moins intuitif. C’est ce deuxième point devue qui est pris en considération lorsque l’on fait une estimation ou un test statistique <strong>et</strong> que nous allons présentermaintenant. Pour cela, on considère le vecteur aléatoire suivant :Y = (Y 1 , . . . , Y 50 ) : Ω −→ R 50g = (g 1 , . . . , g 50 ) ↦−→ Y (g) = (X(g 1 ), . . . , X(g 50 ),où l’ensemble Ω est l’ensemble de tous les échantillons de taille 50 extraits de la population P, c’est-à-dire queΩ = {g = (g 1 , . . . , g 50 ) ∈ P 50 |g i ≠ g jpour i ≠ j}.Y (g) est donc un vecteur contenant les 50 longeurs de la rectrice centrale des 50 gélinottes de l’échantillon g. Lesdonnées de la table 4.1 sont alors une réalisation (ou une observation) de ce vecteur aléaloire Y .En résumé les deux points de vues modélisant les données sont :– l’échantillon (y 1 , . . . , y n ) représente n observations de la variable aléatoire X ;– l’échantillon (y 1 , . . . , y n ) représente une onservation du vecteur aléatoire Y .Nous allons maintenant voir ce que perm<strong>et</strong> ce deuxième point de vue.2.2 Exemple de l’urneNous commençons par l’étude du cas d’école d’une urne rempli de boules blanches <strong>et</strong> noires. L’intérêt de c<strong>et</strong>exemple, outre sa simplicité, est de bien comprendre la différence entre ce que nous appellerons un échantillonnageavec remise <strong>et</strong> un échantillonnage sans remise.Tirage avec remiseConsidérons l’expérience qui consiste à tirer avec remise n boules d’une urne contenant 5 boules blanches <strong>et</strong> 15boules noires. Nous nous intéressons maintenant à la variable aléatoire suivante :Ȳ : U n −→ {0, 1/n, 2/n, . . . , n/n}b = (b 1 , b 2 , . . . , b n ) ↦−→ (le nombre de boule blanches parmi {b 1 , b 2 , . . . , b n })/n.
2. INTRODUCTION À LA THÉORIE DE L’ÉCHANTILLONNAGE 6321.5110.50140 150 160 170 180longueur140 150 160 170longueur0.080.060.040.020150 160 170longueurFig. 4.1 – Données, boîte à moustaches <strong>et</strong> histogrammeNous allons écrire Ȳ comme la moyenne de n variables aléatoires de loi de Bernoulli indépendantes. Nous endéduirons alors la loi de Ȳ . Pour cela on considère la variable aléatoire X de loi de Bernoulli de paramètrep = 5/20 = 1/4X : U −→ {0, 1}une boule ↦−→ 0 si la boule est noireune boule ↦−→ 1 si la boule est blanche.On construit alors le vecteur aléatoire Y de dimension nY = (Y 1 , . . . , Y n ) : U n −→ {0, 1} nb = (b 1 , . . . , b n ) ↦−→ Y (b) = (Y 1 (b), . . . , Y n (b))= (X(b 1 ), . . . , X(b n )).Ainsi Y est le vecteur aléatoire de dimension n qui associe à chaque tirage le n-uppl<strong>et</strong> de 0 <strong>et</strong> de 1 suivant lacouleur des boules tirées. La i-ème composante de Y , Y i , représente quant à elle, l’application qui a un échantillonassocie 1 si la i-ème boule tirée est blanche <strong>et</strong> 0 si elle est noire. C<strong>et</strong>te variable aléatoire Y i s’écrit alorsY i : U −→ {0, 1} (4.1)b ↦−→ Y i (b) = X(b i ). (4.2)(4.3)