20.04.2013 Views

Chapitre 3: Méthodes d'estimation et tests classiques sur un ... - lmpt

Chapitre 3: Méthodes d'estimation et tests classiques sur un ... - lmpt

Chapitre 3: Méthodes d'estimation et tests classiques sur un ... - lmpt

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Chapitre</strong> 3: <strong>Méthodes</strong> d’estimation <strong>et</strong> <strong>tests</strong> <strong>classiques</strong><br />

<strong>sur</strong> <strong>un</strong> échantillon gaussien<br />

Léonard Gallardo ∗<br />

1 Etude des échantillons gaussiens<br />

On rappelle qu’<strong>un</strong> n-échantillon d’<strong>un</strong>e loi F est <strong>un</strong> n-upl<strong>et</strong> (X1, . . . , Xn) de variables<br />

aléatoires i.i.d. de même loi F <strong>et</strong> définies <strong>sur</strong> <strong>un</strong> certain espace probabilisé (Ω, F, P) qu’on<br />

ne précisera pas forcément. Il est commode de considérer ce n-échantillon comme le vecteur<br />

aléatoire X := (X1, . . . , Xn) de R n dont les composantes sont les Xi ; c’est ce que nous ferons<br />

toujours par la suite.<br />

1.1 La loi du χ 2 à n degrés de liberté<br />

On rappelle qu’<strong>un</strong>e variable aléatoire X suit la loi Gamma de paramètres α > 0 <strong>et</strong> b > 0<br />

(notée Γ(α, b)) si elle a <strong>un</strong>e densité de probabilité donnée par :<br />

(1) fα,b(x) = bα<br />

Γ(α) xα−1 e −bx 1[0,∞[(x).<br />

Proposition 1.1 : La fonction caractéristique φX d’<strong>un</strong>e variable aléatoire X de loi Γ(α, b)<br />

est de la forme<br />

<br />

(2) φX(t) = 1 − i t<br />

−α .<br />

b<br />

démonstration : φX(t) = bα<br />

Γ(α) 0<br />

tière :<br />

φX(t) = bα<br />

∞ (it)<br />

Γ(α)<br />

n=0<br />

n ∞<br />

n! 0<br />

∞ (it)<br />

=<br />

n=0<br />

n b<br />

n!<br />

α 1<br />

Γ(α) bn+α ∞<br />

<br />

Γ(n + α) it<br />

=<br />

n!Γ(α) b<br />

n=0<br />

∞ (α + n − 1)(α + n − 2) · · · α<br />

+<br />

n!<br />

n=0<br />

∞<br />

e itx x α−1 e −bx dx. D’où en développant eitx en série en-<br />

x n+α−1 e −bx dx<br />

∞<br />

x<br />

0<br />

n+α−1 e −x dx<br />

n n <br />

it<br />

= 1 − i<br />

b<br />

t<br />

−α .<br />

b<br />

∗ cours de Statistiques, Master 1, Université de Tours, année 2007-2008, Laboratoire de Mathématiques<br />

<strong>et</strong> Physique Théorique-UMR 6083, Parc de Grandmont, 37200 TOURS, FRANCE. email : gallardo@<strong>un</strong>ivtours.fr<br />

1


Corollaire 1.2 : Une variable aléatoire X de loi Γ(α, b) a des moments de tous les ordres<br />

<strong>et</strong> en particulier<br />

(3) E(X) = α<br />

b , E(X2 ) =<br />

α(α + 1)<br />

b 2 , V ar(X) = α<br />

b 2<br />

démonstration : φX(t) est indéfiniment dérivable donc X a des moments de tous les ordres.<br />

En dérivant φX deux fois, on obtient<br />

φ ′ X(t) = iα<br />

b<br />

<br />

1 − i t<br />

−α−1 , φ<br />

b<br />

′′ X(t) = i2α(α + 1)<br />

b2 <br />

1 − i t<br />

−α−2 b<br />

D’où le résultat en faisant t = 0. <br />

Corollaire 1.3 (additivité des lois Gamma) : Soient X1, . . . , Xn des variables aléatoires<br />

indépendantes de lois respectives Γ(α1, b), . . . , Γ(αn, b). Alors la variable aléatoire X1 + · · · +<br />

Xn suit la loi Γ(α1 + · · · + αn, b).<br />

démonstration : D’après (2) est l’indépendance des Xi, la fonction caractéristique de la<br />

variable aléatoire X1 + · · · + Xn vaut :<br />

φX1+···+Xn(t) =<br />

n<br />

k=1<br />

<br />

1 − i t<br />

−αk <br />

= 1 − i<br />

b<br />

t<br />

−(α1+···+αn) .<br />

b<br />

C’est la fonction caractéristique d’<strong>un</strong>e loi Γ(α1 + · · · + αn, b). <br />

Corollaire 1.4 : Soit (X1, . . . , Xn) <strong>un</strong> n-échantillon de la loi normale N (0, 1). Alors la<br />

variable aléatoire χ2 n = X2 1 + · · · + X2 n suit la loi Γ( n 1 , ). Elle a pour densité<br />

2 2<br />

(4) fχ2 (x) = n 2−n/2<br />

Γ( n<br />

2<br />

<strong>et</strong> elle est telle que<br />

) x n<br />

2 −1 1<br />

−<br />

e 2 x 1[0,∞[(x).<br />

(5) E(χ 2 n) = n <strong>et</strong> V ar(χ 2 n) = 2n.<br />

démonstration : Il suffit de prouver ce résultat pour n = 1 puis d’appliquer le corollaire<br />

1.3. Soit X <strong>un</strong>e variable aléatoire N (0, 1). La fonction caractéristique de X2 est égale à<br />

√ 2π<br />

φX2(t) = E(e itX2<br />

) = 1<br />

∞<br />

e itx2<br />

e −x2 /2<br />

dx<br />

−∞<br />

= 1<br />

∞<br />

1<br />

− √ e 2<br />

2π −∞<br />

x2 (1−2it) −1/2<br />

dx = (1 − 2it) .<br />

On reconnait l’expression de la fonction caractéristique de la loi Γ( 1<br />

2<br />

1 , ). d’où le résultat. <br />

2<br />

Définition 1.5 : La loi de la variable aléatoire du corollaire précédent s’appelle loi du χ 2<br />

à n degrés de liberté.<br />

2


Comme consèquence du corollaire 1.3, on a l’additivité des lois pour des variables du chi-deux<br />

indépendantes :<br />

Corollaire 1.6 : Si (Xi)1≤i≤k est <strong>un</strong>e famille finie de variables aléatoires indépendantes<br />

telle que pour tout i, Xi suit <strong>un</strong>e loi χ2 ni , alors la variable aléatoire k i=1 Xi suit la loi χ2 n où<br />

n = k i=1 ni.<br />

Remarque : Pour le calcul du corollaire 1.4, on a utilisé le fait que pour tout m ∈ R <strong>et</strong> tout<br />

z ∈ C tel que Re(z) > 0, on a<br />

(6)<br />

∞<br />

1<br />

1<br />

−<br />

√ e 2(<br />

2π −∞<br />

x−m<br />

z ) 2<br />

dx = z.<br />

En eff<strong>et</strong> la formule est vraie pour z > 0 <strong>et</strong> comme le premier membre de (6) est <strong>un</strong>e fonction<br />

holomorphe de la variable z dans le demi-plan Re(z) > 0, le résultat en découle par prolongement<br />

analytique.<br />

Remarque <strong>et</strong> Notation : Soit X = (X1, . . . , Xn) <strong>un</strong> n-échantillon de la loi normale N (0, 1)<br />

<strong>et</strong> soit σ > 0. Alors σX = (σX1, . . . , σXn) est <strong>un</strong> n-échantillon de la loi normale N (0, σ 2 ).<br />

La variable aléatoire ||σX|| 2 = σ 2 (X 2 1 +· · ·+X 2 n) <strong>et</strong> sa loi seront alors notés σ 2 χ 2 n. Attention,<br />

quand on parlera de la loi σ 2 χ 2 n, il faudra se souvenir que c’est la variable aléatoire χ 2 n qui<br />

est multipliée par σ 2 <strong>et</strong> non sa fonction de répartition !<br />

1.2 Transformation orthogonale d’<strong>un</strong> n-échantillon gaussien. Théorème<br />

de Cochran<br />

Le but de ce paragraphe est de m<strong>et</strong>tre en évidence <strong>un</strong>e propriété remarquable des néchantillons<br />

gaussiens : la conservation de leur nature par changement de base orthonormale<br />

ou par transformation orthogonale de R n . C<strong>et</strong>te propriété géomètrique est à la base des méthodes<br />

statistiques d’estimation <strong>et</strong> de <strong>tests</strong> liées aux lois gaussiennes. Tout d’abord il convient<br />

de savoir reconnaître facilement <strong>un</strong> n-échantillons gaussien. L’outil théorique "infaillible"<br />

qui perm<strong>et</strong> de voir si <strong>un</strong> vecteur (resp. <strong>un</strong>e loi) est gaussien (resp. gaussienne) <strong>et</strong> qui perm<strong>et</strong><br />

aussi de dire si ses composantes (resp. ses marginales) sont indépendantes est la fonction<br />

caractéristique :<br />

Théorème 1.7 : X = (X1, . . . , Xn) <strong>un</strong> n-échantillon de la loi normale N (0, σ 2 ) si <strong>et</strong> seulement<br />

si la fonction caractéristique φX de X est de la forme<br />

(7) φX(t) = exp(− 1<br />

2 σ2 ||t|| 2 ) t ∈ R n ,<br />

où ||t|| = t 2 1 + · · · + t 2 n est la norme euclidienne du vecteur t = (t1, . . . , tn).<br />

démonstration : 1) (C.N.) Soit X = (X1, . . . , Xn) <strong>un</strong> n-échantillon de la loi normale<br />

N (0, σ2 ) <strong>et</strong> soit t ∈ Rn . Grâce à l’indépendance des Xk, on a :<br />

φX(t) = E(e i <br />

n<br />

) = E e itkXk<br />

<br />

n<br />

= E(e itkXk )<br />

=<br />

n<br />

k=1<br />

k=1<br />

k=1<br />

exp − 1<br />

2 σ2t 2 1<br />

k = exp −<br />

2 σ2 ||t|| 2 .<br />

3


2) (C.S.) Si X = (X1, . . . , Xn) est <strong>un</strong> vecteur aléatoire de fonction de caractéristique φX(t) =<br />

exp(− 1<br />

2 σ2 ||t|| 2 ) (t = (t1, . . . , tn) ∈ R n ), alors pout tout k = 1, . . . , n, on a<br />

φXk (tk)<br />

σ2<br />

−<br />

= φX(0, . . . , 0, tk, 0, . . . , 0) = e 2 t2 k.<br />

Ce qui montre que Xk est de loi N (0, σ 2 ). De plus comme pour tout t ∈ R n , φX(t) =<br />

n<br />

k=1 φXk (tk), les variables aléatoires Xk sont indépendantes. <br />

Remarque : Si X est <strong>un</strong> n-échantillon de la loi normale N (0, σ 2 ), alors pour tout t ∈ R n ,<br />

la variable aléatoire réelle < t|X > (produit scalaire de t <strong>et</strong> X) est de loi N (0, σ 2 ||t|| 2 ) car<br />

pour u ∈ R,<br />

(8) φ(u) = E(e iu ) = E(e i σ2<br />

−<br />

) = e 2 ||ut||2<br />

= e − σ2 ||t|| 2<br />

u 2<br />

2<br />

est la fonction caractéristique de la loi N (0, σ 2 ||t|| 2 ). <br />

Théorème 1.8 (de Cochran) : Soit X = (X1, . . . , Xn) <strong>un</strong> n-échantillon de la loi normale<br />

N (0, σ 2 ). Alors :<br />

1) les composantes de X dans toute base orthonormale de R n , forment aussi <strong>un</strong> n-échantillon<br />

de la loi N (0, σ 2 ).<br />

2) Le transformé du vecteur X par <strong>un</strong>e transformation orthogonale de R n , est toujours <strong>un</strong><br />

n-échantillon de la loi N (0, σ 2 ).<br />

3) Soit E1 ⊕· · ·⊕Ep <strong>un</strong>e décomposition de R n en p sous espaces vectoriels deux à deux orthogonaux<br />

<strong>et</strong> de dimensions respectives r1, . . . , rp. Alors les vecteurs aléatoires XE1, . . . , XEp projections<br />

orthogonales respectives de X <strong>sur</strong> E1, . . . , Ep, sont indépendants. De plus les variables<br />

aléatoires ||XE1|| 2 , . . . , ||XEp|| 2 sont indépendantes <strong>et</strong> de lois respectives σ 2 χ 2 r1 , . . . , σ2 χ 2 rp .<br />

démonstration : Soit v1, . . . , vn <strong>un</strong>e base orthonormale de R n . On a évidemment X =<br />

n<br />

k=1 < X|vk > vk. Le vecteur X ′ = (< X|v1 >, . . . , < X|vn >) a pour fonction caractéris-<br />

tique<br />

φX ′(t) = E(ei n k=1 tk i<br />

= φX(<br />

n<br />

k=1<br />

tkvk) = exp − 1<br />

2 σ2 ||<br />

n<br />

k=1<br />

tkvk|| 2 = exp − 1<br />

2 σ2 ||t|| 2 ,<br />

d’après le théorème 1.5 <strong>et</strong> en utilisant le fait que (vk) est <strong>un</strong>e base orthonormale pour affirmer<br />

que || n k=1 tkvk|| 2 = n k=1 t2k = ||t||2 . Du théorème 1.5, on obtient alors que X ′ est <strong>un</strong><br />

n-échantillon de la loi N (0, σ2 ). <br />

2) C<strong>et</strong>te assertion n’est qu’<strong>un</strong>e formulation équivalente de 1). En eff<strong>et</strong> soit A <strong>un</strong>e matrice<br />

orthogonale n × n. Par définition ses vecteurs lignes v1, . . . , vn, forment <strong>un</strong>e base orthonormale<br />

de Rn . Le vecteur AX transformé de X par l’action de la matrice A est le vecteur de<br />

Rn de coordonnées < X|v1 >, . . . , < X|vn > (dans la base canonique) donc c’est encore <strong>un</strong><br />

n-échantillon de la loi N (0, σ2 ) d’après le 1). <br />

3) Choisissons dans chaque sous espace Ej <strong>un</strong>e base orthonormale {vj,1, . . . , vj,rj } <strong>et</strong> m<strong>un</strong>issons<br />

Rn de la base orthonormale B obtenue en ré<strong>un</strong>issant toutes ces bases. La projection<br />

orthogonale XEj du vecteur aléatoire X <strong>sur</strong> Ej, est alors égale à<br />

XEj =<br />

rj<br />

< X|vj,k > vj,k<br />

k=1<br />

4


Les vecteurs aléatoires XEj sont clairement indépendants puisque leurs composantes <<br />

X|vr,s > dans la base B sont des variables aléatoires indépendantes d’après le 1). Il en<br />

résulte aussi que les variables ||XE1|| 2 , . . . , ||XEp|| 2 sont indépendantes. D’autre part, d’après<br />

le théorème de Pythagore, on a<br />

||XEj ||2 =<br />

rj<br />

| < X|vj,k > | 2 .<br />

k=1<br />

Le corollaire 1.4 <strong>et</strong> la remarque qui suit, montrent alors que ||XEj ||2 suit la loi σ2χ2 rj . <br />

2 Statistiques fondamentales d’<strong>un</strong> échantillon gaussien<br />

Dans le langage des statisticiens, le "terme statistique " lorsqu’il est associé à échantillon",<br />

est <strong>un</strong> synonyme de variable aléatoire liée à l’échantillon . Ainsi par exemple la moyenne <strong>et</strong><br />

la variance empirique sont les statistiques importantes d’<strong>un</strong> échantillon.<br />

Définition 2.1 : Soit X = (X1, . . . , Xn) <strong>un</strong> n-échantillon de la loi N (m, σ 2 ). Alors les<br />

statistiques (variables aléatoires)<br />

(9)<br />

(10)<br />

¯X = 1<br />

n<br />

n<br />

Xi,<br />

i=1<br />

S 2 = 1<br />

n − 1<br />

n<br />

(Xi − ¯ X) 2 ,<br />

s’appellent respectivement la moyenne <strong>et</strong> la variance empirique du n-échantillon X.<br />

i=1<br />

Remarque 1 : Pour l’échantillon centré ˜ X = (X1 − m, . . . , Xn − m) on a ¯˜ X = ¯ X − m <strong>et</strong><br />

˜S 2 = S 2 . On r<strong>et</strong>iendra c<strong>et</strong>te invariance du S 2 par centrage de l’échantillon.<br />

Remarque 2 : ¯ X <strong>et</strong> S 2 sont des "estimateurs" respectivement des paramètres m <strong>et</strong> σ 2<br />

de la loi de l’échantillon, d’où la terminologie adoptée. Précisons qu’on appelle estimateur<br />

d’<strong>un</strong> certain paramètre lié à <strong>un</strong>e loi, <strong>un</strong>e statistique (variable aléatoire) qui converge (en <strong>un</strong><br />

certain sens 1 ) vers la valeur du paramètre lorsque la taille n de l’échantillon tend vers l’infini.<br />

En eff<strong>et</strong>, on a ici<br />

¯X = 1<br />

n<br />

n<br />

Xi → m p.s. (n → ∞),<br />

i=1<br />

d’après la loi forte des grands nombres (voir le cours de Probabilités). De même, puisqu’on<br />

peut écrire S 2 = 1<br />

n−1<br />

n<br />

i=1 (Xi − ¯ X) 2 = 1<br />

n−1<br />

S 2 → E(X 2 1 − (E(X1)) 2 = σ 2<br />

toujours d’après la loi forte des grands nombres.<br />

n<br />

i=1 X2 i − n<br />

n−1 ( ¯ X) 2 , on voit que<br />

p.s. (n → ∞).<br />

Théorème 2.2 : Si X = (X1, . . . , Xn) est <strong>un</strong> n-échantillon de la loi N (m, σ 2 ), les variables<br />

aléatoires ¯ X <strong>et</strong> S 2 définies en (9) <strong>et</strong> (10) sont indépendantes. De plus<br />

1 par exemple pour la convergence p.s. ou la convergence L 2 , <strong>et</strong>c...<br />

5


√<br />

n( X¯ − m)<br />

1) La variable aléatoire<br />

suit la loi N (0, 1).<br />

σ<br />

2) La variable aléatoire S 2 suit la loi σ2<br />

n−1 χ2 n−1 <strong>et</strong> en particulier E(S 2 ) = σ 2 .<br />

3) La variable aléatoire 1<br />

n<br />

n<br />

i=1<br />

(Xi − m) 2 suit la loi σ2<br />

n χ2 n.<br />

démonstration : Considérons la décomposition en somme directe R n = E1 ⊕ E ⊥ 1 , où E1<br />

est la droite engendrée par le vecteur <strong>un</strong>itaire v1 = 1<br />

√ n (1, . . . , 1) <strong>et</strong> E ⊥ 1 est le supplémentaire<br />

orthogonal de E1. D’après la Remarque 1) ci-dessus, il suffit de considérer le cas où<br />

l’échantillon X est centré. Sa projection XE1 est alors égale à XE1 =< X|v1 > v1, où<br />

< X|v1 >= 1<br />

√ n<br />

<strong>et</strong> sa projection X E ⊥ 1 <strong>sur</strong> E ⊥ 1 est telle que :<br />

||X E ⊥ 1 || 2 = ||X|| 2 − ||XE1|| 2 =<br />

n<br />

i=1<br />

n<br />

Xi = √ n ¯ X,<br />

i=1<br />

X 2 i − n( ¯ X) 2 =<br />

n<br />

i=1<br />

(Xi − ¯ X) 2 = (n − 1)S 2 .<br />

L’indépendance de ¯ X <strong>et</strong> S 2 résulte alors du théorème de Cochran. De plus il est clair que<br />

√ n ¯ X est de loi N (0, σ 2 ) <strong>et</strong> d’après le théorème de Cochran la variable ||XE ⊥ 1 || 2 = (n − 1)S 2<br />

suit la loi σ 2 χ 2 n−1. D’où les résultats 1) <strong>et</strong> 2). Le résultat 3) est immédiat car il résulte de la<br />

définition de la loi du χ 2 . <br />

Une autre loi très importante liée à l’échantillon gaussien est la loi de Student que nous<br />

introduisons maintenant :<br />

Définition 2.3 : Soient X <strong>et</strong> Y deux variables aléatoires indépendantes telles que X suit la<br />

loi N (0, 1) <strong>et</strong> Y la loi χ 2 n. La loi de la variable aléatoire √ n X √ Y est appelée loi de Student<br />

à n-degrés de liberté. C<strong>et</strong>te loi est notée tn.<br />

Exemple : Si X = (X1, . . . , Xn) est <strong>un</strong> n-échantillon de la loi normale N (m, σ2 ) <strong>et</strong> si ¯ X <strong>et</strong><br />

S2 sont respectivement la moyenne <strong>et</strong> la variance empirique de X, alors d’après le théorème<br />

2.2, la variable aléatoire<br />

√<br />

n( X¯ − m)<br />

(11)<br />

, suit la loi tn−1.<br />

S<br />

C<strong>et</strong>te variable aléatoire est utilisée pour estimer la moyenne d’<strong>un</strong>e loi normale de variance<br />

inconnue comme nous le verrons dans le prochain paragraphe. La loi de Student est tabulée.<br />

Pour les grandes valeurs de n, on assimile tn à la loi normale N (0, 1). En eff<strong>et</strong> :<br />

Proposition 2.4 : tn converge en loi vers N (0, 1) quand n → ∞.<br />

démonstration : Soient X, X1, . . . , Xn, . . . des variables aléatoires indépendantes de loi<br />

N (0, 1). Par définition, la variable aléatoire<br />

√<br />

nX<br />

Tn = <br />

2 X1 + · · · + X2 X<br />

= <br />

X2 n<br />

1 +···+X2 ,<br />

n<br />

6<br />

n


X2 1 +···+X<br />

suit la loi tn. Mais d’après la loi des grands nombres,<br />

2 n → 1 p.s. quand n → ∞.<br />

n<br />

On en déduit aussitôt que Tn → X en loi quand n → ∞. <br />

Proposition 2.5 : La loi de Student tn a <strong>un</strong>e densité de probabilité donnée par la formule<br />

(12) ftn(x) = 1<br />

√ πn<br />

Γ( n+1<br />

2 )<br />

Γ( n<br />

2 )<br />

<br />

démonstration : Voir l’annexe du chapitre 2.<br />

1<br />

1 + x2<br />

n<br />

n+1<br />

2<br />

(x ∈ R).<br />

Exercice : Montrer que limn→∞ ftn(x) = 1<br />

√ 2π exp − 1<br />

2 x2 (utiliser la formule de Stirling).<br />

3 Estimation <strong>et</strong> <strong>tests</strong> <strong>classiques</strong> <strong>sur</strong> les paramètres d’<strong>un</strong>e<br />

loi normale<br />

3.1 Notions élémentaires <strong>et</strong> naïves <strong>sur</strong> la problèmatique de l’estimation<br />

<strong>et</strong> des <strong>tests</strong> statistiques<br />

Définition 3.1 : Etant donné <strong>un</strong> n-échantillon X = (X1, . . . , Xn) issu d’<strong>un</strong>e loi F , estimer<br />

<strong>un</strong> paramètre λ de la loi F avec <strong>un</strong> niveau de confiance 1 − α ( où 0 < α < 1, est fixé),<br />

c’est trouver <strong>un</strong> intervalle aléatoire I, dépendant de l’échantillon X, <strong>et</strong> tel que :<br />

(13) P(λ ∈ I) ≥ 1 − α.<br />

On déduit de (13) que P(λ ∈ Ic ) ≤ α. Le nombre α appelé risque d’erreur de première<br />

espèce, est donc <strong>un</strong> majorant de la probabilité de se tromper en affirmant que λ ∈ I.<br />

Pour faire comprendre les idées de l’estimation <strong>et</strong> des <strong>tests</strong>, on va discuter <strong>un</strong> exemple très<br />

simple :<br />

On cherche à estimer la moyenne m0 d’<strong>un</strong>e loi normale N (m0, σ2 ) dont la variance σ2 est<br />

connue. On considère donc <strong>un</strong> n-échantillon X = (X1, . . . , Xn) issu de la loi N (m0, σ2 ). On<br />

sait d’après la remarque 2 du paragraphe 2, qu’il est naturel de choisir ¯ √ X comme estimateur<br />

n( X¯ − m0)<br />

de m0 <strong>et</strong> d’après le 1) du théorème 2.2, la variable aléatoire<br />

suit la loi N (0, 1).<br />

σ<br />

Pour tout a ∈]0, 1[, soit φa, le nombre tel que<br />

Pour α ∈]0, 1[, on a donc<br />

ou encore<br />

<br />

(14) P<br />

1<br />

√ 2π<br />

+∞<br />

e −x2 /2<br />

dx = a.<br />

φa<br />

√ <br />

n( X¯ − m0) <br />

P<br />

<br />

σ ≤ φ <br />

α = 1 − α<br />

2<br />

¯X − σ φ α<br />

2<br />

√ ≤ m0 ≤<br />

n ¯ X + σ φ <br />

α<br />

2 √ = 1 − α.<br />

n<br />

7


Ceci montre que l’intervalle<br />

(15)<br />

<br />

¯X − σ φ α<br />

2<br />

√ ,<br />

n ¯ X + σ φ <br />

α<br />

2 √<br />

n<br />

est <strong>un</strong> intervalle de confiance de m0 au niveau de confiance 1 − α. C’est de c<strong>et</strong>te manière<br />

qu’on présente toujours le résultat d’<strong>un</strong> problème d’estimation : on peut seulement dire que<br />

la valeur de m0 appartient à c<strong>et</strong> intervalle avec <strong>un</strong> niveau de confiance 1 − α.<br />

Il n’y a pas <strong>un</strong>icité de l’intervalle de confiance. En eff<strong>et</strong><br />

<br />

¯X − σ φa<br />

√n , ¯ X + σ φb<br />

√n<br />

est <strong>un</strong> intervalle de confiance de m0 au niveau de confiance 1 − α, pour tous a, b ∈ [0, 1]<br />

tels 2<br />

que a+b = α (on convient de prendre φ0 = +∞). Il existe ainsi deux intervalles de confiance<br />

non bornés de niveau de confiance 1 − α :<br />

(16)<br />

<br />

φα ¯X − σ √n , +∞<br />

<strong>et</strong><br />

<br />

<br />

− ∞, ¯ X + σ φα<br />

<br />

√n ,<br />

qu’on appelle intervalles de confiance <strong>un</strong>ilatéraux alors que l’intervalle de confiance (15) s’appelle<br />

l’intervalle de confiance bilatéral.<br />

Signification de l’intervalle de confiance : Il est utile d’insister au moins <strong>un</strong>e fois <strong>sur</strong><br />

la signification précise des méthodes de la Statistique <strong>et</strong> <strong>sur</strong> la notion de rigueur (au sens<br />

mathématique) sous jacente. La notion d’intervalle de confiance est l’occasion d’en donner<br />

<strong>un</strong>e idée. Lorsqu’on observe <strong>un</strong>e valeur ¯x de ¯ X, on obtient l’intervalle de confiance observé<br />

<br />

¯x − σ φ α<br />

2<br />

√ , ¯x + σ<br />

n φ <br />

α<br />

2 √ .<br />

n<br />

Dans la pratique c’est toujours <strong>un</strong> intervalle de confiance observé que l’on obtient. Alors que<br />

signifie le niveau de confiance 1 − α ? Une vision naïve <strong>et</strong> qu’on accepte en général, consiste<br />

à considérer 1 − α comme <strong>un</strong> "degré de vraisemblance" du fait que l’intervalle de confiance<br />

observé contient la vraie valeur de la moyenne m0. Si on connait la loi des grands nombres,<br />

on peut voir précisemment les choses de la manière suivante :<br />

Si on fait <strong>un</strong> assez grand nombre (disons N) de tirages indépendants de n-échantillons de la<br />

loi N (m0, σ 2 ), alors parmi les N intervalles de confiance observés, il y en aura (en moyenne)<br />

<strong>un</strong>e proportion de 100(1 − α)% qui contiendront la vraie valeur de m0.<br />

Test statistique associé à l’estimation de la moyenne :<br />

Une manière équivalente d’écrire la formule (14) est la suivante :<br />

<br />

(17) P m0 − σ φ α<br />

2 √ ≤<br />

n ¯ X ≤ m0 + σ φ <br />

α<br />

2 √ = 1 − α.<br />

n<br />

Ainsi si m0 est "la vrai valeur" de la moyenne, il y a <strong>un</strong>e probabilité 1 − α pour que ¯ X<br />

appartienne à l’intervalle<br />

<br />

(18) I0 = m0 − σ φa<br />

√n , m0 + σ φb<br />

<br />

√n<br />

8


Ainsi quand on regarde si ¯ X ∈ I0, on dit qu’on teste l’hypothèse H0 :"la moyenne est<br />

égale à m0"contre l’hypothèse H1 :"la moyenne n’est pas égale à m0.<br />

Le mécanisme du test est donc le suivant : On fait l’hypothèse H0. L’intervalle I0 est alors<br />

déterminé par le niveau de confiance qu’on décidé. On tire alors <strong>un</strong> n-échantillon <strong>et</strong> on calcule<br />

¯ X. Si ¯ X ∈ I0, on accepte H0, sinon on rej<strong>et</strong>te H0 au profit de H1.<br />

Les erreurs liées au test :<br />

Les erreurs principales commises dans <strong>un</strong> test sont de deux ordres :<br />

i) L’erreur de 1-ère espèce : C’est la probabilité de rej<strong>et</strong>ter H0 quand H0 est vraie. C<strong>et</strong>te<br />

erreur est parfaitement controlée puisqu’elle est égale à α par définition. C<strong>et</strong>te erreur est<br />

choisie par "l’expérimentateur".<br />

ii) L’erreur de 2-ième espèce : C’est la probabilité d’accepter H0 lorsque H0 est fausse.<br />

C<strong>et</strong>te erreur qu’on note β dépend de α, de n <strong>et</strong> de H1 (plus précisement de la vraie valeur de<br />

m0). Il est très difficile de la déterminer dans les <strong>tests</strong> en général. Dans l’exemple que nous<br />

étudions, supposons que la vraie valeur de la moyenne soit m0 + δ. Alors<br />

√<br />

n( X¯ − (m0 + δ))<br />

suit la loi N (0, 1)<br />

σ<br />

i.e. la vraie loi de Z =<br />

√ n( ¯ X − m0)<br />

σ<br />

est la loi N ( δ√n , 1) <strong>et</strong> non pas la loi N (0, 1). Sur les<br />

σ<br />

deux figures ci-dessous, on a posé an = δ√ n<br />

σ <strong>et</strong> la courbe de droite dans les deux cas est la<br />

vraie densité de Z. Dans la figure 1, la valeur de n est p<strong>et</strong>ite, alors que dans la figure 2, on<br />

a pris <strong>un</strong>e valeur de n beaucoup plus grande. La partie hachurée dans les deux cas est<br />

égale à l’erreur de deuxième espèce β. On voit donc que la seule manière de réduire<br />

c<strong>et</strong>te erreur est d’augmenter la taille de l’échantillon. Ce fait est général mais dans les <strong>tests</strong><br />

que nous présenterons dans la suite de ce cours, nous ne chercherons pas à déterminer l’erreur<br />

de deuxième espèce.<br />

−φ α<br />

2<br />

✻<br />

0<br />

figure 1<br />

an<br />

φ α<br />

2<br />

−φ α<br />

2<br />

✻<br />

0<br />

φ α<br />

2<br />

figure 2<br />

Exercice : Dans l’exemple ci-dessus, on voit que l’erreur de seconde espèce dépend en fait<br />

de l’écart δ entre la moyenne supposée <strong>et</strong> la moyenne réelle. En supposant que la variance σ 2<br />

vaut 1, <strong>et</strong> que l’erreur de première espèce α = 0, 05, si δ = 1, calculer la taille minimale que<br />

doit avoir l’échantillon pour que l’erreur β soit inférieure à 0,05 (on utilisera évidemment<br />

<strong>un</strong>e table de la loi N (0, 1)).<br />

Justification d’<strong>un</strong> test : Dans <strong>un</strong> test, il y a toujours <strong>un</strong>e hypothèse H0 qu’on cherche<br />

en général à "conforter" <strong>et</strong> <strong>un</strong>e hypothèse alternative H1 qu’on acceptera de considérer si<br />

"cela en vaut la peine". Soit PH0 la probabilité conditionnelle sachant H0 2 . Le mécanisme du<br />

2 i.e. sachant que l’hypothèse H0 est vraie<br />

9<br />

an<br />


test consiste en général à définir <strong>un</strong>e zone de rej<strong>et</strong> pour <strong>un</strong>e statistique convenable qui rend<br />

bien compte du problème. On dira alors que le test est justifié si étant donné <strong>un</strong> risque (de<br />

première espèce) α ∈]0, 1[, on a<br />

PH0(rej<strong>et</strong>er H0) ≤ α.<br />

3.2 Estimation de la moyenne d’<strong>un</strong>e loi normale <strong>et</strong> test de Student ;<br />

cas où la variance n’est pas connue<br />

A. Estimation de la moyenne<br />

Soit X = (X1, . . . , Xn) est <strong>un</strong> n-échantillon de la loi normale N (m, σ 2 ). Comme dans le<br />

paragraphe précédent, on cherche à estimer le paramètre m mais ici σ 2 n’est pas supposée<br />

connue (ce qui correspond à <strong>un</strong>e vision plus réaliste des situations pratique). On va donc<br />

utiliser la variance empirique S 2 de l’échantillon comme estimateur de σ 2 <strong>et</strong> la variable<br />

aléatoire<br />

(19) Tn−1 =<br />

√<br />

n( X¯ − m)<br />

,<br />

S<br />

qui suit la loi de Student tn−1 à n − 1 degrés de liberté, comme statistique fondamentale<br />

pour déterminer <strong>un</strong> intervalle de confiance. Ainsi étant donné le risque α ∈]0, 1[, on utilise<br />

la table de la loi tn−1, pour déterminer le "seuil" t(n−1, α<br />

2 ) tel que<br />

(20) P(tn−1 ≥ t(n−1, α<br />

2 )) = α<br />

2 .<br />

On a alors<br />

√ <br />

n( X¯ − m) <br />

(21) P<br />

<br />

S <br />

≤ t(n−1, α<br />

2 )<br />

<br />

= 1 − α,<br />

c’est à dire<br />

<br />

(22) P ¯X − t(n−1, α<br />

2 )<br />

S<br />

√ ≤ m ≤<br />

n ¯ X + t(n−1, α<br />

2 )<br />

<br />

S<br />

√ = 1 − α,<br />

n<br />

ce qui nous donne pour m <strong>un</strong> intervalle de confiance bilatéral au niveau de confiance 1 − α<br />

égal à<br />

<br />

(23)<br />

¯X − t(n−1, α<br />

2 )<br />

S<br />

√ ,<br />

n ¯ X + t(n−1, α<br />

2 )<br />

<br />

S<br />

√ .<br />

n<br />

Exercice : Déterminer des intervalles de confiance <strong>un</strong>ilatéraux pour m en Utilisant les<br />

nombres t(n−1,a) tels que<br />

(24) P(tn−1 ≥ t(n−1,a)) = a (a ∈]0, 1[).<br />

B. Le test de Student<br />

La méthode d’estimation précédente est équivalente au test suivant :<br />

10


Théorème 3.2 (Student3 , 1908) : Etant donné X = (X1, . . . , Xn) <strong>un</strong> n-échantillon de la<br />

loi normale N (m, σ2 ), <strong>et</strong> la statistique<br />

√<br />

n( X¯ − m)<br />

Tn−1 =<br />

,<br />

S<br />

pour tester l’hypothèse H0 : ”m = m0” contre l’hypothèse H1 : m = m0” (resp. H1 : m > m0”,<br />

resp. H1 : m < m0”), on rej<strong>et</strong>te H0 au profit de H1 si |Tn−1| > t(n−1, α<br />

2 ) (resp. Tn−1 > t(n−1, α<br />

2 ),<br />

resp. Tn−1 < −t(n−1, α<br />

2 )), où t(n−1,α) désigne la queue d’ordre α de la distribution tn−1 donnée<br />

par (24).<br />

démonstration : ce test est justifié mathématiquement par la méthode d’estimation donnée<br />

dans le paragraphe précédent <strong>et</strong> heuristiquement par le fait que si l’hypothèse alternative<br />

H1 est vraie alors Tn−1 va probablement prendre <strong>un</strong>e valeur extérieure à ] − t(n−1, α<br />

2 ), t(n−1, α<br />

2 )[<br />

(resp. <strong>un</strong>e grande valeur i.e. supérieure à t(n−1,α), resp. <strong>un</strong>e p<strong>et</strong>ite valeur i.e inférieure à<br />

−t(n−1,α)). <br />

Remarque 1 : Lorsque n est grand, on utilise la table de la loi normale N (0, 1) pour<br />

déterminer les seuils t(n−1,α), ce qui est justifié par la proposition 2.4.<br />

Remarque 2 : On peut aussi utiliser le test de Student pour des grands échantillons non<br />

gaussiens, ce qui est justifié par le théorème limite suivant :<br />

Proposition 3.3 : Si ¯ Xn <strong>et</strong> S2 n sont la moyenne <strong>et</strong> la variance empiriques d’<strong>un</strong> n-échantillon<br />

X1, . . . , Xn d’<strong>un</strong>e loi de moyenne m <strong>et</strong> de variance σ2 , alors<br />

√<br />

n( Xn<br />

¯ − m)<br />

(25)<br />

→ N (0, 1) en loi (n → ∞).<br />

Sn<br />

démonstration : D’après le théorème limite central, √ n( ¯ Xn−m)<br />

→ N (0, 1) en loi quand<br />

σ<br />

n → ∞) <strong>et</strong> Sn → 1 p.s. (n → ∞) d’après la loi forte des grands nombres. Comme<br />

√ σ<br />

n( Xn−m) ¯<br />

√ <br />

n( Xn−m) ¯<br />

=<br />

/ σ<br />

<br />

Sn , les deux convergences précédentes donnent le résultat. <br />

σ<br />

Sn<br />

3.3 Le test de Student d’égalité des moyennes de deux lois normales<br />

Soit X = (X1, . . . , Xn1) <strong>un</strong> n-échantillon issu d’<strong>un</strong>e loi normale N (m1, σ 2 1) <strong>et</strong> Y =<br />

(Y1, . . . , Yn2) <strong>un</strong> n-échantillon, indépendant du précédent <strong>et</strong> issu d’<strong>un</strong>e loi normale N (m2, σ 2 2).<br />

On notera respectivement ¯ X <strong>et</strong> ¯ Y les moyennes empiriques de ces deux échantillons. Claire-<br />

ment, ¯ X suit la loi N (m1, σ2 1<br />

n1 ), ¯ Y suit la loi N (m2, σ2 2<br />

n2 ) <strong>et</strong> ¯ X − ¯ Y suit la loi N (m1−m2, σ2 1<br />

n1 + σ2 2<br />

n2 ).<br />

Problème : On veut tester l’hypothèse H0 : ”m1 = m2” contre l’hypothèse H1 : m1 = m2”<br />

(resp. H1 : m2 > m1”, resp. H1 : m2 < m1”). Tout dépend de la connaissance ou non des<br />

variances σ 2 1 <strong>et</strong> σ 2 2 :<br />

A. Cas où les variances sont connues : On forme le rapport<br />

N = ¯ X − ¯ Y<br />

<br />

σ2 1<br />

n1 + σ2 .<br />

2<br />

n2<br />

3 de son vrai nom W. Goss<strong>et</strong> dont l’employeur (les brasseries Guinness) l’avait obligé a utiliser <strong>un</strong> pseu-<br />

donyme pour publier ses recherches.<br />

11


Sous l’hypothèse H0, la variable aléatoire N est de loi N (0, 1). Comme d’habitude pour<br />

a ∈]0, 1[, notons na de seuil de la queue d’ordre a de la distribution N (0, 1) (i.e. P(N (0, 1) ><br />

na) = a). Alors au niveau de confiance 1 − α,<br />

on rej<strong>et</strong>te H0 au profit de H1 si |N| > n α<br />

2 (resp. N < −nα, resp. N > nα).<br />

La justification de ce test est évidente.<br />

B. Cas où les variances sont inconnues mais égales : Généralement la valeur exacte des<br />

variances est inconnue est le test trivial présenté en A, ne peut pas s’appliquer. Le problème<br />

est alors difficile. On peut néanmoins le résoudre facilement si on sait que σ 2 1 = σ 2 2 = σ 2 mais<br />

σ 2 étant évidemment inconnue. C<strong>et</strong>te hypothèse est loin d’être farfelue <strong>et</strong> elle est souvent<br />

vérifiée dans certaines questions pratiques. La statistique liée au problème que nous étudions<br />

serait<br />

(26) N =<br />

¯X − ¯ Y<br />

<br />

1 1 σ + n1 n2<br />

si σ était connue. Il nous faut donc remplacer σ par <strong>un</strong> estimateur convenable :<br />

Proposition 3.4 : Sous les hypothèses précédentes, la statistique<br />

(27) T =<br />

1<br />

n1<br />

+ 1<br />

n2<br />

( ¯ X − ¯ Y ) √ n1 + n2 − 2<br />

i=1 (Xi − ¯ X) 2 + n2 j=1 (Yj − ¯ Y ) 2<br />

,<br />

n1<br />

suit la loi de Student tn1+n2−2 à n1 + n2 − 2 degrés de liberté.<br />

démonstration : D’après le théorème 2.2 on sait que la variable aléatoire n1<br />

(Yj− ¯ Y ) 2<br />

σ 2<br />

i=1<br />

(Xi− ¯ X) 2<br />

σ 2<br />

(resp. n2 j=1 ) suit la loi χ2 n1−1 (resp. la loi χ2 n2−1). Par la propriété d’additivité des lois<br />

du chi2 indépendantes, la variable aléatoire<br />

(28) χ 2 =<br />

n1 <br />

i=1<br />

(Xi − ¯ X) 2<br />

σ2 +<br />

n2 <br />

j=1<br />

(Yj − ¯ Y ) 2<br />

suit la loi χ 2 n1+n2−2 à n = n1 + n2 − 2 degrés de liberté. Mais avec les notations (26) <strong>et</strong> (27),<br />

la variable aléatoire T s’écrit<br />

(29) T = N√ n<br />

χ 2 ,<br />

où les variables aléatoires N <strong>et</strong> χ2 sont indépendantes. En eff<strong>et</strong> d’après le théorème 2.2,<br />

on sait que ¯ X <strong>et</strong> n1 i=1 (Xi − ¯ X) 2 sont des variables aléatoires indépendantes <strong>et</strong> comme les<br />

échantillons X <strong>et</strong> Y sont indépendants, il y a aussi indépendance entre ¯ X (resp. ¯ Y ) <strong>et</strong><br />

n1<br />

i=1 (Xi − ¯ X) 2 + n2<br />

j=1 (Yj − ¯ Y ) 2 , ce qui implique l’indépendance de N <strong>et</strong> χ 2 . Par définition<br />

la variable T de (29) suit la loi de Student tn1+n2−2. <br />

Le test de Student d’égalité des moyennes (voir le problème posé au début de ce<br />

paragraphe) consiste alors à utiliser la statistique T donnée par la formule (27) <strong>et</strong> à procéder<br />

comme suit :<br />

on rej<strong>et</strong>te H0 au profit de H1 au risque 4 α ∈]0, 1[ si |T | > t(n, α<br />

2 ) (resp. T < −t(n,α),<br />

4 ou au niveau de confiance 1 − α.<br />

12<br />

σ 2


esp. T > t(n,α)),<br />

où t(n,α) désigne la borne de la queue d’ordre α de la loi de Student tn (avec n = n1 + n2 − 2).<br />

Exemple numérique 5 : On considère les données suivantes qui concernent le gain en poids<br />

de 20 rats de laboratoire dont les dix premiers (resp. les dix autres) ont reçu leur ration de<br />

proteines sous forme de cacahuètes crues (resp. de cacahuètes grillées) :<br />

X : 62, 56, 61, 58, 60, 44, 56, 60, 56, 63<br />

Y : 53, 51, 62, 55, 59, 56, 61, 54, 47, 57<br />

Le problème est alors de tester si la torréfaction des cacahuètes a <strong>un</strong>e influence <strong>sur</strong> la prise<br />

de poids.<br />

Alors le calcul explicite lié aux échantillons observés donne les valeurs suivantes :<br />

¯X = 57, 6, ¯ Y = 55, 5, 10 i=1 (Xi − ¯ X) 2 = 264, 10 j=1 (Yj − ¯ Y ) 2 = 189 <strong>et</strong> la variable T de (27)<br />

prend la valeur<br />

T =<br />

√ 453<br />

2, 1 √ 18<br />

1<br />

10<br />

+ 1<br />

10<br />

= 0, 94.<br />

La table de la loi tn (avec n = 18) montre qu’au risque α = 0, 05, correspondant le seuil<br />

tn, α = 2, 101. Comme on a donc |T | = 0, 94 ≤ tn,<br />

α = 2, 101, on accepte l’hypothèse H0<br />

2 2<br />

d’égalité des moyennes des lois d’où sont issus les deux échantillons X <strong>et</strong> Y .<br />

Remarque : Les hypothèses implicites dans l’exemple précédent sont d’<strong>un</strong>e part que les<br />

lois d’où sont extraites les échantillons X <strong>et</strong> Y sont des lois normales <strong>et</strong> d’autre part qu’elles<br />

sont de même variance car il n’y a auc<strong>un</strong>e raison sérieuse de penser que la différence d’alimentation<br />

va impliquer des variances différentes dans les deux populations de rats.<br />

3.4 Le test de Fisher-Snedecor d’égalité des variances de deux lois<br />

normales<br />

Dans l’utilisation du test de Student concernant l’égalité des moyennes de deux populations<br />

normales, on a fait l’hypothèse d’égalité des variances. Ceci suppose qu’on puisse<br />

vérifier raisonnablement c<strong>et</strong>te hypothèse. C’est le but de ce paragraphe.<br />

Définition 3.5 : On appelle loi de Fisher-Snedecor, la loi d’<strong>un</strong>e variable aléatoire de la<br />

forme Y1/n1<br />

Y2/n2 où Y1 <strong>et</strong> Y2 sont des variables aléatoires indépendantes de lois respectives χ2 n1 <strong>et</strong><br />

χ2 n2 . C<strong>et</strong>te loi qui dépend des deux paramètres n1 <strong>et</strong> n2 est noté F (n1, n2).<br />

Proposition 3.6 : La loi de Fisher-Snedecor F (n1, n2) a <strong>un</strong>e densité de probabilité de la<br />

forme<br />

(30) f(n1,n2)(x) =<br />

où B( n1<br />

2<br />

, n2<br />

2<br />

n1 n2 Γ( )Γ( 2 2 ) = )<br />

Γ( n1+n2 ) 2 .<br />

5 tiré du livre de Hoel, Port <strong>et</strong> Stone p.91<br />

( n1<br />

n2 )n1/2<br />

B( n1<br />

2<br />

x n 1<br />

2 −1<br />

n2 , 2 ). <br />

1 + n1<br />

n2 x<br />

13<br />

n 1 +n 2<br />

2<br />

1R+(x),


démonstration : Voir l’annexe du chapitre 2.<br />

Les tables de la loi F (n1, n2) : La loi de Fisher-Snedecor est tabulée. Plus précisemment<br />

c’est en général la queue d’ordre α = 0, 05 <strong>et</strong> α = 0, 01 qui est donnée. Ainsi la table que<br />

nous joignons à la fin de ce chapitre donne pour différentes valeurs de n2 variant de 1 à 100<br />

<strong>et</strong> de n1 allant de 1 à 25, la valeur de la borne fn1,n2,α telle que P(F (n1, n2) ≥ fn1,n2,α) = α.<br />

✻densité<br />

de F (n1, n2)<br />

0 1 fn1,n2,α<br />

L’aire hachurée vaut α<br />

Exercice (asymptotique de la loi F (n1, n2)) : Soient Y1 <strong>et</strong> Y2 comme dans la définition cidessus.<br />

<br />

Y1/n1<br />

1)calculer E .<br />

Y2/n2<br />

2)Montrer que<br />

Y1/n1<br />

→ 1 P − p.s. (n1 → +∞, n2 → +∞).<br />

Y2/n2<br />

3) Expliquer comment on trouve les bornes fn1,n2,α lorsque les valeurs de n1 <strong>et</strong> n2 ne figurent<br />

plus dans la table (on distinguera les trois cas i) n1 p<strong>et</strong>it <strong>et</strong> n2 grand, ii) n1 grand <strong>et</strong> n2 p<strong>et</strong>it,<br />

iii) n1 <strong>et</strong> n2 grands).<br />

A. Test d’hypothèse simple <strong>sur</strong> la variance d’<strong>un</strong>e loi normale :<br />

Etant donné <strong>un</strong> n-échantillon X = (X1, . . . , Xn) issu d’<strong>un</strong>e loi normale N (m, σ 2 ) de variance<br />

σ 2 inconnue, <strong>et</strong> σ 2 0 <strong>un</strong> nombre qu’on soupçonne être égal à σ 2 . On veut :<br />

tester l’hypothèse H0 : ”σ 2 = σ 2 0” contre l’hypothèse alternative H1 : ”σ 2 = σ 2 0”<br />

(resp. H1 : ”σ 2 < σ 2 0”, resp. H1 : ”σ 2 > σ 2 0”)<br />

Solution : On prend S2 = 1 n n−1 i=1 (Xi − ¯ X) 2 comme statistique du problème puisque<br />

c’est l’estimateur empirique de σ2 . Si l’hypothèse H0 est vraie, la variable aléatoire<br />

χ 2 =<br />

✲<br />

(n − 1)S2<br />

σ2 ,<br />

0<br />

suit la loi χ 2 n−1 du χ 2 à n − 1 degrés de liberté. Désignons par χ 2 n−1,α la borne de la queue<br />

d’ordre α de la loi χ 2 n−1. Alors :<br />

i)(test bilatéral) on rej<strong>et</strong>te H0 au profit de H1 : ”σ 2 = σ 2 0” si χ 2 > χ 2 n−1, α<br />

2<br />

ou si χ 2 < χ 2 n−1,1− α<br />

2<br />

ii) (test latéral droit) on rej<strong>et</strong>te H0 au profit de H1 : ”σ 2 > σ 2 0” si χ 2 > χ 2 n−1,α.<br />

iii) (test latéral gauche) on rej<strong>et</strong>te H0 au profit de H1 : ”σ 2 < σ 2 0” si χ 2 < χ 2 n−1,1−α.<br />

Remarque : Pour le test bilatéral ,comme on l’a déjà vu, on répartit le risque <strong>sur</strong> les<br />

14


grandes <strong>et</strong> les p<strong>et</strong>ites valeurs de χ 2 car si l’hypothèse H0 est vraie la valeur de la statistique<br />

χ 2 aura tendance à prendre <strong>un</strong>e valeur raisonnable ni trop grande, ni trop p<strong>et</strong>ite. Pour les<br />

<strong>tests</strong> <strong>un</strong>ilatéraux il n’en est pas de même par exemple l’hypothèse H1 : ”σ 2 > σ 2 0” est plus<br />

vraisemblable si χ2 prend <strong>un</strong>e valeur grande.<br />

B. Le test de Fisher-Snedecor :<br />

Soient S2 1 = 1<br />

n1−1<br />

n1<br />

i=1 (Xi − ¯ X) 2 <strong>et</strong> S 2 2 = 1<br />

n2−1<br />

n2<br />

i=1 (Yi − ¯ Y ) 2 , les variances empiriques<br />

de deux échantillons indépendants X = (X1, . . . , Xn1) <strong>et</strong> Y = (Y1, . . . , Yn2) issus respectivement<br />

de deux lois normales N (m1, σ 2 1) <strong>et</strong> N (m2, σ 2 2). On veut, au risque α, tester l’égalité<br />

des variances de ces deux lois normales ;<br />

Théorème 3.7 (de Fisher-Snedecor) :<br />

1) Pour tester au risque α, l’hypothèse H0 : ”σ 2 1 = σ 2 2” contre l’alternative <strong>un</strong>ilatérale<br />

H1 : ”σ 2 1 > σ 2 2 (resp. H1 : ”σ 2 1 < σ 2 2), on forme le rapport<br />

F = S2 1<br />

S 2 2<br />

(resp. F = S2 2<br />

S2 )<br />

1<br />

<strong>et</strong> on rej<strong>et</strong>te H0 au profit de H1 si F > fn1−1,n2−1,α (resp. F > fn2−1,n1−1,α), où fn1−1,n2−1,α<br />

désigne la borne de la queue d’ordre α de la distribution de Fisher-Snedecor F (n1 −1, n2 −1).<br />

2) Si on veut tester au risque α, l’hypothèse H0 : ”σ 2 1 = σ 2 2” contre l’alternative bilatérale<br />

H1 : ”σ 2 1 = σ 2 2, on rej<strong>et</strong>te H0 au profit de H1 si<br />

ou si<br />

S 2 1 ≥ S 2 2 <strong>et</strong> S2 1<br />

S 2 2<br />

S 2 2 ≥ S 2 1 <strong>et</strong> S2 2<br />

S 2 1<br />

≥ fn1−1,n2−1, α<br />

2 ,<br />

≥ fn2−1,n1−1, α<br />

2 .<br />

χ 2 n1−1<br />

χ 2 n2−1<br />

démonstration : 1) Comme S2 1 (resp. S2 2) suit la loi σ 2 1<br />

n1 − 1 (resp. σ2 2 ), sous l’hy-<br />

n2 − 1<br />

pothèse H0, le quotient S2 1<br />

S2 , suit la loi de Fisher-Snedecor F (n1 − 1, n2 − 1). Alors si on note<br />

2<br />

PH0 la probabilité conditionnelle sachant H0, on a par définition :<br />

PH0(F > fn1−1,n2−1,α) ≤ α,<br />

i.e. la probabilité de rej<strong>et</strong>er H0 si H0 est vraie, est inférieure ou égale à α, ce qui justifie le<br />

test <strong>un</strong>ilatéral.<br />

2) Pour le test bilatéral, on a :<br />

<br />

PH0(rej<strong>et</strong>er H0) = PH0 S 2 1 ≥ S 2 2, S2 1<br />

S2 2<br />

2 S1 ≤ PH0<br />

≤ α<br />

2<br />

+ α<br />

2<br />

S 2 2<br />

≥ fn1−1,n2−1, α<br />

2<br />

= α.<br />

≥ fn1−1,n2−1, α<br />

2<br />

<br />

+ PH0<br />

<br />

S 2 2<br />

+ PH0<br />

S 2 1<br />

<br />

S 2 2 ≥ S 2 1, S2 2<br />

≥ fn2−1,n1−1, α<br />

2<br />

<br />

S 2 1<br />

≥ fn2−1,n1−1, α<br />

2<br />

Ce qui justifie le test. <br />

15


4 Annexe<br />

4.1 Théorème limite central dans R k , loi multinomiale <strong>et</strong> convergence<br />

vers la loi du Chi-deux<br />

A. Le théorème limite central dans R k :<br />

Soit X1, . . . , Xn <strong>un</strong> n-échantillon issu d’<strong>un</strong>e loi F <strong>sur</strong> R k de moyenne m <strong>et</strong> de matrice de<br />

covariance Γ. On rappelle (cf. le cours de Probabilités) que :<br />

(31)<br />

1<br />

√ n (X1 + · · · + Xn − nm) → Nk(0, Γ) en loi (n → ∞),<br />

où Nk(0, Γ) est <strong>un</strong>e loi gaussienne <strong>sur</strong> Rk , centrée <strong>et</strong> de matrice de covariance Γ. Si Y est <strong>un</strong><br />

vecteur aléatoire de loi Nk(0, Γ), il a <strong>un</strong>e fonction caractéristique φ(t) = E(ei ) (t ∈ Rk )<br />

donnée par<br />

(32) φ(t) = exp<br />

<br />

− 1<br />

2<br />

<br />

< t|Γt > ,<br />

<strong>et</strong> lorsque Γ est inversible, <strong>un</strong>e densité donnée par<br />

1<br />

(33) f(x) =<br />

(2π) k/2 |Γ| exp<br />

<br />

− 1<br />

2 < x|Γ−1 <br />

x > ,<br />

où |Γ| désigne le déterminant de la matrice Γ.<br />

B. La loi multinomiale (Rappel) :<br />

Notation : Toute me<strong>sur</strong>e de probabilité concentrée <strong>sur</strong> l’ensemble {1, 2, . . . , k} des entiers<br />

entre 1 <strong>et</strong> k, est représentée par <strong>un</strong> vecteur ligne<br />

(34) p = (p1, . . . , pk).<br />

Soit n ≥ 1 <strong>un</strong> entier fixé <strong>et</strong> (X1, . . . , Xn) <strong>un</strong> n-échantillon d’<strong>un</strong>e loi p = (p1, . . . , pk) portée<br />

par {1, 2, . . . , k}. Pour chaque 1 ≤ i ≤ k, on considère la variable aléatoire<br />

(35) Ni =<br />

n<br />

j=1<br />

1[Xj=i].<br />

La loi du vecteur aléatoire N = (N1, . . . , Nk) est la loi multinomiale de paramètres (n; p1, . . . , pk)<br />

(voir le chapitre 2).<br />

Théorème 4.1 :<br />

<br />

N1 − np1<br />

(36) lim √ , . . . ,<br />

n→∞ np1<br />

Nk<br />

<br />

− npk L=<br />

√ Nk(0, Γ),<br />

npk<br />

où Γ = Ik− √ <br />

pipj<br />

1≤i,j≤k . De plus Nk(0, Γ) est <strong>un</strong>e loi gaussienne dégénérée qui est la projection<br />

d’<strong>un</strong> vecteur Nk(0, Ik) <strong>sur</strong> l’hyperplan de Rk orthogonal au vecteur √ p = ( √ p1, . . . , √ pk).<br />

16


démonstration : Pour j ∈ N, posons<br />

<br />

1<br />

Zj = √p1 (1[Xj=1] − p1), . . . , 1<br />

<br />

√ (1[Xj=k] − pk) .<br />

pk<br />

Les vecteurs aléatoires Zj sont indépendants <strong>et</strong> de même loi <strong>et</strong> on a<br />

<br />

1<br />

N1 − np1<br />

√ (Z1 + · · · + Zn) = √ , . . . ,<br />

n np1<br />

Nk<br />

<br />

− npk<br />

√ .<br />

npk<br />

Le théorème limite central donne alors le résultat (36) où Γ = (Γ)ij est la matrice des<br />

covariances du vecteur aléatoire Z1 donnée par<br />

<br />

1<br />

Γij = E √pi (1[X1=i] − pi) 1<br />

<br />

√ (1[X1=j] − pj) .<br />

pj<br />

Un calcul très simple, laissé en exercice, montre alors que Γ = Ik − √ <br />

pipj<br />

1≤i,j≤k où Ik est<br />

la matrice identité de Rk . Pour tout x ∈ Rk , on voit alors facilement que<br />

Γx = x− < x| √ p > √ p<br />

i.e. Γx est la projection orthogonale de x <strong>sur</strong> l’hyperplan ( √ p) ⊥ . En particulier la matrice Γ<br />

est de rang k − 1. De plus si Y = (Y1, . . . , Yk) est <strong>un</strong> vecteur gaussien Nk(0, Ik), le vecteur<br />

aléatoire ΓY a pour fonction caractéristique<br />

ϕΓY (t) = E e i <br />

= E e i<br />

= ϕY ( t Γt) = exp − 1<br />

2 ||t Γt|| 2<br />

= exp − 1<br />

2 ||Γt||2 .<br />

Or ||Γt|| 2 =< Γt|Γt >=< Γt|t − (t| √ p) √ p >=< Γt|t > car Γt est orthogonal à √ p. Ceci<br />

montre que ϕΓY (t) = exp − 1<br />

2 < t|Γt > est la fonction caractéristique de la loi Nk(0, Γ),<br />

d’où ΓY L = Nk(0, Γ). <br />

C. Convergence vers la loi du chi-deux<br />

On a vu au chapitre 2 le résultat suivant :<br />

(37)<br />

k (npi − Ni) 2<br />

i=1<br />

npi<br />

démonstration : Si on note Xn =<br />

L<br />

→ χ 2 (k − 1) (n → ∞).<br />

N1−np1<br />

√ np1<br />

<br />

Nk−npk , . . . , √ , la quantité (37) est précisément<br />

npk<br />

égale à ||Xn|| 2 . Mais la fonction f : (x1, . . . , xk) ↦→ x 2 1 + · · · + x 2 k = ||x||2 étant continue <strong>sur</strong><br />

R k , on sait d’après le cours de probabilités que la convergence en loi Xn → ΓY implique que<br />

f(Xn) L → f(ΓY ). Autrement dit<br />

||Xn|| L → ||ΓY || 2 .<br />

Mais d’après le théorème de Cochran ||ΓY || 2 suit la loi χ 2 (k − 1). D’où le résultat.<br />

17


4.2 La loi de Student<br />

4.2.1 Densité de la loi de Student<br />

Soient X <strong>et</strong> Y des variables aléatoires indépendantes telles que X est de loi N (0, 1) est<br />

de Y de loi χ 2 n. Le couple (X, Y ) a pour densité de probabilité la fonction f donnée par<br />

f(x, y) = 1<br />

√ e<br />

2π −x2 /2 (1/2)n/2<br />

Γ( n<br />

2<br />

n<br />

y 2<br />

) −1 e −y/2 1[0,+∞[(y)<br />

= 2−n/2<br />

√<br />

n 2πΓ( 2 )e−x2 n<br />

/2<br />

y 2 −1 e −y/2 1[0,+∞[(y).<br />

Dans la suite nous noterons C = 2−n/2 √<br />

n<br />

2πΓ( 2 ) <strong>et</strong> T = √ nX<br />

√ . Soit g : R → R <strong>un</strong>e fonction borélienne<br />

Y<br />

bornée. On a<br />

<br />

(38) E (g(T )) = C<br />

R×R+<br />

g √nx −x<br />

√y e 2 n<br />

/2<br />

y 2 −1 e −y/2 dxdy<br />

Faisons le changement de variable u = √ nx<br />

√ y <strong>et</strong> v = y, ce qui équivaut à x = n −1/2 u √ v <strong>et</strong><br />

y = v. Le déterminant jacobien vaut D(x,y)<br />

D(u,v) = n−1/2 v 3/2 . Comme le domaine d’intégration ne<br />

change pas, il vient<br />

<br />

E (g(T )) = C<br />

= n −1/2 C<br />

R×R+<br />

+∞<br />

−∞<br />

g(u)e −u2 v/2n v n<br />

2 −1 e −v/2 <br />

+∞<br />

g(u) v<br />

0<br />

n+1<br />

2 −1 v<br />

−<br />

e<br />

D(x, y) <br />

dudv D(u, v)<br />

u2<br />

(1+ 2 n ) <br />

dv du.<br />

Mais en utilisant la densité de la loi Γ(α, b) avec α = n+1 <strong>et</strong> b = 2 1<br />

2<br />

l’intégrale en dv dans la formule précédente est égale à Γ(α)<br />

b α<br />

en résulte que l’on a<br />

E (g(T )) =<br />

+∞<br />

−∞<br />

ce qui montre que la fonction u ↦→ 1<br />

√ πn<br />

g(u) 1<br />

√ πn<br />

Γ( n+1<br />

2 )<br />

Γ( n<br />

2 )<br />

<br />

Γ( n+1<br />

2 )<br />

Γ( n<br />

2 )<br />

1 + u2<br />

n<br />

= 2 n+1<br />

2 Γ( n+1<br />

2 )<br />

<br />

1 + u2<br />

n+1<br />

− 2<br />

du,<br />

n<br />

− n+1<br />

2<br />

4.2.2 Espérance <strong>et</strong> Variance de la loi de Student<br />

<br />

1 + u2<br />

<br />

, on voit que<br />

n<br />

<br />

1 + u2<br />

n+1<br />

− 2<br />

. Il<br />

n<br />

est la densité de T .<br />

On sait déjà que la loi de Student est centrée car sa densité est <strong>un</strong>e fonction paire. En<br />

fait pour n = 1, E(T ) n’existe pas <strong>et</strong> si n ≥ 2, E(T ) = 0.<br />

Pour le calcul de la variance supposons n ≥ 3 <strong>et</strong> utilisons la formule (38) avec la fonction<br />

g(u) = u2 . On a<br />

Var(T ) = E T 2 n 2−n/2<br />

= √<br />

n 2πΓ( 2 )<br />

<br />

x<br />

R×R+<br />

2 e −x2 n<br />

/2<br />

y 2 −2 e −y/2 dxdy<br />

= n 2−n/2<br />

= n 2−n/2<br />

Γ( n<br />

2 )<br />

+∞<br />

−∞<br />

1<br />

√ 2π x 2 e −x2 /2 dx<br />

<br />

n−2 n<br />

<br />

2 2 Γ − 1 ,<br />

) 2<br />

Γ( n<br />

2<br />

18<br />

+∞<br />

0<br />

y n−2<br />

2 −1 e −y/2 dy


la dernière égalité résultant de l’utilisation de la densité de la loi du chi-deux à n − 2 degrés<br />

de liberté pour évaluer l’intégrale par rapport à y. Mais ( n<br />

2 − 1)Γ n<br />

2 − 1 = Γ( n).<br />

D’où<br />

2<br />

Var(T ) = n<br />

n − 2<br />

Si n ≤ 2, E(T 2 ) = +∞ <strong>et</strong> donc Var(T ) n’existe pas.<br />

4.3 La loi de Fisher-Snedecor<br />

4.3.1 Densité de la loi de Fisher-Snedecor<br />

(sin ≥ 3).<br />

Soient X <strong>et</strong> Y des variables aléatoires suivant la loi du chi-deux à respectivement n1 <strong>et</strong><br />

n2 degrés de liberté. D’après la formule (4) le couple (X, Y ) a <strong>un</strong>e densité de probabilité de<br />

la forme<br />

Posons F = n2X<br />

f(x, y) = 2−(n1+n2)<br />

Γ( n1 n2 )Γ( 2 2 )xn 1<br />

n1Y , C = 2−(n1 +n2 )<br />

Γ( n1 )Γ( 2 n2 ) 2<br />

<br />

(39) E (g(F )) = C<br />

2 −1 y n 2<br />

2 −1 e −(x+y)/2 1R+×R+(x, y).<br />

<strong>et</strong> soit g : R → R <strong>un</strong>e fonction borélienne bornée. On a<br />

R+×R+<br />

g n2x n1 n<br />

−1 2 −1 −(x+y)/2<br />

x 2 y 2 e dxdy.<br />

n1y<br />

Faisons le changement de variable u = n2x<br />

D(x,y)<br />

<strong>et</strong> v = y de déterminant jacobien n1y D(u,v)<br />

Comme le domaine d’intégration reste égal à R+ × R+, on a<br />

<br />

E (g(F )) = C g(u) n1<br />

uv n1 −1 n2 2 −1 −v(1+<br />

v 2 e n1 u) n1<br />

n2 vdudv<br />

= C( n1<br />

R+×R+<br />

n2<br />

)<br />

n2<br />

n +∞<br />

1<br />

2 g(u)u<br />

0<br />

n +∞<br />

1 −1 2<br />

0<br />

n2<br />

v n1 +n2 2 −1 e −v(1+ n1 u) n2 dv<br />

Par le changement de variable t = 2v(1 + n1 u), l’intégrale précédente en dv<br />

vaut 2− n1 +n2 2 (1 + n1<br />

n2 u)− n1 +n2 2<br />

D’où<br />

E (g(F )) = C( n1<br />

n2<br />

+∞<br />

0<br />

t n1 +n2 2<br />

−1 e<br />

) n1 2 2 n1 +n2 2 Γ( n1 + n2<br />

2<br />

n2<br />

t<br />

− 2 dt = 2− n1 +n2 2 (1 + n1<br />

n2 u)− n1 +n2 )<br />

+∞<br />

0<br />

g(u)u n <br />

1 −1 2<br />

1 + n1<br />

u<br />

n2<br />

<br />

du.<br />

= n1<br />

n2 v.<br />

2 2n1+n2 n1+n2 Γ( ). 2<br />

− n 1 +n 2<br />

2<br />

Compte tenu de la valeur de C, ceci montre que la densité de F est de la forme<br />

fF (u) =<br />

n1<br />

n2<br />

n 1<br />

2 Γ( n1+n2<br />

2 )<br />

Γ( n1<br />

2<br />

n2 )Γ( 2 )<strong>un</strong> 1<br />

<br />

−1 2<br />

1 + n1<br />

u<br />

n2<br />

− n 1 +n 2<br />

2<br />

1R+(u),<br />

ce qui démontre le résultat de la proposition 3.6. <br />

19<br />

du.


4.3.2 Espérance <strong>et</strong> variance de la loi de Fisher-Snedecor<br />

Supposons n2 ≥ 3. La formule (39) avec g(u) = u, nous donne<br />

E(F ) = 2−(n1+n2)<br />

Γ( n1 n2 )Γ( 2 2 )<br />

Γ( n1<br />

2<br />

n2 )Γ( 2 )<br />

n2<br />

n1<br />

<br />

x n 1<br />

2 y n 2<br />

2 −2 e −(x+y)/2 dxdy<br />

n1 R+×R+<br />

= 2−(n1+n2)<br />

Γ( n1 n2 )Γ( 2 2 )<br />

+∞<br />

n2<br />

x<br />

n1 0<br />

n1 2 e −x/2 +∞<br />

dx y<br />

0<br />

n2 −2 −y/2 2 e dy<br />

= 2−(n1+n2)<br />

Γ( n1 n2 )Γ( 2 2 )<br />

+∞<br />

n2<br />

x<br />

n1 0<br />

n1 +2<br />

2 −1 e −x/2 +∞<br />

dx y<br />

0<br />

n2−2 2 −1 e −y/2 dy<br />

= 2−(n1+n2) n2<br />

2 n1+2 n1 + 2<br />

Γ( )2<br />

2<br />

n2−2 n2 − 2<br />

Γ( )<br />

2<br />

d’après l’expression de la densité du chi-deux à n1 + 2 (resp. n2 − 2) degrés de liberté pour<br />

la valeur de l’intégrale ci-dessus en dx (resp. en dy). Mais puisque Γ( n1+2<br />

) = 2 n1 n1 Γ( ) <strong>et</strong><br />

2 2<br />

Γ( n2<br />

2 = n2<br />

2 − 1 Γ n2<br />

2 − 1 , l’expression précédente se simplifie <strong>et</strong> on obtient<br />

E(F ) = n2<br />

n2 − 2<br />

Remarque : 1) Pour n2 ≤ 2, E(F ) n’existe pas.<br />

(si n2 ≥ 3).<br />

2) E(F ) ne dépend pas de n1 (nombre de degrés de liberté du numérateur de F ).<br />

Calculons maintenant le moment d’ordre 2 de F . Supposons n2 ≥ 5. En prenant la fonction<br />

g(u) = u 2 dans la formule (39), on obtient<br />

E(F 2 ) = 2−(n1+n2)<br />

Γ( n1<br />

2<br />

)Γ( n2<br />

2 )<br />

= 2−(n1+n2)<br />

Γ( n1<br />

2<br />

)Γ( n2<br />

2 )<br />

= 2−(n1+n2)<br />

Γ( n1<br />

2<br />

)Γ( n2<br />

2 )<br />

= 2−(n1+n2)<br />

Γ( n1<br />

2<br />

)Γ( n2<br />

2 )<br />

n2<br />

n1<br />

n2<br />

n1<br />

n2<br />

n1<br />

2 n2<br />

n1<br />

2 <br />

2 +∞<br />

0<br />

2 +∞<br />

0<br />

x n 1<br />

2 +1 y n 2<br />

2 −3 e −(x+y)/2 dxdy<br />

R+×R+<br />

x n +∞<br />

1 +1 −x/2 2 e dx y<br />

0<br />

n2 −3 −y/2 2 e dy<br />

x n1 +4<br />

2 −1 e −x/2 +∞<br />

dx y<br />

0<br />

n2−4 2 −1 e −y/2 dy<br />

2 n1+4 Γ( n1 + 4<br />

2<br />

)2 n2−4 n2 − 4<br />

Γ( )<br />

2<br />

Après simplification des fonctions Γ comme dans le point 1), on obtient<br />

D’où on déduit<br />

E(F 2 ) =<br />

Var(F ) = E(F 2 ) − (E(F )) 2 = 2<br />

On notera que si n2 ≤ 4, E(F 2 ) = +∞.<br />

n 2 2(n1 + 2)<br />

n1(n2 − 2)(n2 − 4)<br />

(si n2 ≥ 5).<br />

<br />

n2<br />

2 (2n1 + n2 − 2)<br />

n2 − 2 n1(n2 − 4)<br />

20<br />

(si n2 ≥ 5).

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!