12.07.2015 Views

Comparaison de deux échantillons - Laboratoire de Pierre Legendre

Comparaison de deux échantillons - Laboratoire de Pierre Legendre

Comparaison de deux échantillons - Laboratoire de Pierre Legendre

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Bio 2041<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>uxéchantillons<strong>Pierre</strong> <strong>Legendre</strong>, Université <strong>de</strong> MontréalRéférence: Scherrer (2007), chapitres 12 et 131 - IntroductionCe cours décrit comment comparer <strong>de</strong>ux groupes d’observations afin <strong>de</strong>déterminer s’ils peuvent (H 0 ), ou non (H 1 ), provenir <strong>de</strong> la mêmepopulation statistique.Lorsqu’on analyse <strong>de</strong>ux groupes indépendants d’observations, lacomparaison se fait en <strong>de</strong>ux étapes: nous comparons d’abord lesvariances, puis les moyennes.a) Nous étudierons d’abord un test permettant <strong>de</strong> comparer la variance<strong>de</strong> <strong>de</strong>ux échantillons indépendants.b) Pour la comparaison <strong>de</strong> <strong>de</strong>ux moyennes, nous étudierons trois testsdifférents:• Test t <strong>de</strong> comparaison <strong>de</strong> la moyenne <strong>de</strong> <strong>de</strong>ux échantillonsindépendants (test paramétrique ou par permutations).• Test t <strong>de</strong> comparaison <strong>de</strong> la moyenne <strong>de</strong> <strong>de</strong>ux échantillons appariés.Les échantillons indépendants et les échantillons appariés ont été définisdans les notes sur la Théorie statistique <strong>de</strong> la décision, section 9.• Nous verrons enfin comment procé<strong>de</strong>r à la comparaison d’échantillonsindépendants à l’ai<strong>de</strong> d’un test non-paramétrique.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 22 - <strong>Comparaison</strong> <strong>de</strong> la variance <strong>de</strong> <strong>de</strong>ux échantillons indépendantsScherrer, section 12.1Dans les tests statistiques paramétriques, on construit une statistiquepivotale que l’on sait être distribuée comme l’une <strong>de</strong>s lois <strong>de</strong> distributionstandard lorsque l’hypothèse nulle est vraie. Au cours <strong>de</strong> cetteconstruction, différentes conditions d’application peuvent émerger.Dans le cas présent, on construit une statistique distribuée comme la loi<strong>de</strong> F lorsque H 0 est vraie. Voici comment.1. La section 10.6, portant sur l’intervalle <strong>de</strong> confiance <strong>de</strong> la variance,nous a appris (eq. 10.74, p. 345) que si un échantillon est extrait d’unepopulation normale N(µ, σ), la variable-test (pivotale) khi-carréX 2 2( n – 1) s= ----------------------- xobéit à une loi du χ 2 à (n – 1) <strong>de</strong>grés <strong>de</strong> liberté (d.l.). X 2 est la lettre khicarrémajuscule; elle représente une statistique distribuée comme χ 2 .2. Les échantillons à comparer sont d’effectif n 1 et n 2 . Nous aurons doncσ 2X 122( n 1– 1) s x12= --------------------------- et X 2σ 12=2( n 2– 1) s x2---------------------------σ 223. Or on a vu au chapitre 9 que la variable-testF=⁄ ν1--------------2χ 2⁄ ν2χ 12obéit à une loi <strong>de</strong> F à ν 1 et ν 2 d.l.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 34. Donc le rapport <strong>de</strong>s <strong>de</strong>ux variables X 2 ci-<strong>de</strong>ssus, avec leurs <strong>de</strong>grés <strong>de</strong>liberté, est une variable-testF2( n 1– 1) s x1--------------------------- ⁄ ( n 1– 1)σ 12= ----------------------------------------------------- =2( n 2– 1) s x2--------------------------- ⁄ ( n 2– 1)σ 222s x1------2s x2σ 22× -----σ 12obéissant à une loi <strong>de</strong> F.2s x12N.B. ------ ≈ 1 et ------ ≈ 1 puisque dans chaque cas s xest un estimateurσ 122s x2σ 22non biaisé <strong>de</strong> la variance correspondante <strong>de</strong> la population, .2 25. L’hypothèse à tester est H 0 : σ 1= σ 2(égalité <strong>de</strong>s σ 2 <strong>de</strong>s 2 pop.).Si cette hypothèse est vraie, alorsσ 2 22⁄ σ 1= 12s x12⁄ s x2≈ 1Les écarts aléatoires <strong>de</strong> cette fraction par rapport à la valeur, 1 qui sontobservés dans la comparaison <strong>de</strong> <strong>de</strong>ux échantillons réels, <strong>de</strong>vraient secomporter comme une loi <strong>de</strong> F.σ 2Donc, la statistique-testF=2s x1------2s x2<strong>de</strong>vrait obéir à une loi <strong>de</strong> F à (n 1 – 1) et(n 2 – 1) d.l. (a) si H 0 (égalité <strong>de</strong>s variances, populations) est vraie et (b)si les <strong>de</strong>ux populations d’où proviennent ces échantillons sont normales.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 4Sinon,2s x1⁄2s x2pourra s’éloigner davantage <strong>de</strong> 1 que ce qui est prévu parla distribution <strong>de</strong> F. Voir l’exemple dans Scherrer (p. 389, bélugas).En pratique,le test consiste à soumettre à une épreuve l’hypothèse principale (H 0 )d’égalité <strong>de</strong>s variancesH 0 :σ 12L’hypothèse contraire (H 1 ) peut être formulée <strong>de</strong> trois façons différentes:=σ 22• Tests unilatéraux:σ 122 2> σ 2ou σ 1< σ 22• Test bilatéral:σ 12≠ σ 22Exemple d’hypothèse unilatérale <strong>de</strong> différence <strong>de</strong> variances: “L’appareilno 1 génère <strong>de</strong>s résultats d’analyse plus variables que l’appareil no 2.”Langage RLa fonction var.test produit un test F du rapport <strong>de</strong> la variance <strong>de</strong> <strong>de</strong>uxéchantillons indépendants.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 5Premier cas — H 1 :σ 12> σ 22; test unilatéral.Si H 0 est vraie, la variable-testF 2( ν1 , ν )= s 2 x1⁄2s x2a uneprobabilité (1 – α) d’êtreinférieure à la valeur critique F α .1 – α1αF αF⇒ Si l’hypothèse H 1 est vraie, la variable-test F telle que calculée n’estpas distribuée comme une loi <strong>de</strong> F et la statistique-test sera nettementplus gran<strong>de</strong> que 1. La probabilité <strong>de</strong> se tromper (en concluant que H 0 estvraie) est égale à β. Pour connaître β, consulter les tables <strong>de</strong> puissance<strong>de</strong>s tests F dans Cohen (1988).⇒ Si l’hypothèse H 0 est vraie, la probabilité que F ≥ F α est bien égale àα, soit le seuil <strong>de</strong> signification choisi à l’avance.Second cas — H 1 :σ 122< σ 2; test unilatéral.Même raisonnement. La variable-test est. Pour cetest, on doit trouver la probabilité dans la queue <strong>de</strong> gauche ( )<strong>de</strong> la distribution <strong>de</strong> F.2F( ν1 , ν 2)= s x1⇒ La plupart <strong>de</strong>s tables <strong>de</strong> F ne fournissent les valeurs critiques quedans la queue <strong>de</strong> droite <strong>de</strong> la distribution. Donc, pour la lecture dans les2 2tables, on utilisera F( ν2 , ν, en plaçant au numérateur la1)= s x2⁄ s2x1variance s xdu groupe qui, sous H 1 , aurait la variance σ 2 la plus gran<strong>de</strong>.Cela revient au même puisque F 0.95 ( ν1 , ν.2)= 1 ⁄ F 0.05 ( ν2 , ν 1)⁄2s x2F 0.95 ( ν1 , ν 2)


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 6Troisième cas — H 1 :σ 12≠ σ 22; test bilatéral.On place la plus gran<strong>de</strong> valeur<strong>de</strong>s x2au numérateur. Supposonsque2s x1>2s x2; on obtient1 – αF=2s x1⁄2s x2> 1.α/2Si l’hypothèse H 0 est vraie, alors Pr(F < F α/2 ) = (1 – α), puisqu’on adélibérément placé la plus gran<strong>de</strong> valeur <strong>de</strong>Conditions d’applicationF (1–α/2)s x2α/21 F α/2Fau numérateur.• Ce test s’applique uniquement à <strong>de</strong>s variables quantitatives.• Il requiert la normalité <strong>de</strong> chaque population d’où sont tirées lesobservations. La normalité intervient à l’étape 1 (ci-<strong>de</strong>ssus) duraisonnement ayant conduit à construire la statistique-test.[Les tests <strong>de</strong> normalité seront étudiés aux cours Bio 2042 et Bio 6077.Voir aussi Sokal & Rohlf, 1981 ou 1995, ou encore <strong>Legendre</strong> &<strong>Legendre</strong>, 1984 ou 1998. Langage R: shapiro.test.]Exemple: Scherrer p. 389 (variance <strong>de</strong> la longueur <strong>de</strong>s bélugas).Note – Test d’égalité <strong>de</strong> <strong>de</strong>ux écarts types: puisque l’écart type est égal àla racine carrée <strong>de</strong> la variance, il suffit <strong>de</strong> tester l’égalité <strong>de</strong>s variancespour tirer une conclusion quant à l’égalité <strong>de</strong>s écarts types.<strong>Comparaison</strong> <strong>de</strong>s variances <strong>de</strong> plusieurs échantillons indépendants: cetest sera étudié au cours Bio 2042. (Aussi dans Scherrer, section 12.2).


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 73 - <strong>Comparaison</strong> <strong>de</strong> la moyenne<strong>de</strong> 2 échantillons indépendants (i.e., non appariés)Scherrer, section 13.1.2 (petits échantillons)Question: si <strong>de</strong>ux échantillons diffèrent par leur moyenne, cela indique-tilque les <strong>de</strong>ux populations <strong>de</strong> référence diffèrent par leur moyenne?L’hypothèse nulle (H 0 ) est que les <strong>de</strong>ux échantillons proviennent <strong>de</strong> lamême population <strong>de</strong> référence, ou <strong>de</strong> populations possédant la mêmemoyenne (ou la même médiane dans le cas du test non-paramétrique).• La première métho<strong>de</strong>, valable uniquement pour les populations àdistribution normale, est fournie par le test paramétrique t. Les moyennessont comparées en tenant compte <strong>de</strong> la dispersion (écart type) <strong>de</strong>s <strong>de</strong>uxéchantillons. Différents types <strong>de</strong> tests peuvent être réalisés: test unilatéralou bilatéral; test pour échantillons indépendants ou appariés.• Dans le cas <strong>de</strong> populations à distribution non normale, on peut tester lastatistique t par la métho<strong>de</strong> <strong>de</strong>s permutations. Cette métho<strong>de</strong> est décriteen détail dans le document L’inférence statistique: les tests d’hypothèse.• Une troisième métho<strong>de</strong> est fournie par le test non-paramétrique U <strong>de</strong>Wilcoxon-Mann-Whitney (section 5 <strong>de</strong> ce cours).Langage RLa fonction t.test réalise un test t <strong>de</strong> comparaison <strong>de</strong> la moyenne <strong>de</strong><strong>de</strong>ux échantillons indépendants.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 8<strong>Comparaison</strong> <strong>de</strong> la moyenne <strong>de</strong> <strong>de</strong>ux grands échantillonsObjectif: On veut construire une statistique-test pivotale qui aura unedistribution <strong>de</strong> Stu<strong>de</strong>nt (loi <strong>de</strong> t) si H 0 est vraie.1. Théorie <strong>de</strong> la somme <strong>de</strong> variables aléatoiresSoit Y, une somme ou une différence <strong>de</strong> variables aléatoires,indépendantes et normales: Y = X 1 + X 2 + … + X nou encore Y = X 1 – X 2 – … + X n ou toute autre combinaison.On peut montrer que Y suit une distribution normale qui a pour moyenneE(Y) = E(X 1 ) – E(X 2 ) – … + E(X n )[ou toute autre combinaison]alors que sa variance est la somme <strong>de</strong>s variances (Morrison 1976):2σ ( Y)=2σ( X1 )2σ( X2 )+ + … +2σ( Xn )2. Considérons maintenant <strong>de</strong>ux populations à distribution normale, <strong>de</strong>2 2moyennes µ 1 et µ 2 et <strong>de</strong> variances σ 1et σ 2.La section 10.4.1 (intervalle <strong>de</strong> confiance <strong>de</strong> la moyenne) nous a appris(p. 323) que la variable aléatoire “moyenne” ( 1) d’un échantillonaléatoire <strong>de</strong> la population 1 suit une distribution normale <strong>de</strong> moyenneE( 1) = µ 1 (estimée par ) et <strong>de</strong> variance = ⁄ n1 (estimée parx 12σ M1s 2 1⁄ n 1; s 2 1⁄ n 1est l’estimateur non biaisé <strong>de</strong> l’erreur type <strong>de</strong> lamoyenne µ 1 ). Il en va <strong>de</strong> même pour la population 2.Étudions maintenant le comportement d’une nouvelle variable D quimesure la différence <strong>de</strong> moyenne <strong>de</strong>s échantillons aléatoires 1 et 2:σ 12D = M 1– M 2estimée par D = x 1– x 2


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 9À cause du point 1, nous savons que D obéit aussi à une loi normale<strong>de</strong> moyenneD = E ( M 1) – E ( M 2) = µ 1– µ 22et <strong>de</strong> variance = + estimée par s D= ---- + ---- .σ D2Par conséquent, la variable centrée réduite (statistique pivotale)tD – D= -------------- estimée par tσ Dobéit à une loi <strong>de</strong> Stu<strong>de</strong>nt à (n 1 – 1) + (n 2 – 1) = n 1 + n 2 – 2 <strong>de</strong>grés <strong>de</strong>liberté (Sokal & Rohlf 1981, p. 227, eq. 9.4). Il y a perte d’un <strong>de</strong>gré <strong>de</strong>liberté lors du calcul <strong>de</strong> chacune <strong>de</strong>s <strong>de</strong>ux moyennes x 1et x 2.N.B. Scherrer (section 13.1.1) présente un raisonnement i<strong>de</strong>ntiquemenant à une loi <strong>de</strong> z dans le cas <strong>de</strong> très grands échantillons. Il estcependant plus précis d’utiliser toujours la loi <strong>de</strong> t, plutôt que la loi <strong>de</strong>z vers laquelle converge la loi <strong>de</strong> t lorsque n 1 et n 2 <strong>de</strong>viennent trèsgrands.3. Test <strong>de</strong> comparaison2σ M12σ M2D – D= -------------- =s D2s 12n 1s 22n 2( x 1– x 2) – ( µ 1– µ 2)-----------------------------------------------------s 12----n 1s 22+ ----n 2H 0 : µ 1 = µ 2 ⇒t=x 1– x--------------------- 2s 12----n 1s 22+ ----n 2H 0 nous permet d’éliminer lesvaleurs inconnues µ 1 et µ 2 <strong>de</strong>l’équation. On peut donc calculerla valeur <strong>de</strong> la statistique-test t.L’hypothèse contraire <strong>de</strong> ce test peut être formulée <strong>de</strong> différentes façons.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 103.1. H 1 : µ 1 ≠ µ 2 (test bilatéral)Dans ce cas, la valeur <strong>de</strong> la statistique-test t a une probabilité (1 – α) <strong>de</strong>se situer dans l’intervallePr(–t α/2 < t < t α/2 ) = (1 – α)si l’hypothèse H 0 est vraie. En d’autres termes, on ne rejette pas H 0 si test compris entre –t α/2 et t α/2 ; on rejette H 0 si t ≤ –t α/2 ou si t ≥ t α/2(Scherrer, Fig. 13.1 pour z, qui serait semblable pour t).3.2. H 1 : µ 1 > µ 2 (test unilatéral), i.e. t > 0Pr(t < t α ) = (1 – α)On rejette H 0 si t est égal ou supérieur à t α (Scherrer, Fig. 13.2 pour z).3.3. H 1 : µ 1 < µ 2 (test unilatéral), i.e. t < 0Pr(–t α < t) = (1 – α)On rejette H 0 si t est inférieur ou égal à –t α .Les règles <strong>de</strong> décision sont résumées dans Scherrer, tableau 13.2 (avec laformule pour les petits échantillons, voir ci-<strong>de</strong>ssous).<strong>Comparaison</strong> <strong>de</strong> la moyenne <strong>de</strong> <strong>de</strong>ux petits échantillonsLorsque les échantillons sont petits (n 1 ou n 2 < 30), chacun d’eux nefournit plus une bonne estimation <strong>de</strong> la variance globale. Il convientalors <strong>de</strong> combiner les variances estimées <strong>de</strong>s <strong>de</strong>ux échantillons pourobtenir une meilleure approximation <strong>de</strong> la variance <strong>de</strong> la population:2s pd= moyenne pondérée <strong>de</strong>s variances


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 11En effet, selon H 0 , les <strong>de</strong>ux échantillons proviennent <strong>de</strong> la mêmepopulation statistique; les <strong>de</strong>ux variances estiment donc la varianced’une même population d’origine.Le développement, présenté par Scherrer (p. 420) et par Sokal & Rohlf(1981, p. 226), mène aux formules suivantes:t22x 1– x 22( n= ----------------------------- où s 1– 1) s 1+ ( n 2– 1) spd= ---------------------------------------------------------- 21 1ns pd---- + ----1+ n 2– 2n 1n 2et ν = n 1 + n 2 – 2. Les règles <strong>de</strong> décision sont résumées par Scherrer autableau <strong>de</strong> la p. 421. Voir l’exemple 13.2, p. 422-423 (brochets).Cette correction <strong>de</strong>vient nécessaire lorsque n 1 ou n 2 < 30. Son effet sur lastatistique-test t diminue à mesure que n 1 et n 2 augmentent. Lors <strong>de</strong>calculs par ordinateur, on emploie toujours cette <strong>de</strong>rnière formule quiest plus précise que celle <strong>de</strong> la page 9.Conditions d’application du test t paramétrique• La variable doit être quantitative.• Échantillons tirés <strong>de</strong> populations à distribution normale.• Échantillons tirés <strong>de</strong> populations dont les variances sont égales.• Indépendance <strong>de</strong>s observations. Cela signifie que la valeur d’uneobservation ne doit aucunement influencer la valeur d’une autreobservation. Cette condition est violée, en particulier, dans le casd’observations effectuées dans l’espace géographique ou au cours dutemps: <strong>de</strong> telles observations sont souvent autocorrélées. Voir ledocument du cours 6: L’inférence statistique: les tests d’hypothèse, p. 11.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 12Violation <strong>de</strong>s conditions d’application du test t1. Données normales, variances inégalesPour être en mesure <strong>de</strong> comparer uniquement les moyennes, le test tsuppose que les <strong>de</strong>ux échantillons indépendants sont tirés <strong>de</strong> <strong>de</strong>ux2 2populations normales d’égale variance, σ 1= σ 2.⇒ Le test t teste en fait, simultanément, <strong>de</strong>ux hypothèses nullesdifférentes: l’égalité <strong>de</strong>s moyennes et l’égalité <strong>de</strong>s variances. Cetteconfusion <strong>de</strong>s hypothèses s’appelle le problème <strong>de</strong> Behrens-Fisher.Il faut toujours faire un test F d’égalité <strong>de</strong>s variances commepréliminaire à un test t d’égalité <strong>de</strong>s moyennes. *Que faire si le test F a rejeté l’hypothèse d’égalité <strong>de</strong>s variances?On peut utiliser un test t modifié selon Welch (1936). Dans ce test, lastatistique-test t est encore estimée par la formulext 1– x 2mc= ---------------------s 12----n 1s 22+ ----n 2Scherrer, eq. 13.18Cette variable-test t mc ne suit cependant plus une loi <strong>de</strong> Stu<strong>de</strong>nt si H 0 estvraie, mais sa probabilité peut se lire dans une table <strong>de</strong> t avec[ ( s 2ν 1⁄ n 1) + ( s 2 2⁄ n 2) ] 2Welch= ---------------------------------------------------------( s 2 1⁄ n 1) 2 ( s 2----------------------- 2⁄ n 2) 2+ -----------------------n 1– 1 n 2– 1Scherrer, eq. 13.19*De même, en analyse <strong>de</strong> variance (cours no 9), il faudra faire un test d’homogénéité <strong>de</strong>svariances (ce test sera étudié au cours Bio 2042) avant <strong>de</strong> réaliser une analyse <strong>de</strong> variance.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 13On arrondit ce nombre <strong>de</strong> <strong>de</strong>grés <strong>de</strong> liberté à l’entier le plus proche (Zar,1999, recomman<strong>de</strong> plutôt d’arrondir à l’entier inférieur). Voirl’exemple 13.3 dans Scherrer, p. 424-425 (brochets).En cas d’égalité <strong>de</strong>s variances, cette formule donne exactement ν = n – 2si n 1 = n 2 . Exemples:• s 1 = 5, s 2 = 5, n 1 = 10, n 2 = 10 ⇒ ν = 18, ν Welch = 18• s 1 = 1, s 2 = 9, n 1 = 10, n 2 = 10 ⇒ ν = 18, ν Welch = 9,22 arrondi à 9Les simulations réalisées par <strong>Legendre</strong> & Borcard (2000; manuscritdisponible sur la page WWWeb du cours Bio 2041) montrent ce qui suitpour les données à distribution normale :• Lorsque les variances sont égales ou à peu près, l’erreur <strong>de</strong> type I dutest t ordinaire et du test t par permutation est juste (Figs 6a, 6e).• Lorsque les variances sont inégales alors que n 1 et n 2 sont petits (< 50),l’erreur <strong>de</strong> type I du test t paramétrique ordinaire et du test t parpermutation est trop élevée. Ces <strong>de</strong>ux tests sont donc invali<strong>de</strong>s dans cesconditions (Figs 6a).• L’erreur <strong>de</strong> type I du test t avec correction <strong>de</strong> Welch est correcte lorsqueles données sont tirés <strong>de</strong> populations à distribution normale dont lesvariances sont inégales. Dans ces conditions, le test t avec correction <strong>de</strong>Welch remplace efficacement le test t paramétrique (Figs 6a, 6e).• Lorsque n 1 et n 2 sont assez grands (≥ 50, Fig. 6e), l’erreur <strong>de</strong> type I dutest t paramétrique et du test t par permutation est correcte même lorsqueles variances <strong>de</strong>s <strong>de</strong>ux populations <strong>de</strong> référence sont inégales. Il n’est pasnécessaire d’avoir recours au test t avec correction <strong>de</strong> Welch dans ce cas.Les trois formes du test t sont vali<strong>de</strong>s dans ces conditions.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 142. Données non normales, n moyen ou grand, variances égalesPour <strong>de</strong>s données tirées <strong>de</strong> populations à distribution fortement nonnormale dont les variances sont égales ou à peu près, le test t est tropconservateur, i.e., il ne rejette pas assez souvent H 0 par rapport au seuil<strong>de</strong> signification α lorsque H 0 est vraie (page suivante, Figure 1;<strong>Legendre</strong> & Borcard 2000, Figs. 6c, 6g). Le test t <strong>de</strong>meure vali<strong>de</strong> * , maissa puissance est faible.• On peut tenter <strong>de</strong> normaliser les données à l’ai<strong>de</strong> d’une transformationappropriée. Voir <strong>Legendre</strong> & <strong>Legendre</strong> (1984 ou 1998, chapitre 1).• On peut aussi tester la statistique t par permutation: l’erreur <strong>de</strong> type I dutest t par permutation est correcte (page suivante, Figure 1) et sapuissance est bien supérieure à celle du test t paramétrique (<strong>Legendre</strong> &Borcard 2000, Figs 6d, 6h, 7f).3. Données non normales, n petitLorsque les données sont tirées <strong>de</strong> populations à distribution nonnormale et que les groupes d’observations sont petits, on peut employerle test t par permutation si les variances sont égales. Dans les autres cas,il faut employer le test non-paramétrique U <strong>de</strong> Wilcoxon-Mann-Whitney.4. Variable semi-quantitativeLorsque les observations ont été faites à l’ai<strong>de</strong> d’une variable semiquantitative:employer le test non-paramétrique U <strong>de</strong> Wilcoxon-Mann-Whitney (section 4 ci-<strong>de</strong>ssous).*Voir le document L’inférence statistique: les tests d’hypothèse, page 11: “Un test statistiqueest vali<strong>de</strong> si son erreur <strong>de</strong> type I n’est pas supérieure au seuil <strong>de</strong> signification α, et ce pourtoute valeur <strong>de</strong> α (Edgington, 1995).”


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 15Test unilatéralTest bilatéralDonnées aléatoires normales0.060.06Taux <strong>de</strong> rejet <strong>de</strong> H00.050.040.030.020.01Taux <strong>de</strong> rejet <strong>de</strong> H00.050.040.030.020.010.000 10 20 30 40 50 60Nombre d'observations par groupe0.000 10 20 30 40 50 60Nombre d'observations par groupeTest par permutationTest t paramétriqueDonnées aléatoires exponentielles au cube (distribution très asymétrique)0.060.06Taux <strong>de</strong> rejet <strong>de</strong> H00.050.040.030.020.01Taux <strong>de</strong> rejet <strong>de</strong> H00.050.040.030.020.010.000 10 20 30 40 50 60Nombre d'observations par groupe0.000 10 20 30 40 50 60Nombre d'observations par groupeFigure 1 – Moyenne et intervalle <strong>de</strong> confiance <strong>de</strong> 95% du taux <strong>de</strong> rejet <strong>de</strong> H 0 au cours <strong>de</strong> tests<strong>de</strong> comparaison <strong>de</strong> la moyenne <strong>de</strong> <strong>de</strong>ux groupes d’observations simulées (ordonnée) enfonction du nombre d’observations par groupe (abscisse).Métho<strong>de</strong>s <strong>de</strong> test d’hypothèse: tests t paramétriques (cercles blancs) et tests t par permutation(carrés noirs), α = 0.05. L’hypothèse nulle est vraie pour tous les jeux <strong>de</strong> données simulées,i.e., les <strong>de</strong>ux groupes d’observations sont tirés <strong>de</strong> la même population statistique dans tous lescas. Chaque point (cercle ou carré) représente le résultat <strong>de</strong> 10000 jeux <strong>de</strong> données simulées.99 permutations furent réalisées pour chaque test permutationnel.Observations• Lorsque les données sont distribuées normalement, les <strong>de</strong>ux tests sont équivalents.• Lorsque la distribution <strong>de</strong>s données n’est pas normale, l’erreur <strong>de</strong> type I du test paramétriqueest trop faible (< 0.05). Par contre, l’erreur <strong>de</strong> type I du test par permutations est juste.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 164 - <strong>Comparaison</strong> <strong>de</strong> la moyenne <strong>de</strong> 2 échantillons appariésScherrer, section 13.2.1Dans le cas d’appariement <strong>de</strong>s observations (par exemple, lorsque lesmêmes sujet ont été mesurés avant et après un traitement), il convientd’utiliser l’information que nous possédons quant à l’appariement <strong>de</strong>svaleurs. Le test t pour observations indépendantes présenté ci-<strong>de</strong>ssusconsidérerait toutes les valeurs “avant” comme formant un groupe <strong>de</strong>mesures <strong>de</strong>vant être comparées au groupe <strong>de</strong> toutes les mesures prises“après” le traitement. Il n’utiliserait donc pas <strong>de</strong> façon efficacel’information que contient le plan d’échantillonnage.La comparaison <strong>de</strong> la moyenne <strong>de</strong> <strong>de</strong>ux échantillons appariés est fondéesur l’analyse <strong>de</strong>s différences observées pour chacune <strong>de</strong>s n pairesd’observations i, d i = (x i1 – x i2 ).• L’échantillon <strong>de</strong>s n valeurs d i a une moyenne d et un écart type s d .• La variable aléatoireda elle-même une moyenneµ = µ d 1– µ 2(la moyenne <strong>de</strong>s différences est égale à la différence <strong>de</strong>s moyennes) etune erreur type (Scherrer, eq. 10.22)s d= s d⁄ n• On utilisera pour le test la variable centrée réduitet = ( d – µ d) ⁄ s dScherrer, eq. 13.60qui obéit à une loi <strong>de</strong> Stu<strong>de</strong>nt à (n – 1) <strong>de</strong>grés <strong>de</strong> liberté où n est lenombre <strong>de</strong> paires d’observations.• Nous pouvons calculer d et s d, mais pas µ d. Nous pouvons cependantformuler l’hypothèse nulle H 0 : µ 1= µ 2qui nous permet <strong>de</strong> nous


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 17débarrasser <strong>de</strong> la portion <strong>de</strong> l’équation que nous ne pouvons pas estimerà partir <strong>de</strong>s données. La statistique-test (ou variable auxiliaire) utiliséepour tester H 0 est donc:t=d ⁄ s dScherrer, eq. 13.58Cette statistique t obéit à une loi <strong>de</strong> Stu<strong>de</strong>nt à (n – 1) <strong>de</strong>grés <strong>de</strong> liberté.Conditions d’application: Variable quantitative; la distribution <strong>de</strong>s d idans la population doit être normale; indépendance <strong>de</strong>s observations.Langage R: fonction t.test, avec l’argument paired=TRUE.Exemple (Zar, 1999, p. 162): Les pattes avant et arrière <strong>de</strong>s chevreuilsont-elles la même longueur?Chevreuil Longueur <strong>de</strong>s Longueur <strong>de</strong>s Différencei pattes arrières (cm) pattes avant (cm) d i (cm)1 142 138 42 140 136 43 144 147 –34 144 139 55 142 143 –16 146 141 57 149 143 68 150 145 59 142 136 610 148 146 2n = 10; ν = n – 1 = 9; d = 3,3 cm (noter: signe positif); s d = 3,05687 cm;= 0,96667 cm; t = 3,41379; t α=0.05, ν=9 = 2,262 pour un test bilatéral.s dConclusion statistique: on rejette H 0 au seuil α = 5%. En fait, p = 0,0077.Conclusion biologique: les pattes arrières sont plus longues que lespattes avant, du moins dans cette population <strong>de</strong> chevreuils.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 185 - Principe <strong>de</strong>s tests non-paramétriquesLes tests non-paramétriques sont particulièrement utiles dans les cassuivants:• avec <strong>de</strong>s données quantitatives, lorsque les distributions ne sont pasnormales, les variances sont inégales, ou autres problèmes <strong>de</strong>distribution;• avec <strong>de</strong>s données quantitatives, lorsque les variances sont mal estiméesparce que les échantillons sont trop petits;• avec <strong>de</strong>s données semi-quantitatives.⇒ Les tests non-paramétriques peuvent également être utilisés dans tousles cas où les tests paramétriques sont applicables.Ces tests ne reposent pas sur les paramètres <strong>de</strong>s distributions <strong>de</strong>fréquence. (Par exemple, le test t <strong>de</strong> comparaison <strong>de</strong>s moyennes <strong>de</strong> <strong>de</strong>uxéchantillons indépendants repose sur les paramètres x et s x <strong>de</strong>s <strong>de</strong>uxdistributions observées. Tel n’est pas le cas du test non-paramétrique U.)Les tests non-paramétriques sont vali<strong>de</strong>s dans <strong>de</strong>s cas impliquant <strong>de</strong> trèspetits échantillons (ex. <strong>de</strong>ux groupes <strong>de</strong> 3 observations). De telséchantillons sont trop petits pour permettre une estimation correcte <strong>de</strong> µet <strong>de</strong> σ, ce qui empêche en général <strong>de</strong> les soumettre à <strong>de</strong>s testsparamétriques.Il existe <strong>de</strong>s tests non-paramétriques correspondant à chaque testparamétrique que nous étudierons au cours Bio 2041.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 196 - Test U <strong>de</strong> Wilcoxon-Mann-Whitney Scherrer, section 13.1.7• On classe les éléments <strong>de</strong>s <strong>de</strong>ux groupes à comparer en ordre croissant.• On teste H 0 : les <strong>de</strong>ux groupes proviennent <strong>de</strong> la même populationstatistique ou <strong>de</strong> populations ayant la même médiane; dans ces <strong>de</strong>ux cas,les valeurs seront bien entremêlées (autres formulations: Scherrer p.436).• La variable-test U mesure le <strong>de</strong>gré <strong>de</strong> mélange <strong>de</strong>s <strong>de</strong>ux échantillons.Exemple Données quantitatives Données mises en ordreGroupe 1 0,5 2 2,1 1 3 4 n 1 =3Groupe 2 0,7 2,2 3 3,1⇒2 5 6 7 n 2 =4On met les valeurs en ordre: 1 2 3 4 5 6 7Groupe <strong>de</strong> provenance: 1 2 1 1 2 2 2On calcule une “statistique <strong>de</strong> séparation” U 1 = nombre <strong>de</strong> fois où unélément du groupe 2 précè<strong>de</strong> un élément du groupe 1: U 1 = 0 + 1 + 1 = 2U 2 = le contraire U 2 = 1 + 3 + 3 + 3 = 10Il y a en tout U 1 + U 2 = n 1 n 2 comparaisons. Donc U 2 = n 1 n 2 – U 1 danstous les cas. Il suffit <strong>de</strong> calculer l’un <strong>de</strong>s <strong>de</strong>ux U pour connaître l’autre.Considérons maintenant les cas extrêmes:• Si les <strong>de</strong>ux groupes sont complètement séparés, U 1 = 0 et U 2 = n 1 n 2 , ouencore U 2 = 0 et U 1 = n 1 n 2 .• Si les valeurs <strong>de</strong>s <strong>de</strong>ux groupes d’éléments sont bien entremêlées (H 0 ),on s’attend à obtenir U 1 ≈ U 2 ≈ n 1 n 2 /2.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 20Le test consiste à étudier à quel point le plus petit <strong>de</strong>s <strong>de</strong>ux U (U 1 ou U 2 )dévie <strong>de</strong> cette valeur n 1 n 2 /2 qu’on s’attend à trouver si H 0 est vraie.Langage RLa fonction wilcox.test réalise un test U <strong>de</strong> comparaison <strong>de</strong> <strong>de</strong>uxéchantillons indépendants.Très petits groupesLorsque n 1 et n 2 ≤ 8, on teste la statistique U = min(U 1 , U 2 ) à l’ai<strong>de</strong> <strong>de</strong>squatre premières tables XVIII (Scherrer p. 770-771). Ces tables ont étéproduites en étudiant toutes les permutations possibles <strong>de</strong>s objets entreles <strong>de</strong>ux groupes. Le test U pour très petits groupes est doncessentiellement un test par permutations pour lequel <strong>de</strong>s tables ont étécalculées à l’avance.Pour l’exemple ci-<strong>de</strong>ssus, U = 2, n 1 = 3, n 2 = 4. Selon la table,p(U ≤ 2) = 0,114, donc on ne peut pas rejeter H 0 au seuil α = 0,05.⇒ Il arrive que <strong>de</strong>ux éléments aient la même valeur observée. On parlealors <strong>de</strong> données liées. La formule 13.46 permet <strong>de</strong> calculer U enprésence <strong>de</strong> données liées.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 21Petits groupesLorsque n 1 et n 2 ≤ 20, U 1 et U 2 peuvent se calculer par la même métho<strong>de</strong>que ci-<strong>de</strong>ssus. On peut aussi employer la métho<strong>de</strong> <strong>de</strong> calcul rapi<strong>de</strong> <strong>de</strong>Wilcoxon (Scherrer p. 436). Pour les données liées, chacune reçoit lerang médian <strong>de</strong> son groupe.On peut traiter l’exemple <strong>de</strong> Scherrer (1984, p. 508) à l’ai<strong>de</strong> <strong>de</strong> cettemétho<strong>de</strong>:Groupe 1: 2 3 5 5 7 8 n 1 = 6rang 1,5 3 6 6 10,5 12,5 W 1 = 39,5Groupe 2: 2 4 5 6 6 7 8 9 10 n 2 = 9rang 1,5 4 6 8,5 8,5 10,5 12,5 14 15 W 2 = 80,5nU 1n 1n 1( n 1+ 1)= 2+ -------------------------- – W21= 54 + 21 – 39,5 = 35,5nU 2n 1n 2( n 2+ 1)= 2+ -------------------------- – W22= 54 + 45 – 80,5 = 18,5ou encore U 2 = n 1 n 2 – U 1 = 54 – 35,5 = 18,5Si les <strong>de</strong>ux groupes avaient été complètement séparés, on aurait obtenuU 1 = n 1 n 2 et U 2 = 0.On teste U = min(U 1 , U 2 ) à l’ai<strong>de</strong> <strong>de</strong> la table XVIII (Scherrer p. 771).Réalisons un test bilatéral au niveau α = 0,05. La valeur critique <strong>de</strong> Upour n 1 = 6 et n 2 = 9 est U crit = 10. La valeur U = min(18,5, 35,5) = 18,5est plus près <strong>de</strong> l’espérance sous H 0 (n 1 n 2 /2 = 27) que ne l’est la valeurcritique (U crit = 10). On ne peut donc pas rejeter H 0 dans ce cas.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 22Grands groupesLorsque n 1 ou n 2 > 20, la distribution d’échantillonnage <strong>de</strong> U convergevers une loi normale<strong>de</strong> moyennenµ 1n 2U= ----------2et d’écart typenσ 1n 2( n 1+ n 2+ 1)U= --------------------------------------------12Pour le test, il suffit <strong>de</strong> calculer l’écart réduitz=U – µ---------------- Uσ Uet <strong>de</strong> trouver la probabilité correspondante dans une table <strong>de</strong> la loinormale centrée réduite (table IV <strong>de</strong> Scherrer).Puissance du test U• Lorsque les conditions d’application du test t sont remplies, lapuissance du test U est près <strong>de</strong> 95% <strong>de</strong> celle du test t. Les <strong>de</strong>ux tests ontdonc approximativement la même capacité <strong>de</strong> détecter <strong>de</strong> petitesdifférences entre <strong>de</strong>s échantillons tirés <strong>de</strong> <strong>de</strong>ux populations normales quisont statistiquement différentes. Dans certaines autres conditions, le testU est plus puissant que le test t (Siegel & Castellan 1988).• Pour <strong>de</strong>s données tirées <strong>de</strong> populations à distribution fortement nonnormale, le test t est trop conservateur (voir simulations p. 13). Parcontre, le taux d’erreur <strong>de</strong> type I du test U est approximativement égal auseuil <strong>de</strong> signification α dans ces conditions. On emploiera donc ce test.⇒ Règles <strong>de</strong> décision pour le test unilatéral: voir la démonstrationprésentée au laïus.


<strong>Comparaison</strong> <strong>de</strong> <strong>de</strong>ux échantillons 23Question: p(données | H 0 ) ≤ α ?La probabilité que les données soient conformes à H 0 est-elle ≤ α?• Logiciels:R, SPSS, SAS, Statistika, etc.• Tests par permutationsp (S | H 0)Tables:α ⇒ trouver S-critique (S α )comparerp (S | H 0) à αcomparer S à S-critiqueStatistique-testS

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!