12.07.2015 Views

Probabilités et Statistique pour SIC: Correction des exercices 2012

Probabilités et Statistique pour SIC: Correction des exercices 2012

Probabilités et Statistique pour SIC: Correction des exercices 2012

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Probabilités <strong>et</strong> <strong>Statistique</strong> <strong>pour</strong> <strong>SIC</strong>:<strong>Correction</strong> <strong>des</strong> <strong>exercices</strong> <strong>2012</strong>Corrigé 1 66 8Corrigé 2 26 2 10 3Corrigé 3 23!9!2!Corrigé 4 4!3!5!3!Corrigé 5 C 4 23Corrigé 6 C 5 52Corrigé 7 Remarquons qu’il y a C10 3 C3 8 = 6720 façons de choisir un comité de 3 hommes <strong>et</strong> 3 femmesdans un groupe de 10 femmes <strong>et</strong> 8 hommes.a) Le nombre de comités de 3 hommes qui contiennent les deux hommes qui refusent d’être ensembleest C6 1 = 6. Alors, le nombre de comités de 3 hommes qui ne contiennent pas les 2 hommes qui refusentd’être ensembles est C8 3 −6 = 50. Il s’en suit que la réponse cherchée estC 3 10(C 3 8 −6) = 120·50 = 6000.b) Le raisonemment ici est similaire. On obtient:(C 3 10 −C 1 8)C 3 8 = (120−8)·56 = 6272.c) Le nombre <strong>des</strong> comités avec l’homme <strong>et</strong> la femme qui refusent d’être ensemble est C9C 2 7 2 = 756.Alors la réponse estC10 3 C3 8 −C2 9 C2 7 = 6720−756 = 5964.Corrigé 8 Il y a 4! = 24 façons de placer les trois paires de jumeaux dans les 4 chambres. D’autre part,<strong>pour</strong> chaque placement, il y a 2 3 = 8 façons de distribuer les trois paires de jumeaux dans les lits. Il y adonc 4!2 3 = 192 façons d’organiser l’expérience.Corrigé 9 On aC k−1n−1 +Ck n−1 =(n−1)!(n−k)!(k −1)! +(n−1)! (n−1)!(k +n−k)= = Cnk (n−k −1)!k! (n−k)!k!Corrigé 10 On s’apercoit d’abord qu’il y a 1+(n−k−2) = n−k−1 manières de placer le bloc “A ...B” de longeur k+2 dans la rangée. Il faut ensuite tenir compte <strong>des</strong> permutations de A <strong>et</strong> B: 2! = 2. Et<strong>des</strong> permutations <strong>des</strong> (n−2) personnes différentes de A <strong>et</strong> B: (n−2)!. Il y a donc 2(n−2)!(n−k −1)façons d’avoir k personnes entre A <strong>et</strong> B.Corrigé 11 a) L’ensemble fondamental de c<strong>et</strong>te expérience est Ω = Ω 1 ∪Ω 2 où Ω 1 = {(D 1 ,D 2 ,...) oùD i ∈ {1,2,3,4,5} 1 ≤ i < ∞} (l’événement “aucun 6 ne sort”) <strong>et</strong> Ω 2 = ∪ ∞ n=1{(D 1 ,D 2 ,...,D n−1 ,6) oùD i ∈ {1,2,3,4,5} 1 ≤ i ≤ n−1} (l’événement que l’expérience s’arrête).b) Les points de l’ensemble fondamental qui sontcontenus dans E n sont de la forme (D 1 ,...,D n−1 ,6).L’ensemble Ω 1 = (∪ ∞ 1 E n ) c est égal à l’événement “aucun 6 ne sort”, c’est à dire Ω 1 .Corrigé 12 a) E ∩F = {(1,2),(1,4),(1,6),(2,1),(4,1),(6,1)}.b) E ∪F est égal à l’événement “la somme <strong>des</strong> dés est impaire ou bien l’un <strong>des</strong> dés montre 1”.c) F ∩G = {(1,4),(4,1)}.d) E∩F c est égal à l’événement “la somme <strong>des</strong> dés est impaire <strong>et</strong> chaque dé montre un nombre plusgrand ou égal à 2”.e) E ∩F ∩G = F ∩G.


X 1 X 2 X 3 somme poids probabilité3 6 6 15 3 1/2164 5 6 15 3! 1/2164 6 6 16 3 1/2165 5 5 15 1 1/2165 5 6 16 3 1/2165 6 6 17 3 1/2166 6 6 18 1 1/216La cinquième colonne correspond au nombre de façons qu’il y a d’obtenir les valeurs de X 1 , X 2 <strong>et</strong>X 3 données. Et la sixième colonne correspond à la probabilité de chaque configuration (c’est-à-dire1/6 3 = 1/216). Alors, la probabilité recherchée est égale àP(E) = (3+6+3+1+3+3+1)216= 20216 ≃ 0.0926.Corrigé 21 Laprobabilitéqu’aucune<strong>des</strong>deuxpiècesn<strong>et</strong>ombesurpileestégaleàlaprobabilitéd’obtenir(F,F). C’est à dire 1/4. Alors, la réponse récherchée est 1−1/4 = 3/4.Corrigé 22 On utilise le fait que l’événement “avoir au moins un succès” est le complémentaire del’événement “n’avoir aucun succès”. La probabilité d’obtenir au moins un 6 avec 4 dés est donc de1−(1− 1 6 )4 ≃ 0,518,<strong>et</strong> la probabilité d’obtenir au moins un double 6 lors de 24 j<strong>et</strong>s de deux dés est de1−(1− 1 36 )24 ≃ 0,491.Corrigé 23 On ne peut pas en conclure que P(S = 9) = P(S = 10) car les configurations ne sont paséquiprobables. Si l’on tient compte de l’ordre elles le sont, il faut donc tenir compte <strong>des</strong> permutationspossibles de chaque configuration. Ainsi (3,3,3) ne “compte qu’une fois” alors que (5,2,2) “compte triple”<strong>et</strong> (5,3,1) “compte six fois”. On obtient P(S = 9) = 256<strong>et</strong> P(S = 10) = 273 6. 3Corrigé 24 P{”il gagne”} = 1−P{”il perd”} = 1− 16×15×1420×19×18 .Corrigé 25 a) <strong>et</strong> b) La réponse est la même:c) On obtientP = 15·14·13·10·925·24·23·22·21 = 0.03854.P = 15·14·10·9·825·24·23·22·21 = 0.0237.Corrigé 26 a) L’ensemble fondamental de c<strong>et</strong>te expérience est Ω = {(D 1 ,D 2 ), où D i ,i = 1,2 est unecouleur qui peut être blanche ou noire}.b) On aP(B 1 ) = 4 6 = 2 3P(B 2 |B 1 ) = P(B 2 ∩B 1 )=P(B 1 )46 · 354626 · 4526= 3 5P(B 2 |B1 c ) = P(B 2 ∩B1 c)P(B1 c) = = 4 5P(B 2 ) = P(B 1 ∩B 2 )+P(B1 c ∩B 2 ) = 4 365 + 2 465 = 2 3c) Remarquons que P(B 1 ∩B 2 )+P(B c 1 ∩B 2) = P(B 2 ) <strong>et</strong> que P(B 1 ∩B c 2 )+P(Bc 1 ∩Bc 2 ) = P(Bc 2 ).Alors, P(B 2 )+P(B c 2) = 1 donne l’égalité recherchée.4


Corrigé 27 Soient RR, NN <strong>et</strong> RN respectivement les événements, “la carte choisie est entièrementrouge”, “entièrement noire” <strong>et</strong> “bicolore”. Soit encore R l’événement, “la face apparente de la carte tiréeest rouge”. On auraP(RN|R) === 1 3P(R|RN)P(RN)P(R|RR)P(RR)+P(R|RN)P(RN)+P(R|NN)P(NN)1· 11 12 33 + 1 123 +0· 13Corrigé 28 Soit M l’événement “le patient est atteint”, B l’événement “le patient est en bonne santé”,<strong>et</strong> + l’événement “le résultat du test est positif”. De la formule de Bayes on aP(M|+) ===P(+|M)P(M)P(+|M)P(M)+P(+|B)P(B)9910099 1100 100011000 + 2100992097 ≃ 0.04729991000Ceci n’est pas un très bon résultat. Pour essayer de l’améliorer il faudrait répéter le test...Corrigé 29 Soit S n l’événement “le n eme jour est ensoleillé” <strong>et</strong> N n l’événement “le nème jour estnuageux”. Alors,s n = P(S n ) = P(S n |S n−1 )P(S n−1 )+P(S n |N n−1 )P(N n−1 )= ps n−1 +q(1−s n−1 )= (p−q)s n−1 +qOn démontre que s n = 1 2 (1 +(p − q)n ), n ≥ 0 par induction sur n. Si n = 0 c’est clairement vrai.Supposons maintenant que c<strong>et</strong>te formule est valide <strong>pour</strong> n ≤ m. Alors,s m+1 = (p−q)s m +q( 1= (p−q)2 + 1 )2 (p−q)m +q= 1 2 (1+(p−q)m ).Corrigé 30 X n ne peut prendre que les valeurs 0 <strong>et</strong> 1. En eff<strong>et</strong>, il ne peut y avoir plus d’une machineen panne au début d’une journée. On aP(X n+1 = 0|X n = 0) = p 2 +p(1−p)+(1−p)p = p(2−p)(soit ni l’une ni l’autre ne tombe en panne,soit l’une tombe en panne <strong>et</strong> est réparée,soit l’autre tombe en panne <strong>et</strong> est réparée)P(X n+1 = 0|X n = 1) = pP(X n+1 = 1|X n = 0) = (1−p) 2P(X n+1 = 1|X n = 1) = 1−p.Corrigé 31 a) P(A|B) = 0.9 <strong>et</strong> P(A c |B c ) = 0.8.b) Les 4 pièces sont acceptées, donc le contrôle <strong>des</strong> 3 bonnes pièces est sans erreur <strong>et</strong> il y a erreurdans le contrôle de la pièce défectueuse . La probabilité d’un tel événement est:P(A|B) 3 ·P(A|B c ) = (0,9) 3 ·0,2 ≃ 0.146.c) Soit l’événement E =“il y a erreur dans le contrôle d’une pièce”.P(E) = P(A c |B)·P(B)+P(A|B c )·P(B c ). D’où, puisque P(B c ) = 0,2,d) P(B c |A) = P(A|Bc )·P(B c )P(A)P(E) = 0,1·0,8+0,2·0,2 = 0,12.=P(A|B c )·P(B c )P(A|B)·P(B)+P(A|B c )·P(B c ) ≃ 0,053.5


Corrigé 32 L’ensemble fondamental de c<strong>et</strong>te expérience est Ω = {(E 1 ,E 2 ) où E 1 est le sexe du premierenfant <strong>et</strong> E 2 est le sexe du deuxième}. L’événement “les deux enfants sont <strong>des</strong> filles” est A = {(F,F)},<strong>et</strong> “l’aînée en est une” est B = {(F,F),(F,G)}. La probabilité recherchée estP(A|B) = P(A∩B)P(B)= P(A)P(B) = 1/41/2 = 1 2 .Corrigé 33 L’ensemble fondamental de c<strong>et</strong>te expérience est Ω = {(D 1 ,D 2 ) où 1 ≤ D i ≤ 6 <strong>et</strong> i = 1,2}.Appelons A l’événement “au moins l’un d’entre eux montre 6”, <strong>et</strong> B l’événement “les deux résultats sontdifférents”. On veut calculerMais, P(B) = 6·56·6 = 5 6 <strong>et</strong>Alors, la probabilité recherchée estP(A|B) = P(A∩B) .P(B)P(A∩B) = P(B)−P(A c ∩B) = 5 6 − 5·46·6 = 5 6 − 5 9 .P(A|B) = 1− 6 9 = 1/3.Corrigé 34 Soit A l’événement “la première carte tirée est un pique” <strong>et</strong> B l’événement “les deuxdernières en sont”. Remarquons queP(A∩B) = 13 1211525150P(B) = P(A∩B)+P(A∩B c ) = 13 1211525150 + 39 1312525150Alors, la probabilité recherchée est égale à P(A|B) =13·12·1113·12·11+39·13·12 = 1150 .Corrigé 35 Soit D l’événement “la personne selectionée est un daltonien”, H l’événement “elle est unhomme” <strong>et</strong> F l’événement “c’est une femme”. Tout d’abord, par la formule de Bayes on aP(H|D) =P(D|H)P(H)P(D|H)P(H)+P(D|M)P(M)Si on adm<strong>et</strong> que les hommes sont aussi nombreux que les femmes, alors P(H) = P(F) = 1/2 <strong>et</strong>P(H|D) =5100 · 125100 · 12 + 0,25100 · 12= 55.25 = 2021 .Si au contraire il y avait deux fois plus de femmes que <strong>des</strong> hommes, on aurait,P(H|D) =5100 · 235100 · 23 + 0,25100 · 13= 1010.25 = 4041 .Corrigé 36 D’abord remarquons que si Xavier <strong>et</strong> ses deux parents ont les yeux marrons <strong>et</strong> si la soeur deXavier a les yeux bleus, il faut que les deux parents aient chacun un gène oeil bleu <strong>et</strong> un autre marron.a) Xavier peut avoir <strong>des</strong> gènes (M,M),(M,B) <strong>et</strong> (B,M), alors, la probabilité que Xavier ait un gèneoeil bleu est 2/3.b) On définira par G X , G F <strong>et</strong> G E les gènes yeux de Xavier, de sa femme <strong>et</strong> de son enfant. Alors,P(G E = (B,B)) = P(G X ∈ {(M,B),(B,M)}) 1 2 = 2 132 = 1 3 .Corrigé 37 L’ensemble <strong>des</strong> valeurs possibles prises par X 1 est S = {1,2,3,4,5,6}. L’énumération <strong>des</strong>différents cas possibles donne:P(X 1 = 1) = 1/36 P(X 1 = 2) = 1/12P(X 1 = 3) = 5/36 P(X 1 = 4) = 7/36P(X 1 = 5) = 9/36 P(X 1 = 6) = 11/366


De même, <strong>pour</strong> X 2 ,P(X 2 = 1) = 11/36 P(X 2 = 2) = 9/36P(X 2 = 3) = 7/36 P(X 2 = 4) = 5/36P(X 2 = 5) = 3/36 P(X 2 = 6) = 1/36On obtient les graphes suivants:Fonction de masse de X1Fonction de masse de X2P(x)0.0 0.1 0.2 0.3 0.4P(x)0.0 0.1 0.2 0.3 0.41 2 3 4 5 6x1 2 3 4 5 6xCorrigé 38 a) On vérifie que la somme de lignes vaut 1.b) F X1 (0) = 0.5, F X1 (1) = 0.7, F X1 (2) = 0.9, F X1 (3) = 1.F X2 (0) = 0.7, F X1 (1) = 0.9, F X1 (3) = 1.Fonction de repartition de X1Fonction de repartition de X2F(x)0.0 0.2 0.4 0.6 0.8 1.0−1 0 1 2 3 4xF(x)0.0 0.2 0.4 0.6 0.8 1.0−1 0 1 2 3 4xc) P(Y = 0) = P(X 1 = 0)P(X 2 = 0) = 0.35.P(Y = 1) = P(X 1 = 0)P(X 2 = 1)+P(X 1 = 1)P(X 2 = 0) = 0.24.P(Y = 2) = 0.23 P(Y = 3) = 0.13.P(Y = 4) = 0.04.P(Y = 5) = 0.01.On vérifie: 0.35+0.24+0.23+0.13+0.04+0.01 = 1.d) F Y (0) = 0.35, F Y (1) = 0.59, F Y (2) = 0.82, F Y (3) = 0.95, F Y (4) = 0.99, F Y (5) = 1.Fonction de repartition de YF(y)0.0 0.2 0.4 0.6 0.8 1.0−1 0 1 2 3 4 5 6y7


Corrigé 39 a) On numérote les boules blanches de 1 à N . Soit X i la v.a. définie par: X i = 1 si laboule blanche numéro i a été tirée, 0 sinon.On aP{X i = 0} =P{X i = 1} =Comme X = ∑ Ni=1 X i, on en déduit que:M +N −1 +N −2.MM +N M +N −1 ... M +N −n M +N −n=M +N −n+1 M +N ,nM +N .E(X) =N∑i=1E(X i ) = NnM +N .b) On numérote les boules noires de 1 à M <strong>et</strong> <strong>pour</strong> 1 ≤ j ≤ M , on définit Y j par: Y j = 1 si la boulenoire numéro j a été tirée avant la première boule blanche, 0 sinon. Pour chaque 1 ≤ j ≤ M :P{Y j = 1} = 1N +1 .(les événements ”la boule noire numéro j est tirée avant toutes les boules blanches” <strong>et</strong> ”la boule blanchenuméro i est tirée avant toutes les autres boules blanches <strong>et</strong> avant la boule noire numéro j” sontéquiprobables). Comme X = ∑ Mj=1 Y j +1, on obtient:E(X) = 1+ MN +1 .Corrigé 40 a) On appelle X i la somme de 2 dés au i–ème j<strong>et</strong>: X i ∈ {2,...,12}. On a P(X i = 5) = 1/9<strong>et</strong> P(X i = 7) = 1/6. On appelle τ le temps d’arrêt du jeu, τ = 1,2,..., <strong>et</strong> F j = {τ = j} est l’événementque le jeu s’arrête au j–ème j<strong>et</strong>. On note que on peut ecrire l’événement F j comme[]{X j = 5 ou X j = 7}∩ ∩ j−1i=1 {X i ≠ 5 <strong>et</strong> X i ≠ 7}En utilisant cela <strong>et</strong> l’indépendance <strong>des</strong> variables X i on obtient que <strong>pour</strong> tout jP(X j = 5|F j ) = P ({X j = 5}|{X j = 5}∪{X j = 7}) =1/91/9+1/6 = 2 5 .b) Puisque le jeu va s’arrêter presque sûrement (c’est–à–dire ∑ ∞j=1 P(F j) = 1), par la formule de laprobabilité totale on arrive àP( le jeu s’arrête avec un 5 ) =c) Par définition de τ <strong>et</strong> F j on a∞∑( ) 2 ∑ ∞P(X j = 5|F j )P(F j ) = P(F j ) = 2 5 5 .j=1E(τ) =∞∑jP(F j ).Puisque que P(X i = 5 ou X i = 7) = 5/18, on voit facilement queP(F j ) =j=1(1− 5 ) j−1 ( ) 5.18 18On est donc en train de calculer l’espérance d’une loi géométrique de param<strong>et</strong>re 5/18 <strong>et</strong> on conclutE(τ) = 185 = 3.6Corrigé 41 a) X suit une loi binomiale de paramètres n <strong>et</strong> p: P{X = k} = C k np k (1−p) n−k .b) Voir cours. E(X) = np <strong>et</strong> Var(X) = np(1−p) .j=18


Corrigé 42 a) Il s’agit ici d’un tirage avec remise. La probabilité qu’une observation quelconque soitcelle d’un lion est de L/(L + T). Le nombre de lions notés dans le rapport suit une loi binomiale deparamètres n = L <strong>et</strong> p = L/(L+T). La probabilité que k lions aient été notés vautC k L+T( ) k ( ) n−k L T, k = 0,...,n.L+T L+Tb) Contrairement au a), on est ici dans le cadre d’un tirage sans remise. Le nombre de lions notésdans le rapport suit une loi hypergéométrique de paramètres L, T <strong>et</strong> n. La probabilité que k lions aientété capturés vautCL kCn−kTCL+Tn ,k = max(0,n−T),...,min(L,n).Corrigé 43 On suppose que les dates d’anniversaire sont également réparties sur l’année <strong>et</strong>, <strong>pour</strong> simplifier,qu’une année comporte 365 jours.a) La probabilité qu’une personne au hasard soit née un 1er janvier est alors de 1/365. La probabilitésque les deux époux soient nées un 1er janvier est, en supposant l’indépendance, 1/365 2 . Sur les 42800couples mariés en 2010, le nombre de ceux dont les deux époux sont nés un 1er janvier, X, suit une loibinomiale de paramètres n = 42800 <strong>et</strong> p = 1/365 2 . On a donc(P(X = 2) = C428002 1365 4 1− 1 ) 42798365 2 = 0.0374.b) La probabilité <strong>pour</strong> que les deux époux soient nés un même jour est 365 fois plus élevée que laprobabilité qu’ils soient nés un 1er janvier. Le nombre Y de couple mariés ayant leur anniversaire lemême jour suit donc une loi binomiale de paramètres n = 42800 <strong>et</strong> p = 1/365. On a donc(P(X = 2) = C428002 1365 2 1− 1 ) 42798≃ 0.365Corrigé 44 T est une variable aléatoire géométrique, sa fonction de masse est donnée parSa moyenne <strong>et</strong> variance valent (voir cours):P(T = n) = p(1−p) n−1 n ≥ 1.E(T) = 1 p , p ∈ (0,1],Var(T) = E(T 2 )− 1 p 2 = 1 p 2 − 1 p , p ∈ (0,1].(La variable T est p.s. constante si le paramètre p vaut 1.)Corrigé 45 a) Puisque∞∑∞∑P{X = i} = 1 = ci=0i=0λ ii! = ceλ ,nécessairement c = e −λ . Il s’agit de la loi de Poisson de paramètre λ.b) P{X = 0} = c λo0!= e −λ .c) P{X > 2} = 1−(P(X = 0)+P(X = 1)+P(X = 2)) = 1−e −λ (1+λ+ λ22 ) = e−λ∑ ∞i=3 λii! . d)Voir cours. E(X) = Var(X) = λ.Corrigé 46 Commençons par calculer la fonction de masse de X. Pour k entier ≥ 0 fixé, on a:P{X = k} = ∑ n≥kP{X = k|Z = n}P{Z = n}= ∑ n≥k= e −λ(pλ)kk!C k n pk (1−p) n−k e −λλnn!∑n≥kC k n (1−p)n−kλn−k n!k!(n−k)!(n−k)!9


∑= e −λ(pλ)k (1−p) n−k λ n−kk! (n−k)!n≥k= e −λ(pλ)k e (1−p)λk!= e −pλ(pλ)kk!,X est donc poissonienne de paramètre pλ .Ensuite, <strong>pour</strong> l entier ≥ 0 fixé:P{Y = l} = ∑ n≥lP{Y = l|Z = n}P{Z = n}= ∑ n≥lP{X = n−l|Z = n}P{Z = n}= ∑ n≥lC l n pn−l (1−p) l e −λλnn!= e −(1−p)λ((1−p)λ)ll!,Y est aussi poissonienne de paramètre (1−p)λ . Enfin:∀k,l , P{X = k <strong>et</strong> Y = l} = ∑ n≥0P{X = k <strong>et</strong> Y = l|Z = n}P{Z = n}= P{X = k <strong>et</strong> Y = l|Z = k +l}P{Z = k +l}= C k k+l pk (1−p) l e −λλ( k +l)l!= e −pλ(pλ)k e −(1−p)λ((1−p)λ)lk! l!,X <strong>et</strong> Y sont bien indépendantes.Corrigé 47 La fonction de masse de X est donnée par<strong>et</strong> sa FGM M X (t) vautM X (t) =P(X = n) = p(1−p) n−1 ,∞∑ ∑∞e tn p(1−p) n−1 = pe t [e t (1−p)] n−1 =n=1n=1pe t1−e t (1−p) .Le premier moment est donné par M ′ X (0), soit E(X) = 1 p .Le deuxième moment est donné par la deuxième dérivée de M X (t) évalué en t = 0 <strong>et</strong> vautE(X 2 ) = 2 p 2 − 1 p .Corrigé 48 a) Arnaud mise au tour n 100×2 n−1 CHF.b) Arnaud a perdu aux tours précédents (tours 1 à n−1)n−1∑n−2∑100×2 i−1 = 100 2 i = 100(2 n−1 −1)i=1i=0c) Si Arnaud gagne au tour n, il récupère la quantité 2×100×2 n−1 alors qu’il a investi 100×2 n−1 +100(2 n−1 −1), soit un gain absolu de 100 CHF.d) Puisque chaque tour est une expérience de Bernouilli de paramètre p, le nombre de tours N avantsuccès suit une loi géométrique de paramètre p: P(N = n) = p(1−p) n .10


e) Soit Y: le montant investi au dernier pari. Y = 100 × 2 N−1 où N est la variable aléatoire dunombre de tour avant succès. On aE(Y) =∞∑∞∑(100×2 n−1 )P(N = n) = (100×2 n−1 )p(1−p) nn=1= 100p∞∑{2(1−p)} n−1 =n=1n=1{ 100p2(1−p)si p > 1/2∞ si p ≤ 1/2Si p ≤ 1/2 il faut être en moyenne infiniment riche <strong>pour</strong> pouvoir suivre c<strong>et</strong>te stratégie! Si p > 1/2, unefortune finie sera en moyenne suffisante.Corrigé 49 Le nombre d’erreurs d’impression X dans une page déterminée est distribué B(n = 450,p =1/350), d’où2∑( ) i ( ) 450−i 1 349P(X ≥ 3) = 1−P(X ≤ 2) = C450i ≃ 0,14.350 350i=0On peut aussi faire l’approximation de c<strong>et</strong>te binomiale par une loi de Poissonde paramètreλ = np ≃ 1.29<strong>et</strong> on obtient alorsP(X ≥ 3) = 1−P(X ≤ 2) = 1−e −λ( 1+λ+λ 2 /2 ) ≃ 0,14.Corrigé 50 a) Par calcul direct: <strong>pour</strong> k entier ≥ 0 :P{Z = k} = ∑ kl=0= ∑ kl=0= e −(λ1+λ2)∑ k= e−(λ 1 +λ 2 )k!Z est encore poissonienne, de paramètre (λ 1 +λ 2 ) .Or:b) Rappelons que <strong>pour</strong> tout t réel,P{X = l <strong>et</strong> Y = (k −l)}P{X = l}P{Y = (k −l)}l=0∑ kl=0λ 1ll!(k−l)λ 2(k−l)!k!×λ1ll!= e −(λ1+λ2) (λ 1+λ 2) kk!,λ 2(k−l)(k−l)!M Z (t) = E[e tZ ] = E[e tX e tY ] = E[e tX ]E[e tY ] (par ind.) .M X (t) = e −λ1 ∞ ∑k=0e tkλ 1 kk!= e −λ1 e λ1<strong>et</strong> = exp(λ 1 (e t −1)) .Ainsi: M Z (t) = exp(λ 1 (e t −1))exp(λ 2 (e t −1)) = exp((λ 1 +λ 2 )(e t −1)),on r<strong>et</strong>rouve le fait que Z est poissonienne de paramètre (λ 1 +λ 2 ).Corrigé 51 Soit X la variable aléatoire de la taille d’un homme âgé de 25 ans.P(X > 185) ≃ 4,78%<strong>et</strong>P(X > 192|X > 180) =P(X > 192)P(X > 180) ≃ 1,14%.Corrigé 52 Soit X le nombre de kilomètres couverts par une batterie de voiture avant défaillance.X ∼ E(λ) avec λ = 1/10000.P(X > 5000) =∫ ∞5000λe −λx dx = e −λ5000 = e −1 2 .Corrigé 53 Il faut d’abord calculer c. Pour que f soit une densité on doit avoir ∫ +∞f(x)dx = 1,−∞c’est–à–dire1c = ∫ ∞xexp(−x/2)dx .011


On fait une intégration par parties <strong>et</strong> on obtient∫ ∞0xexp(−x/2)dx = −2xexp(−x/2) ∣ ∫ ∞∞ 0 +2 exp(−x/2)dx = 4,donc c=1/4. Par conséquent la probabilité que le système fonctionne au moins 5 mois est égale à∫ ∞5x4 exp(−x/2)dx = −exp(−x/2)∣ ∣ ∞ 5 − 1 2 xexp(−x/2)∣ ∣ ∞ 5 = e−5/2 + 5 2 e−5/2 ≃ 0.287.Corrigé 54 On doit trouver a tel que ∫ ∞−∞f(x)dx = 1. Donca =1∫ ∞0x 2 exp(−bx 2 )dx .0Si on fait le changement de variable y/ √ 2b = x on obtient∫ ∞0( ) 3 ∫ 1 ∞x 2 exp(−bx 2 )dx = √ y 2 exp(−y 2 /2)dy =2b0( ) 3√ ∫ 1 2π +∞√ ×2b 2 −∞y 2√2πexp(−y 2 /2)dy.La dernière intégrale est égale à 1 (c’est la variance d’une variable normale standard) <strong>et</strong> doncCorrigé 55<strong>et</strong> commeE(X) =∫ ∞−∞∫x 0π(1+x 2 ) dx =∫ ∞0a = 4 √ πb 3/2 .−∞∫x ∞π(1+x 2 ) dx+ xπ(1+x 2 ) dx.xπ(1+x 2 ) dx = 12π ln( 1+x 2) | ∞ 0 = ∞,diverge, on en déduit que X n’adm<strong>et</strong> pas d’espérance mathématique.Corrigé 56 a) On calculeΓ(α) =∫ ∞0e −y y α−1 dx = −e −y y α−1 | ∞ 0 +(α−1)Γ(α−1) = (α−1)Γ(α−1) (α > 1).Puisque Γ(1) = 1, on en déduit que, <strong>pour</strong> n un nombre entier ≥ 1, Γ(n) = (n−1)!.b) On aE(X) = λαΓ(α)∫ ∞0∫ ∞x α e −λx dx = λα y α Γ(α+1)Γ(α) 0 λ αe−y1 dy = = α λ λΓ(α) λ .Corrigé 57 Soit P l’événement “la pièce ach<strong>et</strong>é est pirate”. On a alors0On en déduit queπ(t) = P(P|T > t) ===P(T > t|P)P(P)P(T > t)14 e−5t14 e−5t + 3 4 e−2t11+3e 3tlim π(t) = lim P(P|T > t) = 0.t→∞ t→∞Corrigé 58 La fonction génératrice <strong>des</strong> moments est définie par M X (t) = E(e tX ). AinsiE(Y) = E(e X ) = M X (1) = exp(1/2),E(Y 2 ) = E(e 2X ) = M X (2) = exp(2),Var(Y) = E(Y 2 )−(E(Y)) 2 = exp(2)−exp(1).12


Corrigé 59 a) X <strong>et</strong> Y étant <strong>des</strong> durées de vie, on utilise la loi exponentielle. D’après l’énoncé, X suitune loi exponentielle de paramètre 1 <strong>et</strong> Y une loi exponentielle de paramètre 2.doncb) On aF X (t) =∫ t−∞f X (t) ={ e −t si t ≥ 00 sinon{ 1−ef X (x)dx =−t si t ≥ 00 sinon{ 2e<strong>et</strong> f Y (t) =−2t si t ≥ 00 sinon{ 1−e<strong>et</strong> F Y (t) =−2t si t ≥ 00 sinonc) F T (x) = P(T ≥ x) = P([X ≥ x]∩[Y ≥ x]). X <strong>et</strong> Y étant indépendantes, on aF T (x) = P(X ≤ x)P(Y ≤ x) = F X (x)F Y (x){ (1−e=−x )(1−e −2x ) = 1−e −x −e −2x +e −3x si x ≥ 00 sinond)F S (x) = P(T ≤ x) = P([X ≤ x]∪[Y ≤ x]) = 1−P([X > x]∩[Y > x]). X <strong>et</strong>Y étantindépendantes,on aF S (x) = 1−P([X > x])P([Y > x]) = 1−(1−F X (x))(1−F Y (x)){1−e=−x e −2x = 1−e −3x si x ≥ 00 sinone) On cherche P(X > x|S ≤ x). On aP(X > x|S ≤ x) =f) On cherche P(T > t|X ≤ x). On aP(X > x∩S ≤ x)P(S ≤ x)= (1−F X(x))F Y (x)F S (x)P(T > t∩X ≤ x)P(T > t|X ≤ x) =P(X > x)= (1−F Y(t))F X (x)F X (x)Corrigé 60 Tout d’abord remarquons queMais P(X 1 ≥ t) = e −tλ . D’où=P(X > x∩Y ≤ x)P(S ≤ x)= e−x (1−e −2x )1−e −3x=P(Y > t∩X ≤ x)P(X ≤ x)= 1−F Y (t) = e −2t .P(min(X 1 ,...,X n ) ≥ t) = P(X 1 ≥ t,...,X n ≥ t) = P(X 1 ≥ t) nP(min(X 1 ,...,X n ) ≥ t) = e −tnλOn en déduit que min(X 1 ,...,X n ) est une variable aléatoire exponentielle de paramètre λn.Corrigé 61 On regarde <strong>pour</strong> y ∈ RP(Y ≤ y) =∫ y−∞f Y (z)dz.Du fait que la fonction logarithme soit inversible (elle est strictemement croissante), on peut écrireP(Y ≤ y) = P(logX ≤ y) = P{X ≤ exp(y)} =On fait le changement de variable z = logx <strong>et</strong> on obtientP(Y ≤ y) =∫ y−∞exp(z)exp{−exp(z)}dz =∫ y−∞∫ exp(y)0exp(−x)dx.exp{z −exp(z)}dz,d’oùf Y (z) = exp{z −exp(z)}.13


Corrigé 62 Tout d’abord nous calculerons la loi de Y. C’est-à-dire,P(Y ≥ x) = P(X ≥ lnx) = √ 1 ∫ ∞e −y2 2 dy 2π=∫1 ∞√2πxe −(lny)2 2où dans la dernière égalité on a fait le changement de variable y → lny ′ . On en déduit que la densité dela loi de Y est{√1f(y) = 2πe −(lny)2 1 2ysi y ≥ 00 si y < 01y dyCorrigé 63 a) Soit f(x) la densité de X <strong>et</strong> f(y) la densité de Y. Remarquons quef(y) =∫ ∞0f(x,y)dx = xe−x(1+y)−(1+y)∣∞0lnx∣+ e−x(1+y) ∣∣∣∞−(1+y) 2On en déduit que Y a une loi donnée par P(Y < a) = a1+a. D’autre part,f(x) =∫ ∞0f(x,y)dy = e −x0=1(1+y) 2On en déduit que X est une variable aléatoire exponentielle de paramètre 1. X <strong>et</strong> Y ne sont pasindépendantes parce que f(x,y) ≠ f(x)f(y).b) Soit f(x) la densité de X <strong>et</strong> f(y) la densité de Y. Remarquons queD’autre part,f(x) =f(y) =∫ 1−x0∫ 1−y0f(x,y)dy = 60x∫ 1−x0y 2 dy = 20x(1−x) 3∫ 1−yf(x,y)dx = 60y 2 xdx = 30y 2 (1−y) 2X <strong>et</strong> Y ne sont pas indépendantes parce que f(x,y) ≠ f(x)f(y).Corrigé 64 On a <strong>pour</strong> tout réel z :PuisCorrigé 65 a) On aF Z (z) = F X (z)F Y (z),F˜Z(z) = 1−(1−F X (z))(1−F Y (z)) = F X (z)+F Y (z)−F X (z)F Y (z).f Z (z) = f X (z)F Y (z)+F X (z)f Y (z),f˜Z(z) = f X (z)(1−F Y (z))+f Y (z)(1−F X (z)).∫ t∀t ≥ 0, P{Z ≤ t} = λ 1 λ 2 e −λ1u {b) Rappelons que:0∫ t−u00e −λ2v dv}du∫ t= λ 1 e −λ1u (1−e −λ2(t−u) )du0∫ t= (1−e −λ1t )−λ 1 e −λ2t e (λ2−λ1)u du0{ (1−e−λ 1t )+ λ1=λ 1−λ 2(e −λ1t −e −λ2t ) si λ 1 ≠ λ 21−(1+λt)e −λt si λ 1 = λ 2 = λ∀t ∈ R, M Z (t) = E[e tZ ] = E[e tX e tY ] = E[e tX ]E[e tY ] (par ind.) .14


Dans le cas d’une variable exponentielle:d’où:∀t < λ 1 , M X (t) =∫ +∞0λ 1 e −λ1u e tu du = λ 1λ 1 −tλ 2∀t < min(λ 1 ,λ 2 ), M Z (t) = λ 1λ 1 −tλ 2 −tc) On déduit du b) que si λ 1 = λ 2 , Z est une variable Gamma de paramètres α = 2 <strong>et</strong> λ..,Corrigé 66 a) On a<strong>pour</strong> −1 ≤ x ≤ 1. De mêmef(x) =∫ √ 1−x 21− √ 1−x π dy = 2 √1−x2 ,π 2g(y) = 2 π√1−y2 ,<strong>pour</strong> −1 ≤ y ≤ 1. X <strong>et</strong> Y ne sont pas indépendantes car h(x,y) ≠ f(x)g(y).b) Cov(X,Y) = 0 par symétrie.Corrigé 67 On utilisef Z (z) =∫ ∞−∞f X (x)f Y (z −x)dxavec ici f X (x) = f Y (y) = 1 si 0 ≤ x ≤ 1 <strong>et</strong> nulle sinon. On a doncIl y a plusieurs cas à considérer:f X (x)f Y (z −x) = 1 si 0 ≤ x ≤ 1 <strong>et</strong> z −1 ≤ x ≤ z, 0 sinon.• Si z > 2 ou z < 0, alors {0 ≤ x ≤ 1}∩{z −1 ≤ x ≤ z} est vide <strong>et</strong> f Z (z) = 0.• Si 0 ≤ z ≤ 1, alors {0 ≤ x ≤ 1}∩{z −1 ≤ x ≤ z} = {0 ≤ x ≤ z} <strong>et</strong> f Z (z) = z.• Si 1 ≤ z ≤ 2, alors {0 ≤ x ≤ 1}∩{z−1 ≤ x ≤ z} = {z−1 ≤ x ≤ 1} <strong>et</strong> f Z (z) = 1−(z−1) = 2−z.On r<strong>et</strong>rouve bien la densité voulue.Corrigé 68 a) Comme X est une variable aléatoire positive, par l’inégalité de Markov,:P{X > 85} ≤ E( X 85 ) = 7585 ≃ 0,88.b)Laconnaissancedu2ièmemomentdeX perm<strong>et</strong>d’améliorerlamajorationprécédente,parl’inégalitéde Chebyshov:On a aussi:P{X > 85} = P{X 2 > 85 2 } ≤ 185 2E(X2 ) = σ2 +E(X) 285 2 = 25+75285 2 ≃ 0,78.P{65 ≤ X ≤ 85} = P{|X −E(X)| ≤ 10} = 1−P{|X −E(X)| > 10} ≥ 1− σ210 2 = 3/4.c) Puisque les notes de chacun <strong>des</strong> n étudiants sont <strong>des</strong> variables indépendantes, leur moyennearithmétiqueX n = 1 n∑X knest encore d’espérance 75, <strong>et</strong> sa variance vaut 1 n 2 (n.25) = 25/n. On a ensuite:P{|X n −E(X n )| ≤ 5} = 1−P{|X n −E(X n )| > 5} ≥ 1− 25/n25 = n−1n ,avec 10 étudiants notre probabilité vaut au moins 0,9 .k=115


Corrigé 76 a) Avec n mesures, l’intervalle de confiance à (1−α) = 90% <strong>pour</strong> m est:[X n − σ √ nz 1−α/2 ;X n + σ √ nz 1−α/2 ](X n étant la moyenne arithmétique <strong>des</strong> n mesures). L’IC a <strong>pour</strong> longueur2(σ/ √ n)z 1−α/2 . Pourdiminuerde moitié la longueur de c<strong>et</strong> intervalle, il faut donc quadruplerle nombre de mesures effectuées, autrementdit effectuer 75 mesures supplémentaires.b) Soit α = 0,1 <strong>et</strong> α ′ = 0,05, Pour obtenir un intervalle de confiance à 95% <strong>pour</strong> m ayant la mêmelongueurquel’ICà90%,ilfautdoncunnombren ′ demesuresquisoittelque: √ √n ′ n×z1−α ′≃/2z 1−α/2≃ 5,958,soit n ′ = 35.5, donc 11 mesures supplémentaires.Corrigé 77 a) On sait que:√6(ˆmX−m 1)ˆσ Xsuit une loi de Student à 5 degrés de liberté. On a ensuite:P{ˆm X −a ≤ m 1 ≤ ˆm X +a} = P{|ˆm X −m 1 | ≤ a}= P{m 1 −a ≤ ˆm X ≤ m 1 +a}√ √ √6 6 6= P{−a ≤ (ˆm X −m 1 ) ≤ a }.ˆσ X ˆσ X ˆσ XC<strong>et</strong>te probabilité vaut 0,95 si: a √ 6ˆσ X≃ 2,57. Ici: ˆσ x ≃ 1,673, on obtient donc: a ≃ 1,756, puisDe même,√12(ˆmY −m 2)ˆσ YI x = [47,44;50,96].suit une loi de Student à 11 degrés de liberté, la probabilité P{ˆm Y −a ′ ≤ m 2 ≤ˆm Y +a ′ } vaut donc 0,95 <strong>pour</strong> √ 12ˆσ Y.(a ′ ) ≃ 2,2, ainsiI y = [47,29;49,51].b) √ 6( ˆmX−m1σ 1) suit une loi normale centrée réduite, <strong>et</strong>:√6P{|ˆm X −m 1 | ≤ a} = P{−a≤ √ 6( ˆm X −m 1) ≤ aσ 1 σ 1√6σ 1},vaut 0,95 <strong>pour</strong> a √ 6σ 1≃ 1,96, i.e.: a ≃ 1,265. Le nouvel intervalle de confiance à 95% <strong>pour</strong> m 1 est doncJ x = [47,935;50,465].Pour le deuxième échantillon, les calculs donnent: a ′ ≃ 1,962≃ 0,98, <strong>et</strong> le nouvel intervalle de confiance à95% <strong>pour</strong> m 2 est doncJ y = [47,42;49,38].c) (ˆm X − ˆm Y ) est encore normale, d’espérance (m 1 −m 2 ) <strong>et</strong> de variance: σ1 2/6+σ2 2 /12 = 2/3,I = [(49,2−48,4)−1,64. √ 2/3;(49,2−48,4)+1,64. √ 2/3] = [−0,54;2,14]fournit donc un intervalle de confiance à 90% <strong>pour</strong> la différence (m 1 −m 2 ).Corrigé 78 a) On a:ˆm =S 2 =1(9×2001+21×2003+...+3×2023) ≃ 2010,73,10001999 (9×(2001−2010,73)2 +21×(2003−2010,73) 2 +...+3×(2023−2010,73) 2 ) ≃ 12,81.b) Soit Z une variable N(0;1). On a: P{Z > 1,96} ≃ 0,025,P{Z > 2,58} ≃ 0,005 . L’intervalle deconfiance à 95% <strong>pour</strong> la moyenne m est donc:[ˆm− 1,96×S √1000; ˆm+ 1,96×S √1000] ≃ [2010,51;2010,95].L’intervalle de confiance à 99% <strong>pour</strong> la moyenne m est:[ˆm− 2,58×S √1000; ˆm+ 2,58×S √1000] ≃ [2010,44;2011,02].18


Corrigé 85 a) La densité de la loi uniforme U(0,b) estf(x) = 1 b<strong>pour</strong> 0 ≤ x ≤ b.La vraisemblance estL(b) = 1b n <strong>pour</strong> 0 ≤ X 1,...,X n ≤ bqui atteint son maximum lorsque b est le plus p<strong>et</strong>it possible, i.e. lorsque b est égal à la plus grande <strong>des</strong>x i . L’estimateur de maximum de vraisemblance de b est donc ˆb = max n i=1 X i.b) La statistique du rapport de vraisemblance estW(b) = 2{logL(ˆb)−logL(b)} = −2n{log( maxnX i)−logb} ∼ χ 2 1 , n grand,b ≥ maxnX i.i=1 i=1c) On a alorsW(b) = 40{log(b)−log(2.76)}, b > 2.76.On obtient à partir de W un intervalle de confiance de b au seuil (1−α):F X1 (x) =I W 1−α = {b : W(b) ≤ c 1 (1−α)}= {b : log(b)−log(2.76) ≤ c 1(1−α),b ≥ 2.76}40= {b : 2.76 ≤ b ≤ 2.76×exp( c 1(1−α))}40= [2.76,2.95].Corrigé 86 a) En notant U a (resp. U b ): “X 1 provient provient de la loi uniforme sur [0,a]”, on a⎧⎨=<strong>et</strong> la fonction de densité est⎩⎧⎪⎨⎪⎩0 si x < 0P(X 1 ≤ x|U a )P(U a )+P(X 1 ≤ x|U b )P(U b ) si 0 ≤ x ≤ b1 si x > b0 si x < 0p x a +(1−p)x b si 0 ≤ x ≤ ap+(1−p) x b si a ≤ x ≤ b1 si x > b⎧0 si x < 0⎪⎨ pf X1 (x) = a + (1−p)bsi 0 ≤ x ≤ a(1−p)⎪⎩ bsi a ≤ x ≤ b0 si x > bb) Les variables étant supposées indépendantes, chacune <strong>des</strong> X i appartiendra à l’intervalle [0,a] avecla probabilité F X1 (a). Ainsi N a suit la loi binomiale de paramètre n <strong>et</strong> ˜p = p+ (1−p)ab. Son espérance estn˜p <strong>et</strong> sa variance n˜p(1− ˜p).c) La vraisemblance <strong>pour</strong> p est( pL(p) =a + 1−p ) Na( ) n−Na 1−pb b<strong>et</strong> en dérivant par rapport à pd’où on tire∂logL(p)∂pCorrigé 87 On a{E (X − a+b } {n∑2 )2 = E (b−a= N apb+(1−p)a −(n−N 1a)1−p ,i=1ˆp = N ab−na.b−a}X in − a+b2n )2 =n∑i=1{E ( X in − a+b }2n )2 = (b−a)212n(la variance d’une somme de variables indépendantes centrées vaut la somme de leurs variances <strong>et</strong> X i /nest de loi uniforme sur [ a n , b (b−a)2n], donc de variance12n). 221


Corrigé 88 a) On a E(¯T) = θ/2 <strong>et</strong> Var(¯T) = θ212n donc E(θ 1) = θ <strong>et</strong> Var(θ 1 ) = θ23n → 0.b) P(M n < m) = P(T 1 < m <strong>et</strong> T 2 < m... <strong>et</strong> T n < m), donc⎧⎨ (m/θ) n si m ∈ [0,θ]P(M n < m) = 1 si m > θ⎩0 si m ≤ 0Par intégration, E(M n ) = nθn+1 <strong>et</strong> E(M2 n ) = nθ2n+2 donc Var(M n) =nθ 2(n+2)(n+1) 2 .c) On prend θ 2 = n+1n M n. On a E(θ 2 ) = θ <strong>et</strong> Var(θ 2 ) = θ2n(n+2)→ 0 quand n → ∞.d) Puisque la variance de θ 2 est plus faible que la variance de θ 1 (donc risque quadratique plus faible),il est préférable d’utiliser θ 2 .<strong>et</strong>e) M n <strong>et</strong> θ 2 convergent vers θ en probabilité car:∀ǫ > 0, P{|M n −θ| > ǫ} = P{(θ−M n ) > ǫ} = ( θ −ǫ ) n −→ 0θP{|ˆθ 2 −θ| > ǫ} = P{|M n − nn+1 θ| > nn+1 ǫ} = P{M n < nn+1 (θ−ǫ)}+P{M n > n (θ+ǫ)} −→ 0.n+1Corrigé 89 a) La loi a posteriori s’écritb) La densité a posteriori s’écritqui est maximale lorsquesoit l’estimateur du maximum a posteriorif(θ|t) ∝ f(t|θ)f(θ) ∝ θe −θ(λ+t) .f(θ|t 1 ,...,t n ) ∝ θ n e −θ(λ+∑ ni=1 ti)nθ n−1 −θ n (λ+ˆθ MAP =Corrigé 90 a) D’après l’énoncé, la loi a priori de p est)n∑t i = 0i=1nλ+ ∑ ni=1 T iP(p = 0.05) = P(p = 0.1) = 0.5.Pour p fixé, X suit une loi binomiale de paramètres n = 20 <strong>et</strong> p:b) D’après la formule <strong>des</strong> proabilités totales,P(X = k|p) = C k n pk (1−p) n−k .P(X = 3) = P(X = 3|p = 0.05)P(p = 0.05)+P(X = 3|p = 0.1)P(p = 0.1)= 0.0596×0.5+0.1901×0.5 = 0.1249.c) Parmi les 20 composants, 3 composants ont été détectés comme défecteux. Les probabilités aposteriori de p = 0.05 <strong>et</strong> p = 0.1 sont, d’après le théorème de Bayes,P(p = 0.05|X = 3) =P(p = 0.1|X = 3) =P(X = 3|p = 0.05)P(p = 0.05)P(X = 3)P(X = 3|p = 0.1)P(p = 0.1)P(X = 3)= 0.0596×0.50.1249= 0.1901×0.50.1249= 0.2386= 0.7614Il est a posteriori trois fois plus probable que 10% <strong>des</strong> composants soient défectueux, plutôt que 5%.d) L’espérance a posteriori de p estE(p|X = 3) = 0.05×P(p = 0.05|X = 3)+0.1×P(p = 0.1|X = 3) = 0.0881.22


La variance a posteriori de p estVar(p|X = 3) = E(p 2 |X = 3)−{E(p|X = 3)} 2= 0.05 2 ×P(p = 0.05|X = 3)+0.1 2 ×P(p = 0.1|X = 3)−{E(p|X = 3)} 2= 0.0004e) Lamoyennea posterioride pn’est ni en accordaveclechefde production(qui affirmeque p = 0.05),ni en accord avec l’inspecteur (qui estime que p = 0.1). Néanmoins, la valeur donnée par l’inspecteur estla plus proche de la moyenne a posteriori.Corrigé 91 a) Le pari au hasardcorrespond à q = 1/2. Le pari “visionnaire“(Paul ne se trompe jamais)correspond à q = 1.b) On note X le nombre de prédictions réussies. Pour q fixé, X suit une loi binomiale de paramètresn = 8 <strong>et</strong> q:P(X = k|q) = C k 8q k (1−q) n−kDans le cas du pari au hasard, q = 1/2 <strong>et</strong> P(X = 8|q = 1/2) = 1/2 8 = 1/256= 0.0039.Dans le cas du pari visionnaire, q = 1 <strong>et</strong> P(X = 8|q = 1) = 1.c) D’après l’énoncé, q peut prendre les deux valeurs 1/2 <strong>et</strong> 1 avec les probabilités a priori P(q =1) = 0.01 <strong>et</strong> P(q = 1/2) = 0.99. Les données dont on dispose correspondent à 8 bonnes prédictions,c’est-à-dire à l’événement “X = 8”. On a alors d’après la formule de Bayes,P(q|X = 8) =P(X = 8|q)P(q)P(q)=P(X = 8|q)P(q)P(X = 8|q = 1)P(q = 1)+P(X = 8|q = 0)P(q = 0) .D’où la loi a posterioriP(q = 1|X = 8) =P(q = 1/2|X = 8) =1×0.011×0.01+1/256×0.99 = 0.72111/256×0.991×0.01+1/256×0.99 = 0.2789.On en déduit que, sachant que Paul a fait 8 prédictions avec succès, il y a 72% de chance (environ 2chances sur trois) que Paul soit visionnaire. Il est à noter que ce chiffre n’est pas extraordinairementélevé: il y a en fait une chance sur trois que Paul ait juste eu de la chance...23

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!