13.07.2015 Views

COURS DE PROBABILITE 2i`eme année d'économie et de gestion ...

COURS DE PROBABILITE 2i`eme année d'économie et de gestion ...

COURS DE PROBABILITE 2i`eme année d'économie et de gestion ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>COURS</strong> <strong>DE</strong> <strong>PROBABILITE</strong>2ième année d’économie <strong>et</strong> <strong>de</strong> <strong>gestion</strong>,semestre 2Laurence GRAMMONTLaurence.Grammont@univ-st-<strong>et</strong>ienne.frApril 2, 2004


Contents1 Lois discrètes usuelles 51.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2 Schéma <strong>de</strong> Bernoulli . . . . . . . . . . . . . . . . . . . . . . . 61.3 Schéma Binomial . . . . . . . . . . . . . . . . . . . . . . . . . 71.4 Schéma hypergéométrique . . . . . . . . . . . . . . . . . . . . 101.5 Loi géométrique <strong>et</strong> loi <strong>de</strong> Pascal . . . . . . . . . . . . . . . . . 121.6 Loi <strong>de</strong> Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Couple <strong>de</strong> variables aléatoires discrètes 192.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.1.1 Loi <strong>de</strong> probabilité conjointeLois <strong>de</strong> probabilité marginales . . . . . . . . . . . . . . 202.2 Fonction <strong>de</strong> répartition d’un coupleFonctions <strong>de</strong> répartition marginales . . . . . . . . . . . . . . . 212.3 Loi <strong>de</strong> probabilité conditionnelleEspérance conditionnelle . . . . . . . . . . . . . . . . . . . . . 222.3.1 Corrélation linéaire . . . . . . . . . . . . . . . . . . . . 232.4 Indépendance stochastique . . . . . . . . . . . . . . . . . . . . 232.5 Equation d’analyse <strong>de</strong> la variance . . . . . . . . . . . . . . . . 252.6 Fonction <strong>de</strong> 2 variables aléatoires discrètes . . . . . . . . . . . 262.6.1 Espérance-Variance . . . . . . . . . . . . . . . . . . . . 262.6.2 Calcul <strong>de</strong> la covariance . . . . . . . . . . . . . . . . . . 263 Couple <strong>de</strong> variables aléatoirescontinues 293.1 Fonction <strong>de</strong> répartition du couple (X, Y )Fonction <strong>de</strong> répartition marginale . . . . . . . . . . . . . . . . 293


4 CONTENTS3.2 Fonction <strong>de</strong>nsité conjointeFonctions <strong>de</strong>nsité marginales . . . . . . . . . . . . . . . . . . . 303.3 Variables conditionnelles . . . . . . . . . . . . . . . . . . . . . 343.3.1 Indépendance en probabilitécovariance-coéfficient <strong>de</strong> corrélation . . . . . . . . . . . 363.3.2 Fonction <strong>de</strong> 2 variables aléatoires . . . . . . . . . . . . 384 Loi Normale ou loi <strong>de</strong> Laplace - Gauss - Généralités 394.1 Définition mathématique . . . . . . . . . . . . . . . . . . . . . 394.2 Calculs <strong>de</strong> probabilité . . . . . . . . . . . . . . . . . . . . . . . 414.2.1 Calculs à partir <strong>de</strong> N (0, 1) : U . . . . . . . . . . . . . . 414.2.2 Loi Normale qq N (µ, σ) . . . . . . . . . . . . . . . . . 435 Condition d’application <strong>de</strong> la loi normale 475.1 Convergence <strong>de</strong>s variables aléatoires . . . . . . . . . . . . . . . 475.1.1 Convergence en loi . . . . . . . . . . . . . . . . . . . . 475.1.2 Convergence en probabilité . . . . . . . . . . . . . . . . 485.2 Loi faible <strong>de</strong>s grands nombres . . . . . . . . . . . . . . . . . . 495.3 Théorème central-limit . . . . . . . . . . . . . . . . . . . . . . 505.4 Approximation d’une loi B(n, p) . . . . . . . . . . . . . . . . . 505.5 Approximation d’une loi <strong>de</strong> Poisson . . . . . . . . . . . . . . . 525.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


Chapter 1Lois discrètes usuelles1.1 IntroductionOn a un phénomène aléatoire que l’on veut comprendre. Ce phénomènealéatoire est a priori complexe <strong>et</strong> on ne peut calculer directement les probabilités<strong>de</strong> ses éventualités.ex : comprendre la dépense annuelle <strong>de</strong>s ménages français pour les loisirs.Par exemple, calculer la probabilité qu’ils dépensent 5 000 F par an. Ondisposed’une population pour laquelle le modèle est <strong>de</strong>stiné,d’un individu <strong>et</strong>d’un caractère étudié (représenté par une variable aléatoire X).Que fait-on ?1 - Pour avoir une première idée du phénomène représenté par une variablealéatoire X, on peut faire plusieurs observations <strong>de</strong> X.ex : X = dépense annuelle pour les loisirs d’un ménage (variable aléatoireattachée à un individu). On <strong>de</strong>man<strong>de</strong> à un certain nombre <strong>de</strong> ménages sesdépenses annuelles en loisirs. On a donc la valeur <strong>de</strong> X i . X i étant la dépenseannuelle pour le ménage i.C<strong>et</strong>te suite d’observation débouche sur la définition d’une variable statistique5


6 CHAPTER 1. LOIS DISCRÈTES USUELLESx souvent décrite <strong>de</strong> la manière suivante :valeurs <strong>de</strong> xx ifréquencesn iOn étudie c<strong>et</strong>te variable statistique à l’ai<strong>de</strong> <strong>de</strong>s techniques <strong>de</strong>s statistiques<strong>de</strong>scriptives (1 ere année)2 - Il y a quelques lois <strong>de</strong> probabilité ou lois théoriques qui décrivent assezbien un grand nombre <strong>de</strong> phénomènes aléatoires. On veut représenter lephénomène aléatoire par une loi <strong>de</strong> probabilité théorique. C<strong>et</strong>te modélisationest évi<strong>de</strong>mment plus riche que la représentation par une variable statistique: ici on peut calculer la probabilité <strong>de</strong> tout événementassocié au phénomènealéatoire. Dans ce chapitre, nous allons fournir un catalogue <strong>de</strong> lois <strong>de</strong> probabilitédiscrètes (<strong>de</strong>scription, étu<strong>de</strong>) souvent utiles en pratique.Le statisticien plus chevroné construira ses propres modèles théoriques.3 - Après le choix d’un modèle théorique se pose la question suivante : peut-onquantifier l’approximation du phénomène aléatoire par le modèle théorique.1.2 Schéma <strong>de</strong> BernoulliToute épreuve n’ayant que 2 résultats possibles peut-être considérée commeune situation d’alternative.En d’autres termes, les 2 résultats possibles sont complémentaires l’un <strong>de</strong>l’autre.Il s’agit d’une situation fréquente dans la pratique dès que l’on cherche àm<strong>et</strong>tre en évi<strong>de</strong>nce un caractère particulier au sein d’une population :tout individu <strong>de</strong> c<strong>et</strong>te population peut être décrit selon une alternative : soitil présente ce caractère, soit il ne le présente pas.Exemple : Etu<strong>de</strong> <strong>de</strong> l’impact d’une campagne publicitaire pour un nouveauproduit.Q1 : Est-ce que l’individu possédait ce produit auparavant ?Q2 : L’individu a-t-il été touché par la campagne ?Q3 : La campagne a-t-elle induit l’achat ?


1.3.SCHÉMA BINOMIAL 7Souvent les résultats possibles sont <strong>de</strong>s obj<strong>et</strong>s qualitatifs. Pour les quantifier,il faut leur trouver un codage.On définit ainsi une v.a. X dites <strong>de</strong> Bernoulli (savant suisse 1654-1705) par0 11 − p pDéfinitionOn réalise une expérience aléatoire qui a 2 résultats possibles : le succès S, <strong>de</strong> probabilité. p,<strong>et</strong> l’Echec{E <strong>de</strong> probabilité 1 − p. La v.a1 si succès est une v.a. <strong>de</strong> BernoulliX :0 si échecMo<strong>de</strong>p > q Mo<strong>de</strong> = 1p < q Mo<strong>de</strong> = 0Médianep > q ⇒ q < 1/2 Me = 1p < q ⇒ q > 1/2 Me = 0PropriétéE(X) = pV (X) = p(1 − p)Remarque :La v.a. <strong>de</strong> Bernoulli est une v.a. indicatrice : elle indique la réalisationéventuelle <strong>de</strong> l’événement<strong>de</strong> probabilité p. Le shéma <strong>de</strong> Bernoulli est le plussimple <strong>de</strong>s modèles probabilistes.1.3 Schéma BinomialC’est une succession d’épreuves <strong>de</strong> Bernoulli (n) indépendantes.Définition :


8 CHAPTER 1. LOIS DISCRÈTES USUELLESOn réalise n fois successivement <strong>et</strong> d’une manière indépendante une expérience aléatoirequi a 2 résultats possibles, S (succès) <strong>de</strong> probabilité p <strong>et</strong> E (échec) <strong>de</strong> probabilité 1 − pX = nombre <strong>de</strong> succès obtenus est une v.a. binomiale <strong>de</strong> paramètre n <strong>et</strong> p.Notation B(n, p).Remarque :On peut également la définir comme une somme <strong>de</strong> v.a. <strong>de</strong> Bernoulli.A chaque épreuve i, on associe la v.a. <strong>de</strong> Bernoulli X iX =n∑X i .i=1Loi <strong>de</strong> probabilité X ∼ B(n, p)X(Ω) = {0, . . . , n}P (X = k) = Cn k p k (1 − p) n−k ∀k ∈ X(Ω)n : nb d’épreuves,k : nb <strong>de</strong> S (succès),p : probabilité du succès.PropriétésE(X) = np∥ V (X) = np(1 − p)PropriétéSiX 1 ∼ B(n 1 , p) <strong>et</strong> X 2 ∼ B(n 2 , p)avecX 1 , X 2 indépendantes, alorsX 1 + X 2 ∼ B(n 1 + n 2 , p)Preuve : somme <strong>de</strong> v.a Benouilli.Il y a <strong>de</strong>s tables pour éviter <strong>de</strong> calculer les probabilités d’ événements liés àla loi binomiale. On peut également, dans certains cas, approximer B(n, p)par une autre loi.Exercice :Une machine à embouteiller peut tomber en panne. La probabilité d’unepanne à chaque emploi est <strong>de</strong> 0,01. La machine doit être utilisée 100 fois.


1.3.SCHÉMA BINOMIAL 9Soit X= nb <strong>de</strong> pannes obtenues après 100 utilisations.1) Quelle est la loi <strong>de</strong> X ?Calculer P (X = 0) ; P (X = 1) ; P (X ≥ 4).2) On estime le coût d’une réparation à 500 F.Y : dépense pour les réparations après 100 utilisations.Exprimer Y en fonction <strong>de</strong> X <strong>et</strong> calculer E(Y ) V (Y ).Solution :1) X ∼ B(100, 0, 01) ; P (X = 0) = C 0 100(0, 01) 0 0, 99 100 = 0, 366P (X = 1) = C 1 1000, 01 0, 99 99 = 100 × 0, 01 × 0, 99 99 = 0, 377P (X ≥ 4) = 1 − (. . .) = 0, 0612) Y = 500XE(Y ) = 500 E(X) = 500 × 100 × 0, 01 = 500V (Y ) = 500 2 V (X) = 500 2 0, 99 = 247500Exercice :Dans une pépinière 95% <strong>de</strong>s scions (jeunes arbres greffés) sont supposés sansvirus. Par commodité les scions sont rangés par paqu<strong>et</strong>s <strong>de</strong> 2. Un paqu<strong>et</strong> estdit sain si les 2 scions le sont.1) Proba d’avoir un paqu<strong>et</strong> sain ?2) X = nb <strong>de</strong> paqu<strong>et</strong>s sains sur un lot <strong>de</strong> 10Quelle est la loi <strong>de</strong> X ?3) Un lot <strong>de</strong> 10 est accepté par l’ach<strong>et</strong>eur si 9 au moins <strong>de</strong>s paqu<strong>et</strong>s sontsains. Proba qu’un lot soit accepté ?Solution :1) p = 0, 95 × 0, 95 = 0, 90252) X ∼ B(10, p)3) P (X ≥ 9) = P (X = 9) + P (X = 10)= 0, 7361RemarqueLe schéma binomial correspond au processus <strong>de</strong> tirage d’un échantillon aléatoireavec remise :N 1 : nb d’individus ayant la propriété SN 2 : nb d’individus n’ayant pas la propriété SN = N 1 + N 2 : nb total d’individusOn fait n tirages avec remiseSoit X = nb d’individus ayant la propriété S


10 CHAPTER 1. LOIS DISCRÈTES USUELLESX ∼ B(n, p) avec p = N 1NPropriétéCalcul en chaine <strong>de</strong>s probalités <strong>de</strong> la loi binomiale.Si X ∼ B(n, p) alors(n − k + 1)pP (X = k) = P (X = k − 1)k(1 − p)P (X = k)Preuve :P (X = k − 1) = n − k + 1 pk 1 − p1.4 Schéma hypergéométriqueExemple : En pratique lorsque l’on tire un échantillon <strong>de</strong> taille n parmi unepopulation <strong>de</strong> taille N, le bon sens veut que l’on ne prenne pas 2 fois lemême individu. Cela signifie que le tirage se fait sans remise. Les v.a <strong>de</strong>Bernoulli associées aux différents éléments <strong>de</strong> l’échantillon <strong>et</strong> indicatrices <strong>de</strong>la présence ou absence d’un caractère donné, sont alors dépendantes. Leschéma binomiale n’est plus adapté.Le schéma hypergéométrique est une succession d’épreuves <strong>de</strong> Bernoulli nonindépendantes.DéfinitionSi dans une population <strong>de</strong> taille N,on a 2 types <strong>de</strong> populationsN 1 individus type 1 en proportion p = N 1N <strong>et</strong>N 2 individus type 2 : N 2On fait n tirages sans remise dans la population <strong>et</strong> la v.aX = nb individus <strong>de</strong> type 1 dans l’échantillonX obéit au schéma hypergéométrique H(N, n, p)X = ∑ iX i , avec X i <strong>de</strong>s v.a <strong>de</strong> Bernoulli non indépendantes.Loi <strong>de</strong> probabilité


1.4.SCHÉMA HYPERGÉOMÉTRIQUE 11Si X ∼ H(N, n, p), alors{ n < N2Les valeurs <strong>de</strong> X sont les entiers compris entre 0 <strong>et</strong> n sin < N 1P (X = k) = Ck N 1× C n−kN 2(dénombrement classique)CNnPropriétésE(X) = npV (X) = np(1 − p) N − nN − 1Théorème :<strong>et</strong>Quand N → +∞ avec n, p fixes, alorsla loi hypergéométrique H(N, n, p) tend vers la loi binomiale B(n, p).Que signifie une loi qui tend vers une autre loi ? (cf chap. conditiond’application)Dans la pratique, on utilise l’approximation dès que n N < 0, 1preuve :(Np)!(Nq)!n!(N − n)!P (X = k) =k!(Np − k)!(n − k)!(Nq − n + k)! N!∼ (Np)k (Nq) n−k n!∼ p k q n−k n!k!(n − k)!N n k!(n − k)! = Ck np k q n−kExemple 1A un guich<strong>et</strong> SNCF se présentent 2 femmes <strong>et</strong> 3 hommes. On choisit auhasard 2 personnes ≠ pour une enquête.Soit X = nb <strong>de</strong> femmes.a) Probabilité <strong>de</strong> choisir une femme au moins.b) Calculer E(X) <strong>et</strong> σ(X).(a) X ∼ H 5, 2, 2 5□P (X ≥ 1) = P (X = 1) + P (X = 2) = C1 2C 1 3C 2 5b) E(X) = np = 2 × 3 5 = 4 5 = 0, 8+ C2 2C 0 3C 2 5= 7 10 = 0, 7


12 CHAPTER 1. LOIS DISCRÈTES USUELLESV (X) = npq N − nN − 1 = 2 × 2 5 × 3 5 × 3 4 = 9 25σ(X) = 0, 6= 0, 36Exemple 2On choisit au hasard 10 étudiants <strong>de</strong> <strong>DE</strong>UG ≠ pour un entr<strong>et</strong>ien : 304étudiants sont inscrits en 1ère année, 233 en 2ème .X = nb d’étudiants <strong>de</strong> 1ère année parmi les 10.Calculer la probabilité d’avoir 5 étudiants <strong>de</strong> 1ère année <strong>et</strong> déterminer E(X)<strong>et</strong> σ(X).X ∼ H(537, 10, 304537 )P (X = 5) = C5 304C 5 233C 10537≃ 0, 227Mais on peut utiliser l’approximationComme n N = 10(537 < 0, 1, on peut approximer HP (X = 5) = C 5 10( 304537E(X) = np = 10 × 304537V (X) = npq N − n) 5 ( 233537= 5, 661) 5≃ 0, 225.304= 10 ×537 × 233537 × 527536N − 1σ(X) = 1, 554avec l’approximation σ(X) = √ npq = 1, 567.537, 10, 304 )537≃ 2, 415(par B 10, 304 )5371.5 Loi géométrique <strong>et</strong> loi <strong>de</strong> PascalOn se place dans une optique différente.A la base, il y a toujours l’épreuve <strong>de</strong> Bernoulli qui a 2 résultats possibles :un événement<strong>de</strong> probabilité p <strong>et</strong> l’autre. Mais c<strong>et</strong>te fois, on ne connait pasle nombre d’épreuves.DéfinitionX suit la loi géométrique <strong>de</strong> paramètre p, G(p), si elle est égale au nombre d’épreuves <strong>de</strong>Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois l’événement<strong>de</strong>probabilité p.


1.5. LOI GÉOMÉTRIQUE ET LOI <strong>DE</strong> PASCAL 13Loi <strong>de</strong> probabilitéX(Ω) = N ∗ , (l’ensemble <strong>de</strong>s valeurs est ∞ dénombrable)P (X = k) = q k−1 pk ∈ N ∗fonction <strong>de</strong> répartitionn∑P (X ≤ n) = q k−1 p = pk=1F X (n) = 1 − q ncaractéristiques∑n−1K=0q k = p 1 − qn1 − q = 1 − qnE(X) = 1 pV (X) = 1 − pp 2La loi <strong>de</strong> Pascal est la généralisation <strong>de</strong> la loi géométrique lorsque l’ons’intéresse à l’obtention pour la k ième fois <strong>de</strong> l’événement<strong>de</strong> probabilité pDéfinitionX suit la loi <strong>de</strong> Pascal G(k, p), si elle est égale au nombre d’épreuves <strong>de</strong> Bernoulliindépendantes qu’il faut réaliser pour obtenir pour la kèm fois l’événement<strong>de</strong>probabilité p.Loi <strong>de</strong> probabilitéX(Ω) = {k, . . . , ∞}P (X = j) = C k−1j−1 pk−1 q j−k p j ≥ kCaractéristiquesE(X) = k pk(1 − p)V (X) =p 2Remarque : la ressemblance avec la loi binomiale n’est qu’apparente. Lagran<strong>de</strong> différence est que le nombre <strong>de</strong> répétitions <strong>de</strong> l’épreuve élémentaire<strong>de</strong> Bernoulli n’est pas connu, <strong>et</strong> c’est lui qui représente l’aléatoire du problème


14 CHAPTER 1. LOIS DISCRÈTES USUELLES!• ApplicationCes 2 lois interviennent particulièrement en contrôle <strong>de</strong> qualité mais aussidans la surveillance <strong>de</strong>s événements dont une certaine fréquence <strong>de</strong> survenueest interprétée en terme <strong>de</strong> signal d’alarme.• Remarque <strong>de</strong> modélisationLa probabilité <strong>de</strong> l’événement qui nous intéresse est toujours p, elle estconstante au cours du temps. C<strong>et</strong>te propriété <strong>de</strong> stationnarité n’est passystématique dans les situations réelles que l’on doit modéliser.ExempleSupposons que 5 % <strong>de</strong>s pièces en sortie d’une chaine <strong>de</strong> production soientdéfectueuses. On souhaite connaitre la probabilité qu’un échantillon <strong>de</strong> 20pièces issu <strong>de</strong> c<strong>et</strong>te chaine ne contienne aucune pièce défectueuse.On peut traiter c<strong>et</strong> exemple en utilisant soit la loi Binomiale,soit la loi géométrique.- chaque pièce est in<strong>de</strong>ntifiée par un caractère à 2 modalités :défectueusenon défectueuseLa modélisation <strong>de</strong> base est donc le schéma <strong>de</strong> Bernoulli avec p = 0, 05. Onpeut faire l’hypothèse <strong>de</strong> l’indépendance <strong>de</strong>s épreuves <strong>de</strong> Bernoulli (grand<strong>et</strong>aille <strong>de</strong> la population). Soit la v.a X = nb <strong>de</strong> défectueux après la réalisation<strong>de</strong> 20 épreuves <strong>de</strong> Bernoulli. On aX ∼ B(20, 0, 05)P (X = 0) = 0, 95 20 = 0, 3585.- On gar<strong>de</strong> la modélisation <strong>de</strong>s pièces par les aléas <strong>de</strong> Bernoulli. On faitl’hypothèse d’indépendance (gd nb <strong>de</strong> pièces). Mais le nombre <strong>de</strong> piècesn’est plus donné : c’est un aléa.Soit la v.a Y = nombre <strong>de</strong> pièces observées jusqu’à l’obtention d’une piècedéfectueuse.Y ∼ G(0, 05)


1.6. LOI <strong>DE</strong> POISSON 15P (Y ≥ 21) =∞∑k=210, 95 k−1 201 − 0, 95∞0, 05 = 0, 95 × 0, 051 − 0, 95200, 05= 0, 95 = 0, 35850, 051.6 Loi <strong>de</strong> PoissonSiméon-Denis Poisson(1781-1840)est un probabiliste, mathématicien <strong>et</strong> physicienfrançais à qui l’on doit d’importants développements sur la loi <strong>de</strong>s grandsnombres, les suites d’épreuves <strong>de</strong> Bernoulli mais aussi sur les applications <strong>de</strong>sprobabilités dans le domaine du droit.définitionX est une v.a. <strong>de</strong> Poisson <strong>de</strong> paramètre m si <strong>et</strong> seulement siX(Ω) = N <strong>et</strong>P (X = k) = mkk! e−mNotation : P(m)On est dans la situation X(Ω) infini dénombrable.On peut maintenant poser la loi <strong>de</strong> Poisson comme modèle d’une épreuvealéatoire :Théorème d’approximationSoit X ∼ B(n, p)quand n → +∞ <strong>et</strong>p → 0 tq np → m,alors X L → P(m)ModélisationLorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve<strong>de</strong> Bernoulli <strong>et</strong> si l’on répète un grand nombre <strong>de</strong> fois c<strong>et</strong>te épreuve (n) lenombre total <strong>de</strong> réalisations <strong>de</strong> l’événement considéré suit à peu près une loi<strong>de</strong> Poisson <strong>de</strong> paramètre m = np.Dans la pratique :n > 50p < 0, 1


16 CHAPTER 1. LOIS DISCRÈTES USUELLESRmq : plus p est p<strong>et</strong>it, meilleure est l’approximation.la loi <strong>de</strong> Poisson a été appelée loi <strong>de</strong>s phénomènes rares.Pour c<strong>et</strong>te raisonLes processus <strong>de</strong> Poisson sont fréquents dans les problèmes <strong>de</strong> <strong>gestion</strong> :- nb <strong>de</strong> pièces défectueuses dans un échantillon <strong>de</strong> gran<strong>de</strong> taille prélevé dansune production où la proportion <strong>de</strong>s défectueuses est faible.- nb <strong>de</strong> quadruplés, quintuplés par an dans un pays donné.- nb d’appels intercontinentaux sur une ligne pendant une durée donnée.- nb d’erreurs commises au cours d’une longue suite d’opérations (inventaire).- pannes <strong>de</strong> machine.- émission <strong>de</strong> particules radio-actives.caractéristiques Si X ∼ P(m),alors E(X) = mV (X) = mIl faut savoir que ∑ k≥0E(X)V (X)= ∑ k≥0= ∑ k≥0= m 2 ∑ k≥2= mm kk!= e mk mkk! e−m = e −m m ∑ k≥1m k−1(k − 1)! = mk 2 mkk! e−m − m 2 = ∑ k(k − 1) mkk! e−m + ∑K≥1k≥1m k−2(k − 2)! e−m + m ∑ k≥1m k−1(k − 1)! e−m − m 2k mkk! e−m − m 2Propriété : somme <strong>de</strong> v.a <strong>de</strong> PoissonSi X 1 <strong>et</strong> X 2 sont 2 variables <strong>de</strong> Poisson P(m 1 ), P(m 2 ) indépendantes alorsX 1 + X 2 ∼ P(m 1 + m 2 )(ceci est vrai pour une somme finie quelconque <strong>de</strong> v.a <strong>de</strong> Poisson indépendantes)Preuve :


1.6. LOI <strong>DE</strong> POISSON 17P (Y = k) = P (X 1 + X 2 = k)PropriétéSi X ∼ P(m)P (X = k)P (X = k − 1) = m k[ k]⋃= P {X 1 = i} ∩ {X 2 = k − i}=i=0k∑P (X 1 = i).P (X 2 = k − i)i=0K∑ m i 1 m k−i=i! e−m 1 2(k − i)! e−m 2i=0K∑= Ckm i i 1m k−i e −(m 1+m 2 )2k!i=0= (m 1 + m 2 ) ke −(m 1+m 2 )□.k!Conséquence statistiqueOn peut envisager une loi <strong>de</strong> Poisson comme modèle représentatif <strong>de</strong> données statistiquesdiscrètes pour lesquelles la variable ne prend que <strong>de</strong>s valeurs entières, positivesou nulles <strong>et</strong> pour lesquelles- la moyenne ≃ la variance <strong>et</strong>f k- est proportionnel à 1 f k−1 kExemple 1f k étant les fréquences.Lors d’un sondage portant sur un grand nombre <strong>de</strong> personnes, on sait que 2%<strong>de</strong>s personnes interrogées acceptent <strong>de</strong> ne pas rester anonymes. Sachant quel’un <strong>de</strong>s son<strong>de</strong>urs a interrogé 250 personnes (en les choisissant <strong>de</strong> manièreindépendante), calculer la probabilitéa) que ces 250 personnes souhaitent rester anonymesb) 3 personnes acceptent <strong>de</strong> ne pas rester anonymesc) plus <strong>de</strong> 10 personnes acceptent <strong>de</strong> ne pas rester anonymesX = nb <strong>de</strong> personnes ne souhaitant pas rester anonymes.X ∼ B(250, 0, 02) P(5).−5 50P (X = 0) = e = e −5 = 0, 0067,0!


18 CHAPTER 1. LOIS DISCRÈTES USUELLES−5 53P (X = 3) = e = 0, 14,3!P (X ≥ 10) = 1 − P (X < 10) = 1 − P (X ≤ 9).Exemple 2Dans un hôpital parisien, il arrive en moyenne 1,25 personnes à la minuteaux urgences entre 9 h <strong>et</strong> 12 h.X : nb <strong>de</strong> personnes observées à la minute à l’entrée <strong>de</strong> ce service.On adm<strong>et</strong> X ∼ P(m) avec m = 1, 25Déterminer les probabilités suivantesa) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes aumoins.a) P (X = 2) = 0, 2238b) P (X ≤ 4) = 0, 9909c) P (X ≥ 3) = 1 − P (X ≤ 2)= 1 − 0, 8685= 0, 1315.


Chapter 2Couple <strong>de</strong> variables aléatoiresdiscrètes2.1 GénéralitésOn se consacre à l’étu<strong>de</strong> simultanée <strong>de</strong> 2 variables aléatoires X, Y discrètes.(X, Y ) est appelé couple aléatoire ou variable aléatoire à 2 dimensions ouvecteur aléatoire <strong>de</strong> dimension 2.Exemples :Expérience aléatoire : choisir un individu dans une population P,X : taille d’un individu, Y : poids d’un individu.Expérience aléatoire : 2 j<strong>et</strong>s successifs d’un dé,X = nb <strong>de</strong> points du 1 er j<strong>et</strong>,Y = somme <strong>de</strong>s points.Soient X, Y <strong>de</strong>ux v.a. discrètes. Dans la suite, on utilisera les notationssuivantes:X(Ω) = {x 1 , . . . , x n }Y (Ω) = {y 1 , . . . , y p }19


20CHAPTER 2.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRES DISCRÈTES2.1.1 Loi <strong>de</strong> probabilité conjointeLois <strong>de</strong> probabilité marginalesDéfinitionLa loi <strong>de</strong> probabilité conjointe <strong>de</strong> X <strong>et</strong> Y ou loi du couple (X, Y ) est définie par1) les valeurs <strong>de</strong> (X, Y ) {(x i , y i ) i ∈ {1, . . . , n} j ∈ {1, . . . , p}}2) les probabilités correspondantesp ij = P ((X, Y ) = (x i , y i ))= P (X = x i , Y = y j )= P ((X = x i ) ∩ (Y = y j ))Présentation : dans un tableau :valeurs <strong>de</strong> Xvaleurs <strong>de</strong> Y y 1 y 2 . . . y px 1 p 11 p 12 + + p 1px 2 p 21 p 22 p 2p.x n p n1 p n2 p npQuestion 1 :Si on a la loi <strong>de</strong> probabilité du couple (X, Y ), peut-on en déduire la loi <strong>de</strong>probabilité <strong>de</strong> X <strong>et</strong> la loi <strong>de</strong> probabilité <strong>de</strong> Y ?réponse : oui mais l’inverse n’est pas vrai.DéfinitionSi on donne la loi du couple (X, Y ), la loi <strong>de</strong> probabilité <strong>de</strong> X <strong>et</strong> celle <strong>de</strong> Y sont appeléeslois <strong>de</strong> probabilité marginales.Propriétépour X : P (X = x i ) =pour Y : P (Y = y j ) =preuve : TVAp∑j=1n∑i=1p ijp ij(somme d’une ligne du tableau)(somme d’une colonne)


2.2. FONCTION <strong>DE</strong> RÉPARTITION D’UN COUPLEFONCTIONS <strong>DE</strong> RÉPARTITION MARGINNotationsp i• = P (X = x i ) =p •j = P (Y = y j ) =Propriétép∑j=1n∑i=1p ijp ijn∑ p∑p ij = 1i=1 j=12.2 Fonction <strong>de</strong> répartition d’un coupleFonctions <strong>de</strong> répartition marginalesDéfinitionLa fonction <strong>de</strong> répartition du couple (X, Y ) est définie parF X,Y (x, y) = P [(X ≤ x) ∩ (Y ≤ y)]PropriétéF (X,Y ) (x, y) =∑ i tqx i ≤x∑j tqy j ≤yp ijQuestion 2 : Si on a F (X,Y ) (x, y) peut-on en déduire F X (x) <strong>et</strong> F Y (y) lesfonctions <strong>de</strong> répartition marginales.réponse : ouiF X (x) = lim F (X,Y )(x, y)y→+∞F Y (y) = lim F (X,Y )(x, y)x→+∞


22CHAPTER 2.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRES DISCRÈTES2.3 Loi <strong>de</strong> probabilité conditionnelleEspérance conditionnelleDéfinitionOn appelle variable aléatoire conditionnelle X sachant Y = y j , notée X|Y = y jla v.a. discrète <strong>de</strong> valeurs {x i , i = 1, . . . , n}<strong>et</strong> dont les probabilités sontP (X = x i |Y = y j ) = p ijp •jPropriétésn∑P (X = x i |Y = y j ) = 1i=1p∑P (Y = y j |X = x i ) = 1j=1∀y j∀x iDéfinitionOn appelle espérance conditionnelle <strong>de</strong> X sachant Y = y j la quantitéE(X|Y = y j ) =n∑x i P (X = x i |Y = y j ).i=1Théorème <strong>de</strong> l’espérance conditionnellep∑E(X) = E(X|Y = y j )P (Y = y j )preuve :j=1p∑E(X|Y = y j ) P (Y = y j ) =j=1p∑j=1n∑i=1x ip ijp •j× p •j ==n∑i=1x i∑ Pp ijj=1n∑p i• x i = E(X)i=1


2.4.INDÉPENDANCE STOCHASTIQUE 232.3.1 Corrélation linéaireDéfinitionOn appelle covariance du couple (X, Y ) la quantitécov(X, Y ) = E(XY ) − E(X)E(Y )On appelle corrélation linéaire entre X <strong>et</strong> Yρ(X, Y ) = cov(X, Y )√V (X)V (Y )Propriétés−1 ≤ ρ(X, Y ) ≤ 1 (1)V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y ) (2)cov(a X, Y ) = a cov(X, Y ) (3)2.4 Indépendance stochastiqueDéfinition2 v.a.d. X <strong>et</strong> Y sont indépendantes en probabilité (ou stochastiquement) si l’une <strong>de</strong> cespropriétés équivalentes est vérifiée (si elle a un sens) :(i)∀i ∈ {1, . . . , n}∀j ∈ {1, . . . , p}P (X = x i |Y = y i ) = P (X = x i ).(ii) ∀i, ∀j P (Y = y j |X = x i ) = P (Y = y j ).(iii) ∀i, ∀j P (X = x i ∩ Y = y j ) = P (X = x i ) × P (Y = y j ).Propriétés(1) Si X <strong>et</strong> Y sont indépendantes en probabilité alors ρ(X, Y ) = 0(2) Si ρ(X, Y ) ≠ 0 alors X <strong>et</strong> Y ne sont pas indépendantes en probabilité(3) Si ρ(X, Y ) = 0 alors X <strong>et</strong> Y ne sont pas forcément indépendantes en probabilité.ExempleUne urne contient b boules blanches (B) <strong>et</strong> r boules rouges (R).On tire une boule au hasardB → 0Soit X :R → 1Si la boule tirée est B on la rem<strong>et</strong> accompagnée <strong>de</strong> n autres boules blanches.


24CHAPTER 2.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRES DISCRÈTESSi elle est R, on la rem<strong>et</strong> avec n autres rouges.On tire alors une boule.B → 0Soit Y :R → 1a) Donner la loi <strong>de</strong> probabilité <strong>de</strong> (X, Y ).b) Lois marginales.c) indépendance stochastique ?solutionX prend les valeurs 0 <strong>et</strong> 1 <strong>et</strong>Y prend les valeurs 0 <strong>et</strong> 1. On aP (X = 0 ; Y = 0) = P (X = 0 ∩ Y = 0)= P (Y = 0|X = 0) × P (X = 0)↑la v.a. Y est conditionnée à la valeur <strong>de</strong> XP (Y = 0|X = 0)⇒ P (X = 0, Y = 0) = bb + rP (X = 0) = P (B) =bb + r= proba <strong>de</strong> tirer une blanche sachant qu’on a tiré une B au 1er tirage= proba <strong>de</strong> tirer une blanche dans une urne qui comprend r rouges <strong>et</strong>b + n blanches= b + nb + r + n .b + nb + r + nP (X = 1 ∩ Y = 1) = P (Y = 1|X = 1) × P (X = 1)= r + n r.b + r + n b + rX \ Y 0 1 Loi <strong>de</strong> Xb(b + n)r bb0(b + r)(b + r + n) (b + r)(b + r + n) b + rb r(r + n)r r1(b + r)(b + r + n) (b + r)(b + r + n) b + rbrLoi <strong>de</strong> Y1b + rb + rSi X <strong>et</strong> Y étaient indépendantes on aurait par exemple


2.5. EQUATION D’ANALYSE <strong>DE</strong> LA VARIANCE 25( )b bb + n × =b + rb(b + n)b + r(b + n + r)⇔bb + r = b + nb + n + r⇔ b(b + n + r) = (b + n)(b + r)⇔ b 2 + bn + br = b 2 + nb + nr + br⇔ nr = 0 (impossible)2.5 Equation d’analyse <strong>de</strong> la varianceDéfinitionOn appelle variance conditionnelle <strong>de</strong> X|Y = y j la variance <strong>de</strong> la variable aléatoireconditionnelle X sachant Y = y j soit :n∑V (X|Y = y j ) = x 2 i P (X = x i |Y = y j ) − E 2 (X|Y = y j )i=1PropriétéEquation d’analyse <strong>de</strong> la variance.V (X) = V inter (X) + V intra (X)oùp∑V inter (X) = E(X|Y = y j ) 2 P (Y = y j ) − E(X) 2V intra (X) =j=1p∑V (X|Y = y j )P (Y = y j )j=1Preuve :


26CHAPTER 2.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRES DISCRÈTESV (X) ===n∑p∑x 2 i P (X = x i ) − E 2 (X) or P (X = x i ) = P (X = x i ∩ Y = y j )(j=1n∑ p∑)x 2 i P (X = x i |Y = y j )P (Y = y j ) − E 2 (X)j=1)p∑x 2 i P (X = x i |Y = y j ) P (Y = y j ) − E 2 (X)i=1i=1( n∑j=1 i=1p∑ (= V (X|Y = yj ) + E 2 (X|Y = y j ) ) P (Y = y j ) − E 2 (X)=j=1p∑V (X|Y = y j )P (Y = y j ) +j=1} {{ }V intra (X)p∑E 2 (X|Y = y j )P (Y = y j ) − E 2 (X)j=1} {{ }V inter (X)2.6 Fonction <strong>de</strong> 2 variables aléatoires discrètes2.6.1 Espérance-VarianceSoit Z = ϕ(X, Y ) avec ϕ : R 2 → R, une v.a<strong>de</strong> valeurs z ij = ϕ(x i , y j )P (Z = z ij ) = P (ϕ(X, Y ) = ϕ(x i , y j )).On peut calculer E(Z) <strong>et</strong> V (Z) sans avoir à calculer la loi <strong>de</strong> Z :PropriétéE(Z) = ∑ i,jV (Z) = ∑ i,jp ij ϕ(x i , y i )p ij ϕ 2 (x i , y i ) − E(Z) 22.6.2 Calcul <strong>de</strong> la covariancecov(X, Y ) = E(XY ) − E(X)E(Y ),E(XY ) = ∑ x i y i p ij . Propriétéi,j


2.6. FONCTION <strong>DE</strong> 2 VARIABLES ALÉATOIRES DISCRÈTES 27E(XY ) ==n∑x i E(Y |X = x i )P (X = x i )i=1n∑y j E(X|Y = y j )P (Y = y j )j=1Preuve :n∑x i E(Y |X = x i )P (X = x i )i=1j= ∑ ∑x i y j P (Y = y j |X = x i )P (X = x i )i= ∑ x i y j P (Y = y j ∩ X = x i )i,j= ∑ i,jx i y j p ij □.


28CHAPTER 2.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRES DISCRÈTES


Chapter 3Couple <strong>de</strong> variables aléatoirescontinuesSoient (X, Y ) <strong>de</strong>ux variables aléatoires continues.exemple : Pour décrire la position d’un point aléatoire M dans un repèrecartésien, on utilise le couple <strong>de</strong> variables aléatoires (X, Y ) où X désignel’abscisse <strong>et</strong> Y l’ordonnée.Remarque : si on est dans l’espace, on repère un point à l’ai<strong>de</strong> d’un tripl<strong>et</strong> <strong>de</strong>variables aléatoires (X, Y, Z). On peut ainsi généraliser à un vecteur aléatoireà n composantes : par exemple un circuit électrique composé <strong>de</strong> n composantesen série. Si X i : durée <strong>de</strong> vie <strong>de</strong> la composante i alors la durée <strong>de</strong>vie du circuit se décrit à l’ai<strong>de</strong> du vecteur aléatoire (X 1 , . . . , X n ).3.1 Fonction <strong>de</strong> répartition du couple (X, Y )Fonction <strong>de</strong> répartition marginaleDéfinitionLa fonction <strong>de</strong> répartition du couple (X, Y ) (ou fonction <strong>de</strong> répartition conjointe)est une fonction <strong>de</strong> R 2 dans [0, 1] définie par F X,Y (x, y) = P (X ≤ x ∩ Y ≤ y)Propriétés29


30CHAPTER 3.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRESCONTINUESlimx→+∞y→+∞F X,Y (x, y) = 1lim F X,Y (x, y) = 0y→−∞lim F X,Y (x, y) = 0x→−∞PropriétésSi F X est la fonction <strong>de</strong> répartition <strong>de</strong> X <strong>et</strong>F Y la fonction <strong>de</strong> répartition <strong>de</strong> Y ,F X (x) = lim F X,Y (x, y)y→+∞F Y (y) = lim F X,Y (x, y)x→+∞Dans le cas d’une variable continue, on pouvait calculer la probabilité <strong>de</strong>sévénements {a < X ≤ b} avec la fonction <strong>de</strong> répartition : P (a < X ≤ b) =F (b) − F (a).Est-ce le cas ici ?Question : que vaut P [a < X ≤ b, c < Y ≤ d] ?F X,Y (b, d) = P [] − ∞, b]∩] − ∞, d]]= P ((] − ∞, a]∪]a, b]∩] − ∞, d]))= P (] − ∞, a]∩] − ∞, d]) + P (]a, b]∩] − ∞, d])= F (a, d) + P (]a, b]∩] − ∞, c]) + P (]a, b]∩]c, d])or F (b, c) = P (] − ∞, b]∩] − ∞, c]) = P (] − ∞, a]∩] − ∞, c]) + P (]a, b]∩] −∞, c])d’où P (]a, b]∩] − ∞, c]) = F (b, c) − F (a, c)AinsiP (a < X ≤ b, c ≤ Y ≤ d) = F (b, d) − F (b, c) + F (a, c) − F (a, d).Mais c’est une formule difficile à r<strong>et</strong>rouver.C’est pourquoi on préfèrera passer par la fonction <strong>de</strong>nsité conjointe pourcalculer les probabilités.3.2 Fonction <strong>de</strong>nsité conjointeFonctions <strong>de</strong>nsité marginalesDéfinition


3.2. FONCTION <strong>DE</strong>NSITÉ CONJOINTEFONCTIONS <strong>DE</strong>NSITÉ MARGINALES31fonction <strong>de</strong>nsité du couple (X, Y ) est définie , si elle existe, par pour presque tout x <strong>et</strong>y,f X,Y (x, y) = d2 F X,Y (x, y).dx dyOn peut également donner la fonction <strong>de</strong> répartition conjointe en fonction<strong>de</strong> la fonction <strong>de</strong>nsité:F X,Y (x, y) =On a alors∫ x−∞∫ y−∞P (a < X ≤ b ∩ c ≤ Y ≤ d) =que l’on peut également écrireP ((X, Y ) ∈]a, b]×]c, d]) =f X,Y (u, v)du dv ∀(x, y) ∈ R 2 .∫ b ∫ da∫ b ∫ daccf X,Y (x, y)dx dyf X,Y (x, y)dx dy.Question : peut-on calculer la probabilité P ((X, Y ) ∈ D) où D est un domaine<strong>de</strong> R 2 différent d’un rectangle ?Propriété∫ ∫P ((X, Y ) ∈ D) =Exemple 1 aiguille <strong>de</strong> BuffonDf X,Y (x, y)dx dyExemple 2 Soit (X, Y ) un couple dont la loi conjointe est une loi uniformesur [0, 1] × {[0, 1]1 (x, y) ∈ [0, 1] × [0, 1]f(x, y) =0 ailleursSoit D = {(x, y) ∈ R 2 : x > 0 y > 0 <strong>et</strong> x + y < 1}Calculer P ((X, Y ) ∈ D).


32CHAPTER 3.∫ ∫P ((X, Y ) ∈ D) =COUPLE <strong>DE</strong> VARIABLES ALÉATOIRESCONTINUES==∫ D 1(∫ 1−x∫0101dx dy)dy dx01 − x dx =[x − x22] 10= 1 2 .A partir <strong>de</strong> la fonction <strong>de</strong>nsité conjointe, peut-on r<strong>et</strong>rouver les fonctions <strong>de</strong>nsitémarginales <strong>de</strong> X <strong>et</strong> Y ?f X (x) =f Y (y) =Propriété∫ +∞∫ −∞ +∞−∞∫ +∞ ∫ +∞−∞−∞f X,Y (x, y)dyf X,Y (x, y)dxf X,Y (x, y)dx dy = 1Exemple :{ kxf(x, y) =2 + y 2 − xy x ∈ [−1, 1] <strong>et</strong> y ∈ [−1, 0]0 sinona) déterminer k pour que f soit effectivement une fonction <strong>de</strong>nsité d’un couple(X, Y ).b) calculer P [{0 < X < 1} ∩ {−1/2 < Y < 0}]c) fonctions <strong>de</strong>nsité marginales.d) fonction <strong>de</strong> répartition conjointe.


3.2. FONCTION <strong>DE</strong>NSITÉ CONJOINTEFONCTIONS <strong>DE</strong>NSITÉ MARGINALES33sol : a)b)∫ 1 ∫ 00∫ ∫f(x, y)dx dy = 1∫R 2 ∫⇔ kx 2 + y 2 − xy dy dx = 1∫ D 1(∫ 0)⇔ kx 2 + y 2 − xy dy dx = 1−1 −1∫ 1⇔ (kx 2 + 1−1 3 + x 2 ) dx = 1[ x3⇔ k + 1 [ x23 3 [x]1 −1 +4−1/2] 1−1] 1−1= 1 ⇔ 2 3 k + 2 3 = 1⇔ k = 1 2 .x 2∫ 12 + x 2y2 − xy dy dx =0 4 + 1 24 + x 8 dx[ [ x3x2c)On a f X (x) =∫ +∞−∞f(x, y)dy.Si x /∈ [−1, 1], f X (x) = 0.Si x ∈ [−1, 1], f X (x) =On a f Y (y) =∫ +∞−∞∫ 0f(x, y)dx.Si y /∈ [−1, 0], f y (y) = 0.y ∈ [−1, 0], f y (y) =d) F X,Y (x, y) =∫ x−∞∫ y−∞∫ 1−1−1= 1 43] 10+ 1 24 + 1 8= 1 12 + 1 24 + 1 16 = 3 24 + 1 16 = 1 8 + 1 16 = 3 16 .2] 10x 22 + y2 − xy dy = x22 + 1 3 + x 2 .12 x2 + y 2 − xy dx = 1 2f(u, v)dv du.• Si x < −1 ou y < −1, F X,Y (x, y) = 0• Si (x, y) ∈ [−1, 1] × [−1, 0],[ x33] 1−1= 1 3 + 2y2 .[ x+ y 2 [x] 1 2−1 − y2] 1−1


34CHAPTER 3.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRESCONTINUESF (x, y) ===∫ x ∫ y∫−1x∫−1x−1= y + 12F X,Y (x, y) = y + 12• Si y > 0 <strong>et</strong> x ∈ [−1, 1],F X,Y (x, y) = x3 + 16(ku 2 + v 2 − uv) dv du−1 [ ] vku 2 [v] y 3 y [ v2−1 + − u3−12(y + 1)ku 2 + y3 + 1[ 3u3+ x + 13] x−13x 3 + 13• Si y ∈ [−1, 0] <strong>et</strong> x > 1,F (x, y) = y + 1 + 2 3 3 (y3 + 1).• Si y > 0 <strong>et</strong> x > 1,F (x, y) = 1.] ydu−1− u y2 − 1du2+ y3 + 1(x + 1) − y2 − 132+ (x + 1) y3 + 13+ 1 4 (x2 − 1).− y2 − 12[u 2 /2 ] xx 2 − 1.2−13.3 Variables conditionnellesOn veut définir la loi <strong>de</strong> probabilité <strong>de</strong> la variable conditionnelle Y |X = xavec X, Y <strong>de</strong>ux variables aléatoires <strong>de</strong> fonction <strong>de</strong>nsité conjointe f X,Y .• fonction <strong>de</strong> répartition conditionnelle <strong>de</strong> Y |X = xP (Y ≤ y|X = x) a priori n’est pas défini car P (X = x) = 0, X étant unevariable continue.On note F X=x c<strong>et</strong>te fonction <strong>de</strong> répartition conditionnelle, que l’on définit<strong>de</strong> la manièresuivante:


3.3. VARIABLES CONDITIONNELLES 35F X=x (y)= limɛ→0η→0= limɛ→0η→0= limɛ→0η→0dF(x, y)= dx =f X (x)P (Y ≤ y|x − ɛ ≤ X ≤ x + η) = limɛ→0P (Y ≤ y ∩ X ∈ [x − ɛ, x + η])F X (x + η) − F X (x − ɛ)F X,Y (x + η, y) − F X,Y (x − ɛ, y)F X (x + η) − F X (x − ɛ)dF X,Y(x, y)dx .f X (x)η→0P (Y ≤ y ∩ x − ɛ ≤ X ≤ x + η)F X (x + η) − F X (x − ɛ)DéfinitionLa fonction <strong>de</strong> répartition <strong>de</strong> la variable conditionnelle Y |X = x, si elle existe, est égale àF X=x (y) =dF X,Ydx(x, y)f X (x).• Fonction <strong>de</strong>nsité <strong>de</strong> la variable conditionnelle Y |X = xNotation : f X=x (y) ou f(y|X = x)On a f X=x (y) = ddy F X=x(y) =f(x, y)f X (x) .DéfinitionLa fonction <strong>de</strong>nsité <strong>de</strong> la variable conditionnelle Y |X = x estf X=x (y) =f(x, y)f X (x)Y |X = x est une variable aléatoire définie par sa fonction <strong>de</strong>nsité ; on peutcalculer E(Y |X = x) , V (Y |X = x) <strong>et</strong> <strong>de</strong>s probabilités associées à c<strong>et</strong>tevariable :P (a < Y < b|X = x) =∫ baf X=x (y) dy, E(Y |X = x) =∫ +∞−∞y f X=x (y) dy


36CHAPTER 3.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRESCONTINUESExemple : reprendre f(x, y) = kx 2 + y 2 − xy.e) Donner la fonction <strong>de</strong>nsité conditionnelle <strong>de</strong> X|Y = 0.f) Calculer P (0 < X < 1|Y = 0).g) Calculer l’espérance <strong>de</strong> X|Y = 0.f(x, 0)sol : e) f Y =0 (x) =f Y (0) = x2 /21/3 = 3x2⎧2⎨ 3x 2f Y =0 (x) =x ∈ [−1, 1]⎩20 sinonf) P (0 < X < 1|Y = 0) =g) E(X|Y = 0) =∫ +∞−∞∫ 103x 22 dx = 3 2x f Y =0 (x)dx =∫ 1−1six ∈ [−1, 1]. Ainsi[ x3] 1033x 3= 1 2 .2 dx = 3 2[ x44] 1−1= 0.Théorème <strong>de</strong> l’espérance conditionnelleE(X) =Preuve :∫ +∞−∞E(X|Y = y) =∫ +∞−∞E(X|Y = y)f Y (y) dy∫ +∞−∞x f Y =y (x)dx =E(X|Y = y)f Y (y)dy ==∫ +∞x∫−∞+∞ ∫ +∞∫ −∞ +∞−∞−∞ ∫ +∞x (f(x, y)f Y (y) dx.x f(x, y)dy dxf(x, y)dy)dx .}−∞{{ }f X (x)3.3.1 Indépendance en probabilitécovariance-coéfficient <strong>de</strong> corrélationComme dans le cas <strong>de</strong>s variables discrètes, intuitivement on peut penser queX <strong>et</strong> Y sont indépendantes si <strong>et</strong> seulement si tout événement lié à X estindépendant <strong>de</strong> tout événement lié à Y .


3.3. VARIABLES CONDITIONNELLES 37i.e. {X ≤ x} <strong>et</strong> {Y ≤ y} sont indépendants ∀x, yi.e. P ({X ≤ x} ∩ {Y ≤ y}) = P (X ≤ x)P (Y ≤ y).Définition-propriété2 v.a. X, Y continues sont indépendantes en probabilité si <strong>et</strong> seulement sil’une <strong>de</strong>spropriétés suivantes équivalentes sont vérifiées (si elles ont un sens)(1) f X,Y (x, y) = f X (x) × f Y (y) ∀x, y(2) F X,Y (x, y) = F X (x) × F Y (y) ∀x, y(3) f X=x (y) = f Y (y) partout où cela a un sens(4) f Y =y (x) = f X (x) partout où cela a un sens.preuve :(2) ⇒ (1)(1) ⇒ (2)d 2dxdy∫ x−∞∫ y−∞(1) ⇒ (3) f X=x (y) =f(u, v)du dv =∫ x−∞∫ yf X (u)du f Y (v)dv−∞f(x, y)f X (x) = f Y (y) ∀x, y tq f X (x) ≠ 0(3) ⇒ (1) on a f(x, y) = f X (x) × f Y (y) ∀x, y tq f X (x) ≠ 0(4) ⇔ (1) pareil.ThéorèmeSi X <strong>et</strong> Y sont indépendants alors(1) cov(X, Y ) = 0(2) ρ(X, Y ) = 0(3) E(XY ) = E(X)E(Y )(4) V (X + Y ) = V (X) + V (Y ).Comme dans la chapitre précé<strong>de</strong>nt, la covariance est :cov(X, Y ) = E(XY ) − E(X)E(Y ).Ici, cela se traduit par∫xy fR 2 X,Y (x, y) dxdy − E(X)E(Y ).


38CHAPTER 3.COUPLE <strong>DE</strong> VARIABLES ALÉATOIRESCONTINUESOn peut également exprimer la covariance à l’ai<strong>de</strong> <strong>de</strong> l’espérance conditionnelle:∫cov(X, Y ) = x E(Y |X = x)f X (x)dx − E(X)E(Y ).R3.3.2 Fonction <strong>de</strong> 2 variables aléatoiresSoit Z = ϕ(X, Y ) avec (X, Y ) couple aléatoire <strong>de</strong> <strong>de</strong>nsité f(x, y).Z n’est pas forcément une variable aléatoire. Si cela en est une, on a lesformules∫∫E(ϕ(X, Y )) = ϕ(x, y) f(x, y) dxdy∫∫V (ϕ(X, Y )) = ϕ 2 (x, y) f(x, y) dx dy − E 2 (ϕ(X, Y ))


Chapter 4Loi Normale ou loi <strong>de</strong> Laplace -Gauss - GénéralitésLa loi Normale est une <strong>de</strong>s distributions que l’on rencontre le plus souventen pratique.C’est la loi qui s’applique en général à une variable qui est la résultante d’ungrand nombre <strong>de</strong> causes indépendantes dont les eff<strong>et</strong>s s’additionnent <strong>et</strong> dontaucune n’est prépondérante.Exemple :Diamètres <strong>et</strong> poids <strong>de</strong> pièces fabriquées en série.Fluctuations acci<strong>de</strong>ntelles d’une gran<strong>de</strong>ur économique autour <strong>de</strong> sa tendance.Historiquement elle apparaît vers 1773 comme limite <strong>de</strong> la loi binomiale.Gauss en 1809 <strong>et</strong> Laplace en 1812 lui donnèrent sa forme définitive.4.1 Définition mathématique• La variable Normale X est une v.a absolument continue pouvant prendren’importe quelle valeur dans ] − ∞, +∞[ avec la <strong>de</strong>nsité <strong>de</strong> probabilitéf(x) = 1 √2πσe1−2( x − µσ) 239


40CHAPTER 4. LOI NORMALE OU LOI <strong>DE</strong> LAPLACE - GAUSS - GÉNÉRALITÉSC<strong>et</strong>te v.a dépend donc <strong>de</strong> 2 paramètres µ <strong>et</strong> σ.notation : X ∼ N (µ, σ).• représentation graphiquela courbe en cloche. (cf T.D)→ La valeur <strong>de</strong> µ détermine la position <strong>de</strong> la courbe, x = µ est axe <strong>de</strong>symétrie pour la courbe (f(µ + x) = f(µ − x) ∀x)→ σ détermine la dispersion <strong>de</strong> la courbe.• Fonction <strong>de</strong> répartitionF (x) =∫ x−∞f(t)dt =• caractéristiquesE(X) = µV (X) = σ 2preuve :(T.D)Propriété 1∫ x−∞( ) 21 t − µ−1σ √ 2π e 2 σ dtX suit la loi N (µ, σ) si <strong>et</strong> seulement si X − µσpreuve : T.D.suit la loi N (0, 1)La loi N (0, 1) s’appelle loi Normale centrée réduite. f(x) = 1 √2πe − x 22 .Elle est importante car la propriété signifie que tout calcul <strong>de</strong> probabilitéassocié à la loi N (µ, σ) se ramène à un calcul <strong>de</strong> probabilité associé à la loiN (0, 1) en faisant un changement <strong>de</strong> variable.Propriété 2X 1 ∼ N (µ 1 , σ 1 ), X 2 ∼ N (µ 2 , σ 2 ), X 1 , X 2 indépendantes,alors X 1 + X 2 ∼ N (µ 1 + µ 2 , √ σ 2 1 + σ 2 2)preuve : (T.D.)généralisation


4.2. CALCULS <strong>DE</strong> PROBABILITÉ 41X i ∼ N (µ i , σ i ), X i sont indépendantes alorsn∑n∑n∑X i ∼ N (µ, σ) avec µ = µ i <strong>et</strong> σ 2 = σi 2 .i=1i=1i=14.2 Calculs <strong>de</strong> probabilité4.2.1 Calculs à partir <strong>de</strong> N (0, 1) : ULe problème vient du fait qu’il n’existe pas <strong>de</strong> fonction analytiquement exprimablequi correspon<strong>de</strong> à une primitive <strong>de</strong> f(x) = √ 1 x 2e − 2 . 2πComment calculer P (a < U < b) = ∫ bf(t)dt = F (b)−F (a) si l’on ne connaitapas d’expression <strong>de</strong> F ?La seule possibilité est d’utiliser <strong>de</strong>s métho<strong>de</strong>s numériques perm<strong>et</strong>tant <strong>de</strong>faire le calcul approché <strong>de</strong> l’intégrale.Ainsi <strong>de</strong>s spécialistes ont établi <strong>de</strong>s tables perm<strong>et</strong>tant <strong>de</strong> faire les calculs <strong>de</strong>probabilité.On a à notre disposition 2 tables :La fonction <strong>de</strong> répartition (table 1) <strong>et</strong> les fractiles(table 2):La table 1On lit les valeurs <strong>de</strong> la fonction <strong>de</strong> répartition F <strong>de</strong> N (0, 1).C’est une table à double entrée qui donne P (U ≤ u) pour u donné.↓N (0,1)→ on cherche la ligne correspondant à la partie entière <strong>et</strong> au 1 erdécimal <strong>de</strong> u.→ la colonne correspondant au 2 eme chiffre décimal <strong>de</strong> u.puis à l’intersection, on lit la probabilité cherchée.ex : P (U ≤ 0, 38) = 0, 6480P (U ≤ 1, 29) = 0, 9015Que fait-on pour calculer P (U < −1) si U ∼ N (0, 1) ?chiffrePropriété 1


42CHAPTER 4. LOI NORMALE OU LOI <strong>DE</strong> LAPLACE - GAUSS - GÉNÉRALITÉSU ∼ N (0, 1) u > 0P (U < −u) = F (−u) = 1 − F (u)P (U < −1) = 1 − P (U < 1) = 0, 1587Propriété 2 u > 0P (U > u) = 1 − P (U < u) = 1 − F (u)Propriété 3P (u 1 ≤ U ≤ u 2 ) = F (u 2 ) − F (u 1 )Propriété 4F (u) ≥ 1/2 ⇔ u ≥ 0F (u) ≤ 1/2 ⇔ u ≤ 0Remarque 1 : pour les probabilités d’intervalles, il est indifférent <strong>de</strong> considérer<strong>de</strong>s intervalles fermés, ouverts ou mixtes puisque la probabilité d’unpoint est nulle.Remarque 2 : Si on a à calculer P (U ≤ u)avec U ∼ N (0, 1) avec 3 décimales :(ex P (U < 1, 645)) on fait une interpolation linéaire :Supposons que figurent dans la table 1 u 1 <strong>et</strong> u 2 tq u 1 < u < u 2 on considèreque F (u) − F (u 1)≃ F (u) − F (u 2)ce qui donnerau − u 1 u − u 21F (u) = [(u − u 2 )F (u 1 ) + (u 1 − u)F (u 2 )].u 1 − u 2Pour l’exemple: 1, 64 < u < 1, 65F (u) − F (1, 64) F (u) − F (1, 65)≃0, 05−0, 050, 095⇒ F (u) ≃F (1, 65) + F (1, 64)2=Propriété 5 U ∼ N (0, 1)P (|U| < u) = 2F (u) − 1ex : P (|U| < 1.96) = 2F (1, 96) − 1 = 2.0, 9750 − 1 = 0, 95Propriété 6 U ∼ N (0, 1)P (|U| > u) = 2[1 − F (u)]


4.2. CALCULS <strong>DE</strong> PROBABILITÉ 43C’est la probabilité pour qu’une loi Normale centrée réduite s’écarte <strong>de</strong> samoyenne <strong>de</strong> plus <strong>de</strong> u fois son écart type.Remarque : pour les gran<strong>de</strong>s valeurs <strong>de</strong> u, on dispose d’une ligne supplémentairemais détaillée. Pour u > 3, les valeurs <strong>de</strong> F (u) varient peu <strong>et</strong> sont proches<strong>de</strong> 1.La table 2Elle donne les fractiles <strong>de</strong> la loi N (0, 1).Définition : on appelle fractile d’ordre α (0 ≤ α ≤ 1),pour une fonction <strong>de</strong> répartition F , la valeur u α tq F (u α ) = α i.e P (U ≤ u α ) = α.ExempleP (U < t) = 0, 01 ⇒ u 0,01 = −2, 3263P (U < t) = 0, 96 ⇒ u 0,96 = 1, 7507}P (U < t) = 0, 975 ⇒ u 0,975 = 1, 96(fractile très important en statistiqueP (U < t) = 0, 95 ⇒ u 0,95 = 1, 6449inférentielle)Ces calculs <strong>de</strong> fractiles seront particulièrement utiles pour l’obtention <strong>de</strong>sintervalles <strong>de</strong> confiance <strong>et</strong> réalisation <strong>de</strong>s tests.4.2.2 Loi Normale qq N (µ, σ)X ∼ N (µ, σ)1 er étape : se ramener à la loi N (0, 1) : on sait que si X ∼ N (µ, σ) alorsX − µ∼ N (0, 1).σ2 e étape : Utiliser les tables 1 <strong>et</strong> 2.3 e étape : Donner le résultat.• X ∼ N (3, 2) Calculer ( P (X < 6, 24) )X − 3 6, 24 − 3P (X < 6, 24) = P


44CHAPTER 4. LOI NORMALE OU LOI <strong>DE</strong> LAPLACE - GAUSS - GÉNÉRALITÉS• X ∼ N (−4, 5) Calculer P ((X < 1, 65) )X + 41 er étape : P (X < 1, 65) = P < 1, 1352 e étape : X + 4 = U ∼ N (0, 1) P (U < 1, 13) = F (1, 13) = 0, 870853 e étape : P (X < 1, 65) = 0, 8708• P (X > 4, 94) X ∼ N (−2,( 4)X + 21 er étape : P (X > 4.94) = P42 e étape : P (U > 1, 735) = 1 − F (1, 735)or 1, 73 < 1, 735 < 1, 74F (u) − F (1, 73)0, 05≃F (u) − F (1, 74)−0, 05)> 1, 735F (1, 73) = 0, 9582F (1, 74) = 0, 9591⇒ F (u) =3 e étape : P (X > 4, 94) = 1 − 0, 95865 = 0, 04135Par interpolationF (1, 74) + F (1, 73)2= 0, 9586• X ∼ N (−3, 2) P (4 < X < 0)1 er étape : P (−4 < X < 0) = P (−0, 5 < X+3 < 1, 5)22 e étape : P (−0, 5 < U < 1, 5) = F (1, 5) − F (−0, 5)= F (1, 5) − [1 − F (0, 5)]= F (1, 5) + F (0, 5) − 1 = 0, 9332 + 0, 6915 − 1 = 0, 62473 e étape : P (−4 < X < 0) = 0, 6247• X ∼ N (1, 3) P (0 < X < 2|X > −2) =P (0 < X < 2)P (X > −2)1 e étape : P (0 < X < 2) = P [1/3 < X−1 < 1/3] = P (|U| < 1/3)3P (X > −2) = P ( X−1> −1 ) = P (U > −1)32 e étape : P (|U| < 1/3) = 2F (1/3) − 1P (U > −1) = P (U < 1)3 e étape : Proba ≃ 0, 31• X ∼ N (2, 0, 5) calculer le fractile d’ordre 0,675 <strong>de</strong> XP (X ≤ u 0,675 ) = 0, 675( X − 21 er étape : P (X ≤ x 0,675 ) = 0, 675 ⇔ P0, 5 ≤ x )0,675 − 2= 0, 675.0, 52 e étape : P (U < u 0,675 ) = 0, 675 ⇒ u 0,675 = 0, 4538


4.2. CALCULS <strong>DE</strong> PROBABILITÉ 453 e étape : 2[x 0,675 − 2] = u 0,675 = 0, 4538 ⇒ x 0,675 = 2, 2269


46CHAPTER 4. LOI NORMALE OU LOI <strong>DE</strong> LAPLACE - GAUSS - GÉNÉRALITÉS


Chapter 5Condition d’application <strong>de</strong> laloi normale5.1 Convergence <strong>de</strong>s variables aléatoiresLes variables aléatoires sont <strong>de</strong>s applications <strong>de</strong> Ω dans R, Ω étant l’universdéfini par l’expérience aléatoire.On peut concevoir une suite d’épreuves aléatoires définissant <strong>de</strong>s univers Ω n<strong>et</strong> donc <strong>de</strong>s v.a. aléatoires X n .On peut se <strong>de</strong>man<strong>de</strong>r quel est le comportement limite <strong>de</strong> ces v.a. quandn → +∞.Il existe plusieurs notions <strong>de</strong> convergence.5.1.1 Convergence en loiDéfinition(X n ) n∈N converge en loi vers une v.a. X ssilim F n(x) = F (x) ∀x tq F (x) est continue.n→+∞F n : fonction <strong>de</strong> repartition <strong>de</strong> X nLF : fonction <strong>de</strong> repartition <strong>de</strong> X (notation : X n −→ X)PropriétésPour les v.a. discrètes X nL−→ X ⇔ P (X n = x) −→ P (X = x) ∀x.n→∞Pour les v.a continues X n −→ X ⇔ ∀(a, b) ∈ R 2L47P (a ≤ X n < b) −→n→+∞P (a ≤ X < b).


48CHAPTER 5. CONDITION D’APPLICATION <strong>DE</strong> LA LOI NORMALE5.1.2 Convergence en probabilité• Définition(X n ) converge en probabilité vers X si <strong>et</strong> seulement si∀ɛ > 0, P (|X n − X| > ɛ) −→n→∞0P(notation : X n −→ X)Propriétéla convergence en probabilité ⇒ convergence en loiLa réciproque est fausse.Théorème ⎧⎨Si⎩E(X n ) −→n→+∞ µ alors X nV (X n ) −→n→+∞ 0P−→ µPreuve : il s’agit <strong>de</strong> démontrer que P (|X n − µ| > ɛ)0. Pour simplifieron supposera que E(X n ) = µ ∀n.Pour cela, on a besoin du résultat suivant :Inégalité <strong>de</strong> Bienaymé-TchebychevSoit la v.a Z telle que E(Z) = µ, σ(Z) = σ,∥ alors P (|Z − µ| > kσ) ≤ 1 ∀k ∈ R +∗ .k 2preuve <strong>de</strong> l’inégalité <strong>de</strong> B.J admise−→n→+∞Fin <strong>de</strong> la preuve du théorème : soit σ n = σ(X n ), soit k n ∈ R tq k n σ n =ɛ. On a 1 k n= σ nɛ , d’oùP (|X n − µ| > ɛ) = P (|X n − µ| > k n σ n ).D’après l’inégalité B.T, on a0 < P (|X n − µ| > k n σ n ) ≤ 1 } {{ } kn2↓ n → +∞0= σ2 nɛ = 1 ɛ V (X n)} {{ }↓ n → +∞0□.


5.2. LOI FAIBLE <strong>DE</strong>S GRANDS NOMBRES 495.2 Loi faible <strong>de</strong>s grands nombresThéorème Loi faible <strong>de</strong>s grands nombresSoient (X i ) i=1,...,n n v.a indépendantes telles que E(X i) = µ iV (X i ) = σi2Si 1 ∑i=nµ i −→nµ <strong>et</strong> 1n∑σn→+∞ n 2 i2 −→ 0,n→+∞i=1i=1alors 1 ∑i=nPX i −→ µ.npreuve :i=1Soit S n = 1 n□n∑X i .i=1on aE(S n ) = 1 nV (S n ) = 1 n 2n∑µ i → µi=1n∑σi 2 → 0i=1Corollaire : Théorème <strong>de</strong> Moivre-LaplaceSoit ξ une expérience aléatoire qui a2 résultats possibles S <strong>et</strong> E <strong>et</strong>P (S) = p.On répète n fois ξ <strong>de</strong> façon indépendante.Soit F n : proportion <strong>de</strong> S.PAlors F n −→ p.preuve :F n = 1 nn∑i=1X iE(F n ) = 1 n∑E(Xi ) = 1 n np = p⎫⎪⎬⇒ S n → P µ⎪⎭Application du théorème du paragraphe précé<strong>de</strong>nt.X i : variables <strong>de</strong> Bernoulli indépendantes.V (F n ) = 1 ∑V (Xi ) = 1 n 2 n np(1 − p) = 1 p(1 − p) → 02 nDonc d’après la loi faible <strong>de</strong>s grands nombresF nP−→ p□


5.4. APPROXIMATION D’UNE LOI B(N, P ) 51En pratique : npq > 18oun > 30p ∈ [0, 1 ; 0, 9]Comment procè<strong>de</strong> t-on pour approcher une loi discrète par une loi continue ?En eff<strong>et</strong> pour les lois discrètes, les probabilités sont concentrées en <strong>de</strong>s points<strong>et</strong> pour les lois continues tout point a une probabilité nulle !Exemple : soit X ∼ B(100, 0, 4) alors X ≈ N (40, 4, 9)Comment approche-t-on P (X = 50) ?On fait ce qu’on appelle une correction <strong>de</strong> continuitéProposition : correction <strong>de</strong> continuitéSoit X une v.a.d telle que E(X) = µ, σ(X) = σ <strong>et</strong> X(Ω) ⊂ Nque l’on approche par Y uneloi N (µ, σ) alors(P (X < k) = P Y ≤ k − 1 )( 2P (X ≤ k) = P Y ≤ k + 1 )( 2P (X = k) = P k − 1 2 ≤ Y ≤ k + 1 )(2P (k 1 ≤ X ≤ k 2 ) = P k 1 − 1 2 ≤ Y ≤ k 1 + 1 )2Exemple : Dans une population bovine, on adm<strong>et</strong> que la robe d’un animal secaractérise par la présence d’un gène dominant S (robe unie) ou d’un gènerécessif s (robe tach<strong>et</strong>ée bleue).Selon la théorie <strong>de</strong> Men<strong>de</strong>l un croisement d’animaux hétérozygotes (S, s) ×(S, s) donne 3/4 robes unies <strong>et</strong> 1/4 robes tach<strong>et</strong>ées bleues.Sur un échantillon <strong>de</strong> 160 bovins issus <strong>de</strong> croisements (S, s) × (S, s) on noteX = nombre d’animaux ayant une robe tach<strong>et</strong>ée bleue.a) Déterminer la loi <strong>de</strong> X (X ∼ B(160, 1/4))b) Par quelle loi peut-on approximer X (par N (40, √ 30) car n > 30 p ∈[0, 1, 0, 9] ou npq = 30 > 18)c) Probabilité que parmi 160 bovins le nombre <strong>de</strong> tach<strong>et</strong>ées <strong>de</strong> bleues soit entre35 <strong>et</strong> 50:


52CHAPTER 5. CONDITION D’APPLICATION <strong>DE</strong> LA LOI NORMALEP (35 ≤ X ≤ 50) ≈ P (35 − 1/2 ≤ Y ≤ 50 + 1/2)= P (34, 5 ≤ Y ≤ 50, 5)= P= F= F(−5,5√30≤ U ≤ 10,5(10,5)√30− F( )√10,530−√30)(−5,5√30)[1 − F()]√5,5305.5 Approximation d’une loi <strong>de</strong> PoissonThéorèmeSi m ≥ 20 alors la loi <strong>de</strong> Poisson P(m) peut être approximée par N (m, √ m).La formulation mathématique est: si X ∼ P(m) alors X − m √ mL−→ N (0, 1).La preuve rigoureuse peut se faire mais <strong>de</strong>man<strong>de</strong> <strong>de</strong>s connaissances en analysemathématique.On adm<strong>et</strong>tra le théorème.Remarque : comme précé<strong>de</strong>mment on fait la correction <strong>de</strong> continuité.5.6 ExercicesExemple 1Les gains mensuels en francs G d’un représentant sont supposés suivre uneloi Normale. Il a pu constater, sur un grand nombre <strong>de</strong> mois, la répartitionsuivante <strong>de</strong>s gains en F :P (gain > 18000) = 4, 46%P (15800 < gain ≤ 18000) = 93, 26%P (gain ≤ 15800) = 2, 28%1 - Calculer la moyenne <strong>et</strong> l’écart type <strong>de</strong> G qui suit N (µ, σ).2 - Si on suppose que les gains du représentant sont indépendants d’un moisà l’autre, quelle est la loi <strong>de</strong> proba <strong>de</strong> X = gain durant 3 mois ?3 - P (X ≥ 53000) ?Exercice 2Un vigneron commercialise 2 types <strong>de</strong> vin :


5.6. EXERCICES 53les vins ”du terroir” <strong>et</strong> les vins ”grand cru” <strong>et</strong> vendus à 30 F la bouteille. Ilsubsiste <strong>de</strong>s erreurs d’étiqu<strong>et</strong>age <strong>et</strong> on adm<strong>et</strong> qu’un ach<strong>et</strong>eur <strong>de</strong> vin ”grandcru” aura une probabilité p = 0, 12 d’avoir en fait une bouteille <strong>de</strong> vin ”duterroir”.1) Un restaurateur achète 200 bouteilles ”grand cru”X : nb <strong>de</strong> bouteille <strong>de</strong> vin du terroir parmi ces bouteillesQuelle est la loi <strong>de</strong> probabilité <strong>de</strong> X ? Calculer E(X) V (X)Par quelle loi peut-on approcher X ?2) Calculer P (X > 20) <strong>et</strong> P (X < 30|X > 20)3) Au fur <strong>et</strong> à mesure <strong>de</strong> la consommation <strong>de</strong>s 200 bouteilles, le restaurateura pu détecter chacune <strong>de</strong>s bouteilles ”du terroir”. Il déci<strong>de</strong> alors <strong>de</strong> ne payerque les bouteilles ”grand cru” <strong>et</strong> <strong>de</strong> refuser <strong>de</strong> payer les bouteilles du terroir.Calculer, avec c<strong>et</strong>te hypothèse, la probabilité d’un bénéfice néanmoins positifpour le vigneron ”sachant que” chaque bouteille <strong>de</strong> grand cru lui revient à 18F <strong>et</strong> terroir 8 F.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!