11.02.2015 Views

Méthode de Monte Carlo. - Université du Maine

Méthode de Monte Carlo. - Université du Maine

Méthode de Monte Carlo. - Université du Maine

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

MÉTHODE DE MONTE CARLO.<br />

Alexandre Popier<br />

Université <strong>du</strong> <strong>Maine</strong>, Le Mans<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 1 / 95


PLAN DU COURS<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 2 / 95


BUT : CALCUL D’ESPÉRANCE.<br />

Soient X une v.a.r. et f : R → R une fonction.<br />

BUT<br />

Calculer numériquement E(f (X)).<br />

EXEMPLES<br />

FINANCE : prix d’une option d’achat<br />

◮ modèle <strong>de</strong> Cox-Ross-Rubinstein :<br />

⎡(<br />

1<br />

C =<br />

(1 + r) N E ⎣ S 0<br />

N<br />

∏<br />

i=1<br />

T i − K<br />

) +<br />

⎤<br />

P(T i = 1 + u) = p = 1 − P(T i = 1 + d) où p = (u − r)/(u − d).<br />

◮ modèle <strong>de</strong> Black-Scholes :<br />

[ ( ) ] +<br />

C = e −rT E S 0 e (r−σ2 /2)T +σW T<br />

− K avec W T ∼ N (0, T ).<br />

⎦ .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 3 / 95


BUT : CALCUL D’ESPÉRANCE.<br />

Soient X une v.a.r. et f : R → R une fonction.<br />

BUT<br />

Calculer numériquement E(f (X)).<br />

EXEMPLES<br />

FINANCE : prix d’une option d’achat<br />

ASSURANCE : calcul <strong>de</strong> la prime<br />

◮ Prime pure : E(X),<br />

◮ Prime exponentielle : 1 c ln E(ecX ),<br />

◮ Prime quantile : F<br />

−1<br />

(1 − ε),<br />

X<br />

CALCUL DE PERTE ou Value At Risk en finance : P(X < seuil).<br />

etc.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 3 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 4 / 95


LOI DES GRANDS NOMBRES.<br />

THÉORÈME<br />

Soit (Y i ) i∈N une suite <strong>de</strong> variables aléatoires.<br />

HYPOTHÈSES<br />

indépendance<br />

distribution i<strong>de</strong>ntique (comme une v.a. Y )<br />

E(|Y |) < +∞.<br />

Alors presque sûrement :<br />

lim Y 1<br />

n = lim<br />

n→+∞ n→+∞ n (Y 1 + . . . + Y n ) = E(Y ).<br />

Autrement dit, pour n assez grand<br />

1<br />

n∑<br />

Y i ≈ E(Y ).<br />

n<br />

i=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 5 / 95


MÉTHODE DE MONTE CARLO.<br />

MÉTHODE<br />

Pour calculer µ = E(f (X)),<br />

simuler N v.a. (X n ) 1≤n≤N i.i.d. <strong>de</strong> même loi que X,<br />

poser :<br />

ˆµ N = 1 N<br />

N∑<br />

i=1<br />

f (X i ) = f (X 1) + . . . + f (X N )<br />

.<br />

N<br />

Loi <strong>de</strong>s grands nombres : ˆµ N ≈ µ pour N grand.<br />

PROBLÈME : quelle est l’erreur commise <br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 6 / 95


LOI EXPONENTIELLE (2) (ESPÉRANCE 1/2)<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 7 / 95


LOI DE PARETO (0,5) PAS D’ESPÉRANCE<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 8 / 95


THÉORÈME CENTRAL LIMITE.<br />

THÉORÈME<br />

Soit (Y i ) i∈N une suite <strong>de</strong> v.a.<br />

HYPOTHÈSES<br />

indépendance<br />

distribution i<strong>de</strong>ntique (comme une v.a. Y )<br />

E(|Y | 2 ) < +∞.<br />

Alors Y n<br />

∼ = N (0, 1) : pour tout a < b<br />

(<br />

lim P a < √ )<br />

n Y n − µ<br />

< b = P(a < Z < b), Z ∼ N (0, 1).<br />

n→+∞ σ<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 9 / 95


INTERVALLE DE CONFIANCE.<br />

TCL : µ = E(Y 1 ), Y n = 1 n (Y 1 + . . . + Y n )<br />

P<br />

(Y n − a√ σ ≤ µ ≤ Y n + a σ ) (<br />

√ = P −a ≤ √ )<br />

n Y n − µ<br />

≤ a<br />

n n σ<br />

≈<br />

P(|Z | ≤ a),<br />

où σ 2 = Var(f (X)).<br />

Pour un niveau <strong>de</strong> confiance α ∈ [0, 1] fixé, il existe c α > 0 tel que<br />

Donc avec a = c α , pour n grand<br />

avec<br />

P(|Z | ≤ c α ) = α.<br />

P (µ ∈ I α,n ) ≈ P(|Z | ≤ c α ) = α<br />

]<br />

σ σ<br />

I α,n =<br />

[Y n − c α √n , Y n + c α √n<br />

: intervalle <strong>de</strong> confiance.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 10 / 95


MÉTHODE DE MONTE CARLO : ERREUR.<br />

MÉTHODE<br />

Simuler N v.a. (X n ) 1≤n≤N i.i.d. <strong>de</strong> même loi que X.<br />

Poser :<br />

ˆµ N = 1 N<br />

N∑<br />

i=1<br />

f (X i ) = f (X 1) + . . . + f (X N )<br />

.<br />

N<br />

Erreur donnée par un intervalle <strong>de</strong> confiance :<br />

P ( µ ∈ I α,N<br />

)<br />

≈ α<br />

avec<br />

[<br />

]<br />

σ<br />

σ<br />

I α,N = ˆµ N − c α √N , ˆµ N + c α √N , σ 2 = Var (f (x)).<br />

Problème : on ne connaît pas en général la variance σ 2 .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 11 / 95


ESTIMATION DE LA VARIANCE.<br />

On estime σ 2 grâce à l’estimateur Sn 2 = 1<br />

n − 1<br />

montrer que<br />

ES 2 n = σ 2 = Var(Y ) et<br />

n∑<br />

(Y i − Y n ) 2 . On peut<br />

i=1<br />

lim<br />

n→+∞ S2 n = σ 2 .<br />

MÉTHODE<br />

Simuler N v.a. (X n ) 1≤n≤N i.i.d. <strong>de</strong> même loi que X.<br />

Poser :<br />

ˆσ N = √ 1 N∑<br />

(f (X i ) − ˆµ N )<br />

N − 1<br />

2 .<br />

i=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 12 / 95


MÉTHODE DE MONTE CARLO COMPLÈTE.<br />

MÉTHODE<br />

1 Simuler N v.a. (X n ) 1≤n≤N i.i.d. <strong>de</strong> même loi que X.<br />

2 Poser :<br />

ˆµ N = 1 N∑<br />

f (X i ) = f (X 1) + . . . + f (X N )<br />

,<br />

N<br />

N<br />

i=1<br />

ˆσ N = √ 1 N∑<br />

(f (X i ) − ˆµ N )<br />

N − 1<br />

2 .<br />

3 Erreur donnée par intervalle <strong>de</strong> confiance avec niveau <strong>de</strong><br />

confiance α<br />

[<br />

]<br />

ˆσ N ˆσ<br />

I α,N = ˆµ N − c α √ N<br />

, ˆµ N + c α √ .<br />

N N<br />

i=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 13 / 95


LOI EXPONENTIELLE (2) (ESPÉRANCE 1/2)<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 14 / 95


LOI EXPONENTIELLE (2) (DÉCROISSANCE EN 1/ √ N)<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 15 / 95


PARETO (1,5) (ESPÉRANCE 3, PAS DE VARIANCE)<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 16 / 95


PARETO (1,5) (TAILLE INTERVALLE CONFIANCE)<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 17 / 95


MÉTHODE DE MONTE CARLO : REMARQUES.<br />

OBLIGATOIRE<br />

Donner ˆµ N sans intervalle <strong>de</strong> confiance n’a aucune valeur !<br />

ERREUR<br />

Pour diminuer la taille <strong>de</strong> IC,<br />

diminuer le niveau <strong>de</strong> confiance α,<br />

augmenter N,<br />

diminuer σ (−→ ré<strong>du</strong>ction <strong>de</strong> variance).<br />

AVANT :<br />

SIMULATION<br />

Que signifie « Simuler N v.a. (X n ) 1≤n≤N i.i.d. <strong>de</strong> même loi que X » <br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 18 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 19 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 20 / 95


THÉORÈME FONDAMENTAL DE LA SIMULATION.<br />

THÉORÈME<br />

Toute variable aléatoire X à valeurs dans R d peut être simulée sous la<br />

forme<br />

X = en loi<br />

f (U 1 , U 2 , . . . , U n )<br />

où<br />

(U 1 , U 2 , . . . , U n ) est uniformément répartie sur [0, 1] n ,<br />

la fonction f : R n → R d est borélienne et a ses points <strong>de</strong><br />

discontinuité dans un ensemble Lebesgue-négligeable.<br />

Il est même possible <strong>de</strong> réaliser ceci en imposant n = 1 ou n = d ou<br />

encore n ≥ 1 donné.<br />

REMARQUE : f est « explicite ».<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 21 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 22 / 95


SUITES ALÉATOIRES.<br />

Considérons une suite finie x := x 1 , . . . , x n ∈ {0, 1}. Toutes les suites<br />

finies <strong>de</strong> ce type sont équiprobables et <strong>de</strong> probabilité 2 −n .<br />

Certaines suites moins aléatoires que d’autres<br />

1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1<br />

1, 1, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1<br />

1, 0, 0, 1, 0, 1, 1, 1, 0, 1, 0, 1, 1, 0, 0, 0, 1, 0<br />

Quel sens donner et comment quantifier le caractère aléatoire<br />

d’une suite finie ou infinie donnée <br />

Comment pro<strong>du</strong>ire <strong>de</strong>s suites finies qui sont <strong>de</strong> « bonnes »<br />

approximations finies <strong>de</strong>s suites infinies probables correspondant<br />

à <strong>de</strong>s réalisations i.i.d. d’une loi donnée Comment mesurer la<br />

qualité <strong>de</strong> ces algorithmes <br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 23 / 95


SUITES ALÉATOIRES.<br />

D.H. Lehmer (1951) :<br />

A random sequence is a vague notion... in which each term is<br />

unpredictable to the uninitiated and whose digits pass a certain<br />

number of tests traditional with statisticians...<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 23 / 95


NOMBRES PSEUDO-ALÉATOIRES.<br />

Simuler la loi uniforme consistera à pro<strong>du</strong>ire par un algorithme <strong>de</strong>s<br />

suites finies <strong>de</strong> nombres que nous pouvons considérer comme autant<br />

<strong>de</strong> réalisations indépendantes <strong>de</strong> variables aléatoires uniformes sur<br />

[0, 1].<br />

Mathématiquement les n sorties successives d’un tel générateur<br />

seront considérées comme la donnée <strong>de</strong> U 1 (ω), . . . , U n (ω) pour un<br />

ω ∈ Ω où les U i sont <strong>de</strong>s v.a.r. U i : (Ω, F, P) → [0, 1] <strong>de</strong> loi uniforme.<br />

Matlab permet <strong>de</strong> simuler la loi uniforme via la fonction rand, qui<br />

renvoie un nombre « aléatoire » compris entre [0, 1].<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 24 / 95


NOMBRES PSEUDO-ALÉATOIRES.<br />

Intéressons nous au nombre<br />

0, 950129285147175.<br />

C’est par défaut le premier nombre pro<strong>du</strong>it par la fonction rand <strong>de</strong><br />

Matlab.<br />

Pour cela redémarrer Matlab, et exécuter les comman<strong>de</strong>s<br />

✞<br />

format long<br />

rand<br />

✝<br />

Si tous les utilisateurs <strong>de</strong> Matlab trouvent toujours ce même nombre il<br />

ne peut être qualifié d’aléatoire. D’ailleurs il ne l’est pas.<br />

☎<br />

✆<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 25 / 95


NOMBRES PSEUDO-ALÉATOIRES.<br />

À ce sta<strong>de</strong> il est important <strong>de</strong> faire la distinction entre <strong>de</strong>ux types <strong>de</strong><br />

métho<strong>de</strong>s <strong>de</strong> génération <strong>de</strong> suites « aléatoires ».<br />

Métho<strong>de</strong>s prédictibles : ce sont <strong>de</strong>s métho<strong>de</strong>s déterministes<br />

basées entièrement sur <strong>de</strong>s algorithmes bien établis qui<br />

nécessitent d’être initialisés. On parlera <strong>de</strong> suites ou nombres<br />

pseudo-aléatoires.<br />

Métho<strong>de</strong>s non-prédictibles : surtout utiles en cryptographie, où il<br />

est capital que le hasard utilisé ne soit pas prédictible ni<br />

repro<strong>du</strong>ctible. Elles peuvent être obtenues à partir <strong>de</strong>s premières<br />

en utilisant <strong>de</strong>s « fonctions <strong>de</strong> hachage », difficilement inversibles<br />

en terme <strong>de</strong> temps <strong>de</strong> calcul.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 26 / 95


ALGORITHMES PAR CONGRUENCE (LEHMER, 1950).<br />

utilisent trois paramètres entiers a, c et m et une valeur initiale x 0 ,<br />

appelé seed ;<br />

créent une suite d’entiers y n+1 = ay n + c mod m compris entre 0<br />

et m ;<br />

ramènent les valeurs entre 0 et 1 : x n = y n /m.<br />

Exemple : a = 13, c = 0, m = 31 et x 0 = 1. Suite <strong>de</strong>s y n :<br />

Celle <strong>de</strong>s x n :<br />

1 13 14 27 10 6 16 22 7 29 5 3 . . .<br />

0.0323, 0.4194, 0.4516, 0.8710, 0.3226, 0.1935, 0.5161, . . .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 27 / 95


ALGORITHMES PAR CONGRUENCE (LEHMER, 1950).<br />

Dans les années 60, sur IBM, Scientific Subroutine Package (SSP) :<br />

a = 65539, c = 0, et m = 2 31 .<br />

Comme le codage se fait en 32-bits, l’arithmétique mo<strong>du</strong>lo 2 31 se<br />

fait très rapi<strong>de</strong>ment.<br />

a = 2 16 + 3 : multiplication par a = shift + addition.<br />

Problème : y k+2 = 6y k+1 − 9y k : très forte corrélation.<br />

cf. graphique randssp<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 27 / 95


ALGORITHMES PAR CONGRUENCE (LEHMER, 1950).<br />

À partir <strong>de</strong> Matlab 4, on a choisi : a = 7 5 = 16807, c = 0,<br />

m = 2 31 − 1 = 2147483647.<br />

Toujours disponible via<br />

◮ s=rand(’seed’) : fournit le paramètre x0 <strong>de</strong> cette métho<strong>de</strong>.<br />

◮ rand(’seed’,s) : impose à Matlab d’utiliser cet algorithme avec<br />

x 0 = s.<br />

Périodicité gran<strong>de</strong> : m − 1.<br />

Génére toutes les valeurs k/m avec k = 1, . . . , m, i.e.<br />

[0, 1] ≈ D r = {k/m, 1 ≤ k ≤ m}<br />

⊂ [0.00000000046566, 0.99999999953434].<br />

cf. graphique randmcg<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 27 / 95


ALGORITHME PAR DÉFAUT.<br />

À partir <strong>de</strong> la version 5 (1995),<br />

Du à G. Marsaglia.<br />

N’utilise plus les algorithmes à la Lehmer, plus <strong>de</strong> multiplication,<br />

plus <strong>de</strong> division.<br />

Génère directement <strong>de</strong>s nombres décimaux.<br />

Disponible via<br />

◮ s=rand(’state’) : fournit le paramètre x0 <strong>de</strong> cette métho<strong>de</strong><br />

(vecteur <strong>de</strong> dimension 35).<br />

◮ rand(’state’,s) : impose à Matlab d’utiliser cet algorithme<br />

avec x 0 = s.<br />

Peut générer tous les nombres (flottants) entre 2 −53 et 1 − 2 −53<br />

(on ne connaît pas <strong>de</strong> nombre non atteint).<br />

Pério<strong>de</strong> proche <strong>de</strong> 2 1492 .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 28 / 95


ALGORITHME « MERSENNE TWISTER ».<br />

Troisième algorithme implémenté sous Matlab (version 5 et plus).<br />

Disponible via<br />

◮ s=rand(’twister’) : fournit le paramètre x 0 <strong>de</strong> cette métho<strong>de</strong><br />

(vecteur <strong>de</strong> dimension 625).<br />

◮ rand(’twister’,s) : impose à Matlab d’utiliser cet algorithme<br />

avec x 0 = s.<br />

Pério<strong>de</strong> <strong>de</strong> l’ordre <strong>de</strong> (2 19937 − 1)/2.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 29 / 95


IMPORTANCE DE LA RACINE.<br />

REMARQUE<br />

Connaître la valeur <strong>de</strong> la racine avant <strong>de</strong> lancer un programme peut<br />

être important ! Notamment pour pouvoir :<br />

comparer <strong>de</strong>s vitesses <strong>de</strong> calcul ;<br />

générer <strong>de</strong>s variables aléatoires couplées.<br />

Pour éviter d’avoir toujours le même nombre <strong>de</strong> départ :<br />

✞<br />

rand ( ’ s t a t e ’ ,sum(100∗ clock ) )<br />

rand<br />

✝<br />

☎<br />

✆<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 30 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 31 / 95


FONCTION DE RÉPARTITION.<br />

DÉFINITION<br />

La fonction <strong>de</strong> répartition <strong>de</strong> X, notée F X , est définie sur R par :<br />

∀x ∈ R, F X (x) = P(X ≤ x).<br />

PROPOSITION<br />

Soit F X la fonction <strong>de</strong> répartition d’une v.a.r. X. Alors :<br />

1 F X (x) ∈ [0, 1].<br />

2 F X est croissante.<br />

3 lim F X (x) = 0 et lim F X (x) = 1.<br />

x→−∞ x→+∞<br />

4 F X est continue à droite et a une limite à gauche en tout point.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 32 / 95


V.A. À DENSITÉ.<br />

DÉFINITION<br />

Une v.a. X est à <strong>de</strong>nsité (par rapport à la mesure <strong>de</strong> Lebesgue) s’il<br />

existe f t.q.<br />

pour tout x ∈ R, f (x) ≥ 0 ;<br />

∫ +∞<br />

−∞<br />

f (x) dx = 1 ;<br />

et pour tout −∞ ≤ a < b ≤ +∞, P(a < X ≤ b) = ∫ b<br />

a f (t)dt.<br />

EXEMPLE : LOI UNIFORME SUR [a, b]<br />

X suit une loi uniforme sur [a, b] si sa <strong>de</strong>nsité f est<br />

f (x) = 1<br />

b − a 1 [a,b](x).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 33 / 95


V.A. À DENSITÉ.<br />

PROPOSITION<br />

Si X a pour <strong>de</strong>nsité f , alors<br />

∀x ∈ R, F X (x) = P(X ≤ x) = ∫ x<br />

−∞ f (t)dt.<br />

F X est continue.<br />

F X est dérivable aux points <strong>de</strong> continuité <strong>de</strong> f avec f X (x) = F ′ X (x).<br />

EXEMPLE : LOI UNIFORME SUR [a, b]<br />

Si X suit la loi uniforme sur [a, b], alors<br />

F X (x) = 0 si x ≤ a,<br />

F X (x) = x − a si x ∈ [a, b],<br />

b − a<br />

F X (x) = 1 pour x ≥ b.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 33 / 95


V.A. DISCRÈTES.<br />

DÉFINITION<br />

Une v.a. X est discrète si elle ne prend qu’un nombre fini (ou<br />

dénombrable) <strong>de</strong> valeurs {x i ∈ R, i ∈ N} avec probabilité<br />

p i = P(X = x i ) ≥ 0. De plus<br />

+∞∑<br />

P(X = x i ) =<br />

+∞∑<br />

i=0<br />

i=0<br />

p i = 1.<br />

REPRÉSENTATION en tableau<br />

X x 0 x 1 x 2 x 3 . . . (valeurs prises parX)<br />

P(X = x i ) p 0 p 1 p 2 p 3 . . . (probabilité)<br />

PROPOSITION<br />

Si X est une v.a. discrète, F X est constante par morceaux.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 34 / 95


EXEMPLE : DÉ À SIX FACES.<br />

FONCTION DE RÉPARTITION d’une v.a. <strong>de</strong> loi uniforme sur {1, . . . , 6}<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 35 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 36 / 95


MÉTHODE D’INVERSION.<br />

Si X est une v.a.r. alors la fonction <strong>de</strong> répartition F X est définie par<br />

∀x ∈ R, F X (x) = P(X ≤ x).<br />

Comme F X est croissante, on peut définir la fonction pseudo-inverse<br />

q X <strong>de</strong> F X ainsi :<br />

∀u ∈ (0, 1), q X (u) = inf{x ∈ R, F X (x) > u}.<br />

THÉORÈME<br />

Si U suit une loi uniforme sur [0, 1], q X (U) suit la même loi que X.<br />

PROPOSITION<br />

Si F est inversible, alors q = F −1 .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 37 / 95


EXEMPLES.<br />

Si U suit une loi uniforme sur [0, 1], alors<br />

LOI UNIFORME SUR [a, b]<br />

X = a + (b − a)U suit la loi uniforme sur [a, b].<br />

LOI EXPONENTIELLE<br />

X = − 1 ln(1 − U) suit la loi exponentielle <strong>de</strong> paramètre λ.<br />

λ<br />

LOI DE CAUCHY<br />

X = c tan(π(U − 1/2)) suit la loi <strong>de</strong> Cauchy <strong>de</strong> paramètre c.<br />

LOI DE BERNOULLI<br />

Si U < 1 − p, X = 0, sinon X = 1 : suit la loi <strong>de</strong> Bernoulli <strong>de</strong> paramètre<br />

p ∈ [0, 1].<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 38 / 95


LOI DISCRÈTE À SUPPORT FINI.<br />

✞<br />

function r e a l i s = r d i s t ( x , p )<br />

n=length ( p ) ;<br />

r = rand ; a = 0; b = p ( 1 ) ;<br />

for i = 1 : n−1,<br />

i f ( ( r >=a ) & ( r


LOI UNIFORME.<br />

✞<br />

☎<br />

function r e a l i s = r a n d d i s c r ( x , n ,m)<br />

%Renvoie <strong>de</strong>s realisations iid<br />

%<strong>de</strong> loi uniforme sur x(1),...,x(length(x)).<br />

%n et m sont <strong>de</strong>s entiers optionnels, valant 1 par <strong>de</strong>faut.<br />

i f ( nargin ==0)<br />

error ( ’ Pas assez <strong>de</strong> parametres ’ ) ;<br />

e l s e i f ( nargin ==1)<br />

n=1;m=1;<br />

e l s e i f ( nargin ==2)<br />

m=1;<br />

e l s e i f ( nargin >3)<br />

error ( ’ Trop <strong>de</strong> parametres ’ ) ;<br />

end ;<br />

r e a l i s = reshape ( x ( c e i l ( length ( x )∗ rand ( n ,m) ) ) , n ,m) ;<br />

return ;<br />

✝<br />

✆<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 40 / 95


INVERSION : DIMENSION QUELCONQUE.<br />

Soit une v.a. X = (X 1 , X 2 ) <strong>de</strong> loi connue P X sur R 2 avec <strong>de</strong>nsité f > 0.<br />

Fonction <strong>de</strong> répartition <strong>de</strong> X 1 :<br />

∫ x1<br />

∫<br />

F X1 (x 1 ) = f (x, y)dxdy.<br />

−∞<br />

Soit q 1 son inverse.<br />

Fonction <strong>de</strong> répartition F X 1=x 1<br />

X 2<br />

<strong>de</strong> la loi conditionnelle <strong>de</strong> X 2 sachant<br />

X 1 = x 1 :<br />

∫ x2<br />

F X 1=x 1<br />

−∞<br />

X 2<br />

(x 2 ) =<br />

f (x 1, y)dy<br />

∫ +∞<br />

−∞ f (x 1, y)dy .<br />

Inverse : q 2 .<br />

MÉTHODE<br />

Si U 1 et U 2 sont <strong>de</strong>ux v.a. uniformes sur [0, 1] indépendantes, alors<br />

X 1 = q 1 (U 1 ), X 2 = q 2 (q 1 (U 1 ), U 2 ).<br />

R<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 41 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 42 / 95


LOI BINOMIALE.<br />

DÉFINITION<br />

Une v.a. X à valeurs entières comprises entre 1 et N suit une loi<br />

binômiale <strong>de</strong> paramètres N ∈ N ∗ et p ∈ [0, 1] si :<br />

∀k = 1, . . . , N, P(X = k) = C k N pk (1 − p) N−k .<br />

PROPOSITION<br />

Soient U i , i = 1, . . . , N <strong>de</strong>s v.a. uniformes sur [0, 1] indépendantes.<br />

N∑<br />

Soit X le nombre <strong>de</strong>s U i inférieures à p ∈ [0, 1], i.e. X = 1 Ui


LOI GÉOMÉTRIQUE.<br />

DÉFINITION<br />

Une v.a. X à valeurs entières strictement positives suit une loi<br />

géométrique <strong>de</strong> paramètre p ∈]0, 1[ si :<br />

QUELQUES RÉSULTATS :<br />

E(X) = 1 1−p<br />

p<br />

, Var(X) = .<br />

p 2<br />

P(X ≥ k) = (1 − p) k−1 .<br />

PILE OU FACE<br />

∀n ≥ 1, P(X = n) = p(1 − p) n−1 .<br />

Une loi géométrique est la loi <strong>du</strong> nombre <strong>de</strong> tirages à pile ou face<br />

(indépendants) à réaliser pour obtenir face (si face a p % <strong>de</strong> chances<br />

<strong>de</strong> sortir).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 44 / 95


LOI DE POISSON.<br />

DÉFINITION<br />

Une v.a. X à valeurs entières positives suit une loi <strong>de</strong> Poisson <strong>de</strong><br />

paramètre λ > 0 si :<br />

MOMENTS : E(X) = Var(X) = λ.<br />

PROPOSITION<br />

−λ λn<br />

∀n ≥ 0, P(X = n) = e<br />

n! .<br />

Soit (E n ) n∈N v.a. i.i.d. exponentielles <strong>de</strong> paramètre λ. Alors<br />

−λ λn<br />

P(E 1 + . . . + E n ≤ 1 < E 1 + . . . + E n+1 ) = e<br />

n! .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 45 / 95


LOI DE POISSON.<br />

DÉFINITION<br />

Une v.a. X à valeurs entières positives suit une loi <strong>de</strong> Poisson <strong>de</strong><br />

paramètre λ > 0 si :<br />

MOMENTS : E(X) = Var(X) = λ.<br />

MÉTHODE<br />

−λ λn<br />

∀n ≥ 0, P(X = n) = e<br />

n! .<br />

X = 1 E1 ≤1


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 46 / 95


QUELLES VÉRIFICATIONS <br />

DEUX TYPES <strong>de</strong> vérifications :<br />

histogramme normalisé contre <strong>de</strong>nsité,<br />

fonctions <strong>de</strong> répartition empirique contre théorique.<br />

Dans les <strong>de</strong>ux cas, il faut d’abord simuler un grand nombre <strong>de</strong> fois la<br />

loi en question. Pour n ∈ N ∗ , on obtient un vecteur (x 1 , . . . , x n ) qui<br />

contient n réalisations <strong>de</strong> la loi <strong>de</strong> X.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 47 / 95


HISTOGRAMME VS. DENSITÉ.<br />

HISTOGRAMME NORMALISÉ<br />

1 regrouper les n termes dans un certain nombre m <strong>de</strong> classes<br />

(avec<br />

∑<br />

m < n). Dans chaque classe r m réalisations <strong>de</strong> X avec<br />

r m = n.<br />

m<br />

2 normalisation : la somme <strong>de</strong>s aires <strong>de</strong>s colonnes fait 1<br />

−→ r m /(n(C m+1 − C m )).<br />

3 tracé : sur l’axe <strong>de</strong>s abscisses, placer les m centres <strong>de</strong>s m<br />

classes, et mettre une colonne <strong>de</strong> hauteur r m /(n(C m+1 − C m )).<br />

CONVERGENCE VERS LA DENSITÉ<br />

r m<br />

n(C m+1 − C m )<br />

−→<br />

n→+∞<br />

1<br />

C m+1 − C m<br />

P(X ∈ [C m , C m+1 [).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 48 / 95


HISTOGRAMME VS. DENSITÉ.<br />

CONVERGENCE VERS LA DENSITÉ<br />

CONCLUSION<br />

r m<br />

n(C m+1 − C m )<br />

−→<br />

n→+∞<br />

1<br />

C m+1 − C m<br />

P(X ∈ [C m , C m+1 [).<br />

Si X discrète avec C k espacés <strong>de</strong> 1, approximativement p k .<br />

Si X à <strong>de</strong>nsité, alors<br />

P(X ∈ [C m , C m+1 [)<br />

C m+1 − C m<br />

=<br />

∫<br />

1 Cm+1<br />

f (t)dt −→<br />

C m+1 − C f (C m).<br />

m C m<br />

C m+1 −C m→0<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 48 / 95


RÉPARTITION EMPIRIQUE VS. THÉORIQUE.<br />

FONCTION DE RÉPARTITION EMPIRIQUE<br />

∀t ∈ R, F n (t) = 1 n<br />

n∑<br />

1 ]−∞,t] (x i ).<br />

i=1<br />

THÉORÈME DE KOLMOGOROV-SMIRNOV<br />

∀t ∈ R,<br />

lim F n (t) = F X (t).<br />

n→+∞<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 49 / 95


EXEMPLE SUR LA LOI EXPONENTIELLE(2).<br />

n=100<br />

Histogramme vs <strong>de</strong>nsite<br />

Fcts <strong>de</strong> repartition<br />

2.0<br />

1.8<br />

1.6<br />

1.0<br />

empirique<br />

theorique<br />

1.4<br />

0.8<br />

1.2<br />

1.0<br />

0.8<br />

0.6<br />

0.4<br />

0.6<br />

0.2<br />

0.4<br />

0.2<br />

0.0<br />

0.0<br />

0 1 2 3 4 5 6<br />

!0.2<br />

!1 0 1 2 3 4 5<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 50 / 95


EXEMPLE SUR LA LOI EXPONENTIELLE(2).<br />

n=10000<br />

Histogramme vs <strong>de</strong>nsite<br />

Fcts <strong>de</strong> repartition<br />

2.0<br />

1.8<br />

1.6<br />

1.0<br />

empirique<br />

theorique<br />

1.4<br />

0.8<br />

1.2<br />

1.0<br />

0.8<br />

0.6<br />

0.4<br />

0.6<br />

0.2<br />

0.4<br />

0.2<br />

0.0<br />

0.0<br />

0 1 2 3 4 5 6 7 8<br />

!0.2<br />

!1 0 1 2 3 4 5 6 7<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 51 / 95


EXEMPLE SUR LA LOI DE BERNOULLI(0.3).<br />

n=100<br />

Histogramme<br />

Fcts <strong>de</strong> repartition<br />

0.8<br />

0.7<br />

1.0<br />

empirique<br />

theorique<br />

0.6<br />

0.8<br />

0.5<br />

0.6<br />

0.4<br />

0.3<br />

0.4<br />

0.2<br />

0.2<br />

0.1<br />

0.0<br />

0.0<br />

!0.5 0.0 0.5 1.0 1.5 2.0<br />

!0.2<br />

!1.0 !0.5 0.0 0.5 1.0 1.5 2.0<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 52 / 95


EXEMPLE SUR LA LOI DE BERNOULLI(0.3).<br />

n=10000<br />

Histogramme<br />

Fcts <strong>de</strong> repartition<br />

0.7<br />

0.6<br />

1.0<br />

empirique<br />

theorique<br />

0.5<br />

0.8<br />

0.4<br />

0.6<br />

0.3<br />

0.4<br />

0.2<br />

0.2<br />

0.1<br />

0.0<br />

0.0<br />

!0.5 0.0 0.5 1.0 1.5 2.0<br />

!0.2<br />

!1.0 !0.5 0.0 0.5 1.0 1.5 2.0<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 53 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 54 / 95


MÉTHODE DE REJET.<br />

On veut simuler une v.a. <strong>de</strong> <strong>de</strong>nsité f , et il existe une <strong>de</strong>nsité g<br />

simulable facilement et une constante k ≥ 1 telle que<br />

Soit α(x) = f (x)<br />

kg(x) .<br />

PROPOSITION<br />

∀x ∈ R, f (x) ≤ kg(x).<br />

Soit (X i ) i≥1 une suite <strong>de</strong> v.a. i.i.d. <strong>de</strong> <strong>de</strong>nsité g, et (U i ) i≥1 une suite <strong>de</strong><br />

v.a. i.i.d. <strong>de</strong> loi uniforme sur [0, 1], indépendante <strong>de</strong> la suite (X i ) i≥1 .<br />

Soit<br />

T = inf{i ≥ 1, U i ≤ α(X i )}.<br />

La variable X T a pour <strong>de</strong>nsité f .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 55 / 95


MÉTHODE DE REJET.<br />

MÉTHODE<br />

Soit (X 1 , U 1 ) un couple <strong>de</strong> v.a. indépendantes telles que X 1 suive la loi<br />

<strong>de</strong> <strong>de</strong>nsité g et U 1 suive une loi uniforme sur [0, 1]. Si U 1 ≤ α(U 1 ), on<br />

pose X = X 1 .<br />

Sinon on rejette X 1 et on recommence en générant une suite<br />

(X n , U n ) n≥2 <strong>de</strong> v.a. indépendantes <strong>de</strong> même loi que (X 1 , U 1 ) jusqu’à<br />

l’instant p où U p ≤ α(X p ). On pose alors X = X p .<br />

REMARQUES<br />

on n’a pas besoin <strong>de</strong> connaître F , ni F −1 .<br />

elle s’étend à R d , à <strong>de</strong>s lois discrètes, etc.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 56 / 95


MÉTHODE DE REJET : VITESSE.<br />

Calcul <strong>de</strong> la probabilité d’acceptation :<br />

p = P(U ≤ α(X)) = 1 k .<br />

Donc T a pour distribution une loi géométrique <strong>de</strong> paramètre p. En<br />

moyenne, on doit rejeter k = 1/p fois avant d’accepter la valeur.<br />

Ainsi il faut choisir g telle que<br />

( ) f<br />

k = max<br />

g<br />

soit la plus petite possible.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 57 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 58 / 95


LOI NORMALE : MÉTHODE POLAIRE.<br />

PROPOSITION<br />

Si Y ∼ N (µ, σ 2 ), alors X = (Y − µ)/σ ∼ N (0, 1).<br />

Pour simuler X (et Y )<br />

simuler <strong>de</strong>ux lois uniformes U et V sur [0, 1] ;<br />

poser<br />

X = √ −2 ln U cos(2πV ), Y = √ −2 ln U sin(2πV ).<br />

PROPOSITION<br />

X et Y sont <strong>de</strong>ux v.a. normales centrées ré<strong>du</strong>ites indépendantes.<br />

Ou utiliser sous Matlab randn(n,m).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 59 / 95


LOI NORMALE : MÉTHODE POLAIRE.<br />

Pour simuler X (et Y )<br />

simuler <strong>de</strong>ux lois uniformes U et V sur [0, 1] ;<br />

poser<br />

✞<br />

c l f ;<br />

X = √ −2 ln U cos(2πV ), Y = √ −2 ln U sin(2πV ).<br />

hold on<br />

t i t l e ( ’ Simulation d ’ ’ une l o i normale ’ )<br />

ylabel ( ’ E f f e c t i f s ’ ) ; xlabel ( ’ Valeurs ’ ) ;<br />

[ E,C]= ecdf ( sqrt (−2∗log ( rand ( 5 0 0 0 , 1 ) ) )<br />

. ∗ cos(2∗ pi ∗rand ( 5 0 0 0 , 1 ) ) ) ;<br />

e c d f h i s t (E,C, 4 0 ) ;<br />

hold on<br />

plot (C, ( 2 ∗ pi )^( −1/2)∗ exp(−C. ^ 2 / 2 ) , ’ r− ’ ) ;<br />

legend ( ’ Empirique ’ , ’ Theorique ’ )<br />

hold o f f<br />

✝<br />

☎<br />

✆<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 60 / 95


LOI NORMALE : MÉTHODE POLAIRE.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 61 / 95


LOI NORMALE : MÉTHODE POLAIRE.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 61 / 95


LOI NORMALE : MÉTHODE POLAIRE-REJET.<br />

PROPOSITION<br />

(X, Y ) = (ρ cos(θ), ρ sin(θ)) suit une loi uniforme sur le disque unité <strong>du</strong><br />

plan, alors<br />

√<br />

−4 ln(ρ)<br />

(X, Y )<br />

ρ<br />

suit une loi normale centrée ré<strong>du</strong>ite bidimensionnelle.<br />

(X, Y ) facile à simuler par rejet à partir d’une uniforme sur le carré<br />

[−1, 1] 2 (rejet dans 21 % <strong>de</strong>s cas puisque π/4 ≈ 0, 79).<br />

θ et ρ indépendantes,<br />

ρ loi <strong>de</strong> <strong>de</strong>nsité u ↦→ 2u1 [0,1] (u), −4 ln(ρ) exponentielle <strong>de</strong><br />

paramètre 1/2,<br />

θ uniforme sur [0, 2π].<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 62 / 95


LOI UNIFORME SUR LE DISQUE.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 63 / 95


VECTEUR GAUSSIEN.<br />

PROPOSITION<br />

Soit<br />

m ∈ R n ,<br />

Γ ∈ S + n (R) matrice réelle <strong>de</strong> taille n symétrique positive,<br />

Y vecteur aléatoire gaussien standard <strong>de</strong> moyenne nulle et<br />

matrice <strong>de</strong> covariance Id n .<br />

Alors le vecteur aléatoire X = Γ 1/2 Y + m est gaussien <strong>de</strong> moyenne m<br />

et <strong>de</strong> matrice <strong>de</strong> covariance Γ.<br />

Si Y est un vecteur gaussien <strong>de</strong> loi N (0, Id n ), ses coordonnées sont<br />

i.i.d. <strong>de</strong> loi N (0, 1). Ainsi on peut simuler une réalisation <strong>de</strong> Y en<br />

simulant n réalisations indépendantes Y 1 (ω), . . . , Y n (ω) <strong>de</strong> loi N (0, 1).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 64 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 65 / 95


DEUX EXEMPLES.<br />

EXEMPLE THÉORIQUE. Calculer θ = E(e 5Z ) = e 52 /2 avec Z ∼ N (0, 1)<br />

variance théorique : σ 2 = e 50 − e 25 ≈ 7 × 10 10 .<br />

valeur exacte : 268337.<br />

nombre tirages : N = 500000.<br />

valeur estimée : θ = 221741.<br />

Intervalle <strong>de</strong> confiance : I = [−65186, 508668].<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 66 / 95


DEUX EXEMPLES.<br />

EXEMPLE PLUS CONCRET. Call C = E((5e (Z −1/2) − 3) + ) avec<br />

Z ∼ N (0, 1)<br />

valeur exacte : 2,71.<br />

nombre tirages : N = 1000.<br />

valeur estimée : 2,83.<br />

Intervalle <strong>de</strong> confiance : I = [2, 42; 3, 24].<br />

Put P = E((3 − 5e (Z −1/2) ) + ) et C − P = 2.<br />

valeur exacte : 0,71.<br />

valeur estimée : 0,70.<br />

Intervalle <strong>de</strong> confiance : I = [0, 64; 0, 76].<br />

Contrôle : C = 2 + P.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 66 / 95


RÉDUCTION DE VARIANCE : MÉTHODES.<br />

Variables antithétiques.<br />

Variables <strong>de</strong> contrôle.<br />

Échantillonnage préférentiel (ou d’importance).<br />

Échantillonnage stratifié.<br />

Métho<strong>de</strong>s adaptatives (chaînes <strong>de</strong> Markov).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 67 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 68 / 95


VARIABLES ANTITHÉTIQUES.<br />

BUT : calculer θ = E(Y ) = E(f (X)).<br />

DEUX V.A. Y 1 et Y 2 <strong>de</strong> même loi que Y .<br />

(<br />

E(Y ) = 1 2 (E(Y 1) + E(Y 2 )) = E<br />

Y1 +Y 2<br />

2<br />

)<br />

Var<br />

(<br />

Y1 +Y 2<br />

2<br />

)<br />

;<br />

= Var (Y 1)+Var (Y 2 )+2Cov(Y 1 ,Y 2 )<br />

4<br />

;<br />

si Y 1 ( et Y 2 décorrélées ) (ou indépendantes),<br />

Var<br />

Y1 +Y 2<br />

2<br />

=<br />

Var (Y )<br />

2<br />

;<br />

( )<br />

si Cov(Y 1 , Y 2 ) < 0, alors Var<br />

Y1 +Y 2<br />

2<br />

<<br />

Var (Y )<br />

2<br />

.<br />

QUESTION : comment obtenir Y 1 et Y 2 <strong>de</strong> même loi que Y avec<br />

Cov(Y 1 , Y 2 ) < 0 <br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 69 / 95


VARIABLES ANTITHÉTIQUES UNIFORMES.<br />

HYPOTHÈSE : Y = g(U) où U uniforme sur [0, 1] .<br />

ALGORITHME CLASSIQUE avec échantillon <strong>de</strong> taille 2n.<br />

MÉTHODE<br />

<strong>de</strong> i = 1 à 2n<br />

générer U i<br />

définir Y i = g(U i )<br />

fin<br />

définir ˆθ 2n = Y 2n = 1<br />

2n<br />

2n∑<br />

i=1<br />

Y i et ˆσ 2 2n = 1<br />

2n − 1<br />

définir CI = [ˆθ 2n − c α<br />

ˆσ 2n<br />

√<br />

2n<br />

, ˆθ 2n + c α<br />

ˆσ 2n<br />

√<br />

2n<br />

]<br />

2n∑<br />

i=1<br />

(Y i − ˆθ 2n ) 2<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 70 / 95


VARIABLES ANTITHÉTIQUES UNIFORMES.<br />

HYPOTHÈSE : Y = g(U) avec U uniforme sur [0, 1].<br />

ALGORITHME avec échantillon <strong>de</strong> taille 2n.<br />

MÉTHODE<br />

<strong>de</strong> i = 1 à 2n<br />

générer U i<br />

définir Y i = g(1 − U i )<br />

fin<br />

définir ˆθ 2n = Y 2n = 1<br />

2n<br />

2n∑<br />

i=1<br />

Y i et ˆσ 2 2n = 1<br />

2n − 1<br />

définir CI = [ˆθ 2n − c α<br />

ˆσ 2n<br />

√<br />

2n<br />

, ˆθ 2n + c α<br />

ˆσ 2n<br />

√<br />

2n<br />

]<br />

2n∑<br />

i=1<br />

(Y i − ˆθ 2n ) 2<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 70 / 95


VARIABLES ANTITHÉTIQUES UNIFORMES.<br />

HYPOTHÈSE : Y = g(U) avec U uniforme sur [0, 1].<br />

ALGORITHME MÉLANGÉ avec échantillon <strong>de</strong> taille n.<br />

MÉTHODE<br />

<strong>de</strong> i = 1 à n<br />

générer U i<br />

définir Y i = g(U i ), Ỹi = g(1 − U i ) et Z i = Y i + Ỹi<br />

2<br />

fin<br />

définir ˆθ n,a = Z n = 1 n∑<br />

Z i et ˆσ n 2 = 1 n∑<br />

(Z i − ˆθ n ) 2<br />

n<br />

n − 1<br />

i=1<br />

définir CI = [ˆθ n,a − c α<br />

ˆσ n<br />

√ n<br />

, ˆθ n,a + c α<br />

ˆσ n<br />

√ n<br />

]<br />

i=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 70 / 95


VARIABLES ANTITHÉTIQUES UNIFORMES.<br />

HYPOTHÈSE : Y = g(U) avec U uniforme sur [0, 1].<br />

DIFFÉRENTS RÉSULTATS :<br />

ˆθ 2n = Y 2n = 1 ∑ 2n<br />

2n i=1 Y i ;<br />

ˆθ n,a = Z n = 1 ∑ n<br />

n i=1 Z i.<br />

COMPARAISON DES VARIANCES<br />

Var (ˆθ 2n ) = Var<br />

( ∑2n )<br />

i=1 Y i Var (Y )<br />

=<br />

2n 2n<br />

Ainsi<br />

Var (ˆθ n,a ) = Var (ˆθ 2n ) + Cov(Y , Ỹ ) .<br />

2n<br />

Var (ˆθ n,a ) < Var (ˆθ 2n ) ⇐⇒ Cov(g(U), g(1 − U)) < 0.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 70 / 95


VARIABLES ANTITHÉTIQUES UNIFORMES.<br />

HYPOTHÈSE : Y = g(U) avec U uniforme sur [0, 1].<br />

THÉORÈME<br />

Si g est une fonction monotone, alors Cov(g(U), g(1 − U)) < 0.<br />

CONSÉQUENCE<br />

Métho<strong>de</strong> d’inversion : g = f (F −1 ) est monotone si f l’est.<br />

X<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 70 / 95


VARIABLES ANTITHÉTIQUES : GÉNÉRALISATION.<br />

HYPOTHÈSE SUR X : il existe a t.q. X et a − X aient la même loi.<br />

EXEMPLES<br />

Lois normales N (µ, σ 2 ) : a = 2µ.<br />

Lois <strong>de</strong> Laplace <strong>de</strong> paramètre λ > 0 : f (x) = λ 2<br />

exp(−λ|x|). a = 0.<br />

MÉTHODE<br />

<strong>de</strong> i = 1 à n<br />

générer X i<br />

définir Y i = g(X i ), Ỹi = g(a − X i ) et Z i = Y i + Ỹi<br />

2<br />

fin<br />

définir ˆθ n,a = Z n = 1 n∑<br />

Z i et ˆσ n 2 = 1 n∑<br />

(Z i − ˆθ n ) 2<br />

n<br />

n − 1<br />

i=1<br />

définir CI = [ˆθ n,a − c α<br />

ˆσ n<br />

√ n<br />

, ˆθ n,a + c α<br />

ˆσ n<br />

√ n<br />

]<br />

i=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 71 / 95


EXEMPLE : OPTION KNOCK-IN.<br />

CONTRAT FINANCIER <strong>de</strong> payoff h(S T ) = max(0, S T − K )1 ST >B.<br />

MODÈLE BLACK-SCHOLES S T = S 0 exp((r − σ 2 /2)T + σ √ T X,<br />

X ∼ N (0, 1).<br />

PRIX DU CONTRAT<br />

C = e −rT E (h(S T )) = e −rT E ( max(0, S T − K )1 ST >B)<br />

.<br />

JEU DE PARAMÈTRES S 0 = 2, K = 1, B = 2, 5, r = 0, 1, σ = 0.3,<br />

T = 10, N = 5000.<br />

RÉSULTATS OBTENUS<br />

sans ré<strong>du</strong>ction <strong>de</strong> variance : C = 1.5720 (variance 5.4236) ;<br />

avec ré<strong>du</strong>ction <strong>de</strong> variance : C = 1.5543 (variance 1.5827).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 72 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 73 / 95


VARIABLES DE CONTRÔLE.<br />

BUT : calculer θ = E(Y ) = E(f (X)).<br />

AJOUT d’une variable Z<br />

facilement simulable ;<br />

E(Z ) connue ou facilement calculable (variance « petite »).<br />

DEUX CALCULS POSSIBLES DE θ :<br />

par métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong> standard,<br />

en posant W c = Y + c(Z − E(Z )) et en calculant E(W c ) par<br />

<strong>Monte</strong> <strong>Carlo</strong> (c : paramètre constant fixé).<br />

QUESTION : Var (W c ) < Var (Y ) <br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 74 / 95


VARIABLES DE CONTRÔLE.<br />

CALCUL DE LA VARIANCE :<br />

Var (W c ) = Var (Y ) + c 2 × Var (Z ) + 2c × Cov(Y , Z ).<br />

CHOIX OPTIMAL DE c : c ∗ Cov(Y ,Z )<br />

= −<br />

Var (Z )<br />

Cov(Y ,Z )2<br />

Var (W c ∗) = Var (Y ) − ;<br />

Var (Z )<br />

Var (W c ∗) < Var (Y ) ⇔ Cov(Y , Z ) < 0 ;<br />

Z : variable <strong>de</strong> contrôle <strong>de</strong> Y .<br />

;<br />

ALGORITHME :<br />

ˆθ N,c ∗ = 1 N<br />

N∑<br />

(Y i + c ∗ (Z i − E(Z ))) ≈ θ.<br />

i=1<br />

PROBLÈMES : calcul <strong>de</strong> E(Z ) De Cov(Y , Z ) <br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 75 / 95


MMC AVEC VARIABLE DE CONTRÔLE.<br />

MÉTHODE<br />

ÉTAPE 1 : p petit → détermine une valeur approchée <strong>de</strong> c ∗ .<br />

Simuler p v.a. (Y n ) 1≤n≤p et p v.a. (Z n ) 1≤n≤p .<br />

Poser :<br />

Calculer ĉ ∗ =<br />

Ê(Z ) = 1 p<br />

p∑<br />

Z i , Ê(Y ) = 1 p<br />

i=1<br />

̂Var (Z ) = 1<br />

p − 1<br />

Ĉov(Y , Z ) = 1<br />

p − 1<br />

,Z )<br />

−Ĉov(Y . ̂Var (Z )<br />

p∑<br />

Y i ,<br />

i=1<br />

p∑<br />

(Z j − Ê(Z ))2 ,<br />

j=1<br />

p∑<br />

(Y i − Ê(Y ))(Z j − Ê(Z ))).<br />

j=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 76 / 95


MMC AVEC VARIABLE DE CONTRÔLE.<br />

MÉTHODE<br />

ÉTAPE 1 : p petit → détermine une valeur approchée <strong>de</strong> c ∗ .<br />

ÉTAPE 2 : N grand.<br />

Simuler N v.a. (Y n ) 1≤n≤N et N v.a. (Z n ) 1≤n≤N .<br />

Poser :<br />

̂θ = 1 N<br />

N∑<br />

(Y i + ĉ ∗ (Z i − Ê(Z ))) ≈ θ.<br />

i=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 76 / 95


UN EXEMPLE.<br />

ÉNONCÉ<br />

Calculer θ = E(e (U+V )2 ) avec U et V <strong>de</strong> loi uniforme sur [0, 1].<br />

Y = e (U+V )2 .<br />

Variables <strong>de</strong> contrôle : Z 1 = U + V , Z 2 = (U + V ) 2 ou encore<br />

Z 3 = exp(U + V ).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 77 / 95


LE PROGRAMME (CALCUL DE c ∗ ).<br />

✞<br />

p=500;<br />

u=rand ( p , 1 ) ; v=rand ( p , 1 ) ;<br />

y=exp ( ( u+v ) . ^ 2 ) ; z1=u+v ; z2 =(u+v ) . ^ 2 ; z3=exp ( u+v ) ;<br />

a1=cov ( [ y z1 ] ) ;<br />

a2=cov ( [ y z2 ] ) ;<br />

a3=cov ( [ y z3 ] ) ;<br />

c_est1=−a1 ( 1 , 2 ) / a1 ( 2 , 2 )<br />

c_est2=−a2 ( 1 , 2 ) / a2 ( 2 , 2 )<br />

c_est3=−a3 ( 1 , 2 ) / a3 ( 2 , 2 )<br />

✝<br />

Valeurs obtenues :<br />

c est1 = - 11.088954<br />

c est2 = - 5.7049857<br />

c est3 = - 3.9928724<br />

☎<br />

✆<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 78 / 95


LE PROGRAMME (MMC).<br />

✞<br />

n=5000;<br />

u=rand ( n , 1 ) ; v=rand ( n , 1 ) ;<br />

y=exp ( ( u+v ) . ^ 2 ) ; z1=u+v ; z2 =(u+v ) . ^ 2 ; z3=exp ( u+v ) ;<br />

m1=mean( z1 )<br />

m2=mean( z2 )<br />

m3=mean( z3 )<br />

w1=y+c_est1 ∗( z1−m1 ) ;<br />

w2=y+c_est2 ∗( z2−m2 ) ;<br />

w3=y+c_est3 ∗( z3−m3 ) ;<br />

b0 =[mean( y ) st<strong>de</strong>v ( y ) ^ 2 ]<br />

b1 =[mean(w1) var (w1 ) ]<br />

b2 =[mean(w2) var (w2 ) ]<br />

b3 =[mean(w3) var (w3 ) ]<br />

%Intervalle <strong>de</strong> confiance<br />

CI =[ b2(1) −1.96∗ st<strong>de</strong>v (w2 ) / sqrt ( n ) ,<br />

b2 (1)+1.96∗ st<strong>de</strong>v (w2 ) / sqrt ( n ) ]<br />

✝<br />

☎<br />

✆<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 79 / 95


BILAN.<br />

Valeurs obtenues :<br />

m1 = 1.0006399 (exacte 1) ;<br />

m2 = 1.171765 (exacte 7/6 ≈ 1.1666667) ;<br />

m3 = 2.959135 (exacte (e − 1) 2 ≈ 2.9524924) ;<br />

CI = [4.8545742, 5.0088663].<br />

moyenne variance<br />

b0 4.9317203 34.564778<br />

b1 4.9317203 13.840552<br />

b2 4.9317203 7.7461357<br />

b3 4.9317203 7.2175877<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 80 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 81 / 95


MONTE CARLO CONDITIONNEL.<br />

IDÉE : au lieu <strong>de</strong> calculer θ = E(Y ) = E(f (X)), pour Z v.a.<br />

poser V = E(Y |Z ) = g(Z ) v.a. ;<br />

et θ = E(V ).<br />

CONDITIONS :<br />

Z facilement simulable ;<br />

V facilement calculable.<br />

CALCULS DE LA VARIANCE : Var (Y |Z ) est une v.a. positive :<br />

[<br />

Var (Y |Z ) = E (Y − E(Y |Z )) 2∣ ]<br />

∣Z ,<br />

et comme Y − E(Y ) − (E(Y |Z ) − E(Y )) ⊥ E(Y |Z ) − E(Y ),<br />

Var (Y ) = E(Var (Y |Z )) + Var (E(Y |Z )) ⇒ Var (Y ) ≥ Var (E(Y |Z )).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 82 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 83 / 95


ÉVÉNEMENTS RARES.<br />

Technique utilisée beaucoup pour<br />

θ = P(X ≤ seuil ) = E(1 X≤seuil ),<br />

quand l’occurence <strong>de</strong> X ≤ seuil est très petite.<br />

EXEMPLES.<br />

Catastrophes climatiques, ferroviaires, aériennes, etc.<br />

Faillites <strong>de</strong> grosses entreprises, d’états, etc.<br />

Cracks boursiers importants<br />

BUT : mesurer les risques <strong>de</strong> portefeuille, opérationnels, etc.<br />

(obligation légale pour les banques ou les assurances).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 84 / 95


EXEMPLE.<br />

X suit une loi normale <strong>de</strong> paramètres 0 et 1<br />

θ = P(X ≤ −10) = E(1 X≤−10 ).<br />

MONTE-CARLO CLASSIQUE.<br />

Nombre <strong>de</strong> tirages N variant <strong>de</strong> 1000 à 10000000.<br />

Valeur estimée : 0.<br />

CONCLUSION ERRONÉE : θ = 0.<br />

VALEUR EXACTE : θ = 7.6199 × 10 −24 .<br />

Nombre <strong>de</strong> tirages nécessaires <strong>de</strong> l’ordre <strong>de</strong> 10 25 : impossible !<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 85 / 95


ÉCHANTILLONNAGE PRÉFÉRENTIEL : PRINCIPE.<br />

Changer la loi. Soient φ la <strong>de</strong>nsité <strong>de</strong> X et ψ une autre <strong>de</strong>nsité telle<br />

que ψ(x) ≠ 0 si φ(x) ≠ 0. Alors<br />

∫<br />

θ = E(f (X)) =<br />

∫<br />

f (x)φ(x)dx =<br />

f (x) φ(x)<br />

ψ(x) ψ(x)dx<br />

= E(h(Y )), avec h(x) = f (x) φ(x) et Y ∼ ψ.<br />

ψ(x)<br />

DÉFINITION : g est une fonction d’importance.<br />

QUESTION : comment choisir g <br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 86 / 95


RETOUR SUR L’EXEMPLE.<br />

X ∼ N (0, 1) et θ = P(X ≤ −10) : forcer les tirages <strong>de</strong> Y à être aux<br />

alentours <strong>de</strong> -10. Donc Y ∼ N (−10, 1).<br />

REMARQUE<br />

Si Y ∼ N (µ, σ 2 ), alors P(Y ≤ µ) = 1/2.<br />

∫<br />

θ = P(X ≤ −10) =<br />

=<br />

=<br />

∫<br />

∫<br />

R<br />

R<br />

1 x≤−10<br />

⎛<br />

⎝<br />

R<br />

√1<br />

exp 2π<br />

√1<br />

exp 2π<br />

1<br />

1 x≤−10 √ exp<br />

(− x 2 )<br />

2π 2<br />

( ) ⎞<br />

− x 2<br />

2<br />

( ) ⎠ √ 1 exp<br />

2π<br />

− (x+10)2<br />

2<br />

(<br />

1 x≤−10 exp 10x + (−10) 2 /2<br />

= E [1 Y ≤−10 exp (10Y + 50)] .<br />

(−<br />

) 1<br />

√ exp<br />

(−<br />

2π<br />

)<br />

(x + 10)2<br />

dx<br />

2<br />

)<br />

(x + 10)2<br />

dx<br />

2<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 87 / 95


RETOUR SUR L’EXEMPLE.<br />

θ = P(X ≤ −10) = E [1 Y ≤−10 exp (10Y + 50)].<br />

MONTE-CARLO AVEC Y.<br />

Valeur exacte θ = 7.6199 × 10 −24 .<br />

Y=randn(N,1) - 10.<br />

Nombre <strong>de</strong> tirages N variant <strong>de</strong> 1 à 10000.<br />

Valeur estimée : 8.0060 × 10 −24 .<br />

Écart-type : 2.6893 × 10 −23<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 87 / 95


RETOUR SUR L’EXEMPLE.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 87 / 95


CHOIX DE LA FONCTION D’IMPORTANCE.<br />

DONNÉES : φ <strong>de</strong>nsité <strong>de</strong> X, ψ autre <strong>de</strong>nsité t.q. ψ(x) ≠ 0 si φ(x) ≠ 0.<br />

(<br />

θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(Y ) )<br />

, Y ∼ ψ.<br />

ψ(Y )<br />

CALCULS DE LA VARIANCE :<br />

∫<br />

Var (f (X)) =<br />

∫<br />

Var (h(Y )) =<br />

Donc<br />

∫<br />

Var (f (X)) − Var (h(Y )) =<br />

f 2 (x)φ(x)dx − θ 2 ;<br />

f 2 (x) φ2 (x)<br />

ψ(x) dx − θ2 .<br />

(<br />

f 2 (x) 1 − φ(x) )<br />

φ(x)dx > 0.<br />

ψ(x)<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 88 / 95


CHOIX DE LA FONCTION D’IMPORTANCE.<br />

DONNÉES : φ <strong>de</strong>nsité <strong>de</strong> X, ψ autre <strong>de</strong>nsité t.q. ψ(x) ≠ 0 si φ(x) ≠ 0.<br />

(<br />

θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(Y ) )<br />

, Y ∼ ψ.<br />

ψ(Y )<br />

CALCULS DE LA VARIANCE :<br />

∫<br />

Var (f (X)) − Var (h(Y )) =<br />

(<br />

f 2 (x) 1 − φ(x) )<br />

φ(x)dx > 0.<br />

ψ(x)<br />

PISTE : si ψ(x) = f (x)φ(x)/θ, Var (h(Y )) = 0 ! Prendre ψ proche <strong>de</strong><br />

f φ...<br />

THÉORÈME (RUBINSTEIN)<br />

La <strong>de</strong>nsité ψ qui minimise la variance est<br />

ψ(x) =<br />

1<br />

∫<br />

|f (x)|φ(x)dx<br />

|f (x)|φ(x).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 88 / 95


CHOIX DE LA FONCTION D’IMPORTANCE.<br />

DONNÉES : φ <strong>de</strong>nsité <strong>de</strong> X, ψ autre <strong>de</strong>nsité t.q. ψ(x) ≠ 0 si φ(x) ≠ 0.<br />

(<br />

θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(Y ) )<br />

, Y ∼ ψ.<br />

ψ(Y )<br />

CALCULS DE LA VARIANCE :<br />

IDÉE :<br />

∫<br />

Var (f (X)) − Var (h(Y )) =<br />

prendre φ/ψ > 1 quand f φ petit ;<br />

prendre φ/ψ < 1 quand f φ grand.<br />

(<br />

f 2 (x) 1 − φ(x) )<br />

φ(x)dx > 0.<br />

ψ(x)<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 88 / 95


PLAN<br />

1 MÉTHODE DE MONTE CARLO<br />

2 PROBLÈME DE SIMULATION<br />

Théorème fondamental<br />

Simulation <strong>de</strong> la loi uniforme<br />

Fonction <strong>de</strong> répartition<br />

Métho<strong>de</strong> d’inversion<br />

Cas particuliers<br />

Vérifications<br />

Métho<strong>de</strong> <strong>de</strong> rejet<br />

Lois gaussiennes<br />

3 RÉDUCTION DE VARIANCE<br />

Variables antithétiques<br />

Variables <strong>de</strong> contrôle<br />

<strong>Monte</strong> <strong>Carlo</strong> conditionnel<br />

Échantillonnage d’importance<br />

Échantillonnage stratifié<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 89 / 95


PRINCIPE DE L’ÉCHANTILLONNAGE STRATIFIÉ.<br />

OBJECTIF : évaluer θ = E(Y ) avec Y v.a. réelle. Soit A 1 , . . . , A K<br />

sous-ensembles disjoints <strong>de</strong> R tels que P(Y ∈ ∪ i A i ) = 1. Alors<br />

θ =<br />

K∑<br />

P(Y ∈ A i )E(Y |Y ∈ A i ) =<br />

i=1<br />

K∑<br />

p i E(Y |Y ∈ A i ).<br />

i=1<br />

STRATIFICATION PROPORTIONNELLE. Soit N la taille <strong>de</strong> l’échantillon.<br />

choisir les A i avec p i = P(Y ∈ A i ) ;<br />

poser n i = Np i (considéré comme entier) ;<br />

pour chaque i = 1, . . . , K , simuler Y ij , j = 1, . . . , n i i.i.d. suivant la<br />

loi <strong>de</strong> Y sachant Y ∈ A i .<br />

θ ≈<br />

K∑<br />

i=1<br />

p i<br />

⎛<br />

⎝ 1 n i<br />

n i<br />

∑<br />

j=1<br />

Y ij<br />

⎞<br />

⎠ = 1 N<br />

K∑ ∑n i<br />

Y ij .<br />

i=1 j=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 90 / 95


GÉNÉRALISATION.<br />

◮ STRATIFICATION FONCTION DE X .<br />

A i choisis tels que P(X ∈ ∪ i A i ) = 1 :<br />

θ =<br />

K∑<br />

P(X ∈ A i )E(Y |Y ∈ A i ) =<br />

i=1<br />

K∑<br />

p i E(Y |X ∈ A i ).<br />

i=1<br />

Générer (X ij , Y ij ) suivant la loi conditionnelle <strong>de</strong> (X, Y ) sachant<br />

X ∈ A i .<br />

◮ SUPPRIMER LA PROPORTIONNALITÉ.<br />

Autoriser<br />

∑<br />

le nombre <strong>de</strong> tirages n 1 , . . . , n k arbitraire (avec<br />

i n i = N) ;<br />

Poser q i = n i /N :<br />

⎛ ⎞<br />

K<br />

θ ≈ Ŷ = ∑<br />

p i<br />

⎝ 1 ∑n i<br />

Y ij<br />

⎠ = 1 K∑ p i<br />

∑n i<br />

Y ij .<br />

n i<br />

N q i<br />

i=1<br />

j=1<br />

i=1<br />

j=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 91 / 95


EXEMPLES.<br />

◮ STRATIFICATION DE LA LOI UNIFORME.<br />

Partition <strong>de</strong> ]0, 1[ : A i =]a i , b i ] ;<br />

Loi <strong>de</strong> U sachant U ∈ A i : uniforme entre a i et b i ;<br />

Échantillon : V i = a i + (b i − a i )U i .<br />

Exemple : A i =](i − 1)/N, i/N], i = 1, . . . , N.<br />

◮ VIA FONCTION DE RÉPARTITION.<br />

Y <strong>de</strong> fonction <strong>de</strong> répartition F.<br />

Pour p 1 , . . . , p K données, avec a 0 = −∞,<br />

a 1 = F −1 (p 1 ), a 2 = F −1 (p 1 + p 2 ), . . . , a K = F −1 (1),<br />

et A i =]a i−1 , a i ] pour i = 1, . . . , K . Si a k = +∞, alors<br />

A K =]a K −1 , a K [.<br />

V = a i−1 + U(a i − a i−1 ) uniforme sur A i et F −1 (V ) a la loi <strong>de</strong> Y<br />

sachant Y ∈ A i .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 92 / 95


ANALYSE DE L’ESTIMATEUR Ŷ .<br />

NOTATIONS :<br />

θ i = E(Y ij ) = E(Y |X ∈ A i ), σ 2 = Var (Y ij ) = Var (Y |X ∈ A i ).<br />

ESTIMATEUR SANS BIAIS :<br />

E(Ŷ ) =<br />

K ∑<br />

i=1<br />

p i<br />

⎛<br />

⎝ 1 n i<br />

⎞<br />

∑n i<br />

E(Y ij ) ⎠ =<br />

j=1<br />

N∑<br />

p i θ i = θ.<br />

i=1<br />

<strong>de</strong> variance :<br />

avec<br />

Var (Ŷ ) = K ∑<br />

i=1<br />

p 2 i Var ⎛<br />

⎝ 1 n i<br />

⎞<br />

∑n i<br />

E(Y ij ) ⎠ =<br />

j=1<br />

σ 2 (q) =<br />

N∑<br />

i=1<br />

p 2 i<br />

q i<br />

σ 2 i .<br />

N∑<br />

i=1<br />

p 2 i<br />

σ 2 i<br />

n i<br />

= σ2 (q)<br />

N<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 93 / 95


ANALYSE DE L’ESTIMATEUR Ŷ .<br />

INTERVALLE DE CONFIANCE :<br />

[Nq i ]<br />

1 ∑<br />

√ (Y ij − θ i )<br />

[Nqi ]<br />

j=1<br />

en loi<br />

−→ N (0, σ 2 i )<br />

d’où<br />

√<br />

N<br />

(Ŷ − θ<br />

)<br />

= √ N<br />

≈<br />

K∑<br />

i=1<br />

⎛<br />

⎞<br />

K∑<br />

p i<br />

⎝ 1<br />

[Nq i ]<br />

∑<br />

(Y ij − θ i ) ⎠<br />

[Nq i ]<br />

i=1<br />

j=1<br />

⎛<br />

⎞<br />

p i<br />

√ ⎝√ 1<br />

[Nq i ]<br />

∑<br />

(Y ij − θ i ) ⎠<br />

qi [Nqi ]<br />

j=1<br />

Ainsi<br />

√<br />

N<br />

(Ŷ − θ<br />

) en loi<br />

−→ N (0, σ(q) 2 ).<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 93 / 95


ANALYSE DE L’ESTIMATEUR Ŷ .<br />

INTERVALLE DE CONFIANCE :<br />

Ainsi<br />

√<br />

N<br />

(Ŷ − θ<br />

) en loi<br />

−→ N (0, σ(q) 2 ).<br />

σ(q) 2 : estimé via<br />

N∑<br />

s 2 pi<br />

2 (q) = si 2 q , avec s i déviation standard <strong>de</strong> Y i1 , . . . , Y ini ;<br />

i<br />

ou<br />

i=1<br />

◮ N = mk, ki = q i k et n i = mk i ,<br />

◮<br />

◮<br />

Ŷ moyenne <strong>de</strong> m estimateurs Ŷi qui allouent une fraction q i<br />

d’observations pour la strate i et <strong>de</strong> taille k,<br />

Ŷi <strong>de</strong> variance σ(q) 2 /k et Ŷ <strong>de</strong> variance (σ(q)2 /k)/m.<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 93 / 95


RÉDUCTION DE VARIANCE <br />

◮ CAS PROPORTIONNEL.<br />

[<br />

σ 2<br />

N = 1 N (E(Y 2 ) − θ 2 ) = 1 K<br />

]<br />

∑<br />

p i E(Y 2 |X ∈ A i ) − θ 2<br />

N<br />

i=1<br />

[<br />

= 1 K<br />

]<br />

∑<br />

p i (σi 2 + θi 2 N<br />

) − θ2<br />

= 1 N<br />

i=1<br />

K∑<br />

p i σi 2 + 1 N<br />

i=1<br />

Ainsi : σ2<br />

N − Var (ŶProp) = 1 N<br />

K∑<br />

p i (θ i − θ) 2<br />

i=1<br />

K∑<br />

p i (θ i − θ) 2 .<br />

i=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 94 / 95


RÉDUCTION DE VARIANCE <br />

◮ CAS PROPORTIONNEL. Ainsi : σ2<br />

N − Var (ŶProp) = 1 N<br />

◮ OPTIMISATION.<br />

Trouver le minimum <strong>de</strong> σ 2 (q) =<br />

n 1 + . . . + n k = N.<br />

Optimum : qi ∗ = p iσ i<br />

.<br />

K∑<br />

p j σ j<br />

Ainsi<br />

j=1<br />

N∑<br />

i=1<br />

p 2 i<br />

q i<br />

σ 2 i<br />

j=1<br />

K∑<br />

p i (θ i − θ) 2 .<br />

i=1<br />

avec q i = n i /N et<br />

⎛ ⎞2<br />

Var (ŶOpt) = 1 K∑<br />

⎝ p j σ j<br />

⎠ = ¯σ2<br />

N<br />

N .<br />

Var (ŶProp) − Var (ŶOpt) = 1 N<br />

K∑ (<br />

p j σj − ¯σ ) 2 .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 94 / 95<br />

j=1


RÉDUCTION DE VARIANCE <br />

◮ CAS PROPORTIONNEL. Ainsi : σ2<br />

N − Var (ŶProp) = 1 N<br />

◮ OPTIMISATION.<br />

K∑<br />

p i (θ i − θ) 2 .<br />

i=1<br />

Var (ŶProp) − Var (ŶOpt) = 1 N<br />

K∑ (<br />

p j σj − ¯σ ) 2 .<br />

j=1<br />

◮ CONCLUSION.<br />

σ 2<br />

N = σ2<br />

N − Var (ŶProp) + Var (ŶProp) − Var (ŶOpt) + ¯σ2<br />

⎡<br />

⎤<br />

N<br />

= 1 K∑<br />

K∑<br />

⎣ p i (θ i − θ) 2 (<br />

+ p j σj − ¯σ ) 2 + ¯σ<br />

2⎦ .<br />

N<br />

i=1<br />

j=1<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 94 / 95


EXEMPLE NUMÉRIQUE.<br />

OBJECTIF : calculer θ = E(Y ) = E( √ 1 − U 2 ), avec variable <strong>de</strong><br />

stratification X = U.<br />

Pour A i =]a i , b i ], Y i = ( √ 1 − U 2 |U ∈ A i ) obtenue via (U|U ∈ A i )<br />

uniforme sur A i .<br />

Choix : A 1 =]0, 1 K ], A 2 =] 1 K , 2 K ], . . . , A K =] K −1<br />

K , 1].<br />

p i = 1/K , n i = Np i = N/K .<br />

RÉSULTATS :<br />

N = 10000, K = 100.<br />

<strong>Monte</strong>-<strong>Carlo</strong> standard : θ = 0, 782 avec intervalle <strong>de</strong> confiance<br />

[0, 7775; 0, 7864]. Variance : 0,05.<br />

Échantillonnage stratifié : θ = 0, 7854 avec intervalle <strong>de</strong> confiance<br />

[0, 7853; 0, 7855]. Variance : 2, 65 × 10 −5 .<br />

A. Popier (Le Mans) Métho<strong>de</strong> <strong>de</strong> <strong>Monte</strong> <strong>Carlo</strong>. 95 / 95

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!