11.11.2014 Vues

EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry

EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry

EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry

SHOW MORE
SHOW LESS

Transformez vos PDF en papier électronique et augmentez vos revenus !

Optimisez vos papiers électroniques pour le SEO, utilisez des backlinks puissants et du contenu multimédia pour maximiser votre visibilité et vos ventes.

<strong>EXERCICES</strong> <strong>DE</strong> <strong>CALCUL</strong> <strong>STOCHASTIQUE</strong><br />

<strong>M2IF</strong> <strong>Evry</strong><br />

Monique Jeanblanc<br />

Université d’EVRY<br />

Mars 2009


Contents<br />

1 Rappels 7<br />

1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.2 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

1.3 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

1.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

1.6 Changement de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

1.7 Algèbre béta-Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2 Mouvement Brownien 15<br />

2.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.2 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.3 Brownien Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

2.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

2.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

2.8 Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

2.8.1 Partie I : Résultats préliminaires . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

2.8.2 Partie II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

2.8.3 Partie III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

3 Intégrale d’Itô 29<br />

3.1 Intégrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

3.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

3.4 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

3.5 Brownien géométrique et extensions. . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

3


4 CONTENTS<br />

4 Exemples 45<br />

4.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

4.2 Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

4.3 Autres processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

4.4 Des calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

5 Equations différentielles stochastiques 51<br />

5.1 Equation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

5.2 Processus affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

5.3 Autres équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

5.4 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

5.5 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

6 Girsanov 59<br />

6.1 Résultats élémentaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

6.2 Crochet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

6.3 Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

6.4 Cas multidimensionel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

6.5 Temps d’arrêt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />

7 Compléments 75<br />

7.1 Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75<br />

7.2 Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

7.3 Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78<br />

7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />

7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />

7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />

7.7 Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

7.8 Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

7.9 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

8 Processus à sauts 85<br />

8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />

8.2 Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

8.3 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

8.4 Temps de Défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

8.5 Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

1 Rappels, Corrigés 91<br />

1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

1.2 Variables gaussiennes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92


CONTENTS 5<br />

1.3 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />

1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />

1.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />

1.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

1.7 Algèbre béta-gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

2 Mouvement Brownien, Corrigés 101<br />

2.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

2.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105<br />

2.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107<br />

2.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107<br />

2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />

2.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />

2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />

3 Intégrale d’Itô, Corrigés 113<br />

3.1 Intégrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

3.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114<br />

3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />

3.4 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />

3.5 Brownien géométrique et extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . 119<br />

3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122<br />

3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122<br />

4 Exemples, Corrigés 125<br />

4.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125<br />

4.2 Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126<br />

4.3 Autres processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127<br />

4.4 Des Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127<br />

5 Equations différentielles stochastiques, Corrigés 129<br />

5.1 Equation Linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129<br />

5.2 Processus affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />

5.3 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />

5.4 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134<br />

6 Girsanov, Corrigés 135<br />

6.1 Résultats élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135<br />

6.2 Crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135<br />

6.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136<br />

6.4 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138


6 Rappels<br />

6.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138<br />

6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139<br />

7 Compléments, Corrigés 141<br />

7.1 Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />

7.2 Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />

7.3 Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142<br />

7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142<br />

7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />

7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />

7.7 Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />

7.8 Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145<br />

8 Sauts, Corrigés. 149<br />

8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />

8.2 Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150<br />

8.3 Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152


Chapter 1<br />

Rappels<br />

1.1 Tribu<br />

Exercice 1.1.1 Ensembles appartenant à une tribu.<br />

1. Montrer que si F est une tribu, et si A et B appartiennent à F avec A ⊂ B, alors B − A ∈ F<br />

où B − A est l’ensemble des éléments de B qui ne sont pas dans A.<br />

2. Montrer que si C et D appartiennent à F, alors C∆D def<br />

= {C ∩ D c } ∪ {C c ∩ D} appartient à<br />

F.<br />

Exercice 1.1.2 Exemples de tribus.<br />

1. Décrire la tribu engendrée par un ensemble A.<br />

2. Décrire la tribu engendrée par deux ensembles A et B disjoints.<br />

Exercice 1.1.3 Fonctions indicatrices.<br />

On note 1 A la v.a. qui vaut 1 pour ω ∈ A et 0 sinon.<br />

1. Montrer que 1 A∩B = 1 A 1 B .<br />

2. Montrer que, si A ∩ B = ∅, on a 1 A∪B = 1 A + 1 B .<br />

3. Montrer que 1 B−A = 1 B − 1 A .<br />

4. Montrer que 1 A∪B = 1 A + 1 B − 1 A∩B .<br />

Exercice 1.1.4 Union et intersection.<br />

Soit F 1 et F 2 deux tribus. Montrer que F 1 ∩ F 2 est une tribu. Montrer qu’en général F 1 ∪ F 2 n’est<br />

pas une tribu.<br />

Exercice 1.1.5 Tribu grossie par un ensemble.<br />

Soit F une tribu et A n’appartenant pas à F. Montrer que la tribu engendrée par F et A (c’est-àdire<br />

la plus petite tribu contenant F et A) est composée des ensembles B tels que il existe C et D<br />

appartenant à F vérifiant B = (C ∩ A) ∪ (D ∩ A c ).<br />

Exercice 1.1.6 Tribu engendrée par une v.a.<br />

Soit X une v.a. sur un espace (Ω, G). La tribu engendrée par X, notée σ(X), est la plus petite sous<br />

tribu F telle que X soit mesurable de (Ω, F) dans (R, B). Elle est engendrée par C = {F ⊂ Ω, |F =<br />

X −1 (B), B ∈ B). Montrer que C est une tribu. Vérifier que si Y = h(X) avec h borélienne, alors Y<br />

est σ(X) mesurable. On admettra que la réciproque est vraie.<br />

7


8 Rappels<br />

Exercice 1.1.7 Lois de v.a.<br />

Soit (X, Y ) un couple de variables indépendantes et (Z, T ) deux variables indépendantes telles que<br />

X loi<br />

= Z et Y loi<br />

= T .<br />

1. Soit f une fonction borélienne (bornée) de R dans R. Comparer E(f(X)) et E(f(Z)).<br />

2. Soit h une fonction borélienne (bornée) de R 2 dans R. Comparer E(h(X, Y )) et E(h(Z, T )).<br />

1.2 Variables gaussiennes<br />

On note N la fonction de répartition de la loi gaussienne standard: N (x) = 1 √<br />

2π<br />

∫ x<br />

−∞ e−u2 /2 du et<br />

N (m, σ 2 ) la loi d’ une v.a. gausienne d’espérance m et de variance σ 2 .<br />

Exercice 1.2.1 Moments.<br />

Soit X une v.a.r. de loi N (0, σ 2 ).<br />

1. Calculer E(X 3 ), E(X 4 ), E(|X|) et E(|X 3 |).<br />

2. Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0.<br />

3. Montrer que E(exp 1 2 a2 X 2 )) = E(exp(aXY )) où Y est indépendante de X et de même loi.<br />

Exercice 1.2.2 Somme de variables gaussiennes indépendantes.<br />

Soit X et Y deux v.a. gaussiennes indépendantes. Montrer que X + Y est une variable gaussienne.<br />

Précisez sa loi.<br />

Exercice 1.2.3 Transformée de Laplace.<br />

Soit X une v.a.r. de loi N (m, σ 2 ).<br />

1. Quelle est la loi de X−m<br />

σ<br />

Calculer E|X − m|.<br />

2. Montrer que E(e λX ) = exp(λm + 1 2 λ2 σ 2 ). Calculer E(Xe λX ).<br />

3. Dans le cas où X est v.a. gaussienne standard montrer que E(exp a2<br />

2 X2 ) = E(exp aXX ′ ) avec<br />

X et X ′ i.i.d.<br />

∫ x<br />

4. Soit Φ(x) = √ 1<br />

2π<br />

e − y2 2<br />

−∞<br />

en fonction de (Φ, λ, b).<br />

dy. Calculer, dans le cas m = 0 et σ = 1 la valeur de E( 1X≤b exp λX)<br />

5. Montrer que E(e θX f(X)) = e mθ+σ2 θ 2 /2 E(f(X + θσ 2 ) pour f continue bornée.<br />

6. Montrer que, si f est ”régulière” E(f(X)(X − m)) = σ 2 E(f ′ (X)).<br />

Exercice 1.2.4 Convergence.<br />

Soit (X n , n ≥ 1) une suite de v.a. gaussiennes qui converge dans L 2 vers X. Quelle est la loi de X<br />

Exercice 1.2.5 Vecteur gaussien. Soit X un vecteur gaussien à valeurs dans R n et A une matrice<br />

(p, n). Montrer que AX est un vecteur gaussien. Préciser son espérance et sa variance.<br />

Exercice 1.2.6 Vecteur Gaussien. Soit (X, Y ) un vecteur gaussien centré tel que E(XY ) = 0.<br />

Montrer que X et Y sont indépendantes.


Enoncés 9<br />

Exercice 1.2.7 Projection.(*)<br />

Rappel : projection dans L 2 : Soit A un sous espace de L 2 (Ω) engendré par les variables aléatoires<br />

Y 1 , . . . , Y n , c’est-à-dire si Z ∈ A, il existe (a i ) réels tels que Z = ∑ i a iY i . Soit X ∈ L 2 . On appelle<br />

projection de X sur A l’unique élément P rX de A tel que<br />

E( (X − P rX)Z) = 0, ∀Z ∈ A<br />

Soit (X 1 , X 2 , . . . , X d , Y 1 , . . . , Y n ) un vecteur gaussien centré dans R d+n . Montrer que X =<br />

(X 1 , X 2 , . . . , X d ) et Y = (Y 1 , . . . , Y n ) sont deux vecteurs gaussiens centrés.<br />

On suppose d = 1. Montrer que P rX est une v.a. gaussienne σ(Y ) mesurable, telle que X − P rX<br />

et Y sont indépendantes.<br />

Exercice 1.2.8 Caractérisation de vecteur gaussien. Soit (X, Y ) deux v.a.r. telles que Y<br />

est gaussienne et la loi conditionnelle de X à Y est gaussienne de moyenne aY + b et de variance<br />

indépendante de Y , c’est-à-dire que E(exp(λX)|Y = y) = exp(λ(ay + b) + λ2<br />

2 σ2 ). Montrer que le<br />

couple (X, Y ) est gaussien.<br />

1.3 Espérance conditionnelle<br />

On travaille sur un espace (Ω, F, P) muni d’une sous-tribu de F notée G.<br />

Exercice 1.3.1 Montrer que, si X et Y sont bornées<br />

E(Y E(X|G)) = E(XE(Y |G))<br />

Montrer que si X est G-mesurable et Y est indépendante de G, pour toute fonction borélienne bornée<br />

Φ,<br />

E(Φ(X, Y )|F) = Ψ(X)<br />

où Ψ(x) = E(Φ(x, Y )).<br />

Exercice 1.3.2 Montrer que si X ∈ L 2 , E(X|G) = Y et E(X 2 |G) = Y 2 alors X = Y .<br />

Exercice 1.3.3 Soit (X, Y ) indépendantes, X strictement positive et Z = XY . Calculer E( 1 Z≤t |X)<br />

en utilisant la fonction de répartition de Y .<br />

Exercice 1.3.4 Soit (X, Y ) indépendantes, équidristibuées et M = max(X, Y ). Calculer E( 1 X≤t |M).<br />

Exercice 1.3.5 Conditionnement et indépendance.<br />

Soit X, Y deux v.a. telles que la v.a. X − Y est indépendante de G, d’espérance m et de variance<br />

σ 2 . On suppose que Y est G-mesurable. Calculer E(X − Y | G). En déduire E(X | G). Calculer<br />

E( (X − Y ) 2 | G). En déduire E(X 2 | G).<br />

Exercice 1.3.6 Vecteur gaussien (*) Suite de l’exercice 1.2.7<br />

Soit (X, Y 1 , . . . , Y n ) un vecteur gaussien centré dans R 1+n . Montrer que E(X|Y ) = P rX.<br />

On suppose n = 1. Montrer que E(X|Y ) = αY . Déterminer α.<br />

Exercice 1.3.7 Soit X = X 1 + X 2 .<br />

mesurable et que X 1 est gaussienne.<br />

On suppose que X 1 est indépendante de G, que X 2 est G<br />

1. Calculer E(X|G) et var (X|G).


10 Rappels<br />

2. Calculer E(e λX |G).<br />

Exercice 1.3.8 Covariance conditionnelle. Soit Z 1 , Z 2 deux variables aléatoires de carré intégrable.<br />

On définit<br />

Cov(Z 1 , Z 2 |G) = E(Z 1 Z 2 |G) − E(Z 1 |G)E(Z 2 |G) .<br />

Montrer que<br />

Cov(Z 1 , Z 2 |G) = E[ (Z 1 − E(Z 1 |G)) Z 2 |G ].<br />

Exercice 1.3.9 Tribu grossie.<br />

Soit A /∈ G et A ∈ F et X une v.a. intégrable. On note H la tribu engendrée par G et A. (Voir<br />

exercice 1.1.5). On admettra que les v.a. Z qui sont H mesurables s’écrivent Z = Y 1 1 A + Y 2 1 A c,<br />

où les v.a. Y i sont G-mesurables. Montrer que<br />

E(X|H) = E(X 1 A |G)<br />

E( 1 A |G)<br />

1 A + E(X 1 A c|G)<br />

E( 1 A c|G)<br />

1 A c<br />

Exercice 1.3.10 Linéarité. Soit Z = αY +β, avec α ≠ 0. Montrer que E(aX+b|Z) = aE(X|Y )+b.<br />

Exercice 1.3.11 Grossissement progressif Soit F une tribu. On considère la tribu G engendrée<br />

par τ ∧ 1 où τ est une v.a. à valeurs dans R + .<br />

1. Montrer que toute v.a. G mesurable s’écrit h(τ ∧ 1) où h est borélienne.<br />

2. Montrer que, si X est une v.a. F mesurable, E(X|G) 1 1≤τ = A 1 1≤τ où A est une constante.<br />

Montrer que A = E(X 1 1≤τ )/P(1 ≤ τ).<br />

Exercice 1.3.12 Conditionnement et indépendance 1. Soit G 1 et G 2 deux σ-algèbres indépendantes,<br />

G = G 1 ∨G 2 et (X i , i = 1, 2) deux variables aléatoires bornées telles que X i est G i mesurable. Montrer<br />

que E(X 1 X 2 |G) = E(X 1 |G 1 )E(X 2 |G 2 ).<br />

Exercice 1.3.13 Conditionnement et indépendance 2. Montrer que si G est indépendante de<br />

σ(X) ∨ F, E(X|G ∨ F) = E(X|F).<br />

Exercice 1.3.14 Formule de Bayes. Soit dQ = LdP sur (Ω, F) et G une sous-tribu de F.<br />

Montrer que<br />

1<br />

E Q (X|G) =<br />

E P (Z|G) E P(ZX|G) .<br />

Montrer que<br />

si et seulement si L est G mesurable.<br />

E Q (X|G) = E P (X|G), ∀X ∈ F<br />

Exercice 1.3.15 Soit f et g deux densités strictement positives sur R. Soit X une v.a. de densité<br />

f sur un espace (Ω, P). Montrer qu’il existe une probabilité Q sur cet espace telle que X soit de<br />

densité g.<br />

Exercice 1.3.16 Indépendance conditionnelle Soit (F t ) et (G t ) deux filtrations.<br />

1. Montrer que les propriétés suivantes sont équivalentes.<br />

(H1) pour tout t, les tribus F ∞ et G t sont conditionellement indépendantes par rapport à F t .<br />

(H2) ∀F ∈ F ∞ , ∀G t ∈ G t , E(F G t |F t ) = E(F |F t ) E(G t |F t )<br />

(H3) ∀t, ∀G t ∈ G t , E(G t |F ∞ ) = E(G t |F t )<br />

(H4) ∀t, ∀F ∈ F ∞ , E(F |G t ) = E(F |F t ).


Enoncés 11<br />

2. Soit F et G deux filtrations telles que F t ⊂ G t . Montrer que<br />

(H) Toute F-martingale de carré intégrableest une G-martingale<br />

équivaut à (H1).<br />

3. Dans le cas G t = F t ∨ σ(t ∧ τ) où τ est un temps aléatoire, montrer que (H1) équivaut à<br />

(H5) ∀s ≤ t, P(τ ≤ s|F ∞ ) = P(τ ≤ s|F t ).<br />

1.4 Martingales<br />

L’espace Ω est muni d’une filtration (F t ).<br />

Un processus M est une martingale si<br />

- pour tout t, M t est intégrable;<br />

- pour tout t > s, E(M t |F s ) = M s , p.s.<br />

On dit que M est une surmartingale si<br />

- M t est adapté, intégrable;<br />

- E(M t |F s ) ≤ M s , ∀s ≤ t .<br />

Le processus M est une sousmartingale si −M est une surmartingale.<br />

Exercice 1.4.1 Exemple de base. Soit X une v.a. intégrable. Montrer que (E(X |F t ), t ≥ 0) est<br />

une martingale.<br />

Exercice 1.4.2 Surmartingale.<br />

1. Montrer que si M est une martingale et A un processus croissant adapté (A s ≤ A t , ∀s ≤ t)<br />

alors M − A est une surmartingale.<br />

2. Soit M une martingale. Que peut-on dire de M 2 <br />

3. Soit M une martingale telle que E(M 2 ∞) < ∞. Montrer que sup t E(M 2 t ) < ∞.<br />

4. Montrer qu’une surmartingale telle que E(Z T ) = E(Z 0 ) est une martingale sur [0, T ].<br />

Exercice 1.4.3 Martingale locale. Montrer qu’une martingale locale positive est une surmartingale.<br />

Exercice 1.4.4 Martingale en fonction de la valeur terminale. Soit X une martingale telle<br />

que X T = ζ. Exprimer X t en fonction de ζ pour t < T au moyen d’une espérance conditionnelle.<br />

Exercice 1.4.5 Un lemme.<br />

On trouve dans la littérature (Duffie) le lemme suivant:<br />

Lemma: Let φ be an adapted bounded process. Then (Y t = M t −<br />

martingale M if and only if<br />

∫ T<br />

Y t = E[ φ s ds + Y T |F t ]<br />

t<br />

Donner une démonstration de ce lemme.<br />

∫ t<br />

0<br />

φ s ds, 0 ≤ t ≤ T ) for some<br />

Exercice 1.4.6 Martingale de carré intégrable. Soit (M t , t ≥ 0) une F t -martingale de carré<br />

intégrable (telle que Mt<br />

2 soit d’espérance finie, pour tout t). Montrer que<br />

1. E((M t − M s ) 2 |F s ) = E(M 2 t |F s ) − M 2 s pour t > s.<br />

2. E((M t − M s ) 2 ) = E(M 2 t ) − E(M 2 s ) pour t > s.<br />

3. La fonction Φ définie par Φ(t) = E(M 2 t ) est croissante.


12 Rappels<br />

Exercice 1.4.7 Projection de martingale. Montrer que si M est une F t -martingale, c’est aussi<br />

une martingale par rapport à sa propre filtration G t = σ(M s , s ≤ t). Soit H t ⊂ F t . Montrer que<br />

Y t = E(M t |H t ) est une H t -martingale.<br />

Exercice 1.4.8 Une sousmartingale. Soit τ une v.a. positive. Montrer que Z t = P(τ ≤ t|F t )<br />

est une sousmartingale.<br />

Exercice 1.4.9 Processus à accroissements indépendants. Soit X un PAI (processus à accroissements<br />

indépendants, c’est-à-dire tel que, pour t > s, la v.a. X t − X s est indépendante de<br />

σ(X u , u ≤ s)). Montrer que, si, pour tout t, la v.a. X t est intégrable, X est une martingale et que<br />

si X est de carré intégrable, Xt 2 − E(Xt 2 ) est une martingale. Montrer que, si e λX t<br />

est intégrable,<br />

est une martingale.<br />

Z t =<br />

eλXt<br />

E(e λX t )<br />

Exercice 1.4.10 Soit M une martingale positive continue uniformément intégrable et τ = inf{t :<br />

M t = 0}. Montrer que M est nulle sur t > τ.<br />

Exercice 1.4.11 Soit X un processus F-adapté, positif à trajectoires continues et G ⊂ F. Montrer<br />

que E( ∫ t<br />

0 X sds|G t ) − ∫ t<br />

0 E(X s|G s )ds est une G-martingale.<br />

1.5 Temps d’arrêt<br />

Exercice 1.5.1 Tribu associée à un temps d’arrêt. Soit τ un temps d’arrêt. Montrer que F τ<br />

est une tribu.<br />

Exercice 1.5.2 Soit T un temps d’arrêt et X une variable aléatoire appartenant à F T , vérifiant<br />

X ≥ T . Montrer que X est un temps d’arrêt.<br />

Exercice 1.5.3 Exemple de processus adapté. Soit T un temps d’arrêt. Montrer que le processus<br />

X t = 1 ]0,T ] (t) est adapté.<br />

Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps d’arrêt tels que S ≤ T . Montrer<br />

que F S ⊂ F T .<br />

Exercice 1.5.5 Propriété de mesurabilité. Soit S un temps d’arrêt. Montrer que S est F S -<br />

mesurable.<br />

Exercice 1.5.6 Soit S et T deux temps d’arrêt. Montrer que {S ≤ T }, {T ≤ S} appartiennent à<br />

F S .<br />

Exercice 1.5.7 Exemple de processus càdlàg. Soit S et T deux temps d’arrêt tels que S < T .<br />

Montrer que le processus Z t = 1 [S,T [ (t) (égal à 1 si S ≤ t < T et à 0 sinon) est un processus càdlàg.<br />

Exercice 1.5.8 Exemple trivial de temps d’arrêt. Montrer qu’une constante τ est un temps<br />

d’arrêt. Quelle est dans ce cas la tribu F τ <br />

Exercice 1.5.9 Opérations sur les temps d’arrêt. Montrer que l’inf (resp. le sup) de deux<br />

temps d’arrêt est un temps d’arrêt.


Enoncés 13<br />

Exercice 1.5.10 Caractérisation de martingale.<br />

1. Soit s < t, A ∈ F s et T = t 1 A c + s 1 A . Montrer que T est un temps d’arrêt.<br />

2. Montrer que si E(X T ) = E(X 0 ) pour tout temps d’arrêt T , alors le processus X est une<br />

martingale.<br />

Exercice 1.5.11 Théorème d’arrêt. Soit M une martingale continue telle que M 0 = a et<br />

loi<br />

lim t→∞ M t = 0. Montrer que sup M t = a où U est une v.a. de loi uniforme sur [0, 1].<br />

U<br />

1.6 Changement de probabilité<br />

Ce thème sera central en vue d’application à la finance.<br />

Deux probabilités P et Q définies sur le même espace (Ω, F) sont dites équivalentes si elles ont<br />

mêmes ensembles négligeables, c’est à dire si<br />

P(A) = 0 ⇐⇒ Q(A) = 0.<br />

On admet le résultat: Si P et Q sont équivalentes, il existe une variable Y , strictement positive,<br />

F-mesurable, d’espérance 1 sous P appelée densité de Radon-Nikodym telle que dQ = Y dP ou encore<br />

Q(A) = ∫ dQ<br />

Y dP. On écrit également cette relation sous la forme = Y . Réciproquement, si Y<br />

A<br />

dP<br />

est une v.a. strictement positive, F-mesurable, d’espérance 1 sous P, la relation E Q (Z) = E P (ZY )<br />

définit une probabilité Q équivalente à P. Elle est facile à mémoriser par la règle de calcul formel<br />

suivante:<br />

∫ ∫<br />

E Q (Z) = ZdQ = Z dQ ∫<br />

dP dP = ZY dP = E P (ZY )<br />

On a aussi dP<br />

dQ = 1 Y .<br />

Exercice 1.6.1 Montrer que si P est une probabilité et Z une v.a., telle que l’égalité dQ = ZdP<br />

(soit Q(A) = E P (Z 1 A )) définit une probabilité, alors E P (Z) = 1 et P(Z < 0) = 0.<br />

Exercice 1.6.2<br />

1. Soit U une variable de Bernoulli sous P définie par<br />

P(U = 0) = 1 − p, P(U = 1) = p.<br />

Soit Y la variable définie par Y = λU + µ(1 − U). Dans quels cas cette variable est elle<br />

d’espérance 1 Soit dQ = Y dP, Calculer Q(U = 1). Quelle est la loi de U sous Q<br />

2. Soit X est une v.a. de loi N (m, σ 2 ) sous P et soit Y = exp{h(X−m)− 1 2 h2 σ 2 }. Soit dQ = Y dP.<br />

Calculer E Q {exp(λX)}) = E P {Y exp(λX)}. En déduire la loi de X sous Q (utiliser l’exercice<br />

1.2.1.<br />

3. Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U) soit gaussien.<br />

On pose dQ = Y dP avec Y = exp(U − E P (U) − 1 2 Var PU). Montrer que X est gaussien sous<br />

Q, de même covariance que sous P.<br />

1.7 Algèbre béta-Gamma<br />

Exercice 1.7.1 Loi Arc sinus Une variable aléatoire A a une loi Arc Sinus si sa densité est<br />

1 1<br />

√ √ 1 t∈[0,1] . Montrer que cos 2 (Θ) loi<br />

= A si Θ est uniforme sur [0, 2π].<br />

π 1 − t


14 Brownien.<br />

Soit N et N ′ N 2 loi<br />

deux variables N (0, 1) indépendantes. Montrer que<br />

N 2 + N ′2 = A.<br />

Soit C = N N ′ . Montrer que C a une loi de Cauchy et que 1<br />

a une loi Arc sinus.<br />

1 + C2 1.8 Divers<br />

Exercice 1.8.1 Soit X un processus at M t = sup 0≤s≤t X s . On note τ une v.a. de loi exponentielle<br />

de paramètre θ indépendante de X. Montrer que<br />

(∫ ∞<br />

)<br />

E (exp(−λM τ )) = 1 − λE due −λu e −θTu<br />

où T u = inf{t : X t ≥ u}.<br />

Exercice 1.8.2 Transformée de Laplace et indépendance. Soit X et Y deux v.a. indépendantes.<br />

Justifier que E(e λ(X+Y ) ) = E(e λX )E(e λY ). La réciproque est-elle vraie<br />

Exercice 1.8.3 Transformée de Laplace et moments. Soit X et Y deux v.a. bornées telles<br />

que E(e λX) = E(e λY ) pour tout λ. Montrer que X et Y ont même moments.<br />

Exercice 1.8.4 Markov. Soit X un processus de Markov fort et T a = inf{t : X t = a}. Montrer<br />

que, pour t < T<br />

P(X T ∈ dx |X t = a) = P(X T ∈ dx|T a = t) .<br />

Exercice 1.8.5 Propriété de Markov Soit B un mouvement Brownien et f une fonction. On<br />

note T f = inf{t : B t = f(t)}. Montrer que<br />

P(B t ≥ f(s)|T f = s) = 1 2 1 s


Chapter 2<br />

Mouvement Brownien<br />

Dans tout ce qui suit, (B t , t ≥ 0) est un mouvement Brownien réel (un processus à accroissements<br />

indépendants issu de 0, tel que pour t > s, B t − B s est une v.a. gaussienne centré de variance t − s)<br />

et on note F = (F t , t ≥ 0) sa filtration naturelle.<br />

Dans certains exercices, il sera précisé que B est issu de x.<br />

On rappelle que si X est un processus continu issu de 0, c’est un mouvement Brownien si et seulement<br />

si X et (X 2 t − t, t ≥ 0) sont des martingales.<br />

Le mouvement Brownien est un processus de Markov fort: pour tout temps d’arrêt τ fini<br />

E(f(B t+τ |F τ ) = E(f(B t+τ |B τ ) .<br />

2.1 Propriétés élémentaires<br />

Exercice 2.1.1 Caractérisation. Montrer qu’un processus X est un mouvement Brownien si et<br />

seulement si<br />

a. Pour tout t 0 < t 1 · · · < t n , le vecteur (X t0 , X t1 , . . . , X tn ) est un vecteur gaussien centré<br />

b. E(X t X s ) = s ∧ t<br />

c. X 0 = 0<br />

Exercice 2.1.2 Caractérisation 2. Montrer qu’un processus continu X est une mouvement<br />

Brownien si et seulement si, pour tout λ le processus exp(λX t − 1 2 λ2 t) est une martingale.<br />

Exercice 2.1.3 Calcul d’espérances.<br />

1. Calculer pour tout couple (s, t) les quantités E(B s B 2 t ), E(B t |F s ), E(B t |B s ) et E(e λBt |F s ).<br />

2. Calculer E( ∫ t<br />

0 B udu|F s ) avec t > s et E( ∫ t<br />

0 B udu|B s )<br />

3. On a vu, dans Exercice 1.2.1, que si Z est une v.a. gaussienne centrée de variance σ 2 , on a<br />

E(Z 4 ) = 3σ 4 . Calculer E(B 2 t B 2 s).<br />

4. Quelle est la loi de B t + B s <br />

5. Soit θ s une variable aléatoire bornée F s -mesurable. Calculer pour t ≥ s, E(θ s (B t − B s )) et<br />

E[θ s (B t − B s ) 2 ].<br />

6. Calculer E( 1 Bt≤a) et E(B t 1 Bt≤a).<br />

7. Calculer E( ∫ t<br />

0 exp(B s)ds) et E(exp(αB t ) ∫ t<br />

0 exp(γB s)ds).<br />

8. Calculer E(e B t<br />

|F s ) et E((ae B t<br />

− b) + |F s ).<br />

15


16 Brownien.<br />

Exercice 2.1.4 Lois. Montrer que E(f(B t )) = E(f(G √ u + B t−u )) avec G v.a. indépendante de<br />

B t−u et de loi gaussienne centré réduite. En déduire le calcul de E(f(B t )|F s ).<br />

Exercice 2.1.5 Soit Θ une variable aléatoire de loi exponentielle de paramètre θ (soit P (Θ ∈ dx) =<br />

θe −θx 1 x>0 dx) indépendante de B. Quelle est la loi de B Θ <br />

Exercice 2.1.6 Des martingales.<br />

martingales. (On pourra utiliser, sans démonstration, que E[<br />

1. M t = B 3 t − 3 ∫ t<br />

0 B s ds.<br />

2. Z t = B 3 t − 3tB t .<br />

3. X t = tB t − ∫ t<br />

0 B s ds.<br />

4. U t = sin B t + 1 2<br />

∫ t<br />

5. Y t = t 2 B t − 2 ∫ t<br />

0 B sds.<br />

0<br />

sin(B s ) ds.<br />

Parmi les processus suivants, quels sont ceux qui sont des<br />

∫ t<br />

0<br />

B u du|F s ] =<br />

∫ t<br />

0<br />

E[B u |F s ] du.)<br />

Exercice 2.1.7 Exponentielle de Brownien. Calculer E(e x+B t<br />

) et E(sin(x + B t )) en utilisant<br />

E(f(x + B t )) = f(x) + 1 2<br />

∫ t<br />

0<br />

E(f ′′ (x + B s )) ds .<br />

Exercice 2.1.8 Changement de temps. Soit Z t = B A(t) où A est une fonction déterministe<br />

continue strictement croissante.<br />

1. Calculer l’espérance et la variance de Z t . Ce processus est-il une martingale par rapport à F.<br />

2. On définit G t = F A(t) . Montrer que Z est une G-martingale.<br />

3. Déterminer le processus croissant C tel que (Z t ) 2 − C t soit une G-martingale.<br />

4. Soit un processus M tel que M est une martingale et il existe A, fonction déterministe continue<br />

strictement croissante telle que M 2 t − A(t) est une martingale. On note C l’inverse de A, c’està-dire<br />

la fonction telle que C(A(t)) = t. Montrer que W t = M C(t) est un mouvement Brownien.<br />

Exercice 2.1.9 Calcul d’espérance. Comment calculer E x (f(B t )g(B s ))<br />

Exercice 2.1.10 Calculer<br />

E((λ<br />

∫ 1<br />

0<br />

duB u + µB 1 ) 2 )<br />

Exercice 2.1.11 Calcul de transformée de Laplace. Calculer E x<br />

(<br />

exp(−λW<br />

2<br />

t ) ) .<br />

Exercice 2.1.12 Comportement limite.<br />

1. Montrer que lim t→∞<br />

B t<br />

t<br />

= 0<br />

2. Montrer que lim t→∞ P x (B t < 0) = 1/2. En déduire que pour tout x > 0, si T 0 = inf{t : B t =<br />

0}, on a P x (T 0 < ∞) ≥ 1/2. (En fait, on peut montrer que T 0 est fini ps.)<br />

Exercice 2.1.13 Montrer que l’intégrale<br />

∫ 1<br />

0<br />

B s<br />

ds est convergente.<br />

s


Enoncés 17<br />

Exercice 2.1.14 Tribu triviale. On admettra qu’un ensemble appartenant à la filtration F 0 = F + 0<br />

a pour probabilité 0 ou 1.<br />

Si τ = inf{t ≥ 0 : B t > 0}, montrer que P (τ ≤ t) ≥ 1 . En déduire que P (τ = 0) = 1.<br />

2<br />

Exercice 2.1.15 Applications de la propriété de Markov. Montrer que<br />

( ∫ t<br />

∫<br />

) s<br />

( ∫ t−s<br />

E x h(r, B r )dr|F s = h(r, B r )dr + E Bs h(s + u, B u )du )<br />

0<br />

0<br />

0<br />

Exercice 2.1.16 (∫ Soit τ un temps d’arrêt, λ > 0 et u une fonction continue bornée. On pose<br />

τ<br />

)<br />

(∫ ∞<br />

)<br />

g(x) = E x e −λt u(B t )dt et f(x) = E x e −λt u(B t )dt où comme d’habitude l’indice x<br />

0<br />

précise que le Brownien est issu de x.<br />

1. Montrer que g et f sont définies.<br />

0<br />

2. Montrer que<br />

E x<br />

(∫ ∞<br />

τ<br />

)<br />

e −λt (<br />

u(B t )dt = E x 1τ


18 Brownien.<br />

Exercice 2.2.3 Non-existence de processus. Montrer qu’il n’existe pas de processus ”régulier”<br />

X tel que ∀(s, t), s ≠ t, les variables X t et X s soient indépendantes, centrées gausssiennes, et E(Xt 2 )<br />

localement borné. On considérera<br />

∫ t<br />

calculera son espérance et sa variance.<br />

0<br />

X s ds et on montrera que ce processus serait Gaussien, on<br />

Exercice 2.2.4 Le pont Brownien. On définit un pont Brownien par<br />

Z t = B t − tB 1 , 0 ≤ t ≤ 1.<br />

1. Montrer que Z est un processus gaussien indépendant de B 1 . Préciser sa loi, c’est-à-dire sa<br />

moyenne et sa fonction de covariance.<br />

2. Montrer que le processus ˜Z avec ˜Z t = Z 1−t a même loi que Z.<br />

3. Montrer que le processus Y avec Y t = (1 − t)B t , 0 < t < 1 a même loi que Z.<br />

1−t<br />

4. Montrer que (Z t<br />

loi<br />

= (B t |B 1 = 0)).<br />

∫ t<br />

B s<br />

Exercice 2.2.5 Un exemple surprenant. Montrer que Z t = B t − ds est un processus<br />

0 s<br />

gaussien. Calculer sa variance et sa covariance. En déduire que Z est un mouvement Brownien.<br />

Montrer que Z n’est pas une F B -martingale, où F B est la filtration naturelle de B.<br />

Exercice 2.2.6 Pont. Soit B un MB et Γ t l’espace Gaussien engendré par (B u − u t B t, u ≤ t).<br />

Montrer que Γ t est croissant en t. Montrer que Γ(B u , u ≤ t) = Γ t ⊕ Γ(B t ) où Γ(G) est l’espace<br />

engendré par G.<br />

Exercice 2.2.7 Changement de probabilité. Soit B un MB, L t = exp(mB t − m2<br />

t) , et Q<br />

2<br />

définie sur F T par dQ = L T dP. Montrer que ˜B t = B t − mt est, sous Q, un processus gaussien à<br />

accroissements indépendants. Montrer que ˜B t est un Q-mouvement Brownien.<br />

Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et τ une v.a. positive. On admettra que<br />

E(sup(|B t | − t p/2 )) < ∞<br />

t<br />

1. Montrer que<br />

E(sup(|B t | − µt p/2 )) = λE(sup(|B s | − s p/2 ))<br />

t<br />

s<br />

avec λ = ( 1 µ )1/(p−1) .<br />

2. Montrer que E(|B τ |) ≤ E(sup t (|B t | − µt p/2 )) + µE(τ p/2 ).<br />

3. Montrer que<br />

∀p > 1, ∃C p , ∀τ,<br />

E(|B τ |) ≤ C p ||τ 1/2 || p<br />

2.3 Brownien Multidimensionnel<br />

Exercice 2.3.1 Deux mouvenements Browniens B et W sont corrélés si le processus (W t B t −ρt, t ≥<br />

0) est une martingale. Soit deux mouvements Browniens B et W corrélés de coefficient de corrélation<br />

ρ. Montrer, sans utiliser la formule d’Itô pour des processus corrélés, qu’il existe un Brownien Z,<br />

indépendant de W tel que B = ρW + √ 1 − ρ 2 Z.


Enoncés 19<br />

Exercice 2.3.2 Somme de browniens. Soit W un mouvement brownien indépendant de B et<br />

ρ ∈ [0, 1]. Montrer que (Z t = ρW t + √ 1 − ρ 2 B t , t ≥ 0) est un mouvement Brownien.<br />

Soient B et W deux browniens indépendants et (σ i , i = 1, 2) deux fonctions déterministes. Montrer<br />

qu’il existe une fonction σ 3 telle que le processus Z défini par<br />

est un Brownien.<br />

σ 3 (t)dZ t = σ 1 (t)dB t + σ 2 (t)dW t<br />

Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction borélienne bornée. Montrer<br />

que, pour 0 < s < t E x (f(B t )|F s ) = Φ(B s ) avec Φ(x) = E x [f(B t−s )]. En déduire que B i B j est<br />

une martingale pour i ≠ j.<br />

Exercice 2.3.4 Mouvement Brownien dans R 2 .<br />

1. Soit W 1 et W 2 deux mouvements Browniens indépendants. Le processus W t = W 1 (t) + W 2 (t)<br />

est-il un mouvement Brownien Si oui, justifiez la réponse, sinon, expliquez pourquoi. Même<br />

question avec αW 1 (t) + βW 2 (t).<br />

2. Soit W 1 et W 2 deux processus. Soit c un réel donné. Montrer que si<br />

( {<br />

exp aW 1 (t) + bW 2 (t) − t [ ] [ ]} )<br />

1 c a<br />

2 [a, b] , t ≥ 0<br />

c 1 b<br />

est une martingale pour tout couple (a, b), W 1 et W 2 sont des MB. Calculer E[exp(aW 1 (t) +<br />

bW 2 (t))].<br />

Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel et U une matrice telle<br />

que UU T = I. Montrer que (UB t , t ≥ 0) est un MB.<br />

2.4 Temps d’atteinte<br />

Dans tous ces exercices, a ∈ R et T a = inf{t : B t = a}.<br />

Exercice 2.4.1 Transformée de Laplace. Montrer que T a est un temps d’arrêt. Calculer<br />

E(e −λT a<br />

) pour tout λ réel. Montrer que P(T a < ∞) = 1 et que E(T a ) = ∞.<br />

Mêmes questions avec τ a = inf{t : S t = a} où S t = exp(σB t ).<br />

Exercice 2.4.2 Soit a < 0 < b et T = T a ∧ T b . Calculer P(T a < T b ) et E(T ).<br />

Exercice 2.4.3 Temps d’atteinte.<br />

1. Soit f(t) = E(e −rTa 1 Ta a > 0, la v.a. T b − T a est indépendante de T a . Quelle est la loi de<br />

T b − T a Que peut-on dire du processus (T a , a > 0)<br />

3. Soit T un nombre réel. Calculer Z t = P(T a > T |F t ). On rappelle que sup u≤t B u<br />

loi<br />

= |B t |.<br />

4. Calculer E(e −λT a<br />

) avec T a = inf{t : X t = a} et X t = νt + W t . Calculer E(e −λT ) pour<br />

T = T a ∧ T b .<br />

5. Montrer qu’il existe c tel que T r<br />

loi<br />

= cT r + X avec X indépendante de c.


20 Brownien.<br />

6. Mêmes questions si T a = inf{t; νt + B t = a}.<br />

7. Soit S un brownien géométrique (soit S t = x exp(νt + σW t )) et τ a = inf{t : S t = a}. Calculer<br />

E(<br />

∫ ∞<br />

0<br />

e −rt S t dt) et E(<br />

∫ τb<br />

0<br />

e −rt S t dt). TROP DIFFICILE<br />

Montrer que si 0 < a < b, τ b − τ a est indépendant de τ a et a même loi que τ b−a .<br />

Calculer E(e −rτ K<br />

1 τK t).<br />

Exercice 2.4.4 On suppose b < 0 < a. Montrer que (a − B t )(B t − b) + t est une F-martingale. En<br />

déduire E(T a,b ) où T a,b = T a ∧ T b .<br />

Exercice 2.4.5 Premier instant. Soit B un MB issu de 0 et T d = d+inf{t : B t+d = 0}. Calculer<br />

E(e −λT d ) et E( 1 Bd ≤ae −λT d ).<br />

Soit T ∗ = d si B d ≥ −a et T ∗ = d + T d si B d ≤ −a, B d+T d ≥ −a. Calculer E(e −λT ∗ ).<br />

Exercice 2.4.6 Soit ˜T a et ̂T a deux v.a. indépendantes de même loi que T a . Quelle est la loi de<br />

˜T a<br />

˜T a + ̂T a<br />

(Sans faire de calculs).<br />

Exercice 2.4.7 Loi de l’inf. Soit I = − inf s≤T1 B s . Montrer que P(I ∈ dx) =<br />

dx<br />

1 + x 2 .<br />

Exercice 2.4.8 Soit Ta ∗ = inf{u : M u − B u > a} avec M u = sup t≤u B t . Montrer que M T ∗ a<br />

loi exponentielle.<br />

a une<br />

Exercice 2.4.9 Temps d’atteinte Soit A et B deux nombres positifs. On note X t = µt + σB t et<br />

h(x) = exp(−2µx/σ2 ) − exp(2µB/σ 2 )<br />

exp(−2µA/σ 2 ) − exp(2µB/σ 2 ) . Vérifier que h(X t) est une martingale. Le temps d’arrêt τ<br />

est défini par<br />

τ = inf{t : X t = A ouX t = −B} .<br />

Calculer P(X τ = A).<br />

Exercice 2.4.10 Soit f une fonction borélienne bornée et et<br />

u(x) = E x (exp[− θ2<br />

2 T 0 +<br />

∫ T0<br />

0<br />

duf(B u )])<br />

où B est un mouvement Brownien issu de x. Montrer que u est solution de<br />

1<br />

2 u′′ = ( θ2<br />

+ f)u, u(0) = 1<br />

2<br />

Exercice 2.4.11 Soient a, d deux nombres réels positifs.<br />

1. Calculer E(e −|B d| √ 2λ 1 Bd ≤−a).<br />

2. Soit T 1 = inf{t ≥ d : B t = 0}. Montrer que T 1 est un temps d’arrêt. Calculer E(e −λT 1<br />

) et<br />

E(e −λT1 1 Bd ≤−a). Montrer que B T1 +d est indépendant de B d et de T 1 .<br />

3. On introduit la v.a. τ 1 suivante : si B d ≤ −a, on pose τ 1 = d. Si B d > −a et si B T1 +d ≤ −a,<br />

on pose τ 1 = T 1 + d, sinon on pose τ 1 = ∞.<br />

Calculer pour λ > 0 la transformée de Laplace de τ 1 , soit E(e −λτ 1<br />

).<br />

4. On continue. Si B d ≤ −a, on pose τ 2 = d. Si B d > −a et si B T1+d ≤ −a, on pose T 2 = T 1 + d,<br />

sinon on définit T 2 = inf{t ≥ T 1 + d : B t = 0}. Si B T2 +d ≤ −a on pose τ 2 = T 2 + d. Dans<br />

tous les autres cas, on pose τ 2 = ∞.


Enoncés 21<br />

(a) Montrer que B T2 +d est indépendant de (B T1 +d, B d ) et de T 2 .<br />

(b) Calculer la transformée de Laplace de τ 2 .<br />

5. On utilise la même procédure pour définir par itération τ n et on pose τ = τ ∞ .<br />

(a) Montrer que τ est fini en utilisant, après l’avoir justifié que<br />

P(τ < ∞) = ∏ i<br />

P(B Ti +d < −a)<br />

(b) Calculer la transformée de Laplace de τ.<br />

(c) Calculer la transformée de Laplace de B τ .<br />

(d) Montrer que B τ est indépendant de τ.<br />

Exercice 2.4.12 On trouve parfois (voir exercice précédent, ou les temps d’atteinte d’un niveau)<br />

des temps d’arrêt τ tels que τ et B τ sont indépendants. Ceci n’est cependant pas très courant.<br />

Dans ce qui suit on admettra le résultat (non trivial) suivant (Cramer) Si X et Y sont deux v.a.<br />

indépendantes telles que X + Y est une v.a. gaussienne, alors X et Y sont des gaussiennes.<br />

Le but de cet exercice est de montrer : si τ est borné par K et si τ et B τ sont indépendants,<br />

alors τ est une constante.<br />

1. Montrer que si s > K,<br />

B s = B τ + ̂B s−τ<br />

avec ̂B un mouvement Brownien indépendant de F τ .<br />

2. Montrer que B τ et ̂B s−τ sont des v.a. indépendantes.<br />

3. Calculer l’espérance et la variance de B τ . (Attention, ce n’est pas trivial. Penser au cas où<br />

τ = T a .)<br />

4. Montrer que ̂B s−τ est une v.a. Gaussienne.<br />

5. Montrer que l’on obtient √ K − τ G loi<br />

= √ K − E(τ) G où G est une v.a. gaussienne réduite<br />

centrée.<br />

6. Conclure.<br />

Exercice 2.4.13 Soit a et µ deux constantes strictement positives et T 1 = inf{t : B t ≥ a − µt},<br />

T 2 = inf{t : B t ≤ −a + µt}. On pose, pour tout λa ≥ 0, Φ(λ) = E(exp[−λτ]) avec τ = T 1 ∧ T 2 .<br />

1. Montrer que T 1<br />

loi<br />

= T 2 et que (T 1 , T 2 ) loi<br />

= (T 2 , T 1 ).<br />

2. Vérifier que Φ est bien définie et donner un majorant et un minorant simples de Φ (S’aider<br />

par un dessin).<br />

3. Montrer que Φ(λ) = 2E (exp(−λT 1 ) 1 T1


22 Brownien.<br />

2.5 Scaling<br />

Exercice 2.5.1 Montrer que le calcul de E(<br />

B s ) ds). On ne demande pas de faire ce calcul.<br />

∫ t<br />

0<br />

∫ T<br />

exp(νs + σB s ) ds) se déduit de E( exp(2(µs +<br />

0<br />

Exercice 2.5.2 Soit T 1 = inf{t : B t = 1}. Utiliser le scaling du MB pour établir les égalités en loi<br />

suivantes<br />

1. T 1<br />

loi<br />

= 1<br />

S 2 1<br />

avec S 1 = sup(B u , u ≤ 1)<br />

2. T a<br />

loi<br />

= a 2 T 1 avec T a = inf{t : B t = a}.<br />

loi loi<br />

3. g t = tg 1 , d t = td 1 où g t = sup{s ≤ t : B s = 0} et d t = inf{s ≥ t : B s = 0}. Montrer que<br />

{g t < u} = {d u > t}. En déduire g t<br />

loi<br />

= t<br />

d 1<br />

loi<br />

= 1<br />

d(1/t) .<br />

4. On suppose que A est un processus croissant continu tel que, pout tout c<br />

(B ct , A ct , t ≥ 0) loi<br />

= ( √ cB t , cA t ; t ≥ 0)<br />

On note ∆ a = inf{t : A t ≥ a}. Montrer que d ∆a<br />

5. Montrer que A t = sup s≤t B 2 s vérifie les conditions précédentes.<br />

loi<br />

loi<br />

= ad ∆1 . En déduire A g = 1/d ∆1 .<br />

Exercice 2.5.3 Montrer que<br />

où T ∗ 1 = inf{t ≥ 0 : |B t | = 1}.<br />

sup |B t | loi<br />

= √ 1<br />

0≤t≤1 T<br />

∗<br />

1<br />

Exercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit que A a la propriété<br />

(hom) s’ il existe r ∈ R tel que pour tout c,<br />

Pour quelle valeur de r la fonctionnelle A t =<br />

(B ct , A ct ; t ≥ 0) loi<br />

= ( √ cB t , c r+1 A t ; t ≥ 0)<br />

∫ t<br />

question pour le temps local (voir la définition plus loin)<br />

0<br />

1 (Bs >0)ds a t’elle la propriété (hom) Même<br />

2.6 Compléments<br />

Exercice 2.6.1 Projection d’un Brownien. Soit B un MB dans sa filtration F et G une filtration<br />

plus petite que F. On suppose que E(B t |G t ) = ̂B t est un MB. Montrer que ̂B t = B t .<br />

Exercice 2.6.2 Filtration de carrés de Browniens. Soit Y t = aBt 2 + bWt<br />

2 avec a ≠ b et a et b<br />

non nuls, W et B étant des Browniens indépendants. Montrer que σ(Y s , s ≤ t) = σ(B s , W s , s ≤ t).<br />

Généraliser au cas de n carrés.<br />

Exercice 2.6.3 Représentation prévisible. Soit B (i) , i = 1, 2, 3 trois MB, avec B (i) , i = 1, 2<br />

indépendants. Montrer qu’il n’est pas possible d’avoir σ(B s (3) , s ≤ t)) = σ(B s (1) , B s<br />

(2) , s ≤ t). On<br />

utilisera le théorème de représentation prévisible pour représenter B (1)<br />

t , B (2)<br />

t en terme de B (3) .


Enoncés 23<br />

Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on définit la tribu<br />

F β t = σ{(B s − s t B t, s ≤ t}<br />

1. Montrer que la famille F β t est croissante en t.<br />

2. Soit f ∈ L 2 (R + , ds). Calculer la projection ̂F t sur L 2 ((F β ) t ) de F t =<br />

3. Montrer que le processus ̂B t = B t −<br />

∫ t<br />

0<br />

du B u<br />

u<br />

F β t = σ{ ̂B u , u ≤ t}<br />

∫ t<br />

0<br />

f(s)dB s .<br />

est un (F β<br />

t )-mouvement Brownien et que<br />

4. Montrer que ̂F t =<br />

∫ t<br />

0<br />

̂f(s)d ̂B t , avec ̂f(t) = f(t) − 1 t<br />

∫ t<br />

0<br />

f(u)du.<br />

Exercice 2.6.5 Soit B un MB réel, T 0 = inf{t : B∫<br />

t = 0}, g = sup{t < 1 : B t = 0} et d =<br />

inf{t > 1 : B t = 0}. Montrer que P x (d > 1 + t) = p(1, x; y)P y (T 0 > t)dy et que P 0 (g ≤ t) =<br />

∫<br />

p(t, 0; y)P y (T 0 > 1 − t)dy.<br />

Exercice 2.6.6 Loi de g t . Montrer que<br />

P( sup B u > 0, B s < 0) = 2P(B t > 0, B s < 0) = 2[ 1<br />

s≤u≤t<br />

4 − 1 √ s<br />

2π arcsin t ]<br />

En déduire la loi de g t = sup{s ≤ t : B s = 0}<br />

Exercice 2.6.7 Représentation prévisible. Trouver un processus f prévisible tel que F =<br />

E(F ) +<br />

∫ T<br />

0<br />

1. F = B T ,<br />

2. F =<br />

f s dB s pour<br />

∫ T<br />

0<br />

3. F = B 2 T ,<br />

B s ds,<br />

4. F = exp B T .<br />

Exercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un second mouvement Brownien<br />

issu de 0 indépendant de B et<br />

1. Montrer que<br />

X t = (1 − t)<br />

∫ t ∫<br />

W t<br />

s<br />

0 1 − s ds − 0<br />

∫ t<br />

0<br />

∫ s<br />

ds<br />

0<br />

∫<br />

W t<br />

s<br />

(1 − s) 2 ds + (1 − t) 1<br />

1 − s dB s .<br />

∫<br />

W t<br />

u<br />

(1 − u) 2 du = (1 − t)<br />

0<br />

0<br />

W s<br />

(1 − s) 2 ds.<br />

2. En admettant que si f et g sont deux fonctions déterministes on peut intervertir le sens des<br />

intégrales dans<br />

∫ t<br />

0<br />

dsf(s)<br />

∫ s<br />

B t −<br />

0<br />

∫ t<br />

g(u)dB u , montrer que<br />

0<br />

∫ s<br />

ds<br />

0<br />

∫<br />

1<br />

t<br />

1 − u dB u = (1 − t)<br />

0<br />

1<br />

1 − s dB s


24 Brownien.<br />

3. Vérifier que X est solution de<br />

∫ t<br />

X t = B t +<br />

0<br />

W s − X s<br />

ds .<br />

1 − s<br />

∫ t<br />

dB s − dW s<br />

4. (sans utiliser ce qui précede) Montrer que X t = (1 − t)<br />

+ W t .<br />

0 1 − s<br />

5. Calculer E(X s X t ).<br />

Exercice 2.6.9 Soit G une filtration, W un G mouvement brownien. Soit H une filtration plus<br />

petite que G. Montrer que le processus M t = E(W t |H t ) est une martingale. (on précisera par<br />

rapport à quelle filtration). Soit X t = W t +<br />

la filtration de X et Ŷu = E(Y u |F X u ). Vérifier que Z t = (X t −<br />

(on calculera l’espérance conditionnelle de Z t par rapport à F X s .<br />

∫ t<br />

0<br />

Y u du où Y est un processus G adapté. On note F X<br />

∫ t<br />

0<br />

Ŷ u du, t ≥ 0) est une F X -martingale<br />

Exercice 2.6.10 Let X be a Brownian motion with drift µ and M X t<br />

= sup { s ≤ t}X t . Prove that<br />

where F (T − t, u) = P(M X T −t ≤ u)<br />

∫ ∞<br />

E(MT X |F t ) = Mt X + (1 − F (T − t, u)du<br />

Mt<br />

X −X t<br />

2.7 Finance<br />

Exercice 2.7.1 Black et Scholes. Calculer E(e −at (S t − K) + ) quand<br />

S t = xe bt exp(σB t − σ2<br />

2 t)<br />

Ecrire la formule obtenue quand a = b = r et quand a = r, b = r − δ. Calculer E(e −rt (S t − K) + |F s )<br />

pour s < t.<br />

Exercice 2.7.2 Options reset Une option reset est caractérisée par une suite de dates t 1 , t 2 , . . . , t n .<br />

Le payoff de cette option est<br />

A = ∑ i<br />

(S T − S ti ) + 1 Sti =inf{K,S t1 ,S t2 ,...,S t n } + (S T − K) + 1 K=inf{K,St1 ,S t2 ,...,S t n }<br />

Calculer le prix d’une telle option, c’est-à-dire calculer E(e −rT A) quand<br />

.<br />

S t = xe rt exp(σB t − σ2<br />

2 t)<br />

2.8 Problème<br />

2.8.1 Partie I : Résultats préliminaires<br />

Soit (B t ) t≥0 un mouvement Brownien standard sur un espace de probabilit (Ω, F, P ).<br />

(F t ) t≥0 la filtration naturelle de B.<br />

On note


Enoncés 25<br />

Etant donné un processus continu (X t ) t≥0 à valeurs réelles, on pose pour t > 0 ,<br />

M X t<br />

= sup X s ,<br />

s≤t<br />

m X t<br />

= inf<br />

s≤t X s .<br />

Si a est un nombre réel strictement positif, on définit également<br />

Il est connu que Ta<br />

B<br />

pour λ ≥ 0 ,<br />

T X a = inf{t ≥ 0; X t = a}, ˜T<br />

X<br />

a = inf{t ≥ 0; |X t | = a} .<br />

est un temps d’arrêt relativement à (F t ) t≥0 , fini p.s. , tel que E(T B a ) = ∞ et<br />

E [ exp(−λTa B ) ] (<br />

= exp −a √ )<br />

2λ .<br />

1. En inversant la transformée de Laplace de Ta B , montrer que la densité de la loi de Ta B est<br />

donnée par<br />

( )<br />

a<br />

√ exp − a2<br />

1 (t>0) .<br />

2πt<br />

3 2t<br />

2. Démontrer que pour λ ≥ 0 ,<br />

E<br />

[<br />

exp(−λ ˜T<br />

] ( (<br />

a B ) = cosh a √ −1<br />

2λ))<br />

.<br />

3. Prouver que ˜T B a est intégrable et calculer E( ˜T B a ) .<br />

4. Soient c et d deux nombres réels strictement positifs et posons T B = Tc B ∧ T−d B . Montrer que<br />

pour λ ∈ R ,<br />

[<br />

)]<br />

E exp<br />

(− λ2<br />

2 T B sinh(λd)<br />

1 (T B =Tc B) =<br />

sinh(λ(c + d)) ,<br />

[<br />

E exp<br />

)]<br />

(− λ2<br />

2 T B cosh(λ(c − d)/2)<br />

=<br />

cosh(λ(c + d)/2) .<br />

5. En utilisant la propriété de Markov forte, démontrer que si c ≥ 0 , b ≤ c ,<br />

P[B t ≤ c , M B t<br />

> c] = P[B t > 2c − b].<br />

6. En-déduire que pour chaque t > 0 , les variables aléatoires M B t et |B t | ont la même loi.<br />

7. Vérifier que pour chaque t > 0 , la densité de la loi du couple (B t , Mt B ) est donnée par<br />

)<br />

2(2c − b) (2c − b)2<br />

√ exp<br />

(− 1 {0≤c} 1 {b≤c} .<br />

2πt<br />

3<br />

2t<br />

8. Retrouver alors la densité de la loi de T B a explicitée au 1. .<br />

2.8.2 Partie II<br />

On considère le processus (Y t ) t≥0 défini par : ∀t ≥ 0 , Y t = µ t + B t , où µ ∈ R .<br />

1. Montrer qu’il existe une mesure de probabilité P µ sous laquelle (Y t ) t≥0 est un mouvement<br />

Brownien standard.<br />

2. En utilisant le résultat de la question I.7. , en-déduire que pour chaque t > 0 , la densité de la<br />

loi du couple (Y t , Mt Y ) est donnée par<br />

) (<br />

2(2c − b) (2c − b)2<br />

√ exp<br />

(− . exp µ b − 1 )<br />

2πt<br />

3<br />

2t<br />

2 µ2 t 1 {0≤c} 1 {b≤c} .


26 Brownien.<br />

2.8.3 Partie III<br />

Soit (S t ) t≥0 le processus tel que : ∀t ≥ 0 , S t = x exp [ (r − 1 2 σ2 )t + σB t<br />

]<br />

, où x, r et σ sont des<br />

nombres réels strictement positifs. Dans la suite, on désignera par N la fonction de répartition de<br />

la loi normale centrale réduite.<br />

1. Expliciter la probabilité P θ qui fait de ( ˜B t ) t≥0 un mouvement Brownien standard, avec ˜B t =<br />

θt + B t et θ = r σ − σ 2 .<br />

2. Trouver une relation entre M S t et M ˜B<br />

t et entre m S t et m ˜B<br />

t pour chaque t > 0.<br />

Dans ce qui suit, H et K désigne des nombres réels strictements positifs.<br />

3. Montrer que<br />

P [ S t ≤ K , M S t<br />

≤ H ] ( ) (2r/σ H 2 )−1<br />

= N(d 1 ) −<br />

N(d 2 ) ,<br />

x<br />

avec<br />

d 1 =<br />

( ( ) K<br />

log −<br />

(r − 1 ) )<br />

x 2 σ2 t /σ √ t ,<br />

d 2 =<br />

( ( ) Kx<br />

log<br />

H 2 −<br />

(r − 1 ) )<br />

2 σ2 t /σ √ t .<br />

4. Montrer que<br />

P [ S t ≥ K , m S t<br />

≥ H ] ( ) (2r/σ H 2 )−1<br />

= N(d 3 ) −<br />

N(d 4 ) ,<br />

x<br />

avec<br />

d 3 =<br />

( ( x<br />

)<br />

log +<br />

(r − 1 ) )<br />

K 2 σ2 t /σ √ t ,<br />

d 4 =<br />

(<br />

log<br />

( H<br />

2<br />

xK<br />

)<br />

+<br />

(r − 1 ) )<br />

2 σ2 t /σ √ t .<br />

5. Déduire de la question 3. que (E désignant l’espérance sous P)<br />

]<br />

( ) )<br />

(2r/σ H<br />

E<br />

[S t 1 {St ≤K ,Mt S≤H} = x e<br />

(N(d 2 )+1<br />

rt<br />

5 ) −<br />

N(d 6 ) ,<br />

x<br />

avec<br />

d 5 =<br />

( ( ) K<br />

log −<br />

(r + 1 ) )<br />

x 2 σ2 t /σ √ t ,<br />

d 6 =<br />

( ( ) Kx<br />

log<br />

H 2 −<br />

(r + 1 ) )<br />

2 σ2 t /σ √ t .<br />

6. En utilisant le résultat de la question 4., vérifier que<br />

]<br />

( ) )<br />

(2r/σ H<br />

E<br />

[S t 1 {St ≥K ,m S t ≥H} = x e<br />

(N(d 2 )+1<br />

rt<br />

7 ) −<br />

N(d 8 ) ,<br />

x<br />

avec<br />

d 7 =<br />

( ( x<br />

)<br />

log +<br />

(r + 1 ) )<br />

K 2 σ2 t /σ √ t ,<br />

d 8 =<br />

(<br />

log<br />

( H<br />

2<br />

Kx<br />

)<br />

+<br />

(r + 1 ) )<br />

2 σ2 t /σ √ t .


Enoncés. 2005-06 27<br />

[<br />

]<br />

7. On pose v 1 (x, T ) = E e −rT (S T − K) +<br />

1 {m S<br />

T ≥H} .<br />

Montrer que<br />

[ ( ) ]<br />

(2r/σ H 2 )+1<br />

v 1 (x, T ) = x N(d 7 ) −<br />

N(d 8 ) − e −rT K<br />

x<br />

[ ( ) ]<br />

(2r/σ H 2 )−1<br />

N(d 3 ) −<br />

N(d 4 ) .<br />

x<br />

Déterminer la quantité ∂<br />

∂x v 1(x, T − t) .<br />

8. On pose v 2 (x, T ) = E<br />

et ∂<br />

∂x v 2(x, T − t) .<br />

9. On pose<br />

[<br />

e −rT (S T − K) +<br />

1 {M S<br />

T ≤H}<br />

[<br />

]<br />

v 3 (x, T ) = E e −rT (S T − K) +<br />

1 {M S<br />

T ≥H}<br />

[<br />

]<br />

v 4 (x, T ) = E e −rT (S T − K) +<br />

1 {m S<br />

T ≤H}<br />

v(x, T ) = E [ e −rT (S T − K) +<br />

]<br />

.<br />

]<br />

. Donner une formule explicite pour v 2 (x, T )<br />

Donner une relation entre v 2 (x, T ) ,v 3 (x, T ) et v(x, T ) d’une part et entre v 1 (x, T ) ,v 4 (x, T ) et<br />

v(x, T ) d’autre part.<br />

,<br />

,


28 Itô.


Chapter 3<br />

Intégrale d’Itô<br />

Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.<br />

On considère un processus θ,<br />

ff-adapté continu à gauche, et admettant des limites à droite, tel que<br />

∫ ∞<br />

0<br />

θ 2 t dt < ∞, a.s<br />

on montre qu’il existe des processus θ n de la forme θt n = ∑ θ i,n 1 ]ti ,t i+1<br />

avec θ i,n ∈ L 2 (Ω) et F ti -<br />

mesurables, convergeant vers θ dans L 2 (Ω × R + ) (au sens où ‖θ − θ n ‖ 2 → 0 quand n → ∞. On<br />

définit ∫ t<br />

0 θ sdB s , comme la limite de ∑ k(n) ˜θ j=1 j,n (B(t j+1 ) − B(t j ))<br />

Le processus I(θ) t = ∫ t<br />

0 θ sdB s a les propriétés suivantes. Si<br />

(∫ ∞<br />

)<br />

E θt 2 dt < ∞, ∀t<br />

le processus I(θ) est une martingale, dans les autres cas, c’est une martingale locale.<br />

Si<br />

(∫ ∞<br />

)<br />

E θt 2 dt < ∞, ∀t<br />

le processus<br />

est une martingale.<br />

0<br />

0<br />

(I(θ) t −<br />

∫ ∞<br />

0<br />

θ 2 t dt, t ≥ 0)<br />

Intégrale de Wiener: Si f est une fonction déterministe, de carré intégrable sur tout intervalle<br />

[0, t], le processus (I(f) t , t ≥ 0) est un processus gaussien.<br />

Crochet: Le crochet d’une martingale de carré intégrable continue M est l’unique processus<br />

croissant 〈M〉 tel que M 2 t − 〈M〉 t soit une martingale.<br />

Le crochet de I(θ) est par définition 〈I(θ)〉 t = ∫ ∞<br />

0<br />

θ 2 t dt Si X et Y sont deux martingales continues<br />

leur crochet 〈X, Y 〉 est l’unique processus à variation bornée tel que XY − 〈X, Y 〉 est une martingale.<br />

Le crochet de deux intégrales stoichastiques est 〈I(θ), I(ψ)〉 = ∫ t<br />

0 θ sψ s ds Si X et Y sont deux<br />

semi-martingales continues leur crochet est le crochet des parties martingales<br />

Processus d’Itô: On appelle processus d’Itô un processus X admettant une décomposition de<br />

la forme<br />

X t = x +<br />

∫ t<br />

0<br />

a s ds +<br />

29<br />

∫ t<br />

0<br />

σ s dB s


30 Itô.<br />

où a et σ sont des processus F-adaptés, vérifiant ∫ t<br />

0 |a s|ds < ∞ et ∫ t<br />

0 σ2 sds < ∞.<br />

Formule d’intégration par parties: Soit X et Y deux processus d’Itô<br />

relatifs au même mouvement Brownien B, alors<br />

dX t = a t dt + σ t dB t<br />

dY t = b t dt + ν t dB t<br />

d(XY ) t = X t dY t + Y t dX t + d〈X, Y 〉 t<br />

Formule d’Itô: Si f est une fonction C 1,2<br />

f(t, X t ) = f(0, X 0 ) +<br />

∫ t<br />

A(s, X s )ds +<br />

∫ t<br />

0<br />

0<br />

∂ x f(s, X s )dB s<br />

où<br />

Af(t, x) = ∂ t f(t, x) + b(t, x)∂ x f(t, x) + 1 2 ∂ xxf(t, x)<br />

Cette formule s’écrit aussi<br />

df(t, X t ) = ∂ t f(t, X t )dt + ∂ x f(t, X t )dX t + 1 2 ∂ xxf(t, X t )d〈X〉 t<br />

Les crochets se calculent formellement de la façon suivante d〈X, Y 〉 = dX ˙ dY , avec la table de<br />

multiplication suivante<br />

dt · dt = 0, dt · dB t = 0, dB t · dB t = dt<br />

3.1 Intégrale de Wiener<br />

Exercice 3.1.1 Soit Y t = tB t . Calculer dY t , l’espérance de la v.a. Y t et la covariance E(Y t Y s ).<br />

Exercice 3.1.2 1. Montrer que la v.a. X t =<br />

∫ t<br />

2. Montrer que X est un processus gaussien.<br />

Calculer son espérance et sa covariance E(X s X t ).<br />

3. Calculer E[X t |F s ].<br />

4. Montrer que X t = (sin t)B t −<br />

∫ t<br />

0<br />

(cos s)B s ds.<br />

Exercice 3.1.3 Montrer que (Y t = sin(B t ) + 1 2<br />

son espérance et sa variance.<br />

Exercice 3.1.4<br />

0<br />

(sin s) dB s est définie.<br />

∫ t<br />

0 sin(B s) ds, t ≥ 0) est une martingale. Calculer<br />

1. Montrer que le processus (Y t = ∫ t<br />

0 (tan s) dB s, 0 ≤ t < π 2<br />

) est défini.<br />

2. Montrer que Y est un processus gaussien, calculer son espérance, sa covariance et l’espérance<br />

conditionnelle<br />

E(Y t |F s ).


Enoncés. 2005-06 31<br />

∫ t<br />

B s<br />

3. Montrer que Y t = (tan t) B t −<br />

0 cos 2 s ds.<br />

Exercice 3.1.5 Pont Brownien. On considère l’équation différentielle stochastique<br />

{<br />

X t<br />

dX t =<br />

t − 1 dt + dB t ; 0 ≤ t < 1<br />

X 0 = 0<br />

et l’on admet l’existence d’une solution.<br />

1. Montrer que<br />

∫ t<br />

dB s<br />

X t = (1 − t)<br />

0 1 − s ; 0 ≤ t < 1 .<br />

2. Montrer que (X t , t ≥ 0) est un processus gaussien. Calculer son espérance et sa covariance.<br />

3. Montrer que lim t→1 X t = 0.<br />

Exercice 3.1.6 Montrer que, si f est une fonction déterministe de carré intégrable<br />

Exercice 3.1.7 Calculs de moments.<br />

∫ t2<br />

∫ ∞<br />

E(B t f(s) dB s ) =<br />

0<br />

∫ t<br />

0<br />

f(s) ds .<br />

Soit t 1 < t 2 . Calculer A = E( (B t −B t1 ) dt|F t1 ). Montrer que (B t −B t1 ) dt = (t 2 −t)dB t .<br />

t 1<br />

t 1 t<br />

[∫ 1<br />

t2<br />

]<br />

Utiliser cette égalité pour calculer A d’une autre manière. Calculer Var (B t − B t1 ) dt|F t1 .<br />

t 1<br />

3.2 Formule d’Itô<br />

Exercice 3.2.1 Ecrire les processus suivants comme des processus d’Itô en précisant leur drift et<br />

le coefficient de diffusion<br />

∫ t2<br />

∫ t2<br />

1. X t = B 2 t<br />

2. X t = t + e B t<br />

3. X t = B 3 t − 3tB t<br />

4. X t = 1 + 2t + e Bt<br />

5. X t = [B 1 (t)] 2 + [B 2 (t)] 2<br />

6. X t = (B t + t) exp(−B t − 1 2 t)<br />

7. X t = exp(t/2) sin(B t )<br />

(∫ t<br />

)<br />

Exercice 3.2.2 Intégration par parties. Soit X t = exp a(s)ds et<br />

0<br />

∫ t<br />

[ ( ∫ s<br />

)]<br />

Y t = Y 0 + b(s) exp − a(u)du dB s<br />

0<br />

où a et b sont des fonctions boréleiines intégrables. On pose Z t := X t Y t . Montrer que dZ t =<br />

a(t)Z t dt + b(t)dB t .<br />

0


32 Itô.<br />

Exercice 3.2.3 Intégration par parties.<br />

Soit Y t = tX 1 (t)X 2 (t) avec<br />

dX 1 (t) = f(t) dt + σ 1 (t)dB t<br />

dX 2 (t) = σ 2 (t)dB t<br />

Calculer dY t .<br />

Exercice 3.2.4 Equation différentielle. On admet que le système suivant admet une solution<br />

⎧<br />

∫ t<br />

⎪⎨ X t = x + Y s dB s<br />

Montrer que X 2 t + Y 2<br />

t = (x 2 + y 2 )e t .<br />

Exercice 3.2.5 Formule d’Itô. Soit Y t =<br />

1. Ecrire l’EDS vérifiée par Z t .<br />

⎪⎩<br />

2. Calculer E(Z t ), E(Z 2 t ) et E(Z t Z s ).<br />

Y t = y −<br />

∫ t<br />

0<br />

∫0<br />

t<br />

0<br />

X s dB s<br />

e s dB s et Z t =<br />

∫ t<br />

0<br />

Y s dB s .<br />

Exercice 3.2.6 On suppose que X est un processus d’Itô de drift a(K t − X t ), que X t = f(K t ) et<br />

que K t = bt + σB t où a, b, σ sont des constantes et B un mouvement brownien. Quelle est la forme<br />

de f <br />

Exercice 3.2.7 Exponentielle.<br />

Soit σ un processus adapté continu de L 2 (Ω × R) et<br />

On pose Y t := exp X t et Z t = Y −1<br />

t .<br />

X t =<br />

∫ t<br />

0<br />

σ s dB s − 1 2<br />

∫ t<br />

0<br />

σ 2 s ds .<br />

1. Expliciter la dynamique de Y , c’est-à-dire exprimer dY t .<br />

2. Montrer que Y est une martingale locale. Donner une condition sur σ pour que ce soit une<br />

martingale.<br />

3. Calculer E(Y t ) dans ce cas. Expliciter les calculs quand σ = 1.<br />

4. Calculer dZ t .<br />

Exercice 3.2.8 Soit (a, b, c, z) des constantes et<br />

Quelle est l’EDS vérifiée par Z<br />

Z t = e (a−c2 /2)t+cB t<br />

(z + b<br />

∫ t<br />

Exercice 3.2.9 On considère le processus de dynamique<br />

où (h t , t ≥ 0) est un processus adapté.<br />

0<br />

)<br />

e −(a−c2 /2)s−cB s<br />

ds<br />

dS t = S t ((r − q + h t )dt + σdB t )


Enoncés. 2005-06 33<br />

1. On se place dans le cas h t = 0, ∀t. Montrer que (M t = S t e −(r−q)t , t ≥ 0) est une martingale<br />

positive. On définit une probabilité Q par dQ| Ft = Mt<br />

M 0<br />

dP | Ft . Comment se transforme le MB<br />

B<br />

2. Dans le cas h non nul, expliciter S t .<br />

3. On suppose que h t = h(S t ) où h est une fonction continue. On admet qu’il existe une solution<br />

de l’EDS correspondante. Montrer que<br />

e −rT E(e − ∫ T<br />

0 h(S s)ds Ψ(S T )) = e −qT S 0 E Q (S −1<br />

T Ψ(S T ))<br />

4. On se place maintenant dans le cas h t = S −p<br />

t , avec p réel. On admet qu’il existe une solution<br />

de l’EDS. On pose Z t = S p t .<br />

(a) Quelle est la dynamique de Z<br />

(b) Vérifier, en utilisant l’exercice 4 que l’on peut expliciter Z.<br />

(c) Pour quelles fonctions f, le processus f(Z) est il une martingale (locale)<br />

Exercice 3.2.10 Processus d’Ornstein Uhlenbeck. Soit X tel que dX t = (a − bX t )dt + dB t<br />

(<br />

1. Montrer que Z t = exp c<br />

∫ t<br />

0<br />

X s dB s − c2 2<br />

∫ t<br />

0<br />

)<br />

Xs 2 ds est une martingale locale.<br />

2. Soit U t = X 2 t . Ecrire dU t puis la variable U t comme une somme d’intégrales.<br />

3. Montrer que<br />

∫ t<br />

0<br />

X s dB s = 1 2 (X2 t − X 2 0 − t) − a<br />

∫ t<br />

0<br />

X s ds + b<br />

Exercice 3.2.11 Soit Z le processus défini par<br />

( )<br />

1<br />

Z t = √ exp −<br />

B2 t<br />

.<br />

1 − t 2(1 − t)<br />

∫ t<br />

0<br />

X 2 s ds .<br />

1. Montrer que Z est une martingale et que Z t tend vers 0 quand t tend vers 1..<br />

2. Calculer E(Z t ).<br />

3. Ecrire Z t sous la forme<br />

Z t = exp (<br />

où Φ est un processus que l’on précisera.<br />

∫ t<br />

0<br />

Φ s dB s − 1 2<br />

∫ t<br />

0<br />

Φ 2 sds)<br />

Exercice 3.2.12 Moments d’une exponentielle stochastique. Soit L le processus solution de<br />

dL t = L t φdB t , L 0 = 1<br />

où φ est une constante.<br />

L t = E(φB) t .<br />

Le processus L est l’exponentielle de Doléans-Dade de φB et se note<br />

1. Déterminer la fonction Γ telle que, pour a ∈ R, le processus (L t ) a exp(−Γ(a)t) est une martingale.<br />

2. En déduire le calcul de E [(L t ) a ] pour tout a ∈ R.<br />

Exercice 3.2.13 Démonstration de l’unicité de l’écriture d’un processus d’Itô.<br />

Soit dX t = a t dt + σ t dB t . On souhaite démontrer que si X ≡ 0, alors a ≡ 0, σ ≡ 0.


34 Itô.<br />

1. Appliquer la formule d’Itô à Y t = exp(−X 2 t ).<br />

2. En déduire le résultat souhaité.<br />

Exercice 3.2.14 Soit V = KX avec<br />

Calculer dV t et d ln X t .<br />

Exercice 3.2.15 Montrer que<br />

M t = exp ( −<br />

est une martingale locale.<br />

Exercice 3.2.16 Soit A t =<br />

dX t = X t (µ − k − s ln X t )dt + σX t dB t<br />

dK t = K t (r + k)dt<br />

∫ t<br />

∫ t<br />

0<br />

0<br />

B 2 sds ) exp ( − B2 t<br />

2 tanh(T − t)) 1<br />

(cosh(T − t)) 1/2<br />

exp(B s + νs)ds et dS t = S t (rdt + σdB t ). Montrer que le processus<br />

f(t, S t , A t ) est une martingale si f vérifie une équation aux dérivées partielles à coefficients<br />

déterministes que l’on précisera.<br />

Exercice 3.2.17 Soit dX t = dB t + 1 X t<br />

dt. Montrer que 1 X t<br />

est une martingale (locale). Quelles<br />

sont les fonctions f telles que f(t, X t ) soit une martingale locale.<br />

Exercice 3.2.18 Soit B et W deux browniens corrélés et<br />

dr t = [a(b − r t ) − λσr t ]dt + σ √ r t dW t<br />

dV t = (r t − δ)V t dt + σ V V t dB t<br />

On pose X t = √ r t et Y t = ln V t − αX t avec α = 2ρσ V /σ. Calculer dX et dY .<br />

Exercice 3.2.19 Soit T fixé et B(t, T ) = exp<br />

Montrer que<br />

où on a noté ˜α(t, T ) =<br />

Exercice 3.2.20 Soit<br />

(<br />

−<br />

∫ T<br />

t<br />

f(t, u)du<br />

)<br />

avec<br />

df(t, T ) = α(t, T )dt + σ(t, T )dB t , ∀t < T<br />

dB(t, T ) = (r t − ˜α(t, T ) + 1 2 ˜σ(t, T ))B(t, T )dt − ˜σ(t, T )B(t, T )dB t<br />

∫ T<br />

t<br />

α(u, T )du<br />

dr t = (a − br t )dt − σ √ r t (dB t + λdt)<br />

et W un mouvement Brownien indépendant de B. Soit λ 1 une constante et H le processus<br />

(∫ t<br />

H t = exp r s ds + 1 ∫ t<br />

∫ t ∫ t<br />

(λ 2 1 + λr s )ds + λ 1 dW s + λ √ )<br />

r s dB s<br />

2<br />

0<br />

0<br />

∫ T<br />

Montrer que le calcul de E(exp(HT α)|F t) se réduit à celui de E(exp(−ηr T − µ r s ds)|F t ).<br />

t<br />

0<br />

0


Enoncés. 2005-06 35<br />

Exercice 3.2.21 Fonction d’échelle. Soit X un processus d’Itô. Une fonction s est une fonction<br />

d’echelle si s(X) est une martingale locale. Déterminer les fonctions d’échelle des processus suivants:<br />

1. B t + νt<br />

2. X t = exp(B t + νt)<br />

3. X t = x +<br />

∫ t<br />

0<br />

β est un MB.<br />

b(X s )ds +<br />

∫ t<br />

0<br />

σ(X s )ds. Identifier le processus croissant A tel que s(X t ) = β At<br />

où<br />

Exercice 3.2.22 Soit<br />

Soit u une solution de<br />

dΨ t = (1 − rΨ t )dt + σΨ t dB t<br />

σ 2<br />

2 x2 u ′′ (x) + (1 − rx)u ′ (x) − λu(x) = 0<br />

On définit x ∗ comme solution de x ∗ u ′ (x ∗ ) = u(x ∗ ) et v(x) =<br />

Soit enfin V définie par<br />

{<br />

V (x) = v(x), 0 ≤ x ≤ x<br />

∗<br />

= x, x > x ∗<br />

x∗<br />

u(x ∗ ) u(x). On admettra que v′′ (x) ≥ 0.<br />

Montrer que 1 − (r + λ)x ∗ ≤ 0.<br />

Ecrire la formule d’Itô pour e −λt V (Ψ t ). Il apparait un terme LV (x) − λV (x) avec<br />

LV (x) = (1 − rx)V ′ (x) + σ2<br />

2 x2 V ′′ (x)<br />

Montrer que sur x > x ∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x ∗ , on a LV (x) − λV (x) = 0<br />

En déduire que<br />

V (Ψ 0 ) ≥ Ẽ(e−λT V (Ψ T ))<br />

(en admettant que l’intégrale stochastique est une martingale).<br />

Exercice 3.2.23 Reprendre l’exercice 2.6.8 en utilisant la formule d’Itô.<br />

Exercice 3.2.24 Pont Brownien Calculer P (sup 0≤s≤t B s ≤ y, B t ∈ dx). En déduire que, pour<br />

un pont brownien b, issu de x à l instant 0, qui doit se trouver en z, z > 0 à l’instant t, on a pour<br />

y > z<br />

(z + x − 2y)2<br />

P ( sup b s ≤ y) = exp<br />

(− +<br />

0≤s≤t<br />

2t<br />

Quelle est la valeur de P (sup 0≤s≤t b s ≤ y) pour y < z<br />

)<br />

(z − x)2<br />

.<br />

2t<br />

Exercice 3.2.25 Formule de Clark-Ocone Soit f une fonction bornée de classe C 1 . Justifier<br />

rapidement qu’il existe une fonction ψ telle que, pour t ≤ 1<br />

E(f(B 1 )|F t ) = ψ(t, B t ) .<br />

Expliciter ψ(t, x) sous la forme d’une espérance (non conditionnelle). Ecrire la formule d’Itô pour<br />

ψ en faisant les simplifications qui s’imposent. Montrer que<br />

ψ(t, B t ) = E(f(B 1 )) +<br />

∫ t<br />

0<br />

E(f ′ (B 1 )|F s )dB s .


36 Itô.<br />

3.3 Cas multidimensionnel<br />

Exercice 3.3.1 On considère deux processus S 1 et S 2 définis par<br />

dS i (t) = S i (t)(rdt + σ i dB i t), i = 1, 2 (3.1)<br />

où B 1 et B 2 sont deux Browniens indépendants et où les coefficients r, σ i sont constants.<br />

1. On pose S 3 (t) def<br />

= S1(t)+S2(t)<br />

2<br />

. Ecrire l’équation différentielle stochastique vérifiée par S 3 .<br />

2. Soit S 4 (t) def<br />

= √ S 1 (t)S 2 (t). Ecrire l’équation différentielle stochastique vérifiée par S 4 .<br />

Exercice 3.3.2 Formule d’Itô multidimensionnelle. Soient (B 1 (t), t ≥ 0) et (B 2 (t), t ≥ 0)<br />

deux mouvements Browniens indépendants. Soit (L i (t), i = 1, 2 , t ≥ 0)) les processus définis par<br />

dL i (t) = θ i (t)L i (t)dB i (t) , L i (0) = 1<br />

où (θ i (t), i = 1, 2) sont des processus adaptés continus bornés. Soit Z t = L 1 (t)L 2 (t). Ecrire dZ t .<br />

Montrer que L 1 (t)L 2 (t) est une martingale.<br />

Exercice 3.3.3 Soit (B 1 (t), t ≥ 0) et (B 2 (t), t ≥ 0) deux mouvements Browniens indépendants et<br />

ρ une constante telle que |ρ| ≤ 1.<br />

1. Montrer que le processus (W t , t ≥ 0) défini par W t = ρB 1 (t)+ √ 1 − ρ 2 B 2 (t) est un mouvement<br />

Brownien.<br />

2. Soit (φ i (t), t ≥ 0; i = 1, 2) deux processus continus adaptés de carré intégrable (tels que<br />

∀T ≥ 0, E( ∫ T<br />

0 φ2 i (t) dt) < ∞).<br />

(a) On définit (Z t , t ≥ 0) par dZ t = φ 1 (t)dB 1 (t) + φ 2 (t)dB 2 (t) et Z 0 = z. Montrer que Z est<br />

une martingale.<br />

(b) Soit Ψ(t) = φ 2 1(t) + φ 2 2(t). On suppose que Ψ(t) > 0. On définit (Y t , t ≥ 0) par<br />

dY t =<br />

φ 1(t)<br />

√<br />

Ψ(t)<br />

dB 1 (t) + φ 2(t)<br />

√<br />

Ψ(t)<br />

dB 2 (t) , Y 0 = y .<br />

Ecrire l’équation vérifiée par Y 2<br />

t .<br />

Montrer que (Y t , t ≥ 0) est un mouvement Brownien.<br />

3. On définit R t = B 2 1(t) + B 2 2(t). Ecrire l’équation différentielle vérifiée par R et celle vérifiée<br />

par U t = √ R t . On montrera que<br />

dU t = a U t<br />

dt + bdB 3 (t)<br />

où a et b sont des constantes et B 3 un mouvement Brownien.<br />

Exercice 3.3.4 Soit dS (i)<br />

t<br />

= S (i)<br />

t<br />

(µ (i)<br />

t<br />

dt + σ (i)<br />

t<br />

Déterminer k i , i = 1, 2 pour que e −rt (S (1)<br />

t ) k 1<br />

(S (2)<br />

dB (i)<br />

t ) où B (i) , i = 1, 2 sont deux MB corrélés.<br />

t ) k 2<br />

soit une martingale.


Enoncés. 2005-06 37<br />

3.4 Compléments<br />

Exercice 3.4.1 Formule de Tanaka. Soit f une fonction et F définie par<br />

Vérifier que<br />

et que F ′ (x) =<br />

∫ x<br />

−∞<br />

f(y) dy =<br />

∫ ∞<br />

−∞<br />

F (x) =<br />

F (x) =<br />

∫ x<br />

−∞<br />

∫ ∞<br />

−∞<br />

f(y) 1 x>y dy.<br />

dz<br />

∫ z<br />

−∞<br />

f(y) dy<br />

(x − y) + f(y)dy<br />

Montrer, en appliquant la formule d’Itô à F que<br />

∫ t<br />

∫ ∞<br />

(<br />

f(B s )ds = 2 f(y) (B t − y) + − (B 0 − y) + −<br />

0<br />

−∞<br />

∫ t<br />

0<br />

)<br />

1 Bs >ydB s dy .<br />

Exercice 3.4.2 Egalité de Bougerol.<br />

Soit B 1 et B 2 deux mouvements browniens indépendants.<br />

1. Appliquez la formule d’Itô aux processus<br />

2. Montrer que dZ t =<br />

X t<br />

def<br />

= exp(B 1 (t))<br />

∫ t<br />

def<br />

3. Vérifier que M t = B 2 (t) +<br />

que M t =<br />

∫ t<br />

0<br />

0<br />

∫ t<br />

0<br />

φ(Z s )dB 1 (s) +<br />

∫ t<br />

0<br />

exp(−B 1 (s)) dB 2 (s), Z t<br />

def<br />

= sinh B 1 (t)<br />

∫ t<br />

0<br />

ψ(Z s )ds.<br />

X s dB 1 (s) est une martingale. Calculer E(M 2 t ). En admettant<br />

γ s dB 3 (s), où B 3 est un mouvement brownien, identifier γ.<br />

4. En déduire une relation entre X t et Z t .<br />

Exercice 3.4.3 Soit dr t = δdt + 2 √ r t dB t et f(t, x) une fonction de C 1,2<br />

b<br />

.<br />

1. Quelle condition doit vérifier la fonction s pour que s(r t ) soit une martingale <br />

2. Quelle condition doit vérifier la fonction f pour que f(t, r t ) soit une martingale <br />

3. Soit Z t = r 2 t et ρ t = √ r t . Ecrire les EDS vérifiées par Z t et par ρ t .<br />

4. Soit dr 1 t = µ 1 dt + 2 √ r t dB 1 t et dr 2 t = µ 2 dt + 2 √ r t dB 2 t deux processus, avec B 1 et B 2 deux<br />

browniens indépendants. On admettra que r 1 et r 2 sont indépendants. On note R le processus<br />

défini par R t = r 1 t + r 2 t . Montrer que R s’écrit sous la forme (4.1).<br />

Exercice 3.4.4 Temps d’atteinte. Soit τ = T a = inf{t : B t = a}. On a calculé Z t = P (τ ><br />

T |F t ). Quelle est la dynamique du processus Z.<br />

Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la forme dX t = H t dB t , dY t =<br />

K t dB t . On note M t l’unique solution de l’équation dM t = M t dX t , M 0 = 1. Montrer que la solution<br />

de dZ t = dY t + Z t dX t , Z 0 = z est<br />

Z t = M t (z +<br />

∫ t<br />

0<br />

1<br />

M s<br />

(dY s − H s K s ds))<br />

Quelle est la solution de dZ t = dY t + Z t dX t lorsque dX t = H t dBt 1 , dY t = K t dBt<br />

2 où B 1 et B 2 sont<br />

deux MB éventuellement corrélés


38 Itô.<br />

3.5 Brownien géométrique et extensions.<br />

Dans cette section, nous étudions le Brownien géométrique, processus de dynamique<br />

où b et σ sont des constantes.<br />

Exercice 3.5.1 Existence et unicité de la solution de 3.2)<br />

1. Soit ˜S t = e −bt S t . Vérifier par<br />

dS t = S t (b dt + σ dB t ), S 0 = x (3.2)<br />

d ˜S t = ˜S t σdB t . (3.3)<br />

En déduire que ˜S est una martingale. Vérifier que Ỹt = xe σB t− 1 2 σ2t est solution de (3.3) puis<br />

que Y t = xe bt e σB t− 1 2 σ2t est solution de (3.3)<br />

2. Soit S une autre solution de (3.3). Quelle est l’EDS vérifiée par S/Y . Résoudre cette équation<br />

et en déduire (3.3) admet une unique solution.<br />

3. Calculer E(S t ) et la valeur de E(S t |F s ) pour tous les couples (t, s).<br />

4. Montrer que S T = S 0 exp[(b− 1 2 σ2 )T +σB T ], puis que S T = S t exp[(b− 1 2 σ2 )(T −t)+σ(B T −B t )].<br />

5. Ecrire l’équation différentielle vérifiée par (S t ) −1 .<br />

Exercice 3.5.2 Changement de probabilité.<br />

1. Soit dL t = −L t θ t dB t où θ t est un processus adapté continu de L 2 (Ω×R) . On pose Y t = S t L t .<br />

Calculer dY t .<br />

2. Soit r une constante et ζ t défini par<br />

Montrer que ζ t = L t exp(−rt). calculer dζ −1<br />

t .<br />

dζ t = −ζ t (r dt + θ t dB t )<br />

3. Calculer d(S t ζ t ). Comment choisir θ pour que ζS soit une martingale La probailité obtenue<br />

est telle que le processus S actualisé par le taux sans risque r (soit § t e −rt est une martingale.<br />

Cette (unique=) probabilité est la probbilté risque neutre (ou le mesure martingsle équivalente)<br />

Exercice 3.5.3 Soit A t = 1 t<br />

∫ t<br />

0<br />

ln S s ds.<br />

1. Montrer que ln S s = ln S t + (b − σ2<br />

2 )(s − t) + σ(B s − B t ) pour s ≥ t.<br />

2. Montrer que A t est une variable gaussienne.<br />

3. Soit G(t, T ) = 1 T<br />

∫ T<br />

t<br />

(B s − B t ) ds. Montrer que<br />

A T = t T A t + (1 − t T )[ln S t + 1 2<br />

σ2<br />

(b − )(T − t)] + σG(t, T )<br />

2<br />

4. Montrer que G(t, T ) est une variable gaussienne indépendante de F t , dont on calculera l’espérance<br />

conditionnelle et la variance conditionnelle (par rapport à F t ).<br />

5. En déduire que A T = Z t +U où Z t est F t mesurable et U une variable gaussienne indépendante<br />

de F t . Montrer que α(t)e Z t<br />

= E(e A T<br />

|F t ),où l’on précisera la valeur de α.


Enoncés. 2005-06 39<br />

Exercice 3.5.4 Soit V T = 1 h<br />

le processus défini par<br />

1. Quelle est la valeur de X T <br />

∫ T<br />

T −h S udu où h est un nombre réel donné tel que 0 < h < T . Soit X<br />

e −bt X t = E[e −bT V T |F t ] .<br />

2. Exprimer X t en fonction de S t pour t ≤ T − h.<br />

3. Exprimer X t en fonction de S t et de (S u , T − h ≤ u ≤ t) pour T − h ≤ t ≤ T .<br />

4. Montrer que dX t = X t bdt+σS t γ t dB t avec γ t = 1 {t


40 Itô.<br />

3.7 Finance<br />

Nous considérons un marché financier comportant un actif sans risque de dynamique<br />

dS 0 t = S 0 t r t dt<br />

où r est un processus F-adapté (très souvent, une fonction déterministe ou une constante) et des<br />

actifs risqués dont les prix sont donnés par des processus d’Itô, sous une probabilité P dite historique.<br />

Si S est un prix, la quantité S(S 0 ) −1 est le prix actualisé. Une mesure martingale équivalente est une<br />

mesure de probabilité Q, équivalente à la probabilité historique P telle que les prix actualisés sont<br />

des martingales (locales). Un marché est sans arbitrage s’il existe au moins une mesure martingale<br />

équivalente, complet si cette mme est unique. Dans le cas d’un marché complet sans arbitrage le<br />

prix d’un actif contigent H (une variable aléatoire) est<br />

V t = E Q (HS 0 t /S 0 T |F t )<br />

Un portefeuille est un couple (α, β) de processus adaptés et la valeur du portefeuille est le<br />

processus (V t , t ≥ 0)<br />

V t = α t S 0 t + β t S t .<br />

Le portefeuille est dit autofinançant si<br />

dV t = α t dS 0 t + β t dS t .<br />

Voir Poncet et Portait pour de plus amples explications.<br />

Exercice 3.7.1<br />

On considère un marché financier où deux actifs sont négociés: un actif sans risque, de taux constant<br />

r, un actif risqué dont le prix S suit la dynamique<br />

dS t = S t (µ(t)dt + σ(t)dB t )<br />

les coefficients µ et σ étant des fonctions déterministes.<br />

1. Ecrire la valeur de S t en fonction de S 0 , des fonctions µ, σ, et du MB B.<br />

2. Déterminer le(s) mesure(s) martingale(s) équivalente(s).<br />

3. Justifier que ce marché est complet, sans arbitrage. On notera Q la mme.<br />

4. Quelle est la dynamique de ˜S sous P et sous Q<br />

5. Calculer, pour tout couple (s, t) E P (S t |F s ) et E Q (S t |F s ).<br />

6. On considère l’actif contingent versant h(S T ) à la date T , où h est une fonction (déterministe).<br />

(a) Quel est le prix de cet actif à la date t Montrer que ce prix peut être obtenu sous forme<br />

d’une intégrale d´terministe.<br />

(b) Ecrire l’EDP d’évaluation.<br />

(c) Comment couvrir cet actif en utilisant l’actif sans risque et l’actif S Expliquer en<br />

particulier comment déterminer le nombre de parts d’actifs S et le montant de cash (on<br />

ne demande pas de calcul explicite)<br />

(d) Quels seraient les modifications à apporter si r est une fonction déterministe un processus<br />

7. On se place dans le cas h(x) = x 2 . Expliciter le prix à la date t et le portefeuille de couverture.<br />

Même question pour h(x) = ax + b où a et b sont des constantes.


Enoncés. 2005-06 41<br />

Exercice 3.7.2 Portefeuille auto-financant<br />

1. Quelle serait la richesse d’un agent qui détiendrait à chaque instant t, un nombre de parts<br />

d’actif risqué égal à t, en utilisant une stratégie autofinançante<br />

2. Quelle serait la richesse terminale (à l’instant T ) d’un agent de richesse initiale x qui souhaite<br />

avoir un montant de cash égal à (T − t)x à chaque instant t en utilisant une stratégie autofinançante<br />

(on donnera le résultat sous forme d’un intégrale stochastique dont tous les coefficients<br />

sont explicites)<br />

Exercice 3.7.3 Autofinancement Cet exercice important montre que la définition de l’autofinancement<br />

est invariante par changement de nbuméraire. Question préliminaire: Soit X et Y deux processus<br />

d’Itô continus (on ne précisera pas leur dynamique, c’est inutile pour ce qui suit). Rappeler la<br />

formule d’intégration par parties pour d(XY ). En déduire que<br />

X t d( 1 ) + 1 dX t + d〈X, 1 X t X t X 〉 t = 0 .<br />

On considère un marché comportant deux actifs dont les prix sont des processus d’Itô S 1 et S 2 tels<br />

que S 1 est strictement positif. Un portefeuille de valeur V t = πt 1 St 1 + πt 2 St<br />

2 est autofinancant si<br />

dV t = π 1 t dS 1 t + π 2 t dS 2 t .<br />

On choisit comme numéraire le premier actif et on note Ṽt = V t /S 1 t , ˜S 2 t = S 2 t /S 1 t , d’où<br />

Ṽ t = V t /S 1 t = π 1 t + π 2 t ˜S 2 t .<br />

Le but de cet exercice est de montrer que la notion d’autofinancement ne dépend pas du choix de<br />

numéraire, c’est-à-dire que<br />

dV t = π 1 t dS 1 t + π 2 t dS 2 t (3.4)<br />

implique<br />

dṼt = π 2 t d ˜S 2 t . (3.5)<br />

1<br />

1. Calculer d〈V,<br />

S 〉 (1) t en fonction de d〈S (1) ,<br />

(<br />

2. Montrer que dVt<br />

1 = πt<br />

2 S (2)<br />

t d 1 + 1<br />

S (1)<br />

t S (1)<br />

t<br />

( )<br />

3. Montrer que dVt<br />

1 = πt 2 S (2)<br />

t<br />

d .<br />

S (1)<br />

t<br />

1<br />

S (1) 〉 t et d〈S (2) ,<br />

dS (2)<br />

t + d〈S (2) ,<br />

1<br />

S 〉 (1) t<br />

)<br />

1<br />

S (1) 〉 t<br />

Exercice 3.7.4 Dans un marché incomplet, il existe des actifs contingents duplicables. En particulier,<br />

montrer que<br />

∫ T<br />

0<br />

(aS s + b)ds est duplicable lorsque S est un processus d’Itô.<br />

Exercice 3.7.5 Equation d’évaluation. Soit dS t = rS t dt+S t σ(t, S t )dB t , où r est une constante.<br />

1. Montrer que E(Φ(S T )|F t ) est une martingale pour toute fonction Φ borélienne bornée.<br />

2. Justifier que E(Φ(S T )|F t ) = E(Φ(S T )|S t )<br />

3. Soit ϕ(t, x) la fonction définie par ϕ(t, S t ) = E(Φ(S T )|S t ). Ecrire dZ t avec Z t = ϕ(t, S t ).


42 Itô.<br />

4. En utilisant que ϕ(t, S t ) est une martingale, et en admettant que ϕ est C 1,2 , montrer que pour<br />

tout t > 0 et tout x > 0:<br />

Quelle est la valeur de ϕ(T, x)<br />

∂ϕ<br />

(t, x) + rx∂ϕ<br />

∂t ∂x (t, x) + 1 2 σ2 (t, x)x 2 ∂2 ϕ<br />

(t, x) = 0 .<br />

∂x2 Exercice 3.7.6 Options Européennes et Américaines. On rappelle l’inégalité de Jensen : si<br />

Φ est une fonction convexe et G une tribu, E(Φ(X)|G) ≥ Φ(E(X|G)).<br />

On admettra que si τ est un temps d’arrêt borné par T et Z une sous-martingale, E(Z T ) ≥ E(Z τ ).<br />

On note dS t = S t (rdt + σ t dB t ) le prix d’un actif où σ est un processus adapté borné. Soit C =<br />

E(e −rT (S T − K) + ) le prix d’un call Européen et C Am = sup τ E(e −rτ (S τ − K) + ) le prix d’un<br />

call Américain, le sup étant pris sur tous les temps d’arrêt à valeurs dans [0, T ]. On note P =<br />

E(e −rT (Ke rT − S T ) + ) et P Am = sup τ E(e −rτ (Ke rτ − S τ ) + ) les prix de puts à strike actualisés.<br />

1. Montrer que (e −rt S t − K) + est une sous-martingale.<br />

2. Soit g une fonction convexe de classe C 2 telle que g(0) = 0. Montrer que<br />

En déduire que<br />

pour tout t < u ≤ T . Montrer que C = C Am .<br />

3. Montrer que P = P Am .<br />

∀x, ∀α ≥ 1, g(x) ≤ 1 α g(αx)<br />

E(e −ru g(S u )|F t ) ≤ E(e −rT g(S T )|F t )<br />

Exercice 3.7.7 Volatilité stochastique Soit r un réel et (σ t , t ≥ 0) un processus aléatoire (F t )<br />

adapté tel que σ 1 ≤ σ t ≤ σ 2 où σ 1 et σ 2 sont des constantes.<br />

1. On note V 1 la fonction V 1 (t, x) définie par V 1 (t, x) = e −r(T −t) E(h(X T )|X t = x) lorsque dX(t) =<br />

X(t)(rdt + σ 1 dB t ). Montrer que e −rt V 1 (t, X t ) est une martingale.<br />

2. Ecrire l’ EDS vérifiée par le processus V 1 (t, X t ). En déduire que la fonction V 1 satisfait une<br />

EDP. Dans la suite, on suppose V 1 convexe en x.<br />

3. Soit dS 1 (t) = S 1 (t)(rdt + σ t dB t ). Ecrire la formule d’Itô pour e −rt V 1 (t, S t ). En déduire<br />

e −rT V 1 (t, S T ) en fonction de e −rt V 1 (t, S t ), d’une intégrale en dt dont on donnera le signe et<br />

d’une intégrale stochastique.<br />

4. Montrer que e −rt V 1 (t, S t ) ≤ E(e −rT h(S T )|F t ) ≤ e −rt V 2 (t, S t ).<br />

Exercice 3.7.8 Heath-Jarrow-Morton. Soit T fixé et (r t , 0 ≤ t ≤ T ) une famille de processus<br />

(dépendant du paramètre T ) que l’on notera, comme dans toute la littérature sur les taux<br />

(r(t, T ), 0 ≤ t ≤ T ) telle que, pour tout T fixé<br />

où<br />

∂ Σ(t, T ) = σ(t, T ) .<br />

∂T<br />

dr(t, T ) = σ(t, T )Σ(t, T )dt + σ(t, T )dB t<br />

1. On pose X t =<br />

∫ T +a<br />

T<br />

r(t, u)du. Montrer que l’on peut écrire<br />

X t = X 0 +<br />

où on explicitera µ et φ.<br />

∫ t<br />

µ s ds +<br />

∫ t<br />

0<br />

0<br />

φ s dB s


Enoncés. 2005-06 43<br />

2. En déduire la dynamique de Y t = exp X t .<br />

Exercice 3.7.9 Portefeuille de marché. On considère un marché comportant un actif sans risque<br />

de taux r et un actif risqué de dynamique<br />

dS t = S t (µ t dt + σ t dB t ) .<br />

1. Montrer qu’un portefeuille autofinançant est caractérisé par le couple (v, β) tel que<br />

dV t = r t V t dt + β t (dS t − r t S t dt), V 0 = v .<br />

On utilise très souvent le processus H défini par<br />

avec θ = µ t − r t<br />

σ t<br />

.<br />

dH t = −H t (r t dt + θ t dB t )<br />

2. Montrer que M t = (H t ) −1 est la valeur d’un portefeuille autofinançant dont on précisera la<br />

valeur de α et de β. Ce portefeuille est appellé portefeuille de marché .<br />

Exercice 3.7.10 Dividendes. Soit<br />

dS t = S t ([r − δ]dt + σdB t ), S 0 = x (3.6)<br />

1. Montrer que S t = S 0 exp(at + cB t ) où on explicitera a, c. Montrer que<br />

∫ T<br />

S t e −rt = E(S T e −rT + δS s e −rs ds|F t ) , .<br />

t<br />

2. Montrer qu’il existe β tel que S β soit une Q-martingale.<br />

3. On suppose que dY t = Y t (rdt + νdB t ), Y 0 = y. Soit γ une constante. Montrer que Y γ vérifie<br />

une équation du type (3.6) où l’on précisera la valeur de δ et de σ.<br />

4. Calculer E((S T − K) + ).<br />

Exercice 3.7.11 Assurance de portefeuille.<br />

1. Soit M une martingale telle que M T ≥ 0. Montrer que M t ≥ 0 pour t < T . Cette propriété<br />

s’étend-elle au cas t > T Si oui, donner une démonstration, sinon, donner un contre exemple.<br />

Soit τ un temps d’arrêt borné par T . On suppose que M τ = 0. Montrer qu’alors M s = 0 pour<br />

s ∈ [τ, T ].<br />

2. Soit V la valeur d’un portefeuille autofinançant dans un modèle Black-Scholes. On rappelle<br />

que d(R t V t ) = π t R t σV t dB t avec R t = e −rt . Montrer que si V T ≥ K alors V t ≥ e −r(T −t) K.<br />

Montrer que s’il existe τ < T tel que V τ = e −r(T −τ) K, alors V t = e −r(T −t) K pour t ∈ [τ, T ].<br />

3. Un agent de richesse initiale x souhaite former un portefeuille tel que V T > K. Quelle condition<br />

sur x cela implique t’il Comment peut-il réaliser cet objectif (on donnera plusieurs solutions)<br />

√<br />

Yt<br />

Exercice 3.7.12 Soit dX t =<br />

T − t X tdB t et dY t = g t dB t +µdt. On note C(T −t, x, σ) la fonction<br />

√<br />

Yt<br />

de Black-Scholes. Donner une relation entre g, µ pour que C(T −t, X t , ) soit une martingale.<br />

T − t


44 Exemples. Enoncés<br />

∫ T<br />

Exercice 3.7.13 Calcul de E(exp − r s ds|F t ) avec r t = f(t) + σ2<br />

0<br />

2 t + σB t<br />

Exercice 3.7.14 On considère un marché dans lequel sont négociés trois actifs Un actif sans risque<br />

dont la dynamique est dS 0 t = S 0 t rdt et <strong>DE</strong>UX actifs risqués<br />

dS i t = S i t(µ i dt + σdB t )<br />

avec µ 1 ≠ µ 2 et le même mouvement Brownien uni-dimensionnel B. Les actifs contingents sont<br />

choisis dans F T = σ(S 1 s , S 2 s , s ≤ T ) = σ(B s , s ≤ T ).<br />

1. Montrer que le marché est complet.<br />

2. Montrer que la marché admet des opportunités d’arbitrage.<br />

3. Construire EXPLICITEMENT une telle opportunité d’arbitrage, c’est-à-dire expliciter un<br />

triplet (π 0 , π 1 , π 2 ) de processus adaptés tels que le portefeuille associé soit autofinancant et<br />

V 0 = 0, V T > 0. On pourra se restreindre à une OA statique, c’est-à-dire telle que (π 0 , π 1 , π 2 )<br />

soient des constantes.<br />

Exercice 3.7.15 On considère un modèle Black et Scholes et on note Q l’unique mme.<br />

1. On note Y t = ∫ t<br />

0 S udu. Quel est le prix, à la date t du payoff Y T (versé en T )<br />

2. Expliciter la stratégie de couverture de Y T<br />

3. On considère le payoff h(Y T , S T ), versé en T , où h est une fonction borélienne (bornée)<br />

• Montrer que le prix à la date t de h(Y T , S T ) s’écrit ϕ(t, Y t , S t ) et montrer comment obtenir<br />

ϕ(t, y, x) par un calcul d’espérance (non conditionnelle)<br />

• Quelle est l’EDP satisfaite par ϕ<br />

• Déterminer la stratégie de couverture associée.<br />

On considère c et π deux processus adaptés et X π,c la solution de<br />

dX t = rX t dt + π t (dS t − rS t dt) − c t dt,<br />

X 0 = x<br />

• Montrer que (e −rt X t + ∫ t<br />

0 e−rs c s ds, t ≥ 0) est une Q-martingale.<br />

• Montrer que, pour t < T ,<br />

∫ T<br />

X t e −rt = E Q (X T e −rT +<br />

X t e −rt ζ t = E P (X T e −rT ζ T +<br />

t<br />

∫ T<br />

t<br />

e −rs c s ds|F t )<br />

ζ s e −rs c s ds|F t )<br />

• Soit ψ et ϑ deux processus adaptés. On souhaite que les relations π t = ψ t X t et c t = ϑ t X t<br />

soient satisfaites. Quelle sera dans ce cas la solution X π,c<br />

t (l’expliciter en terme des processus<br />

ψ, ϑ, B).<br />

• On admet que le processus X représente la richesse d’un agent financier investissant π sur<br />

l’actif risqué et consommant c t dt durant l’intervalle de temps t, t + dt. Montrer, en utilisant<br />

cette interprétation que pour obtenir une richesse terminale (en T ) positive et avoir une consommation<br />

positive, l’agent doit avoir une richesse initiale positive et que sa richesse sera<br />

positive à chaque instant t.


Chapter 4<br />

Exemples<br />

Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.<br />

4.1 Processus de Bessel<br />

Exercice 4.1.1 Soit B 1 et B 2 deux mouvements Browniens indépendants et<br />

1. Ecrire l’EDS vérifiée par Z.<br />

Z t = B 2 1(t) + B 2 2(t) .<br />

2. On pose Y t = √ Z t . Ecrire l’EDS vérifiée par Y .<br />

3. Ecrire l’EDS vérifiée par 1/Y .<br />

Exercice 4.1.2 Formule d’Itô On considère les processus de la forme<br />

On admet que r t ≥ 0 presque partout (par rapport à t et à ω.)<br />

dr t = µdt + 2 √ r t dB t (4.1)<br />

1. Soit f(t, x) une fonction de C 1,2<br />

b<br />

. Quelle condition doit vérifier la fonction f pour que f(t, r t )<br />

soit une martingale <br />

2. Soit Z t = r 2 t et ρ t = √ r t . Ecrire les EDS vérifiées par Z t et par ρ t .<br />

3. Soit dr 1 t = µ 1 dt + 2 √ r t dB 1 t et dr 2 t = µ 2 dt + 2 √ r t dB 2 t deux processus, avec B 1 et B 2 deux<br />

browniens indépendants. On admettra que r 1 et r 2 sont indépendants. On note R le processus<br />

défini par R t = r 1 t + r 2 t . Montrer que R s’écrit sous la forme (4.1).<br />

Exercice 4.1.3 Processus de Bessel de dimension 3. Soit R le processus solution de<br />

dR t = 1 R t<br />

dt + dW t , R 0 = 0 .<br />

1. Montrer que Z t = 1 est une martingale locale.<br />

R t<br />

2. Montrer que (U t = exp(− λ2 t<br />

2 ) sinh λR t<br />

, t ≥ 0) est une martingale locale. On admetra que<br />

λR t<br />

c’est une martingale.<br />

45


46 Exemples. Enoncés<br />

(<br />

)<br />

3. En déduire la valeur de E exp(− λ2 T m<br />

)<br />

2<br />

où T m = inf{t : R t = m}, avec m > 0.<br />

4. Soit f une fonction continue bornée et a un nombre réel. Quelles conditions doit vérifier la<br />

fonction v pour que<br />

soit une martingale<br />

v(R t ) exp[−at −<br />

∫ t<br />

0<br />

f(R s )ds]<br />

5. Supposons que v est explicitée. Comment calculerez vous<br />

∫ Tm<br />

E(exp[−aT m − f(R s ) ds]) <br />

0<br />

Exercice 4.1.4 Processus de Bessel de dimension 2. Soit dR t = dW t + 1<br />

2R t<br />

dt.<br />

1. Montrer que Z = ln R est une martingale locale.<br />

2. Soit ν un nombre réel positif. Montrer que L t = [R t ] ν exp(− ν2<br />

2<br />

locale.<br />

∫ t<br />

0<br />

ds<br />

) est une martingale<br />

Exercice 4.1.5 Processus de Bessel de dimension δ. Soit R le processus solution de dR t =<br />

dB t + δ − 1<br />

2R t<br />

dt.<br />

1. Pour quelles fonctions s le processus s(R t ) est-il une martingale locale<br />

2. Quelle est la dynamique de Y t = R 2 t <br />

3. Montrer que Z t<br />

def<br />

= exp(− µ 2 (Y t − δt) − µ2<br />

2<br />

∫ t<br />

4. Soit dQ = ZdP . Quelle est la dynamique de Y sous Q<br />

0<br />

R 2 s<br />

Y u du) est une martingale.<br />

Exercice 4.1.6 Minimum d’un Bessel<br />

Quelle est la loi de inf s≤t X s lorsque X est un processus de Bessel<br />

4.2 Processus de Bessel carré<br />

Exercice 4.2.1 Soit α, σ deux constantes et dX(t) = − 1 2 αX(t) dt + 1 2 σdW (t). Soit Y t = X t e αt/2 .<br />

Ecrire dY t .<br />

1. En déduire la forme de la solution X(t).<br />

2. On suppose que (W 1 , W 2 , . . . , W n ) sont des Browniens indépendants et on note X i la solution<br />

de dX i (t) = − 1 2 αX i(t) dt+ 1 2 σdW i(t). Soit r le processus défini par r(t) = X 2 1 (t)+· · ·+X 2 n(t).<br />

3. Montrer que le processus B défini par B(0) = 0 et dB(t) =<br />

Brownien.<br />

n∑<br />

i=1<br />

X i (t)dW i (t)<br />

√<br />

rt<br />

est un mouvement


2009-10 47<br />

4. Montrer que dr t = (a − br t ) dt + σ √ r t dB t<br />

Exercice 4.2.2 Processus de Bessel carré. Soit x ≥ 0 et R un processus tel que<br />

On admettra que R existe et que R ≥ 0.<br />

dR t = µdt + 2 √ |R t |dB t , R 0 = x (4.2)<br />

1. Soit Z t = (B t ) 2 . Montrer que Z vérifie une équation de la forme (4.2). Quelle est la valeur de<br />

µ correspondante<br />

2. Soit B 1 un mouvement Brownien indépendant de B et Z 1 t = (B t ) 2 + (B 1 t ) 2 . Montrer que Z 1<br />

vérifie une équation de la forme (4.2). Quelle est la valeur de µ correspondante Généralisation<br />

à la somme des carrés de n Browniens indépendants.<br />

3. Soit ρ t = √ R t . Montrer que dρ t = b(t, ρ t , µ)dt + dB t . On explicitera b.<br />

4. Soit B 1 un mouvement Brownien indépendant de B. On note R (µ) (x) le processus défini en<br />

(4.2) et, pour y ≥ 0, le processus R (ν) (y) solution de<br />

On notera simplement R (µ)<br />

t<br />

et R (ν)<br />

t<br />

dR (ν)<br />

t<br />

= νdt + 2 √ R t (ν)dB 1 t , R (ν)<br />

0 = y (4.3)<br />

et R (ν)<br />

t ces deux processus. On supposera que les processus R (µ)<br />

t<br />

ne s’annulent pas et on admettra qu’ils sont indépendants.<br />

(a) Soit X t = R (µ)<br />

t<br />

+ R (ν)<br />

t . Calculer dX t .<br />

(b) Montrer que le processus Z défini ci-dessous est un mouvement Brownien<br />

√ √<br />

R (µ)<br />

t dB t + R (ν)<br />

t dBt<br />

1<br />

dZ t = √<br />

R (µ)<br />

t + R (ν)<br />

t<br />

(c) En déduire que X t = R (µ)<br />

t<br />

+ R (ν)<br />

t<br />

vérifie<br />

On explicitera β en fonction de µ et ν.<br />

dX t = βdt + 2 √ X t dZ t<br />

5. (a) On suppose que l’on connaît E(R (µ)<br />

t ) = m(µ) et Var(R (µ)<br />

t ) = v(µ) pour tout µ. Exprimer<br />

E(X t ) et Var(X t ) en fonction de m et v.<br />

(b) On admet que, si W est un brownien issu de √ x (voir exo 2.1.11)<br />

E(exp −λ(W t ) 2 1<br />

) = √ exp(−<br />

λx<br />

1 + 2λt 1 + 2λt ) (4.4)<br />

Comment calculer E(exp −λ[ρ (1)<br />

t ] 2 ), E(exp −λR (1)<br />

t (x)) et E(exp −λR (2)<br />

t (x)) .<br />

On utilisera la question (d) et l’indépendance de R (µ)<br />

t<br />

6. Montrer que<br />

Calculer E(exp −λR (µ)<br />

t (x)).<br />

E(exp −λR (µ)<br />

t (x)) = E(exp −λR (1)<br />

t (x))<br />

et R (ν)<br />

t .<br />

(<br />

) µ−1<br />

E(exp −λR (1)<br />

t (0))


48 Exemples. Enoncés<br />

7. Comment démontrer l’indépendance de R (µ)<br />

t<br />

Comment démontrer (4.4) <br />

et R (ν)<br />

t <br />

Exercice 4.2.3 Processus de Bessel carré.<br />

Soit X un BESQ (δ) (x).<br />

1. Montrer que ( 1 c X ct, t ≥ 0) est un BESQ (δ) (x/c).<br />

2. Monter que, si F est un processus adapté<br />

Z t = exp{ 1 2<br />

est une martingale locale.<br />

∫ t<br />

3. Montrer que si F est déterministe, dérivable<br />

4. Soit Φ solution de<br />

Z t = exp{ 1 2 F (t)X t − F (0)X 0 − δ<br />

0<br />

F s d(X s − δs) − 1 2<br />

∫ t<br />

0<br />

F (s)ds − 1 2<br />

∫ t<br />

0<br />

∫ t<br />

Φ ′′ = b 2 Φ , Φ(0) = 1, Φ ′ (1) = 0<br />

Montrer que Z t = exp{ 1 2 F (t)X t − F (0)X 0 − δ ln Φ(t) − b2 2<br />

une martingale.<br />

F 2 s X s ds}<br />

0<br />

∫ t<br />

0<br />

F 2 s X s ds + X s dF (s)}<br />

X s ds}. On admettra que Z est<br />

5. En déduire que<br />

Q (δ)<br />

x (exp − 1 2<br />

∫ 1<br />

0<br />

X s ds) = (cosh b) −δ/2 exp(−xb tanh b)<br />

Exercice 4.2.4 En utilisant que<br />

∫ s<br />

où R s (2) = B s + 1 2<br />

0<br />

du<br />

R (2)<br />

u<br />

sup |W t | loi<br />

= 1 ∫ 1<br />

1≤t≤1 2 0<br />

ds<br />

R (2)<br />

s<br />

montrer que E sup 1≤t≤1 (|W t |) = √ π/2.<br />

Exercice 4.2.5 Application du théorème de Lamperti The following absolute continuity relation<br />

between two BES processes (with ν ≥ 0)<br />

P (ν)<br />

x =<br />

( ) ν (<br />

Rt<br />

ν<br />

2<br />

∫ t<br />

exp −<br />

x<br />

2 0<br />

where P (ν) is the law of a BES with index ν. On utilisera<br />

et (R t ; t ≥ 0) loi<br />

= x exp(B Ct + νC t )<br />

)<br />

ds<br />

R 2 s<br />

W (ν) |F t = exp(νW t − ν2<br />

2 t)W |F t<br />

Exercice 4.2.6 Soit dX t = 2 √ X t dW t + δ(t)dt où δ est une fonction (continue bornée). On veut<br />

calculer<br />

(<br />

) )<br />

A = E t,x<br />

(exp<br />

− 1 2<br />

∫ T<br />

t<br />

X u m(u)du<br />

P (0)<br />

x<br />

f(X T )


2009-10 49<br />

1. On se place dans le cas f = 1, et on note ϕ la solution de<br />

Montrer que<br />

E t,x<br />

(exp<br />

(<br />

− 1 2<br />

∫ T<br />

t<br />

∂ uu ϕ(u, T ) = m(u)ϕ(u, T ) ; ∂ u ϕ(T, T ) = 0<br />

X u m(u)du<br />

))<br />

( ) ( ∫ )<br />

∂u ϕ(t, T )<br />

= exp<br />

2ϕ(t, T ) x 1 T<br />

∂ u ϕ(s, T )<br />

exp<br />

2 t ϕ(s, T ) δ(u)du<br />

2. Montrer que le calcul de A se ramène au calcul de la solution d’une EDP.<br />

4.3 Autres processus.<br />

Exercice 4.3.1 Processus d’Ingersoll.<br />

Soit a < z < b et Z le processus solution de<br />

dZ t = (Z t − a)(b − Z t )σdB t , Z 0 = z<br />

On admet que pour tout t, le processus Z vérifie a < Z t < b.<br />

1. Calculer la dynamique de Z −1 .<br />

2. soit ζ t<br />

def<br />

= Z t − a<br />

b − Z t<br />

. Calculer la dynamique de ζ et celle de ln ζ.<br />

3. Soit X t = (b−Z t )g(t, ζ t ). Donner une condition sur g pour que X soit une martingale. Sauriez<br />

vous résoudre l’équation obtenue <br />

4. Soit Y solution de<br />

dY t = (Y t − a)(b − Y t ) 2 dt + (Y t − a)(b − Y t )σdB t<br />

Montrer qu’il existe une probabilité Q que l’on déterminera telle que, sous Q Y ait même loi<br />

que Z sous P.<br />

Exercice 4.3.2 Un processus stationnaire. Soit X vérifiant dX t = −aX t dt+σdB t , X 0 v.a. donnée.<br />

1. Explicitez X t .<br />

2. Montrer que si X 0 est une v.a. gaussienne indépendante de B, le processus X est un processus<br />

gaussien.<br />

3. On suppose que X 0 est gaussienne, indépendante de B. Déterminer la loi de X 0 pour que la<br />

loi de la v.a. X t ne dépende pas de t.<br />

Exercice 4.3.3 Soit X solution de (on admet que X existe)<br />

dX t = X t (1 − X t ) ((µ − X t )dt + dB t ) , X 0 = x<br />

avec x ∈]0, 1[. Soit h 0 (x) = ( )<br />

1−x 2θ−1<br />

x et h1 (x) = 2 ln(1−x)−ln x<br />

(2µ−1)<br />

0 < a < x < b < 1.<br />

1. Montrer que h 0 (X t ) et h 1 (X t ) + t sont des martingales.<br />

2. Montrer que P (X τ = a) = h 0(x)−h 0 (b)<br />

h 0 (a)−h 0 (b)<br />

et calculer E(τ).<br />

et τ = inf{t ≥ 0, S t ∉ [a, b]}, avec


50 Equa. Diff.<br />

4.4 Des calculs<br />

Exercice 4.4.1 Un calcul de probabilité. On suppose connue<br />

Soit B 1 et B 2 deux MB indépendants et<br />

Φ(a, T ) = P (B t ≤ at , ∀t ≤ T )<br />

dX t = X t (rdt + σ 1 dB 1 (t)), X 0 = 1<br />

dY t = Y t (rdt + σ 2 dB 2 (t)), Y 0 = 1<br />

Calculer, en fonction de Φ la quantité P (X t ≤ Y t , ∀t ≤ T ).<br />

Exercice 4.4.2 Un calcul de loi Let dX t = µ(t)dt + σ(t)dB t , X 0 = 0 where µ and σ are piece<br />

wise constant over known time.<br />

Let us restrict our attention to the case<br />

µ(t) = µ ∀t ∈ [0, 1[,<br />

Describe the distribution of Y t = max 0≤s≤t X s .<br />

µ(t) = µ 1 ∀t ∈ [1, ∞[,<br />

σ(t) = σ ∀t ∈ [0, 1[, σ(t) = σ 1 ∀t ∈ [1, 2[/, .<br />

Exercice 4.4.3 Montrer que la solution de<br />

[<br />

dC t = C t r t dt + m( dS ]<br />

t<br />

− r t dt)<br />

S t<br />

avec dS t = S t (µ t dt + σ t dB t ) s’écrit sous la forme<br />

où on explicitera a et b.<br />

C t = C 0<br />

(<br />

St<br />

S 0<br />

exp[a<br />

∫ t<br />

0<br />

r s ds + b<br />

∫ t<br />

0<br />

) m<br />

σsds]<br />

2<br />

Exercice 4.4.4 Changement de temps Soit dX t = −λX t dt + σdB t et τ = inf{t : |X t | > g(t)}<br />

où g est une fonction déterministe. Exprimer P (τ > t) en fonction de Ψ(u) = P (τ ∗ > u) avec<br />

τ ∗ = inf{t : |B t | > h(t)}.


Chapter 5<br />

Equations différentielles<br />

stochastiques<br />

Une équation différentielle stochastique est une équation de la forme<br />

dX t = b(t, X t )dt + σ(t, X t )dB t , X 0 = x<br />

où l’inconnue est le processus X, les donnés sont le mouvement Brownien B (éventuellement multidimensionel)<br />

et les fonctions b et σ.<br />

L’équation précédente a une unique solution si a- les fonctions b et σ sont continues,<br />

b- il existe K tel que pour tout t ∈ [0, T ], x ∈ R, y ∈ R<br />

i) |b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ K |x − y|<br />

ii) |b(t, x)| 2 + |σ(t, x)| 2 ≤ K 2 (1 + |x| 2 ). De plus cette solution vérifie<br />

E( sup |X t | 2 ) < ∞.<br />

0≤t≤T<br />

5.1 Equation linéaire<br />

Exercice 5.1.1 Soit l’EDS<br />

dX t = bX t dt + dB t , X 0 = x.<br />

1. On pose Y t = e −bt X t . Quelle est l’EDS vérifiée par Y t Exprimer Y t sous la forme Y t =<br />

y +<br />

∫ t<br />

0<br />

f(s)dB s où l’on explicitera la fonction f.<br />

2. Calculer E(Y t ) et E(Yt 2 ).<br />

3. Justifier que<br />

∫ t<br />

0<br />

Y s ds est un processus gaussien. Calculer E(exp[<br />

4. Exprimer Y t pour t > s sous la forme Y t = Y s +<br />

Calculer E(Y t |F s ) et Var (Y t |F s )<br />

5. Calculer E(X t |F s ) et Var (X t |F s ).<br />

∫ t<br />

s<br />

∫ t<br />

0<br />

Y s ds]).<br />

g(u)dB u où l’on explicitera la fonction g.<br />

Exercice 5.1.2 Soit<br />

dΨ t = (1 − rΨ t )dt + σΨ t dB t<br />

51


52 Equa. Diff.<br />

et L le générateur associé<br />

Soit u une solution de<br />

LV (x) = (1 − rx)V ′ (x) + σ2<br />

2 x2 V ′′ (x)<br />

Lu(x) − λu(x) = 0<br />

On définit x ∗ comme solution de x ∗ u ′ (x ∗ ) = u(x ∗ ) et v(x) =<br />

Soit enfin V définie par {<br />

V (x) = v(x), 0 ≤ x ≤ x<br />

∗<br />

x∗<br />

u(x ∗ ) u(x). On admettra que v′′ (x) ≥ 0.<br />

= x, x > x ∗<br />

Montrer que 1 − (r + λ)x ∗ ≤ 0.<br />

Ecrire la formule d’Itô pour e −λt V (Ψ t ) (il apparait un terme LV (x) − λΨ(x)). Montrer que sur<br />

x > x ∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x ∗ , on a LV (x) − V (x) = 0<br />

En déduire que<br />

V (Ψ 0 ) ≥ Ẽ(e−λT V (Ψ T ))<br />

(en admettant que l’intégrale stochastique est une martingale).<br />

Exercice 5.1.3 Cas particulier 1.<br />

1. Montrer que la solution Y de<br />

dY t = αX t dt + βX t dB t , Y 0 = 1 ,<br />

est<br />

Y t = exp {(α − 1 2 β2 )t + βB t } .<br />

2. Montrer que si α ≥ 0, Y est une sous-martingale par rapport à la filtration (F t ).<br />

A quelle condition sur α, Y est elle une martingale<br />

3. Soit (Z t ) t≥0 le processus défini par<br />

Z t = x + (a − bβ)<br />

∫ t<br />

0<br />

Ys<br />

−1 ds + b<br />

Montrer que (Z t ) t≥0 est un processus d’Itô. Calculer < Y, Z > t .<br />

En déduire que la solution X de (5.3) peut s’écrire X t = Y t Z t .<br />

∫ t<br />

0<br />

Y −1<br />

s dB s .<br />

Exercice 5.1.4 Cas particulier 2. On considère l’équation<br />

dX t = αX t dt + b dB t (5.1)<br />

X 0 = x .<br />

1. Montrer que l’unique solution de (5.1) s’écrit<br />

X t = e αt (X 0 + b<br />

∫ t<br />

0<br />

e −αs dB s ) .<br />

2. Montrer que X est un processus gaussien, calculer son espérance et sa variance.<br />

3. Justifier que<br />

∫ t<br />

0<br />

(<br />

X s ds est un processus gaussien. Calculer E exp[ ∫ )<br />

t<br />

0 X sds] .


Enoncés. 2009-10 53<br />

4. Calculer E(X t |F s ) et Var (X t |F s ).<br />

5. Soit X solution de (5.1), et φ une fonction de classe C 2 . Ecrire la formule d’Itô pour Z t =<br />

φ(X t ).<br />

En déduire que si φ(x) =<br />

∫ x<br />

0<br />

exp(−α y2<br />

) dy, alors<br />

b2 Z t = b<br />

∫ t<br />

Z est-elle une martingale de carré intégrable<br />

0<br />

exp(−α B2 s<br />

b 2 ) dB s<br />

6. Soit λ fixé. Calculer<br />

Φ(t, y) = E(e λX2 t ) .<br />

Soit t fixé. Etudier la martingale E(e λX2 t |Fs ) , s ≤ t.<br />

Montrer que Φ est solution d’une équation aux dérivées partielles. Soit Ψ(t, x) = ln Φ(t, x).<br />

Montrer que<br />

Ψ(t, x) = x 2 a(t) + b(t), avec a ′ (t) = −2a(t)(α + b 2 a(t)), b ′ (t) = −b 2 a(t) .<br />

Exercice 5.1.5 Cas particulier 3. On considère l’équation<br />

où x ≠ − b β<br />

. Soit h la fonction définie par<br />

dX t = (b + βX t )dB t (5.2)<br />

X 0 = x<br />

h(y) = 1 β<br />

ln |<br />

b + βy<br />

b + βx |<br />

pour y ≠ − b β<br />

1. On pose Y t = h(X t ). Quelle est l’équation vérifiée par Y <br />

2. En déduire que la solution de (5.2) s’écrit<br />

X t = (x + b β ) exp(−β2 2 t + βB t) − b β<br />

Exercice 5.1.6 Cas particulier 4. On se place dans le cas a = 1, b = 0. On pose Y t = e −αt X t .<br />

Quelle est l’équation différentielle vérifiée par Y <br />

Calculer E(X t ) et Var (X t ).<br />

Exercice 5.1.7 Cas général. Soit a, α, b, β quatre constantes réelles. Soit x ∈ R.<br />

On considère l’équation différentielle stochastique<br />

dX t = (a + αX t ) dt + (b + βX t ) dB t (5.3)<br />

X 0 = x<br />

1. Montrer que (5.3) admet une unique solution.<br />

2. On note m(t) = E(X t ) et M(t) = E(X 2 t ).


54 Equa. Diff.<br />

(a) Montrer que m(t) est l’unique solution de l’équation différentielle ordinaire<br />

y ′ − αy = a (5.4)<br />

y(0) = x<br />

(b) Ecrire la formule d’Itô pour X 2 où X est solution de (5.3).<br />

(c) En déduire que M(t) est l’unique solution de l’équation différentielle ordinaire<br />

y ′ − (2α + β 2 ) y = 2(a + bβ)m + b 2 (5.5)<br />

y(0) = x 2<br />

où m est la solution de (5.4). (On admettra que l’intégrale stochastique qui intervient est<br />

une martingale)<br />

(d) Résoudre (5.4) puis (5.5).<br />

Exercice 5.1.8 Soit f, F, g, G des fonctions continues bornées. On note X la solution de<br />

dX t = [f(t) + F (t)X t ]dt + [g(t) + G(t)X t ]dB t , X 0 = x<br />

et Y la solution de<br />

dY t = F (t)Y t dt + G(t)Y t dB t , Y 0 = 1<br />

1. Expliciter Y .<br />

2. Soit Z défini par<br />

Montrer que X = Y Z.<br />

Z t = x +<br />

∫ t<br />

0<br />

Y −1<br />

s [f(s) − G(s)g(s)]ds +<br />

∫ t<br />

0<br />

Y −1<br />

s g(s)dB s .<br />

3. Soit m(t) = E(X t ) et M t = E(X 2 t ). Montrer que m est l’unique solution de y ′ (t) − F (t)y(t) =<br />

f(t), y(0) = x. En déduire<br />

où ˜F (t) =<br />

∫ t<br />

0<br />

m(t) = exp( ˜F (t))<br />

[<br />

x +<br />

∫ t<br />

0<br />

]<br />

exp − ˜F (s)f(s)ds<br />

F (s)ds. Montrer que M est l’unique solution de<br />

Y ′ (t) − [2F (t) + G 2 (t)]y(t) = 2[f(t) + g(t)G(t)]m(t) + g 2 (t), y(0) = x 2<br />

Exercice 5.1.9 Calculer l’espérance et la variance de la v.a. X t avec<br />

dX t = a(b − X t )dt + σ √ X t dB t , X 0 = x<br />

Exercice 5.1.10 Soit 0 < s < T et m ∈ R. Vérifier que la solution de<br />

dX t = (s − T )X t + mT<br />

(s − T )t + T 2 dt + dB t<br />

est<br />

X t = m ∫ t<br />

T t + [(s − T )t + T 2 dB u<br />

]<br />

0 (s − T )u + T 2


Enoncés. 2009-10 55<br />

Exercice 5.1.11 Soit π un processus adapté (de carré intégrable), σ, θ et r des processus adaptés<br />

(bornés), c un processus positif, adapté, borné et X la solution de<br />

dX x,π,c<br />

t = r t X x,π,c<br />

t dt − c t dt + πt T σ t [dB t + θ t dt] (5.6)<br />

X x,π,c<br />

0 = x<br />

( ∫ t<br />

On note H le deflateur, soit H t = exp<br />

0 r sds + ∫ t<br />

0 θ ∫<br />

sdB s − 1 t ∫ t<br />

2<br />

ds)<br />

0 θ2 = L t 0 r sds . Montrer que<br />

∫ t<br />

les processus H t X t + H s c s ds, t ≥ 0 et L t (X t R t + ∫ t<br />

0 cR sds) sont des martingales. Vérifier que<br />

0<br />

leur difference est une martingale.<br />

5.2 Processus affines<br />

Exercice 5.2.1 Calculer E(exp(λX T )) pour<br />

Exercice 5.2.2 Soit<br />

dX t = (µ − αX t − γV t )dt + √ V t dB 1,t<br />

dV t = k(θ − V t )dt + σ √ V t dB 2,t<br />

dX t = µ(X t )dt + σ(X t )dB t<br />

où µ et σ 2 (le carré de σ) sont des fonctions affines : µ(x) = µ 0 +µ 1 x ; σ 2 (x) = σ 0 +σ 1 x. On souhaite<br />

montrer que pour toute fonction affine ψ(x) = ψ 0 + ψ 1 x, pour tout θ, il existe deux fonctions α et<br />

β telles que,<br />

( (<br />

)<br />

E<br />

e θX T<br />

exp<br />

−<br />

∫ T<br />

t<br />

ψ(X s )ds<br />

|F t<br />

)<br />

= e α(t)+β(t)S t<br />

.<br />

1. Montrer qu’il suffit d’établir l’existence de deux fonctions α et β telles que le processus<br />

( ∫ t<br />

)<br />

e α(t)+β(t)S t<br />

exp − ψ(S s )ds<br />

est une martingale avec α(T ) = 0, β(T ) = θ.<br />

2. Montrer que la détermination de α et β conduit à la résolution d’une équation de Ricatti (type<br />

d’équation différentielle non linéaire) et d’une équation différentielle linéaire. On ne demande<br />

pas la résolution de ces équations.<br />

3. Généraliser le résultat au cas où dS t = µ(S t )dt+σ(S t )dB t +dX t où (X t , t ≥ 0) est un processus<br />

de Poisson.<br />

0<br />

5.3 Autres équations<br />

Exercice 5.3.1 On considère l’équation<br />

On suppose qu’il existe une solution.<br />

dX t = 1 Xt≥0dB t , X 0 = x . (5.7)<br />

1. Vérifier que, pour x = 0, la solution de (5.7) n’est pas identiquement nulle.<br />

2. Vérifier que, pour x ≥ 0, la solution est à valeurs positives. On pourra montrer, en utilisant<br />

la formule d’Itô, que si f est une fonction régulière, nulle sur R + , alors f(X t ) est nulle.<br />

3. Montrer que la solution issue de 0 est d’espérance nulle à tout instant t.<br />

4. Que peut on en conclure


56 Equa. Diff.<br />

5.4 Finance<br />

Exercice 5.4.1 Options Asiatiques. Soit S t solution de<br />

dS t = S t (r dt + σ dB t )<br />

les paramètres r et σ étant constants.<br />

(<br />

1. Soit K une constante. Montrer que le processus M t = E ( 1 T<br />

martingale.<br />

∫ T<br />

0<br />

)<br />

S u du − K) + |F t est une<br />

2. Montrer que, si l’on pose ζ t = St<br />

−1 (K − 1 T<br />

(<br />

3. Soit Φ(t, x) = E [ 1 T<br />

et que M t = S t Φ(t, ζ t ).<br />

∫ T<br />

t<br />

M t = S t E<br />

(<br />

[ 1 T<br />

∫ t<br />

0<br />

∫ T<br />

t<br />

S u du), on a<br />

)<br />

S u<br />

du − ζ t ] + |F t .<br />

S t<br />

)<br />

(<br />

S u<br />

du − x] + . Montrer que Φ(t, x) = E [ 1 ∫ )<br />

T<br />

S u<br />

du − x] + |F t<br />

S t T t S t<br />

4. Ecrire la formule d’Itô pour M. En déduire une équation aux dérivées partielles vérifiée par<br />

Φ.<br />

Exercice 5.4.2 Black et Scholes, volatilité déterministe. Soit σ une fonction déterministe<br />

continue et r une constante et (S t , t ≥ 0) la solution de<br />

dS t = S t (r dt + σ(t) dB t ) , S 0 = x<br />

1. Montrer que<br />

(<br />

S t = S 0 exp rt +<br />

∫ t<br />

0<br />

σ(s) dB s − 1 2<br />

∫ t<br />

0<br />

)<br />

σ 2 (s) ds<br />

2. Montrer que<br />

et la variance.<br />

∫ t<br />

0<br />

σ(s) dB s − 1 2<br />

∫ t<br />

0<br />

σ 2 (s) ds est une variable gaussienne dont on calculera l’espérance<br />

3. On rappelle que dans le cas σ constant, le prix d’un call est donné par<br />

avec<br />

C(0, x) = xN (d 1 ) − Ke −rT N (d 2 )<br />

d 1 = 1 (ln(<br />

σ √ x )<br />

σ2<br />

) + T (r +<br />

T K 2 ) , d 2 = d 1 − σ √ T<br />

En déduire (sans faire de calculs) que, dans le cas de volatilité déterministe, la formule de<br />

Black et Scholes s’écrit<br />

Exprimer D 1 et D 2 .<br />

E((S T − K) + ) = xN (D 1 ) − Ke −rT N (D 2 )


Enoncés. 2009-10 57<br />

Exercice 5.4.3 La formule de Dupire. Soit<br />

dS t = S t (rdt + σ(t, S t )dB t )<br />

où σ est une fonction de R + × R + dans R et f(t, x) la densité de S t , soit f(t, x) = P (S t ∈ dx). ON<br />

admettra que<br />

∂ t f − 1 2 ∂ [<br />

xx x 2 σ 2 (t, x)f(t, x) ] + ∂ x [rxf] = 0<br />

On note C(K, T ) le prix en zéro d’un call Européen de strike K et de maturité T . On note<br />

∂ 1 C, ∂ 2 C, ∂ 11 C les dérivées partielles de C par rapport à la première variable, seconde variable,<br />

dérivée seconde par rapport à la premiere variable.<br />

1. Montrer que ∂ 11 C(K, T ) = e −rT f(T, K).<br />

2. Montrer que<br />

3. En déduire<br />

1 [<br />

x 2<br />

2 ∂x 2 σ 2 (t, x)f(t, x) ] = e<br />

∂ 2<br />

rt ∂2<br />

∂x 2 (rx ∂ ∂2 ∂C<br />

C) + ert<br />

∂x ∂x 2 ∂t<br />

1<br />

2 x2 σ 2 (t, x) ∂2 C<br />

∂C<br />

(t, x) = rx∂C (x, t) + (t, x)<br />

∂x2 ∂x ∂t<br />

5.5 Equations différentielles<br />

Exercice 5.5.1 Soit α une constante et<br />

dX t = −α 2 X 2 t (1 − X t )dt + αX t (1 − X t )dB t (5.8)<br />

la condition initiale étant X 0 = x avec x ∈]0, 1[. On admet que X prend ses valeurs dans l’intervalle<br />

]0, 1[. On pose Y t = X t<br />

1 − X t<br />

.<br />

1. Quelle est l’équation différentielle stochastique vérifiée par Y <br />

2. En déduire que X t =<br />

x exp(αB t − α 2 t/2)<br />

x exp(αB t − α 2 t/2) + 1 − x .<br />

Exercice 5.5.2 Produit d’exponentielle. Soit B un MB et h un processus adapté borné. On<br />

def<br />

note E(hB) t = L t l’unique solution de dL t = L t h t dB t , L 0 = 1. Etablir une formule du type<br />

E(h 1 B 1 + h 2 B 2 ) t = X t E(h 1 B 1 ) t E(h 2 B 2 ) t où X est à déterminer.<br />

Exercice 5.5.3 Soit B un mouvement Brownien issu de a > 0 et T 0 = inf{t : B t = 0}. Pour<br />

t < T 0 , on définit X t = µ (B t ) α . Montrer que, pour t < T 0 ,<br />

dX t = b(X t ) dt + σ(X t ) dB t<br />

où on explicitera b et σ. En déduire la forme de la solution de dY t = Yt n dB t + 1 2n−1<br />

nYt dt, Y 0 = y ≥ 0<br />

2<br />

avant le premier temps d’atteinte de 0. (On admettra l’unicité de la solution).<br />

Exercice 5.5.4 Ponts<br />

1. Soit N une gaussienne réduite centrée indépendante de B. Vérifier que la solution de dX t =<br />

dB t + N − X ∫ t<br />

t<br />

1<br />

dt est X t = tN + (1 − t)<br />

1 − t<br />

0 1 − s dB s. En déduire que X est un processus<br />

gaussien, dont on calculera l’espérance et la covariance.


58 Girsanov. Enoncés<br />

2. Soit W un MB indépendant de B. Vérifier que la solution de dX t = dB t + W t − X t<br />

dt est<br />

∫ 1 − t<br />

t<br />

∫<br />

W t<br />

s<br />

X t = (1−t)<br />

0 (1 − s) 2 ds+(1−t) 1<br />

0 1 − s dB s. En déduire que X est un processus gaussien,<br />

dont on calculera l’espérance et la covariance.


Chapter 6<br />

Girsanov<br />

Soit (Ω, F, P) un espace de probabilité. Une probabilité Q sur (Ω, F) est dite équivalente à P si<br />

P(A) = 0 équivaut à Q(A) = 0. Dans ce cas, il existe une variable aléatoire Z, F-mesurable,<br />

strictement positive telle que Q(A) = E P (Z 1 A ) ce que l’on note dQ| F = ZdP| F . La v.a. Z vérifie<br />

E P (Z) = 1, on l’appelle densité de Radon-Nykodym.<br />

Si (Ω, F, P) est un espace de probabilité filtré, et si Q est équivalente à P sur F T (avec T ≤ ∞),<br />

alors dQ| Ft = Z t dP| Ft et le processus (Z t , t ≤ T ) est une F t , t ≤ T ) martingale. On rappelle la<br />

formule de Bayes (voir Exercice 1.3.14): pour X F T -mesurable bornée<br />

E Q (X|F t ) = 1 Z t<br />

E P (XZ T |F t )<br />

Dans tous ces exercices, B désigne un P -mouvement Brownien issu de 0, F = (F t , t ≥ 0) sa filtration<br />

naturelle.<br />

6.1 Résultats élémentaires.<br />

Dans la plupart des exercices, on considère des intégrales ∫ θ s dB s avec θ borné. La plupart des<br />

résultat se généralisent au cas de processus de carré intégrable.<br />

Exercice 6.1.1 Changement de probabilité. Soit (θ t , t ≥ 0) un processus adapté continu borné<br />

et L la martingale d´finie par L t = exp[<br />

∫ t<br />

0<br />

θ s dB s − 1 2<br />

par dQ = L T dP. Soit (φ t , t ≥ 0) un processus adapté continu borné et M t =<br />

∫ t<br />

0<br />

θ 2 sds]. Soit Q la probabilité définie sur F T<br />

∫ t<br />

0<br />

φ s dB s −<br />

∫ t<br />

0<br />

θ s φ s ds.<br />

Montrer que M est une Q-martingale.<br />

On pose Z t = M t L t . Montrer que Z est une P-martingale locale. Pouvait-on prévoir ce résultat.<br />

Exercice 6.1.2 Calcul d’espérance 1. Soit θ un processus adapté borné et H le processus<br />

défini par dH t = −H t θ t dB t , H 0 = 1. On note dQ| Ft = H t dP| Ft . Montrer que E P (H T ln H T ) =<br />

∫ T<br />

E Q ( 1 θ<br />

2<br />

sds). 2 On pourra faire une démonstration à la main (quand θ est déterministe) ou utiliser<br />

0<br />

le théorème de Girsanov.<br />

Exercice 6.1.3 Calcul d’espérance 2. Soit p une fonction déterministe donnée. Pour quelles<br />

fonctions h et k le processus exp(h(t) + k(t)B 2 t +<br />

∫ t<br />

0<br />

59<br />

p(s)B 2 sds) est-il une martingale Applications :


60 Girsanov. Enoncés<br />

∫ T<br />

1. Calculer E[exp(λBT 2 + p(s)Bsds]<br />

2<br />

∫ T<br />

2. Calculer E[exp(λBT 2 + p(s)Bsds)Ψ(A 2 + BB T )]<br />

0<br />

0<br />

Exercice 6.1.4 Itô+ Girsanov. Soit Γ le processus solution de<br />

où β et γ sont des processus F adaptés bornés.<br />

(<br />

1. Montrer que Γ t exp −<br />

∫ t<br />

0<br />

dΓ t = Γ t (β t dt + γ t dB t ), Γ 0 = 1<br />

)<br />

β s ds est une martingale locale.<br />

2. Trouver une probabilité Q telle que Γ soit une Q-martingale locale.<br />

3. Trouver une probabilité R telle que Γ −1<br />

t<br />

Exercice 6.1.5 Longstaff’s Model. Soit r t = Y 2<br />

t<br />

1. Donner la dynamique de r.<br />

soit une R-martingale locale.<br />

avec dY t = dB t − (λY t + α 2 )dt.<br />

2. Soit f et g deux fonctions déterministes (que l’on supposera continues bornées). Exprimer<br />

E(exp<br />

en fonction de exp 1 2<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

[f(s)B s + g(s)]dB s − 1 2<br />

g 2 (s)ds.<br />

3. Montrer que le calcul de E(exp −<br />

des fonctions f et g vérifiant des conditions que l’on précisera.<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

[f 2 (s)B 2 s + 2B s f(s)g(s)]ds)<br />

r s ds) se déduit du calcul de l’expression précédente avec<br />

Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densité<br />

ne dépend pas de ν.<br />

P (B t + νt ∈ dy|B s + νs = x)<br />

Exercice 6.1.7 Loi du sup. On suppose que l’on connait la loi du couple de v.a. (Bt ∗ , B t ) où pour<br />

un processus X on note<br />

Xt ∗ = sup X s .<br />

s≤t<br />

Montrer comment calculer la loi de (L ∗ t , L t ) pour L t = exp(αB t − α2<br />

2 t).<br />

Exercice 6.1.8 Loi de quantiles.<br />

1. Soit F et G deux fonctionnelles définies sur C([0, 1], R). Montrer que l’on a équivalence entre<br />

(i) ∀t, ∀µ ∈ R, F (X s , s ≤ t) loi<br />

= G(X s , s ≤ t) le processus X étant un Brownien de drift µ<br />

(ii) ∀t, F (X s , s ≤ t) loi<br />

= G(X s , s ≤ t) le processus X étant un Brownien.


2009-2010 61<br />

2. Soit A t =<br />

équivaut à<br />

∫ t<br />

0<br />

ds 1 Xs ≥0 et θ t = sup{s ≤ t : sup u≤s X u = X s }. Montrer que<br />

A t<br />

loi<br />

= θ t , lorsque le processus Xest un mouvement Brownien de drift µ<br />

A 1<br />

loi<br />

= θ 1 , lorsque le processus Xest un mouvement Brownien<br />

3. Soit X un mouvement Brownien. Montrer que si E(f(X 1 , A 1 ) 1 X1 >0) = E(f(X 1 , θ 1 ) 1 X1 >0),<br />

alors (X 1 , A 1 ) loi<br />

= (X 1 , θ 1 ).<br />

6.2 Crochet.<br />

Exercice 6.2.1 Girsanov Soit M une P-martingale de carré intégrable et dQ = exp(M t − 1 2 〈M〉 t) dP.<br />

Montrer que si N est une P martingale, N− < N, M > est une Q martingale.<br />

Exercice 6.2.2 h-processus. Soit X tel que dX t = µdt + σdB t , X 0 = x et h une fonction de<br />

classe C 1 telle que h(X t ) est une martingale positive. On note Q la probabilité définie par dQ| Ft =<br />

∫<br />

h(X t )<br />

t<br />

h(x) dP| h ′ (X s )<br />

F t<br />

. Soit M une P-martingale. Montrer que M t −<br />

h(X s ) d〈M, X〉 s est une Q-martingale.<br />

6.3 Processus.<br />

Exercice 6.3.1 Processus de Bessel. Soient θ et µ deux processus adaptés bornés. On note P θ<br />

la probabilité telle que le processus B θ défini par B θ t<br />

et P µ la probabilité telle que B µ avec B µ t<br />

def<br />

= B t −<br />

∫ t<br />

1. Quelles sont les densités L θ = dPθ<br />

dP et Lµ = dPµ<br />

dP <br />

0<br />

0<br />

def<br />

= B t −<br />

∫ t<br />

0<br />

θ s ds soit un mouvement Brownien<br />

µ s ds soit un mouvement Brownien.<br />

2. Soit L = Lθ<br />

L µ . Expliciter L en fonction de B puis en fonction de Bµ . A quel changement de<br />

probabilité type Girsanov correspond L<br />

3. Soit δ > 1 et R le processus solution de<br />

(on admet qu’il existe une solution)<br />

(a) Montrer que<br />

dR t = δ − 1<br />

R t<br />

dt + dB t , R 0 = 1<br />

∫ t<br />

0<br />

dR s<br />

= ln R t + 1 R s 2<br />

(b) Soit θ un processus adapté borné et L t = exp(<br />

probabiité définie par dQ = L t dP.<br />

Comment choisir θ pour que, sous Q<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

1<br />

R 2 s<br />

ds<br />

θ s dB(s) − 1 2<br />

∫ t<br />

0<br />

θ 2 sds). On note Q la<br />

dR t = 1 R t<br />

dt + d ˜B t<br />

où ˜B est un Q-Brownien. Exprimer L en n’utilisant que le processus R


62 Girsanov. Enoncés<br />

(c) En déduire que<br />

( ∫ t<br />

E(f(R t )) = E (ρ t ) δ exp[α<br />

0<br />

où α est une constante dépendant de n et<br />

ds<br />

ρ 2 s<br />

dρ t = 1 ρ t<br />

dt + d ˜B t , ρ 0 = 1 .<br />

)<br />

] f(ρ t )<br />

Exercice 6.3.2 Fonctionnelles exponentielles<br />

1. Calculer E( ∫ t<br />

0 exp(B s)ds) et E(exp(αB t ) ∫ t<br />

0 exp(γB s)ds).<br />

2. Soit A(t, ν) =<br />

∫ t<br />

0<br />

exp(B s + νs)ds.<br />

(a) Montrer en utilisant le théorème de Girsanov que le calcul de E(A(t, ν)) se ramène au cas<br />

ν = 0.<br />

(b) Peut-on faire un calcul direct<br />

Exercice 6.3.3 Soit X le processus solution de<br />

1. On définit<br />

dX t = −λX t dt + dB t , X 0 = x.<br />

(<br />

L t = exp λ<br />

∫ t<br />

0<br />

X s dB s − λ2<br />

2<br />

∫ t<br />

0<br />

)<br />

Xs 2 ds .<br />

Vérifier que L est une martingale locale. On admet pour la suite que c’est une martingale.<br />

2. On note P λ la mesure de probabilité définie sur F t par dP λ = L t dP. Quelle est la dynamique<br />

de X sous P λ <br />

3. Montrer que<br />

4. Calculer<br />

L t = exp(<br />

∫ t<br />

0<br />

E P<br />

(<br />

exp(− b2 2<br />

λX s dX s + 1 2<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

)<br />

Xs 2 ds) .<br />

λ 2 X 2 s ds)<br />

Exercice 6.3.4 Processus d’Ornstein-Uhlenbeck.<br />

1. On définit sur F T la mesure P b par<br />

∫ T<br />

dP b = exp{−b B s dB s − b2<br />

0<br />

2<br />

∫ T<br />

0<br />

B 2 s ds}dP<br />

(a) Justifier que, sous P b le processus (W t = B t + b ∫ t<br />

0 B s ds , t ≤ T ) est un brownien.<br />

(b) En déduire que sous P b , le processus (B t , t ≥ 0) est un processus d’Ornstein-Uhlenbeck,<br />

et que B t est une variable gaussienne dont on précisera, en s’appuyant sur le cours,<br />

l’espérance et la variance.<br />

(c) Montrer que, sous P, on a<br />

∫ t<br />

La même égalité est-elle vraie sous P b <br />

0<br />

B s dB s = 1 2 (B2 t − t).


2009-2010 63<br />

(d) Montrer que, pour tout t ≤ T ,<br />

E P (exp{−αBt 2 − b2 2<br />

∫ t<br />

où E b désigne l’espérance sous P b .<br />

Montrer que si ˜B est un brownien issu de a, on a<br />

0<br />

B 2 s ds}) = E b (exp{−αB 2 t + b 2 (B2 t − t)})<br />

E P (exp{−α ˜B 2 t − b2 2<br />

∫ t<br />

0<br />

˜B 2 s ds}) = E b (exp{−α ˜B 2 t + b 2 ( ˜B 2 t − a 2 − t)})<br />

(e) En déduire (il y a des calculs) que, pour tout t,<br />

∫ t<br />

E P (exp{−αB 2 t − b2 2<br />

0<br />

B 2 s ds}) = (cosh bt + 2 α b sinh bt)− 1 2<br />

2. Montrer que si ˜Bt est un Brownien issu de a<br />

E P (exp{−α ˜B 2 t − b2 2<br />

∫ t<br />

0<br />

˜B 2 s ds}) = (cosh bt + 2 α b sinh bt)− 1 2 exp[−<br />

xb<br />

2<br />

1 + 2α b<br />

coth bt<br />

coth bt + 2α ]<br />

b<br />

avec x = a 2 .<br />

Exercice 6.3.5 Soit S solution de<br />

les coefficients µ et σ étant constants.<br />

1. Montrer que S t = S 0 exp(µt + σB t − σ2<br />

2 t).<br />

dS t = S t (µ dt + σ dB t ) , S 0 = s ,<br />

2. On pose θ = − µ − r<br />

σ . Soit Q définie sur F t par dQ = L t dP avec L t = exp(θB t − 1 2 θ2 t).<br />

Montrer que (W t = B t + θt, t ≥ 0) est un Q-mouvement brownien.<br />

3. Soit ˜P définie sur F t par d˜P = Z t dQ avec Z t = exp(σW t − σ2<br />

2 t).<br />

Montrer que<br />

dS t = S t ((r + σ 2 ) dt + σ d ˜B t )<br />

où ˜B est un ˜P-mouvement brownien.<br />

( )<br />

4. Soit P t = P 0 e rt St<br />

. Montrer que , t ≥ 0 est une Q-martingale.<br />

P t<br />

Montrer que P t<br />

est une<br />

S ˜P-martingale.<br />

t<br />

(∫ t<br />

)<br />

5. Soit F t = e −λt S u du + sA où A, λ sont des constantes<br />

0<br />

Soit Ψ t = F t e λt<br />

. Ecrire l’équation différentielle stochastique vérifiée par Ψ t en utilisant le<br />

Brownien ˜B.<br />

S t<br />

Exercice 6.3.6 Soit α, β et σ des fonctions (déterministes) bornées et b(t) =<br />

r le processus solution de<br />

On suppose que σ ne s’annule pas.<br />

dr t = (α(t) − β(t)r t ) dt + σ(t)dB t<br />

∫ t<br />

0<br />

β(s) ds. On note


64 Girsanov. Enoncés<br />

1. Vérifier que<br />

r t = exp(−b(t))<br />

2. Calculer E(r t ) et Cov(r t , r s ).<br />

(<br />

r 0 +<br />

∫ t<br />

0<br />

exp(b(u)) α(u) du +<br />

3. Soit Q 1 la probabilité définie sur F t par dQ 1 = L t dP, avec<br />

L t = exp(<br />

∫ t<br />

0<br />

θ(s)dB s − 1 2<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

)<br />

exp(b(u)) σ(u) dB u .<br />

(θ(s)) 2 ds)<br />

où θ(s) = − α(s)<br />

σ(s) . On suppose θ bornée. On note B1 t = B t −<br />

(exp(b(t)) r t , t ≥ 0) est une Q 1 martingale.<br />

∫ t<br />

0<br />

θ(s) ds.<br />

Montrer que<br />

4. Soit Q 2 la probabilité définie sur F t par dQ 2 = Z t dQ 1 , avec<br />

Montrer que r est une Q 2 -martingale locale.<br />

dZ t = Z t<br />

β(t)<br />

σ(t) r t dB 1 t , Z 0 = 1<br />

Exercice 6.3.7 Drift non observable Soit Bt<br />

Y = Y t + B t où Y est une variable aléatoire de loi<br />

ν, indépendante de B. Soit F une fonctionnelle sur C([0, t], R). Montrer que<br />

∫<br />

avec h(x, t) =<br />

E[F (B Y s , s ≤ t)] = E[F (B s ; s ≤ t)h(B t , y)]<br />

ν(dy) exp(yx − y2<br />

t) En déduire que, sur l’espace canonique<br />

2<br />

X t −<br />

∫ t<br />

0<br />

ds h′ x<br />

h (X s, s)<br />

est une martingale sous P h avec P h | Ft = h(X t , t)B| Ft . Montrer que B Y t = ˜B h t +<br />

∫ t ∫ t<br />

où ˜B t<br />

h est un Brownien.<br />

Soit Q définie par dQ = e −Y B t− 1 2 Y 2t dP. Montrer que sous Q, Bt Y est indépendant de Y .<br />

Exercice 6.3.8 On note h une fonction.<br />

0<br />

0<br />

ds h′ x<br />

h (BY s , s)<br />

1. Donner des conditions sur h pour que dQ = h(B T )dP définisse, sur F T une probabililité<br />

équivalente à P.<br />

2. Calculer L t telle que dQ| Ft = L t dP| Ft<br />

3. Montrer que ∀X ∈ F T , on a E Q (X|B T ) = E P (X|B T )<br />

4. Expliciter Q(B T ∈ dx).<br />

5. Soit A ∈ F T , indépendante de B T . Montrer que Q(A) = P(A). Donner des exemples de tels<br />

A.<br />

6. Calculer Q(f(B T )|F t ).<br />

7. Montrer que<br />

L t = 1 +<br />

∫ t<br />

0<br />

dB s<br />

∫ ∞<br />

−∞<br />

dy h′ (y)e −(y−B s) 2 /(2(T −s))<br />

√<br />

2π(T − s)


2009-2010 65<br />

8. Montrer que le processus W défini par<br />

dW t = dB t −<br />

est un Q mouvement Brownien.<br />

∫ ∞<br />

−∞<br />

∫ ∞<br />

−∞<br />

dyh ′ (y)e −(y−B t) 2 /(2(T −t))<br />

dt<br />

dyh(y)e −(y−B t) 2 /(2(T −t))<br />

9. (cette question ne dépend pas des précédentes) Soit G t = F t ∨σ(B T ). Montrer que le processus<br />

∫ t<br />

B T − B s<br />

M t = B t −<br />

0 T − s<br />

ds est un P-G t mouvement Brownien. Montrer que M t est indépendante<br />

de B T .<br />

10. Montrer que M est un Q-G t mouvement Brownien.<br />

∫ (<br />

t<br />

x − X s<br />

Exercice 6.3.9 Soit, pour t < 1, X t = B t +<br />

0 1 − s ds et M t = exp −<br />

Montrer que<br />

M t = exp<br />

(− x2<br />

2 + (x − X t) 2<br />

2(1 − t) + 1 )<br />

2 ln(1 − t)<br />

∫ t<br />

0<br />

x − X s<br />

1 − s dB s − 1 2<br />

Exercice 6.3.10 Soit dQ| Ft = h(t, X t )dP| Ft . Sous quelles conditions sur h Q est-elle une probabilité<br />

sur F T Montrer que<br />

est une Q-martingale<br />

B t −<br />

∫ t<br />

0<br />

∂ x h(s, B s )ds<br />

( (<br />

Exercice 6.3.11 Soit L t = exp − 1 4 e<br />

−2B t<br />

− 1 ) ∫<br />

+ 1 t ( ) )<br />

2 0 e<br />

−2B s<br />

− 1 4 e−4Bs ds<br />

1. Question préliminaire: Calculer l’intégrale ∫ t<br />

0 e−2B s<br />

dB s .<br />

2. Montrer que L est une martingale. Quelle est son espérance<br />

3. On pose dQ = L t dP. Quelle est la dynamique de B sous Q<br />

∫ t<br />

0<br />

( ) 2 x − Xs<br />

ds)<br />

1 − s<br />

6.4 Cas multidimensionel<br />

Exercice 6.4.1 Cas multidimensionel. Soient (B 1 (t), t ≥ 0) et (B 2 (t), t ≥ 0) deux mouvements<br />

Browniens indépendants. Soit (L i (t), i = 1, 2 , t ≥ 0) les processus définis par<br />

dL i (t) = θ i (t)L i (t)dB i (t) , L i (0) = 1<br />

où (θ i (t), i = 1, 2) sont des processus adaptés continus bornés.<br />

1. Vérifier que<br />

L i (t) = exp(<br />

∫ t<br />

0<br />

θ i (s)dB i (s) − 1 2<br />

∫ t<br />

0<br />

θ 2 i (s) ds) .<br />

2. Soit T ≥ 0 et Q 1 la probabilité définie sur F T par dQ 1 = L 1 (T )dP. Soit (φ t , t ≥ 0) un processus<br />

adapté continu et M t =<br />

∫ t<br />

0<br />

φ s dB 1 (s) −<br />

∫ t<br />

0<br />

θ 1 (s)φ s ds.<br />

(a) Montrer que (M t , 0 ≤ t ≤ T ) est une Q 1 -martingale locale.


66 Girsanov. Enoncés<br />

(b) On pose Z 1 (t) = M t L 1 (t). Calculer dZ 1 (t). Montrer que Z 1 est une P-martingale.<br />

Pouvait-on prévoir ce résultat <br />

3. Soit Z t = L 1 (t)L 2 (t). Ecrire dZ t . Montrer que Z est une P-martingale.<br />

4. Soit Q la probabilité définie sur F T par dQ = Z T dP. Comment se transforment les browniens<br />

B i <br />

5. Soit (S i , i = 1, 2) deux processus solutions de<br />

dS i (t) = S i (t)[b i (t)dt + σ i (t)dB 1 (t) + φ i (t)dB 2 (t)]<br />

Montrer qu’il existe une probabilité Q équivalente à P telle que, sous Q<br />

dS i (t) = S i (t)[rdt + σ i (t)dB 1 (t) + φ i (t)dB 2 (t)]<br />

où (B i , i = 1, 2) sont des Q-Browniens indépendants.<br />

6.5 Temps d’arrêt.<br />

Exercice 6.5.1 Temps d’arrêt. Soit τ un (F t )-temps d’arrêt. Soit Q telle que dQ| FT<br />

et X ∈ F T . Comparer E P (L T 1 τ>T X) et E Q (X 1 τ>T ).<br />

= L T dP| FT<br />

Exercice 6.5.2 Let B be a Brownian motion and T = inf{t : e Bt−t/2 > a}, where a > 1. Prove<br />

that, ∀λ ≥ 1/2,<br />

E( 1 T 0. Soit r une constante.<br />

1. Montrer qu’il existe θ tel que<br />

soit une martingale.<br />

M t<br />

def<br />

= exp(−rt + θX t )<br />

2. Soit b un nombre positif et τ le temps d’arrêt défini par<br />

τ = inf{t ≥ 0 | X t = b}<br />

Calculer E(exp(−rτ + θX τ )). On admettra que la martingale M t est uniformément intégrable<br />

et que le temps d’arrêt τ est fini. En déduire E(exp(−rτ)).<br />

3. On suppose que les conditions de la première question sont satisfaites. Soit Q telle que dQ =<br />

M t dP, sur F t . Comment se transforme B<br />

4. Soit S le processus défini par<br />

et Y t = ln S t<br />

s . Ecrire dY t.<br />

dS t = S t [rdt + σdB t ], S 0 = s


2009-2010 67<br />

5. Soit B une constante telle que s < B. Soit T B le temps d’arrêt<br />

T B = inf{t ≥ 0 | S t = B}<br />

Calculer<br />

E(exp(−rT B )) .<br />

Exercice 6.5.4 Soit f et g deux fonctions déterministes, f de classe C 1 , g continue.<br />

F t =<br />

∫ t<br />

0<br />

f(s)dB s et u est la solution de<br />

On note<br />

u ′′ (t) − 2 f ′ (t)<br />

f(t) u′ (t) − 2λg(t)f 2 (t)u(t) = 0<br />

avec u ′ (T ) = −2aλu(T )f 2 (T ). Le but de cet exercice est de montrer que<br />

E<br />

(<br />

exp<br />

(<br />

−λ<br />

[<br />

aF 2 T +<br />

∫ T<br />

0<br />

g(t)F 2 t dt<br />

]))<br />

=<br />

( ) 2 u(T )<br />

u(0)<br />

1. Montrer que, pour toute fonction h continue, le processus L défini par<br />

est une martingale.<br />

2. En déduire que<br />

( ( ∫ T<br />

h(s)<br />

1 = E exp<br />

0 2f(s) dF s 2 − 1 2<br />

( (<br />

= E exp 1 ∫<br />

h(T )<br />

T<br />

2 f(T ) F T 2 −<br />

(∫ t<br />

L t = exp h(s)F s dB s − 1<br />

0<br />

2<br />

0<br />

F 2 t<br />

∫ t<br />

0<br />

∫ t<br />

(h(s)f(s) + h 2 (s)F 2 s )ds<br />

( h ′ (t)f(t) − f ′ (t)h(t)<br />

f 2 (t)<br />

0<br />

)<br />

h 2 (s)Fs 2 ds<br />

))<br />

)<br />

dt −<br />

∫ t<br />

0<br />

(h(s)f(s) + h 2 (s)F 2 s )ds<br />

) )<br />

3. Montrer que<br />

E<br />

(<br />

exp<br />

[ (<br />

1 u ′ ) ∫<br />

(T )<br />

T<br />

2 u(T )f 2 FT 2 − Ft<br />

2 (T )<br />

0<br />

( u ′′ (t) − 2u ′ (t)f ′ (t)/f(t)<br />

u(t)f 2 (t)<br />

) ])<br />

dt =<br />

( ) 1/2 u(T )<br />

u(0)<br />

4. Résoudre le même problème par changement de temps.<br />

5. Soit Ψ une fonction borélienne bonée de R dans R. Comment calculer<br />

( ( [ ∫ ]<br />

T<br />

∫ ))<br />

T<br />

K = E exp −λ aFT 2 + g(t)Ft 2 dt Ψ(A + BF T + φ(t)F t dt)<br />

0<br />

0<br />

Exercice 6.5.5 Decomposition canonique Soit B un mouvement Brownien et h une fonction<br />

positive, vérifiant h(0, 0) = 1 et harmonique en espace (c’est-à-dire telle que h(t, B t ) est une martingale).<br />

On définit Q par dQ| Ft = h(t, B t )dP Ft . Montrer que B t −<br />

∫ t<br />

h ′ x<br />

0 h (s, B s)ds est un Q-mouvement<br />

Brownien.


68 Girsanov. Enoncés<br />

6.6 Finance<br />

Dans toute cette section, P est la probabilité historique, Q la probabilité risque neutre.Le processus<br />

˜S est le prix de l’actif sous-jacent aprs actualisation (soit ˜S t = S t e − ∫ t<br />

0 rsds . Dans un modèle Black<br />

et Scholes, le prix de l’actif suit<br />

dS t = S t (b t dt + σdB t )<br />

sous la probabilité P, où σ est une constante.<br />

Exercice 6.6.1 Moyenne. Soit dS t = S t (rdt + σdB t ), S 0 = 1, r et σ étant des constantes. On<br />

( ∫ 1 T<br />

)<br />

souhaite calculer C = E Q [(Z T − S T ) + ] quand Z T = exp ln S t dt .<br />

T<br />

1. Soit Q ∗ la probabilité définie sur F T par dQ ∗ = exp(σB T − σ 2 T/2)dQ. Montrer que<br />

e −rT E Q [(Z T − S T ) + ] = E Q ∗[( Z T<br />

S T<br />

− 1) + ] .<br />

∫ T<br />

2. Soit ˜B t = B t − σt. Ecrire Z T /S T sous la forme exp(αT −<br />

que l’on précisera.<br />

0<br />

0<br />

β(t)d ˜B t ) pour une fonction β<br />

3. Montrer que le calcul de C se réduit au calcul de E Q (( ˜S T −K) + ) pour un Brownien géométrique<br />

˜S dont on précisera la loi.<br />

Exercice 6.6.2 Volatilité stochastique On rappelle le théorème de représentation prévisible à<br />

deux dimensions: soit B = (B 1 , B 2 ) un Brownien à valeurs dans R 2 et F B sa filtration canonique.<br />

Toute F B -martingale de carré intégrable s’écrit M t = m +<br />

∫ t<br />

0<br />

φ 1 sdB 1 s +<br />

∫ t<br />

0<br />

φ 2 sdB 2 s où (φ i , i = 1, 2)<br />

sont des processus adaptés.<br />

Soient µ et η deux fonctions déterministes de R + dans R et σ, γ deux fonctions déterministes de R<br />

dans R. On considère alors un marché financier où l’actif risqué vérifie<br />

où Y est un processus solution de<br />

dS t = S t (µ(t)dt + σ(Y t )dB 1 t ), S 0 = s<br />

dY t = η(t)dt + γ(Y t )dB 2 t , Y 0 = 1<br />

1. Déterminer l’ensemble des probabilités équivalentes à P telles que, sous Q, S soit une martingale.<br />

2. Soit B un actif contingent B ∈ F T . Comment lui donner un prix (le taux sans risque est nul)<br />

<br />

Exercice 6.6.3 Options boost. Soit M une F-martingale à valeurs strictement positives.<br />

1. Justifier qu’il existe ψ tel que dM t = ψ t dB t et qu’il existe Ψ tel que dM t = Ψ t M t dB t .<br />

2. Soit S un Brownien géométrique tel que S 0 = x et<br />

dS t = S t (r dt + σdB t ) (6.1)<br />

où r et σ sont des constantes. Montrer qu’il existe γ tel que S t = x(M t ) γ où M est une<br />

martingale. A quel choix de r et σ correspond la valeur γ = 1


2009-2010 69<br />

3. Soit S un processus vérifiant (6.1), S ∗ t = sup s≤t S s et B ∗ t = sup s≤t B s . La loi de B ∗ t est connue<br />

(c’est celle de |B t |, ce résultat sera admis), on notera Φ(a) = P(B ∗ t ≤ a). Calculer, en utilisant<br />

les résultats de la question 3, E( 1 S ∗<br />

T ≤a) qui correspond à la valeur d’une option boost (au<br />

coefficient exp(−rT ) près).<br />

Exercice 6.6.4 Volatilité stochastique. Soit B 1 et B 2 deux Browniens indépendants, et F t =<br />

σ(B 1 s, B 2 s, s ≤ t) la filtration engendrée par les deux Browniens. Soit µ et η deux fonctions déterministes<br />

bornées de R + dans R et σ, γ deux fonctions déterministes bornées définies de R dans R. On note<br />

S la solution de<br />

dS t = S t (µ(t)dt + σ(Y t )dB 1 t ), S 0 = s<br />

où Y est un processus solution de<br />

dY t = η(t)dt + γ(Y t )dB 2 t , Y 0 = 1<br />

1. Soit θ un processus borné et Z la solution de<br />

dZ t = Z t θ t dB 1 t , Z 0 = 1<br />

Ecrire explicitement Z t sous la forme d’une exponentielle.<br />

2. Soit λ et ν deux processus adaptés bornés et L le processus défini par<br />

[∫ t<br />

L t = exp λ s dBs 1 − 1 ∫ t ∫ t<br />

(λ s ) 2 ds + ν s dBs 2 − 1 ∫ t<br />

]<br />

(ν s ) 2 ds<br />

0 2<br />

2<br />

Ecrire l’EDS vérifiée par L.<br />

0<br />

0<br />

0<br />

(6.2)<br />

3. On pose ˜B t = B 1 t −<br />

∫ t<br />

0<br />

constante. Montrer que L ˜Z est une martingale.<br />

λ s ds et on note ˜Z la solution de d ˜Z t = ˜Z t θd ˜B 1 t , ˜Z 0 = 1 où θ est une<br />

4. Soit Q ∗ définie sur F t par dQ ∗ = L t dP. Montrer que ˜Z est une Q ∗ martingale. En déduire<br />

que ˜B 1 est un Q ∗ brownien.<br />

5. Montrer que ˜B 2 t = B 2 t −<br />

∫ t<br />

0<br />

ν s ds est un Q ∗ brownien.<br />

6. On admet que si Q est une mesure équivalente à P il existe λ, ν tels que la densité de Q par<br />

rapport à P soit de la forme (6.2). Décrire l’ensemble des couples λ, ν correspondants à des<br />

probabilités Q telles que (S t e −rt , t ≥ 0) soit une Q-martingale.<br />

7. Le marché financier est-il complet <br />

8. Soit X un actif contingent duplicable, c’est-à-dire tel qu’il existe V processus adapté de la<br />

forme<br />

dV t = rV t dt + φ t (dS t − rS t dt)<br />

vérifiant V T = X, avec φ processus adapté borné. (On ne demande pas de justifier cette<br />

définition)<br />

(a) Montrer que (V t e −rt , t ≥ 0) est une Q martingale pour tout Q ∈ Q.<br />

(b) On suppose que V t = v(t, S t , Y t ). Montrer que v vérifie une équation aux dérivées partielles<br />

que l’on explicitera.<br />

Exercice 6.6.5 Symétrie put-call.<br />

est une constante et M 0 = 1.<br />

Soit M une (F t )-martingale telle que dM t = M t σdB t où σ


70 Girsanov. Enoncés<br />

1. Vérifier que M est à valeurs strictement positives.<br />

2. Calculer dY t quand Y t = (M t ) −1 .<br />

3. Soit Q ∗ telle que dQ ∗ = M t dP sur F t . Déterminer la loi de Y sous Q ∗ .<br />

4. Montrer que E P ((M T − K) + ) = KE P ((K −1 − M T ) + ).<br />

Exercice 6.6.6 Symétries<br />

On suppose que le prix d’un actif, sous la probabilité risque neutre Q est donné par<br />

dS t = S t ([r − q]dt + σdB t ), S 0 = x<br />

où q est le taux de dividendes. On note C(x, K, r, q) (ou C(x, K, r, q, σ) si besoin est) le prix d’une<br />

option d’achat européenne de prix d’exercice K, soit<br />

C(x, K, r, q) = E Q (e −rT (S T − K) + )<br />

On rappelle que, dans le cas r = 0 = q, en notant C ∗ (x, K) = C(x, K, 0, 0) le prix d’un call de strike<br />

K sur un sous jacent de valeur initiale x et P ∗ le prix d’un put, on a<br />

[ ( x<br />

)] [ ( x<br />

)]<br />

[ ( )] [ ( )]<br />

K K<br />

C ∗ (x, K) = xN d 1 −KN d 0 , P ∗ (x, K) = −xN d 0 +KN d 1 , (6.3)<br />

K<br />

K<br />

x<br />

x<br />

avec<br />

d 1 (α) = 1<br />

σ √ T ln(α) + 1 2 σ√ T , d 0 (α) = d 1 (α) − σ √ T<br />

et que le delta du call est DeltaC ∗ (x, K) = N (d 1 ( x K )).<br />

1. Montrer, en utilisant les résultats de l’exercice 3.6 que C(x, K, r, q) = C ∗ (xe −qT , Ke −rT ).<br />

2. Montrer, au vu des formules précédentes que<br />

( )] xe<br />

DeltaC(x, K, r, q) = e −qT −qT<br />

N<br />

[d 1<br />

Ke −rT<br />

où DeltaC est le Delta du call.<br />

3. Montrer, au vu des formules (6.3) et de la question (a) que<br />

DeltaP(x, K, r, q) = −e −qT N<br />

[d 0<br />

( Ke<br />

−rT<br />

xe −qT )]<br />

C(x, K, r, q) = C ∗ (Ke −µT , x) = P ∗ (xe −µT , K) = P (K, x, q, r) (6.4)<br />

où µ = r − q et P le prix d’un put. Commenter.<br />

Exercice 6.6.7 Options power. Soit<br />

dS t = S t ((r − δ)dt + σdB t ), S 0 = x .<br />

Cette dynamique modélise, sous la probabilité risque-neutre Q, le prix d’un actif versant des dividendes<br />

au taux δ le taux spot étant r.<br />

1. Calculer<br />

dans le cas h(x) = (x α − K) + .<br />

E Q (h(S T )e −r(T −t) |F t )<br />

2. On suppose r = δ. On pose dQ ∗ | Ft = (S t /x)dQ| Ft et Z t = x 2 /S t . Quelle est la dynamique de<br />

(Z t , t ≥ 0) sous Q ∗ Montrer que pour toute fonction f borélienne bornée<br />

1<br />

x E Q(S T f( x2<br />

S T<br />

)) = E Q (f(S T ))


2009-2010 71<br />

3. On repasse au cas général. Montrer que S a est une martingale pour une valeur de a que l’on<br />

précisera. Montrer que, pour toute fonction f borélienne bornée<br />

4. On se place dans le cas<br />

E Q (f(S T )) = 1 x a E Q(S a T f( x2<br />

S T<br />

))<br />

h(x) = x β (x − K) +<br />

Montrer que h(S T ) s’écrit comme différence de deux payoffs correspondants à des options<br />

d’achat Européennes portant sur S β+1 et sur S β avec des strikes que l’on déterminera.<br />

Exercice 6.6.8 Option d’échange Soit dS (i)<br />

t = S (i)<br />

t (b i dt + σ i dB (i)<br />

t , i = 1, 2 où les coefficients sont<br />

constants, les browniens B (i) étant correlles. Calculer la valeur d’une option d’échange dont le payoff<br />

est (S (1)<br />

T<br />

− S(2) T )+ .<br />

Exercice 6.6.9 Taux de change On considère deux pays. Les quantités relatives au pays domestique<br />

seront indexées par d, les quantités relatives à l’autre pays par f. Chaque pays possède<br />

un taux sans risque noté respectivement r d et r f . Les marchés des deux pays sont dirigés par un<br />

mouvement Brownien B. Sous la probabilité P, un actif S suit la dynamique<br />

dS t = S t (µ t dt + σ S t dB t )<br />

On suppose que chacun des deux marchés est sans arbitrage : il existe une probabilité risque neutre<br />

domestique notée Q d équivalente à P telle que sous Q d le processus (e −rdt S d t , t ≥ 0) est une Q d<br />

martingale.<br />

1. Montrer que tout actif domestique S d a une dynamique de la forme<br />

dS d t = S d t (r d dt + σ t dB d t )<br />

où B d est un Q d mouvement Brownien. On notera λ d la prime de risque définie par dB d t =<br />

dB t + λ d t dt. Le taux de change entre ces pays est X dirigé par<br />

dX t = X t [(r d − r f ) dt + σ X t dB d t ]<br />

Si S f est un prix en unités monétaires du pays étranger, S f X est le prix du même produit en<br />

unités monétaires domestiques.<br />

2. Soit S f un actif étranger de dynaique<br />

Montrer que<br />

dS f t = S f t (r f t dt + σ t dB f t )<br />

λ f t − λ d t = −σ X t<br />

B d t − B f t =<br />

∫ t<br />

0<br />

σ X s ds<br />

3. Quelle est la dynamique du taux de change inverse Y = 1/X <br />

4. On souhaite valoriser une option quanto, c’est à dire une option sur produit étranger faisant<br />

intervenir le taux de change. Comment évaluer en monnaie domestique un flux étranger de<br />

(Sf T −K) + Comment évaluer une option d’achat sur action étrangère avec strike en monnaie<br />

domestique


72 Girsanov. Enoncés<br />

Exercice 6.6.10 Richesse (Cox-Huang, Karatzas) Un agent financier souhaite investir sur un<br />

marché sur lequel deux actifs sont négociables:<br />

Un actif sans risque de dynamique dS 0 (t) = S 0 (t)r(t)dt où r est déterministe,<br />

Un actif risqué dont le prix a pour dynamique dS 1 (t) = S 1 (t)(b(t)dt + σ(t)dB t ). On suppose<br />

que σ ne s’annule pas.<br />

La richesse X de cet agent a pour dynamique<br />

dX t = X t r(t)dt + π t [b(t) − r(t)]dt + σ(t)π t dB t<br />

où π est un processus F adapté représentant la proportion de la richesse investie dans l’actif risqué.<br />

1. Montrer qu’il existe une probabilité Q telle que dS 1 (t) = S 1 (t)(r(t)dt + σ(t)d ˜B t ) où ˜B est un<br />

Q-mouvement Brownien.<br />

2. Montrer que (R(t)X t , t ≥ 0) est une Q-martingale locale, avec R(t) = exp −<br />

∫ t<br />

0<br />

r(s)ds<br />

b(t) − r(t)<br />

3. Soit θ(t) = et H solution de l’équation dH t = −H t (r(t)dt + θ(t)dB t ), H 0 = 1.<br />

σ(t)<br />

Montrer que le processus (H t X t , t ≥ 0) est une P-martingale locale.<br />

4. On suppose que (H t X t , t ≥ 0) est une P-martingale pour tout choix de π. L’agent souhaite<br />

obtenir une richesse terminale égale à ζ, v.a. F T mesurable (i.e. X T = ζ). Montrer que<br />

sa richesse initiale X 0 est alors déterminée, et que son portefeuille de couverture (i.e. π)<br />

également.<br />

Exercice 6.6.11 Optimisation de richesse Sur le marché financier on trouve un actif risqué et<br />

un actif sans risque. Soit (S t , t ≥ 0) le prix de l’actif risqué. On suppose que dS t = S t (µ t dt + σdB t )<br />

. L’actif sans risque vérifie<br />

dS 0 (t) = S 0 (t)r t dt .<br />

Les processus µ t , r t sont F t -adaptés bornés, σ est une constante non nulle.<br />

(<br />

1. Montrer que S t exp −<br />

2. On pose θ t = µ t − r t<br />

.<br />

σ<br />

∫ t<br />

0<br />

)<br />

µ s ds est une P-martingale.<br />

Déterminer Q telle que, sous Q le processus ˜B t = B t +<br />

Ecrire l’équation vérifiée par S t en utilisant ˜B t .<br />

∫ t<br />

0<br />

θ s ds soit un mouvement Brownien.<br />

3. Un agent de richesse initiale x investit sa richesse X t suivant l’actif sans risque et l’actif risqué<br />

de prix S t suivant X t = n 0 (t)S 0 (t) + n 1 (t)S t . On suppose que dX t = n 0 (t)dS 0 (t) + n 1 (t)dS t .<br />

(a) Montrer que dX t = r t X t dt + n 1 (t)(dS t − S t r t dt).<br />

(b) On note π t = n 1 (t)S t et R t = exp −<br />

∫ t<br />

Ecrire dX t en fonction de π t , r t , et B t .<br />

0<br />

r s ds.<br />

(c) Montrer que, sous Q, le processus X t R t est une martingale.<br />

(d) Soit ζ = X T . Ecrire X t sous forme d’une espérance conditionnelle faisant intervenir ζ et<br />

le processus r.<br />

4. On se donne un processus (c t , t ≥ 0) à valeurs positives adapté et un processus (π t , t ≥ 0) de<br />

carré intégrable F t - adapté.<br />

Soit (X t , t ≥ 0) un processus tel que<br />

dX t = r t X t dt + π t (dB t + θ t dt) − c t dt . (6.5)


2009-2010 73<br />

(a) Montrer que, sous Q, le processus X t R t +<br />

X t R t = E Q (X T R T +<br />

∫ T<br />

(b) Ecrire cette relation sous P.<br />

t<br />

R s c s ds|F t ).<br />

∫ t<br />

0<br />

R s c s ds est une martingale. En déduire que<br />

(c) Montrer que si l’on impose la condition X T ≥ 0, il existe une solution de (6.5) positive,<br />

vérifiant cette condition.<br />

Exercice 6.6.12 Soit X t = µt + σB t . On note T a = inf{t|X t = a}. Trouver une probabilité Q<br />

telle que sous Q, ( ˜B t = X t /σ , t ≥ 0) soit un mouvement Brownien. Exprimer T a en utilisant ˜B t .<br />

Calculer E P (exp −λT a ).<br />

Exercice 6.6.13 Montrer que le prix d’une option Asiatique dont le strike est le sous jacent est<br />

le prix d’un call sur un sous jacent de dynamique dZ t = (1 − rZ t )dt − Z t σdB t . Comment faire le<br />

calcul<br />

Exercice 6.6.14 On considère un modèle Black et Scholes. Calculer, pour tout couple (s, t)<br />

E P (S t |F s ) et E Q (S t |F s ).<br />

On note Y t = ∫ t<br />

0 S udu.<br />

• Quel est le prix, à la date t du payoff Y T (versé en T )<br />

• Expliciter la stratégie de couverture de Y T<br />

• On considère le payoff h(Y T , S T ), versé en T , où h est une fonction borélienne (bornée)<br />

– Montrer que le prix à la date t de h(Y T , S T ) s’écrit ϕ(t, Y t , S t ) et montrer comment obtenir<br />

ϕ(t, y, x) par un calcul d’espérance (non conditionnelle)<br />

– Quelle est l’EDP satisfaite par ϕ<br />

– Déterminer la stratégie de couverture associée.<br />

Exercice 6.6.15 Zero-coupons Soit<br />

(<br />

dY t<br />

[<br />

= h(t)dt+dB t et r t = σ(t)Y t où h et σ sont des fonctions<br />

∫ t<br />

])<br />

de classe C 1 . On souhaite calculer E exp − r s ds .<br />

(∫ t<br />

1. Soit f une fonction continue et L f t = exp<br />

1. En déduire que<br />

E<br />

(<br />

exp<br />

[<br />

h(T )B T −<br />

∫ T<br />

0<br />

0<br />

0<br />

f(s)dB s − 1 2<br />

h ′ (s)B s ds − 1 2<br />

∫ T<br />

0<br />

∫ t<br />

0<br />

)<br />

H 2 (s)ds . Justifier que E(L f T ) =<br />

h 2 (s)ds<br />

])<br />

= 1 .<br />

2. On note Σ (resp. H) la primitive de σ (resp. h) nulle en 0. Montrer que<br />

( [ ∫ ])<br />

T<br />

∫ ( (<br />

T<br />

E exp − r s ds = exp(Σ(T )H(T )− Σ(T )h(t)dt)E exp h(T )B T −<br />

0<br />

0<br />

3. Calculer cette quantité.<br />

∫ T<br />

0<br />

Σ(t)dB t ds<br />

Exercice 6.6.16 Soit dY t = 2 √ Y t dB t + (2β(t)Y t + δ)dt et r t = σ(t)Y t , où σ et β sont des fonctions<br />

de classe C 1 . On introduit dX t = 2 √ X t dB t + δdt.<br />

))<br />

.


74 Compléments. Enoncés<br />

1. Soit H une fonction de classe C 2 et<br />

(∫ t<br />

Z t = exp H(s) √ X s dB s − 1 2<br />

On admet que Z est une martingale. Montrer que<br />

( ( 1<br />

Z t = exp H(t)X t − δ<br />

2<br />

2. Montrer que<br />

exp<br />

∫ t<br />

0<br />

0<br />

H(s)ds −<br />

E<br />

(<br />

exp<br />

[<br />

∫ t<br />

0<br />

−<br />

∫ t<br />

0<br />

H ′ (s)X s ds −<br />

∫ T<br />

0<br />

r s ds<br />

])<br />

[<br />

∫ ] ( [<br />

1<br />

T<br />

∫<br />

2 (−β(0)X 1( T<br />

0 − δ β(s)ds) E exp β(T )XT −<br />

0<br />

2<br />

0<br />

3. Comment calculer cette dernière expression<br />

=<br />

)<br />

H 2 (s)X s ds<br />

∫ t<br />

0<br />

))<br />

H 2 (s)X s ds e −1 2 H(0)X 0<br />

X s (β 2 (s) + β ′ (s) + 2σ(s))ds )])<br />

Exercice 6.6.17 On se place dans le cas où S t = e 2(Bt+νt) Montrer que S est une sousmartingale<br />

pour ν+1 ≥ 0 et une surmartingale sinon. En déduire que le prix d’une option asiatique est plus petit<br />

que le prix d’une option plain vanilla. Montrer par une minoration simple que E( 1 T<br />

νs))ds) ≥ E(e 2(B T +νT ) )<br />

∫ T<br />

0<br />

exp(2(B s +


Chapter 7<br />

Compléments<br />

Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.<br />

7.1 Théorème de Lévy.<br />

Exercice 7.1.1 Lévy’s theorem. Let<br />

D =<br />

sup (B s − B t ), D 1 = B θ − inf B t, D 2 = sup B t − B σ<br />

0≤s≤t≤1<br />

θ≤t≤1 0≤t≤σ<br />

where θ (resp. σ) is the time of the absolute maximum (resp. minimum) of the Brownian motion<br />

over [0, 1], (i.e., ).<br />

1. Prove that D loi<br />

= sup 0≤t≤1 |B t |.<br />

2. En déduire la loi de D.<br />

3. Prove that D 1<br />

loi<br />

= sup g≤t≤1 |B t | where g = sup{t ≤ 1 : B t = 0}.<br />

Exercice 7.1.2 On note B ∗ le processus B ∗ t = sup s≤t B s .<br />

1. Justifier rapidement (en se basant sur des résultats classiques) que P(B ∗ t > a) = 2P(B t > a)<br />

pour a > 0. Cette égalité est-elle vérifiée également pour a ≤ 0<br />

2. Soit s < t. Montrer que<br />

3. Calculer explicitement cette quantité.<br />

P( sup B u > 0, B s < 0) = 2P(B t > 0, B s < 0)<br />

s≤u≤t<br />

4. On note g t = sup{s ≤ t : B s = 0}. Calculer la loi de g t .<br />

Exercice 7.1.3 On note B ∗ t = sup 0≤s≤t B s et θ = sup{t ≤ 1 : B t = B ∗ t }. On souhaite calculer la<br />

loi de θ.<br />

1. Ecrire {θ ≤ t} en utilisant les variables B ∗ t et sup t≤s≤1 B s<br />

2. Ecrire {θ ≤ t} en utilisant B ∗ t et sup t≤s≤1 (B s − B s )<br />

75


76 Compléments. Enoncés<br />

3. Quelle est la loi de sup t≤s≤1 (B s − B s ) conditionnelle à F t <br />

4. En déduire que P(θ ≤ t|F t ) = Φ(Bt ∗ − B t ) où Φ(x) = P(B1−t ∗ < x)<br />

5. Calculer Φ(x).<br />

6. On admet que Bt ∗ − B t a même loi que B t . Comment obtenir la loi de θ<br />

7.2 Equations rétrogrades<br />

Exercice 7.2.1 Equation rétrograde 1. Dans tout le problème ζ est une variable F T -mesurable,<br />

intégrable.<br />

1. On note X t = E(ζ|F t ). Montrer qu’il existe un processus ( ̂X s , s ≤ T ) tel que<br />

dX t = ̂X t dB t , X T = ζ (7.1)<br />

2. Soit r un nombre réel. En utilisant e rt E(ζe −rT |F t ) montrer qu’il existe un couple (X, ̂X) de<br />

processus (F t ) adaptés tels que<br />

dX t = rX t dt + ̂X t dB t<br />

X T = ζ<br />

3. Soit (r t , t ≥ 0) un processus F adapté borné. Montrer qu’il existe un couple (X, ̂X) de processus<br />

F-adaptés tels que<br />

dX t = r t X t dt + ̂X t dB t , X T = ζ<br />

4. Soit Γ β,γ le processus solution de dΓ t = −Γ t (β t dt+γ t dB t ), Γ 0 = 1 où β et γ sont des processus<br />

F adaptés bornés. Soit φ un processus F adapté borné. En considérant<br />

∫ T<br />

E(Γ T ζ + Γ s φ s ds|F t )<br />

t<br />

montrer qu’il existe un couple (X, ̂X) de processus F adaptés tels que<br />

dX t = −(φ t + X t β t + γ t ̂Xt )dt + ̂X t dB t ,<br />

X T = ζ<br />

5. Soit a un nombre réel. En considérant 1<br />

2a ln (E [exp (2aζ) |F t]), montrer qu’il existe un couple<br />

(X, ̂X) de processus F-adaptés tels que<br />

6. Montrer que 1 ( [<br />

])<br />

2a ln E Γ 2ac,b<br />

t,T<br />

exp (2aζ) |F t est solution de<br />

dX t = −a ̂X 2 t dt + ̂X t dB t , X T = ζ (7.2)<br />

dX t = −(a ̂X 2 t − b ̂X t − c)dt + ̂X t dB t , X T = ζ<br />

Exercice 7.2.2 Equation rétrograde 2. Soit H la solution de<br />

On notera H t,s = H s<br />

H t<br />

pour t < s.<br />

dH t = −H t (rdt + θdB t ) , H 0 = 1<br />

1. Soit t fixé. Quelle est l’EDS suivie par (H t,s , s ≥ t).


2009-10 77<br />

2. Soit ζ une v.a. bornée F T -mesurable et X t = ln E(H t,T e ζ def<br />

|F t ). Montrer que Y t = exp(X t )H t<br />

est une martingale que l’on peut écrire sous la forme z +<br />

∫ t<br />

0<br />

z s dB s .<br />

3. Montrer que dX t = (a ̂X 2 t + b ̂X t + c)dt + ̂X t dB t où ̂X est un processus adapté que l’on<br />

déterminera en fonction de Y, z, r et θ et où b et c sont des constantes.<br />

Exercice 7.2.3 Equation rétrograde 3..<br />

1. Soit (α t , t ≥ 0) un processus F-adapté. Donner la solution (Y, Z) de l’équation rétrograde<br />

−dY t = α t dt − Z t dB t , Y T = 0. (7.3)<br />

2. Au moyen du théorème de Girsanov, donner la solution de<br />

−dY t = (α t + γZ t )dt − Z t dB(t), Y T = 0. (7.4)<br />

où γ est un scalaire quelconque. Exprimer Y 0 sous la forme d’une espérance dépendant des<br />

données du problème.<br />

3. On pose α t = B t . Montrer que Y 0 =<br />

E(M t B t ) et E(M t signB t )) où<br />

∫ T<br />

0<br />

E(M t B t ) dt où M t = exp(γB t − 1 2 γ2 t). Calculer<br />

4. On introduit le processus<br />

sign(B s ) = 1 si B s > 0, et ; sign(B s ) = −1 si B s ) ≤ 0 .<br />

B t =<br />

∫ t<br />

0<br />

sign(B s ) dB s ,<br />

On rappelle que ce processus est un mouvement Brownien, on notera F t = σ(B s ; s ≤ t) sa<br />

filtration, qui est incluse dans F t . Montrer que la solution de<br />

−dY t = (B t + γZ t ) dt − Z t dB t , Y T = 0 ,<br />

vérifie<br />

Y 0 = γT 2 /2. (7.5)<br />

5. Montrer que la solution de<br />

−dY t = (B t + γZ t )dt − Z t dB t , Y T = 0, (7.6)<br />

vérifie<br />

Y 0 =<br />

∫ T<br />

E ( ∫<br />

) T<br />

M T B t dt = E ( )<br />

M t B t dt.<br />

0<br />

0<br />

6. Montrer, au moyen de la formule d’Itô que<br />

E ( ∫<br />

) t<br />

M t B t = γE (M s sign(B s )) ds,<br />

pour 0 ≤ t ≤ T. et en déduire que<br />

0<br />

Y 0 = γT 2 /2 − 2γ<br />

où Φ est la fonction de répartition de la loi normale centrée réduite.<br />

∫ T<br />

0<br />

(T − s)Φ(−γ √ s)ds. (7.7)


78 Compléments. Enoncés<br />

7. Supposons que Y 0 représente l’utilité (mesure le bien être que l’on éprouve quand on consomme<br />

c) associée à un plan de consommation (c t = exp(B(t))) et une information F et que<br />

Y 0 représente l’utilité associée au même plan de consommation mais avec l’information F.<br />

Interprétez alors le résultat trouvé en (7.5) et en (7.7) selon que γ > 0 ou que γ < 0.<br />

Exercice 7.2.4 facts on quadratic BS<strong>DE</strong> The solution of the BS<strong>DE</strong> −dy t = az 2 t −z t dB t , y T = ζ<br />

is y t = 1<br />

2a ln E(e2aζ |F t ). The solution of<br />

obtained by Girsanov.<br />

leads to<br />

The solution of<br />

−dy = (az 2 + bz)dt − zdB t<br />

−dy = (az 2 + bz)dt − zdB t = az 2 dt − z(dB t − bdt) = az 2 dt − z t d ̂B t )<br />

y t = 1<br />

2a ln Ê(e2aζ |F t )<br />

= 1<br />

= 1<br />

2a<br />

2a ln E(ebB T − 1 2 b2T e 2aζ |F t )e bBt− 1 2 b2 t<br />

(<br />

ln E(e bB T − 1 2 b2T e 2aζ |F t ) + bB t − 1 2 b2 t<br />

−dy = (az 2 + bz + c t )dt − zdB t<br />

follows setting ỹ t = y t + ∫ t<br />

0 c sds. The process ỹ satisfies<br />

∫ T<br />

−dỹ = (az 2 + bz)dt − zdB t , ỹ T = ζ + c s ds<br />

0<br />

)<br />

therefore<br />

(<br />

1<br />

ln E(e bB T − 1 2 b2T e 2a(ζ+∫ T<br />

0 csds) |F t ) + bB t − 1 )<br />

2a<br />

2 b2 t −<br />

∫ t<br />

0<br />

c s ds<br />

7.3 Théorèmes de représentation<br />

Exercice 7.3.1 Soit B (i) , i = 1, 2, 3 trois MB, avec B (i) , i = 1, 2 indépendants. Montrer qu’il n’est<br />

pas possible d’avoir σ(B s (3) , s ≤ t)) = σ(B s (1) , B s<br />

(2) , s ≤ t).<br />

Exercice 7.3.2 Changement de temps Soit M t =<br />

1. Justifier que (M t , t ≥ 0) est une martingale.<br />

∫ t<br />

0<br />

1 Bs >0dB s .<br />

2. Trouver un processus (A t , t ≥ 0) croissant tel que M 2 t − A t est une (F t )-martingale.<br />

3. On admet qu’il existe un processus croissant C tel que A(C(t)) = t. Montrer que (M Ct , t ≥ 0)<br />

est un (G t )-mouvement Brownien. Préciser quelle est la filtration (G t )-utilisée.<br />

Exercice 7.3.3 Crochet et indépendance. Soient B 1 et B 2 deux MB tels que leur crochet soit<br />

nul. Montrer qu’ils sont indépendants.


2009-10 79<br />

7.4 Temps local.<br />

Exercice 7.4.1 Loi du couple (|B t |, L t ). On note L le temps local de B.<br />

1. Montrer que la loi du couple (|B t |, L t ) est<br />

µ t (da, dl) = 1 a≥0 1 l≥0<br />

2(a + l)<br />

√<br />

2πt<br />

3<br />

)<br />

(a + l)2<br />

exp<br />

(− da dl<br />

2t<br />

2. On note T a = inf{t ≥ 0; B t = a} et τ l = inf{t ≥ 0; L t = l}. Montrer que T l<br />

loi<br />

= τ l<br />

3. Montrer que le processus (|B t |, L t ) est markovien de semi groupe<br />

∫<br />

Q t (α, λ, f) = µ t (da, dl)f(α ∨ l − (l − a), (λ − α) + α ∨ l)<br />

4. Montrer que, pour tout t, les v.a.s S t (S t − B t ) et B t sont indépendantes.<br />

5. Montrer que S t (S t − B t ) loi<br />

= t E où E est une variable exponentielle de paramètre 1.<br />

2<br />

Exercice 7.4.2 Formule de Tanaka.<br />

1. Peut-on appliquer la formule d’Itô pour calculer dZ t avec Z t = |B t |<br />

2. On admet qu’il existe un processus croissant L tel que<br />

|B t | = |B 0 | +<br />

∫ t<br />

0<br />

f(B s )dB s + L t<br />

avec f(x) = 1 si x > 0 et f(x) = −1 sinon. Montrer que (<br />

mouvement Brownien que l’on notera β.<br />

∫ t<br />

0<br />

f(B s )dB s , t ≥ 0) est un<br />

3. Soit S t = sup s≤t B s . Vérifier que S est un processus croissant. Comparer les décompositions<br />

|B t | = β t + L t et S t − B t = −B t + S t . Pour cette question, je ne vous demande aucun<br />

raisonnement précis.<br />

Exercice 7.4.3 Temps local. Soit L le temps local. Montrer que L t = inf s≥t (|B s | + L s ).<br />

Exercice 7.4.4 Temps aléatoire. Soit B un MB, S son maximum sur [0, 1] (soit S = sup{B s , s ≤<br />

1} et θ = inf{t ≤ 1 : B t = S}. La v.a. θ est-elle un temps d’arrêt Quelle est la loi de θ On<br />

calculera P(θ ≤ u) et on utilisera le principe de réflexion et l’identité de Lévy (S t − B t , t ≥ 0) loi<br />

=<br />

(|B t |, t ≥ 0).<br />

Calculer P(θ ≤ t|F t ).<br />

Exercice 7.4.5 Des martingales. Soit X une martingale continue et S t = sup s≤t X s .<br />

1. Pour quelles fonctions f le processus Y t = f(X t , S t , 〈X〉 t ) est-il une martingale locale<br />

2. Montrer que si g est C 2 et g(0) = 0, le processus<br />

est une martingale locale.<br />

g(S t ) − (S t − X t )g ′ (S t )


80 Compléments. Enoncés<br />

3. Montrer que si g est C 2 et g(0) = 0, le processus<br />

est une martingale locale.<br />

g(L t ) − |X t |g ′ (L t )<br />

Exercice 7.4.6 Scaling Soit B un MB et L son temps local. Montrer que<br />

(L x loi<br />

λ 2 t , x ∈ R, t ≥ 0) = (λL x/λ<br />

t x ∈ R, t ≥ 0)<br />

On utilisera<br />

∫ λ 2 t<br />

∫ t<br />

f(B s )ds loi<br />

= λ 2 f(λB u )du<br />

0<br />

0<br />

Exercice 7.4.7 Calculer E(L x T a<br />

).<br />

Exercice 7.4.8 Let M be a continuous martingale such that 〈M〉 ∞ = ∞ and β the associated<br />

Dubins-Schwarz BM. Prove that L a t (M) = L a 〈M〉 t<br />

(β).<br />

Exercice 7.4.9 Let φ be a non negative process indexed by R + × R. Prove that<br />

∫ ∞<br />

dy<br />

∫ t<br />

d s L y s φ(s, y) =<br />

∫ t<br />

−∞ 0<br />

0<br />

d s 〈Y 〉 s φ(s, Y s ) .<br />

7.5 Lois<br />

Exercice 7.5.1 Temps d’atteinte. Soit X solution de<br />

On note T a = inf{t ≥ 0 | X t = a}.<br />

X t = a(X t )dt + b(X t )dB t , X 0 = x .<br />

1. Donner des conditions sur la fonction V pour que (e −λt V (X t ), t ≥ 0) soit une martingale.<br />

2. En déduire E(e −λTa 1 (Ta


2009-10 81<br />

2. Prove that, for a > 0, sup u (B u − au) loi<br />

= 1 e, where e is a standard exponential variable with<br />

2a<br />

mean 1.<br />

3. Let B be a BM and T 1 the first hitting time of 1. Define I t = − inf s≤t B s . Identify the law of<br />

I T1 .<br />

Exercice 7.5.4 Loi du maximum.<br />

loi<br />

On rappelle que, pour T fixé, max t≤T B t = |B T |. On note C = E[(e −σB T<br />

−1) + ] et P = [(1−e σB T<br />

) + ].<br />

Montrer que pour x > 0<br />

(Il n’y a aucun calcul à faire)<br />

E[max<br />

t≤T (xeσBt − xe σB T<br />

)] = x[C + P ]<br />

7.6 Filtrations<br />

Exercice 7.6.1 Agent initié L’agent initié connait la valeur terminale<br />

∫<br />

du Brownien. Le problème<br />

t<br />

def B T − B u<br />

est de savoir comment se transforment les martingales. Soit Z t = B t −<br />

T − u<br />

du<br />

1. Soit f une fonction déterministe. Montrer que<br />

∫ T<br />

E[Z u f(v)dB v ] =<br />

En déduire que si, pour tout u, E[Z u<br />

∫ T<br />

et montrer que f est une constante.<br />

0<br />

0<br />

∫ u<br />

0<br />

f(v)dv −<br />

∫ u<br />

0<br />

1<br />

ds<br />

T − s<br />

∫ T<br />

s<br />

0<br />

dvf(v)<br />

f(v)dB v ] = 0 , alors f vérifie f(u) = 1 ∫ T<br />

dvf(v)<br />

T − u u<br />

2. Soit t < T . On admet que E(B t |B T ) = aB T + b où a et b sont des constantes. Montrer que<br />

b = 0 et que a = t T . (On pourra prendre l’espérance des deux membres et calculer E(B tB T ))<br />

3. Soit s < t < T . On admet que E(B t |B s , B T ) = aB s + bB T + c où a, b et c sont des constantes.<br />

Montrer que a = T − t<br />

T − s , b = t − s<br />

T − s , c = 0.<br />

4. On note F ∗ t = F t ∨ σ(B T ) la tribu engendrée par (B u , u ≤ t) et par B T . On admet que pour<br />

s < t, E(B t |B T , B s ) = E(B t |F ∗ s ). Montrer que Z est une (F ∗ t )- martingale. On pourrait<br />

montrer que c’est un MB.<br />

Exercice 7.6.2 Soit G une filtration et B un G mouvement brownien.<br />

1. Soit H une filtration plus petite que G. Vérifier que le processus M t = E(B t |H t ) est une<br />

martingale. (on précisera par rapport à quelle filtration).<br />

2. Soit X t = B t +<br />

∫ t<br />

de X (qui vérifie F X t<br />

0<br />

Y u du où Y est un processus G adapté intégrable. On note F X la filtration<br />

⊂ G t ) et Ŷu = E(Y u |F X u ). Vérifier que Z t = (X t −<br />

∫ t<br />

0<br />

Ŷ u du, t ≥ 0) est<br />

une F X -martingale (on calculera l’espérance conditionnelle de Z t par rapport à F X s ). Montrer<br />

que Z est un mouvement Brownien.


82 Compléments. Enoncés<br />

7.7 Options barrières<br />

Exercice 7.7.1 On note N la fonction de répartition de la loi normale et M t = sup(B s , s ≤ t).<br />

1. Soit x ∈ R. Montrer que P(B t ≤ x) = P(B t ≤ −x) = N (x( √ t) −1 ).<br />

2. Soit y > 0 donné, T = inf{t ≥ 0 |B t = y}.<br />

Soit B ∗ t = B T +t − B T . On admet que T est un temps d’arrêt et (B ∗ t , t ≥ 0) est un Brownien<br />

indépendant de F T .<br />

(a) Montrer que<br />

P(B t ≤ x, M t > y) = P(T < t, B ∗ t−T ≤ x − y)<br />

(b) Montrer que<br />

P(T < t, Bt−T ∗ ≤ x − y) =<br />

∫ t<br />

0<br />

P(T ∈ du)P(B ∗ t−u ≤ x − y) = P(T < t, B ∗ t−T ≥ y − x)<br />

(c) Montrer que pour y > x, on a<br />

P(B t ≤ x, M t > y) = P(B t ≥ 2y − x)<br />

En déduire que<br />

P(B t ≤ x, M t < y) = N ( x √<br />

t<br />

) − N ( x − 2y √<br />

t<br />

)<br />

3. En déduire la loi de T , celle de M t et la densité du couple (B t , M t ).<br />

4. Soit X t = µt + B t , Y t = sup (X s , 0 ≤ s ≤ t}. Montrer, en utilisant le théorème de Girsanov,<br />

que le calcul de<br />

P(X t < x, Y t < y)<br />

se déduit du calcul précédent.<br />

7.8 Méandres, ponts, excursions<br />

Exercice 7.8.1 Loi conditionnelle. Soit d t = inf{s ≥ t : B s = 0}. Montrer que d t (B) loi<br />

=<br />

t + (−B t) 2<br />

où G est une variable gaussienne de loi N (0, 1) indépendante de B t . Soit g = sup{t ≤<br />

G 2<br />

1 : B t = 0}. Calculer P(g ≤ t|F t ).<br />

Exercice 7.8.2 Martingale d’Azéma. On admet que le processus m u =<br />

1<br />

√ t − gt<br />

|B gt +u(t−g t )|, u ≤<br />

1 est indépendant de F gt , que sgneB t est F gt mesurable et que m 1 a pour densité xe −x2 /2 1 x>0 dx.<br />

Calculer E(B t |F gt ), E(Bt 2 α2 αBt−<br />

− t|F gt ) et E(e 2 t |F gt ). Montrer que ces processus sont des martingales.<br />

7.9 Divers<br />

Exercice 7.9.1 Soit dS t = S t (µdt + σdB t ) et ˜S t = S t max(1, max 0≤s≤t<br />

K<br />

S s<br />

). Calculer e −rT E( ˜S T )


2009-10 83<br />

Exercice 7.9.2 Soit S un brownien géométrique<br />

On pose M t = 1 t<br />

∫ t<br />

0<br />

S u du. Calculer<br />

dS t = S t (µdt + σdB t )<br />

E((M T − k) + |F t ) 1 Mt ≥(T k/t)<br />

1. Soit s < t M s = sup u≤s B u , M s t = sup s≤u≤t B u . Calculer P(M s < a, M s t < b, B t < c). On<br />

donnera le résultat sous forme d’une intégrale.<br />

2. Soit X t = e 2(Bt+νt) (x + ∫ t<br />

0 e2(Bs+νs) ds). Montrer que<br />

dX t = f(t, X t )dt + g(t, X t )dB t<br />

où l’on explicitera les fonctions f et g. Comment pourrait-on calculer le prix d’une option<br />

européenne sur le sous jacent X, en présence d’un actif sans risque de taux constant r<br />

Exercice 7.9.3 Let B be a Brownian motion and T a = inf{t ≥ 0 : B t = a} where a > 0.<br />

1. Using the Doléans-Dade exponential of λB, prove that<br />

and that<br />

E(e −λ2 T a<br />

/2|F t ) = e −λa + λ<br />

∫ Ta ∧t<br />

0<br />

e −λ(a−B u)−λ 2 u/2 du<br />

∫ Ta<br />

e −λ2 T a/2 = e −λa + λ e −λ(a−Bu)−λ2u/2 du<br />

0<br />

2. By differentiating the Laplace transform of T a , and the fact that ϕ satisfies the Kolmogorov<br />

equation, prove that<br />

where ϕ(t, x) = 1 √<br />

2πt<br />

e −x2 /(2t) .<br />

3. Prove that, for any f<br />

λe −λc = 2<br />

E(f(T a )|F t ) = E(f(T a )) + 2<br />

∫ ∞<br />

0<br />

e −λ2 t/2 ∂ ϕ(t, c) dt<br />

∂t<br />

∫ Ta∧t ∫ ∞<br />

0<br />

0<br />

f(u + s) ∂<br />

∂u ϕ(u, B s − a)dudB s<br />

4. Deduce that<br />

1 Ta


84 Sauts. Enoncés


Chapter 8<br />

Processus à sauts<br />

8.1 Processus de Poisson<br />

Un processus de Poisson standard est un processus de comptage (i.e. N t = ∑ ∞<br />

i=1 1 Ti≤t, où les<br />

T i sont des v.a. positives croissantes) à accroissements indépendents et stationnaires. La variable<br />

aléatoire N t a pour loi une loi de Poisson de paramêtre λ.<br />

Un processus de Poisson d’intensité déterministe λ(s) est un processus de comptage tel que M t =<br />

∫ t<br />

N t − λ(s)ds est la martingale compensée.<br />

∑ 0 ∞<br />

i=1 Z T i<br />

1 Ti ≤t = ∑ s≤t Z s∆N s .<br />

Si<br />

la formule d’intégration par parties est<br />

X t− dY t + Y t− dX t + d[X, Y ] t<br />

dX t = a t dt + σ t dB t + ϕ t dN t<br />

dY t = α t dt + ν t dB t + ϑ t dN t<br />

POur tout processus Z on définit ∫ t<br />

0 Z sdN s =<br />

d(XY ) t = X t− dY t + Y t− dX t + σ t ν t dt + ϕ t ϑ t dN t<br />

Dans cete section, N est un processus de Poisson de filtration naturelle F = (F t = σ(N s , s ≤ t); t ≥<br />

0).<br />

def<br />

Exercice 8.1.1 Montrer que si N est un processus de Poisson standard, M t = N t − λt est une<br />

martingale. Montrer que si N est un processus de Poisson d’intensit é λ(s), f une fonction borélienne<br />

bornée et g une fonction borélienne bornée à valeurs dans ] − 1, ∞[, les processus<br />

sont des martingales.<br />

X t = exp(<br />

Y t = exp(<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

f(s)dN s +<br />

∫ t<br />

ln(1 + g(s))dM s +<br />

0<br />

λ(s)(1 − e f(s) )ds)<br />

∫ t<br />

0<br />

[ln(1 + g(s)) − g(s)]λ(s)ds)<br />

Exercice 8.1.2 Soit N i , i = 1, 2 deux processus de Poisson indépendants de même intensité. Montrer<br />

que N 1 − N 2 est une martingale.<br />

Exercice 8.1.3 Soit F ∗ t<br />

= σ(N s , s ≤ t, N T ). Montrer que<br />

M ∗ t<br />

def<br />

= N t −<br />

∫ t<br />

0<br />

N T − N s<br />

T − s<br />

ds<br />

85


86 Sauts. Enoncés<br />

est une F ∗ -martingale.<br />

Exercice 8.1.4 Caractérisation de Processus de Poisson.<br />

1. Calculer ψ(z, t) = ∑ n<br />

z n P (N t = n).<br />

2. Soit X un processus à accroissements indépendants, à valeurs dans l’ensemble des entiers, tel<br />

loi<br />

que X t+s − X t = X s et ψ(z, t) = ∑ z n P (X t = n). Montrer que ψ(z, t + h) = ψ(z, t)ψ(z, h).<br />

n<br />

On suppose qu’il existe ν tel que<br />

1<br />

h P (X h ≥ 2) → 0 ,<br />

1<br />

h P (X h = 1) → ν ,<br />

1<br />

h (1 − P (X h = 0)) → ν<br />

quand h tend vers 0. Montrer que ∂ ψ(z, t) = ν(z − 1)ψ(z, t). Quel est le processus X<br />

∂t<br />

Exercice 8.1.5 Calculer la transformée de Laplace de ∫ t<br />

0 N sds<br />

Exercice 8.1.6 On note τ = T 1 le premier saut de N et D t = N t∧τ<br />

∫ t∧τ<br />

1. Déterminer δ tel que Z t = D t − δ u du soit une martingale.<br />

0<br />

2. On note L t = (1 − D t )/(1 − F (t)) où F (t) = P (τ ≤ t) est supposée continue. Montrer que<br />

dL t = α t dZ t où on explicitera α. Même question si F est seulement continue à droite.<br />

3. Soit N 1 et N 2 deux PP d’intensité constante λ 1 et λ 2 et D i les processus associés. On note<br />

µ 1 (t) = ( α 1<br />

−1)D 2 (t−) et µ 2 (t) = ( α 2<br />

−1)D 1 (t−). Soit ρ t solution de dρ t = ρ t− (µ 1 (t)dZ 1 (t)+<br />

λ 1 λ 2<br />

µ 2 (t)dZ 2 (t)). Expliciter ρ t . Soit dQ = ρ t dP . Calculer Q(τ 1 > t, τ 2 < s) pour s < t.<br />

8.2 Poisson composé<br />

Soit λ un nombre réel positif, µ une loi de probabilité sur R. Un processus de Poisson composé de<br />

paramêtres (λ, µ) est un processus X = (X t , t ≥ 0) de la forme<br />

∑N t<br />

X t =<br />

où N est un processus de Poisson d’intensité λ et où les (Y k , k ∈ N) sont des v.a. i.i.d. de loi µ,<br />

indépendantes de N.<br />

Exercice 8.2.1 Soit M t = N t − λt et Z t = X t − µλt. Montrer que Z et (M t Y t − µλt, t ≥ 0) sont<br />

des martingales.<br />

Exercice 8.2.2 On considère l’équation<br />

k=1<br />

X t = x + N t − c<br />

Y k<br />

∫ t<br />

0<br />

X s ds<br />

1. Montrer que cette équation admet au plus une solution.


2009-10 87<br />

2. Montrer que<br />

est une solution.<br />

e −ct x +<br />

∫ t<br />

0<br />

e −c(t−s) dN s<br />

Exercice 8.2.3 Montrer qu’un processus de Poisson composé a des accroissements indépendants et<br />

stationnaires et que (si Y 1 est intégrable)<br />

E(X t ) = λtE(Y 1 )<br />

Exercice 8.2.4 Let X be a (λ, µ) componud<br />

Var (X t ) = λtE(Y 2<br />

1 ).<br />

Exercice 8.2.5 Let X be a (λ, µ) compound Poisson process and f a bounded Borel function.<br />

Then,<br />

(<br />

∑ Nt ∫<br />

)<br />

exp f(Y k ) + t (1 − e f(x) )λµ(dx)<br />

is a martingale.<br />

k=1<br />

Poisson process. Prove that the process<br />

M f t = ∑ s≤t<br />

f(∆X s ) 1 ∆Xs ≠0 − tλµ(f)<br />

is a martingale; the process<br />

is a martingale.<br />

(M f t ) 2 − tλµ(f 2 )<br />

Suppose that X is a pure jump process and that there exists a finite positive measure σ such<br />

that<br />

∑<br />

f(∆X s ) 1 ∆Xs≠0 − tσ(f)<br />

is a martingale for any f, then X is a compound Poisson process.<br />

s≤t<br />

Exercice 8.2.6 If X is a (λ, µ) compound Poisson process,<br />

( ( ∫ ∞<br />

))<br />

E(e −αX t<br />

) = exp −λt 1 − e −αu µ(du)<br />

8.3 Formule d’Itô<br />

Dans cette section, B est un mouvement Brownien et N un processus de Poisson de martingale<br />

compensée M. On note F t = σ(W s , N s , s ≤ t).<br />

Exercice 8.3.1 On suppose que N est d’intensité constante λ.<br />

1. Montrer que la solution de<br />

est, pour φ > −1<br />

dS t = S(t − )(rdt + σdB t + φdM t ), S 0 = x<br />

0<br />

S t = xe rt exp(σW t − 1 2 σ2 t) exp(ln(1 + φ)N t − φλt) . (8.1)<br />

.


88 Sauts. Enoncés<br />

2. Ecrire la solution en faisant apparaitre la martingale M.<br />

3. Quelle est la dynamique de 1/S<br />

4. Quelle est la dynamique de S 2 <br />

5. Calculer E(S t ) et E(St 2 ).<br />

6. Quelle est la solution de (8.1)pour φ = −1 et pour φ < −1<br />

7. Quelle est la solution de (8.1) lorsque les coefficients dépendent du temps<br />

Exercice 8.3.2 Soit<br />

dX t = µ(t, X t )dt + σ(t, X t )dB t + φ(t, X t− )dM t<br />

et H une fonction de classe C 1,2 . Sous quelles conditions sur les coefficients le processus Y t = H(t, X t )<br />

est-il une martingale locale<br />

8.4 Temps de Défaut<br />

Exercice 8.4.1 Soit τ un temps aléatoire sur un espace (Ω, G, P).<br />

processus positif, G-adapté (λ s , s ≥ 0) tel que 1 τ≤t −<br />

∫ t∧τ<br />

fonction borélienne, X une variable aléatoire G T mesurable et<br />

∫ T ∫ T<br />

V t = E(X exp − λ s ds +<br />

t<br />

t<br />

0<br />

On suppose qu’il existe un<br />

λ u du soit une G martingale. Soit h une<br />

∫<br />

( u<br />

du h u λ u exp − λ s ds ) |G t ) .<br />

t<br />

Montrer que<br />

∣ ) ∣∣<br />

1 {t


2009-10 89<br />

4. Soit Q l’ensemble des probabilités risque neutre, et<br />

V t = esssup Q E Q (R T B|F t )<br />

On admettra que V est une surmartingale pour tout Q et que toute surmatingale s’écrit comme<br />

une martingale moins un processus croissant.<br />

Montrer qu’il existe A Q processus croissant, µ, ν tels que V t = v +<br />

∫ t<br />

0<br />

µ s dB Q s +<br />

où W Q et M Q sont des Q-martingales et B Q un MB.. Préciser le lien entre A P et A Q .<br />

5. Montrer que µ t<br />

φ<br />

σ − ν t ≥ 0<br />

6. Montrer que A P −<br />

∫ t<br />

0<br />

λ(µ s<br />

φ<br />

σ − ν s) est un processus croissant.<br />

∫ t<br />

0<br />

dM Q s − A Q t ,<br />

7. En déduire que V est la valeur d’un portefeuille X dont on explicitera le processus de consommation.<br />

Exercice 8.5.3 On considère un actif de prix<br />

dS t = S t− (rdt + ϕdM t )<br />

où M est la martingale compos ée associé à un processus de Poisson d’intensité constante λ.<br />

1. Vérifier que S t e −rt est une martingale.<br />

2. Soit X le valeur d’un portefeuille autofinancant comportant θ parts d’actif risqué, soit<br />

dX t = rX t dt + θ t (dS t − rS t dt)<br />

Vérifier que ˜X t = e rt X t est une martingale. Ecrire la dynamique de ˜X en fonction de ˜S.<br />

3. Ecrire l’EDS vérifiée par X/S.<br />

4. On pose dQ = S t e −rt /S 0 dP. Vérifier que X/S est une martingale sous Q.


90 Rappels<br />

s<br />

CORRIGES


Chapter 1<br />

Rappels, Corrigés<br />

1.1 Tribu<br />

Exercice 1.1.1: L’ensemble B − A s’écrit B ∩ A c . Si F est une tribu, elle est stable par passage<br />

au complémentaire et par intersection, d’où le résultat.<br />

Exercice 1.1.2 : 1) La tribu engendrée par A est constituée des quatre ensembles A, A c , ∅, Ω.<br />

2) Cette tribu doit contenir A et B, l’ensemble vide et Ω. Puis les complémentaires, soit A c et B c<br />

(les complémentaires de Ω et de l’ensemble vide égaux à l’ensemble vide et à Ω sont déjà dans la<br />

liste). Puis les unions d’ensembles soit A ∪ B, les autres unions A ∪ Ω = Ω, A ∪ B c = B c ,... sont<br />

déja dans la liste. Puis les intersections A c ∩ B c . On a terminé car les autres ensembles formés à<br />

partir d’opérations de passage au complémentaire, d’intersection et d’union sont dans la liste par<br />

exemple (A c ∩ B c ) ∪ B c = B c .<br />

Exercice 1.1.4 : Soit G = F 1 ∩ F 2 la famille composée des ensembles qui appartiennent à F 1 et à<br />

F 2 . La famille G est une tribu si<br />

(i) Ω ⊂ G, ce qui est le cas car Ω ⊂ F 1 , Ω ⊂ F 2 donc Ω ⊂ F 1 ∩ F 2 .<br />

(ii) la famille G est stable par passage au complémentaire: si A ⊂ G, la stabilité des<br />

tribus F 1 et F 2 par passage au complémentaire implique A c ⊂ F 1 , A c ⊂ F 2 donc A c ⊂ F 1 ∩ F 2 .<br />

(iii) la famille G est stable par intersection dénombrable: si A i ⊂ G, la stabilité des<br />

tribus F 1 et F 2 par intersection dénombrable implique ∩ i A i ⊂ F 1 , A c ⊂ F 2 donc ∩ i A c ⊂ F 1 ∩ F 2 .<br />

Les autres propriétés résultent des précédentes: L’ensemble vide appartient à G car c’est le complémentaire<br />

de Ω ( utiliser (i) et (ii)), la famille G est stable par union dénombrable: en passant au complémentaire<br />

l’identité (∩A i ) c ∪ (A c i ) on obtient ∩A i = (∪ i A i ) c . Il reste à utiliser (ii) et (iii).<br />

L’union de tribus n’est pas une tribu: considèrer le cas F 1 = σ(A), F 2 = σ(B). la famille F 1 ∪ F 2<br />

ne contient pas A c ∩ B c . Ne pas confondre sous ensembles et éléments. Par exemple, un intervalle<br />

est un sous ensemble de R, et n’est pas un élément de R.<br />

Exercice 1.1.6 : On utilise que X −1 (B) = {ω : X(ω) ∈ B}. La famille C est une tribu: la stabilité<br />

requise provient des égalités suivantes: X −1 (B c ) = (X −1 (B)) c , X −1 (∩B n ) = ∩X −1 (B n ). On<br />

trouvera une démonstration de la réciproque dans tout ouvrage de proba, cette démonstration est<br />

basée sur le théorème qui précise que si une tribu contient une classe stable par intersection finie,<br />

elle contient la plus petite tribu engendrée par cette classe.<br />

Exercice 1.1.7 : Les diverses quantités que l’on veut comparer sont égales. Les espérances E(f(X))<br />

et E(f(Z)) sont égales parce que X et Z ont même loi, et E(f(X, Y )) = E(f(Z, T )) car le couple<br />

(X, Y ) a même loi que le couple (Z, T ). Si l’hypothèse (Z, T ) sont indépendantes n’était pas faite,<br />

91


92 Rappels<br />

l’égalité en loi des variables X et Z et celle des variables Y et T ne suffirait pas. Par exemple, on<br />

peut prendre X loi<br />

= Y de loi gaussienne N (0, 1), X et Y indépendantes et Z = T = X. On aurait<br />

alors E(X 2 Y 2 ) = 1 et E(Z 2 T 2 ) = E(X 4 ) = 3. (contre exemple pour la question 3)<br />

1.2 Variables gaussiennes.<br />

Exercice 1.2.1 : Par symétrie de la densité et imparité de x 3 , on a E(X 3 ) = 0 et, par parité de<br />

x 4 on a E(X 4 ) = 2<br />

σ √ 2π<br />

∫ ∞<br />

parties successives et on obtient E(X 4 ) = 3σ 4 .<br />

On a également E(|X|) = 2 ∫ ∞<br />

σ √ 2π<br />

√<br />

2π<br />

et, par des calculs analogues<br />

E(|X 3 |) = 4σ3 √<br />

2π<br />

.<br />

0<br />

x 4 e − x2<br />

2σ 2 dx. Cette dernière intégrale se calcule par intégrations par<br />

0<br />

x exp − x2<br />

dx, d’où E(|X|) =<br />

2σ<br />

2σ2 Soit U une variable gaussienne d’espérance m et de variance σ 2 . Pour calculer E(exp{λU 2 + µU}),<br />

on doit calculer<br />

∫<br />

1 ∞<br />

σ √ e λu2 +µu e − 1<br />

2σ 2 (u−m)2 du .<br />

2π<br />

On montre que<br />

avec Σ 2 =<br />

Il vient<br />

En particulier<br />

−∞<br />

λu 2 + µu − 1<br />

2σ 2 (u − m)2 = − 1<br />

2Σ 2 (<br />

u − (µ + m σ 2 )Σ2) 2<br />

+<br />

Σ 2<br />

2 (µ + m σ 2 )2 − m2<br />

2σ 2<br />

σ2<br />

1−2λσ<br />

. 2<br />

E(exp{λU 2 + µU}) = Σ σ exp ( Σ<br />

2<br />

E(exp λU 2 ) =<br />

2 (µ + m σ 2 )2 − m2<br />

2σ 2 )<br />

1<br />

√ exp m 2 λ<br />

1 − 2λσ<br />

2 1 − 2λσ 2<br />

Par propriété de l’espérance conditionelle E(e aXY ) = E(Φ(X)) avec Φ(x) = e axY .<br />

Exercice 1.2.2 : Si X et Y sont gaussiennes indépendantes de loi N (m 1 , σ1) 2 et N (m 2 , σ2), 2 la<br />

somme X + Y est gaussienne: ceci se voit très facilement avec les fonctions caractéristiques:<br />

E(e it(X+Y ) ) = E(e itX )E(e itY ) = e itm 1− t2 σ<br />

1<br />

2<br />

2 e itm 2− t2 σ<br />

2<br />

2<br />

2 = e itm− t2 σ 2<br />

2<br />

avec m = m 1 + m 2 et σ 2 = σ1 2 + σ2.<br />

2<br />

On peut le voir aussi en se souvenant que si X et Y sont indépendantes, de densité f et g, la somme<br />

X + Y a pour densité h(x) = ∫ ∞<br />

f(x − y) g(y) dy et en effectuant le calcul. Attention, ce résultat<br />

−∞<br />

n’est pas nécessairement vrai si on n’a pas l’indépendance de X et Y (la somme de deux gaussiennes<br />

est une gaussienne si le vecteur est gaussien).<br />

On peut aussi calculer la transformée de Laplace de la somme<br />

E ( exp(λ(X + Y )) ) = E(exp(λ(X))E(exp(λ(Y ))<br />

= exp[λ(m 1 + m 2 ) + λ2<br />

2 (σ2 1 + σ 2 2)]<br />

ce qui montre que la somme a une loi gausienne d’espérance m 1 + m 2 et de variance σ 2 1 + σ 2 2.<br />

.<br />

Exercice 1.2.3 :


Corrigés 93<br />

1. Si X est N (m, σ 2 ), sa densité est f(x) = 1<br />

σ √ 2π<br />

N (0, 1). On peut le vérifier de plusieurs façons.<br />

exp −(x<br />

− m)2<br />

2σ 2<br />

et la v.a. Y = X − m<br />

σ<br />

est<br />

• En calculant la fonction de répartition de Y : Soit F Y la fonction de répartition de Y . On<br />

a F Y (y) = P(Y ≤ y) = P(X ≤ m + yσ) = F X (m + yσ). Il reste à dériver par rapport à y<br />

pour obtenir la densité de Y qui est σf(m + yσ) = √ 1 exp − y2<br />

2π 2 .<br />

• On peut utiliser les fonctions caractéristiques. Soit φ(t) = E(e itX ) = e itm− t2 σ 2<br />

2 la fonction<br />

caractéristique de X; la fontion caractéristique de Y est<br />

E(e itY X−m<br />

it<br />

) = E(e σ ) = e − itm t<br />

σ φ(<br />

σ ) = e− t2 2<br />

Cette remarque permet de ramener des calculs sur N (m, σ 2 ) à des calculs sur N (0, 1).<br />

La variable X −m est gaussienne centrée. D’où en utilisant l’exercice 1.2.1, E(|X −m|) = 2σ √<br />

2π<br />

.<br />

2. On a E(e λX ) = 1 ∫ ∞<br />

σ √ e λx (x − m)2<br />

exp −<br />

2π −∞<br />

2σ 2 dx.<br />

On montre que e λx exp − (x−m)2<br />

2σ<br />

= exp(λm + 1 2 2 σ2 λ 2 ) exp[− 1<br />

2σ<br />

(x − (m + λσ 2 )) 2 ] et le résultat<br />

2<br />

s’obtient facilement.<br />

3. Soit X une v.a. de loi N (0, 1). On a<br />

E( 1 X


94 Rappels<br />

A t (Var X)A ≥ 0, c’est-à-dire que les matrices de variance covariance sont semi définies positives.<br />

Exercice 1.2.6 : La v.a. λX + µY est gaussienne d’espérance λE(X) + µE(Y ) et de variance<br />

λ 2 σ 2 (X) + µ 2 σ 2 (Y ). On en déduit<br />

[<br />

E(exp(λX + µY )) = exp λE(X) + µE(Y ) + 1 ]<br />

2 (λ2 σ 2 (X) + µ 2 σ 2 (Y ))<br />

[<br />

= exp λE(X) + 1 ] [<br />

2 λ2 σ 2 (X) exp µE(Y ) + 1 ]<br />

2 µ2 σ 2 (Y ) = E(exp λX) E(exp µY )<br />

d’où l’indépendance.<br />

Exercice 1.2.7 : Si (X, Y ) est un vecteur gaussien, X et Y sont des vecteurs gaussiens.<br />

Cas d = 1. La projection de X sur (Y 1 , Y 2 , . . . , Y n ) est de la forme P r X = ∑ n<br />

i=1 a iY i C’est une v.a.<br />

gaussienne car Y est gaussien. Le vecteur (X − P r X, Y ) est gaussien. Les vecteurs X − P r X et Y<br />

sont indépendants car E((X − P r X)Y i ) = 0 par définition de la projection.<br />

Exercice 1.2.8 : Toujours avec la transformée de Laplace.<br />

On vérifie dans un premier temps que<br />

E(exp(λX)) = E[E(exp(λX)|Y )] = E[exp(λ(aY + b) + λ2<br />

2 σ2 )]<br />

= exp[λaE(Y ) + λ2 a 2<br />

2 σ2 (Y )] exp[λb + λ2<br />

2 σ2 ]<br />

donc, la v.a. X est gaussienne d’espérance b + aE(Y ) et de variance σ 2 + a 2 σ 2 (Y ). On calcule de<br />

la même façon E(Y e λX ) = E(Y exp(λ(aY + b) + λ2<br />

2 σ2 )] et en dérivant par rapport à λ, on trouve<br />

E(XY ) = aE(Y 2 ) + bE(Y ).<br />

D’autre part<br />

E(exp(λX + µY )) = E[exp(µY )E(exp(λX|Y )]<br />

et on vérifie que ceci est<br />

= E[exp(µY ) exp(λ(aY + b) + λ2<br />

2 σ2 )]<br />

= E[exp[(λa + µ)Y ]] exp(λb + λ2 σ 2<br />

2 )<br />

= exp[(λa + µ)E(Y ) +<br />

exp(λE(X) + µE(Y )) + 1 Var(λX + µY ))<br />

2<br />

(λa + µ)2<br />

σ 2 (Y )] exp(λb + λ2 σ 2<br />

2<br />

2 )<br />

1.3 Espérance conditionnelle<br />

Exercice 1.3.2 : Il suffit de calculer E([X −Y ] 2 |G) qui vaut 0 (développer le carré) donc, en prenant<br />

l’espérance E([X − Y ] 2 ) = 0.<br />

Exercice 1.3.5 : Sous les hypothèses de l’exercice E(X −Y |G) = E(X|G)−Y car Y est G-mesurable<br />

et E(X − Y |G) = E(X − Y ) = m par indépendance. D’où E(X |G) = m + Y . De la même façon<br />

E((X − Y ) 2 |G) = E(X 2 |G) − 2Y E(X|G) + Y 2 d’où E(X 2 |G) = σ 2 + (Y + m) 2 .


Corrigés 95<br />

Exercice 1.3.6 : Par définition de la projection E(XZ) = E((P r X)Z) pour tout Z combinaison<br />

linéaire des Y i . Cela ne suffit pas à dire que P r X est l’espérance conditionnelle car il existe des v.a.<br />

qui sont Y -mesurable et qui ne sont pas combinaison linéaire des Y i . Mais nous avons montré que<br />

X−P r X et Y sont indépendantes, d’où E(X−P r X |Y ) = E(X−P r X) = 0. D’où E(X|Y ) = P r X.<br />

Si n = 1, E(X|Y ) = P r X appartient à l’espace engendré par Y donc s’écrit αY , et on déduit de<br />

E(X|Y ) = αY , après multiplication par Y et intégration α = E(XY )<br />

E(Y 2 ) .<br />

Exercice 1.3.7 : Soit X = X 1 + X 2 . On a E(X|G) = E(X 1 |G) + E(X 2 |G) = E(X 1 ) + X 2 . Puis<br />

E(X 2 |G) = E(X 2 1 ) + X 2 2 + 2X 2 E(X 1 ) et<br />

Var (X|G) = E(X 2 |G) − (E(X|G)) 2 = Var X 1 .<br />

E(e λX |G) = E(e λX 1<br />

e λX 2<br />

|G) = e λX 2<br />

E(e λX 1<br />

) = e λX 2<br />

exp(λE(X 1 ) + λ2<br />

2 Var (X 1))<br />

Exercice 1.3.8 : Il est facile de montrer la suite d’égalités<br />

Cov (Z 1 , Z 2 |G) = E(Z 1 Z 2 |G) − E(Z 1 |G)E(Z 2 |G)<br />

= E(Z 1 Z 2 |G) − E(Z 2 (E(Z 1 |G))|G)<br />

= E((Z 1 − E(Z 1 |G) Z 2 |G)<br />

Exercice 1.3.9 : Le membre de droite, noté K est H mesurable. Il suffit de vérifier que<br />

pour tout H ∈ H, ce qui se réduit à<br />

ce qui est routine.<br />

E(X 1 H ) = E(K 1 H )<br />

E(X 1 C 1 A ) = E(K 1 C 1 A , et E(X 1 C 1 A c) = E(K 1 C 1 A c)<br />

Exercice 1.3.10 : Par linéarité, E(aX + b|Z) = aE(X|Z) + b. La tribu engendrée par Z est<br />

composée des sous-ensembles de Ω de la forme Z −1 (A) où A est un borélien de R et Z −1 (A) =<br />

{ω|Z(ω) ∈ A} = {ω|αY (ω) + b ∈ A} = {ω|Y (ω) ∈ B} où B est l’ensemble des nombres réels tels<br />

que x ∈ B ⇐⇒ αx + b ∈ A et est un borélien (La preuve parfaite exigerait la démonstration de ce<br />

point, qui tient au fait que B est l’image réciproque de A par l’application g : y → 1 y − b, soit<br />

α<br />

B = g −1 (A) et que g est continue, donc borélienne)<br />

Exercice 1.3.11 : La premiere question est directe en utilisant le résultat admis dans l’exercice<br />

1.1.6. En utilisant cette question, on a que E(X|G) 1 1≤τ est de la forme h(1 ∧ τ) 1 1≤τ = h(1) 1 1≤τ .<br />

En prenant l’espérance des deux membres, on identifie la constante h(1).<br />

Exercice 1.3.12 : Trivial.<br />

Exercice 1.3.13 : E(X|F) est G ∨ F mesurable. Soit F ∈ F et G ∈ G, on a alors, en utilisant<br />

l’indépendance<br />

E(X 1 F 1 G ) = E(X 1 F )E( 1 G )<br />

et<br />

E( 1 F 1 G E(X|F)) = E( 1 F E(X|F))E( 1 G )<br />

donc E(X 1 F 1 G ) = E( 1 F 1 G E(X|F)). Nous avons donc montré que E(X 1 H ) = E( 1 H E(X|F)) pour<br />

tout H ∈ G ∨ F de la forme H = F ∩ G. Ces ensembles engendrent la tribu G ∨ F et forment une<br />

famille stable par intersection. L’application qui à H associe E(X 1 H ) (resp. E( 1 H E(X|F))) définit


96 Rappels<br />

une mesure positive sur cette tribu, les deux mesures, après normalisation par E(X) sont des probabilités<br />

(c’est-à-dire l’application qui à H associe E(X 1 H )/E(X) est une probabilité) qui coincident<br />

sur les ensembles de la forme F ∩ G, donc, par théorème de classe monotone, elles coincident sur la<br />

tribu engendrée.<br />

Exercice 1.3.14 : Seule la réciproque demande une démonstration. Si E Q (X|G) = E P (X|G) alors<br />

E P (LX|G) = E P (X|G)E P (L|G) = E P (XE P (L|G)|G) D’où E P (X(L − E P (L|G))|G) = 0 pour tout X. Il<br />

en résulte (prendre X = L − E P (L|G)) que L − E P (L|G) = 0.<br />

∫<br />

Exercice 1.3.15 : Soit dQ = Ψ(X)dP. On a E P (φ(X)) = φ(x)f(x)dx, E Q (φ(X)) = E P (Ψ(X)φ(X)) =<br />

∫<br />

Ψ(x)φ(x)f(x)dx. Il suffit de choisir Ψ telle que Ψ(x)f(x) = g(x).<br />

1.4 Martingales<br />

Exercice 1.4.1 : Soit s ≥ t et X t = E(X|F t ). On a, en utilisant F t ⊂ F s<br />

E(X s |F t ) = E(X|F s |F t ) = E(X|F t ) = X t .<br />

Exercice 1.4.2 : Soit X t = M t − A t . On a, pour t ≥ s E(X t |F s ) = M s − E(A t |F s ) et comme<br />

A s ≤ A t ou −A t ≤ −A s , E(X t |F s ) ≤ M s − E(A s |F s ) = M s − A s = X s .<br />

Exercice 1.4.3 : C’est le lemme de Fatou: de l’inégalité<br />

E(M t∧τn |F s ) = M s∧τn<br />

on en déduit l’inégalité de surmartingale en utilisant que M s∧τn<br />

converge vers M s et que<br />

lim E(M t∧τn |F s ) ≤ E(lim M t∧τn |F s ) = E(M t |F s )<br />

(le lemme de Fatou assure que lim E(X n |G) ≤ E(lim X n |G) si les v.a. sont positives).<br />

Soit F ∈ F et G ∈ G E(X 1 F 1 G ) = E( 1 F 1 G E(X|F)) car E(X 1 F 1 G ) = E(X 1 F )E( 1 G ) et<br />

E( 1 F 1 G E(X|F)) = E( 1 F E(X|F))E( 1 G ).<br />

Exercice 1.4.4 : Par définition de la propriété de martingale, X t = E(X T |F t ). Cette propriété est<br />

à la base de tous les calculs d’évaluation en finance. En effet, ces formules reposent sur le fait qu’un<br />

certain processus est une martingale et donc que sa valeur à l’instant t est l’espérance conditionnelle<br />

de sa valeur terminale.<br />

Exercice 1.4.7 : Soit G = (G t , t ≥ 0) la filtration de M, c’est à dire G t = σ(M s , s ≤ t). Par<br />

définition, G t ⊂ F t (La martingale M est F adaptée, et la filtration de M est la plus petite filtration<br />

telle que la propriété d’adaptation soit vraie. On a alors E(M t |G s ) = E(M t |F s |G s ) = E(M s |G s ) = M s<br />

On peut aussi montrer que si que si M est une F-martingale et H t ⊂ F t , E(M t |H t ) est une H-<br />

martingale.<br />

Exercice 1.4.8 : Pour s < t, on a (τ ≤ s) ⊂ (τ < t), d’où<br />

Z t = E(τ ≤ t|F t ) ≥ E(τ ≤ s|F t )<br />

et le résultat suit en prenant l’espérance conditionnelle par rapport à F s .


Corrigés 97<br />

Exercice 1.4.9 : Si X est un PAI, et X t intégrable, pour t > s, les propriétés de l’espérance<br />

conditionelle permettent d’écrire<br />

E(X t − X s |F s ) = E(X t − X s )<br />

d’øù Y t<br />

def<br />

= X t − E(X t ) est une martingale. En utilisant que le PAI Y est une martingale<br />

E(Y 2<br />

t − Y 2<br />

s |F s ) = E((Y t − Y s ) 2 |F s ) = E((Y t − Y s ) 2 )<br />

et il est facile d’en déduire que X 2 t − E(X 2 t ) est une martingale. De la même façon<br />

E(Z t |F s ) = E(eλX t<br />

|F s<br />

E(e λXt )<br />

=<br />

1.5 Temps d’arrêt<br />

1<br />

E(e λXs ) eλX s<br />

= Z s<br />

= E(eλ(X t−X s ) |F s<br />

e λX s<br />

=<br />

E(e λXt )<br />

E(e λ(X t−X s ) )<br />

E(e λ(Xt−Xs) )E(e λXs ) eλX s<br />

Exercice 1.5.1 : La seule difficulté est la stabilité par passage au complémentaire. Si A ∈ F τ on<br />

écrit<br />

A c ∩ (τ ≤ t) = (τ ≤ t) − (A ∩ (τ ≤ t) ∈ F t<br />

Exercice 1.5.2 :Par hypothèse sur X, pour tout a, {X ≤ a} ∈ F T Par définition de la tribu F T ,<br />

{X ≤ a} ∩ {T ≤ t} ∈ F t . Par suite {X ≤ a} ∩ {T ≤ a} ∈ F a . Le premier membre de cette inclusion<br />

est {X ≤ a}.<br />

Exercice 1.5.4 : Il suffit d’écrire<br />

et donc, si A ∈ F S on a A ∩ (T ≤ t) ∈ F t .<br />

A ∩ (T ≤ t) = A ∩ (S ≤ t) ∩ (T ≤ t)<br />

Exercice 1.5.5: Il suffit d’écrire<br />

(S ≤ a) ∩ (S ≤ t) = (S ≤ (a ∧ t)) ∈ F a∧t<br />

Exercice 1.5.6: Montrons que S ≤ T ∈ F T . pour cela , on écrit<br />

(S ≤ T ) ∩ (T ≤ t) = (S ∧ t ≤ T ∧ t) ∩ (T ≤ t) ∩ (S ≤ t)<br />

et chacu des trois ensembles du membre de droite est dans F t (car S ∧ t est plus petit que t donc<br />

F t mesurable.<br />

On introduit R = S ∧ T . C’est un temps d’arrêt, F R mesurable avec F R ⊂ F T . Donc<br />

(R = T ) ∈ F T , et (R < T ) ∈ F T , par suite (S < T ) ∈ F T et S = T ∈ F T , ainsi que T ≤ S<br />

et T < S.<br />

Exercice 1.5.7 : Soit ω fixé. La fonction t → Z t (ω) vaut 1 pour t ∈ [S(ω), T (ω[ et 0 sinon. Elle<br />

est continue sur les trois intervalles [0, S(ω)[, ]S(ω), T (ω)[, ]T (ω), ∞[. Elle est continue à droite en<br />

S(ω) car si t → S(ω) ”par la droite” (soit t > S(ω)), Z t (ω) = 1 tend vers Z S(ω) (ω) = 1.<br />

Exercice 1.5.11 : Utiliser le théorème d’arrêt et le temps d’arrêt T y pour y > a. On a E(M Ty∧t) =<br />

a. On fait alors tendre t vers l’infini M Ty∧t converge vers y sur T y < ∞ et vers 0 sinon. (et est<br />

borné). D’où P(T y < ∞) = a/y. Il reste à remarquer que P(T y < ∞) = P(sup M t ≥ y).


98 Rappels<br />

1.6 Temps discret<br />

Exercice : L’égalité E(X n+p |F n ) = X n est vraie pour p = 1. En utilisant<br />

E(X n+p |F n ) = E(X n+p |F n+p−1 |F n ) = E(X n+p−1 |F n )<br />

on démontre le résultat par récurrence.<br />

Exercice : On obtient<br />

E((H · M) n |F n−1 ) =<br />

=<br />

=<br />

=<br />

n∑<br />

E(H k (M k − M k−1 ) |F n−1 )<br />

k=1<br />

n−1<br />

∑<br />

H k (M k − M k−1 ) + E(H n (M n − M n−1 ) |F n−1 )<br />

k=1<br />

n−1<br />

∑<br />

H k (M k − M k−1 ) + H n E(M n − M n−1 |F n−1 )<br />

k=1<br />

n−1<br />

∑<br />

H k (M k − M k−1 )<br />

k=1<br />

1.7 Algèbre béta-gamma<br />

1.8 Divers<br />

Exercice 1.8.1 :<br />

E(exp −λM τ ) = E(θ<br />

= E(θ<br />

= θE(<br />

∫ ∞<br />

0<br />

∫ ∞<br />

0<br />

∫ ∞<br />

0<br />

dte −θt e −λM t<br />

) = E(θ<br />

dt<br />

∫ ∞<br />

0<br />

due −λu λ<br />

∫ ∞<br />

0<br />

dte −θt λ<br />

due −θt λ 1 u>Mt e −λu ) = E(θ<br />

∫ Tu<br />

0<br />

dte −θt ) =<br />

∫ ∞<br />

0<br />

∫ ∞<br />

M<br />

∫<br />

t<br />

∞<br />

0<br />

e −λu du)<br />

du<br />

∫ ∞<br />

due −λu λ(1 − e −θT u<br />

)<br />

0<br />

dte −θt λ 1 Tu >te −λu )<br />

Exercice 1.8.2 : La partie directe est évidente, car e λX et e λY sont indépendantes. La réciproque<br />

n’est pas vraie, comme le montre le contre exemple suivant: Soit X, Y telles que P(X = i, Y = j) =<br />

a i,j où les a i,j sont donnés pas les coefficients de la matrice<br />

⎡<br />

⎤<br />

1/9 1/6 1/18<br />

⎣ 1/18 1/9 1/6 ⎦<br />

1/6 1/18 1/9<br />

La loi de X est égale à celle de Y et P(X = i) = 1/3 = P(Y = j). On vérifie que X et Y ne sont<br />

pas indépendantes (par exemple P(X = 1, Y = 3) ≠ 1/9.<br />

La loi de X + Y est égale à la loi de X 1 + Y 1 où X 1 a même loi que X, Y 1 a même loi que Y et X 1<br />

et Y 1 sont indépendantes.<br />

Cet exercice montre que la loi de la somme de deux v.a. dépend très fortement de la loi du<br />

COUPLE. Rappellons à ce sujet que si Z 1 et Z 2 sont gaussiennes, cela n’implique pas que Z 1 + Z 2<br />

est gaussienne: Le contre exemple suivant du à Nelson le prouve: Soit n la densité gaussienne réduite<br />

centrée et u une fonction impaire continue, nulle hors de [−1, +1] telle que |u(x)| < (2πe) −1/2 . On<br />

vérifie que f(x, y) = n(x)n(y) + u(x)u(y) est une densité, que les lois marginales sont normales, et


Corrigés 99<br />

la loi de la somme n’est pas normale.<br />

Par contre, si le vecteur (X, Y ) est gaussien, la somme X + Y est gaussienne. Pour que le vecteur<br />

(X, Y ) soit gaussien, il faut et il suffit que X soit gaussien et que la loi conditionnelle de Y à X soit<br />

gaussienne.


100 Brownien.


Chapter 2<br />

Mouvement Brownien, Corrigés<br />

2.1 Propriétés élémentaires<br />

Exercice 2.1.1 : Trivial. Ceci constitue une caractérisation du mouvement Brownien comme processus<br />

gaussien centré de covariance t ∧ s.<br />

Exercice 2.1.3 :<br />

1. On a E(B s B 2 t ) = E( E(B s B 2 t |F s )). La variable aléatoire B s est F s -mesurable, d’où E(B s B 2 t ) =<br />

E(B s E(B 2 t |F s )).<br />

On sait que B 2 t − t est une martingale, d’où, si s > t, E(B 2 t |F s ) = B 2 s − s + t. En utilisant que<br />

la v.a. B t est centrée et que E(B 3 t ) = 0, on obtient que<br />

E(B s B 2 t ) = E(B s (B 2 s − s + t)) = E(B 3 s) = 0.<br />

Si s > t, on a E(B s B 2 t ) = E( E(B s B 2 t |F t )) = E(B 2 t E(B s |F t )) = E(B 3 t ) = 0 où on a utilisé la<br />

propriété de martingale de B.<br />

2. Le MB est une martingale, donc E(B t |F s ) = B s pour t ≥ s et E(B t |F s ) = B s pour t < s car B t<br />

est F s -mesurable dans ce cas. Si s < t, E(B t |B s ) = E(B t −B s +B s |B s ) = E(B t −B s |B s )+B s =<br />

B s car B t − B s est indépendant de B s et centré. Si t < s, on s’inspire du pont Brownien (voir<br />

ex suivant) pour écrire E(B t |B s ) = E(B t − t s B s|B s ) + t s B s. La v.a. B t − t s B s est centrée<br />

et indépendante de B s : en effet, le couple (B t − t s B s, B s ) est un couple gaussien centré et sa<br />

covariance est nulle. On en déduit E(B t |B s ) = t s B s.<br />

On peut aussi utiliser les résultats sur le conditionnement d’un vecteur gaussien.<br />

3. La variable B t + B s est gaussienne (car B est un processus gaussien) centrée. On peut<br />

aussi écrire (B t + B s ) comme une somme de v.a. gaussiennes indépendantes: si t > s,<br />

B t + B s = B t − B s + 2B s . On en déduit que sa variance est t + 3s.<br />

4. Soit θ s une variable aléatoire bornée F s -mesurable. On a, pour s ≤ t<br />

E(θ s (B t − B s )) = E(E(θ s (B t − B s )|F s )) = E(θ s E((B t − B s )|F s )) = 0.<br />

De même<br />

E(θ s (B t − B s ) 2 ) = E(E(θ s (B t − B s ) 2 |F s )) = E(θ s E((B t − B s ) 2 |F s )) = (t − s)E(θ s ).<br />

101


102 Brownien.<br />

5. E( 1 Bt ≤a) = P(B t ≤ a) = P( √ tU ≤ a) = P(U ≤ a/ √ t) où U est une v.a. de loi N (0, 1).<br />

∫ a<br />

E(B t 1 Bt ≤a) = x√ 1 exp(− x2<br />

−∞ 2πt 2t ) dx = √ t<br />

se calcule facilement.<br />

∫ a/<br />

√<br />

t<br />

−∞<br />

y √ 1 exp(− y2<br />

) dy et la dernière intégrale<br />

2π 2<br />

Exercice 2.1.4 :<br />

Pour t > u, la propriété d’indépendance et de stationarité des accroissements conduit à<br />

f(B t ) = f(B t − B u + B u ) loi<br />

= f( ̂B t−u + B u )) loi<br />

= f( ̂B t−u + √ uG))<br />

où ̂B s = B s+u − B u est un MB indépendant de F u et G une v;a. gaussienne standard, indépendante<br />

de ̂B t−u .<br />

Exercice 2.1.5 :<br />

On peut calculer la densité de B Θ<br />

∫<br />

P(B Θ ∈ dx) = P(B t ∈ dx)θe −θt 1 t>0 dt =<br />

On trouve<br />

P(B Θ ∈ dx) =<br />

∫ ∞<br />

0<br />

√<br />

2θ<br />

2 e−|x|√ 2θ dx<br />

1<br />

√<br />

2πt<br />

exp(− x2<br />

2t )θe−θt dt<br />

mais ce calcul d’intégrale n’est pas trivial. Cependant, on peut y arriver sans utiliser un attirail lourd<br />

de changement de variables. On sait que la transformée de Laplace du temps d’atteinte du niveau a<br />

par un mouvement Brownien est e −|a|√2λ |a|<br />

et que la densité de ce temps d’atteinte est √ /2u 2πu<br />

3 e−a2 .<br />

Ce qui s’écrit<br />

−|a| √ 2λ = E(e −λTa ) =<br />

Par dérivation par rapport à λ, on obtient<br />

|a|<br />

√<br />

2λ<br />

e −|a|√ 2λ =<br />

∫ ∞<br />

e −λt<br />

0<br />

∫ ∞<br />

e −λt<br />

0<br />

|a|<br />

√ /2t 2πt<br />

3 e−a2 dt .<br />

|a|<br />

√ e −a2 /2t dt .<br />

2πt<br />

D’où<br />

Exercice 2.1.6 :<br />

λ<br />

∫ ∞<br />

0<br />

√<br />

e −λt 1<br />

2λ<br />

√ e −a2 /2t dt =<br />

2πt 2 e−|a|√ 2λ .<br />

1. Le processus M est F-mesurable. La v.a. M t est intégrable: E(|Bt 3 |) = Ct 3 2 où C est une<br />

∫ t ∫ t<br />

∫ t<br />

√<br />

2s<br />

constante et E| B s ds| ≤ E(|B s |) ds = ds < ∞.<br />

0<br />

0<br />

0 π<br />

En utilisant que, pour t > s, la v.a. B t − B s est indépendante de F s , on obtient<br />

E(Bt 3 |F s ) = E((B t − B s + B s ) 3 |F s ) = E((B t − B s ) 3 ) + 3B s E(B t − B s ) 2 + 3BsE(B 2 t − B s ) + Bs<br />

3<br />

= 3B s (t − s) + Bs 3 .<br />

D’autre part<br />

E(<br />

∫ t<br />

0<br />

B u du|F s ) =<br />

∫ t<br />

0<br />

E(B u |F s ) du =<br />

∫ s<br />

0<br />

E(B u |F s ) du+<br />

∫ t<br />

La propriété de martingale de M est alors facile à vérifier.<br />

s<br />

E(B u |F s ) du =<br />

∫ s<br />

0<br />

B u du+B s (t−s)


Corrigés 103<br />

2. Des calculs analogues aux précédents montrent que B 3 t − 3tB t est une martingale. Il suffit<br />

de montrer que pour s < t, E(B 3 t − 3tB t |F s ) = B 3 s − 3sB s . Or, en utilisant que B t − B s est<br />

indépendant de F s , on obtient E((B t − B s ) 3 |F s ) = E((B t − B s ) 3 ) = 0 car E(X 3 ) = 0 si X est<br />

une variable gaussienne centrée. Il reste à utiliser (a − b) 3 = a 3 − 3a 2 b + 3ab 2 − b 3 pour obtenir<br />

E(B t − B s ) 3 |F s ) = E(B 3 t |F s ) − 3B s E(B 2 t |F s ) + 3B 2 sE(B t |F s ) − B 3 s<br />

= E(B 3 t |F s ) − 3B s (B 2 s − s + t) + 3B 2 sB s − B 3 s<br />

Le processus B 3 t − 3tB t est une martingale, donc par différence tB t −<br />

B s ds est une martingale,<br />

égale (intégration par parties) à<br />

∫ t<br />

0<br />

sdB s .<br />

3. La v.a. X t est F t -mesurable et intégrable : en effet |X t | ≤ t|B t | +<br />

facile de vérifier que Z est intégrable (soit E(Z) < ∞, car E(|B t |) =<br />

Soit t > s.<br />

E(X t |F s ) = E(tB t −<br />

= tB s −<br />

= −<br />

∫ s<br />

0<br />

∫ t<br />

0<br />

∫ s<br />

0<br />

B u du|F s ) = tE(B t |F s ) −<br />

B u du −<br />

∫ t<br />

B u du + B s s = X s<br />

s<br />

B s du = tB s −<br />

∫ t<br />

0<br />

∫ s<br />

0<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

2t √<br />

2π<br />

).<br />

|B s |ds =: Z et il est<br />

E(B u |F s )du<br />

B u du − B s (t − s)<br />

le processus X est une martingale.<br />

On peut aussi appliquer la formule d’Itô et vérifier que dX t = tdB t . Comme f(s) = s est de<br />

carré intégrable (soit<br />

∫ t<br />

0<br />

s 2 ds < ∞) , l’intégrale de Wiener<br />

peut aussi remarquer que, par intégration par parties, X t =<br />

∫ t<br />

∫0<br />

t<br />

0<br />

sdB s est une martingale. On<br />

sdB s .<br />

4. On verra plus tard que U n’est pas une martingale. On peut remarquer que E(U t ) n’est sans<br />

doute pas constant.<br />

5. Soit t > s. E(Y t |F s ) = E(t 2 B t − 2<br />

2<br />

∫ s<br />

0<br />

B u du − 2<br />

∫ t<br />

s<br />

B s du = t 2 B s − 2<br />

∫ t<br />

∫<br />

0 s<br />

0<br />

B u du|F s ) = t 2 E(B t |F s ) − 2<br />

∫ t<br />

0<br />

E(B u |F s )du = t 2 B s −<br />

B u du − 2B s (t − s) = Y s + (t 2 − s 2 )B s − 2B s (t − s) Pour<br />

que Y soit une martingale, il faudrait que 0 = (t 2 − s 2 )B s − 2B s (t − s) = (t − s)B s (t + s − 2),<br />

ce qui n’est pas.<br />

Exercice 2.4.4 : En écrivant M t = −(Bt 2 −t)+(a+b)B t −ab et en utilisant que B et (Bt 2 −t, t ≥ 0)<br />

sont des martingales, le caractère martingale de M provient de la structure espace vectoriel de<br />

l’ensemble des martingales. Le processus M t∧Ta,b est une martingale de valeur initiale −ab, donc<br />

E[M t∧Ta,b ] = −ab. Le temps d’arrêt T a,b , majoré par T a est fini (cf. Exercice 2.4.1). Lorsque t<br />

converge vers l’infini M t∧Ta,b = (a − B t∧Ta,b )(B t∧Ta,b − b) + t ∧ T a,b converge vers (a − B Ta,b )(B Ta,b −<br />

b) + T a,b = T a,b , car (a − B Ta,b )(B Ta,b − b) = 0. La quantité (a − B t∧Ta,b )(B t∧Ta,b − b) est majorée<br />

par (a − b) 2 et la quantité t ∧ T a,b converge en croissant vers T a,b dont on ne sait pas qu’elle<br />

est intégrable. On peut conclure en appliquant le théorème de Lebesgue dominé pour la partie<br />

E(a − B t∧Ta,b )(B t∧Ta,b − b) et le théorème de convergence monotone pour la partie portant sur le<br />

temps d’arrêt. On en déduit E(T a,b ) = −ab.


104 Brownien.<br />

[∫<br />

Exercice 2.1.9 : Soit t ≥ s. E x (f(B t )g(B s )) = E x (f( ˆB t−s +B s )g(B s )) = E<br />

∫<br />

E(Ψ(X s )) avec Ψ(z) = g(z) f(y)p t−s (z, y)dy.<br />

∫<br />

D’où E x (f(B t )g(B s )) = p s (x, z)Ψ(z)dz.<br />

]<br />

dyf(y)p t−s (B s , y)g(B s ) =<br />

Autre mode de raisonnement: On applique la propriété de Markov.<br />

E x (f(B t )g(B s )) = E x (g(B s )E((f(B t )|F s )) = E x (g(B s )E((f(B t )|B s )) = E x (g(B s )ϕ(B s ))<br />

avec ϕ(z) = E z (f(B t−s )) = ∫ f(y)p t−s (z, y)dy.<br />

Exercice 2.1.11 :En utilisant l’exercice 1.2.1:<br />

∫ 1<br />

B s<br />

Exercice 2.1.13 : E|<br />

0<br />

E x (exp −λ(B t ) 2 1<br />

) = √ exp(−<br />

λx2<br />

1 + 2λt 1 + 2λt )<br />

s ds| ≤ ∫ 1<br />

Exercice 2.1.14 Utiliser que {B t < 0} ⊂ {τ ≤ t}.<br />

0<br />

E| B ∫ 1<br />

s<br />

s |ds = c 1<br />

√ ds < ∞. s<br />

0<br />

Exercice 2.1.16 La quantité e −λt u(B t ) est majorée par e −λt M, qui est intégrable sur [0, ∞], d’où<br />

l’existence de f et g.<br />

La suite d’égalités<br />

(∫ ∞<br />

) ( [∫ ∞<br />

])<br />

E x dte −λt u(B t ) = E x E x dte −λt u(B t ) |F τ<br />

τ<br />

τ<br />

[∫ ∞<br />

]<br />

[∫ ∞<br />

]<br />

E x dte −λt u(B t )|F τ = e −λτ E x dte −λt u(B t+τ − B τ + B τ )|F τ<br />

τ<br />

[∫ ∞<br />

]<br />

E x dte −λt u(B t+τ − B τ + B τ )|F τ<br />

0<br />

=<br />

∫ ∞<br />

E x (u(B t+τ − B τ + B τ )|F τ ) = E Bτ [u( ̂B t )]<br />

0<br />

0<br />

dte −λt E x (u(B t+τ − B τ + B τ )|F τ )<br />

où la dernière égalité résulte de la propriété forte de Markov, ̂B étant le Brownien (B t+τ −B τ , t ≥ 0),<br />

indépendant de F τ , conduisent à<br />

(∫ ∞<br />

)<br />

E x dte −λt u(B t ) = E x (e −λτ ψ(B τ ))<br />

avec ψ(x) =<br />

∫ ∞<br />

0<br />

τ<br />

dte −λt E x [u( ̂B t )] = f(x) ce qui est le résultat souhaité.<br />

Exercice 2.1.17 : Il suffit d’écrire<br />

∑ α<br />

k<br />

k! E(Bk t |F s ) = ∑ α k<br />

k! H k(B s , −(t − s))<br />

Exercice 2.1.19 :P(au moins un zéro dans ]s, t[|B s = a) = P(T a ≤ t − s). Il reste à calculer<br />

2<br />

∫ ∞<br />

0<br />

1<br />

da√ e −a2 /2s<br />

2πs<br />

On utilise Fubini et de la trigonométrie.<br />

∫ t−s<br />

0<br />

dx(2πx 3 ) −1/2 a exp(− a2<br />

2x )


Corrigés 105<br />

2.2 Processus Gaussien<br />

Exercice 2.2.1 : Le processus Y tel que Y t =<br />

∫ t<br />

0<br />

B u du est défini trajectoire par trajectoire, comme<br />

intégrale de Riemann d’une fonction continue. En particulier, on a dY t = B t dt. Nous vérifions que le<br />

processus Y est un processus gaussien. Tout d’abord, la v.a. Y t est une gaussienne comme limite de<br />

sommes de Riemann qui sont des gaussiennes car B est un processus gaussien. Le caractère gaussien<br />

du processus s’obtient par un raisonnement analogue.<br />

On a E(Y t ) =<br />

∫ t<br />

0<br />

E(B u ) du = 0.<br />

La covariance de Y est E(Y t Y s ) =<br />

∫ t<br />

On se place dans le cas s < t et il vient<br />

E(Y t Y s ) =<br />

=<br />

0<br />

∫ s<br />

0<br />

∫ s<br />

0<br />

du<br />

∫ t<br />

0<br />

∫ s<br />

0<br />

dvE(B u B v ). Il reste à intégrer<br />

[∫ s<br />

du<br />

0<br />

]<br />

dv(u ∧ v) .<br />

[∫ s<br />

]<br />

du (v ∧ u)dv +<br />

0<br />

[∫ u<br />

du vdv +<br />

Tous calculs faits, pour s < t: E(Y t Y s ) = s2<br />

(3t − s).<br />

6<br />

Exercice 2.2.2 La solution est<br />

0<br />

∫ s<br />

u<br />

∫ t<br />

s<br />

]<br />

udv +<br />

[∫ s<br />

]<br />

du (v ∧ u)dv<br />

0<br />

∫ t<br />

∫ t<br />

X t = e −at x + e −at e (a+b)t dB t<br />

0<br />

s<br />

[∫ s<br />

du<br />

0<br />

]<br />

vdv .<br />

On procède comme pour le processus d’OU. On peut aussi résoudre dX t = −aX t dt ce qui donne<br />

X t = Ce −at et appliquer une méthode de variation de la constante. On cherche un processus C tel<br />

que X t = C t e −at vérifie l’équation (cette méthode ne prend toute sa signification que si on a vu la<br />

formule d’intégration par parties)<br />

dX t = −aC t e −at dt + e −at dC t = −aX t dt + e bt dB t<br />

d’ou e −at dC t = e bt dB t soit dC t = e (b+a)t dB t . Il resterait à vérifier que l’on a bien trouvé une<br />

solution, car on ne dispose pas du lemme d’Itô et on ne sait pas justifier que la dérivée de C t e −at<br />

est −aC t e −at dt + e −at dC t .<br />

Exercice 2.2.4 :<br />

1. Le processus (Z t = B t − tB 1 , 0 ≤ t ≤ 1) est un processus gaussien car pour tout choix de<br />

(a i , t i )<br />

∑<br />

ai Z ti = ∑ a i B ti − ( ∑ a i t i )B 1<br />

est une v.a.r. gaussienne (B est un processus gaussien). De la même façon, on obtient que<br />

le vecteur (Z t , B 1 ) est gaussien. Ses deux composantes Z t et B 1 sont indépendantes car<br />

E(Z t B 1 ) = E(B t B 1 ) − tE(B 2 1) = 0. La covariance de Z est<br />

E(Z t Z s ) = E(B s B t ) − sE(B 1 B t ) − tE(B s B 1 ) + tsE(B 2 1) = (s ∧ t) − st.<br />

On appelle Z un pont Brownien.


106 Brownien.<br />

2. Le processus (Y t = Z 1−t , 0 ≤ t ≤ 1) est gaussien centré. Sa covariance est, pour s ≤ t,<br />

E(Y t Y s ) = (1 − t) ∧ (1 − s) − (1 − s)(1 − t) = (s ∧ t) − st = s(1 − t).<br />

3. Soit Y t = (1 − t)B t . Le processus Y est un processus gaussien car ∑ a<br />

1−t i Y ti = ∑ b i B si . On<br />

a E(Y t ) = 0 et pour s < t<br />

E(Y s Y t ) = (1 − t)(1 − s)E(B t B s<br />

s ) = (1 − t)(1 − s) = s(1 − t)<br />

1−t 1−s<br />

1 − s<br />

Exercice 2.2.5 : Par définition de l’intégrale de Riemann, toute combinaison linéaire ∑ i<br />

a i Z ti<br />

est limite dans L 2 de sommes du type ∑ j<br />

b j B tj , d’où le caractère gaussien. (Attention, il ne faut<br />

pas se contenter de dire que Z est la somme de deux processus gaussiens. La somme de deux v.a.<br />

gaussiennes n’est pas nécessairement une gaussienne. Cette propriété est vraie si les variables sont<br />

∫ t<br />

B n s<br />

indépendantes) On utilise ici que<br />

s ds = lim ∑ B ti<br />

(t i+1 − t i ).<br />

t i<br />

0<br />

Pour caractériser la loi du processus gaussien Z, il suffit de donner son espérance et sa covariance.<br />

Il est immédiat de montrer que E(Z t ) = 0. Il reste à calculer la covariance. Soit s < t.<br />

On utilise que E(<br />

E(Z s Z t ) = E(B s B t ) − E[<br />

∫ b<br />

a<br />

f(B u )du) =<br />

∫ t<br />

0<br />

∫ b<br />

a<br />

i=0<br />

∫<br />

B s<br />

u<br />

B s<br />

u du] − E[B B u<br />

t<br />

0<br />

u du] + E[ ∫ t<br />

0<br />

du B u<br />

u<br />

∫ s<br />

0<br />

dv B v<br />

v<br />

E[f(B u )]du et que E(B u B v ) = u ∧ v). Après quelques calculs<br />

d’intégration sur les intégrales doubles, il vient E(Z s Z t ) = s. Le processus Z est un processus<br />

gaussien d’espérance nulle et de covariance s ∧ t.<br />

Le processus Z est donc un mouvement Brownien. Cependant le processus Z n’est pas une (F t )<br />

martingale: pour s > t<br />

∫ s<br />

1<br />

E(Z s − Z t |F t ) =<br />

u B sdu ≠ 0<br />

On a ici l’exemple d’un processus qui est un MB (et une martingale par rapport à sa propre filtration),<br />

mais qui n’est pas un brownien, ni même une martingale par rapport à une filtration plus<br />

grosse. Le problème est connu sous le nom de grossissement de filtration. (Voir l’exercice sur l’agent<br />

initié, dans le chapitre compléments)<br />

Exercice 2.2.6 : B u − u t B t = (B u −<br />

et B t est orthogonal à B u − u t B t .<br />

t<br />

u<br />

t + h B t+h) − u t (B t −<br />

t<br />

t + h B t+h) montre la croissance de Γ t<br />

Exercice 2.2.7 : Rappel (cf. Exercice 1.6.2) : soit X est une v.a. de loi N(m; σ 2 ) et Y =<br />

exp{λ(X − m) − 1 2 λ2 σ 2 }. Soit dQ = Y dP. Sous Q, X est une v.a. de densité N(m + λσ 2 , σ 2 ).<br />

On montre alors que ˜B t = B t − mt a une loi gaussienne sous Q.<br />

On vérifie ensuite l’indépendance des accroissements: il s’agit de montrer que<br />

E Q (φ( ˜B t+s − ˜B s ) ψ( ˜B s )) = E Q (φ( ˜B t+s − ˜B s )) E Q (ψ( ˜B s ))<br />

pour toutes fonctions boréliennes bornées (φ, ψ). On a, par changement de probabilité, avec L t =<br />

exp(mB t − m2<br />

2 t) A = E Q (φ( ˜B t+s − ˜B s ) ψ( ˜B s )) = E P (L t+s φ( ˜B t+s − ˜B s ) ψ( ˜B s ).


Corrigés 107<br />

On a ˜B t+s − ˜B s = B t+s − B s − mt.<br />

En utilisant l’indépendance de B t+s − B s et de B s (sous P) et la forme de L, on obtient<br />

A = E P [exp(m(B t+s − B s ) − 1 2 m2 t)) φ(B t+s − B s − mt)] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )].<br />

Sous P, B t+s − B s et B t ont même loi, d’où<br />

A = E P [exp(mB t − 1 2 m2 t)φ(B t − mt)] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )]<br />

= E P [exp(mB t − 1 2 m2 t)φ( ˜B t )] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )]<br />

ce qui conduit à<br />

A = E Q (φ( ˜B t )) E Q (ψ( ˜B s )) .<br />

Exercice 2.2.8 :<br />

sup<br />

t<br />

(|B t | − µt p/2 )| = sup(|B λ 2 s)| − µ(λ 2 s) p/2 ) loi<br />

= sup(λ|B s | − µ(λ 2 s) p/2 ) = λ sup(|B s | − s p/2 )<br />

s<br />

E(|B T |) ≤ E((|B T | − µT p/2 )) + µE(T p/2 ) ≤ E(sup t (|B t | − µt p/2 )) + µE(T p/2 )<br />

s<br />

s<br />

2.3 Multidimensionnel<br />

1<br />

Exercice 2.3.2 : Si les coefficients σ i sont des constantes, il suffit de définir B 3 (t) = √ (σ<br />

σ 2 1 B 1 (t)+<br />

1 +σ2<br />

2<br />

σ 2 B 2 (t)). Ce processus est un mouvement Brownien car c’est une martingale et (B3(t)−t; 2 t ≥ 0) est<br />

1<br />

une martingale. Si les σ sont déterministes, on pose dB 3 = √<br />

σ 2<br />

1 (t)+σ2 2(t)(σ 1(t)dB 1 (t) + σ 2 (t)dB 2 (t)).<br />

Le processus<br />

est une martingale<br />

B (3) (t) =<br />

1<br />

√<br />

1 − ρ<br />

2 (B (2)(t) − ρB (1) (t))<br />

B 2 (3) (t) = 1<br />

1 − ρ 2 (B2 (2) + ρ2 B 2 (1) (t) − 2ρB (1)(t)B (2) (t)<br />

Par définition de la corrélation, B (1) (t)B (2) (t) − ρt est une martingale. Il s’en suit que B 2 (3) (t) − t<br />

est une martingale, donc B (3) est un MB. Il reste à montrer que B (3) est indépendant de B (1) .<br />

Remarque: On peut utiliser le théorème de RP pour établir que si le coefficient de corrélation de<br />

deux MB est nul, ces processus sont indépendants.<br />

2.4 Temps d’atteinte<br />

Exercice 2.4.1 : Soit λ > 0. Le processus M défini par M t = exp(λB t − 1 2 λ2 t) est une martingale.<br />

On applique le théorème d’arrêt de Doob. Si a > 0, la martingale M t∧Ta est uniformément intégrable,<br />

car majorée par exp(λa). Donc E(exp(λB Ta − 1 2 λ2 T a )) = 1, soit E(exp(λa − 1 2 λ2 T a ) 1 Ta


108 Brownien.<br />

Exercice 2.4.2 :<br />

Bt∧n 2 − (t ∧ n).<br />

Appliquer le théorème d’arrêt de Doob à la martingale B et au processus<br />

Exercice : On note S t = max s≤t B s . En remarquant que S T = max s≤t B s ∨ max t T |F t ) = P(S T < a|F t ) = 1 St


Corrigés 109<br />

et on passe à la limite E(M T ∗ a ∧n) = a.<br />

Exercice 2.4.9 : Le processus exp[−2µX t /σ 2 ] est une martingale, en effet il est facile de mettre<br />

ce processus sous la forme exp(λB t − 1 2 λ2 t). On en déduit que h(X t ) est une martingale et que<br />

E(h(X τ∧t) ) = h(0). L’inégalité |h(X τ∧t) )| ≤ sup x∈[−B,A] (h(x)) permet d’appliquer le théorème de<br />

convergence dominée.<br />

Exercice 2.4.15 : On sait que (Lamberton et Lapeyre 2nd edition, page 96, Musiela et Rutkowski<br />

p. 49, Voir aussi Karatzas et Shreve, page 95) si M t = sup s≤t B s<br />

P(B t ≤ x , M t ≤ y) = P(B t ≤ x) − P(B t ≥ 2y − x)<br />

pour<br />

0 ≤ y, x ≤ y. On en déduit, par dérivation<br />

et<br />

P(B t ∈ dx , M t ≤ y) = √ 1 exp(− x2<br />

2πt 2t ) − √ 1 (2y − x)2<br />

exp(− )<br />

2πt 2t<br />

P(M t ≤ y|B t = x) = P(B t ∈ dx , M t ≤ y)<br />

P(B t ∈ dx)<br />

Si le MB est issu de x, on utilise<br />

(2y − x)2<br />

= 1 − exp(− + x2<br />

2t 2t )<br />

P(sup B s + x ≤ y|B t + x = z) = P(M t ≤ y − x|B t = z − x)<br />

s≤t<br />

2.5 Scaling<br />

Exercice 2.5.2 : La partie a) résulte de<br />

La partie c) résulte de<br />

et<br />

(T 1 > t) = (1 > S t ) loi<br />

= (1 > √ tS 1 ) = ( 1<br />

S 2 1<br />

d ∆a = inf{t ≥ ∆ a : B t = 0} = inf{t : 1 a A t ≥ 1,<br />

loi<br />

= inf{t : A t/a ≥ 1, B t/a = 0} = ad ∆1<br />

> t)<br />

1<br />

√ a<br />

B t = 0}<br />

(A g ≤ a) = (g ≤ ∆ 1 ) = (1 ≤ d ∆a<br />

loi<br />

= (1 ≤ ad ∆1 ) = ( 1<br />

d ∆1<br />

≤ a)<br />

La partie d) est facile. Dans ce cas ∆ 1<br />

loi<br />

= T ∗ 1 = inf{t : sup s≤t |B s | ≥ 1}.<br />

Exercice 2.5.3 :<br />

P( sup |B t | ≤ x) = P( sup |B t | ≤ 1) = P(M 1 ≥ 1<br />

1≤t≤1<br />

1≤t≤(1/x 2 )<br />

x 2 )<br />

2.6 Compléments<br />

Exercice 2.6.1 : On calcule E((B t − ̂B t ) 2 )<br />

E((B t − ̂B t ) 2 ) = E(B 2 t ) + E( ̂B 2 t ) − 2E(B t ̂Bt )<br />

= 2t − 2E(B t ̂Bt )


110 Brownien.<br />

Il reste à calculer<br />

E(B t ̂Bt ) = E[ E ( (B t ̂Bt |G t<br />

)<br />

]) = E( ̂B2 t ) = t<br />

d’où E((B t − ̂B t ) 2 ) = 0; il s’en suit l‘égalité souhaitée.<br />

Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u ≤ s, β (s)<br />

u<br />

d’écrire β (s)<br />

u<br />

= B u − u t B t + u s (s t B t − B s ) = β (t)<br />

u<br />

− u s β(t) s<br />

def<br />

= B u − u s B s ∈ Π t . Il suffit<br />

. Le processus (β u<br />

(t) ; u ≤ t) est indépendant<br />

de la variable u t B t (calculer les covariances), et B u = (β (s) + u t B t est la décomposition orthogonale<br />

de B, la projection de F t est donc<br />

∫ t<br />

0<br />

u<br />

f(s)d s β s<br />

(t) . Le processus ̂B est un processus gaussien centré<br />

de covariance t ∧ s, c’est un MB (On peut aussi le voir en utilisant des résultats d’unicité en loi de<br />

solution d’équa diff) Il est facile de montrer que<br />

∫ s<br />

̂B s = β s<br />

(t) du<br />

−<br />

0 u β(t) u<br />

et que, en particulier<br />

∫ t<br />

du<br />

̂B t = −<br />

0<br />

u β(t) u<br />

∫ t<br />

D’où l’égalité des tribus. Il en résulte, en notant ¯F (t) =<br />

par partie que<br />

∫ t<br />

0<br />

f(s)dB s =<br />

∫ t<br />

0<br />

f(s)d ̂B s − B ∫ t<br />

t<br />

t ¯F (t) +<br />

0<br />

0<br />

f(s)ds et en utilisant une intégration<br />

¯F (s)<br />

s d ̂B s .<br />

Exercice 2.6.7 : On utilisera le théorème de représentation prévisible pour représenter B (1)<br />

t , B (2)<br />

t<br />

en terme de B (3) . Si l’égalité était possible, on aurait B (i)<br />

E(B (1)<br />

t B (2)<br />

t ) = E(<br />

0<br />

∫ t<br />

0<br />

Φ (1)<br />

s Φ (2)<br />

s ds) = 0.<br />

B s − X s<br />

1 − s ds = B t +<br />

∫ t ∫<br />

B t<br />

s<br />

0 1 − s ds − 0<br />

∫ t<br />

∫ t<br />

∫ t<br />

t =<br />

0<br />

Φ (i)<br />

s dB s avec<br />

∫ t<br />

0<br />

E[Φ (i)<br />

s ] 2 ds = t et<br />

Exercice 2.6.8 : Les premiéres questions se traitaient en utilisant des formules d’intégration par<br />

parties, ou la formule d’Itô. A la main, on calcule<br />

∫ t<br />

∫ s<br />

B u<br />

B t +<br />

ds<br />

Par différentiation<br />

= B t −<br />

=<br />

∫ t<br />

0<br />

= (1 − t)<br />

0<br />

t − u<br />

1 − u dB u +<br />

(1 − t − u<br />

1 − u )dB u +<br />

∫ t<br />

∫<br />

B t<br />

t<br />

dX t = (1 − t)<br />

(1 − t) 2 dt − dt<br />

=<br />

B t<br />

1 − t dt + dB t − 1<br />

1 − t X tdt<br />

0<br />

0<br />

∫ t<br />

0<br />

0<br />

(1 − u) 2 du − ∫ t<br />

B s<br />

1 − s (1 − t − s<br />

1 − s )ds<br />

B s<br />

1<br />

1 − u dB u + (1 − t)<br />

0<br />

1 − s (1 − t − s<br />

1 − s )ds<br />

∫ t<br />

0<br />

B s<br />

(1 − s) 2 ds<br />

0<br />

∫ s<br />

ds<br />

0<br />

∫<br />

B s<br />

(1 − s) 2 ds + (1 − t) 1<br />

t<br />

1 − t dB t − dt<br />

0<br />

1<br />

1 − u dB u<br />

1<br />

1 − s dB s<br />

Le calcul de la covariance du processus Gaussien X s’obtenait en appliquant plusieurs fois le<br />

résultat d’isométrie ∫ t ∫ s<br />

∫ t∧s<br />

E( f(u)dB u g(u)dB u ) = f(u)g(u)du<br />

0<br />

0<br />

0


2009-10 111<br />

et en remarquant que les v.a.<br />

s < t<br />

∫ t<br />

f(u)dB u et<br />

∫ s<br />

0<br />

0<br />

E(X s X t ) = s + 2s(1 − t) + (2 − s − t) ln(1 − s)<br />

g(v)dB v sont indépendantes. On trouvait pour<br />

2.7 Finance<br />

Exercice 2.7.1 : On calcule séparément E(S t 1 St


112 Itô. Corrigés


Chapter 3<br />

Intégrale d’Itô, Corrigés<br />

3.1 Intégrale de Wiener<br />

Exercice 3.1.1 : On a tB t = ∫ t<br />

0 sdB s + ∫ t<br />

0 B sds (en utilisant la formule d’intégration par parties)<br />

et E(Y t ) = 0, E(Y s Y t ) = ts(t ∧ s). Le processus Y est un processus gaussien (c’était d’ailleurs<br />

évident par définition de Y ). On peut aussi utiliser la formule d’Itô (voir plus loin) qui conduit à<br />

dY t = tdB t + B t dt.<br />

Exercice 3.1.2 : La v.a. X t =<br />

∫ t<br />

0<br />

(sin s) dB s est définie, car ∫ t<br />

0 sin2 s ds < ∞, pour tout t. Le<br />

processus X est gaussien d’espérance nulle et de covariance E(X s X t ) = ∫ s∧t<br />

sin 2 u du. Il vient alors<br />

0<br />

E(X t X s ) = s∧t<br />

2 − 1 4<br />

sin 2(s ∧ t).<br />

Le processus X est une martingale, d’où, pour s < t, on a E(X t |F s ) = X s . La dernière égalité<br />

résulte d’une IP.<br />

Exercice 3.1.4 : La v.a. Y t =<br />

∫ t<br />

0<br />

(tan s) dB s est définie, car ∫ t<br />

0 tan2 s ds < ∞ pour t < π 2 . Le<br />

processus Y est gaussien, centré de covariance E(Y t Y s ) = ∫ s∧t<br />

0<br />

tan 2 u du = tan(s ∧ t) − (s ∧ t).<br />

Le processus Y est une martingale.<br />

Exercice 3.1.5 : Soit<br />

∫ t<br />

dB s<br />

X t = (1 − t)<br />

0 1 − s ; 0 ≤ t < 1<br />

En appliquant le Lemme d’Itô (ou une I.P.) à f(t, y) = (1 − t)y et Y t =<br />

il vient dX t = (−dt)<br />

∫ t<br />

0<br />

dB s<br />

1 − s + (1 − t) dB t<br />

1 − t , d’où<br />

{<br />

X t<br />

dX t =<br />

t − 1 dt + dB t ; 0 ≤ t < 1<br />

X 0 = 0<br />

∫ t<br />

0<br />

dB s<br />

1 − s (donc dY t = dB t<br />

1 − t )<br />

dB s<br />

On admet l’unicité de la solution. Le processus X est gaussien car<br />

0 1 − s<br />

Wiener, et on a E(X t ) = 0 et la covariance de X est donnée par, pour s < t<br />

∫ t<br />

est une intégrale de<br />

∫ t<br />

dB u<br />

E(X s X t ) = (1 − t)(1 − s)E(<br />

0 1 − u<br />

∫ s<br />

0<br />

∫<br />

dB s<br />

u<br />

1 − u ) = (1 − t)(1 − s) du<br />

= (1 − t)s<br />

(1 − u)<br />

2<br />

113<br />

0


114 Itô. Corrigés<br />

En particulier E(Xt 2 ) = t(1 − t) d’où X t tend vers 0 quand t tend vers 1. Le processus X est un<br />

pont Brownien.<br />

Exercice 3.1.6 : Formule évidente en écrivant B t =<br />

∫ t2<br />

Exercice 3.1.7 : E( (B t − B t1 ) dt|F t1 ) =<br />

t 1<br />

parties<br />

∫ t2<br />

t 1<br />

cherchée est<br />

B t − B t1 ) dt = t 2 (B t2 − B t1 ) −<br />

∫ t2<br />

t 1<br />

(t 2 − t) 2 dt.<br />

∫ t2<br />

∫ t2<br />

t 1<br />

t 1<br />

tdB t =<br />

∫ t<br />

0<br />

dB s et en utilisant l’isométrie.<br />

E((B t − B t1 )|F t1 ) , dt = 0. Par intégration par<br />

∫ t2<br />

t 1<br />

(t 2 − t)dB t On en déduit que la variance<br />

3.2 Formule d’Itô<br />

Exercice 3.2.1 : 1. Soit X t = Bt 2 . On a, en posant f(x) = x 2<br />

dX t = f ′ (B t )dB t + 1 2 f ′′ (B t ) dt = 2B t dB t + dt .<br />

2. Soit X t = t + exp B t . En posant f(t, x) = t + e x , on a<br />

dX t = dt + exp B t dB t + 1 2 exp B tdt .<br />

3. Soit X t = B 3 t − 3tB t . En posant f(t, x) = x 3 − 3tx on obtient<br />

dX t = 3B 2 t dB t − 3tdB t − 3B t dt + 1 2 3 2B tdB t dB t = (3B 2 t − 3t)dB t .<br />

On retrouve le caractère martingale de X établi au chapitre précédent.<br />

Exercice 3.2.2 : Soit X t = exp ∫ t<br />

0 a(s) ds et Y t = Y 0 + ∫ t<br />

0 [b(s) exp(− ∫ s<br />

0 a(u)du) dB s, où a et b sont<br />

des fonctions déterministes. En utilisant la notation différentielle dX t = a(t) ( exp ∫ t<br />

0 a(s) ds) dt et<br />

dY t = b(t) exp(− ∫ t<br />

0 a(u)du) dB t, d’où dX t dY ˙ t = 0. On pose Z t = X t Y t . Par la formule d’Itô, on a<br />

dZ t = X t dY t + Y t dX t = b(t) dB t + a(t)X t Y t dt<br />

soit dZ t = a(t)Z t dt + b(t)dB t . Le processus (Z t exp − ∫ t<br />

0 a(s) ds = Y t; t ≥ 0) est une martingale<br />

locale.<br />

Exercice 3.2.3 : La formule d’Itô donne (nous omettons les indices t<br />

dY = X 1 X 2 dt + t(X 1 dX 2 + X 2 dX 1 + d〈X 1 , X 2 〉<br />

= X 1 X 2 dt + t(X 2 f(t) + σ 1 σ 2 )dt + t(X 1 σ 2 + X 2 σ 1 )dB<br />

Exercice 3.1.3 : La formule d’Itô appliquée à sin B t donne<br />

sin B t = 0 +<br />

∫ t<br />

0<br />

cos B s dB s − 1 2<br />

∫ t<br />

0<br />

sin B s ds,<br />

d’où Y t = ∫ t<br />

0 cos B s dB s . C’est une martingale, car E( ∫ t<br />

0 cos2 B s ds) < ∞, pour tout t. On a<br />

E(Y t ) = 0 et var Y t = E( ∫ t<br />

0 cos2 B s ds).


2009-10 115<br />

Exercice 3.2.4 : En appliquant la formule d’Itô, on obtient<br />

d(X 2 t + Y 2<br />

t ) = 2X t dX t + 2Y t dY t + d〈X〉 t + d〈Y 〉 t = 2X t Y t dB t − 2x t Y t dB t + (X 2 t + Y 2<br />

t )dt<br />

En posant Z t = X 2 t +Y 2<br />

t on montre que le processus Z vérifie dZ t = Z t dt ce qui s’intègre en Z t = ze t .<br />

Exercice 3.2.5 : Il est évident que dZ t = Y t dB t . On calcule facilement E(Y 2<br />

s ) =<br />

L’intégrale stochastique est une martingale car<br />

et E(Z t ) = 0, E(Z 2 t ) = E( ∫ t<br />

0 Y 2<br />

s ds).<br />

E(<br />

∫ t<br />

0<br />

Y 2<br />

s ds) =<br />

∫ t<br />

0<br />

E(Y 2<br />

s )ds < ∞<br />

∫ t<br />

0<br />

e 2s ds.<br />

Exercice 3.2.6 : Soit dX t = a(K t − X t ) dt + σdB t . On voudrait que X t = f(K t ). La formule d’Itô<br />

appliquée à f(K t ) donne<br />

soit<br />

Si on identifie les deux drifts, on obtient<br />

dX t = f ′ (X t )dK t + 1 2 f ′′ (K t )σ 2 dt<br />

dX t = (f ′ (K t )b + 1 2 f ′′ (K t )σ 2 ) dt + f ′ (K t )σdB t<br />

a(K t − f(K t )) = f ′ (K t )b + 1 2 f ′′ (K t )σ 2<br />

d’où f est solution de<br />

1<br />

2 σ2 f ′′ (x) + bf ′ (x) + af(x) = ax .<br />

On résout cette EDO et on montre que f est de la forme<br />

avec λ 1 et λ 2 solutions de 1 2 σ2 λ 2 + bλ + a = 0.<br />

αe λ1x + βe λ2x + (x − b a )<br />

Exercice 3.2.7 : Soit X t = ∫ t<br />

0 σ(s) dB ∫<br />

s − 1 t<br />

2 0 σ2 (s) ds. On a<br />

dX t = σ(t) dB t − 1 2 σ2 (t) dt.<br />

Soit Y t = exp X t . On applique la formule d’Itô avec f(x) = e x .<br />

dY t = exp(X t ) dX t + 1 2 exp(X t) σ 2 (t) dt<br />

= Y t (− 1 2 σ2 (t) dt + σ(t)dB t ) + 1 2 Y t σ 2 (t) dt<br />

= Y t σ(t) dB t .<br />

Le processus Y est une martingale locale. C’est une martingale si<br />

(∫ t<br />

)<br />

E Yt 2 σ 2 (t) dt < ∞ .<br />

0<br />

Ce critère n’est pas très bon, nous en verrons d’autres par la suite.<br />

Si σ est une constante, Y est un brownien géométrique avec drift nul. En particulier,<br />

Y t = exp(σB t − σ2<br />

2 t)


116 Itô. Corrigés<br />

est une (vraie) martingale:<br />

Vérifions à titre d’exercice dans ce cas les conditions d’intégrabilité:<br />

d’où<br />

Y t = exp X t = exp(σB t − 1 2 σ2 t)<br />

E(|Y t |) = E(Y t ) = E(exp(σB t − σ2<br />

2 t)) = 1 √<br />

2πt<br />

∫ ∞<br />

−∞<br />

E(Y 2<br />

t ) = E(exp(2σB t − σ 2 t)) = exp(σ 2 t) .<br />

En particulier, si σ = 1 le processus exp( B t − t 2<br />

) est une martingale.<br />

Soit Z t = 1 Y t<br />

. Pour calculer dZ t , on peut utiliser la formule d’Itô<br />

ce qui va s’écrire<br />

dZ t = − Y tσ(t)<br />

Y 2<br />

t<br />

dB t + 1 2<br />

Z t = Z 0 exp(−<br />

e σx− 1 2 σ2t e − x2<br />

2t dx = 1<br />

2Yt 2 σ 2 (t)<br />

Yt<br />

3 dt = Z t (−σ(t)dB t + σ 2 (t)dt)<br />

∫ t<br />

0<br />

σ(s)dB s + 1 2<br />

∫ t<br />

0<br />

σ 2 (s) ds)<br />

formule que l’on peut obtenir directement en inversant l’exponentielle.<br />

Exercice 3.2.8 :<br />

Par simple application de la formule d’Itô<br />

Exercice 3.2.9 : Dans le cas h = 0, on a<br />

dZ t = (aZ t + b)dt + cZ t dB t<br />

S t = S 0 e (r−q)t e σB t− 1 2 σ2t = e (r−q)t M t .<br />

Donc M t = M 0 e σBt− 1 2 σ2t est une martingale positive, d’espérance 1 et on peut l’utiliser comme<br />

densité de RN. Sous Q, le processus ̂B t = B t − σt est un MB.<br />

Dans le cas général<br />

S t = S 0 e (r−q)t e ∫ t<br />

0 hsds e σB t− 1 2 σ2t .<br />

On en déduit e − ∫ t<br />

0 hsds = 1 S t<br />

M t e −(r−q)t . Donc<br />

e −rT E(e − ∫ T<br />

0 h(Ss)ds Ψ(S T )) = e −rT E( 1<br />

S T<br />

M T e −(r−q)T Ψ(S T )) = e −qT E Q ( 1<br />

S T<br />

Ψ(S T )) .<br />

On se place dans le cas h t = S −p<br />

t<br />

et on pose Z t = S p t . Le lemme d’Itô conduit à<br />

dZ t = pS p t σdB t + (r − q)pS p t dt + pdt + 1 p(p − 1)Sp−2 t St 2 σ 2 dt<br />

2<br />

= pZ t σdB t +<br />

([(r − q)p + 1 ] )<br />

2 p(p − 1)σ2 Z t + p dt<br />

= (aZ t + b)dt + cZ t dB t<br />

Le processus f(Z t ) est une martingale locale si<br />

f ′ (z)(az + b) + 1 2 f ′′ (z)c 2 z 2 = 0 .<br />

On pose g = f ′ . L’équation<br />

g(z)(az + b) + 1 2 g′ c 2 z 2 = 0


2009-10 117<br />

a pour solution g(z) = α exp( 2b<br />

c 2 z )z−1/c2 . Les fonctions f recherchées (ce que l’on appelle les fonctions<br />

d’échelle) sont les primitives de g.<br />

Exercice 3.2.10 : Le processus Z est une martingale locale car dZ t = cX t Z t dB t . On a<br />

soit U t = U 0 + 2<br />

∫ t<br />

0<br />

X s dB s +<br />

dU t = 2X t dX t + d〈X〉 t<br />

= 2X t (a − bX t )dt + 2X t dB t + dt<br />

∫ t<br />

0<br />

1<br />

2 (X2 t − X 2 0 − t) =<br />

(2X s (a − bX s ) + 1)ds On en déduit<br />

∫ t<br />

0<br />

X s dB s + a<br />

∫ t<br />

0<br />

X s ds − b<br />

∫ t<br />

0<br />

X 2 s ds<br />

Exercice 3.2.11 : Pour montrer que Z est une martingale locale, on calcule dZ et on vérifie que<br />

1<br />

son drift est nul. On a Z t = f(t, B t ) avec f(t, x) = √ exp −<br />

x2<br />

. Il en résulte que<br />

1 − t 2(1 − t)<br />

B t<br />

dZ t = −<br />

(1 − t) exp − B2 t<br />

3/2 2(1 − t) dB t<br />

Le processus (Z t , t < 1) est une martingale locale. C’est une vraie martingale si pour tout T ≤ 1<br />

∫ T<br />

E[<br />

0<br />

∫ T<br />

Le terme de gauche est majoré par E[<br />

0<br />

B 2 t<br />

(1 − t) 3 exp − B2 t<br />

(1 − t) dt] < ∞<br />

Bt<br />

2 ∫ T<br />

(1 − t) 3 dt] =<br />

0<br />

t<br />

dt < ∞.<br />

(1 − t)<br />

3<br />

Exercice 3.2.12 : Soit Z t = (L t ) a exp(−Γ(a)t). Alors, en utilisant que<br />

implique<br />

on obtient<br />

L t = e θB t− 1 2 θ2 t<br />

L a t = e aφBt− 1 2 aφ2t = e aφBt− 1 2 a2 φ 2t e 1 2 φ2 (a 2 −a)<br />

dZ t = dM t + e −Γ(a)t (L t ) a (−Γ(a) + a(a − 1)φ)<br />

où M est une martingale.<br />

Le processus Z est une martingale pour Γ(a) = a(a − 1)φ. Exercice 3.2.13 : Il est facile d’établir<br />

que<br />

dY t = −Y t [(2X t a t + σ 2 t (1 + 2X 2 t ))dt + 2X t σ t dB t ]<br />

et, en utilisant que X t = 0 et Y t = 1 on obtient 0 = −σ 2 t dt.<br />

Exercice 3.2.21 : La fonction d’échelle de X t = exp(B t + νt) est s(x) = x −2ν .<br />

croissant de s(X) est A t =<br />

∫ t<br />

0<br />

(s ′ σ) 2 (X s )ds.<br />

Le processus<br />

Exercice 3.2.25 : On obtient facilement<br />

E(f(B 1 )|F t ) = E(f(B 1 − B t + B t )|F t ) = E(f( ̂B 1−t + B t )|F t ) = ψ(t, B t )<br />

avec<br />

ψ(t, x) = E(f(x + B 1−t )) . (3.1)


118 Itô. Corrigés<br />

D autre part, la formule d’Itô et la propriété de martingale de ψ(t, B t ) conduisent à ψ(t, B t ) =<br />

E(f(B 1 )) +<br />

∫ t<br />

0<br />

∂ x ψ(s, B s )dB s . On écrit (grace à 3.1)<br />

∂ x ψ(t, x) = E(f ′ (x + B 1−t ))<br />

et un raisonnement analogue au précédent montre que si on pose ϕ(t, x) = E(f ′ (x + B 1−t )) on<br />

obtient<br />

ϕ(t, B t ) = E(f ′ (B 1 )|F t )<br />

3.3 Cas multidimensionnel<br />

Exercice 3.3.1 : De façon évidente, on a<br />

dS 3 (t) = 1 2 [dS 1(t) + dS 2 (t)] = 1 2 [r(S 1(t) + S 2 (t)] dt + σ 1 S 1 (t)dB 1 (t) + σ 2 S 2 (t)dB 2 (t) .<br />

On peut remarquer que<br />

√<br />

σ 2 1 S2 1 (t) + σ2 2 S2 2 (t) dB3 (t) = (σ 1 S 1 (t)dB 1 (t) + σ 2 S 2 (t)dB 2 (t))<br />

définit un Brownien B 3 qui permet d’écrire<br />

√<br />

σ 2<br />

1 S 2 1 (t)+σ2 2 S2 2 (t)<br />

où σ(t) =<br />

S 1(t)+S 2(t)<br />

est un processus.<br />

En utilisant le lemme d’Itô, on obtient<br />

ce que l’on peut écrire<br />

dS 3 (t) = r S 3 (t)dt + σ(t)S 3 (t)dB 3 t<br />

dS 4 (t) = S 4 (t)(r dt − 1 8 (σ2 1 + σ 2 2) dt + σ 1<br />

2 dB 1(t) + σ 2<br />

2 dB 2(t)) ,<br />

dS 4 (t) = S 4 (t)(r dt − 1 8 (σ2 1 + σ 2 2) dt + σdB 4 (t)) .<br />

Pour vérifier que B 3 et B 4 sont des browniens, on peut procéder de différentes façons (voir aussi les<br />

exercices sur le Brownien)<br />

a. B i (t+s)−B i (t) a même loi que B i (s), cette loi est N (0, s) et les accroissements sont indépendants<br />

b. B i et (Bi 2(t) − t, t ≥ 0) sont des martingales et B i est un processus continu<br />

c. pour tout λ, le processus exp(λB i (t) − λ2<br />

2<br />

t) est une martingale.<br />

3.4 Compléments<br />

Exercice 3.4.1 : En utilisant le théorème de Fubini pour les intégrales doubles<br />

F (x) =<br />

∫ x<br />

dz<br />

∫ z<br />

dyf(y) =<br />

∫ x<br />

dyf(y)<br />

∫ x<br />

dz =<br />

∫ x<br />

−∞ −∞<br />

−∞<br />

y<br />

−∞<br />

Par dérivation par rapport à la borne supérieure<br />

F ′ (x) =<br />

∫ x<br />

dyf(y) =<br />

∫ ∞<br />

−∞<br />

−∞<br />

f(y) 1 x>y dy<br />

dyf(y)(x − y) +


2009-10 119<br />

Le lemme d’Itô conduit alors au résultat. La formule finale s’écrit aussi<br />

∫ t<br />

0<br />

f(B s )ds = 2<br />

∫ ∞<br />

−∞<br />

L B (t, y)f(y)dy<br />

(<br />

∫ t<br />

)<br />

avec L B (t, y) = (B t − y) + − (B 0 − y) + − 1 Bs>ydB s et est connue sous le nom formule de<br />

0<br />

temps d’occupation. Le processus L B (·, y) est le temps local de B au point y entre 0 et t. La<br />

difficulté est de vérifier que le processus L(·, y) est un processus croissant.<br />

Exercice 3.4.2 : On a, en exprimant X t comme le produit de exp B 1 (t) et de U t =<br />

qui vérifie dU t = exp[−B 1 (t)] dB 2 (t)<br />

∫ t<br />

0<br />

exp[−B 1 (s)] dB 2 (s)<br />

dX t = exp B 1 (t)(exp −B 1 (t)) dB 2 (t) + U t (exp[B 1 (t)]dB 1 (t) + 1 2 exp[B 1(t)]dt)<br />

= dB 2 (t) + X t dB 1 (t) + 1 2 X tdt<br />

Soit f(x) = sinh x, alors, f ′ (x) = 1 2 (ex + e −x ) = cosh x et f ′′ (x) = 1 2 (ex − e −x ) = sinh x. O applique<br />

le lemme d’Itô:<br />

M t<br />

def<br />

= B 2 (t) +<br />

dZ t = cosh(B 1 (t)) dB 1 (t) + 1 2 sinh(B 1(t)) dt =<br />

∫ t<br />

Son crochet est t +<br />

∫ t<br />

0<br />

√<br />

1 + Z 2 t dB 1 (t) + 1 2 Z tdt<br />

X s dB 1 (s) est une martingale locale comme somme de deux martingales locales.<br />

∫ t<br />

0<br />

X 2 s ds =<br />

√<br />

X t = 1 + X<br />

2 s dB 3 (t) + 1<br />

0<br />

2<br />

l’égalité en loi de X et de Z.<br />

∫ t<br />

∫<br />

0 t<br />

0<br />

(1 + X 2 s )ds, d’où γ s = √ 1 + X 2 s . En regroupant les résultats<br />

X t dt et Z t =<br />

∫ t<br />

0<br />

√<br />

1 + Z<br />

2 s dB 1 (s) + 1 2<br />

∫ t<br />

0<br />

Z s ds. On obtient donc<br />

Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et le lemme d’Itô conduit à<br />

2 a − B<br />

dZ t = 1 St


120 Itô. Corrigés<br />

On obtient<br />

et<br />

E(S t ) = e bt E( ˜S t ) = e bt S 0<br />

E(S t |F s ) = E(e bt ˜St |F s ) = e bt ˜Ss = e b(t−s) S s<br />

Le calcul de E ( exp((b − 1 2 σ2 )(t − s) + σ(B t − B s ))|F s<br />

)<br />

se fait également à partir de celui de E(exp(σ(Bt −<br />

B s ))|F s ) = E(exp(σ(B t − B s ))) pour lequel il suffit d’utiliser la transformée de Laplace de la v.a.<br />

gaussienne B t − B s . On obtient<br />

E(S t |F s ) = exp(b(t − s))S s .<br />

Si Z t = ( ˜S t ) −1 , on a dZ t = Z t ((σ 2 − b) dt − σdB t ).<br />

Ces calculs se généralisent au cas de coefficients aléatoires. Soit dS t = S t (b t dt + σ t dB t ) et<br />

Y t = S t exp(− ∫ t<br />

0 b s ds). On a d(exp(− ∫ t<br />

0 b s ds) = b t exp(− ∫ t<br />

0 b s ds)dt. Le processus Y vérifie<br />

dY t = exp(−<br />

∫ t<br />

et est une martingale locale.<br />

0<br />

b s ds)dS t − S t b t exp(−<br />

∫ t<br />

0<br />

b s ds)dt = exp(−<br />

La solution de dL t = −L t θ t dB t est une martingale locale, qui s’écrit<br />

On pose Y t = S t L t . On a<br />

L t = L 0 exp(−<br />

Par définition d〈S, L〉 t = −S t σ t L t θ t dt, d’où<br />

∫ t<br />

0<br />

θ s dB s − 1 2<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

θ 2 sds).<br />

dY t = S t dL t + L t dS t + d < S, L > t .<br />

dY t = Y t ((b t − θ t σ t ) dt + σ t dB t ) .<br />

b s ds)S t σ t dB t = Y t σ t dB t<br />

En finance, le changement de probailité le plus utilis{e correspond au cas θ t = − r(t)−bt<br />

σ t<br />

. Il vient<br />

alors<br />

dY t = Y t (r(t) dt + σ t dB t ) .<br />

Soit R t = exp(− ∫ t<br />

r(s) ds). Le processus Y R = LRS est une martingale locale qui vérifie d(LRS) =<br />

0<br />

LRSσdB.<br />

Exercice 3.5.3 : Soit<br />

dS t = S t (rdt + σdB t )<br />

et A t = 1 t<br />

∫ t<br />

0 ln S sds. On a S t = S 0 exp(σB t − 1 2 σ2 t + rt) et<br />

ln S t = ln S s + σ(B t − B s ) + (r − σ2<br />

)(t − s)<br />

2<br />

Le processus ln S est un processus gaussien, d’où A t est une variable gaussienne.<br />

∫<br />

Soit G(t, T ) = 1 T<br />

T t (B s − B t ) ds. Soit t fixé. Le processus (B s − B t , s ≥ t) est gaussien, d’où G(t, T )<br />

est une variable gaussienne. Le processus (B s − B t , s ≥ t) est indépendant de F t donc G(t, T ) aussi,<br />

∫<br />

d’où E(G(t, T )|F t ) = 1 T<br />

T<br />

E(B<br />

t s − B t ) ds = 0.<br />

Var (G(t, T )|F t ) = E(G 2 (t, T )) = 1<br />

T 2 ∫ T<br />

t<br />

∫ T<br />

t<br />

E((B s − B t )(B u − B t ))ds du .


2009-10 121<br />

E((B s − B t )(B u − B t )) = (s ∧ u) − t. Tous calculs faits<br />

Var (G(t, T )|F t ) = 1<br />

T 2 (1 3 T 3 − 1 3 t3 + tT (t − T ))<br />

( ∫<br />

En écrivant A T = 1 t<br />

T 0 ln S s ds + ∫ )<br />

T<br />

ln S<br />

t s ds et en remarquant que<br />

on obtient<br />

∫ T<br />

t<br />

ln S s ds = (T − t) ln S t + 1 r − σ 2<br />

(T − t) 2 + σG(t, T )<br />

2 2<br />

A T = t T A t + (1 − t T )[ln S t + 1 2<br />

σ2<br />

(r − (T − t)] + σG(t, T ).<br />

2<br />

Exercice 3.5.5 : Soit ˜S t = e −bt S t . On a vu déja plusieurs fois que ˜S t est une martingale (par<br />

exemple vérifier, en utilisant le lemme d’Itô, que d ˜S t = ˜S t σdB t ).<br />

Soit X t défini par<br />

On a, X T = V T et si t ≤ T − h<br />

soit<br />

et si T − h ≤ t ≤ T<br />

= e −bT 1 h<br />

∫ t<br />

T −h<br />

E(S u |F t ) du + 1 h<br />

dX t<br />

X t<br />

e −bt X t = E[ e−bT<br />

h<br />

e −bt X t = e −bT 1 h<br />

∫ T<br />

∫ T<br />

T −h<br />

T −h<br />

S u du |F t ] .<br />

E(S u |F t ) du<br />

e −bt −bt 1 − e−bh<br />

X t = S t e<br />

bh<br />

e −bt X t = e −bT 1 h<br />

∫ T<br />

∫ T<br />

T −h<br />

E(S u |F t ) du<br />

E(S u |F t ) du = e−bT<br />

S u du + S t e<br />

t<br />

h T −h<br />

= bdt + σS {<br />

t<br />

1 − e −bh<br />

1 − e<br />

1 {t


122 Itô. Corrigés<br />

et en utilisant que exp(σB t − 1 2 σ2 t) est une martingale d’éspérance 1, on obtient<br />

E(S t ) = S 0 exp(rt − ∆(t)) .<br />

On montre que S est de carré intégrable : en effet<br />

S 2 t = S 2 0 exp(2rt − 2∆(t) + 2σB t ) = S 2 0 exp(2rt − 2∆(t) + 1 2 (2σ)2 t) exp(2σB t − 1 2 (2σ)2 t)<br />

et l’on sait que exp(2σB t − 1 2 (2σ)2 t) est une martingale égale à 1 en t = 0, d’où<br />

E(S 2 t ) = S 2 0 exp(2rt − 2∆(t) + 1 2 (2σ)2 t)<br />

et E( ∫ t<br />

0 S2 s e −2rs ds) < ∞, ce qui établit le caractère martingale de la martingale locale Z.<br />

On sait que (formule de Black et Scholes en changeant de nom les paramètres) si dS t = S t (adt +<br />

σdB t ), S 0 = x alors<br />

E(e −aT (S T − K) + )) = xN (d 1 ) − Ke −aT N (d 2 )<br />

avec d 1 = 1<br />

σ √ T ln( x<br />

Ke −aT ) + 1 2 σ2 T ). Le calcul demandé est alors facile.<br />

3.6 Le crochet<br />

3.7 Finance<br />

Exercice 3.7.6 : Par définition,<br />

C Am<br />

t ≥ C t = E(e −rT (S T − K) + |F t ) = E(e −rT g(S T )|F t )<br />

avec g(x) = (x − K) + . En utilisant g(x) ≤ e −rt g(xa rt , pour tout t et l’inégalité de Jensen (liée à la<br />

convexité de g) on obtient<br />

e −ru g(S u ) ≤ e −rT g(S u e r(T −u) ) = e −rT g(e rT E(S T e −rT |F u )) = e −rT g(E(e rT S T e −rT |F u ))<br />

= e −rT g(E(S T |F u )) ≤ E(e −rT g(S T )|F u )) = C u<br />

P ≤ P Am et la propriété de sous martingale de (K − S t e −rt ) permet de conclure.<br />

Exercice 3.7.3 : On écrit la formule d’intégration par parties<br />

En particulier (on omet les indices t) (X = Y )<br />

d( X t<br />

Y t<br />

) = X t d( 1 Y t<br />

) + 1 Y t<br />

dX t + d〈X, 1 Y 〉 t .<br />

d( X X ) = d(1) = 0 = Xd( 1 X ) + 1 X dX + d〈X, 1 X 〉 .<br />

Soit dV = π 1 dS 1 + π 2 dS 2 . On a donc<br />

d〈V,<br />

1<br />

S 1 〉 = π 1d〈S 1 ,<br />

1<br />

S 1 〉 + π2 d〈S 2 ,<br />

1<br />

S 1 〉 .


Corrigés. 2009-10 123<br />

Par suite, si V 1 = V/S 1 , on peut écrire la suite d’égalités (on utilise V = π 1 S 1 + π 2 S 2 )<br />

dV 1<br />

t = V d( 1<br />

S 1 ) + 1<br />

S 1 dV + d〈V, 1<br />

S 1 〉<br />

= (π 1 S 1 + π 2 S 2 )d( 1<br />

S 1 ) + 1<br />

S 1 (<br />

π1 dS 1 + π 2 dS 2) + π 1 d〈S 1 ,<br />

= π 1<br />

(<br />

S 1 d( 1<br />

S 1 ) + 1<br />

S 1 dS1 + d〈S 1 ,<br />

= π 2 d( S2<br />

S 1 )<br />

Exercice 3.7.14 : On remarque que<br />

1<br />

S 1 〉 + π2 d〈S 2 ,<br />

) (<br />

1<br />

S 1 〉 + π 2 S 2 d( 1<br />

S 1 ) + 1<br />

S 1 dS2 + d〈S 2 ,<br />

F T = σ(B s , s ≤ t) = σ(S 1 s , s ≤ t) = σ(S 2 s , s ≤ t)<br />

1<br />

S 1 〉<br />

)<br />

1<br />

S 1 〉<br />

Le marché est complet: en effet, toute v.a. F T mesurable s’écrit comme valeur terminale d’un<br />

portefeuille auto-finançant composé des actifs sans risque et de l’actif 1, donc le marché composé<br />

d’un actif supplémentaire (avec les mêmes actifs contingents) est également complet. La seule<br />

probabilité équivalente à la probabilité P telle que l’actif sans risque et l’actif 1, actualisés, sont des<br />

martingales est Q définie par dQ| Ft = exp(−θB t − 1 2 θ2 t)dP | Ft avec θ = µ i − r<br />

. L’actif 2, actualisé<br />

σ<br />

n’est pas une martingale sous Q, il n’existe donc pas de probabilité équivalente à la probabilité P<br />

telle que TOUS les actifs actualisés soient des martingales. Le marché présente des opportunités<br />

d’arbitrage. Supposons µ 1 > µ 2 . Si, à la date 0, on achète une part de l’actif 1 et on vend une<br />

part de l’actif 2 (capital initial investi nul) et que l’on maintient cette position jusqu’en T , on a un<br />

portefeuille de valeur<br />

ce qui constitue un arbitrage.<br />

S 1 T − S 2 T = [ exp(µ 1 T ) − exp(µ 2 T ) ] exp(σB T − 1 2 σ2 T ) > 0


124 Exemples


Chapter 4<br />

Exemples, Corrigés<br />

4.1 Processus de Bessel<br />

Exercice 4.1.3 : La formule d’Itô conduit à<br />

dZ t = − 1 Rt<br />

2 dR t + 1 2<br />

2 Rt<br />

3 d〈R〉 t = − 1 Rt<br />

2 dB t − 1 Rt<br />

3 dt + 1 Rt<br />

3 dt = − 1 Rt<br />

2 dB t<br />

Soit V t = sinh λR t<br />

. On pose f(x) =<br />

λR t<br />

sinh λx<br />

λx<br />

, d’où<br />

f ′ (x)<br />

sinh λx cosh λx<br />

= −<br />

λx 2 +<br />

x<br />

f ′′ (x) =<br />

sinh λx λ cosh λx<br />

+2<br />

λx 3 −<br />

x 2<br />

La formule d’intégration par parties conduit à<br />

−<br />

cosh λx<br />

x 2<br />

+<br />

λ sinh λx<br />

x<br />

.<br />

et on vérifie que les termes en dt s’annulent.<br />

dU t = e −tλ2 2 [− λ2<br />

2 V tdt + dV t ]<br />

Il suffit d’appliquer le théorème d’arrêt de Doob à la martingale U et au temps d’arrêt T b (on<br />

utilise que sinh x est born,ée sur [0, b]). On obtient E(exp(− λ2 T b λb<br />

)(sinh )) = 1, d’où E(exp(− λ2 T b<br />

2 λb<br />

2 )) =<br />

λb<br />

sinh λb .<br />

Exercice 4.1.4 :<br />

Les deux résultats s’obtiennet en appliquant le lemme d’Itô<br />

d(ln R t ) = 1 R t<br />

dR t − 1<br />

2(R t ) 2 dR tdR t = 1 R t<br />

dB t − 1 R t<br />

1<br />

2R t<br />

dt + 1<br />

2(R t ) 2 dt = 1 R t<br />

dB t ,<br />

dR ν t = νR ν−1<br />

t dR t +<br />

ν(ν − 1)<br />

2<br />

R ν−2<br />

t<br />

dR t dR t = νR ν−1<br />

t<br />

= νRt<br />

ν−1 dB t + ν2<br />

125<br />

dB t + νR ν−1<br />

t<br />

2 Rν−2 t<br />

dt<br />

1<br />

dt +<br />

2R t<br />

ν(ν − 1)<br />

Rt ν−2 dt .<br />

2


126 Exemples<br />

On pose Z t = exp(− ν2<br />

2<br />

∫ t<br />

0<br />

∫ t<br />

ds<br />

) et on applique le lemme d’Itô.<br />

R 2 s<br />

ds<br />

dZ t = d exp(− ν2<br />

2 0 Rs<br />

2 [<br />

dL t = Z t dRt ν + Rt ν dZ t = Z t<br />

Exercice 4.1.5 :<br />

= Z t νRt<br />

ν−1 dB t<br />

La formule d’Itô conduit á<br />

Sous Q ˜B t<br />

def<br />

= B t + µ<br />

∫ t<br />

0<br />

) = Z t (− ν2<br />

2 ) 1 Rt<br />

2 dt<br />

νRt<br />

ν−1<br />

dB t + νR ν−1<br />

t<br />

1<br />

dt +<br />

2R t<br />

dY t = 2 √ Y t dB t + δdt<br />

dZ t = Z t (−µ √ Y )dB t<br />

ν(ν − 1)<br />

2<br />

√<br />

Yu du est un MB et dY t = 2 √ Y t d ˜B t + (δ − 2µY t )dt.<br />

Exercice 4.2.2 : Par application de la formule d’Itô à Z t = B 2 t<br />

on a alors<br />

dZ t = 2B t dB t + 2B 1 t dB 1 t + 2dt =<br />

dZ t = 2B t dB t + dt = 2 √ Z t dB t + dt<br />

Rt<br />

ν−2 dt − ν2<br />

2<br />

2<br />

√<br />

(Bt ) 2 + (B 1 t ) 2 √(B t ) 2 + (B 1 t ) 2 (B t dB t + B 1 t dB 1 t )<br />

1<br />

R 2 t<br />

]<br />

Rt ν dt<br />

Avec n Browniens on obtient µ = n.<br />

Si ρ t<br />

def<br />

= √ R t , la formule d’Itô conduit à<br />

= 2 √ Z t dB 3 t + 2dt<br />

dX t = dR (µ)<br />

t<br />

dρ t = 1<br />

2ρ t<br />

(µ − 1)dt + dB t<br />

+ dR (ν)<br />

t = (µ + ν)dt + 2<br />

√<br />

R (µ)<br />

t<br />

+ R (ν)<br />

t dZ t<br />

où Z est un MB. On en déduit que la somme de deux Bessels carrés indépendants est un Bessel<br />

carré.<br />

Exercice 4.1.6 : P x (inf s≤t X s ) = P x (T a > t) et on connait la transformée de Laplace de T a<br />

E (ν) (exp − λ2<br />

2 T a).<br />

Dans le cas du BES(3) P (3)<br />

x | Ft = ( X t∧τ<br />

x<br />

D’où P (3)<br />

x (T a > t) = P (3)<br />

x (∞ > T a > t) + (1 − a x<br />

a<br />

x P 0((x − a) > |N| √ t).<br />

Voir Borodin pour l autre cas<br />

)<br />

Wx | Ft d’où pour a < x P (3)<br />

x (φ(T a ) 1 Ta T a > t) = a x P 0(T (x−a) > t) =<br />

4.2 Processus de Bessel carré<br />

Exercice 4.2.4 : Remarquer que E(R (2)<br />

1 ) = E√ ξ 2 1 + ξ2 2 .


Corrigés. 2009-10 127<br />

Exercice 4.2.5 : On part de<br />

On sait que (R t ; t ≥ 0) loi<br />

= x exp(B Ct + νC t )<br />

W (ν) |F t = exp(νB t − ν2<br />

2 t)W|F t<br />

P (ν) (F (R s ), s ≤ t) = W (ν) (F(xB u ), u ≤ C t )<br />

W (ν) (F (xB u ), u ≤ C t ) = W(exp(B Ct +νC t )F(xB u ), u ≤ C t ) = P (0) ( R t<br />

x )ν exp − ν2<br />

2C t<br />

F(R s ), s ≤ t)<br />

car sous P (0) exp νB Ct = (exp B Ct ) ν , R t = x exp B Ct<br />

4.3 Autres processus<br />

Exercice 4.3.3 : La première question résulte d’une application du lemme d’Itô: f(t, X t ) est une<br />

martingale locale si Gf(t, X t ) = 0 avec Gf(t, x) = ∂ t f + x(1 − x)(µ − x)∂ x f + 1 2 x2 (1 − x) 2 ∂ xx f. Dire<br />

que h 0 (X) est une martingale locale revient à vérifier que h 0 est solution de x(1 − x)(µ − x)h ′ +<br />

1<br />

2 x2 (1 − x) 2 h ′′ = 0. Montrer que h 1 (X t ) − t est une martingale locale revient à vérifier que h 1<br />

satisfait<br />

−1 + x(1 − x)(µ − x)h ′ + 1 2 x2 (1 − x) 2 h ′′ = 0 .<br />

En appliquant le théorème d’arêt de Doob (la fonction h 0 est bornée sur [a, b], la martingale locale<br />

h 0 (X t∧τ ) est uniformément intégrable) E(h 0 (X τ )) = h 0 (x) soit<br />

h 0 (x) = E(h 0 (X τ )) = h 0 (a)P(X τ = a) + h 0 (b)P(X τ = b) = h 0 (a)P(X τ = a) + h 0 (b)(1 − P(X τ = a)) .<br />

On applique ensuite le théorème de Doob à h 1 (X t ) − t<br />

h 1 (x) = E[(h 1 (a) − τ) 1 Xτ =a)] + E[(h 1 (b) − τ) 1 Xτ =b)]<br />

= h 1 (a)P(X τ = a) + h 1 (b)(1 − P(X τ = a)) − E(τ)<br />

4.4 Des Calculs<br />

Exercice 4.4.2 : For t ≤ 1 and a > 0, the events {Y t ≤ a} and {T a ≥ t} are equal, where<br />

T a = inf{t ≥ 0, X t = a}.<br />

Then, P(Y t ≤ a) = P(T a ≥ t). Let ˜X = X/σ and T α ( ˜X) = inf{t ≥ 0, ˜X t = α}. Then, T a = T α ( ˜X)<br />

where α = a/σ.<br />

It is well known (the proof follows, from example from inversion of Laplace transform) that<br />

P 0 (T α ( ˜X) ∈ dt) =<br />

|α| √<br />

2πt<br />

3<br />

exp −(α<br />

− ˜µt)2<br />

2t<br />

where ˜µ = µ/σ (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor, second edition, page<br />

320, ex. 1.21).<br />

Therefore, you get the cumulative function of Y for t ≤ 1.<br />

Let us denote Φ(t, a, µ, σ) = P(sup 0≤s≤t (µs + σB s ) ≤ a).<br />

Suppose now that 2 > t > 1. Then<br />

X t = X 1 + µ 1 (t − 1) + σ 1 (B t − B 1 ) = X 1 + µ 1 (t − 1) + σ 1 ˜Bt−1


128 Equa. Diff.<br />

where ˜B is a BM independent of σ(B s , s ≤ 1).<br />

Then,<br />

where<br />

P(Y t ≤ a) = P ( Y 1 ≤ a , max<br />

1≤s≤t (X 1 + µ 1 (s − 1) + σ 1 ˜Bs−1 ) ≤ a )<br />

= P ( Y 1 ≤ a P [ max<br />

1≤s≤t (X 1 + µ 1 (s − 1) + σ 1 ˜Bs−1 ) ≤ a)|F 1<br />

])<br />

= E( 1 (Y1 ≤a) Ψ(t − 1, X 1 ))<br />

Ψ(u, x) = E( max<br />

0≤s≤u (x + µ 1s + σ 1 ˜Bs ) ≤ a) = E( max<br />

0≤s≤u (µ 1s + σ 1 ˜Bs ) ≤ a − x)<br />

and this quantity is known from step 1: Ψ(u, x) = Φ(u, a − x, µ 1 , σ 1 ).<br />

Then, it remains to know the law of the pair Y 1 , X 1 . This is the reflection principle in the case<br />

µ = 0 (Revuz Yor, page 105 ex. 3.14) and the general result follows from Girsanov’s theorem. For<br />

example Borodin-Salminen, page 198, formula 1.18 in the case where σ = 1<br />

References:<br />

P(Y 1 ≥ y, X 1 ∈ dz) = 1 √<br />

2πt<br />

exp[µy − µ2 t<br />

2<br />

(|z − y| + y)2<br />

− ] dz<br />

2t<br />

Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts and Formulae, Birkhäuser,<br />

1996.<br />

Exercice 4.4.3 : On écrit dS = D(rdt + σ t d ˜B t ). Si ˜C est la valeur de C actualisé, alors dC =<br />

Cmσd ˜B t . Il suffit de résoudre et d’identifier<br />

(<br />

St<br />

C t = C 0 exp[− m − 1 ∫ t<br />

S 0 m<br />

[ r s ds + 1 ∫ t<br />

) m<br />

σ 2<br />

2<br />

sds]]<br />

Exercice 4.4.4 : On remarque que Y t = e λt X t est un MB changé de temps: Y t = B Λ(t) avec<br />

∫ t<br />

Λ(t) = σ 2 e 2λu du = σ 2 e2λt − 1<br />

. Par suite τ = inf{t : |Y t | > e λy g(t)}. D’où la suite d’égalités<br />

2λ<br />

0<br />

{τ > t} = {|B Λ(u) | < e λu g(u), ∀Λ(u) < Λ(t)}<br />

0<br />

= {|B v | < e λC(v) g(C(v)), ∀v < Λ(t)} = {τ ∗ > Λ(t)}<br />

0<br />

avec<br />

τ ∗ = inf{t : |B t | > e λC(t) g(C(t))}


Chapter 5<br />

Equations différentielles<br />

stochastiques, Corrigés<br />

5.1 Equation Linéaire<br />

Exercice 5.1.7 : L’équation a une solution unique car b(t, x) = a + αx et σ(t, x) = b + βx sont<br />

lipschitziennes et ont une croissance linéaire. On a<br />

X t = x +<br />

∫ t<br />

0<br />

(a + αX s ) ds +<br />

∫ t<br />

0<br />

(b + βX s ) dB s<br />

L’intégrale stochastique est une martingale car E( ∫ t<br />

0 (b + βX s) 2 ds) ≤ E( ∫ t<br />

0 2(b2 + β 2 Xs 2 ) ds) et la<br />

solution de l’équation vérifie E(sup s≤t Xs 2 ) < ∞. D’où en prenant l’espérance de X t et en posant<br />

m(t) = E(X t )<br />

m(t) = x +<br />

∫ t<br />

0<br />

(a + αm(s)) ds .<br />

La fonction m est dérivable et vérifie m ′ (t) = a + αm(t).<br />

m(0) = x, la solution est<br />

La formule d’Itô conduit à<br />

m(t) = (x + a α )eαt − a α<br />

Compte tenu de la condition initiale<br />

d(X 2 t ) = 2X t (a + αX t ) dt + 2X t (b + βX t ) dB t + (b + βX t ) dt .<br />

En admettant que l’intégrale stochastique est une martingale et en posant M(t) = E(X 2 t )<br />

M(t) = x 2 + 2<br />

∫ t<br />

0<br />

(am(s) + αM(s)) ds +<br />

∫ t<br />

0<br />

(b 2 + β 2 M(s) + 2bβm(s)) ds<br />

soit {<br />

M ′ (t) − (2α + β 2 )M(t) = 2(a + bβ)m(t) + b 2<br />

M(0) = x 2<br />

la solution est<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

M(t) = Ce (2α+β2)t + ke αt + c<br />

k(−α − β 2 ) = 2(a + bβ)(x + a α )<br />

c = (b 2 − 2(a + bβ) a α ) 1<br />

2α+β 2<br />

C + k + c = x 2<br />

129


130 Equa. Diff.<br />

Exercice 5.1.3 : On a dY t = Y t (αdt + βdB t ) dont la solution est (cf brownien géométrique)<br />

On a (cf propriété de martingale du Brownien)<br />

Y t = exp[(α − 1 2 β2 )t + βB t )]<br />

E(Y t |F s ) = exp(αt)E(exp[− 1 2 β2 t + βB t ] |F s ) = exp(αt) exp[− 1 2 β2 s + βB s ]<br />

D’où, si α ≥ 0, on a E(Y t |F s ) ≥ Y s . Le processus Y est une martingale si on a égalité soit si α = 0.<br />

c. Le processus Y ne s’annule pas. Le processus Z t est un processus d’Itô car Yt<br />

−1 est de carré<br />

intégrable (voir brownien géométrique) et<br />

dZ t = (a − bβ)Y −1<br />

t<br />

On a ainsi d〈Y, Z〉 t = bYt<br />

−1 Y t β = bβ.<br />

Soit U t = Y t Z t . La formule d’Itô conduit à<br />

dt + bYt<br />

−1 dB t<br />

dU t = (a − bβ) dt + b dB t + U t (α dt + β dB t ) + bβ dt = (a + αU t ) dt + (b + βU t ) dB t<br />

et comme U 0 = x on a par unicité X t = U t .<br />

Exercice 5.1.4: L’équation dX t = αX t dt + b dB t admet une solution unique. En posant Z t =<br />

e −αt X t on voit que dZ t = e −αt¯dB t d’où<br />

∫ t<br />

X t = e αt x + e αt e −αs b dB s<br />

Il en résulte que X est un processus gaussien de moyenne E(X t ) = e αt x et de variance<br />

Si Y t = φ(X t ), la formule d’Itô conduit à<br />

Dans le cas particulier de l’énoncé,<br />

soit<br />

C’est une martingale car E( ∫ t<br />

0<br />

intégrable.<br />

V (X t ) = b 2 2αt 1 − e−2αt def<br />

e = σ 2 (t) .<br />

2α<br />

dY t = φ ′ (X t )dX t + 1 2 φ′′ (X t )b 2 dt .<br />

dY t = exp(− α b 2 X2 t )(bdB t )<br />

Y t = b<br />

∫ t<br />

0<br />

0<br />

exp(− α b 2 X2 s )dB s<br />

exp(−<br />

2α<br />

b 2 X 2 s )ds) < ∞ (faire le calcul en utilisant ce qui suit) de carré<br />

En utilisant le calcul de E(e λU 2 ) quand U est une gaussienne, on trouve, en posant m(t) = e αt<br />

1<br />

E(e λX2 t ) = √<br />

1 − 2λσ2 (t) exp λm2 (t)x 2<br />

1 − 2λσ 2 = Φ(t, x)<br />

(t)<br />

et<br />

E(e λX2 t |Fs ) =<br />

1<br />

√<br />

1 − 2λσ2 (t − s) exp λm2 (t − s)X 2 s<br />

1 − 2λσ 2 (t − s) = Φ(t − s, X s)


Corrigés. 2009-10 131<br />

Soit t fixé. Par définition, le processus d’Itô V défini par V s = Φ(t − s, X s ) est une martingale,<br />

donc son drift est nul. On a donc<br />

−∂ 1 Φ(t − s, x) + αx∂ 2 Φ(t − s, x) + 1 2 b2 ∂ 22 Φ(t − s, x) = 0<br />

∂ 1 Φ(u, x) + αx∂ 2 Φ(u, x) + 1 2 b2 ∂ 22 Φ(u, x) = 0<br />

En posant Ψ = ln Φ et en recherchant Ψ sous la forme<br />

Ψ(t, x) = x 2 a(t) + b(t)<br />

on a (voir la forme de Φ) les conditions de l’énoncé sur les fonctions a et b.<br />

Exercice 5.2.1 : Dans un premier temps, on pose Y t = e αt X t . Ce processus vérifie<br />

dY t = e αt (µ − γV t )dt) + e αt√ V t dW 1,t<br />

Calculer ϕ(λ) = E(exp(λX T )) revient à calculer ψ(λ) = E(exp(λY T )). On a en effet ϕ(λ) = ψ(λe αT ).<br />

Le calcul des espérances conditionnelles se réduit à un calcul d’espérance par la propriété de Markov.<br />

On a<br />

Y t = Y 0 +<br />

∫ t<br />

On est donc ramené à calculer<br />

A = E<br />

(<br />

exp<br />

(<br />

−γ<br />

0<br />

e αs (µ − γV s )ds +<br />

∫ t<br />

0<br />

e αs V s ds +<br />

En décorrélant W 1,t , le terme sous l’exponentielle est<br />

−γ<br />

∫ t<br />

0<br />

e αs V s ds + ρ<br />

∫ t<br />

En utilisant l’indépendance entre W et V<br />

( (<br />

A = E<br />

exp<br />

−γ<br />

∫ t<br />

0<br />

0<br />

e αs V s ds + ρ<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

e αs√ V s dW 1,s<br />

e αs√ V s dW 1,s<br />

))<br />

e αs√ V s W 2,s + √ ∫ t<br />

1 − ρ 2 e αs√ V s dW s<br />

∫ t<br />

0<br />

e αs√ V s W 2,s +<br />

Il reste un calcul du type espérance de l’exponentielle de<br />

0<br />

√<br />

1 − ρ<br />

2<br />

2<br />

∫ t<br />

0<br />

e 2αs V s ds<br />

))<br />

Cette expression sécrit<br />

∫ t<br />

f(s)V s ds +<br />

∫ t<br />

0<br />

0<br />

g(s) √ V s dW 2,s<br />

∫ t<br />

0<br />

f(s)V s ds +<br />

=<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

= G(t)V t +<br />

g(s)(dV s − k(θ − V s )ds) =<br />

∫ t<br />

F (s)V s ds + G(t)V t − G(0)V 0 −<br />

∫ t<br />

0<br />

H(s)V s ds<br />

0<br />

F (s)V s ds +<br />

∫ t<br />

0<br />

G ′ V s ds<br />

∫ t<br />

0<br />

G(s)dV s<br />

ou f, g, F, G, H sont des fonctions déterministes. (remarque: pour un processus d’Ornstein Uhlenbeck,<br />

ce type de calcul est standard)<br />

Exercice 5.1.9 : On pose Y t = e at X t . On a<br />

dY t = abe at dt + σe at/2√ Y t dW t


132 Equa. Diff.<br />

et on en déduit E(Y t ) = x + b(e at − 1) En utilisant<br />

on obtient Y t − E(Y t ) =<br />

∫ t<br />

0<br />

Y t = x +<br />

∫ t<br />

= E(Y t ) +<br />

abe as ds +<br />

∫ t<br />

0<br />

0<br />

∫ t<br />

σe as/2√ Y s dW s par suite<br />

0<br />

V ar(Y t ) =<br />

σe as/2√ Y s dW s<br />

∫ t<br />

0<br />

σ 2 e as E(Y s )ds<br />

σe as/2√ Y s dW s<br />

5.2 Processus affines<br />

(<br />

Exercice 5.2.2 : Si α et β existent, le processus M t = e α(t)+β(t)St exp − ∫ )<br />

t<br />

0 ψ(S s)ds<br />

martingale, donc E(M T |F t ) = M t ce qui conduit à<br />

E<br />

(<br />

e θS T<br />

exp<br />

(<br />

−<br />

∫ T<br />

0<br />

ψ(S s )ds<br />

)<br />

) (<br />

|F t = e α(t)+β(t)S t<br />

exp −<br />

∫ t<br />

0<br />

)<br />

ψ(S s )ds .<br />

est une<br />

D’où le résultat en remarquant que exp(− ∫ t<br />

0 ψ(S s)ds) est F t -mesurable. Pour que M soit une<br />

martingale, il faut que sa partie à variation bornée soit nulle. Il est facile de voir que<br />

d(e α(t)+β(t)S t<br />

) = e α(t)+β(t)S t<br />

(α ′ + β ′ )dt + βdS t + β 2 σ(S t ) 2 dt<br />

Ce qui conduit à<br />

soit<br />

α ′ + β ′ S t − ψ(S t ) + βµ(S t )dt + β 2 σ(S t ) 2 = 0<br />

α ′ + β ′ x − ψ(x) + β(µ 0 + µ 1 x) + β 2 (σ 0 + σ 1 x) = 0<br />

Cette équation doit être vérifiée pour tout (t, x) d’où (cours élémentaire sur les ED)<br />

α ′ − ψ 0 + βµ 0 + β 2 σ 0 = 0<br />

β ′ − ψ 1 + βµ 1 + β 2 σ 1 = 0<br />

La seconde équation est une équation de Ricatti<br />

5.3 Finance<br />

Exercice 5.4.1 : La solution de<br />

dS t = S t (r dt + σ dB t )<br />

vérifie, pour t ≤ u<br />

)<br />

S u = S t exp<br />

(r(u − t) + σ(B u − B t ) − σ2<br />

2 (u − t)<br />

Le processus S est à valeurs ( positives (si S 0 > 0) et ne s’annule pas.<br />

1. Le processus M t = E [ 1 ∫ )<br />

T<br />

S u du − K] + |F t est une martingale.<br />

T<br />

0<br />

(5.1)


Corrigés. 2009-10 133<br />

2. En utilisant ( que s(a − b) + = (sa − sb) + si s > 0 et la F t -mesurabilité de S t , on obtient<br />

M t = S t E [ 1 ∫ )<br />

T<br />

S u<br />

du − K ] + |F t ce qui s’écrit de façon évidente<br />

T S t S t<br />

0<br />

∫ t<br />

S t E<br />

(<br />

[ 1 T<br />

∫ T<br />

t<br />

)<br />

S u<br />

du − ζ t ] + |F t<br />

S t<br />

avec ζ t = St<br />

−1 (K − 1 S u du), variable F t -mesurable.<br />

T 0<br />

3. On rappelle que, si X est indépendante de G et Y est G-mesurable,<br />

E(f(X, Y )|G) = [E(f(X, y)] y=Y .<br />

Les variables ( S u<br />

S t<br />

, u ≥ t) sont indépendantes de F t (utiliser (5.1)), et ζ t est F t mesurable. Il en<br />

résulte<br />

M t = S t Φ(t, ζ t )<br />

avec<br />

Φ(t, x) = E<br />

4. On obtient<br />

dSt −1 = − 1<br />

St<br />

2 dS t + 1 2<br />

on en déduit les égalités suivantes<br />

2<br />

S 3 t<br />

( ∫ ) +<br />

1 T<br />

S u<br />

du − x .<br />

T t S t<br />

d < S, S > t = ( σ2<br />

S t<br />

− r S t<br />

)dt − σ S t<br />

dB t .<br />

dζ t = −St<br />

−1 S t<br />

T dt + (K − 1 T<br />

d < ζ, ζ > t = ζt 2 σ 2 dt<br />

∫ t<br />

0<br />

S u du)dS −1<br />

t<br />

= − 1 T dt + ζ t(−σdB t − rdt + σ 2 dt)<br />

dΦ(t, ζ t ) = Φ ′ t dt + Φ ′ x dζ t + 1 2 Φ” xx d < ζ, ζ > t = (...) dt − σζ t Φ ′ x dB t<br />

d < S, Φ > t = −S t σ 2 ζ t Φ ′ x<br />

La formule d’Itô appliquée à M t est alors (écriture volontairement simplifiée)<br />

dM t = ΦdS + SdΦ + dSdΦ<br />

ce qui s’écrit<br />

Soit<br />

Φ(t, ζ t )dS t + S t [Φ ′ t(t, ζ t )dt + Φ ′ x(t, ζ t )dζ t + 1 2 Φ xx”(t, ζ t )d < ζ, ζ > t ] + d < S, Φ > t<br />

dM t = S t (rΦ + ∂Φ<br />

∂t − ( 1 T + rζ)∂Φ ∂x + 1 2 σ2 ζ 2 ∂2 Φ<br />

∂x 2 ) dt + dN t<br />

où N est une martingale du type (...) dB t . Le processus M étant une martingale locale, sa partie<br />

processus à variation finie est nulle, soit<br />

Exercice 5.4.2 : Il est facile de montrer que<br />

(<br />

S t = S 0 exp rt +<br />

0 = rΦ + ∂Φ<br />

∂t − ( 1 T + rζ)∂Φ ∂x + 1 2 σ2 ζ 2 ∂2 Φ<br />

∂x 2<br />

∫ t<br />

0<br />

σ(s)dB s − 1 2<br />

∫ t<br />

0<br />

)<br />

σ 2 (s) ds


134 Girsanov.<br />

est solution de l’équation proposée.<br />

∫ t<br />

0<br />

2. POur t fixé,<br />

∫ t<br />

σ 2 (s)ds. Il en résulte que<br />

∫ t<br />

0<br />

σ(s)dB s est une variable gaussienne (intégrale de Wiener) centrée de variance<br />

∫ t<br />

0∫ t<br />

σ(s)dB s − 1 2<br />

∫ t<br />

0<br />

σ 2 (s) ds est une variable gaussienne car d’espérance<br />

− 1 σ 2 (s) ds et de variance σ 2 (s)ds.<br />

2 0<br />

0<br />

3. La formule de valorisation d’une option revient à calculer E Q (S T −K) + . Dans le cas où S T = S 0 e U<br />

où U est une variable d’espérance rT et de variance V 2 = σ 2 T , on a<br />

avec<br />

d 1 = 1 V<br />

Il suffit donc de remplacer σ 2 T par Σ 2 =<br />

C(0, x) = xN (d 1 ) − Ke −rT N (d 2 )<br />

(ln( x K ) + T r + V 2 )<br />

, d 2 = d 1 − V<br />

2<br />

∫ T<br />

0<br />

σ 2 (s)ds<br />

C(0, x) = xN (d 1 ) − Ke −rT N (d 2 )<br />

avec<br />

d 1 = 1 Σ<br />

(ln( x )<br />

K ) + T r + Σ2<br />

, d 2 = d 1 − Σ<br />

2<br />

5.4 Equations différentielles<br />

Exercice 5.5.4 : Nous vérifions que<br />

∫ t<br />

1<br />

X t = tN + (1 − t)<br />

0 1 − s dB s (5.2)<br />

est solution de dX t = dB t + N − X t<br />

dt. Par différentiation de (5.2)<br />

1 − t<br />

dX t = Ndt − 1<br />

∫ t<br />

0<br />

1<br />

1 − s dB s + dB t<br />

= Ndt − 1<br />

1 − t (X t − tX 1 )dt + dB t<br />

= dB t + 1<br />

1 − t (−X t + N)dt<br />

Le processus X est donc gaussien, centré, de covariance (s < t)<br />

∫ t<br />

E(X s X t ) = ts + (1 − t)(1 − s)E(<br />

= ts + (1 − t)(1 − s)<br />

0<br />

∫ s<br />

0<br />

∫<br />

1<br />

s<br />

1 − u dB u<br />

0<br />

1<br />

(1 − u) 2 du = s<br />

1<br />

1 − v dB v


Chapter 6<br />

Girsanov, Corrigés<br />

6.1 Résultats élémentaires<br />

Exercice 6.1.2 : Par changement de probabilité, le processus H étant une martingale positive<br />

d’espérance 1, en posant dQ = H t dP, on définit une nouvelle probabilité Q et E P (H T ln H T ) =<br />

E Q (ln H T ). Or,<br />

D’où<br />

Le processus ˜B t = B t +<br />

d’où le résultat.<br />

−<br />

∫ t<br />

0<br />

∫ t<br />

Exercice 6.1.4 : On a Γ t = exp(<br />

0<br />

H t = exp(−<br />

∫ t<br />

E Q (ln H T ) = E Q (−<br />

0<br />

θ s dB s − 1 2<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

θ s dB s − 1 2<br />

θ 2 sds)<br />

∫ t<br />

θ s ds est un Q mouvement Brownien, et<br />

θ s dB s − 1 2<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

θ 2 sds = −<br />

β s ds) exp(<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

0<br />

θ s d ˜B s + 1 2<br />

γ s dB s − 1 2<br />

∫ t<br />

0<br />

θ 2 sds)<br />

∫ t<br />

0<br />

θ 2 sds ,<br />

γ 2 s ds), d’où Γ t exp(−<br />

∫ t<br />

0<br />

β s ds) est<br />

une martingale. L’écriture dΓ t = Γ t γ t (dB t + β t<br />

γ t<br />

dt) montre que sous Q défini par dQ = L t dP, avec<br />

β t<br />

dL t = L t dB t , le processus<br />

γ ˜B t défini par d ˜B t = dB t + β t<br />

dt est un mouvement Brownien.<br />

t γ t<br />

Le processus Γ vérifiant dΓ t = Γ t γ t d ˜B t est une Q-martingale locale. On obtient facilement d(Γ −1<br />

t ) =<br />

−Γ −1<br />

t<br />

γ t (dB t − γ2 t − β t<br />

dt) et le choix de R s’en suit.<br />

γ t<br />

6.2 Crochet<br />

Exercice 6.2.1 : Soit Z = N− < N, M > et L t = exp(M t − 1 2 〈M〉 t). On a d(ZL) = ZdL + LdZ +<br />

d〈Z, L〉 = mart + d〈Z, L〉 − Ld〈M, N〉 = mart<br />

Exercice 6.2.2 : On vérifie que Z t = h(X t )M t −<br />

135<br />

∫ t<br />

0<br />

h ′ (X s )<br />

d〈M, X〉 est une P-martingale.<br />

h(X s )


136 Girsanov.<br />

6.3 Processus<br />

Exercice 6.3.4 :<br />

1. La question 1 a déja été traitée dans l’exercice .<br />

2. On se place dans le cas d’un Brownien issu de a. Soit<br />

dP b = exp{−b<br />

∫ T<br />

0<br />

B s dB s − b2 2<br />

∫ T<br />

0<br />

B 2 s ds}dP .<br />

En posant θ s = −bB s et en appliquant Girsanov, on montre que sous P b le processus B t +<br />

b ∫ t<br />

0 B s ds est un brownien issu de a que l’on note W t . L’égalité<br />

B t = −<br />

∫ t<br />

0<br />

bB s ds + W t<br />

qui s’écrit dB t = −bB t dt + dW t montre que le processus (B t , t ≥ 0) est un processus<br />

d’Ornstein-Uhlenbeck sous P b . D’où B t est une variable gaussienne sous P b , d’espérance ae −bt<br />

et de variance 1 − e−2tb<br />

.<br />

2b<br />

Soit x = a 2 . En utilisant que, sur F t ,<br />

dP = exp{b<br />

∫ t<br />

on a, pour tout Z, F t -mesurable P-intégrable,<br />

0<br />

B s dB s + b2 2<br />

∫ t<br />

0<br />

B 2 s ds}dP b<br />

d’où<br />

E P (Z) = E b (Z exp{b<br />

E P (exp{−αB 2 t − b2 2<br />

La formule d’Itô montre que<br />

(sous P et sous P b ).<br />

On obtient, en posant x = a 2<br />

E P (exp{−αB 2 t − b2 2<br />

∫ t<br />

0<br />

∫ t<br />

∫ t<br />

0<br />

0<br />

∫ T<br />

0<br />

B s dB s + b2 2<br />

∫ T<br />

B 2 s ds}) = E b (exp{−αB 2 t + b<br />

B s dB s = 1 2 (B2 t − a 2 − t)<br />

0<br />

B 2 s ds})<br />

∫ t<br />

0<br />

B s dB s })<br />

B 2 s ds}) = E b (exp{−αB 2 t + b 2 (B2 t − x − t)})<br />

Sous P b , B t est une gaussienne. On applique le résultat de la question 1 et on trouve (calculs)<br />

E P (exp{−αB 2 t − b2 2<br />

∫ t<br />

On note Φ(α, b) l’expression de droite.<br />

0<br />

B 2 s ds}) = (cosh bt + 2 α b sinh bt)− 1 2 exp[−<br />

xb<br />

2<br />

1 + 2α b<br />

coth bt<br />

coth bt + 2α ]<br />

b<br />

Exercice 6.3.3 : Soit dX t = −λX t dt + dB t un processus d’Ornstein-Uhlenbeck. Sous P λ , X est<br />

un Brownien car X t = −λ<br />

∫ t<br />

0<br />

E P (exp − b2 2<br />

X s ds + B t . On a<br />

∫ T<br />

0<br />

X 2 s ds) = E Pλ (L −1<br />

T exp −b2 2<br />

∫ T<br />

0<br />

X 2 s ds)


Corrigés. 2009-10 137<br />

(On comparera cet exercice au précédent)<br />

(<br />

∫ T<br />

∫ T<br />

= E Pλ<br />

(exp −λ X s dX s − λ2<br />

Xs 2 ds − b2<br />

0<br />

2 0 2 0<br />

(<br />

= E Pλ<br />

(exp − λ 2 (X2 T − T ) − λ2 + b 2 ∫ ))<br />

T<br />

Xs 2 ds<br />

2 0<br />

(<br />

= exp λT )<br />

Φ( λ 2 2 , √ λ 2 + b 2 )<br />

∫ T<br />

X 2 s ds<br />

))<br />

Exercice 6.3.5 : Soit S solution de<br />

S t = S 0 exp(µt + σB t − σ2<br />

2 t).<br />

dS t = S t (µ dt + σ dB t ) , S 0 = s .<br />

1. Soit dQ = L t dP avec L t = exp(θB t − 1 2 θ2 t). Le théorème de Girsanov montre que W est un<br />

Q-mouvement Brownien.<br />

2. Soit d˜P = Z t dQ avec Z t = exp(σW t − σ2<br />

2 t)<br />

Le théorème de Girsanov montre que ( ˜B t = W t − σt, t ≥ 0) est un ˜P-mouvement brownien.<br />

On a alors<br />

dS t = S t ((r + σ 2 ) dt + σ d ˜B t )<br />

3. Soit P t = P 0 e rt . Le processus (Y t = S t<br />

, t ≥ 0) est une Q-martingale, car Y t = Y 0 exp(σW t −<br />

P t<br />

σ 2<br />

2 t) (ou parce que (Itô) dY t = d(S te −rt )<br />

= Y t dW t .)<br />

P 0<br />

Le processus Z t = P t<br />

est une<br />

S ˜P-martingale car Z t = Z 0 exp(−σ ˜B t − σ2<br />

t 2 t)<br />

( ∫ )<br />

4. Soit F t = e −λt t<br />

0 S u du + sA où A, λ sont des constantes<br />

Soit Ψ t = F t<br />

P t<br />

e λt . On a dΨ t = (1 − rΨ t ) dt − σΨ t d ˜B t<br />

Exercice 6.3.7 : Let Bt<br />

Y = Y t + B t and F be a functional on C([0, t], R). Using the independance<br />

between Y and B, and Cameron-Martin theorem, we get<br />

∫<br />

E[F (Bs Y , s ≤ t)] = E[F (sY + B s , s ≤ t)] = ν(dy)E[F (sy + B s , s ≤ t)] (6.1)<br />

∫<br />

= ν(dy)E[F (B s , s ≤ t) exp(yB t − y2<br />

2 t)] = E[F (B s; s ≤ t)h(B t , y)] (6.2)<br />

∫<br />

where h(x, t) =<br />

= E h (F (X s , s ≤ t)] (6.3)<br />

ν(dy) exp(yx − y2<br />

2 t) and Ph | Ft = h(B t , t)W | Ft . Therefore,<br />

B h t<br />

def<br />

= B t −<br />

∫ t<br />

0<br />

ds h′ x<br />

h (B s, s)<br />

is a P h -martingale, more precisely a P h Brownian motion and B t is solution of<br />

X t = B h t +<br />

∫ t<br />

0<br />

ds h′ x<br />

h (X s, s)


138 Girsanov.<br />

Under P h , B has the same law as B Y under P. Then, B Y t = ˜B h t +<br />

that<br />

where B Y t<br />

= σ(B Y s , s ≤ t). On a<br />

E(Y |B Y t ) = h′ x<br />

h (BY s , s)<br />

∫ t<br />

0<br />

ds h′ x<br />

h (BY t , t). Let us remark<br />

E Q (f(Y )F (Bs Y , s ≤ t)) = E P (e −Y Bt− 1 2 Y 2t F (Bs Y , s ≤ t))<br />

∫<br />

= ν(dy)f(y)E P (e −yB t− 1 2 y2t F (B s + ys, s ≤ t))<br />

=<br />

∫<br />

ν(dy)f(y)E(F (B s , s ≤ t)) = E(F (B s , s ≤ t))E P (f(Y ))<br />

et la loi de Y est la même sous P et sous Q.<br />

Exercice gi:4 : On remarque que e −2B t<br />

− 1 = −2 ∫ t<br />

0 e−2B s<br />

dB s + 2 ∫ t<br />

− 1 4<br />

(<br />

e<br />

−2B t<br />

− 1 ) + 1 2<br />

= 1 2<br />

∫ t<br />

0<br />

∫ t<br />

∫ t<br />

0<br />

e −2B s<br />

dB s − 1 2<br />

(<br />

e −2B s<br />

− 1 )<br />

4 e−4B s<br />

ds<br />

∫ t<br />

0<br />

∫ t<br />

e −2B s<br />

ds + 1 2<br />

∫ t<br />

0<br />

0 e−2B s<br />

ds<br />

(<br />

e −2B s<br />

− 1 )<br />

4 e−4B s<br />

ds<br />

= 1 e −2B s<br />

dB s − 1 e −4B s<br />

ds<br />

2 0<br />

4 0<br />

( ∫ t<br />

et on sait que exp<br />

0 θ ∫<br />

sdB s − 1 t<br />

2<br />

ds)<br />

0 θ2 est une martingale locale. On peut vérifier que la condition<br />

de Novikov est satisfaite Sous Q, le processus ̂B<br />

∫<br />

= B − 1 t<br />

2 0 e−2B s<br />

ds est un MB.<br />

6.4 Cas multidimensionnel<br />

6.5 Temps d’arrêt<br />

Exercice 6.5.1 : Soit dP µ = L t dP où L t = exp(− µ σ B t− µ2<br />

2σ 2 t). Sous P µ, ( ˜B t = B t + µ σ t = X t<br />

σ , t ≥ 0)<br />

est un Brownien et X t = σ ˜B t .<br />

De l’égalité T a = inf{t | ˜B t = a }, on en déduit le résultat qui figure dans le cours en procédant<br />

σ<br />

comme suit:<br />

On a dP = L −1<br />

t dP µ avec<br />

L −1<br />

t = exp( µ σ B t + µ2<br />

2σ 2 t) = exp(µ σ ˜B t − µ2<br />

2σ 2 t)<br />

et pour tout temps d’arrêt T , on a<br />

(<br />

E P (exp(−λ(T ∧ t)) = E Pµ (L T ∧t e −λ(T ∧t) ) = E Pµ exp( µ σ ˜B T ∧t − µ2 + 2λσ 2 )<br />

2σ 2 (T ∧ t))<br />

On en déduit<br />

E P (exp(−λT a ) 1 Ta


Corrigés. 2009-10 139<br />

Exercice 6.5.2 :<br />

and use that<br />

E( 1 T ln a} = inf{t : B t + (λ − 1/2)t > ln a}<br />

Exercice 6.5.3 : Le processus (M t = exp(θ ˜B t − θ2 t<br />

2 ) , t ≥ 0) est une P µ-martingale et si a et θ<br />

sont positifs (M t∧Ta , t ≥ 0) est uniformément intégrable, car majorée par exp(θa). On en déduit<br />

E Pµ (M Ta ) = 1 d’où<br />

E P (e −λTa 1 Ta


140 Compléments<br />

avec Y t = 1 ∫ t<br />

S u du et K = T . Par un changement de probabilité (le processus e −rt S t<br />

S t 0<br />

S 0<br />

Q-martingale positive d’espérance 1), on obtient A = S 0<br />

T Ẽ((Y T − K) + ) avec, sous ˜Q<br />

dY t = (1 − rY t )dt + Y t σd ˜B t .<br />

est une<br />

On peut utiliser que Y t = U t + V t avec U solution de<br />

et V t = y +<br />

∫ t<br />

Exercice 6.6.15 :<br />

0<br />

dU t = −rU t dt − σU t d ˜B t , U 0 = 1<br />

(U s ) −1 ds, ce qui ne nous avance pas beaucoup.<br />

1. On a dr t = σ′ (t)<br />

σ(t) r tdt + σ(t)(dB t + h(t)dt).<br />

2. Une intégration par parties donne le résultat.<br />

3. Une nouvelle intégration par parties donne le résultat<br />

4. Une quantité du type<br />

A = E<br />

(<br />

exp<br />

(<br />

f(T )B T −<br />

∫ T<br />

0<br />

B s g(s)ds<br />

se calcule en recherchant une fonction ϕ telle que ϕ ′ (s) = g(s), ϕ(T ) = g(T ). On peut aussi<br />

remarquer que<br />

∫ T<br />

h(T )B T − B s (h ′ (s) + σ(s))ds<br />

0<br />

est une variable gaussienne centrée dont on identifie la variance.<br />

Exercice 6.6.17 : S t = x + mart + 2(ν + 1)<br />

que E(( 1 T<br />

∫ T<br />

0<br />

∫ t<br />

0<br />

))<br />

S u du. Utiliser que 1 − e−b<br />

b<br />

≥ e −b . On en déduit<br />

exp(2(B s + νs))ds − K) + ) ≥ E((exp 2(B T + νT ) − k) + ) pour k assez petit.<br />

Exercice 6.6.7 Pour évaluer E Q (h(S T )|F t ) dans le cas h(x) = (x α − K) + , on utilise ce qui précède<br />

en écrivant S α T sous la forme x exp((a − b2 2 )t + bB t). IL est facile de vérifier que sous Q ∗ ,<br />

dZ t = −σZ t d ˜B t<br />

et comme ˜B donc − ˜B est un MB, Z a même dynamique sous Q ∗ que S sous Q. Par suite<br />

∀ϕ, E Q (ϕ(S T )) = E Q ∗(ϕ(Z T )) .<br />

Par définition de Q ∗ 1<br />

x E Q(S T f( x2<br />

)) = E Q ∗(f( x2<br />

)) .<br />

S T S T<br />

Par définition de Z,<br />

E Q ∗(S T f( x2<br />

S T<br />

)) = E Q ∗(f(Z T )) = E Q (f(S T )) .<br />

Si S a est une martingale, le même raisonnement conduit à la formule souhaitée. Un peu d’algèbre<br />

permettait décrire x β (x − K) + comme<br />

(x β+1 − K β+1 ) + − K(x β − K β ) + .


Chapter 7<br />

Compléments, Corrigés<br />

7.1 Théorème de Lévy.<br />

Exercice 7.1.1 : Soit S t = sup 0≤s≤t W s et<br />

Grace au théorème de Lévy<br />

D = sup (W s − W t ) = sup<br />

0≤s≤t≤1<br />

0≤t≤1 0≤s≤t<br />

= sup (S t − W t ) loi<br />

= sup |W t |<br />

0≤t≤1<br />

0≤t≤1<br />

sup (W s − W t )<br />

(S t − W t , S t , W t ; θ ≤ t ≤ 1) loi<br />

= (|W t |, L t , L t − |W t |; g ≤ t ≤ 1)<br />

D’où<br />

Thus<br />

W θ , sup (S t − W t − S t )) loi<br />

= L g − |B g |, sup (|W t | − L t ) = (L g , sup (|W t | − L g )<br />

θ≤t≤1<br />

g≤t≤1<br />

g≤t≤1<br />

D 1 = W θ + sup (S t − W t − S t ) loi<br />

= L g + sup |W t | − L g<br />

θ≤t≤1<br />

g≤t≤1<br />

Exercice 7.4.1 : La premiere égalité provient du théorème de Lévy et de la connaissance de la loi<br />

du couple S t , B t ). La seconde égalité en loi provient de la symétrie de la loi du couple. Pour le semi<br />

groupe, on utilise la formule de Lévy et l’indépendance de (B u , u ≤ t) et de ˜B v = B t+v − B t<br />

E(f(S t+s − B t+s , S t+s |F s ) = E(f((S s − B s ) ∨ ˜S t − ˜B t , B s + (S s − B s ) ∨ ˜S t S t+s )|F s )<br />

∫<br />

= µ t (da, dl)f(α ∨ l − (l − a), (λ − α) + α ∨ l)<br />

Les résultats concernant l’indépendance de S t (S t − B t ) et B t sont dus à Seshadri.<br />

7.2 Equations rétrogrades<br />

Exercice 7.2.2 : Il s’agit d’appliquer la formule d’Itô et le théorème de représentation. La propriété<br />

de martingale de X provient de X t = E(e ζ H T |F t ) et le théorème de représentation établit l’existence<br />

141


142 Compléments<br />

de z. Puis, en utilisant la formule d’Itô<br />

d(1/H t ) = − 1<br />

Ht<br />

2 dH t + 1<br />

Ht<br />

3 d〈H〉 t = 1 [(r + θ 2 )dt + θdW t )]<br />

H t<br />

d(Z t /H t ) = Z t<br />

[(r + θ 2 )dt + θdW t ) + H t z t dW t + z t<br />

θdt<br />

H t H t<br />

dX t = ( z t<br />

H t<br />

+ θ)dW t +<br />

= ̂X t dW t + (r + θ ̂X t − 1 2 ̂X 2 t )dt<br />

(<br />

(r + θ 2 ) + z t<br />

H t<br />

θ − 1 2 ( z t<br />

H t<br />

+ θ) 2 )<br />

dt<br />

7.3 Théorèmes de représentation<br />

Exercice 7.3.1 : On utilisera le théorème de représentation prévisible pour représenter W (1)<br />

t , W (2)<br />

t<br />

en terme de W (3) . Si l’égalité était possible, on aurait W (i)<br />

E(W (1)<br />

t W (2)<br />

t ) = E(<br />

∫ t<br />

0<br />

Φ (1)<br />

t Φ (2)<br />

t dt) = 0.<br />

∫ t<br />

t =<br />

0<br />

Φ (i)<br />

t dW t avec<br />

∫ t<br />

0<br />

E[Φ (i)<br />

t ] 2 dt = t et<br />

Exercice 7.3.2 : M est une intégrale stochastique, l’intégrand est borné donc de carré intégrable,<br />

M est une martingale.<br />

Par propriété de l’intégrale stochastique<br />

[∫ t<br />

] 2 ∫ t<br />

1 Ws>0dW s − ( 1 Ws>0) 2 ds<br />

0<br />

est une martingale. Une autre méthode consiste à appliquer la formule d’Itô à Yt 2 avec Y t =<br />

∫ t<br />

0<br />

1 Ws >0dW s . Le processus A t =<br />

∫ t<br />

def<br />

Le processus M Ct est une G t = F Ct martingale et<br />

est une martingale.<br />

0<br />

0<br />

1 Ws >0ds est un processus croissant.<br />

MC 2 t<br />

− A Ct = MC 2 t<br />

− t<br />

7.4 Temps local.<br />

Exercice 7.4.2 : On ne peut pas appliquer Itô car x → |x| n’est pas de classe C 2 . Un calcul fait<br />

en pensant qu’un point ne compte pas et que l’on peut négliger le point oú la dérivée n’existe pas<br />

conduirait à (la dérivée de |x| est égale à sgn sauf en 0 et la dérivé seconde est nulle sauf en 0)<br />

|B t | =<br />

∫ t<br />

0<br />

sgn(B s )dB s et l’intégrale du membre de droite n’est pas positive (nous verrons plus loin<br />

que c’est un mouvement Brownien).<br />

Le processus β est une martingale de crochet<br />

u ≥ t<br />

∫ t<br />

0<br />

f 2 (B s )ds = t, c’est un MB. Il est évident que pour<br />

S u = sup W s ≥ S t = sup W s<br />

s≤u<br />

s≤t<br />

La première décomposition exprime que |W t | est égal à un MB plus un processus croissant, la seconde<br />

décomposition dit que S t − W t a la même propriété. On peut montrer, grace au lemme de<br />

Skohorod (voir poly) que (S t − W t , t ≥ 0) loi<br />

= (|W t |, t ≥ 0) et que (L t , t ≥ 0) loi<br />

= (S t , t ≥ 0).


Corrigés. 2009-10 143<br />

Exercice 7.4.3 : |B s | + L s ≥ L t = L dt for s ≥ t, and |B dt | + L dt = L dt .<br />

Exercice 7.4.4 : (θ ≤ u) = sup s≥u B s ≤ sup s≤u B s = sup 1≥s≥u (B s − B u ) + B u ≤ sup s≤u B s d’où<br />

P(θ ≤ u) = P(Ŝ1−u ≤ S u − B u ) On trouve finalement que θ a une loi Arc Sinus.<br />

Exercice 7.4.5 : On utilise la formule d’Itô<br />

dY t = f ′ x(X t , S t , 〈X〉 t )dX t + f ′ s(X t , S t , 〈X〉 t )dS t + (f ′ t + 1 2 f ′′<br />

xx)(X t , S t , 〈X〉 t )d〈X〉 t<br />

Or f s(X ′ t , S t , 〈X〉 t ) = f s(S ′ t , S t , 〈X〉 t ) dS t presque surement. Si 1 2 f xx ′′ + f t ′ = 0 et f s(s, ′ s, t) = 0, Y<br />

est une martingale locale.<br />

g(S t ) − (S t − X t )g ′ (S t ) = g(S t ) −<br />

=<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

g ′ (S s )dX s<br />

g ′ (S s )dS s +<br />

∫ t<br />

0<br />

g ′ (S s )dX s +<br />

∫ t<br />

0<br />

(S s − X s )g ′′ (S s )dS s<br />

Exercice 7.4.6 : On utilise le scaling du MB pour écrire<br />

∫ λ 2 t<br />

∫ t<br />

∫<br />

f(B s )ds loi<br />

= λ 2 f(λB u )du = λ 2<br />

0<br />

0<br />

da f(λa)L a t<br />

Exercice 7.4.8 : From the occupation formula and change of time<br />

∫ 〈M〉t<br />

∫<br />

duf(β u ) = dyf(y)L y 〈M〉 t<br />

(β).<br />

0<br />

7.5 Lois<br />

Exercice 7.5.1 : Soit Y t = f(X t ). On en déduit<br />

Le résultat souhaité en découle.<br />

∫ t<br />

0<br />

d〈M〉 s f(M s ) =<br />

X t<br />

dY t =<br />

b(X t ) dX t + 1 ( 1<br />

2 b(X t ) − X tb ′ (X t )) b 2<br />

b 2 (X t )dt<br />

(X t )<br />

(a(X t )<br />

= X t<br />

b(X t ) dt + dW ) 1( t + b(Xt ) − X t b ′ (X t ) ) dt<br />

2<br />

f(X t ) − f(X 0 ) −<br />

∫ t<br />

0<br />

[ a(X s )<br />

Xs<br />

b(X s ) + 1 (<br />

b(Xs ) − X s b ′ (X s ) )] ∫ t<br />

ds =<br />

2<br />

0<br />

X s dW s<br />

∫ t<br />

0<br />

d〈M〉 s f(β 〈M〉s ) =<br />

Exercice 7.5.2 : Let V be a standard Brownian motion starting at v, that is, V t = v + W t . In this<br />

case, the two events { τ a (V ) ≤ t} and { sup s≤t W s ≥ α}, where α = a − v are equal. The reflection<br />

principle implies that the r.v. sup s≤t W s is equal in law to the r.v. ‖W t ‖. Therefore,<br />

P(τ α (W ) ≤ t) = P(sup W s ≥ α) = P(‖W t ‖ ≥ α) = P(Wt 2 ≥ α 2 ) = P(tG 2 ≥ α 2 )<br />

s≤t<br />

where G is a Gaussian variable, with mean 0 and variance 1. It follows that τ α (W ) loi<br />

, and the<br />

G2 probability density function of τ a (V ) is<br />

f(t) = a − v √<br />

2πt<br />

3 exp (<br />

−<br />

(v −<br />

)<br />

a)2<br />

.<br />

2t<br />

= α2


144 Compléments<br />

The computation of<br />

E ( 1 {T a. On admettra que M est uniformément intégrable.<br />

a = E[M Ty ] = yP(T y < ∞) = yP(sup M t ≥ y)<br />

Soit a y = P(sup M t ≥ y) = P( a y ≥ U) = P( a U ≥ y).<br />

7.6 Filtrations<br />

Exercice 7.6.2 : M t = E(W t |H t ) est un processus H-adapté. Pour montrer que c’est une H-<br />

martingale, il suffit d’écrire la suite d’égalités suivantes, pour t ≥ s<br />

E(M t |H s ) = E(W t |H t |H s ) = E(W t |H s )<br />

= E(W t |G s |H s ) = E(W s |H s )<br />

Pour montrer que Z est une F X -martingale, on écrit (en justifiant chaque égalité, ce que je ne fais<br />

pas)<br />

E(Z t |F X s ) = E(X t |F X s ) − E(<br />

= E(W t +<br />

∫ t<br />

= E(W t |F X s ) + E(<br />

= E(W s |F X s ) + E(<br />

0<br />

= E(X s |F X s ) +<br />

= X s +<br />

= X s −<br />

∫ t<br />

s<br />

∫ s<br />

0<br />

∫ t<br />

0<br />

Ŷ u du|F X s )<br />

Y u du|F X s ) − E(<br />

∫ s<br />

0<br />

∫ s<br />

0<br />

∫ t<br />

s<br />

Ŷ u du −<br />

Ŷ u du)<br />

∫ t<br />

0<br />

Y u du|F X s ) + E(<br />

Y u du|F X s ) + E(<br />

E(Y u |F X s )du −<br />

∫ s<br />

0<br />

Ŷ u du|F X s )<br />

∫ t<br />

s<br />

∫ t<br />

s<br />

∫ s<br />

0<br />

E(Ŷu|F X s )du − E(<br />

Y u du|F X s ) −<br />

Y u du|F X s ) −<br />

Ŷ u du − E(<br />

on a utilisé que E(W t |F X s ) = E(W s |F X s ) et que, pour u > s<br />

∫ t<br />

s<br />

∫ t<br />

s<br />

Ŷ u du|F X s )<br />

E(Y u |F X s ) = E(Y u |F X u |F X s ) = E(Ŷu|F X s )<br />

∫ s<br />

0<br />

∫ s<br />

0<br />

Ŷ u du|F X s )<br />

Ŷ u du − E(<br />

Ŷ u du − E(<br />

∫ t<br />

s<br />

∫ t<br />

s<br />

Ŷ u du|F X s )<br />

Ŷ u du|F X s )<br />

7.7 Options barrières<br />

∫<br />

Exercice 7.7.1 : Soit Φ t (x) = P(B t < x) = √ 1 x u2<br />

2πt<br />

exp(−<br />

−∞ 2t )du. on a Φ t(x) = 1 − Φ t (−x) d’où,<br />

P(B t < x) = P(B t > −x).


Corrigés. 2009-10 145<br />

Soit T = inf{t ≥ 0|B t = y}. Par définition P(B t ≤ x, M t > y) = P(T < t, Bt−T<br />

∗ < x − y). Si<br />

M t > y, c’est que l’on a dépassé y avant t: Si M t > y, on a T < t. De plus Bt−T ∗ = B t −B T = B t −y.<br />

Par indépendance, P(T < t, Bt−T ∗ < x − y) = ∫ t<br />

0 P(T ∈ du , B∗ t−u < x − y) = ∫ t<br />

0 P(T ∈ du)P(B∗ t−u <<br />

x − y). D’après 1, P(Bt−u ∗ < x − y) = P(Bt−u ∗ > −x + y), d’où<br />

∫ t<br />

et par indépendance<br />

∫ t<br />

0<br />

0<br />

P(T ∈ du)P(B ∗ t−u < x − y) =<br />

P(T ∈ du)P(B ∗ t−u > y − x) =<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

P(T ∈ du)P(B ∗ t−u > y − x)<br />

P(T ∈ du, B ∗ t−u > y − x) = P(T < t, B t > 2y − x)<br />

En tenant compte du fait que si B t > 2y − x et y > x , alors B t > y, donc T < t on en déduit<br />

P(T < t, B t > 2y − x) = P(B t > 2y − x) d’où<br />

P(B t ≤ x, M t > y) = P(B t > 2y − x)<br />

En utilisant<br />

on obtient<br />

P(B t ≤ x, M t < y) = P(B t ≤ x) − P(B t ≤ x, M t > y)<br />

P(B t ≤ x, M t < y) = N ( x √<br />

t<br />

) − N ( x − 2y √<br />

t<br />

)<br />

3. La loi de T s’obtient en écrivant P(T < t) = P(M t < y) et la densité du couple (B t , M t ) en<br />

dérivant P(B t ≤ x, M t < y).<br />

4. Soit X t = µt + B t , Y t = sup (X s , 0 ≤ s ≤ t}. Soit dQ = ζdP avec ζ = exp(−µX t + 1 2 µ2 t). En<br />

utilisant le théorème de Girsanov, on a<br />

P(X t < x, Y t < y) = E Q (exp(µX t − 1 2 µ2 t) 1 Xt


146 Compléments<br />

where Ṽ is a Brownian motion independent of τ a(V ).<br />

For t < 1, the set {g ≤ t} is equal to {d t > 1}.<br />

d a t (W ) = t + inf {u ≥ 0 : W u+t − W t = a − W t } = t + ̂τ a−Wt<br />

( a<br />

2 ) ( ‖a‖<br />

P<br />

G 2 > 1 − t = Φ √<br />

). 1 − t<br />

loi<br />

= t + (a − W t) 2<br />

G 2 .<br />

Then, the Itô-Tanaka formula combined with the identity xΦ ′ (x) + Φ ′′ (x) = 0 lead to<br />

( ) ∫ |Wt |<br />

t<br />

( ) ( )<br />

P(g ≤ t|F t ) = Φ √ = Φ ′ |Ws | |Ws |<br />

√ d √ + 1 ∫ t<br />

1 − t 1 − s 1 − s 2<br />

=<br />

=<br />

0<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

Φ ′ ( |Ws |<br />

√ 1 − s<br />

) sgn(Ws )<br />

√ 1 − s<br />

dW s +<br />

Φ ′ ( |Ws |<br />

√ 1 − s<br />

) sgn(Ws )<br />

√ 1 − s<br />

dW s +<br />

Exercice 7.4.7 : The occupation time formula leads to<br />

E<br />

∫ Ta (X)<br />

0<br />

f(X s ) ds =<br />

∫ a<br />

−∞<br />

It remains to compute φ(x) = E[L x T a<br />

]. Tanaka’s formula reads<br />

∫ Ta<br />

(X Ta − x) + = (−x) + +<br />

(a − x) + = (−x) + +<br />

Then, taking expectation of both sides<br />

Therefore, if φ(x) = E[̷L x T a<br />

]<br />

which gives<br />

0<br />

∫ Ta<br />

f(x)E[L x T a<br />

]dx<br />

1 (Xs >x)dX s + 1 2 Lx T a<br />

1<br />

2 E[̷Lx T a<br />

] = (a − x) + − (−x) + − νE[<br />

= (a − x) + − (−x) + − νE[<br />

1<br />

2 φ(x) = (a − x)+ − (−x) + − ν<br />

⎧<br />

⎪⎨<br />

φ(x) =<br />

⎪⎩<br />

Exercice 7.8.2 : Il suffit d’écrire<br />

1<br />

(1 − exp(2ν(x − a))<br />

ν for<br />

0<br />

0<br />

∫ t<br />

0<br />

√<br />

2<br />

π<br />

( )<br />

ds |Ws |<br />

1 − s Φ′′ √ 1 − s<br />

( )<br />

dL<br />

√ s<br />

Φ ′ |Ws |<br />

√ 1 − s 1 − s<br />

∫ t<br />

1 (Xs>x)(dW s + νds) + 1 2 Lx T a<br />

∫ a<br />

x<br />

∫ Ta<br />

0<br />

∫ a<br />

x<br />

1 (Xs >x)ds]<br />

L y T a<br />

dy]<br />

φ(y)dy, φ(a) = 0<br />

0 ≤ x ≤ a<br />

1<br />

(1 − exp(−2νa)) exp(2νx) for x ≤ 0<br />

ν<br />

B t = m 1<br />

√ t − gt (sgneB t )<br />

0<br />

dL s<br />

√ 1 − s<br />

.<br />

√<br />

On a alors E(B t |F gt ) = E(m 1 t − gt (sgneB t )F gt ) = √ t − g t (sgneB t )E(m 1 ) = √ √ π<br />

t − g t (sgneB t )<br />

2<br />

On note µ t = √ t − g t (sgneB t ), c’est une martingale. Des calculs analogues conduisent à<br />

E(B 2 t − t|F gt ) = E(m 2 1)µ 2 t − t


Corrigés. 2009-10 147<br />

avec h(x) = E(e xm1 ).<br />

E(e αB t− α2<br />

2 t |F gt ) = h(αµ t )e − α2<br />

2


148 Sauts.


Chapter 8<br />

Sauts, Corrigés.<br />

8.1 Processus de Poisson<br />

Exercice 8.4.1 : Il suffit d’utiliser l’Exercice 1.4.9.<br />

Exercice 8.1.3 : La Propiéé d’accroissements indépendants du processus de POisson conduit à<br />

E(N t − N s |F s ∧ σ(N 1 )) = E(N t − N s |(N s − N 1 ))<br />

Il est bien connu (ou tout au moins facile de vérifier ) que si X et Y sont deux variables de Poisson,<br />

indépendantes, de paramètre µ et ν<br />

( )<br />

n<br />

P(X = k|X + Y = n) = α k (1 − α) n−k<br />

k<br />

avec α = µ . On en déduit<br />

µ + ν<br />

E(N t − N s |F s ∧ σ(N 1 )) = t − s<br />

1 − s (N 1 − N s )<br />

La vérification de la propriété de martingale est alors facile.<br />

Exercice 8.1.4 : Si N est un processus de Poisson, P(N t = n) = e −λt λn t n<br />

ψ(z, t) = e −λt e −λtz<br />

n!<br />

d’où<br />

Si N un processus à accroissements indépendants tel que N t+s − N t<br />

loi<br />

= N s<br />

On en déduit<br />

ψ(z, t + s) =<br />

∞∑<br />

z n P(N t+s = n) = E(z N t+s<br />

) = E(z N t+s−N t +N t<br />

)<br />

n=0<br />

= E(z Nt+s−Nt )E(z Nt ) = E(z Ns )E(z Nt ) = ψ(z, t)ψ(z, s)<br />

ψ(z, t + h) − ψ(z, t) = ψ(z, t)[ψ(z, h) − 1]<br />

ce qui conduit à une EDO en utilisant les propriétés de ψ données dans l’énoncé. En tenant compte<br />

de ψ(z, 0) = 1, on montre que ψ(z, t) = e −λt e −λtz , ce qui caractérise le processus de Poisson (cette<br />

égalité caractérise la loi de N t , ce qui avec N un processus à accroissements indépendants tel que<br />

loi<br />

N t+s − N t = N s caractérise le processus de Poisson.)<br />

149


150 Sauts.<br />

Exercice 8.2.1 : Le processus de Poisson composé est un processus à accroissements indépendants,<br />

donc pour s < t<br />

E(Y t − Y s |F s ) = E(Y t − Y s ) = E(X t − X s ) − µλ(t − s) = 0<br />

On peut le démontrer à la main:<br />

avec<br />

E(X t − X s |F s ) = E(<br />

i=n+1<br />

∑N t<br />

i=N s+1<br />

N t −N<br />

∑ s +N s<br />

Y i |F s ) = E( Y i |F s ) = Ψ(N s )<br />

i=N s+1<br />

n+N<br />

∑ t−s<br />

Ψ(n) = E( Y i ) = ∑ P(N t−s = k)E(<br />

n+k<br />

∑<br />

i=n+1<br />

= ∑ P(N t−s = k)kE(Y 1 ) = E(Y 1 )E(N t−s ) = E(Y 1 )λ(t − s)<br />

Y i )<br />

Exercice 8.2.2 :<br />

Si X et ˜X sont deux solutions,<br />

Z t<br />

def<br />

= X t − ˜X t = −c<br />

∫ t<br />

0<br />

(X s − ˜X s )ds = −c<br />

et Z est solution de l’équation différentielle ordinaire Z t ′ = −cZ t avec condition initiale nulle. Donc<br />

Z = 0.<br />

Soit X t = e −ct x +<br />

∫ t<br />

0<br />

e −c(t−s) dN s . On calcule<br />

∫ t<br />

0<br />

X s ds =<br />

∫ t<br />

0<br />

e −cs xds +<br />

∫ t<br />

0<br />

ds<br />

∫ s<br />

0<br />

∫ t<br />

0<br />

Z s ds<br />

e −c(s−u) dN u .<br />

L’intégrale double se calcule en employant Fubini (pour des intégrales de Stieltjes)<br />

∫ t<br />

0<br />

ds<br />

∫ s<br />

0<br />

e −c(s−u) dN u =<br />

∫ t<br />

0<br />

= 1 c (N t −<br />

En utilisant que M et Y sont des martingales<br />

∫ t<br />

dN u dse −c(s−u) = 1 c<br />

u<br />

∫ t<br />

0<br />

e −c(t−s) dN s ) .<br />

∫ t<br />

0<br />

dN u (1 − e −c(t−u) )<br />

E(M t Y t |F s ) = E(M t (Y t − Y s )|F s ) + M s Y s = E((M t − M s )(Y t − Y s )|F s ) + M s Y s<br />

Le calcul de E((M t −M s )(Y t −Y s )|F s ) se fait comme le précédent. Exercice 8.1.5 :<br />

par parties, d(tN t ) = N t dt + tdN t D’ou<br />

Par intégration<br />

∫ t<br />

N s ds = tN t −<br />

∫ t<br />

sdN s =<br />

∫ t<br />

0<br />

0<br />

0<br />

(t − s)dN s<br />

Pour calculer la TL, il suffit d utiliser que pour toute fonction h (ici, pour t fixé h(s) = −λ(t − s))<br />

si c est l’intensité de N<br />

E(exp(<br />

∫ t<br />

8.2 Poisson composé<br />

h(s)dN s ) = exp(−c<br />

∫ t<br />

0<br />

0<br />

(1 − e h(s) )ds)<br />

Exercice 8.2.3 :<br />

Par indépendance des Y k , on obtient<br />

n∑<br />

m∑<br />

E(λ Y k + µ Y k )) = E(λY 1 ) n E(µY 1 ) m<br />

k=1 k=n+1


Corrigés. 2009-10 151<br />

Le caractère PAIS de N s’obtient à partir de<br />

E(λX s + µ(X t − X s )) = E(ψ(λ, N s )ψ(µ, N t − N s )) = E(ψ(λ, N s ))E(ψ(µ, N t−s ))<br />

où ψ(λ, n) = E(λY 1 ) n . Le processus N est indépendant des (Y k , k ≥ 1) et la v.a. N t a une loi de<br />

Poisson : il s’en suit que<br />

P(X t ≤ x) = ∑ n<br />

= ∑ n<br />

= e −λt ∑ n<br />

P(N t = n,<br />

n∑<br />

Y k ≤ x)<br />

k=1<br />

P(N t = n)P(<br />

n∑<br />

Y k ≤ x)<br />

k=1<br />

(λt) n<br />

F ∗ (x) ,<br />

n!<br />

et<br />

∞∑ n∑<br />

∞∑<br />

E(X t ) = E( Y k 1 Nt =n) = nE(Y )P(N t = n)<br />

n=1<br />

= E(Y )<br />

k=1<br />

n=1<br />

∞∑<br />

nP(N t = n) = λtE(Y 1 ) .<br />

n=1<br />

Le calcul de la variance peut être obtenu avec les m ˆmes arguments, mais il est plus facile d’utiliser<br />

que le moment d’ordre deux est obtenu par dérivation (d’ordre deux) de la transformée de Laplace<br />

de X t Exercice 8.2.4 : Le processus X étant un PAI et E(X t ) = λtE(Y 1 ) on obtient que<br />

(X t − tλE(Y ), t ≥ 0) est une martingale. Plus généralement, si f une fonction borélienne bornée, on<br />

note µ(f) = ∫ f(x)µ(dx) l’espE(f(Y )). Par définition de M f ,<br />

E(M f t ) = ∑ n<br />

E(f(Y n ))P(T n < t) − tλµ(f) = σ(f) ∑ n<br />

P(T n < t) − tλµ(f) = 0<br />

La fin de la preuve est standard et utilise le calcul suivant, pour s > 0<br />

⎛<br />

⎞<br />

E(M f t+s − M f t |F t ) = E ⎝<br />

∑<br />

f(∆X u ) 1 ∆Xu ≠0 − sλµ(f)|F t<br />

⎠ = 0 .<br />

Pour la réciproque, on écrit<br />

où f(x) = e iux − 1. Il en résulte<br />

t


152 Sauts.<br />

Exercice 8.2.6 : From the independence between the r.v. (Y k , k ≥ 1) and the process N,<br />

where Φ(n) = E<br />

(<br />

exp (−α<br />

(<br />

)<br />

∑N t<br />

E(e −αX t<br />

) = E exp (−α Y k ) = E(Φ(N t ))<br />

k=1<br />

)<br />

n∑<br />

Y k ) = [Ψ Y (α)] n , with Ψ Y (α) = E (exp −αY ). Now, E(Φ(N t )) =<br />

k=1<br />

∑<br />

[Ψ Y (α)] n e −λt λn t n<br />

. Exercice 8.4.1 : Appliquer la formule d’intégration par parties à V t exp −<br />

n!<br />

n<br />

∫ t<br />

0<br />

∫<br />

( u<br />

du h u λ u exp − λ s ds ) = U t et à U t (1 − 1 τ≤t ).<br />

0<br />

8.3 Marché complets, incomplets<br />

Exercice 8.5.1 : We shall now restrict our attention to the simple case of a complete market where<br />

dS t = S t− [µdt + φdM t ]<br />

and r = 0. Here, M is the compensated martingale associated with a poisson process with deterministic<br />

intensity.<br />

The non-arbitrage condition is equivalent to the existence of γ such that γ > −1 and µ+λφγ = 0.<br />

This implies that λφ − µ > 0.<br />

λφ<br />

The unique equivalent martingale measure Q is defined by dQ<br />

dP | F t<br />

= L t where L is the strictly<br />

positive martingale<br />

( ) Nt<br />

λφ − µ<br />

L t =<br />

exp(tµ/φ)<br />

λφ<br />

µ<br />

which satisfies dL t = −L t−<br />

λφ dM t.<br />

Under the measure Q, ˜Mt<br />

def<br />

= M t + tµ/φ is a martingale.<br />

Exercice 8.5.2 : Les m.m.e. sont définies par leur densité L vérifiant<br />

avec<br />

dL t = L t− (−ψ t dB t + γ t dM t )<br />

σψ(t) = b − r + λφγ(t) , dP ⊗ dt.p.s.<br />

Elles sont indexées par un processus γ > −1. Sous P γ , le processus B γ défini par<br />

∫ t<br />

0<br />

λ s ds +<br />

B γ t<br />

def<br />

= B t −<br />

∫ t<br />

0<br />

ψ(s) ds<br />

est un mouvement Brownien M γ t<br />

On utilisera<br />

avec θ = b − r<br />

σ .<br />

def<br />

= M t −<br />

B γ (t) = B(t) + tθ +<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

λγ(s)ds est une martingale.<br />

λφ γ(s)<br />

σ ds = B0 t +<br />

∫ t<br />

0<br />

λφ γ(s)<br />

σ<br />

ds

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!