EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry
EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry
EXERCICES DE CALCUL STOCHASTIQUE M2IF Evry
Transformez vos PDF en papier électronique et augmentez vos revenus !
Optimisez vos papiers électroniques pour le SEO, utilisez des backlinks puissants et du contenu multimédia pour maximiser votre visibilité et vos ventes.
<strong>EXERCICES</strong> <strong>DE</strong> <strong>CALCUL</strong> <strong>STOCHASTIQUE</strong><br />
<strong>M2IF</strong> <strong>Evry</strong><br />
Monique Jeanblanc<br />
Université d’EVRY<br />
Mars 2009
Contents<br />
1 Rappels 7<br />
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.2 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
1.3 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />
1.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
1.6 Changement de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
1.7 Algèbre béta-Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
2 Mouvement Brownien 15<br />
2.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
2.2 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />
2.3 Brownien Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
2.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
2.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
2.8 Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
2.8.1 Partie I : Résultats préliminaires . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
2.8.2 Partie II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
2.8.3 Partie III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />
3 Intégrale d’Itô 29<br />
3.1 Intégrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />
3.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />
3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />
3.4 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
3.5 Brownien géométrique et extensions. . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />
3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />
3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
3
4 CONTENTS<br />
4 Exemples 45<br />
4.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />
4.2 Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />
4.3 Autres processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />
4.4 Des calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />
5 Equations différentielles stochastiques 51<br />
5.1 Equation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />
5.2 Processus affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />
5.3 Autres équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />
5.4 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />
5.5 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />
6 Girsanov 59<br />
6.1 Résultats élémentaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />
6.2 Crochet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
6.3 Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
6.4 Cas multidimensionel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />
6.5 Temps d’arrêt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />
6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />
7 Compléments 75<br />
7.1 Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75<br />
7.2 Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />
7.3 Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78<br />
7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />
7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />
7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />
7.7 Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />
7.8 Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />
7.9 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />
8 Processus à sauts 85<br />
8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />
8.2 Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />
8.3 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
8.4 Temps de Défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />
8.5 Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />
1 Rappels, Corrigés 91<br />
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />
1.2 Variables gaussiennes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
CONTENTS 5<br />
1.3 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />
1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />
1.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />
1.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />
1.7 Algèbre béta-gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />
1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />
2 Mouvement Brownien, Corrigés 101<br />
2.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />
2.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105<br />
2.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107<br />
2.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107<br />
2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />
2.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />
2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />
3 Intégrale d’Itô, Corrigés 113<br />
3.1 Intégrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />
3.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114<br />
3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />
3.4 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />
3.5 Brownien géométrique et extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . 119<br />
3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122<br />
3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122<br />
4 Exemples, Corrigés 125<br />
4.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125<br />
4.2 Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126<br />
4.3 Autres processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127<br />
4.4 Des Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127<br />
5 Equations différentielles stochastiques, Corrigés 129<br />
5.1 Equation Linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129<br />
5.2 Processus affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />
5.3 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />
5.4 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134<br />
6 Girsanov, Corrigés 135<br />
6.1 Résultats élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135<br />
6.2 Crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135<br />
6.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136<br />
6.4 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6 Rappels<br />
6.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138<br />
6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139<br />
7 Compléments, Corrigés 141<br />
7.1 Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />
7.2 Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />
7.3 Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142<br />
7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142<br />
7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />
7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />
7.7 Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />
7.8 Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145<br />
8 Sauts, Corrigés. 149<br />
8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />
8.2 Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150<br />
8.3 Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Chapter 1<br />
Rappels<br />
1.1 Tribu<br />
Exercice 1.1.1 Ensembles appartenant à une tribu.<br />
1. Montrer que si F est une tribu, et si A et B appartiennent à F avec A ⊂ B, alors B − A ∈ F<br />
où B − A est l’ensemble des éléments de B qui ne sont pas dans A.<br />
2. Montrer que si C et D appartiennent à F, alors C∆D def<br />
= {C ∩ D c } ∪ {C c ∩ D} appartient à<br />
F.<br />
Exercice 1.1.2 Exemples de tribus.<br />
1. Décrire la tribu engendrée par un ensemble A.<br />
2. Décrire la tribu engendrée par deux ensembles A et B disjoints.<br />
Exercice 1.1.3 Fonctions indicatrices.<br />
On note 1 A la v.a. qui vaut 1 pour ω ∈ A et 0 sinon.<br />
1. Montrer que 1 A∩B = 1 A 1 B .<br />
2. Montrer que, si A ∩ B = ∅, on a 1 A∪B = 1 A + 1 B .<br />
3. Montrer que 1 B−A = 1 B − 1 A .<br />
4. Montrer que 1 A∪B = 1 A + 1 B − 1 A∩B .<br />
Exercice 1.1.4 Union et intersection.<br />
Soit F 1 et F 2 deux tribus. Montrer que F 1 ∩ F 2 est une tribu. Montrer qu’en général F 1 ∪ F 2 n’est<br />
pas une tribu.<br />
Exercice 1.1.5 Tribu grossie par un ensemble.<br />
Soit F une tribu et A n’appartenant pas à F. Montrer que la tribu engendrée par F et A (c’est-àdire<br />
la plus petite tribu contenant F et A) est composée des ensembles B tels que il existe C et D<br />
appartenant à F vérifiant B = (C ∩ A) ∪ (D ∩ A c ).<br />
Exercice 1.1.6 Tribu engendrée par une v.a.<br />
Soit X une v.a. sur un espace (Ω, G). La tribu engendrée par X, notée σ(X), est la plus petite sous<br />
tribu F telle que X soit mesurable de (Ω, F) dans (R, B). Elle est engendrée par C = {F ⊂ Ω, |F =<br />
X −1 (B), B ∈ B). Montrer que C est une tribu. Vérifier que si Y = h(X) avec h borélienne, alors Y<br />
est σ(X) mesurable. On admettra que la réciproque est vraie.<br />
7
8 Rappels<br />
Exercice 1.1.7 Lois de v.a.<br />
Soit (X, Y ) un couple de variables indépendantes et (Z, T ) deux variables indépendantes telles que<br />
X loi<br />
= Z et Y loi<br />
= T .<br />
1. Soit f une fonction borélienne (bornée) de R dans R. Comparer E(f(X)) et E(f(Z)).<br />
2. Soit h une fonction borélienne (bornée) de R 2 dans R. Comparer E(h(X, Y )) et E(h(Z, T )).<br />
1.2 Variables gaussiennes<br />
On note N la fonction de répartition de la loi gaussienne standard: N (x) = 1 √<br />
2π<br />
∫ x<br />
−∞ e−u2 /2 du et<br />
N (m, σ 2 ) la loi d’ une v.a. gausienne d’espérance m et de variance σ 2 .<br />
Exercice 1.2.1 Moments.<br />
Soit X une v.a.r. de loi N (0, σ 2 ).<br />
1. Calculer E(X 3 ), E(X 4 ), E(|X|) et E(|X 3 |).<br />
2. Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0.<br />
3. Montrer que E(exp 1 2 a2 X 2 )) = E(exp(aXY )) où Y est indépendante de X et de même loi.<br />
Exercice 1.2.2 Somme de variables gaussiennes indépendantes.<br />
Soit X et Y deux v.a. gaussiennes indépendantes. Montrer que X + Y est une variable gaussienne.<br />
Précisez sa loi.<br />
Exercice 1.2.3 Transformée de Laplace.<br />
Soit X une v.a.r. de loi N (m, σ 2 ).<br />
1. Quelle est la loi de X−m<br />
σ<br />
Calculer E|X − m|.<br />
2. Montrer que E(e λX ) = exp(λm + 1 2 λ2 σ 2 ). Calculer E(Xe λX ).<br />
3. Dans le cas où X est v.a. gaussienne standard montrer que E(exp a2<br />
2 X2 ) = E(exp aXX ′ ) avec<br />
X et X ′ i.i.d.<br />
∫ x<br />
4. Soit Φ(x) = √ 1<br />
2π<br />
e − y2 2<br />
−∞<br />
en fonction de (Φ, λ, b).<br />
dy. Calculer, dans le cas m = 0 et σ = 1 la valeur de E( 1X≤b exp λX)<br />
5. Montrer que E(e θX f(X)) = e mθ+σ2 θ 2 /2 E(f(X + θσ 2 ) pour f continue bornée.<br />
6. Montrer que, si f est ”régulière” E(f(X)(X − m)) = σ 2 E(f ′ (X)).<br />
Exercice 1.2.4 Convergence.<br />
Soit (X n , n ≥ 1) une suite de v.a. gaussiennes qui converge dans L 2 vers X. Quelle est la loi de X<br />
Exercice 1.2.5 Vecteur gaussien. Soit X un vecteur gaussien à valeurs dans R n et A une matrice<br />
(p, n). Montrer que AX est un vecteur gaussien. Préciser son espérance et sa variance.<br />
Exercice 1.2.6 Vecteur Gaussien. Soit (X, Y ) un vecteur gaussien centré tel que E(XY ) = 0.<br />
Montrer que X et Y sont indépendantes.
Enoncés 9<br />
Exercice 1.2.7 Projection.(*)<br />
Rappel : projection dans L 2 : Soit A un sous espace de L 2 (Ω) engendré par les variables aléatoires<br />
Y 1 , . . . , Y n , c’est-à-dire si Z ∈ A, il existe (a i ) réels tels que Z = ∑ i a iY i . Soit X ∈ L 2 . On appelle<br />
projection de X sur A l’unique élément P rX de A tel que<br />
E( (X − P rX)Z) = 0, ∀Z ∈ A<br />
Soit (X 1 , X 2 , . . . , X d , Y 1 , . . . , Y n ) un vecteur gaussien centré dans R d+n . Montrer que X =<br />
(X 1 , X 2 , . . . , X d ) et Y = (Y 1 , . . . , Y n ) sont deux vecteurs gaussiens centrés.<br />
On suppose d = 1. Montrer que P rX est une v.a. gaussienne σ(Y ) mesurable, telle que X − P rX<br />
et Y sont indépendantes.<br />
Exercice 1.2.8 Caractérisation de vecteur gaussien. Soit (X, Y ) deux v.a.r. telles que Y<br />
est gaussienne et la loi conditionnelle de X à Y est gaussienne de moyenne aY + b et de variance<br />
indépendante de Y , c’est-à-dire que E(exp(λX)|Y = y) = exp(λ(ay + b) + λ2<br />
2 σ2 ). Montrer que le<br />
couple (X, Y ) est gaussien.<br />
1.3 Espérance conditionnelle<br />
On travaille sur un espace (Ω, F, P) muni d’une sous-tribu de F notée G.<br />
Exercice 1.3.1 Montrer que, si X et Y sont bornées<br />
E(Y E(X|G)) = E(XE(Y |G))<br />
Montrer que si X est G-mesurable et Y est indépendante de G, pour toute fonction borélienne bornée<br />
Φ,<br />
E(Φ(X, Y )|F) = Ψ(X)<br />
où Ψ(x) = E(Φ(x, Y )).<br />
Exercice 1.3.2 Montrer que si X ∈ L 2 , E(X|G) = Y et E(X 2 |G) = Y 2 alors X = Y .<br />
Exercice 1.3.3 Soit (X, Y ) indépendantes, X strictement positive et Z = XY . Calculer E( 1 Z≤t |X)<br />
en utilisant la fonction de répartition de Y .<br />
Exercice 1.3.4 Soit (X, Y ) indépendantes, équidristibuées et M = max(X, Y ). Calculer E( 1 X≤t |M).<br />
Exercice 1.3.5 Conditionnement et indépendance.<br />
Soit X, Y deux v.a. telles que la v.a. X − Y est indépendante de G, d’espérance m et de variance<br />
σ 2 . On suppose que Y est G-mesurable. Calculer E(X − Y | G). En déduire E(X | G). Calculer<br />
E( (X − Y ) 2 | G). En déduire E(X 2 | G).<br />
Exercice 1.3.6 Vecteur gaussien (*) Suite de l’exercice 1.2.7<br />
Soit (X, Y 1 , . . . , Y n ) un vecteur gaussien centré dans R 1+n . Montrer que E(X|Y ) = P rX.<br />
On suppose n = 1. Montrer que E(X|Y ) = αY . Déterminer α.<br />
Exercice 1.3.7 Soit X = X 1 + X 2 .<br />
mesurable et que X 1 est gaussienne.<br />
On suppose que X 1 est indépendante de G, que X 2 est G<br />
1. Calculer E(X|G) et var (X|G).
10 Rappels<br />
2. Calculer E(e λX |G).<br />
Exercice 1.3.8 Covariance conditionnelle. Soit Z 1 , Z 2 deux variables aléatoires de carré intégrable.<br />
On définit<br />
Cov(Z 1 , Z 2 |G) = E(Z 1 Z 2 |G) − E(Z 1 |G)E(Z 2 |G) .<br />
Montrer que<br />
Cov(Z 1 , Z 2 |G) = E[ (Z 1 − E(Z 1 |G)) Z 2 |G ].<br />
Exercice 1.3.9 Tribu grossie.<br />
Soit A /∈ G et A ∈ F et X une v.a. intégrable. On note H la tribu engendrée par G et A. (Voir<br />
exercice 1.1.5). On admettra que les v.a. Z qui sont H mesurables s’écrivent Z = Y 1 1 A + Y 2 1 A c,<br />
où les v.a. Y i sont G-mesurables. Montrer que<br />
E(X|H) = E(X 1 A |G)<br />
E( 1 A |G)<br />
1 A + E(X 1 A c|G)<br />
E( 1 A c|G)<br />
1 A c<br />
Exercice 1.3.10 Linéarité. Soit Z = αY +β, avec α ≠ 0. Montrer que E(aX+b|Z) = aE(X|Y )+b.<br />
Exercice 1.3.11 Grossissement progressif Soit F une tribu. On considère la tribu G engendrée<br />
par τ ∧ 1 où τ est une v.a. à valeurs dans R + .<br />
1. Montrer que toute v.a. G mesurable s’écrit h(τ ∧ 1) où h est borélienne.<br />
2. Montrer que, si X est une v.a. F mesurable, E(X|G) 1 1≤τ = A 1 1≤τ où A est une constante.<br />
Montrer que A = E(X 1 1≤τ )/P(1 ≤ τ).<br />
Exercice 1.3.12 Conditionnement et indépendance 1. Soit G 1 et G 2 deux σ-algèbres indépendantes,<br />
G = G 1 ∨G 2 et (X i , i = 1, 2) deux variables aléatoires bornées telles que X i est G i mesurable. Montrer<br />
que E(X 1 X 2 |G) = E(X 1 |G 1 )E(X 2 |G 2 ).<br />
Exercice 1.3.13 Conditionnement et indépendance 2. Montrer que si G est indépendante de<br />
σ(X) ∨ F, E(X|G ∨ F) = E(X|F).<br />
Exercice 1.3.14 Formule de Bayes. Soit dQ = LdP sur (Ω, F) et G une sous-tribu de F.<br />
Montrer que<br />
1<br />
E Q (X|G) =<br />
E P (Z|G) E P(ZX|G) .<br />
Montrer que<br />
si et seulement si L est G mesurable.<br />
E Q (X|G) = E P (X|G), ∀X ∈ F<br />
Exercice 1.3.15 Soit f et g deux densités strictement positives sur R. Soit X une v.a. de densité<br />
f sur un espace (Ω, P). Montrer qu’il existe une probabilité Q sur cet espace telle que X soit de<br />
densité g.<br />
Exercice 1.3.16 Indépendance conditionnelle Soit (F t ) et (G t ) deux filtrations.<br />
1. Montrer que les propriétés suivantes sont équivalentes.<br />
(H1) pour tout t, les tribus F ∞ et G t sont conditionellement indépendantes par rapport à F t .<br />
(H2) ∀F ∈ F ∞ , ∀G t ∈ G t , E(F G t |F t ) = E(F |F t ) E(G t |F t )<br />
(H3) ∀t, ∀G t ∈ G t , E(G t |F ∞ ) = E(G t |F t )<br />
(H4) ∀t, ∀F ∈ F ∞ , E(F |G t ) = E(F |F t ).
Enoncés 11<br />
2. Soit F et G deux filtrations telles que F t ⊂ G t . Montrer que<br />
(H) Toute F-martingale de carré intégrableest une G-martingale<br />
équivaut à (H1).<br />
3. Dans le cas G t = F t ∨ σ(t ∧ τ) où τ est un temps aléatoire, montrer que (H1) équivaut à<br />
(H5) ∀s ≤ t, P(τ ≤ s|F ∞ ) = P(τ ≤ s|F t ).<br />
1.4 Martingales<br />
L’espace Ω est muni d’une filtration (F t ).<br />
Un processus M est une martingale si<br />
- pour tout t, M t est intégrable;<br />
- pour tout t > s, E(M t |F s ) = M s , p.s.<br />
On dit que M est une surmartingale si<br />
- M t est adapté, intégrable;<br />
- E(M t |F s ) ≤ M s , ∀s ≤ t .<br />
Le processus M est une sousmartingale si −M est une surmartingale.<br />
Exercice 1.4.1 Exemple de base. Soit X une v.a. intégrable. Montrer que (E(X |F t ), t ≥ 0) est<br />
une martingale.<br />
Exercice 1.4.2 Surmartingale.<br />
1. Montrer que si M est une martingale et A un processus croissant adapté (A s ≤ A t , ∀s ≤ t)<br />
alors M − A est une surmartingale.<br />
2. Soit M une martingale. Que peut-on dire de M 2 <br />
3. Soit M une martingale telle que E(M 2 ∞) < ∞. Montrer que sup t E(M 2 t ) < ∞.<br />
4. Montrer qu’une surmartingale telle que E(Z T ) = E(Z 0 ) est une martingale sur [0, T ].<br />
Exercice 1.4.3 Martingale locale. Montrer qu’une martingale locale positive est une surmartingale.<br />
Exercice 1.4.4 Martingale en fonction de la valeur terminale. Soit X une martingale telle<br />
que X T = ζ. Exprimer X t en fonction de ζ pour t < T au moyen d’une espérance conditionnelle.<br />
Exercice 1.4.5 Un lemme.<br />
On trouve dans la littérature (Duffie) le lemme suivant:<br />
Lemma: Let φ be an adapted bounded process. Then (Y t = M t −<br />
martingale M if and only if<br />
∫ T<br />
Y t = E[ φ s ds + Y T |F t ]<br />
t<br />
Donner une démonstration de ce lemme.<br />
∫ t<br />
0<br />
φ s ds, 0 ≤ t ≤ T ) for some<br />
Exercice 1.4.6 Martingale de carré intégrable. Soit (M t , t ≥ 0) une F t -martingale de carré<br />
intégrable (telle que Mt<br />
2 soit d’espérance finie, pour tout t). Montrer que<br />
1. E((M t − M s ) 2 |F s ) = E(M 2 t |F s ) − M 2 s pour t > s.<br />
2. E((M t − M s ) 2 ) = E(M 2 t ) − E(M 2 s ) pour t > s.<br />
3. La fonction Φ définie par Φ(t) = E(M 2 t ) est croissante.
12 Rappels<br />
Exercice 1.4.7 Projection de martingale. Montrer que si M est une F t -martingale, c’est aussi<br />
une martingale par rapport à sa propre filtration G t = σ(M s , s ≤ t). Soit H t ⊂ F t . Montrer que<br />
Y t = E(M t |H t ) est une H t -martingale.<br />
Exercice 1.4.8 Une sousmartingale. Soit τ une v.a. positive. Montrer que Z t = P(τ ≤ t|F t )<br />
est une sousmartingale.<br />
Exercice 1.4.9 Processus à accroissements indépendants. Soit X un PAI (processus à accroissements<br />
indépendants, c’est-à-dire tel que, pour t > s, la v.a. X t − X s est indépendante de<br />
σ(X u , u ≤ s)). Montrer que, si, pour tout t, la v.a. X t est intégrable, X est une martingale et que<br />
si X est de carré intégrable, Xt 2 − E(Xt 2 ) est une martingale. Montrer que, si e λX t<br />
est intégrable,<br />
est une martingale.<br />
Z t =<br />
eλXt<br />
E(e λX t )<br />
Exercice 1.4.10 Soit M une martingale positive continue uniformément intégrable et τ = inf{t :<br />
M t = 0}. Montrer que M est nulle sur t > τ.<br />
Exercice 1.4.11 Soit X un processus F-adapté, positif à trajectoires continues et G ⊂ F. Montrer<br />
que E( ∫ t<br />
0 X sds|G t ) − ∫ t<br />
0 E(X s|G s )ds est une G-martingale.<br />
1.5 Temps d’arrêt<br />
Exercice 1.5.1 Tribu associée à un temps d’arrêt. Soit τ un temps d’arrêt. Montrer que F τ<br />
est une tribu.<br />
Exercice 1.5.2 Soit T un temps d’arrêt et X une variable aléatoire appartenant à F T , vérifiant<br />
X ≥ T . Montrer que X est un temps d’arrêt.<br />
Exercice 1.5.3 Exemple de processus adapté. Soit T un temps d’arrêt. Montrer que le processus<br />
X t = 1 ]0,T ] (t) est adapté.<br />
Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps d’arrêt tels que S ≤ T . Montrer<br />
que F S ⊂ F T .<br />
Exercice 1.5.5 Propriété de mesurabilité. Soit S un temps d’arrêt. Montrer que S est F S -<br />
mesurable.<br />
Exercice 1.5.6 Soit S et T deux temps d’arrêt. Montrer que {S ≤ T }, {T ≤ S} appartiennent à<br />
F S .<br />
Exercice 1.5.7 Exemple de processus càdlàg. Soit S et T deux temps d’arrêt tels que S < T .<br />
Montrer que le processus Z t = 1 [S,T [ (t) (égal à 1 si S ≤ t < T et à 0 sinon) est un processus càdlàg.<br />
Exercice 1.5.8 Exemple trivial de temps d’arrêt. Montrer qu’une constante τ est un temps<br />
d’arrêt. Quelle est dans ce cas la tribu F τ <br />
Exercice 1.5.9 Opérations sur les temps d’arrêt. Montrer que l’inf (resp. le sup) de deux<br />
temps d’arrêt est un temps d’arrêt.
Enoncés 13<br />
Exercice 1.5.10 Caractérisation de martingale.<br />
1. Soit s < t, A ∈ F s et T = t 1 A c + s 1 A . Montrer que T est un temps d’arrêt.<br />
2. Montrer que si E(X T ) = E(X 0 ) pour tout temps d’arrêt T , alors le processus X est une<br />
martingale.<br />
Exercice 1.5.11 Théorème d’arrêt. Soit M une martingale continue telle que M 0 = a et<br />
loi<br />
lim t→∞ M t = 0. Montrer que sup M t = a où U est une v.a. de loi uniforme sur [0, 1].<br />
U<br />
1.6 Changement de probabilité<br />
Ce thème sera central en vue d’application à la finance.<br />
Deux probabilités P et Q définies sur le même espace (Ω, F) sont dites équivalentes si elles ont<br />
mêmes ensembles négligeables, c’est à dire si<br />
P(A) = 0 ⇐⇒ Q(A) = 0.<br />
On admet le résultat: Si P et Q sont équivalentes, il existe une variable Y , strictement positive,<br />
F-mesurable, d’espérance 1 sous P appelée densité de Radon-Nikodym telle que dQ = Y dP ou encore<br />
Q(A) = ∫ dQ<br />
Y dP. On écrit également cette relation sous la forme = Y . Réciproquement, si Y<br />
A<br />
dP<br />
est une v.a. strictement positive, F-mesurable, d’espérance 1 sous P, la relation E Q (Z) = E P (ZY )<br />
définit une probabilité Q équivalente à P. Elle est facile à mémoriser par la règle de calcul formel<br />
suivante:<br />
∫ ∫<br />
E Q (Z) = ZdQ = Z dQ ∫<br />
dP dP = ZY dP = E P (ZY )<br />
On a aussi dP<br />
dQ = 1 Y .<br />
Exercice 1.6.1 Montrer que si P est une probabilité et Z une v.a., telle que l’égalité dQ = ZdP<br />
(soit Q(A) = E P (Z 1 A )) définit une probabilité, alors E P (Z) = 1 et P(Z < 0) = 0.<br />
Exercice 1.6.2<br />
1. Soit U une variable de Bernoulli sous P définie par<br />
P(U = 0) = 1 − p, P(U = 1) = p.<br />
Soit Y la variable définie par Y = λU + µ(1 − U). Dans quels cas cette variable est elle<br />
d’espérance 1 Soit dQ = Y dP, Calculer Q(U = 1). Quelle est la loi de U sous Q<br />
2. Soit X est une v.a. de loi N (m, σ 2 ) sous P et soit Y = exp{h(X−m)− 1 2 h2 σ 2 }. Soit dQ = Y dP.<br />
Calculer E Q {exp(λX)}) = E P {Y exp(λX)}. En déduire la loi de X sous Q (utiliser l’exercice<br />
1.2.1.<br />
3. Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U) soit gaussien.<br />
On pose dQ = Y dP avec Y = exp(U − E P (U) − 1 2 Var PU). Montrer que X est gaussien sous<br />
Q, de même covariance que sous P.<br />
1.7 Algèbre béta-Gamma<br />
Exercice 1.7.1 Loi Arc sinus Une variable aléatoire A a une loi Arc Sinus si sa densité est<br />
1 1<br />
√ √ 1 t∈[0,1] . Montrer que cos 2 (Θ) loi<br />
= A si Θ est uniforme sur [0, 2π].<br />
π 1 − t
14 Brownien.<br />
Soit N et N ′ N 2 loi<br />
deux variables N (0, 1) indépendantes. Montrer que<br />
N 2 + N ′2 = A.<br />
Soit C = N N ′ . Montrer que C a une loi de Cauchy et que 1<br />
a une loi Arc sinus.<br />
1 + C2 1.8 Divers<br />
Exercice 1.8.1 Soit X un processus at M t = sup 0≤s≤t X s . On note τ une v.a. de loi exponentielle<br />
de paramètre θ indépendante de X. Montrer que<br />
(∫ ∞<br />
)<br />
E (exp(−λM τ )) = 1 − λE due −λu e −θTu<br />
où T u = inf{t : X t ≥ u}.<br />
Exercice 1.8.2 Transformée de Laplace et indépendance. Soit X et Y deux v.a. indépendantes.<br />
Justifier que E(e λ(X+Y ) ) = E(e λX )E(e λY ). La réciproque est-elle vraie<br />
Exercice 1.8.3 Transformée de Laplace et moments. Soit X et Y deux v.a. bornées telles<br />
que E(e λX) = E(e λY ) pour tout λ. Montrer que X et Y ont même moments.<br />
Exercice 1.8.4 Markov. Soit X un processus de Markov fort et T a = inf{t : X t = a}. Montrer<br />
que, pour t < T<br />
P(X T ∈ dx |X t = a) = P(X T ∈ dx|T a = t) .<br />
Exercice 1.8.5 Propriété de Markov Soit B un mouvement Brownien et f une fonction. On<br />
note T f = inf{t : B t = f(t)}. Montrer que<br />
P(B t ≥ f(s)|T f = s) = 1 2 1 s
Chapter 2<br />
Mouvement Brownien<br />
Dans tout ce qui suit, (B t , t ≥ 0) est un mouvement Brownien réel (un processus à accroissements<br />
indépendants issu de 0, tel que pour t > s, B t − B s est une v.a. gaussienne centré de variance t − s)<br />
et on note F = (F t , t ≥ 0) sa filtration naturelle.<br />
Dans certains exercices, il sera précisé que B est issu de x.<br />
On rappelle que si X est un processus continu issu de 0, c’est un mouvement Brownien si et seulement<br />
si X et (X 2 t − t, t ≥ 0) sont des martingales.<br />
Le mouvement Brownien est un processus de Markov fort: pour tout temps d’arrêt τ fini<br />
E(f(B t+τ |F τ ) = E(f(B t+τ |B τ ) .<br />
2.1 Propriétés élémentaires<br />
Exercice 2.1.1 Caractérisation. Montrer qu’un processus X est un mouvement Brownien si et<br />
seulement si<br />
a. Pour tout t 0 < t 1 · · · < t n , le vecteur (X t0 , X t1 , . . . , X tn ) est un vecteur gaussien centré<br />
b. E(X t X s ) = s ∧ t<br />
c. X 0 = 0<br />
Exercice 2.1.2 Caractérisation 2. Montrer qu’un processus continu X est une mouvement<br />
Brownien si et seulement si, pour tout λ le processus exp(λX t − 1 2 λ2 t) est une martingale.<br />
Exercice 2.1.3 Calcul d’espérances.<br />
1. Calculer pour tout couple (s, t) les quantités E(B s B 2 t ), E(B t |F s ), E(B t |B s ) et E(e λBt |F s ).<br />
2. Calculer E( ∫ t<br />
0 B udu|F s ) avec t > s et E( ∫ t<br />
0 B udu|B s )<br />
3. On a vu, dans Exercice 1.2.1, que si Z est une v.a. gaussienne centrée de variance σ 2 , on a<br />
E(Z 4 ) = 3σ 4 . Calculer E(B 2 t B 2 s).<br />
4. Quelle est la loi de B t + B s <br />
5. Soit θ s une variable aléatoire bornée F s -mesurable. Calculer pour t ≥ s, E(θ s (B t − B s )) et<br />
E[θ s (B t − B s ) 2 ].<br />
6. Calculer E( 1 Bt≤a) et E(B t 1 Bt≤a).<br />
7. Calculer E( ∫ t<br />
0 exp(B s)ds) et E(exp(αB t ) ∫ t<br />
0 exp(γB s)ds).<br />
8. Calculer E(e B t<br />
|F s ) et E((ae B t<br />
− b) + |F s ).<br />
15
16 Brownien.<br />
Exercice 2.1.4 Lois. Montrer que E(f(B t )) = E(f(G √ u + B t−u )) avec G v.a. indépendante de<br />
B t−u et de loi gaussienne centré réduite. En déduire le calcul de E(f(B t )|F s ).<br />
Exercice 2.1.5 Soit Θ une variable aléatoire de loi exponentielle de paramètre θ (soit P (Θ ∈ dx) =<br />
θe −θx 1 x>0 dx) indépendante de B. Quelle est la loi de B Θ <br />
Exercice 2.1.6 Des martingales.<br />
martingales. (On pourra utiliser, sans démonstration, que E[<br />
1. M t = B 3 t − 3 ∫ t<br />
0 B s ds.<br />
2. Z t = B 3 t − 3tB t .<br />
3. X t = tB t − ∫ t<br />
0 B s ds.<br />
4. U t = sin B t + 1 2<br />
∫ t<br />
5. Y t = t 2 B t − 2 ∫ t<br />
0 B sds.<br />
0<br />
sin(B s ) ds.<br />
Parmi les processus suivants, quels sont ceux qui sont des<br />
∫ t<br />
0<br />
B u du|F s ] =<br />
∫ t<br />
0<br />
E[B u |F s ] du.)<br />
Exercice 2.1.7 Exponentielle de Brownien. Calculer E(e x+B t<br />
) et E(sin(x + B t )) en utilisant<br />
E(f(x + B t )) = f(x) + 1 2<br />
∫ t<br />
0<br />
E(f ′′ (x + B s )) ds .<br />
Exercice 2.1.8 Changement de temps. Soit Z t = B A(t) où A est une fonction déterministe<br />
continue strictement croissante.<br />
1. Calculer l’espérance et la variance de Z t . Ce processus est-il une martingale par rapport à F.<br />
2. On définit G t = F A(t) . Montrer que Z est une G-martingale.<br />
3. Déterminer le processus croissant C tel que (Z t ) 2 − C t soit une G-martingale.<br />
4. Soit un processus M tel que M est une martingale et il existe A, fonction déterministe continue<br />
strictement croissante telle que M 2 t − A(t) est une martingale. On note C l’inverse de A, c’està-dire<br />
la fonction telle que C(A(t)) = t. Montrer que W t = M C(t) est un mouvement Brownien.<br />
Exercice 2.1.9 Calcul d’espérance. Comment calculer E x (f(B t )g(B s ))<br />
Exercice 2.1.10 Calculer<br />
E((λ<br />
∫ 1<br />
0<br />
duB u + µB 1 ) 2 )<br />
Exercice 2.1.11 Calcul de transformée de Laplace. Calculer E x<br />
(<br />
exp(−λW<br />
2<br />
t ) ) .<br />
Exercice 2.1.12 Comportement limite.<br />
1. Montrer que lim t→∞<br />
B t<br />
t<br />
= 0<br />
2. Montrer que lim t→∞ P x (B t < 0) = 1/2. En déduire que pour tout x > 0, si T 0 = inf{t : B t =<br />
0}, on a P x (T 0 < ∞) ≥ 1/2. (En fait, on peut montrer que T 0 est fini ps.)<br />
Exercice 2.1.13 Montrer que l’intégrale<br />
∫ 1<br />
0<br />
B s<br />
ds est convergente.<br />
s
Enoncés 17<br />
Exercice 2.1.14 Tribu triviale. On admettra qu’un ensemble appartenant à la filtration F 0 = F + 0<br />
a pour probabilité 0 ou 1.<br />
Si τ = inf{t ≥ 0 : B t > 0}, montrer que P (τ ≤ t) ≥ 1 . En déduire que P (τ = 0) = 1.<br />
2<br />
Exercice 2.1.15 Applications de la propriété de Markov. Montrer que<br />
( ∫ t<br />
∫<br />
) s<br />
( ∫ t−s<br />
E x h(r, B r )dr|F s = h(r, B r )dr + E Bs h(s + u, B u )du )<br />
0<br />
0<br />
0<br />
Exercice 2.1.16 (∫ Soit τ un temps d’arrêt, λ > 0 et u une fonction continue bornée. On pose<br />
τ<br />
)<br />
(∫ ∞<br />
)<br />
g(x) = E x e −λt u(B t )dt et f(x) = E x e −λt u(B t )dt où comme d’habitude l’indice x<br />
0<br />
précise que le Brownien est issu de x.<br />
1. Montrer que g et f sont définies.<br />
0<br />
2. Montrer que<br />
E x<br />
(∫ ∞<br />
τ<br />
)<br />
e −λt (<br />
u(B t )dt = E x 1τ
18 Brownien.<br />
Exercice 2.2.3 Non-existence de processus. Montrer qu’il n’existe pas de processus ”régulier”<br />
X tel que ∀(s, t), s ≠ t, les variables X t et X s soient indépendantes, centrées gausssiennes, et E(Xt 2 )<br />
localement borné. On considérera<br />
∫ t<br />
calculera son espérance et sa variance.<br />
0<br />
X s ds et on montrera que ce processus serait Gaussien, on<br />
Exercice 2.2.4 Le pont Brownien. On définit un pont Brownien par<br />
Z t = B t − tB 1 , 0 ≤ t ≤ 1.<br />
1. Montrer que Z est un processus gaussien indépendant de B 1 . Préciser sa loi, c’est-à-dire sa<br />
moyenne et sa fonction de covariance.<br />
2. Montrer que le processus ˜Z avec ˜Z t = Z 1−t a même loi que Z.<br />
3. Montrer que le processus Y avec Y t = (1 − t)B t , 0 < t < 1 a même loi que Z.<br />
1−t<br />
4. Montrer que (Z t<br />
loi<br />
= (B t |B 1 = 0)).<br />
∫ t<br />
B s<br />
Exercice 2.2.5 Un exemple surprenant. Montrer que Z t = B t − ds est un processus<br />
0 s<br />
gaussien. Calculer sa variance et sa covariance. En déduire que Z est un mouvement Brownien.<br />
Montrer que Z n’est pas une F B -martingale, où F B est la filtration naturelle de B.<br />
Exercice 2.2.6 Pont. Soit B un MB et Γ t l’espace Gaussien engendré par (B u − u t B t, u ≤ t).<br />
Montrer que Γ t est croissant en t. Montrer que Γ(B u , u ≤ t) = Γ t ⊕ Γ(B t ) où Γ(G) est l’espace<br />
engendré par G.<br />
Exercice 2.2.7 Changement de probabilité. Soit B un MB, L t = exp(mB t − m2<br />
t) , et Q<br />
2<br />
définie sur F T par dQ = L T dP. Montrer que ˜B t = B t − mt est, sous Q, un processus gaussien à<br />
accroissements indépendants. Montrer que ˜B t est un Q-mouvement Brownien.<br />
Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et τ une v.a. positive. On admettra que<br />
E(sup(|B t | − t p/2 )) < ∞<br />
t<br />
1. Montrer que<br />
E(sup(|B t | − µt p/2 )) = λE(sup(|B s | − s p/2 ))<br />
t<br />
s<br />
avec λ = ( 1 µ )1/(p−1) .<br />
2. Montrer que E(|B τ |) ≤ E(sup t (|B t | − µt p/2 )) + µE(τ p/2 ).<br />
3. Montrer que<br />
∀p > 1, ∃C p , ∀τ,<br />
E(|B τ |) ≤ C p ||τ 1/2 || p<br />
2.3 Brownien Multidimensionnel<br />
Exercice 2.3.1 Deux mouvenements Browniens B et W sont corrélés si le processus (W t B t −ρt, t ≥<br />
0) est une martingale. Soit deux mouvements Browniens B et W corrélés de coefficient de corrélation<br />
ρ. Montrer, sans utiliser la formule d’Itô pour des processus corrélés, qu’il existe un Brownien Z,<br />
indépendant de W tel que B = ρW + √ 1 − ρ 2 Z.
Enoncés 19<br />
Exercice 2.3.2 Somme de browniens. Soit W un mouvement brownien indépendant de B et<br />
ρ ∈ [0, 1]. Montrer que (Z t = ρW t + √ 1 − ρ 2 B t , t ≥ 0) est un mouvement Brownien.<br />
Soient B et W deux browniens indépendants et (σ i , i = 1, 2) deux fonctions déterministes. Montrer<br />
qu’il existe une fonction σ 3 telle que le processus Z défini par<br />
est un Brownien.<br />
σ 3 (t)dZ t = σ 1 (t)dB t + σ 2 (t)dW t<br />
Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction borélienne bornée. Montrer<br />
que, pour 0 < s < t E x (f(B t )|F s ) = Φ(B s ) avec Φ(x) = E x [f(B t−s )]. En déduire que B i B j est<br />
une martingale pour i ≠ j.<br />
Exercice 2.3.4 Mouvement Brownien dans R 2 .<br />
1. Soit W 1 et W 2 deux mouvements Browniens indépendants. Le processus W t = W 1 (t) + W 2 (t)<br />
est-il un mouvement Brownien Si oui, justifiez la réponse, sinon, expliquez pourquoi. Même<br />
question avec αW 1 (t) + βW 2 (t).<br />
2. Soit W 1 et W 2 deux processus. Soit c un réel donné. Montrer que si<br />
( {<br />
exp aW 1 (t) + bW 2 (t) − t [ ] [ ]} )<br />
1 c a<br />
2 [a, b] , t ≥ 0<br />
c 1 b<br />
est une martingale pour tout couple (a, b), W 1 et W 2 sont des MB. Calculer E[exp(aW 1 (t) +<br />
bW 2 (t))].<br />
Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel et U une matrice telle<br />
que UU T = I. Montrer que (UB t , t ≥ 0) est un MB.<br />
2.4 Temps d’atteinte<br />
Dans tous ces exercices, a ∈ R et T a = inf{t : B t = a}.<br />
Exercice 2.4.1 Transformée de Laplace. Montrer que T a est un temps d’arrêt. Calculer<br />
E(e −λT a<br />
) pour tout λ réel. Montrer que P(T a < ∞) = 1 et que E(T a ) = ∞.<br />
Mêmes questions avec τ a = inf{t : S t = a} où S t = exp(σB t ).<br />
Exercice 2.4.2 Soit a < 0 < b et T = T a ∧ T b . Calculer P(T a < T b ) et E(T ).<br />
Exercice 2.4.3 Temps d’atteinte.<br />
1. Soit f(t) = E(e −rTa 1 Ta a > 0, la v.a. T b − T a est indépendante de T a . Quelle est la loi de<br />
T b − T a Que peut-on dire du processus (T a , a > 0)<br />
3. Soit T un nombre réel. Calculer Z t = P(T a > T |F t ). On rappelle que sup u≤t B u<br />
loi<br />
= |B t |.<br />
4. Calculer E(e −λT a<br />
) avec T a = inf{t : X t = a} et X t = νt + W t . Calculer E(e −λT ) pour<br />
T = T a ∧ T b .<br />
5. Montrer qu’il existe c tel que T r<br />
loi<br />
= cT r + X avec X indépendante de c.
20 Brownien.<br />
6. Mêmes questions si T a = inf{t; νt + B t = a}.<br />
7. Soit S un brownien géométrique (soit S t = x exp(νt + σW t )) et τ a = inf{t : S t = a}. Calculer<br />
E(<br />
∫ ∞<br />
0<br />
e −rt S t dt) et E(<br />
∫ τb<br />
0<br />
e −rt S t dt). TROP DIFFICILE<br />
Montrer que si 0 < a < b, τ b − τ a est indépendant de τ a et a même loi que τ b−a .<br />
Calculer E(e −rτ K<br />
1 τK t).<br />
Exercice 2.4.4 On suppose b < 0 < a. Montrer que (a − B t )(B t − b) + t est une F-martingale. En<br />
déduire E(T a,b ) où T a,b = T a ∧ T b .<br />
Exercice 2.4.5 Premier instant. Soit B un MB issu de 0 et T d = d+inf{t : B t+d = 0}. Calculer<br />
E(e −λT d ) et E( 1 Bd ≤ae −λT d ).<br />
Soit T ∗ = d si B d ≥ −a et T ∗ = d + T d si B d ≤ −a, B d+T d ≥ −a. Calculer E(e −λT ∗ ).<br />
Exercice 2.4.6 Soit ˜T a et ̂T a deux v.a. indépendantes de même loi que T a . Quelle est la loi de<br />
˜T a<br />
˜T a + ̂T a<br />
(Sans faire de calculs).<br />
Exercice 2.4.7 Loi de l’inf. Soit I = − inf s≤T1 B s . Montrer que P(I ∈ dx) =<br />
dx<br />
1 + x 2 .<br />
Exercice 2.4.8 Soit Ta ∗ = inf{u : M u − B u > a} avec M u = sup t≤u B t . Montrer que M T ∗ a<br />
loi exponentielle.<br />
a une<br />
Exercice 2.4.9 Temps d’atteinte Soit A et B deux nombres positifs. On note X t = µt + σB t et<br />
h(x) = exp(−2µx/σ2 ) − exp(2µB/σ 2 )<br />
exp(−2µA/σ 2 ) − exp(2µB/σ 2 ) . Vérifier que h(X t) est une martingale. Le temps d’arrêt τ<br />
est défini par<br />
τ = inf{t : X t = A ouX t = −B} .<br />
Calculer P(X τ = A).<br />
Exercice 2.4.10 Soit f une fonction borélienne bornée et et<br />
u(x) = E x (exp[− θ2<br />
2 T 0 +<br />
∫ T0<br />
0<br />
duf(B u )])<br />
où B est un mouvement Brownien issu de x. Montrer que u est solution de<br />
1<br />
2 u′′ = ( θ2<br />
+ f)u, u(0) = 1<br />
2<br />
Exercice 2.4.11 Soient a, d deux nombres réels positifs.<br />
1. Calculer E(e −|B d| √ 2λ 1 Bd ≤−a).<br />
2. Soit T 1 = inf{t ≥ d : B t = 0}. Montrer que T 1 est un temps d’arrêt. Calculer E(e −λT 1<br />
) et<br />
E(e −λT1 1 Bd ≤−a). Montrer que B T1 +d est indépendant de B d et de T 1 .<br />
3. On introduit la v.a. τ 1 suivante : si B d ≤ −a, on pose τ 1 = d. Si B d > −a et si B T1 +d ≤ −a,<br />
on pose τ 1 = T 1 + d, sinon on pose τ 1 = ∞.<br />
Calculer pour λ > 0 la transformée de Laplace de τ 1 , soit E(e −λτ 1<br />
).<br />
4. On continue. Si B d ≤ −a, on pose τ 2 = d. Si B d > −a et si B T1+d ≤ −a, on pose T 2 = T 1 + d,<br />
sinon on définit T 2 = inf{t ≥ T 1 + d : B t = 0}. Si B T2 +d ≤ −a on pose τ 2 = T 2 + d. Dans<br />
tous les autres cas, on pose τ 2 = ∞.
Enoncés 21<br />
(a) Montrer que B T2 +d est indépendant de (B T1 +d, B d ) et de T 2 .<br />
(b) Calculer la transformée de Laplace de τ 2 .<br />
5. On utilise la même procédure pour définir par itération τ n et on pose τ = τ ∞ .<br />
(a) Montrer que τ est fini en utilisant, après l’avoir justifié que<br />
P(τ < ∞) = ∏ i<br />
P(B Ti +d < −a)<br />
(b) Calculer la transformée de Laplace de τ.<br />
(c) Calculer la transformée de Laplace de B τ .<br />
(d) Montrer que B τ est indépendant de τ.<br />
Exercice 2.4.12 On trouve parfois (voir exercice précédent, ou les temps d’atteinte d’un niveau)<br />
des temps d’arrêt τ tels que τ et B τ sont indépendants. Ceci n’est cependant pas très courant.<br />
Dans ce qui suit on admettra le résultat (non trivial) suivant (Cramer) Si X et Y sont deux v.a.<br />
indépendantes telles que X + Y est une v.a. gaussienne, alors X et Y sont des gaussiennes.<br />
Le but de cet exercice est de montrer : si τ est borné par K et si τ et B τ sont indépendants,<br />
alors τ est une constante.<br />
1. Montrer que si s > K,<br />
B s = B τ + ̂B s−τ<br />
avec ̂B un mouvement Brownien indépendant de F τ .<br />
2. Montrer que B τ et ̂B s−τ sont des v.a. indépendantes.<br />
3. Calculer l’espérance et la variance de B τ . (Attention, ce n’est pas trivial. Penser au cas où<br />
τ = T a .)<br />
4. Montrer que ̂B s−τ est une v.a. Gaussienne.<br />
5. Montrer que l’on obtient √ K − τ G loi<br />
= √ K − E(τ) G où G est une v.a. gaussienne réduite<br />
centrée.<br />
6. Conclure.<br />
Exercice 2.4.13 Soit a et µ deux constantes strictement positives et T 1 = inf{t : B t ≥ a − µt},<br />
T 2 = inf{t : B t ≤ −a + µt}. On pose, pour tout λa ≥ 0, Φ(λ) = E(exp[−λτ]) avec τ = T 1 ∧ T 2 .<br />
1. Montrer que T 1<br />
loi<br />
= T 2 et que (T 1 , T 2 ) loi<br />
= (T 2 , T 1 ).<br />
2. Vérifier que Φ est bien définie et donner un majorant et un minorant simples de Φ (S’aider<br />
par un dessin).<br />
3. Montrer que Φ(λ) = 2E (exp(−λT 1 ) 1 T1
22 Brownien.<br />
2.5 Scaling<br />
Exercice 2.5.1 Montrer que le calcul de E(<br />
B s ) ds). On ne demande pas de faire ce calcul.<br />
∫ t<br />
0<br />
∫ T<br />
exp(νs + σB s ) ds) se déduit de E( exp(2(µs +<br />
0<br />
Exercice 2.5.2 Soit T 1 = inf{t : B t = 1}. Utiliser le scaling du MB pour établir les égalités en loi<br />
suivantes<br />
1. T 1<br />
loi<br />
= 1<br />
S 2 1<br />
avec S 1 = sup(B u , u ≤ 1)<br />
2. T a<br />
loi<br />
= a 2 T 1 avec T a = inf{t : B t = a}.<br />
loi loi<br />
3. g t = tg 1 , d t = td 1 où g t = sup{s ≤ t : B s = 0} et d t = inf{s ≥ t : B s = 0}. Montrer que<br />
{g t < u} = {d u > t}. En déduire g t<br />
loi<br />
= t<br />
d 1<br />
loi<br />
= 1<br />
d(1/t) .<br />
4. On suppose que A est un processus croissant continu tel que, pout tout c<br />
(B ct , A ct , t ≥ 0) loi<br />
= ( √ cB t , cA t ; t ≥ 0)<br />
On note ∆ a = inf{t : A t ≥ a}. Montrer que d ∆a<br />
5. Montrer que A t = sup s≤t B 2 s vérifie les conditions précédentes.<br />
loi<br />
loi<br />
= ad ∆1 . En déduire A g = 1/d ∆1 .<br />
Exercice 2.5.3 Montrer que<br />
où T ∗ 1 = inf{t ≥ 0 : |B t | = 1}.<br />
sup |B t | loi<br />
= √ 1<br />
0≤t≤1 T<br />
∗<br />
1<br />
Exercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit que A a la propriété<br />
(hom) s’ il existe r ∈ R tel que pour tout c,<br />
Pour quelle valeur de r la fonctionnelle A t =<br />
(B ct , A ct ; t ≥ 0) loi<br />
= ( √ cB t , c r+1 A t ; t ≥ 0)<br />
∫ t<br />
question pour le temps local (voir la définition plus loin)<br />
0<br />
1 (Bs >0)ds a t’elle la propriété (hom) Même<br />
2.6 Compléments<br />
Exercice 2.6.1 Projection d’un Brownien. Soit B un MB dans sa filtration F et G une filtration<br />
plus petite que F. On suppose que E(B t |G t ) = ̂B t est un MB. Montrer que ̂B t = B t .<br />
Exercice 2.6.2 Filtration de carrés de Browniens. Soit Y t = aBt 2 + bWt<br />
2 avec a ≠ b et a et b<br />
non nuls, W et B étant des Browniens indépendants. Montrer que σ(Y s , s ≤ t) = σ(B s , W s , s ≤ t).<br />
Généraliser au cas de n carrés.<br />
Exercice 2.6.3 Représentation prévisible. Soit B (i) , i = 1, 2, 3 trois MB, avec B (i) , i = 1, 2<br />
indépendants. Montrer qu’il n’est pas possible d’avoir σ(B s (3) , s ≤ t)) = σ(B s (1) , B s<br />
(2) , s ≤ t). On<br />
utilisera le théorème de représentation prévisible pour représenter B (1)<br />
t , B (2)<br />
t en terme de B (3) .
Enoncés 23<br />
Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on définit la tribu<br />
F β t = σ{(B s − s t B t, s ≤ t}<br />
1. Montrer que la famille F β t est croissante en t.<br />
2. Soit f ∈ L 2 (R + , ds). Calculer la projection ̂F t sur L 2 ((F β ) t ) de F t =<br />
3. Montrer que le processus ̂B t = B t −<br />
∫ t<br />
0<br />
du B u<br />
u<br />
F β t = σ{ ̂B u , u ≤ t}<br />
∫ t<br />
0<br />
f(s)dB s .<br />
est un (F β<br />
t )-mouvement Brownien et que<br />
4. Montrer que ̂F t =<br />
∫ t<br />
0<br />
̂f(s)d ̂B t , avec ̂f(t) = f(t) − 1 t<br />
∫ t<br />
0<br />
f(u)du.<br />
Exercice 2.6.5 Soit B un MB réel, T 0 = inf{t : B∫<br />
t = 0}, g = sup{t < 1 : B t = 0} et d =<br />
inf{t > 1 : B t = 0}. Montrer que P x (d > 1 + t) = p(1, x; y)P y (T 0 > t)dy et que P 0 (g ≤ t) =<br />
∫<br />
p(t, 0; y)P y (T 0 > 1 − t)dy.<br />
Exercice 2.6.6 Loi de g t . Montrer que<br />
P( sup B u > 0, B s < 0) = 2P(B t > 0, B s < 0) = 2[ 1<br />
s≤u≤t<br />
4 − 1 √ s<br />
2π arcsin t ]<br />
En déduire la loi de g t = sup{s ≤ t : B s = 0}<br />
Exercice 2.6.7 Représentation prévisible. Trouver un processus f prévisible tel que F =<br />
E(F ) +<br />
∫ T<br />
0<br />
1. F = B T ,<br />
2. F =<br />
f s dB s pour<br />
∫ T<br />
0<br />
3. F = B 2 T ,<br />
B s ds,<br />
4. F = exp B T .<br />
Exercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un second mouvement Brownien<br />
issu de 0 indépendant de B et<br />
1. Montrer que<br />
X t = (1 − t)<br />
∫ t ∫<br />
W t<br />
s<br />
0 1 − s ds − 0<br />
∫ t<br />
0<br />
∫ s<br />
ds<br />
0<br />
∫<br />
W t<br />
s<br />
(1 − s) 2 ds + (1 − t) 1<br />
1 − s dB s .<br />
∫<br />
W t<br />
u<br />
(1 − u) 2 du = (1 − t)<br />
0<br />
0<br />
W s<br />
(1 − s) 2 ds.<br />
2. En admettant que si f et g sont deux fonctions déterministes on peut intervertir le sens des<br />
intégrales dans<br />
∫ t<br />
0<br />
dsf(s)<br />
∫ s<br />
B t −<br />
0<br />
∫ t<br />
g(u)dB u , montrer que<br />
0<br />
∫ s<br />
ds<br />
0<br />
∫<br />
1<br />
t<br />
1 − u dB u = (1 − t)<br />
0<br />
1<br />
1 − s dB s
24 Brownien.<br />
3. Vérifier que X est solution de<br />
∫ t<br />
X t = B t +<br />
0<br />
W s − X s<br />
ds .<br />
1 − s<br />
∫ t<br />
dB s − dW s<br />
4. (sans utiliser ce qui précede) Montrer que X t = (1 − t)<br />
+ W t .<br />
0 1 − s<br />
5. Calculer E(X s X t ).<br />
Exercice 2.6.9 Soit G une filtration, W un G mouvement brownien. Soit H une filtration plus<br />
petite que G. Montrer que le processus M t = E(W t |H t ) est une martingale. (on précisera par<br />
rapport à quelle filtration). Soit X t = W t +<br />
la filtration de X et Ŷu = E(Y u |F X u ). Vérifier que Z t = (X t −<br />
(on calculera l’espérance conditionnelle de Z t par rapport à F X s .<br />
∫ t<br />
0<br />
Y u du où Y est un processus G adapté. On note F X<br />
∫ t<br />
0<br />
Ŷ u du, t ≥ 0) est une F X -martingale<br />
Exercice 2.6.10 Let X be a Brownian motion with drift µ and M X t<br />
= sup { s ≤ t}X t . Prove that<br />
where F (T − t, u) = P(M X T −t ≤ u)<br />
∫ ∞<br />
E(MT X |F t ) = Mt X + (1 − F (T − t, u)du<br />
Mt<br />
X −X t<br />
2.7 Finance<br />
Exercice 2.7.1 Black et Scholes. Calculer E(e −at (S t − K) + ) quand<br />
S t = xe bt exp(σB t − σ2<br />
2 t)<br />
Ecrire la formule obtenue quand a = b = r et quand a = r, b = r − δ. Calculer E(e −rt (S t − K) + |F s )<br />
pour s < t.<br />
Exercice 2.7.2 Options reset Une option reset est caractérisée par une suite de dates t 1 , t 2 , . . . , t n .<br />
Le payoff de cette option est<br />
A = ∑ i<br />
(S T − S ti ) + 1 Sti =inf{K,S t1 ,S t2 ,...,S t n } + (S T − K) + 1 K=inf{K,St1 ,S t2 ,...,S t n }<br />
Calculer le prix d’une telle option, c’est-à-dire calculer E(e −rT A) quand<br />
.<br />
S t = xe rt exp(σB t − σ2<br />
2 t)<br />
2.8 Problème<br />
2.8.1 Partie I : Résultats préliminaires<br />
Soit (B t ) t≥0 un mouvement Brownien standard sur un espace de probabilit (Ω, F, P ).<br />
(F t ) t≥0 la filtration naturelle de B.<br />
On note
Enoncés 25<br />
Etant donné un processus continu (X t ) t≥0 à valeurs réelles, on pose pour t > 0 ,<br />
M X t<br />
= sup X s ,<br />
s≤t<br />
m X t<br />
= inf<br />
s≤t X s .<br />
Si a est un nombre réel strictement positif, on définit également<br />
Il est connu que Ta<br />
B<br />
pour λ ≥ 0 ,<br />
T X a = inf{t ≥ 0; X t = a}, ˜T<br />
X<br />
a = inf{t ≥ 0; |X t | = a} .<br />
est un temps d’arrêt relativement à (F t ) t≥0 , fini p.s. , tel que E(T B a ) = ∞ et<br />
E [ exp(−λTa B ) ] (<br />
= exp −a √ )<br />
2λ .<br />
1. En inversant la transformée de Laplace de Ta B , montrer que la densité de la loi de Ta B est<br />
donnée par<br />
( )<br />
a<br />
√ exp − a2<br />
1 (t>0) .<br />
2πt<br />
3 2t<br />
2. Démontrer que pour λ ≥ 0 ,<br />
E<br />
[<br />
exp(−λ ˜T<br />
] ( (<br />
a B ) = cosh a √ −1<br />
2λ))<br />
.<br />
3. Prouver que ˜T B a est intégrable et calculer E( ˜T B a ) .<br />
4. Soient c et d deux nombres réels strictement positifs et posons T B = Tc B ∧ T−d B . Montrer que<br />
pour λ ∈ R ,<br />
[<br />
)]<br />
E exp<br />
(− λ2<br />
2 T B sinh(λd)<br />
1 (T B =Tc B) =<br />
sinh(λ(c + d)) ,<br />
[<br />
E exp<br />
)]<br />
(− λ2<br />
2 T B cosh(λ(c − d)/2)<br />
=<br />
cosh(λ(c + d)/2) .<br />
5. En utilisant la propriété de Markov forte, démontrer que si c ≥ 0 , b ≤ c ,<br />
P[B t ≤ c , M B t<br />
> c] = P[B t > 2c − b].<br />
6. En-déduire que pour chaque t > 0 , les variables aléatoires M B t et |B t | ont la même loi.<br />
7. Vérifier que pour chaque t > 0 , la densité de la loi du couple (B t , Mt B ) est donnée par<br />
)<br />
2(2c − b) (2c − b)2<br />
√ exp<br />
(− 1 {0≤c} 1 {b≤c} .<br />
2πt<br />
3<br />
2t<br />
8. Retrouver alors la densité de la loi de T B a explicitée au 1. .<br />
2.8.2 Partie II<br />
On considère le processus (Y t ) t≥0 défini par : ∀t ≥ 0 , Y t = µ t + B t , où µ ∈ R .<br />
1. Montrer qu’il existe une mesure de probabilité P µ sous laquelle (Y t ) t≥0 est un mouvement<br />
Brownien standard.<br />
2. En utilisant le résultat de la question I.7. , en-déduire que pour chaque t > 0 , la densité de la<br />
loi du couple (Y t , Mt Y ) est donnée par<br />
) (<br />
2(2c − b) (2c − b)2<br />
√ exp<br />
(− . exp µ b − 1 )<br />
2πt<br />
3<br />
2t<br />
2 µ2 t 1 {0≤c} 1 {b≤c} .
26 Brownien.<br />
2.8.3 Partie III<br />
Soit (S t ) t≥0 le processus tel que : ∀t ≥ 0 , S t = x exp [ (r − 1 2 σ2 )t + σB t<br />
]<br />
, où x, r et σ sont des<br />
nombres réels strictement positifs. Dans la suite, on désignera par N la fonction de répartition de<br />
la loi normale centrale réduite.<br />
1. Expliciter la probabilité P θ qui fait de ( ˜B t ) t≥0 un mouvement Brownien standard, avec ˜B t =<br />
θt + B t et θ = r σ − σ 2 .<br />
2. Trouver une relation entre M S t et M ˜B<br />
t et entre m S t et m ˜B<br />
t pour chaque t > 0.<br />
Dans ce qui suit, H et K désigne des nombres réels strictements positifs.<br />
3. Montrer que<br />
P [ S t ≤ K , M S t<br />
≤ H ] ( ) (2r/σ H 2 )−1<br />
= N(d 1 ) −<br />
N(d 2 ) ,<br />
x<br />
avec<br />
d 1 =<br />
( ( ) K<br />
log −<br />
(r − 1 ) )<br />
x 2 σ2 t /σ √ t ,<br />
d 2 =<br />
( ( ) Kx<br />
log<br />
H 2 −<br />
(r − 1 ) )<br />
2 σ2 t /σ √ t .<br />
4. Montrer que<br />
P [ S t ≥ K , m S t<br />
≥ H ] ( ) (2r/σ H 2 )−1<br />
= N(d 3 ) −<br />
N(d 4 ) ,<br />
x<br />
avec<br />
d 3 =<br />
( ( x<br />
)<br />
log +<br />
(r − 1 ) )<br />
K 2 σ2 t /σ √ t ,<br />
d 4 =<br />
(<br />
log<br />
( H<br />
2<br />
xK<br />
)<br />
+<br />
(r − 1 ) )<br />
2 σ2 t /σ √ t .<br />
5. Déduire de la question 3. que (E désignant l’espérance sous P)<br />
]<br />
( ) )<br />
(2r/σ H<br />
E<br />
[S t 1 {St ≤K ,Mt S≤H} = x e<br />
(N(d 2 )+1<br />
rt<br />
5 ) −<br />
N(d 6 ) ,<br />
x<br />
avec<br />
d 5 =<br />
( ( ) K<br />
log −<br />
(r + 1 ) )<br />
x 2 σ2 t /σ √ t ,<br />
d 6 =<br />
( ( ) Kx<br />
log<br />
H 2 −<br />
(r + 1 ) )<br />
2 σ2 t /σ √ t .<br />
6. En utilisant le résultat de la question 4., vérifier que<br />
]<br />
( ) )<br />
(2r/σ H<br />
E<br />
[S t 1 {St ≥K ,m S t ≥H} = x e<br />
(N(d 2 )+1<br />
rt<br />
7 ) −<br />
N(d 8 ) ,<br />
x<br />
avec<br />
d 7 =<br />
( ( x<br />
)<br />
log +<br />
(r + 1 ) )<br />
K 2 σ2 t /σ √ t ,<br />
d 8 =<br />
(<br />
log<br />
( H<br />
2<br />
Kx<br />
)<br />
+<br />
(r + 1 ) )<br />
2 σ2 t /σ √ t .
Enoncés. 2005-06 27<br />
[<br />
]<br />
7. On pose v 1 (x, T ) = E e −rT (S T − K) +<br />
1 {m S<br />
T ≥H} .<br />
Montrer que<br />
[ ( ) ]<br />
(2r/σ H 2 )+1<br />
v 1 (x, T ) = x N(d 7 ) −<br />
N(d 8 ) − e −rT K<br />
x<br />
[ ( ) ]<br />
(2r/σ H 2 )−1<br />
N(d 3 ) −<br />
N(d 4 ) .<br />
x<br />
Déterminer la quantité ∂<br />
∂x v 1(x, T − t) .<br />
8. On pose v 2 (x, T ) = E<br />
et ∂<br />
∂x v 2(x, T − t) .<br />
9. On pose<br />
[<br />
e −rT (S T − K) +<br />
1 {M S<br />
T ≤H}<br />
[<br />
]<br />
v 3 (x, T ) = E e −rT (S T − K) +<br />
1 {M S<br />
T ≥H}<br />
[<br />
]<br />
v 4 (x, T ) = E e −rT (S T − K) +<br />
1 {m S<br />
T ≤H}<br />
v(x, T ) = E [ e −rT (S T − K) +<br />
]<br />
.<br />
]<br />
. Donner une formule explicite pour v 2 (x, T )<br />
Donner une relation entre v 2 (x, T ) ,v 3 (x, T ) et v(x, T ) d’une part et entre v 1 (x, T ) ,v 4 (x, T ) et<br />
v(x, T ) d’autre part.<br />
,<br />
,
28 Itô.
Chapter 3<br />
Intégrale d’Itô<br />
Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.<br />
On considère un processus θ,<br />
ff-adapté continu à gauche, et admettant des limites à droite, tel que<br />
∫ ∞<br />
0<br />
θ 2 t dt < ∞, a.s<br />
on montre qu’il existe des processus θ n de la forme θt n = ∑ θ i,n 1 ]ti ,t i+1<br />
avec θ i,n ∈ L 2 (Ω) et F ti -<br />
mesurables, convergeant vers θ dans L 2 (Ω × R + ) (au sens où ‖θ − θ n ‖ 2 → 0 quand n → ∞. On<br />
définit ∫ t<br />
0 θ sdB s , comme la limite de ∑ k(n) ˜θ j=1 j,n (B(t j+1 ) − B(t j ))<br />
Le processus I(θ) t = ∫ t<br />
0 θ sdB s a les propriétés suivantes. Si<br />
(∫ ∞<br />
)<br />
E θt 2 dt < ∞, ∀t<br />
le processus I(θ) est une martingale, dans les autres cas, c’est une martingale locale.<br />
Si<br />
(∫ ∞<br />
)<br />
E θt 2 dt < ∞, ∀t<br />
le processus<br />
est une martingale.<br />
0<br />
0<br />
(I(θ) t −<br />
∫ ∞<br />
0<br />
θ 2 t dt, t ≥ 0)<br />
Intégrale de Wiener: Si f est une fonction déterministe, de carré intégrable sur tout intervalle<br />
[0, t], le processus (I(f) t , t ≥ 0) est un processus gaussien.<br />
Crochet: Le crochet d’une martingale de carré intégrable continue M est l’unique processus<br />
croissant 〈M〉 tel que M 2 t − 〈M〉 t soit une martingale.<br />
Le crochet de I(θ) est par définition 〈I(θ)〉 t = ∫ ∞<br />
0<br />
θ 2 t dt Si X et Y sont deux martingales continues<br />
leur crochet 〈X, Y 〉 est l’unique processus à variation bornée tel que XY − 〈X, Y 〉 est une martingale.<br />
Le crochet de deux intégrales stoichastiques est 〈I(θ), I(ψ)〉 = ∫ t<br />
0 θ sψ s ds Si X et Y sont deux<br />
semi-martingales continues leur crochet est le crochet des parties martingales<br />
Processus d’Itô: On appelle processus d’Itô un processus X admettant une décomposition de<br />
la forme<br />
X t = x +<br />
∫ t<br />
0<br />
a s ds +<br />
29<br />
∫ t<br />
0<br />
σ s dB s
30 Itô.<br />
où a et σ sont des processus F-adaptés, vérifiant ∫ t<br />
0 |a s|ds < ∞ et ∫ t<br />
0 σ2 sds < ∞.<br />
Formule d’intégration par parties: Soit X et Y deux processus d’Itô<br />
relatifs au même mouvement Brownien B, alors<br />
dX t = a t dt + σ t dB t<br />
dY t = b t dt + ν t dB t<br />
d(XY ) t = X t dY t + Y t dX t + d〈X, Y 〉 t<br />
Formule d’Itô: Si f est une fonction C 1,2<br />
f(t, X t ) = f(0, X 0 ) +<br />
∫ t<br />
A(s, X s )ds +<br />
∫ t<br />
0<br />
0<br />
∂ x f(s, X s )dB s<br />
où<br />
Af(t, x) = ∂ t f(t, x) + b(t, x)∂ x f(t, x) + 1 2 ∂ xxf(t, x)<br />
Cette formule s’écrit aussi<br />
df(t, X t ) = ∂ t f(t, X t )dt + ∂ x f(t, X t )dX t + 1 2 ∂ xxf(t, X t )d〈X〉 t<br />
Les crochets se calculent formellement de la façon suivante d〈X, Y 〉 = dX ˙ dY , avec la table de<br />
multiplication suivante<br />
dt · dt = 0, dt · dB t = 0, dB t · dB t = dt<br />
3.1 Intégrale de Wiener<br />
Exercice 3.1.1 Soit Y t = tB t . Calculer dY t , l’espérance de la v.a. Y t et la covariance E(Y t Y s ).<br />
Exercice 3.1.2 1. Montrer que la v.a. X t =<br />
∫ t<br />
2. Montrer que X est un processus gaussien.<br />
Calculer son espérance et sa covariance E(X s X t ).<br />
3. Calculer E[X t |F s ].<br />
4. Montrer que X t = (sin t)B t −<br />
∫ t<br />
0<br />
(cos s)B s ds.<br />
Exercice 3.1.3 Montrer que (Y t = sin(B t ) + 1 2<br />
son espérance et sa variance.<br />
Exercice 3.1.4<br />
0<br />
(sin s) dB s est définie.<br />
∫ t<br />
0 sin(B s) ds, t ≥ 0) est une martingale. Calculer<br />
1. Montrer que le processus (Y t = ∫ t<br />
0 (tan s) dB s, 0 ≤ t < π 2<br />
) est défini.<br />
2. Montrer que Y est un processus gaussien, calculer son espérance, sa covariance et l’espérance<br />
conditionnelle<br />
E(Y t |F s ).
Enoncés. 2005-06 31<br />
∫ t<br />
B s<br />
3. Montrer que Y t = (tan t) B t −<br />
0 cos 2 s ds.<br />
Exercice 3.1.5 Pont Brownien. On considère l’équation différentielle stochastique<br />
{<br />
X t<br />
dX t =<br />
t − 1 dt + dB t ; 0 ≤ t < 1<br />
X 0 = 0<br />
et l’on admet l’existence d’une solution.<br />
1. Montrer que<br />
∫ t<br />
dB s<br />
X t = (1 − t)<br />
0 1 − s ; 0 ≤ t < 1 .<br />
2. Montrer que (X t , t ≥ 0) est un processus gaussien. Calculer son espérance et sa covariance.<br />
3. Montrer que lim t→1 X t = 0.<br />
Exercice 3.1.6 Montrer que, si f est une fonction déterministe de carré intégrable<br />
Exercice 3.1.7 Calculs de moments.<br />
∫ t2<br />
∫ ∞<br />
E(B t f(s) dB s ) =<br />
0<br />
∫ t<br />
0<br />
f(s) ds .<br />
Soit t 1 < t 2 . Calculer A = E( (B t −B t1 ) dt|F t1 ). Montrer que (B t −B t1 ) dt = (t 2 −t)dB t .<br />
t 1<br />
t 1 t<br />
[∫ 1<br />
t2<br />
]<br />
Utiliser cette égalité pour calculer A d’une autre manière. Calculer Var (B t − B t1 ) dt|F t1 .<br />
t 1<br />
3.2 Formule d’Itô<br />
Exercice 3.2.1 Ecrire les processus suivants comme des processus d’Itô en précisant leur drift et<br />
le coefficient de diffusion<br />
∫ t2<br />
∫ t2<br />
1. X t = B 2 t<br />
2. X t = t + e B t<br />
3. X t = B 3 t − 3tB t<br />
4. X t = 1 + 2t + e Bt<br />
5. X t = [B 1 (t)] 2 + [B 2 (t)] 2<br />
6. X t = (B t + t) exp(−B t − 1 2 t)<br />
7. X t = exp(t/2) sin(B t )<br />
(∫ t<br />
)<br />
Exercice 3.2.2 Intégration par parties. Soit X t = exp a(s)ds et<br />
0<br />
∫ t<br />
[ ( ∫ s<br />
)]<br />
Y t = Y 0 + b(s) exp − a(u)du dB s<br />
0<br />
où a et b sont des fonctions boréleiines intégrables. On pose Z t := X t Y t . Montrer que dZ t =<br />
a(t)Z t dt + b(t)dB t .<br />
0
32 Itô.<br />
Exercice 3.2.3 Intégration par parties.<br />
Soit Y t = tX 1 (t)X 2 (t) avec<br />
dX 1 (t) = f(t) dt + σ 1 (t)dB t<br />
dX 2 (t) = σ 2 (t)dB t<br />
Calculer dY t .<br />
Exercice 3.2.4 Equation différentielle. On admet que le système suivant admet une solution<br />
⎧<br />
∫ t<br />
⎪⎨ X t = x + Y s dB s<br />
Montrer que X 2 t + Y 2<br />
t = (x 2 + y 2 )e t .<br />
Exercice 3.2.5 Formule d’Itô. Soit Y t =<br />
1. Ecrire l’EDS vérifiée par Z t .<br />
⎪⎩<br />
2. Calculer E(Z t ), E(Z 2 t ) et E(Z t Z s ).<br />
Y t = y −<br />
∫ t<br />
0<br />
∫0<br />
t<br />
0<br />
X s dB s<br />
e s dB s et Z t =<br />
∫ t<br />
0<br />
Y s dB s .<br />
Exercice 3.2.6 On suppose que X est un processus d’Itô de drift a(K t − X t ), que X t = f(K t ) et<br />
que K t = bt + σB t où a, b, σ sont des constantes et B un mouvement brownien. Quelle est la forme<br />
de f <br />
Exercice 3.2.7 Exponentielle.<br />
Soit σ un processus adapté continu de L 2 (Ω × R) et<br />
On pose Y t := exp X t et Z t = Y −1<br />
t .<br />
X t =<br />
∫ t<br />
0<br />
σ s dB s − 1 2<br />
∫ t<br />
0<br />
σ 2 s ds .<br />
1. Expliciter la dynamique de Y , c’est-à-dire exprimer dY t .<br />
2. Montrer que Y est une martingale locale. Donner une condition sur σ pour que ce soit une<br />
martingale.<br />
3. Calculer E(Y t ) dans ce cas. Expliciter les calculs quand σ = 1.<br />
4. Calculer dZ t .<br />
Exercice 3.2.8 Soit (a, b, c, z) des constantes et<br />
Quelle est l’EDS vérifiée par Z<br />
Z t = e (a−c2 /2)t+cB t<br />
(z + b<br />
∫ t<br />
Exercice 3.2.9 On considère le processus de dynamique<br />
où (h t , t ≥ 0) est un processus adapté.<br />
0<br />
)<br />
e −(a−c2 /2)s−cB s<br />
ds<br />
dS t = S t ((r − q + h t )dt + σdB t )
Enoncés. 2005-06 33<br />
1. On se place dans le cas h t = 0, ∀t. Montrer que (M t = S t e −(r−q)t , t ≥ 0) est une martingale<br />
positive. On définit une probabilité Q par dQ| Ft = Mt<br />
M 0<br />
dP | Ft . Comment se transforme le MB<br />
B<br />
2. Dans le cas h non nul, expliciter S t .<br />
3. On suppose que h t = h(S t ) où h est une fonction continue. On admet qu’il existe une solution<br />
de l’EDS correspondante. Montrer que<br />
e −rT E(e − ∫ T<br />
0 h(S s)ds Ψ(S T )) = e −qT S 0 E Q (S −1<br />
T Ψ(S T ))<br />
4. On se place maintenant dans le cas h t = S −p<br />
t , avec p réel. On admet qu’il existe une solution<br />
de l’EDS. On pose Z t = S p t .<br />
(a) Quelle est la dynamique de Z<br />
(b) Vérifier, en utilisant l’exercice 4 que l’on peut expliciter Z.<br />
(c) Pour quelles fonctions f, le processus f(Z) est il une martingale (locale)<br />
Exercice 3.2.10 Processus d’Ornstein Uhlenbeck. Soit X tel que dX t = (a − bX t )dt + dB t<br />
(<br />
1. Montrer que Z t = exp c<br />
∫ t<br />
0<br />
X s dB s − c2 2<br />
∫ t<br />
0<br />
)<br />
Xs 2 ds est une martingale locale.<br />
2. Soit U t = X 2 t . Ecrire dU t puis la variable U t comme une somme d’intégrales.<br />
3. Montrer que<br />
∫ t<br />
0<br />
X s dB s = 1 2 (X2 t − X 2 0 − t) − a<br />
∫ t<br />
0<br />
X s ds + b<br />
Exercice 3.2.11 Soit Z le processus défini par<br />
( )<br />
1<br />
Z t = √ exp −<br />
B2 t<br />
.<br />
1 − t 2(1 − t)<br />
∫ t<br />
0<br />
X 2 s ds .<br />
1. Montrer que Z est une martingale et que Z t tend vers 0 quand t tend vers 1..<br />
2. Calculer E(Z t ).<br />
3. Ecrire Z t sous la forme<br />
Z t = exp (<br />
où Φ est un processus que l’on précisera.<br />
∫ t<br />
0<br />
Φ s dB s − 1 2<br />
∫ t<br />
0<br />
Φ 2 sds)<br />
Exercice 3.2.12 Moments d’une exponentielle stochastique. Soit L le processus solution de<br />
dL t = L t φdB t , L 0 = 1<br />
où φ est une constante.<br />
L t = E(φB) t .<br />
Le processus L est l’exponentielle de Doléans-Dade de φB et se note<br />
1. Déterminer la fonction Γ telle que, pour a ∈ R, le processus (L t ) a exp(−Γ(a)t) est une martingale.<br />
2. En déduire le calcul de E [(L t ) a ] pour tout a ∈ R.<br />
Exercice 3.2.13 Démonstration de l’unicité de l’écriture d’un processus d’Itô.<br />
Soit dX t = a t dt + σ t dB t . On souhaite démontrer que si X ≡ 0, alors a ≡ 0, σ ≡ 0.
34 Itô.<br />
1. Appliquer la formule d’Itô à Y t = exp(−X 2 t ).<br />
2. En déduire le résultat souhaité.<br />
Exercice 3.2.14 Soit V = KX avec<br />
Calculer dV t et d ln X t .<br />
Exercice 3.2.15 Montrer que<br />
M t = exp ( −<br />
est une martingale locale.<br />
Exercice 3.2.16 Soit A t =<br />
dX t = X t (µ − k − s ln X t )dt + σX t dB t<br />
dK t = K t (r + k)dt<br />
∫ t<br />
∫ t<br />
0<br />
0<br />
B 2 sds ) exp ( − B2 t<br />
2 tanh(T − t)) 1<br />
(cosh(T − t)) 1/2<br />
exp(B s + νs)ds et dS t = S t (rdt + σdB t ). Montrer que le processus<br />
f(t, S t , A t ) est une martingale si f vérifie une équation aux dérivées partielles à coefficients<br />
déterministes que l’on précisera.<br />
Exercice 3.2.17 Soit dX t = dB t + 1 X t<br />
dt. Montrer que 1 X t<br />
est une martingale (locale). Quelles<br />
sont les fonctions f telles que f(t, X t ) soit une martingale locale.<br />
Exercice 3.2.18 Soit B et W deux browniens corrélés et<br />
dr t = [a(b − r t ) − λσr t ]dt + σ √ r t dW t<br />
dV t = (r t − δ)V t dt + σ V V t dB t<br />
On pose X t = √ r t et Y t = ln V t − αX t avec α = 2ρσ V /σ. Calculer dX et dY .<br />
Exercice 3.2.19 Soit T fixé et B(t, T ) = exp<br />
Montrer que<br />
où on a noté ˜α(t, T ) =<br />
Exercice 3.2.20 Soit<br />
(<br />
−<br />
∫ T<br />
t<br />
f(t, u)du<br />
)<br />
avec<br />
df(t, T ) = α(t, T )dt + σ(t, T )dB t , ∀t < T<br />
dB(t, T ) = (r t − ˜α(t, T ) + 1 2 ˜σ(t, T ))B(t, T )dt − ˜σ(t, T )B(t, T )dB t<br />
∫ T<br />
t<br />
α(u, T )du<br />
dr t = (a − br t )dt − σ √ r t (dB t + λdt)<br />
et W un mouvement Brownien indépendant de B. Soit λ 1 une constante et H le processus<br />
(∫ t<br />
H t = exp r s ds + 1 ∫ t<br />
∫ t ∫ t<br />
(λ 2 1 + λr s )ds + λ 1 dW s + λ √ )<br />
r s dB s<br />
2<br />
0<br />
0<br />
∫ T<br />
Montrer que le calcul de E(exp(HT α)|F t) se réduit à celui de E(exp(−ηr T − µ r s ds)|F t ).<br />
t<br />
0<br />
0
Enoncés. 2005-06 35<br />
Exercice 3.2.21 Fonction d’échelle. Soit X un processus d’Itô. Une fonction s est une fonction<br />
d’echelle si s(X) est une martingale locale. Déterminer les fonctions d’échelle des processus suivants:<br />
1. B t + νt<br />
2. X t = exp(B t + νt)<br />
3. X t = x +<br />
∫ t<br />
0<br />
β est un MB.<br />
b(X s )ds +<br />
∫ t<br />
0<br />
σ(X s )ds. Identifier le processus croissant A tel que s(X t ) = β At<br />
où<br />
Exercice 3.2.22 Soit<br />
Soit u une solution de<br />
dΨ t = (1 − rΨ t )dt + σΨ t dB t<br />
σ 2<br />
2 x2 u ′′ (x) + (1 − rx)u ′ (x) − λu(x) = 0<br />
On définit x ∗ comme solution de x ∗ u ′ (x ∗ ) = u(x ∗ ) et v(x) =<br />
Soit enfin V définie par<br />
{<br />
V (x) = v(x), 0 ≤ x ≤ x<br />
∗<br />
= x, x > x ∗<br />
x∗<br />
u(x ∗ ) u(x). On admettra que v′′ (x) ≥ 0.<br />
Montrer que 1 − (r + λ)x ∗ ≤ 0.<br />
Ecrire la formule d’Itô pour e −λt V (Ψ t ). Il apparait un terme LV (x) − λV (x) avec<br />
LV (x) = (1 − rx)V ′ (x) + σ2<br />
2 x2 V ′′ (x)<br />
Montrer que sur x > x ∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x ∗ , on a LV (x) − λV (x) = 0<br />
En déduire que<br />
V (Ψ 0 ) ≥ Ẽ(e−λT V (Ψ T ))<br />
(en admettant que l’intégrale stochastique est une martingale).<br />
Exercice 3.2.23 Reprendre l’exercice 2.6.8 en utilisant la formule d’Itô.<br />
Exercice 3.2.24 Pont Brownien Calculer P (sup 0≤s≤t B s ≤ y, B t ∈ dx). En déduire que, pour<br />
un pont brownien b, issu de x à l instant 0, qui doit se trouver en z, z > 0 à l’instant t, on a pour<br />
y > z<br />
(z + x − 2y)2<br />
P ( sup b s ≤ y) = exp<br />
(− +<br />
0≤s≤t<br />
2t<br />
Quelle est la valeur de P (sup 0≤s≤t b s ≤ y) pour y < z<br />
)<br />
(z − x)2<br />
.<br />
2t<br />
Exercice 3.2.25 Formule de Clark-Ocone Soit f une fonction bornée de classe C 1 . Justifier<br />
rapidement qu’il existe une fonction ψ telle que, pour t ≤ 1<br />
E(f(B 1 )|F t ) = ψ(t, B t ) .<br />
Expliciter ψ(t, x) sous la forme d’une espérance (non conditionnelle). Ecrire la formule d’Itô pour<br />
ψ en faisant les simplifications qui s’imposent. Montrer que<br />
ψ(t, B t ) = E(f(B 1 )) +<br />
∫ t<br />
0<br />
E(f ′ (B 1 )|F s )dB s .
36 Itô.<br />
3.3 Cas multidimensionnel<br />
Exercice 3.3.1 On considère deux processus S 1 et S 2 définis par<br />
dS i (t) = S i (t)(rdt + σ i dB i t), i = 1, 2 (3.1)<br />
où B 1 et B 2 sont deux Browniens indépendants et où les coefficients r, σ i sont constants.<br />
1. On pose S 3 (t) def<br />
= S1(t)+S2(t)<br />
2<br />
. Ecrire l’équation différentielle stochastique vérifiée par S 3 .<br />
2. Soit S 4 (t) def<br />
= √ S 1 (t)S 2 (t). Ecrire l’équation différentielle stochastique vérifiée par S 4 .<br />
Exercice 3.3.2 Formule d’Itô multidimensionnelle. Soient (B 1 (t), t ≥ 0) et (B 2 (t), t ≥ 0)<br />
deux mouvements Browniens indépendants. Soit (L i (t), i = 1, 2 , t ≥ 0)) les processus définis par<br />
dL i (t) = θ i (t)L i (t)dB i (t) , L i (0) = 1<br />
où (θ i (t), i = 1, 2) sont des processus adaptés continus bornés. Soit Z t = L 1 (t)L 2 (t). Ecrire dZ t .<br />
Montrer que L 1 (t)L 2 (t) est une martingale.<br />
Exercice 3.3.3 Soit (B 1 (t), t ≥ 0) et (B 2 (t), t ≥ 0) deux mouvements Browniens indépendants et<br />
ρ une constante telle que |ρ| ≤ 1.<br />
1. Montrer que le processus (W t , t ≥ 0) défini par W t = ρB 1 (t)+ √ 1 − ρ 2 B 2 (t) est un mouvement<br />
Brownien.<br />
2. Soit (φ i (t), t ≥ 0; i = 1, 2) deux processus continus adaptés de carré intégrable (tels que<br />
∀T ≥ 0, E( ∫ T<br />
0 φ2 i (t) dt) < ∞).<br />
(a) On définit (Z t , t ≥ 0) par dZ t = φ 1 (t)dB 1 (t) + φ 2 (t)dB 2 (t) et Z 0 = z. Montrer que Z est<br />
une martingale.<br />
(b) Soit Ψ(t) = φ 2 1(t) + φ 2 2(t). On suppose que Ψ(t) > 0. On définit (Y t , t ≥ 0) par<br />
dY t =<br />
φ 1(t)<br />
√<br />
Ψ(t)<br />
dB 1 (t) + φ 2(t)<br />
√<br />
Ψ(t)<br />
dB 2 (t) , Y 0 = y .<br />
Ecrire l’équation vérifiée par Y 2<br />
t .<br />
Montrer que (Y t , t ≥ 0) est un mouvement Brownien.<br />
3. On définit R t = B 2 1(t) + B 2 2(t). Ecrire l’équation différentielle vérifiée par R et celle vérifiée<br />
par U t = √ R t . On montrera que<br />
dU t = a U t<br />
dt + bdB 3 (t)<br />
où a et b sont des constantes et B 3 un mouvement Brownien.<br />
Exercice 3.3.4 Soit dS (i)<br />
t<br />
= S (i)<br />
t<br />
(µ (i)<br />
t<br />
dt + σ (i)<br />
t<br />
Déterminer k i , i = 1, 2 pour que e −rt (S (1)<br />
t ) k 1<br />
(S (2)<br />
dB (i)<br />
t ) où B (i) , i = 1, 2 sont deux MB corrélés.<br />
t ) k 2<br />
soit une martingale.
Enoncés. 2005-06 37<br />
3.4 Compléments<br />
Exercice 3.4.1 Formule de Tanaka. Soit f une fonction et F définie par<br />
Vérifier que<br />
et que F ′ (x) =<br />
∫ x<br />
−∞<br />
f(y) dy =<br />
∫ ∞<br />
−∞<br />
F (x) =<br />
F (x) =<br />
∫ x<br />
−∞<br />
∫ ∞<br />
−∞<br />
f(y) 1 x>y dy.<br />
dz<br />
∫ z<br />
−∞<br />
f(y) dy<br />
(x − y) + f(y)dy<br />
Montrer, en appliquant la formule d’Itô à F que<br />
∫ t<br />
∫ ∞<br />
(<br />
f(B s )ds = 2 f(y) (B t − y) + − (B 0 − y) + −<br />
0<br />
−∞<br />
∫ t<br />
0<br />
)<br />
1 Bs >ydB s dy .<br />
Exercice 3.4.2 Egalité de Bougerol.<br />
Soit B 1 et B 2 deux mouvements browniens indépendants.<br />
1. Appliquez la formule d’Itô aux processus<br />
2. Montrer que dZ t =<br />
X t<br />
def<br />
= exp(B 1 (t))<br />
∫ t<br />
def<br />
3. Vérifier que M t = B 2 (t) +<br />
que M t =<br />
∫ t<br />
0<br />
0<br />
∫ t<br />
0<br />
φ(Z s )dB 1 (s) +<br />
∫ t<br />
0<br />
exp(−B 1 (s)) dB 2 (s), Z t<br />
def<br />
= sinh B 1 (t)<br />
∫ t<br />
0<br />
ψ(Z s )ds.<br />
X s dB 1 (s) est une martingale. Calculer E(M 2 t ). En admettant<br />
γ s dB 3 (s), où B 3 est un mouvement brownien, identifier γ.<br />
4. En déduire une relation entre X t et Z t .<br />
Exercice 3.4.3 Soit dr t = δdt + 2 √ r t dB t et f(t, x) une fonction de C 1,2<br />
b<br />
.<br />
1. Quelle condition doit vérifier la fonction s pour que s(r t ) soit une martingale <br />
2. Quelle condition doit vérifier la fonction f pour que f(t, r t ) soit une martingale <br />
3. Soit Z t = r 2 t et ρ t = √ r t . Ecrire les EDS vérifiées par Z t et par ρ t .<br />
4. Soit dr 1 t = µ 1 dt + 2 √ r t dB 1 t et dr 2 t = µ 2 dt + 2 √ r t dB 2 t deux processus, avec B 1 et B 2 deux<br />
browniens indépendants. On admettra que r 1 et r 2 sont indépendants. On note R le processus<br />
défini par R t = r 1 t + r 2 t . Montrer que R s’écrit sous la forme (4.1).<br />
Exercice 3.4.4 Temps d’atteinte. Soit τ = T a = inf{t : B t = a}. On a calculé Z t = P (τ ><br />
T |F t ). Quelle est la dynamique du processus Z.<br />
Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la forme dX t = H t dB t , dY t =<br />
K t dB t . On note M t l’unique solution de l’équation dM t = M t dX t , M 0 = 1. Montrer que la solution<br />
de dZ t = dY t + Z t dX t , Z 0 = z est<br />
Z t = M t (z +<br />
∫ t<br />
0<br />
1<br />
M s<br />
(dY s − H s K s ds))<br />
Quelle est la solution de dZ t = dY t + Z t dX t lorsque dX t = H t dBt 1 , dY t = K t dBt<br />
2 où B 1 et B 2 sont<br />
deux MB éventuellement corrélés
38 Itô.<br />
3.5 Brownien géométrique et extensions.<br />
Dans cette section, nous étudions le Brownien géométrique, processus de dynamique<br />
où b et σ sont des constantes.<br />
Exercice 3.5.1 Existence et unicité de la solution de 3.2)<br />
1. Soit ˜S t = e −bt S t . Vérifier par<br />
dS t = S t (b dt + σ dB t ), S 0 = x (3.2)<br />
d ˜S t = ˜S t σdB t . (3.3)<br />
En déduire que ˜S est una martingale. Vérifier que Ỹt = xe σB t− 1 2 σ2t est solution de (3.3) puis<br />
que Y t = xe bt e σB t− 1 2 σ2t est solution de (3.3)<br />
2. Soit S une autre solution de (3.3). Quelle est l’EDS vérifiée par S/Y . Résoudre cette équation<br />
et en déduire (3.3) admet une unique solution.<br />
3. Calculer E(S t ) et la valeur de E(S t |F s ) pour tous les couples (t, s).<br />
4. Montrer que S T = S 0 exp[(b− 1 2 σ2 )T +σB T ], puis que S T = S t exp[(b− 1 2 σ2 )(T −t)+σ(B T −B t )].<br />
5. Ecrire l’équation différentielle vérifiée par (S t ) −1 .<br />
Exercice 3.5.2 Changement de probabilité.<br />
1. Soit dL t = −L t θ t dB t où θ t est un processus adapté continu de L 2 (Ω×R) . On pose Y t = S t L t .<br />
Calculer dY t .<br />
2. Soit r une constante et ζ t défini par<br />
Montrer que ζ t = L t exp(−rt). calculer dζ −1<br />
t .<br />
dζ t = −ζ t (r dt + θ t dB t )<br />
3. Calculer d(S t ζ t ). Comment choisir θ pour que ζS soit une martingale La probailité obtenue<br />
est telle que le processus S actualisé par le taux sans risque r (soit § t e −rt est une martingale.<br />
Cette (unique=) probabilité est la probbilté risque neutre (ou le mesure martingsle équivalente)<br />
Exercice 3.5.3 Soit A t = 1 t<br />
∫ t<br />
0<br />
ln S s ds.<br />
1. Montrer que ln S s = ln S t + (b − σ2<br />
2 )(s − t) + σ(B s − B t ) pour s ≥ t.<br />
2. Montrer que A t est une variable gaussienne.<br />
3. Soit G(t, T ) = 1 T<br />
∫ T<br />
t<br />
(B s − B t ) ds. Montrer que<br />
A T = t T A t + (1 − t T )[ln S t + 1 2<br />
σ2<br />
(b − )(T − t)] + σG(t, T )<br />
2<br />
4. Montrer que G(t, T ) est une variable gaussienne indépendante de F t , dont on calculera l’espérance<br />
conditionnelle et la variance conditionnelle (par rapport à F t ).<br />
5. En déduire que A T = Z t +U où Z t est F t mesurable et U une variable gaussienne indépendante<br />
de F t . Montrer que α(t)e Z t<br />
= E(e A T<br />
|F t ),où l’on précisera la valeur de α.
Enoncés. 2005-06 39<br />
Exercice 3.5.4 Soit V T = 1 h<br />
le processus défini par<br />
1. Quelle est la valeur de X T <br />
∫ T<br />
T −h S udu où h est un nombre réel donné tel que 0 < h < T . Soit X<br />
e −bt X t = E[e −bT V T |F t ] .<br />
2. Exprimer X t en fonction de S t pour t ≤ T − h.<br />
3. Exprimer X t en fonction de S t et de (S u , T − h ≤ u ≤ t) pour T − h ≤ t ≤ T .<br />
4. Montrer que dX t = X t bdt+σS t γ t dB t avec γ t = 1 {t
40 Itô.<br />
3.7 Finance<br />
Nous considérons un marché financier comportant un actif sans risque de dynamique<br />
dS 0 t = S 0 t r t dt<br />
où r est un processus F-adapté (très souvent, une fonction déterministe ou une constante) et des<br />
actifs risqués dont les prix sont donnés par des processus d’Itô, sous une probabilité P dite historique.<br />
Si S est un prix, la quantité S(S 0 ) −1 est le prix actualisé. Une mesure martingale équivalente est une<br />
mesure de probabilité Q, équivalente à la probabilité historique P telle que les prix actualisés sont<br />
des martingales (locales). Un marché est sans arbitrage s’il existe au moins une mesure martingale<br />
équivalente, complet si cette mme est unique. Dans le cas d’un marché complet sans arbitrage le<br />
prix d’un actif contigent H (une variable aléatoire) est<br />
V t = E Q (HS 0 t /S 0 T |F t )<br />
Un portefeuille est un couple (α, β) de processus adaptés et la valeur du portefeuille est le<br />
processus (V t , t ≥ 0)<br />
V t = α t S 0 t + β t S t .<br />
Le portefeuille est dit autofinançant si<br />
dV t = α t dS 0 t + β t dS t .<br />
Voir Poncet et Portait pour de plus amples explications.<br />
Exercice 3.7.1<br />
On considère un marché financier où deux actifs sont négociés: un actif sans risque, de taux constant<br />
r, un actif risqué dont le prix S suit la dynamique<br />
dS t = S t (µ(t)dt + σ(t)dB t )<br />
les coefficients µ et σ étant des fonctions déterministes.<br />
1. Ecrire la valeur de S t en fonction de S 0 , des fonctions µ, σ, et du MB B.<br />
2. Déterminer le(s) mesure(s) martingale(s) équivalente(s).<br />
3. Justifier que ce marché est complet, sans arbitrage. On notera Q la mme.<br />
4. Quelle est la dynamique de ˜S sous P et sous Q<br />
5. Calculer, pour tout couple (s, t) E P (S t |F s ) et E Q (S t |F s ).<br />
6. On considère l’actif contingent versant h(S T ) à la date T , où h est une fonction (déterministe).<br />
(a) Quel est le prix de cet actif à la date t Montrer que ce prix peut être obtenu sous forme<br />
d’une intégrale d´terministe.<br />
(b) Ecrire l’EDP d’évaluation.<br />
(c) Comment couvrir cet actif en utilisant l’actif sans risque et l’actif S Expliquer en<br />
particulier comment déterminer le nombre de parts d’actifs S et le montant de cash (on<br />
ne demande pas de calcul explicite)<br />
(d) Quels seraient les modifications à apporter si r est une fonction déterministe un processus<br />
7. On se place dans le cas h(x) = x 2 . Expliciter le prix à la date t et le portefeuille de couverture.<br />
Même question pour h(x) = ax + b où a et b sont des constantes.
Enoncés. 2005-06 41<br />
Exercice 3.7.2 Portefeuille auto-financant<br />
1. Quelle serait la richesse d’un agent qui détiendrait à chaque instant t, un nombre de parts<br />
d’actif risqué égal à t, en utilisant une stratégie autofinançante<br />
2. Quelle serait la richesse terminale (à l’instant T ) d’un agent de richesse initiale x qui souhaite<br />
avoir un montant de cash égal à (T − t)x à chaque instant t en utilisant une stratégie autofinançante<br />
(on donnera le résultat sous forme d’un intégrale stochastique dont tous les coefficients<br />
sont explicites)<br />
Exercice 3.7.3 Autofinancement Cet exercice important montre que la définition de l’autofinancement<br />
est invariante par changement de nbuméraire. Question préliminaire: Soit X et Y deux processus<br />
d’Itô continus (on ne précisera pas leur dynamique, c’est inutile pour ce qui suit). Rappeler la<br />
formule d’intégration par parties pour d(XY ). En déduire que<br />
X t d( 1 ) + 1 dX t + d〈X, 1 X t X t X 〉 t = 0 .<br />
On considère un marché comportant deux actifs dont les prix sont des processus d’Itô S 1 et S 2 tels<br />
que S 1 est strictement positif. Un portefeuille de valeur V t = πt 1 St 1 + πt 2 St<br />
2 est autofinancant si<br />
dV t = π 1 t dS 1 t + π 2 t dS 2 t .<br />
On choisit comme numéraire le premier actif et on note Ṽt = V t /S 1 t , ˜S 2 t = S 2 t /S 1 t , d’où<br />
Ṽ t = V t /S 1 t = π 1 t + π 2 t ˜S 2 t .<br />
Le but de cet exercice est de montrer que la notion d’autofinancement ne dépend pas du choix de<br />
numéraire, c’est-à-dire que<br />
dV t = π 1 t dS 1 t + π 2 t dS 2 t (3.4)<br />
implique<br />
dṼt = π 2 t d ˜S 2 t . (3.5)<br />
1<br />
1. Calculer d〈V,<br />
S 〉 (1) t en fonction de d〈S (1) ,<br />
(<br />
2. Montrer que dVt<br />
1 = πt<br />
2 S (2)<br />
t d 1 + 1<br />
S (1)<br />
t S (1)<br />
t<br />
( )<br />
3. Montrer que dVt<br />
1 = πt 2 S (2)<br />
t<br />
d .<br />
S (1)<br />
t<br />
1<br />
S (1) 〉 t et d〈S (2) ,<br />
dS (2)<br />
t + d〈S (2) ,<br />
1<br />
S 〉 (1) t<br />
)<br />
1<br />
S (1) 〉 t<br />
Exercice 3.7.4 Dans un marché incomplet, il existe des actifs contingents duplicables. En particulier,<br />
montrer que<br />
∫ T<br />
0<br />
(aS s + b)ds est duplicable lorsque S est un processus d’Itô.<br />
Exercice 3.7.5 Equation d’évaluation. Soit dS t = rS t dt+S t σ(t, S t )dB t , où r est une constante.<br />
1. Montrer que E(Φ(S T )|F t ) est une martingale pour toute fonction Φ borélienne bornée.<br />
2. Justifier que E(Φ(S T )|F t ) = E(Φ(S T )|S t )<br />
3. Soit ϕ(t, x) la fonction définie par ϕ(t, S t ) = E(Φ(S T )|S t ). Ecrire dZ t avec Z t = ϕ(t, S t ).
42 Itô.<br />
4. En utilisant que ϕ(t, S t ) est une martingale, et en admettant que ϕ est C 1,2 , montrer que pour<br />
tout t > 0 et tout x > 0:<br />
Quelle est la valeur de ϕ(T, x)<br />
∂ϕ<br />
(t, x) + rx∂ϕ<br />
∂t ∂x (t, x) + 1 2 σ2 (t, x)x 2 ∂2 ϕ<br />
(t, x) = 0 .<br />
∂x2 Exercice 3.7.6 Options Européennes et Américaines. On rappelle l’inégalité de Jensen : si<br />
Φ est une fonction convexe et G une tribu, E(Φ(X)|G) ≥ Φ(E(X|G)).<br />
On admettra que si τ est un temps d’arrêt borné par T et Z une sous-martingale, E(Z T ) ≥ E(Z τ ).<br />
On note dS t = S t (rdt + σ t dB t ) le prix d’un actif où σ est un processus adapté borné. Soit C =<br />
E(e −rT (S T − K) + ) le prix d’un call Européen et C Am = sup τ E(e −rτ (S τ − K) + ) le prix d’un<br />
call Américain, le sup étant pris sur tous les temps d’arrêt à valeurs dans [0, T ]. On note P =<br />
E(e −rT (Ke rT − S T ) + ) et P Am = sup τ E(e −rτ (Ke rτ − S τ ) + ) les prix de puts à strike actualisés.<br />
1. Montrer que (e −rt S t − K) + est une sous-martingale.<br />
2. Soit g une fonction convexe de classe C 2 telle que g(0) = 0. Montrer que<br />
En déduire que<br />
pour tout t < u ≤ T . Montrer que C = C Am .<br />
3. Montrer que P = P Am .<br />
∀x, ∀α ≥ 1, g(x) ≤ 1 α g(αx)<br />
E(e −ru g(S u )|F t ) ≤ E(e −rT g(S T )|F t )<br />
Exercice 3.7.7 Volatilité stochastique Soit r un réel et (σ t , t ≥ 0) un processus aléatoire (F t )<br />
adapté tel que σ 1 ≤ σ t ≤ σ 2 où σ 1 et σ 2 sont des constantes.<br />
1. On note V 1 la fonction V 1 (t, x) définie par V 1 (t, x) = e −r(T −t) E(h(X T )|X t = x) lorsque dX(t) =<br />
X(t)(rdt + σ 1 dB t ). Montrer que e −rt V 1 (t, X t ) est une martingale.<br />
2. Ecrire l’ EDS vérifiée par le processus V 1 (t, X t ). En déduire que la fonction V 1 satisfait une<br />
EDP. Dans la suite, on suppose V 1 convexe en x.<br />
3. Soit dS 1 (t) = S 1 (t)(rdt + σ t dB t ). Ecrire la formule d’Itô pour e −rt V 1 (t, S t ). En déduire<br />
e −rT V 1 (t, S T ) en fonction de e −rt V 1 (t, S t ), d’une intégrale en dt dont on donnera le signe et<br />
d’une intégrale stochastique.<br />
4. Montrer que e −rt V 1 (t, S t ) ≤ E(e −rT h(S T )|F t ) ≤ e −rt V 2 (t, S t ).<br />
Exercice 3.7.8 Heath-Jarrow-Morton. Soit T fixé et (r t , 0 ≤ t ≤ T ) une famille de processus<br />
(dépendant du paramètre T ) que l’on notera, comme dans toute la littérature sur les taux<br />
(r(t, T ), 0 ≤ t ≤ T ) telle que, pour tout T fixé<br />
où<br />
∂ Σ(t, T ) = σ(t, T ) .<br />
∂T<br />
dr(t, T ) = σ(t, T )Σ(t, T )dt + σ(t, T )dB t<br />
1. On pose X t =<br />
∫ T +a<br />
T<br />
r(t, u)du. Montrer que l’on peut écrire<br />
X t = X 0 +<br />
où on explicitera µ et φ.<br />
∫ t<br />
µ s ds +<br />
∫ t<br />
0<br />
0<br />
φ s dB s
Enoncés. 2005-06 43<br />
2. En déduire la dynamique de Y t = exp X t .<br />
Exercice 3.7.9 Portefeuille de marché. On considère un marché comportant un actif sans risque<br />
de taux r et un actif risqué de dynamique<br />
dS t = S t (µ t dt + σ t dB t ) .<br />
1. Montrer qu’un portefeuille autofinançant est caractérisé par le couple (v, β) tel que<br />
dV t = r t V t dt + β t (dS t − r t S t dt), V 0 = v .<br />
On utilise très souvent le processus H défini par<br />
avec θ = µ t − r t<br />
σ t<br />
.<br />
dH t = −H t (r t dt + θ t dB t )<br />
2. Montrer que M t = (H t ) −1 est la valeur d’un portefeuille autofinançant dont on précisera la<br />
valeur de α et de β. Ce portefeuille est appellé portefeuille de marché .<br />
Exercice 3.7.10 Dividendes. Soit<br />
dS t = S t ([r − δ]dt + σdB t ), S 0 = x (3.6)<br />
1. Montrer que S t = S 0 exp(at + cB t ) où on explicitera a, c. Montrer que<br />
∫ T<br />
S t e −rt = E(S T e −rT + δS s e −rs ds|F t ) , .<br />
t<br />
2. Montrer qu’il existe β tel que S β soit une Q-martingale.<br />
3. On suppose que dY t = Y t (rdt + νdB t ), Y 0 = y. Soit γ une constante. Montrer que Y γ vérifie<br />
une équation du type (3.6) où l’on précisera la valeur de δ et de σ.<br />
4. Calculer E((S T − K) + ).<br />
Exercice 3.7.11 Assurance de portefeuille.<br />
1. Soit M une martingale telle que M T ≥ 0. Montrer que M t ≥ 0 pour t < T . Cette propriété<br />
s’étend-elle au cas t > T Si oui, donner une démonstration, sinon, donner un contre exemple.<br />
Soit τ un temps d’arrêt borné par T . On suppose que M τ = 0. Montrer qu’alors M s = 0 pour<br />
s ∈ [τ, T ].<br />
2. Soit V la valeur d’un portefeuille autofinançant dans un modèle Black-Scholes. On rappelle<br />
que d(R t V t ) = π t R t σV t dB t avec R t = e −rt . Montrer que si V T ≥ K alors V t ≥ e −r(T −t) K.<br />
Montrer que s’il existe τ < T tel que V τ = e −r(T −τ) K, alors V t = e −r(T −t) K pour t ∈ [τ, T ].<br />
3. Un agent de richesse initiale x souhaite former un portefeuille tel que V T > K. Quelle condition<br />
sur x cela implique t’il Comment peut-il réaliser cet objectif (on donnera plusieurs solutions)<br />
√<br />
Yt<br />
Exercice 3.7.12 Soit dX t =<br />
T − t X tdB t et dY t = g t dB t +µdt. On note C(T −t, x, σ) la fonction<br />
√<br />
Yt<br />
de Black-Scholes. Donner une relation entre g, µ pour que C(T −t, X t , ) soit une martingale.<br />
T − t
44 Exemples. Enoncés<br />
∫ T<br />
Exercice 3.7.13 Calcul de E(exp − r s ds|F t ) avec r t = f(t) + σ2<br />
0<br />
2 t + σB t<br />
Exercice 3.7.14 On considère un marché dans lequel sont négociés trois actifs Un actif sans risque<br />
dont la dynamique est dS 0 t = S 0 t rdt et <strong>DE</strong>UX actifs risqués<br />
dS i t = S i t(µ i dt + σdB t )<br />
avec µ 1 ≠ µ 2 et le même mouvement Brownien uni-dimensionnel B. Les actifs contingents sont<br />
choisis dans F T = σ(S 1 s , S 2 s , s ≤ T ) = σ(B s , s ≤ T ).<br />
1. Montrer que le marché est complet.<br />
2. Montrer que la marché admet des opportunités d’arbitrage.<br />
3. Construire EXPLICITEMENT une telle opportunité d’arbitrage, c’est-à-dire expliciter un<br />
triplet (π 0 , π 1 , π 2 ) de processus adaptés tels que le portefeuille associé soit autofinancant et<br />
V 0 = 0, V T > 0. On pourra se restreindre à une OA statique, c’est-à-dire telle que (π 0 , π 1 , π 2 )<br />
soient des constantes.<br />
Exercice 3.7.15 On considère un modèle Black et Scholes et on note Q l’unique mme.<br />
1. On note Y t = ∫ t<br />
0 S udu. Quel est le prix, à la date t du payoff Y T (versé en T )<br />
2. Expliciter la stratégie de couverture de Y T<br />
3. On considère le payoff h(Y T , S T ), versé en T , où h est une fonction borélienne (bornée)<br />
• Montrer que le prix à la date t de h(Y T , S T ) s’écrit ϕ(t, Y t , S t ) et montrer comment obtenir<br />
ϕ(t, y, x) par un calcul d’espérance (non conditionnelle)<br />
• Quelle est l’EDP satisfaite par ϕ<br />
• Déterminer la stratégie de couverture associée.<br />
On considère c et π deux processus adaptés et X π,c la solution de<br />
dX t = rX t dt + π t (dS t − rS t dt) − c t dt,<br />
X 0 = x<br />
• Montrer que (e −rt X t + ∫ t<br />
0 e−rs c s ds, t ≥ 0) est une Q-martingale.<br />
• Montrer que, pour t < T ,<br />
∫ T<br />
X t e −rt = E Q (X T e −rT +<br />
X t e −rt ζ t = E P (X T e −rT ζ T +<br />
t<br />
∫ T<br />
t<br />
e −rs c s ds|F t )<br />
ζ s e −rs c s ds|F t )<br />
• Soit ψ et ϑ deux processus adaptés. On souhaite que les relations π t = ψ t X t et c t = ϑ t X t<br />
soient satisfaites. Quelle sera dans ce cas la solution X π,c<br />
t (l’expliciter en terme des processus<br />
ψ, ϑ, B).<br />
• On admet que le processus X représente la richesse d’un agent financier investissant π sur<br />
l’actif risqué et consommant c t dt durant l’intervalle de temps t, t + dt. Montrer, en utilisant<br />
cette interprétation que pour obtenir une richesse terminale (en T ) positive et avoir une consommation<br />
positive, l’agent doit avoir une richesse initiale positive et que sa richesse sera<br />
positive à chaque instant t.
Chapter 4<br />
Exemples<br />
Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.<br />
4.1 Processus de Bessel<br />
Exercice 4.1.1 Soit B 1 et B 2 deux mouvements Browniens indépendants et<br />
1. Ecrire l’EDS vérifiée par Z.<br />
Z t = B 2 1(t) + B 2 2(t) .<br />
2. On pose Y t = √ Z t . Ecrire l’EDS vérifiée par Y .<br />
3. Ecrire l’EDS vérifiée par 1/Y .<br />
Exercice 4.1.2 Formule d’Itô On considère les processus de la forme<br />
On admet que r t ≥ 0 presque partout (par rapport à t et à ω.)<br />
dr t = µdt + 2 √ r t dB t (4.1)<br />
1. Soit f(t, x) une fonction de C 1,2<br />
b<br />
. Quelle condition doit vérifier la fonction f pour que f(t, r t )<br />
soit une martingale <br />
2. Soit Z t = r 2 t et ρ t = √ r t . Ecrire les EDS vérifiées par Z t et par ρ t .<br />
3. Soit dr 1 t = µ 1 dt + 2 √ r t dB 1 t et dr 2 t = µ 2 dt + 2 √ r t dB 2 t deux processus, avec B 1 et B 2 deux<br />
browniens indépendants. On admettra que r 1 et r 2 sont indépendants. On note R le processus<br />
défini par R t = r 1 t + r 2 t . Montrer que R s’écrit sous la forme (4.1).<br />
Exercice 4.1.3 Processus de Bessel de dimension 3. Soit R le processus solution de<br />
dR t = 1 R t<br />
dt + dW t , R 0 = 0 .<br />
1. Montrer que Z t = 1 est une martingale locale.<br />
R t<br />
2. Montrer que (U t = exp(− λ2 t<br />
2 ) sinh λR t<br />
, t ≥ 0) est une martingale locale. On admetra que<br />
λR t<br />
c’est une martingale.<br />
45
46 Exemples. Enoncés<br />
(<br />
)<br />
3. En déduire la valeur de E exp(− λ2 T m<br />
)<br />
2<br />
où T m = inf{t : R t = m}, avec m > 0.<br />
4. Soit f une fonction continue bornée et a un nombre réel. Quelles conditions doit vérifier la<br />
fonction v pour que<br />
soit une martingale<br />
v(R t ) exp[−at −<br />
∫ t<br />
0<br />
f(R s )ds]<br />
5. Supposons que v est explicitée. Comment calculerez vous<br />
∫ Tm<br />
E(exp[−aT m − f(R s ) ds]) <br />
0<br />
Exercice 4.1.4 Processus de Bessel de dimension 2. Soit dR t = dW t + 1<br />
2R t<br />
dt.<br />
1. Montrer que Z = ln R est une martingale locale.<br />
2. Soit ν un nombre réel positif. Montrer que L t = [R t ] ν exp(− ν2<br />
2<br />
locale.<br />
∫ t<br />
0<br />
ds<br />
) est une martingale<br />
Exercice 4.1.5 Processus de Bessel de dimension δ. Soit R le processus solution de dR t =<br />
dB t + δ − 1<br />
2R t<br />
dt.<br />
1. Pour quelles fonctions s le processus s(R t ) est-il une martingale locale<br />
2. Quelle est la dynamique de Y t = R 2 t <br />
3. Montrer que Z t<br />
def<br />
= exp(− µ 2 (Y t − δt) − µ2<br />
2<br />
∫ t<br />
4. Soit dQ = ZdP . Quelle est la dynamique de Y sous Q<br />
0<br />
R 2 s<br />
Y u du) est une martingale.<br />
Exercice 4.1.6 Minimum d’un Bessel<br />
Quelle est la loi de inf s≤t X s lorsque X est un processus de Bessel<br />
4.2 Processus de Bessel carré<br />
Exercice 4.2.1 Soit α, σ deux constantes et dX(t) = − 1 2 αX(t) dt + 1 2 σdW (t). Soit Y t = X t e αt/2 .<br />
Ecrire dY t .<br />
1. En déduire la forme de la solution X(t).<br />
2. On suppose que (W 1 , W 2 , . . . , W n ) sont des Browniens indépendants et on note X i la solution<br />
de dX i (t) = − 1 2 αX i(t) dt+ 1 2 σdW i(t). Soit r le processus défini par r(t) = X 2 1 (t)+· · ·+X 2 n(t).<br />
3. Montrer que le processus B défini par B(0) = 0 et dB(t) =<br />
Brownien.<br />
n∑<br />
i=1<br />
X i (t)dW i (t)<br />
√<br />
rt<br />
est un mouvement
2009-10 47<br />
4. Montrer que dr t = (a − br t ) dt + σ √ r t dB t<br />
Exercice 4.2.2 Processus de Bessel carré. Soit x ≥ 0 et R un processus tel que<br />
On admettra que R existe et que R ≥ 0.<br />
dR t = µdt + 2 √ |R t |dB t , R 0 = x (4.2)<br />
1. Soit Z t = (B t ) 2 . Montrer que Z vérifie une équation de la forme (4.2). Quelle est la valeur de<br />
µ correspondante<br />
2. Soit B 1 un mouvement Brownien indépendant de B et Z 1 t = (B t ) 2 + (B 1 t ) 2 . Montrer que Z 1<br />
vérifie une équation de la forme (4.2). Quelle est la valeur de µ correspondante Généralisation<br />
à la somme des carrés de n Browniens indépendants.<br />
3. Soit ρ t = √ R t . Montrer que dρ t = b(t, ρ t , µ)dt + dB t . On explicitera b.<br />
4. Soit B 1 un mouvement Brownien indépendant de B. On note R (µ) (x) le processus défini en<br />
(4.2) et, pour y ≥ 0, le processus R (ν) (y) solution de<br />
On notera simplement R (µ)<br />
t<br />
et R (ν)<br />
t<br />
dR (ν)<br />
t<br />
= νdt + 2 √ R t (ν)dB 1 t , R (ν)<br />
0 = y (4.3)<br />
et R (ν)<br />
t ces deux processus. On supposera que les processus R (µ)<br />
t<br />
ne s’annulent pas et on admettra qu’ils sont indépendants.<br />
(a) Soit X t = R (µ)<br />
t<br />
+ R (ν)<br />
t . Calculer dX t .<br />
(b) Montrer que le processus Z défini ci-dessous est un mouvement Brownien<br />
√ √<br />
R (µ)<br />
t dB t + R (ν)<br />
t dBt<br />
1<br />
dZ t = √<br />
R (µ)<br />
t + R (ν)<br />
t<br />
(c) En déduire que X t = R (µ)<br />
t<br />
+ R (ν)<br />
t<br />
vérifie<br />
On explicitera β en fonction de µ et ν.<br />
dX t = βdt + 2 √ X t dZ t<br />
5. (a) On suppose que l’on connaît E(R (µ)<br />
t ) = m(µ) et Var(R (µ)<br />
t ) = v(µ) pour tout µ. Exprimer<br />
E(X t ) et Var(X t ) en fonction de m et v.<br />
(b) On admet que, si W est un brownien issu de √ x (voir exo 2.1.11)<br />
E(exp −λ(W t ) 2 1<br />
) = √ exp(−<br />
λx<br />
1 + 2λt 1 + 2λt ) (4.4)<br />
Comment calculer E(exp −λ[ρ (1)<br />
t ] 2 ), E(exp −λR (1)<br />
t (x)) et E(exp −λR (2)<br />
t (x)) .<br />
On utilisera la question (d) et l’indépendance de R (µ)<br />
t<br />
6. Montrer que<br />
Calculer E(exp −λR (µ)<br />
t (x)).<br />
E(exp −λR (µ)<br />
t (x)) = E(exp −λR (1)<br />
t (x))<br />
et R (ν)<br />
t .<br />
(<br />
) µ−1<br />
E(exp −λR (1)<br />
t (0))
48 Exemples. Enoncés<br />
7. Comment démontrer l’indépendance de R (µ)<br />
t<br />
Comment démontrer (4.4) <br />
et R (ν)<br />
t <br />
Exercice 4.2.3 Processus de Bessel carré.<br />
Soit X un BESQ (δ) (x).<br />
1. Montrer que ( 1 c X ct, t ≥ 0) est un BESQ (δ) (x/c).<br />
2. Monter que, si F est un processus adapté<br />
Z t = exp{ 1 2<br />
est une martingale locale.<br />
∫ t<br />
3. Montrer que si F est déterministe, dérivable<br />
4. Soit Φ solution de<br />
Z t = exp{ 1 2 F (t)X t − F (0)X 0 − δ<br />
0<br />
F s d(X s − δs) − 1 2<br />
∫ t<br />
0<br />
F (s)ds − 1 2<br />
∫ t<br />
0<br />
∫ t<br />
Φ ′′ = b 2 Φ , Φ(0) = 1, Φ ′ (1) = 0<br />
Montrer que Z t = exp{ 1 2 F (t)X t − F (0)X 0 − δ ln Φ(t) − b2 2<br />
une martingale.<br />
F 2 s X s ds}<br />
0<br />
∫ t<br />
0<br />
F 2 s X s ds + X s dF (s)}<br />
X s ds}. On admettra que Z est<br />
5. En déduire que<br />
Q (δ)<br />
x (exp − 1 2<br />
∫ 1<br />
0<br />
X s ds) = (cosh b) −δ/2 exp(−xb tanh b)<br />
Exercice 4.2.4 En utilisant que<br />
∫ s<br />
où R s (2) = B s + 1 2<br />
0<br />
du<br />
R (2)<br />
u<br />
sup |W t | loi<br />
= 1 ∫ 1<br />
1≤t≤1 2 0<br />
ds<br />
R (2)<br />
s<br />
montrer que E sup 1≤t≤1 (|W t |) = √ π/2.<br />
Exercice 4.2.5 Application du théorème de Lamperti The following absolute continuity relation<br />
between two BES processes (with ν ≥ 0)<br />
P (ν)<br />
x =<br />
( ) ν (<br />
Rt<br />
ν<br />
2<br />
∫ t<br />
exp −<br />
x<br />
2 0<br />
where P (ν) is the law of a BES with index ν. On utilisera<br />
et (R t ; t ≥ 0) loi<br />
= x exp(B Ct + νC t )<br />
)<br />
ds<br />
R 2 s<br />
W (ν) |F t = exp(νW t − ν2<br />
2 t)W |F t<br />
Exercice 4.2.6 Soit dX t = 2 √ X t dW t + δ(t)dt où δ est une fonction (continue bornée). On veut<br />
calculer<br />
(<br />
) )<br />
A = E t,x<br />
(exp<br />
− 1 2<br />
∫ T<br />
t<br />
X u m(u)du<br />
P (0)<br />
x<br />
f(X T )
2009-10 49<br />
1. On se place dans le cas f = 1, et on note ϕ la solution de<br />
Montrer que<br />
E t,x<br />
(exp<br />
(<br />
− 1 2<br />
∫ T<br />
t<br />
∂ uu ϕ(u, T ) = m(u)ϕ(u, T ) ; ∂ u ϕ(T, T ) = 0<br />
X u m(u)du<br />
))<br />
( ) ( ∫ )<br />
∂u ϕ(t, T )<br />
= exp<br />
2ϕ(t, T ) x 1 T<br />
∂ u ϕ(s, T )<br />
exp<br />
2 t ϕ(s, T ) δ(u)du<br />
2. Montrer que le calcul de A se ramène au calcul de la solution d’une EDP.<br />
4.3 Autres processus.<br />
Exercice 4.3.1 Processus d’Ingersoll.<br />
Soit a < z < b et Z le processus solution de<br />
dZ t = (Z t − a)(b − Z t )σdB t , Z 0 = z<br />
On admet que pour tout t, le processus Z vérifie a < Z t < b.<br />
1. Calculer la dynamique de Z −1 .<br />
2. soit ζ t<br />
def<br />
= Z t − a<br />
b − Z t<br />
. Calculer la dynamique de ζ et celle de ln ζ.<br />
3. Soit X t = (b−Z t )g(t, ζ t ). Donner une condition sur g pour que X soit une martingale. Sauriez<br />
vous résoudre l’équation obtenue <br />
4. Soit Y solution de<br />
dY t = (Y t − a)(b − Y t ) 2 dt + (Y t − a)(b − Y t )σdB t<br />
Montrer qu’il existe une probabilité Q que l’on déterminera telle que, sous Q Y ait même loi<br />
que Z sous P.<br />
Exercice 4.3.2 Un processus stationnaire. Soit X vérifiant dX t = −aX t dt+σdB t , X 0 v.a. donnée.<br />
1. Explicitez X t .<br />
2. Montrer que si X 0 est une v.a. gaussienne indépendante de B, le processus X est un processus<br />
gaussien.<br />
3. On suppose que X 0 est gaussienne, indépendante de B. Déterminer la loi de X 0 pour que la<br />
loi de la v.a. X t ne dépende pas de t.<br />
Exercice 4.3.3 Soit X solution de (on admet que X existe)<br />
dX t = X t (1 − X t ) ((µ − X t )dt + dB t ) , X 0 = x<br />
avec x ∈]0, 1[. Soit h 0 (x) = ( )<br />
1−x 2θ−1<br />
x et h1 (x) = 2 ln(1−x)−ln x<br />
(2µ−1)<br />
0 < a < x < b < 1.<br />
1. Montrer que h 0 (X t ) et h 1 (X t ) + t sont des martingales.<br />
2. Montrer que P (X τ = a) = h 0(x)−h 0 (b)<br />
h 0 (a)−h 0 (b)<br />
et calculer E(τ).<br />
et τ = inf{t ≥ 0, S t ∉ [a, b]}, avec
50 Equa. Diff.<br />
4.4 Des calculs<br />
Exercice 4.4.1 Un calcul de probabilité. On suppose connue<br />
Soit B 1 et B 2 deux MB indépendants et<br />
Φ(a, T ) = P (B t ≤ at , ∀t ≤ T )<br />
dX t = X t (rdt + σ 1 dB 1 (t)), X 0 = 1<br />
dY t = Y t (rdt + σ 2 dB 2 (t)), Y 0 = 1<br />
Calculer, en fonction de Φ la quantité P (X t ≤ Y t , ∀t ≤ T ).<br />
Exercice 4.4.2 Un calcul de loi Let dX t = µ(t)dt + σ(t)dB t , X 0 = 0 where µ and σ are piece<br />
wise constant over known time.<br />
Let us restrict our attention to the case<br />
µ(t) = µ ∀t ∈ [0, 1[,<br />
Describe the distribution of Y t = max 0≤s≤t X s .<br />
µ(t) = µ 1 ∀t ∈ [1, ∞[,<br />
σ(t) = σ ∀t ∈ [0, 1[, σ(t) = σ 1 ∀t ∈ [1, 2[/, .<br />
Exercice 4.4.3 Montrer que la solution de<br />
[<br />
dC t = C t r t dt + m( dS ]<br />
t<br />
− r t dt)<br />
S t<br />
avec dS t = S t (µ t dt + σ t dB t ) s’écrit sous la forme<br />
où on explicitera a et b.<br />
C t = C 0<br />
(<br />
St<br />
S 0<br />
exp[a<br />
∫ t<br />
0<br />
r s ds + b<br />
∫ t<br />
0<br />
) m<br />
σsds]<br />
2<br />
Exercice 4.4.4 Changement de temps Soit dX t = −λX t dt + σdB t et τ = inf{t : |X t | > g(t)}<br />
où g est une fonction déterministe. Exprimer P (τ > t) en fonction de Ψ(u) = P (τ ∗ > u) avec<br />
τ ∗ = inf{t : |B t | > h(t)}.
Chapter 5<br />
Equations différentielles<br />
stochastiques<br />
Une équation différentielle stochastique est une équation de la forme<br />
dX t = b(t, X t )dt + σ(t, X t )dB t , X 0 = x<br />
où l’inconnue est le processus X, les donnés sont le mouvement Brownien B (éventuellement multidimensionel)<br />
et les fonctions b et σ.<br />
L’équation précédente a une unique solution si a- les fonctions b et σ sont continues,<br />
b- il existe K tel que pour tout t ∈ [0, T ], x ∈ R, y ∈ R<br />
i) |b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ K |x − y|<br />
ii) |b(t, x)| 2 + |σ(t, x)| 2 ≤ K 2 (1 + |x| 2 ). De plus cette solution vérifie<br />
E( sup |X t | 2 ) < ∞.<br />
0≤t≤T<br />
5.1 Equation linéaire<br />
Exercice 5.1.1 Soit l’EDS<br />
dX t = bX t dt + dB t , X 0 = x.<br />
1. On pose Y t = e −bt X t . Quelle est l’EDS vérifiée par Y t Exprimer Y t sous la forme Y t =<br />
y +<br />
∫ t<br />
0<br />
f(s)dB s où l’on explicitera la fonction f.<br />
2. Calculer E(Y t ) et E(Yt 2 ).<br />
3. Justifier que<br />
∫ t<br />
0<br />
Y s ds est un processus gaussien. Calculer E(exp[<br />
4. Exprimer Y t pour t > s sous la forme Y t = Y s +<br />
Calculer E(Y t |F s ) et Var (Y t |F s )<br />
5. Calculer E(X t |F s ) et Var (X t |F s ).<br />
∫ t<br />
s<br />
∫ t<br />
0<br />
Y s ds]).<br />
g(u)dB u où l’on explicitera la fonction g.<br />
Exercice 5.1.2 Soit<br />
dΨ t = (1 − rΨ t )dt + σΨ t dB t<br />
51
52 Equa. Diff.<br />
et L le générateur associé<br />
Soit u une solution de<br />
LV (x) = (1 − rx)V ′ (x) + σ2<br />
2 x2 V ′′ (x)<br />
Lu(x) − λu(x) = 0<br />
On définit x ∗ comme solution de x ∗ u ′ (x ∗ ) = u(x ∗ ) et v(x) =<br />
Soit enfin V définie par {<br />
V (x) = v(x), 0 ≤ x ≤ x<br />
∗<br />
x∗<br />
u(x ∗ ) u(x). On admettra que v′′ (x) ≥ 0.<br />
= x, x > x ∗<br />
Montrer que 1 − (r + λ)x ∗ ≤ 0.<br />
Ecrire la formule d’Itô pour e −λt V (Ψ t ) (il apparait un terme LV (x) − λΨ(x)). Montrer que sur<br />
x > x ∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x ∗ , on a LV (x) − V (x) = 0<br />
En déduire que<br />
V (Ψ 0 ) ≥ Ẽ(e−λT V (Ψ T ))<br />
(en admettant que l’intégrale stochastique est une martingale).<br />
Exercice 5.1.3 Cas particulier 1.<br />
1. Montrer que la solution Y de<br />
dY t = αX t dt + βX t dB t , Y 0 = 1 ,<br />
est<br />
Y t = exp {(α − 1 2 β2 )t + βB t } .<br />
2. Montrer que si α ≥ 0, Y est une sous-martingale par rapport à la filtration (F t ).<br />
A quelle condition sur α, Y est elle une martingale<br />
3. Soit (Z t ) t≥0 le processus défini par<br />
Z t = x + (a − bβ)<br />
∫ t<br />
0<br />
Ys<br />
−1 ds + b<br />
Montrer que (Z t ) t≥0 est un processus d’Itô. Calculer < Y, Z > t .<br />
En déduire que la solution X de (5.3) peut s’écrire X t = Y t Z t .<br />
∫ t<br />
0<br />
Y −1<br />
s dB s .<br />
Exercice 5.1.4 Cas particulier 2. On considère l’équation<br />
dX t = αX t dt + b dB t (5.1)<br />
X 0 = x .<br />
1. Montrer que l’unique solution de (5.1) s’écrit<br />
X t = e αt (X 0 + b<br />
∫ t<br />
0<br />
e −αs dB s ) .<br />
2. Montrer que X est un processus gaussien, calculer son espérance et sa variance.<br />
3. Justifier que<br />
∫ t<br />
0<br />
(<br />
X s ds est un processus gaussien. Calculer E exp[ ∫ )<br />
t<br />
0 X sds] .
Enoncés. 2009-10 53<br />
4. Calculer E(X t |F s ) et Var (X t |F s ).<br />
5. Soit X solution de (5.1), et φ une fonction de classe C 2 . Ecrire la formule d’Itô pour Z t =<br />
φ(X t ).<br />
En déduire que si φ(x) =<br />
∫ x<br />
0<br />
exp(−α y2<br />
) dy, alors<br />
b2 Z t = b<br />
∫ t<br />
Z est-elle une martingale de carré intégrable<br />
0<br />
exp(−α B2 s<br />
b 2 ) dB s<br />
6. Soit λ fixé. Calculer<br />
Φ(t, y) = E(e λX2 t ) .<br />
Soit t fixé. Etudier la martingale E(e λX2 t |Fs ) , s ≤ t.<br />
Montrer que Φ est solution d’une équation aux dérivées partielles. Soit Ψ(t, x) = ln Φ(t, x).<br />
Montrer que<br />
Ψ(t, x) = x 2 a(t) + b(t), avec a ′ (t) = −2a(t)(α + b 2 a(t)), b ′ (t) = −b 2 a(t) .<br />
Exercice 5.1.5 Cas particulier 3. On considère l’équation<br />
où x ≠ − b β<br />
. Soit h la fonction définie par<br />
dX t = (b + βX t )dB t (5.2)<br />
X 0 = x<br />
h(y) = 1 β<br />
ln |<br />
b + βy<br />
b + βx |<br />
pour y ≠ − b β<br />
1. On pose Y t = h(X t ). Quelle est l’équation vérifiée par Y <br />
2. En déduire que la solution de (5.2) s’écrit<br />
X t = (x + b β ) exp(−β2 2 t + βB t) − b β<br />
Exercice 5.1.6 Cas particulier 4. On se place dans le cas a = 1, b = 0. On pose Y t = e −αt X t .<br />
Quelle est l’équation différentielle vérifiée par Y <br />
Calculer E(X t ) et Var (X t ).<br />
Exercice 5.1.7 Cas général. Soit a, α, b, β quatre constantes réelles. Soit x ∈ R.<br />
On considère l’équation différentielle stochastique<br />
dX t = (a + αX t ) dt + (b + βX t ) dB t (5.3)<br />
X 0 = x<br />
1. Montrer que (5.3) admet une unique solution.<br />
2. On note m(t) = E(X t ) et M(t) = E(X 2 t ).
54 Equa. Diff.<br />
(a) Montrer que m(t) est l’unique solution de l’équation différentielle ordinaire<br />
y ′ − αy = a (5.4)<br />
y(0) = x<br />
(b) Ecrire la formule d’Itô pour X 2 où X est solution de (5.3).<br />
(c) En déduire que M(t) est l’unique solution de l’équation différentielle ordinaire<br />
y ′ − (2α + β 2 ) y = 2(a + bβ)m + b 2 (5.5)<br />
y(0) = x 2<br />
où m est la solution de (5.4). (On admettra que l’intégrale stochastique qui intervient est<br />
une martingale)<br />
(d) Résoudre (5.4) puis (5.5).<br />
Exercice 5.1.8 Soit f, F, g, G des fonctions continues bornées. On note X la solution de<br />
dX t = [f(t) + F (t)X t ]dt + [g(t) + G(t)X t ]dB t , X 0 = x<br />
et Y la solution de<br />
dY t = F (t)Y t dt + G(t)Y t dB t , Y 0 = 1<br />
1. Expliciter Y .<br />
2. Soit Z défini par<br />
Montrer que X = Y Z.<br />
Z t = x +<br />
∫ t<br />
0<br />
Y −1<br />
s [f(s) − G(s)g(s)]ds +<br />
∫ t<br />
0<br />
Y −1<br />
s g(s)dB s .<br />
3. Soit m(t) = E(X t ) et M t = E(X 2 t ). Montrer que m est l’unique solution de y ′ (t) − F (t)y(t) =<br />
f(t), y(0) = x. En déduire<br />
où ˜F (t) =<br />
∫ t<br />
0<br />
m(t) = exp( ˜F (t))<br />
[<br />
x +<br />
∫ t<br />
0<br />
]<br />
exp − ˜F (s)f(s)ds<br />
F (s)ds. Montrer que M est l’unique solution de<br />
Y ′ (t) − [2F (t) + G 2 (t)]y(t) = 2[f(t) + g(t)G(t)]m(t) + g 2 (t), y(0) = x 2<br />
Exercice 5.1.9 Calculer l’espérance et la variance de la v.a. X t avec<br />
dX t = a(b − X t )dt + σ √ X t dB t , X 0 = x<br />
Exercice 5.1.10 Soit 0 < s < T et m ∈ R. Vérifier que la solution de<br />
dX t = (s − T )X t + mT<br />
(s − T )t + T 2 dt + dB t<br />
est<br />
X t = m ∫ t<br />
T t + [(s − T )t + T 2 dB u<br />
]<br />
0 (s − T )u + T 2
Enoncés. 2009-10 55<br />
Exercice 5.1.11 Soit π un processus adapté (de carré intégrable), σ, θ et r des processus adaptés<br />
(bornés), c un processus positif, adapté, borné et X la solution de<br />
dX x,π,c<br />
t = r t X x,π,c<br />
t dt − c t dt + πt T σ t [dB t + θ t dt] (5.6)<br />
X x,π,c<br />
0 = x<br />
( ∫ t<br />
On note H le deflateur, soit H t = exp<br />
0 r sds + ∫ t<br />
0 θ ∫<br />
sdB s − 1 t ∫ t<br />
2<br />
ds)<br />
0 θ2 = L t 0 r sds . Montrer que<br />
∫ t<br />
les processus H t X t + H s c s ds, t ≥ 0 et L t (X t R t + ∫ t<br />
0 cR sds) sont des martingales. Vérifier que<br />
0<br />
leur difference est une martingale.<br />
5.2 Processus affines<br />
Exercice 5.2.1 Calculer E(exp(λX T )) pour<br />
Exercice 5.2.2 Soit<br />
dX t = (µ − αX t − γV t )dt + √ V t dB 1,t<br />
dV t = k(θ − V t )dt + σ √ V t dB 2,t<br />
dX t = µ(X t )dt + σ(X t )dB t<br />
où µ et σ 2 (le carré de σ) sont des fonctions affines : µ(x) = µ 0 +µ 1 x ; σ 2 (x) = σ 0 +σ 1 x. On souhaite<br />
montrer que pour toute fonction affine ψ(x) = ψ 0 + ψ 1 x, pour tout θ, il existe deux fonctions α et<br />
β telles que,<br />
( (<br />
)<br />
E<br />
e θX T<br />
exp<br />
−<br />
∫ T<br />
t<br />
ψ(X s )ds<br />
|F t<br />
)<br />
= e α(t)+β(t)S t<br />
.<br />
1. Montrer qu’il suffit d’établir l’existence de deux fonctions α et β telles que le processus<br />
( ∫ t<br />
)<br />
e α(t)+β(t)S t<br />
exp − ψ(S s )ds<br />
est une martingale avec α(T ) = 0, β(T ) = θ.<br />
2. Montrer que la détermination de α et β conduit à la résolution d’une équation de Ricatti (type<br />
d’équation différentielle non linéaire) et d’une équation différentielle linéaire. On ne demande<br />
pas la résolution de ces équations.<br />
3. Généraliser le résultat au cas où dS t = µ(S t )dt+σ(S t )dB t +dX t où (X t , t ≥ 0) est un processus<br />
de Poisson.<br />
0<br />
5.3 Autres équations<br />
Exercice 5.3.1 On considère l’équation<br />
On suppose qu’il existe une solution.<br />
dX t = 1 Xt≥0dB t , X 0 = x . (5.7)<br />
1. Vérifier que, pour x = 0, la solution de (5.7) n’est pas identiquement nulle.<br />
2. Vérifier que, pour x ≥ 0, la solution est à valeurs positives. On pourra montrer, en utilisant<br />
la formule d’Itô, que si f est une fonction régulière, nulle sur R + , alors f(X t ) est nulle.<br />
3. Montrer que la solution issue de 0 est d’espérance nulle à tout instant t.<br />
4. Que peut on en conclure
56 Equa. Diff.<br />
5.4 Finance<br />
Exercice 5.4.1 Options Asiatiques. Soit S t solution de<br />
dS t = S t (r dt + σ dB t )<br />
les paramètres r et σ étant constants.<br />
(<br />
1. Soit K une constante. Montrer que le processus M t = E ( 1 T<br />
martingale.<br />
∫ T<br />
0<br />
)<br />
S u du − K) + |F t est une<br />
2. Montrer que, si l’on pose ζ t = St<br />
−1 (K − 1 T<br />
(<br />
3. Soit Φ(t, x) = E [ 1 T<br />
et que M t = S t Φ(t, ζ t ).<br />
∫ T<br />
t<br />
M t = S t E<br />
(<br />
[ 1 T<br />
∫ t<br />
0<br />
∫ T<br />
t<br />
S u du), on a<br />
)<br />
S u<br />
du − ζ t ] + |F t .<br />
S t<br />
)<br />
(<br />
S u<br />
du − x] + . Montrer que Φ(t, x) = E [ 1 ∫ )<br />
T<br />
S u<br />
du − x] + |F t<br />
S t T t S t<br />
4. Ecrire la formule d’Itô pour M. En déduire une équation aux dérivées partielles vérifiée par<br />
Φ.<br />
Exercice 5.4.2 Black et Scholes, volatilité déterministe. Soit σ une fonction déterministe<br />
continue et r une constante et (S t , t ≥ 0) la solution de<br />
dS t = S t (r dt + σ(t) dB t ) , S 0 = x<br />
1. Montrer que<br />
(<br />
S t = S 0 exp rt +<br />
∫ t<br />
0<br />
σ(s) dB s − 1 2<br />
∫ t<br />
0<br />
)<br />
σ 2 (s) ds<br />
2. Montrer que<br />
et la variance.<br />
∫ t<br />
0<br />
σ(s) dB s − 1 2<br />
∫ t<br />
0<br />
σ 2 (s) ds est une variable gaussienne dont on calculera l’espérance<br />
3. On rappelle que dans le cas σ constant, le prix d’un call est donné par<br />
avec<br />
C(0, x) = xN (d 1 ) − Ke −rT N (d 2 )<br />
d 1 = 1 (ln(<br />
σ √ x )<br />
σ2<br />
) + T (r +<br />
T K 2 ) , d 2 = d 1 − σ √ T<br />
En déduire (sans faire de calculs) que, dans le cas de volatilité déterministe, la formule de<br />
Black et Scholes s’écrit<br />
Exprimer D 1 et D 2 .<br />
E((S T − K) + ) = xN (D 1 ) − Ke −rT N (D 2 )
Enoncés. 2009-10 57<br />
Exercice 5.4.3 La formule de Dupire. Soit<br />
dS t = S t (rdt + σ(t, S t )dB t )<br />
où σ est une fonction de R + × R + dans R et f(t, x) la densité de S t , soit f(t, x) = P (S t ∈ dx). ON<br />
admettra que<br />
∂ t f − 1 2 ∂ [<br />
xx x 2 σ 2 (t, x)f(t, x) ] + ∂ x [rxf] = 0<br />
On note C(K, T ) le prix en zéro d’un call Européen de strike K et de maturité T . On note<br />
∂ 1 C, ∂ 2 C, ∂ 11 C les dérivées partielles de C par rapport à la première variable, seconde variable,<br />
dérivée seconde par rapport à la premiere variable.<br />
1. Montrer que ∂ 11 C(K, T ) = e −rT f(T, K).<br />
2. Montrer que<br />
3. En déduire<br />
1 [<br />
x 2<br />
2 ∂x 2 σ 2 (t, x)f(t, x) ] = e<br />
∂ 2<br />
rt ∂2<br />
∂x 2 (rx ∂ ∂2 ∂C<br />
C) + ert<br />
∂x ∂x 2 ∂t<br />
1<br />
2 x2 σ 2 (t, x) ∂2 C<br />
∂C<br />
(t, x) = rx∂C (x, t) + (t, x)<br />
∂x2 ∂x ∂t<br />
5.5 Equations différentielles<br />
Exercice 5.5.1 Soit α une constante et<br />
dX t = −α 2 X 2 t (1 − X t )dt + αX t (1 − X t )dB t (5.8)<br />
la condition initiale étant X 0 = x avec x ∈]0, 1[. On admet que X prend ses valeurs dans l’intervalle<br />
]0, 1[. On pose Y t = X t<br />
1 − X t<br />
.<br />
1. Quelle est l’équation différentielle stochastique vérifiée par Y <br />
2. En déduire que X t =<br />
x exp(αB t − α 2 t/2)<br />
x exp(αB t − α 2 t/2) + 1 − x .<br />
Exercice 5.5.2 Produit d’exponentielle. Soit B un MB et h un processus adapté borné. On<br />
def<br />
note E(hB) t = L t l’unique solution de dL t = L t h t dB t , L 0 = 1. Etablir une formule du type<br />
E(h 1 B 1 + h 2 B 2 ) t = X t E(h 1 B 1 ) t E(h 2 B 2 ) t où X est à déterminer.<br />
Exercice 5.5.3 Soit B un mouvement Brownien issu de a > 0 et T 0 = inf{t : B t = 0}. Pour<br />
t < T 0 , on définit X t = µ (B t ) α . Montrer que, pour t < T 0 ,<br />
dX t = b(X t ) dt + σ(X t ) dB t<br />
où on explicitera b et σ. En déduire la forme de la solution de dY t = Yt n dB t + 1 2n−1<br />
nYt dt, Y 0 = y ≥ 0<br />
2<br />
avant le premier temps d’atteinte de 0. (On admettra l’unicité de la solution).<br />
Exercice 5.5.4 Ponts<br />
1. Soit N une gaussienne réduite centrée indépendante de B. Vérifier que la solution de dX t =<br />
dB t + N − X ∫ t<br />
t<br />
1<br />
dt est X t = tN + (1 − t)<br />
1 − t<br />
0 1 − s dB s. En déduire que X est un processus<br />
gaussien, dont on calculera l’espérance et la covariance.
58 Girsanov. Enoncés<br />
2. Soit W un MB indépendant de B. Vérifier que la solution de dX t = dB t + W t − X t<br />
dt est<br />
∫ 1 − t<br />
t<br />
∫<br />
W t<br />
s<br />
X t = (1−t)<br />
0 (1 − s) 2 ds+(1−t) 1<br />
0 1 − s dB s. En déduire que X est un processus gaussien,<br />
dont on calculera l’espérance et la covariance.
Chapter 6<br />
Girsanov<br />
Soit (Ω, F, P) un espace de probabilité. Une probabilité Q sur (Ω, F) est dite équivalente à P si<br />
P(A) = 0 équivaut à Q(A) = 0. Dans ce cas, il existe une variable aléatoire Z, F-mesurable,<br />
strictement positive telle que Q(A) = E P (Z 1 A ) ce que l’on note dQ| F = ZdP| F . La v.a. Z vérifie<br />
E P (Z) = 1, on l’appelle densité de Radon-Nykodym.<br />
Si (Ω, F, P) est un espace de probabilité filtré, et si Q est équivalente à P sur F T (avec T ≤ ∞),<br />
alors dQ| Ft = Z t dP| Ft et le processus (Z t , t ≤ T ) est une F t , t ≤ T ) martingale. On rappelle la<br />
formule de Bayes (voir Exercice 1.3.14): pour X F T -mesurable bornée<br />
E Q (X|F t ) = 1 Z t<br />
E P (XZ T |F t )<br />
Dans tous ces exercices, B désigne un P -mouvement Brownien issu de 0, F = (F t , t ≥ 0) sa filtration<br />
naturelle.<br />
6.1 Résultats élémentaires.<br />
Dans la plupart des exercices, on considère des intégrales ∫ θ s dB s avec θ borné. La plupart des<br />
résultat se généralisent au cas de processus de carré intégrable.<br />
Exercice 6.1.1 Changement de probabilité. Soit (θ t , t ≥ 0) un processus adapté continu borné<br />
et L la martingale d´finie par L t = exp[<br />
∫ t<br />
0<br />
θ s dB s − 1 2<br />
par dQ = L T dP. Soit (φ t , t ≥ 0) un processus adapté continu borné et M t =<br />
∫ t<br />
0<br />
θ 2 sds]. Soit Q la probabilité définie sur F T<br />
∫ t<br />
0<br />
φ s dB s −<br />
∫ t<br />
0<br />
θ s φ s ds.<br />
Montrer que M est une Q-martingale.<br />
On pose Z t = M t L t . Montrer que Z est une P-martingale locale. Pouvait-on prévoir ce résultat.<br />
Exercice 6.1.2 Calcul d’espérance 1. Soit θ un processus adapté borné et H le processus<br />
défini par dH t = −H t θ t dB t , H 0 = 1. On note dQ| Ft = H t dP| Ft . Montrer que E P (H T ln H T ) =<br />
∫ T<br />
E Q ( 1 θ<br />
2<br />
sds). 2 On pourra faire une démonstration à la main (quand θ est déterministe) ou utiliser<br />
0<br />
le théorème de Girsanov.<br />
Exercice 6.1.3 Calcul d’espérance 2. Soit p une fonction déterministe donnée. Pour quelles<br />
fonctions h et k le processus exp(h(t) + k(t)B 2 t +<br />
∫ t<br />
0<br />
59<br />
p(s)B 2 sds) est-il une martingale Applications :
60 Girsanov. Enoncés<br />
∫ T<br />
1. Calculer E[exp(λBT 2 + p(s)Bsds]<br />
2<br />
∫ T<br />
2. Calculer E[exp(λBT 2 + p(s)Bsds)Ψ(A 2 + BB T )]<br />
0<br />
0<br />
Exercice 6.1.4 Itô+ Girsanov. Soit Γ le processus solution de<br />
où β et γ sont des processus F adaptés bornés.<br />
(<br />
1. Montrer que Γ t exp −<br />
∫ t<br />
0<br />
dΓ t = Γ t (β t dt + γ t dB t ), Γ 0 = 1<br />
)<br />
β s ds est une martingale locale.<br />
2. Trouver une probabilité Q telle que Γ soit une Q-martingale locale.<br />
3. Trouver une probabilité R telle que Γ −1<br />
t<br />
Exercice 6.1.5 Longstaff’s Model. Soit r t = Y 2<br />
t<br />
1. Donner la dynamique de r.<br />
soit une R-martingale locale.<br />
avec dY t = dB t − (λY t + α 2 )dt.<br />
2. Soit f et g deux fonctions déterministes (que l’on supposera continues bornées). Exprimer<br />
E(exp<br />
en fonction de exp 1 2<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
[f(s)B s + g(s)]dB s − 1 2<br />
g 2 (s)ds.<br />
3. Montrer que le calcul de E(exp −<br />
des fonctions f et g vérifiant des conditions que l’on précisera.<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
[f 2 (s)B 2 s + 2B s f(s)g(s)]ds)<br />
r s ds) se déduit du calcul de l’expression précédente avec<br />
Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densité<br />
ne dépend pas de ν.<br />
P (B t + νt ∈ dy|B s + νs = x)<br />
Exercice 6.1.7 Loi du sup. On suppose que l’on connait la loi du couple de v.a. (Bt ∗ , B t ) où pour<br />
un processus X on note<br />
Xt ∗ = sup X s .<br />
s≤t<br />
Montrer comment calculer la loi de (L ∗ t , L t ) pour L t = exp(αB t − α2<br />
2 t).<br />
Exercice 6.1.8 Loi de quantiles.<br />
1. Soit F et G deux fonctionnelles définies sur C([0, 1], R). Montrer que l’on a équivalence entre<br />
(i) ∀t, ∀µ ∈ R, F (X s , s ≤ t) loi<br />
= G(X s , s ≤ t) le processus X étant un Brownien de drift µ<br />
(ii) ∀t, F (X s , s ≤ t) loi<br />
= G(X s , s ≤ t) le processus X étant un Brownien.
2009-2010 61<br />
2. Soit A t =<br />
équivaut à<br />
∫ t<br />
0<br />
ds 1 Xs ≥0 et θ t = sup{s ≤ t : sup u≤s X u = X s }. Montrer que<br />
A t<br />
loi<br />
= θ t , lorsque le processus Xest un mouvement Brownien de drift µ<br />
A 1<br />
loi<br />
= θ 1 , lorsque le processus Xest un mouvement Brownien<br />
3. Soit X un mouvement Brownien. Montrer que si E(f(X 1 , A 1 ) 1 X1 >0) = E(f(X 1 , θ 1 ) 1 X1 >0),<br />
alors (X 1 , A 1 ) loi<br />
= (X 1 , θ 1 ).<br />
6.2 Crochet.<br />
Exercice 6.2.1 Girsanov Soit M une P-martingale de carré intégrable et dQ = exp(M t − 1 2 〈M〉 t) dP.<br />
Montrer que si N est une P martingale, N− < N, M > est une Q martingale.<br />
Exercice 6.2.2 h-processus. Soit X tel que dX t = µdt + σdB t , X 0 = x et h une fonction de<br />
classe C 1 telle que h(X t ) est une martingale positive. On note Q la probabilité définie par dQ| Ft =<br />
∫<br />
h(X t )<br />
t<br />
h(x) dP| h ′ (X s )<br />
F t<br />
. Soit M une P-martingale. Montrer que M t −<br />
h(X s ) d〈M, X〉 s est une Q-martingale.<br />
6.3 Processus.<br />
Exercice 6.3.1 Processus de Bessel. Soient θ et µ deux processus adaptés bornés. On note P θ<br />
la probabilité telle que le processus B θ défini par B θ t<br />
et P µ la probabilité telle que B µ avec B µ t<br />
def<br />
= B t −<br />
∫ t<br />
1. Quelles sont les densités L θ = dPθ<br />
dP et Lµ = dPµ<br />
dP <br />
0<br />
0<br />
def<br />
= B t −<br />
∫ t<br />
0<br />
θ s ds soit un mouvement Brownien<br />
µ s ds soit un mouvement Brownien.<br />
2. Soit L = Lθ<br />
L µ . Expliciter L en fonction de B puis en fonction de Bµ . A quel changement de<br />
probabilité type Girsanov correspond L<br />
3. Soit δ > 1 et R le processus solution de<br />
(on admet qu’il existe une solution)<br />
(a) Montrer que<br />
dR t = δ − 1<br />
R t<br />
dt + dB t , R 0 = 1<br />
∫ t<br />
0<br />
dR s<br />
= ln R t + 1 R s 2<br />
(b) Soit θ un processus adapté borné et L t = exp(<br />
probabiité définie par dQ = L t dP.<br />
Comment choisir θ pour que, sous Q<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
1<br />
R 2 s<br />
ds<br />
θ s dB(s) − 1 2<br />
∫ t<br />
0<br />
θ 2 sds). On note Q la<br />
dR t = 1 R t<br />
dt + d ˜B t<br />
où ˜B est un Q-Brownien. Exprimer L en n’utilisant que le processus R
62 Girsanov. Enoncés<br />
(c) En déduire que<br />
( ∫ t<br />
E(f(R t )) = E (ρ t ) δ exp[α<br />
0<br />
où α est une constante dépendant de n et<br />
ds<br />
ρ 2 s<br />
dρ t = 1 ρ t<br />
dt + d ˜B t , ρ 0 = 1 .<br />
)<br />
] f(ρ t )<br />
Exercice 6.3.2 Fonctionnelles exponentielles<br />
1. Calculer E( ∫ t<br />
0 exp(B s)ds) et E(exp(αB t ) ∫ t<br />
0 exp(γB s)ds).<br />
2. Soit A(t, ν) =<br />
∫ t<br />
0<br />
exp(B s + νs)ds.<br />
(a) Montrer en utilisant le théorème de Girsanov que le calcul de E(A(t, ν)) se ramène au cas<br />
ν = 0.<br />
(b) Peut-on faire un calcul direct<br />
Exercice 6.3.3 Soit X le processus solution de<br />
1. On définit<br />
dX t = −λX t dt + dB t , X 0 = x.<br />
(<br />
L t = exp λ<br />
∫ t<br />
0<br />
X s dB s − λ2<br />
2<br />
∫ t<br />
0<br />
)<br />
Xs 2 ds .<br />
Vérifier que L est une martingale locale. On admet pour la suite que c’est une martingale.<br />
2. On note P λ la mesure de probabilité définie sur F t par dP λ = L t dP. Quelle est la dynamique<br />
de X sous P λ <br />
3. Montrer que<br />
4. Calculer<br />
L t = exp(<br />
∫ t<br />
0<br />
E P<br />
(<br />
exp(− b2 2<br />
λX s dX s + 1 2<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
)<br />
Xs 2 ds) .<br />
λ 2 X 2 s ds)<br />
Exercice 6.3.4 Processus d’Ornstein-Uhlenbeck.<br />
1. On définit sur F T la mesure P b par<br />
∫ T<br />
dP b = exp{−b B s dB s − b2<br />
0<br />
2<br />
∫ T<br />
0<br />
B 2 s ds}dP<br />
(a) Justifier que, sous P b le processus (W t = B t + b ∫ t<br />
0 B s ds , t ≤ T ) est un brownien.<br />
(b) En déduire que sous P b , le processus (B t , t ≥ 0) est un processus d’Ornstein-Uhlenbeck,<br />
et que B t est une variable gaussienne dont on précisera, en s’appuyant sur le cours,<br />
l’espérance et la variance.<br />
(c) Montrer que, sous P, on a<br />
∫ t<br />
La même égalité est-elle vraie sous P b <br />
0<br />
B s dB s = 1 2 (B2 t − t).
2009-2010 63<br />
(d) Montrer que, pour tout t ≤ T ,<br />
E P (exp{−αBt 2 − b2 2<br />
∫ t<br />
où E b désigne l’espérance sous P b .<br />
Montrer que si ˜B est un brownien issu de a, on a<br />
0<br />
B 2 s ds}) = E b (exp{−αB 2 t + b 2 (B2 t − t)})<br />
E P (exp{−α ˜B 2 t − b2 2<br />
∫ t<br />
0<br />
˜B 2 s ds}) = E b (exp{−α ˜B 2 t + b 2 ( ˜B 2 t − a 2 − t)})<br />
(e) En déduire (il y a des calculs) que, pour tout t,<br />
∫ t<br />
E P (exp{−αB 2 t − b2 2<br />
0<br />
B 2 s ds}) = (cosh bt + 2 α b sinh bt)− 1 2<br />
2. Montrer que si ˜Bt est un Brownien issu de a<br />
E P (exp{−α ˜B 2 t − b2 2<br />
∫ t<br />
0<br />
˜B 2 s ds}) = (cosh bt + 2 α b sinh bt)− 1 2 exp[−<br />
xb<br />
2<br />
1 + 2α b<br />
coth bt<br />
coth bt + 2α ]<br />
b<br />
avec x = a 2 .<br />
Exercice 6.3.5 Soit S solution de<br />
les coefficients µ et σ étant constants.<br />
1. Montrer que S t = S 0 exp(µt + σB t − σ2<br />
2 t).<br />
dS t = S t (µ dt + σ dB t ) , S 0 = s ,<br />
2. On pose θ = − µ − r<br />
σ . Soit Q définie sur F t par dQ = L t dP avec L t = exp(θB t − 1 2 θ2 t).<br />
Montrer que (W t = B t + θt, t ≥ 0) est un Q-mouvement brownien.<br />
3. Soit ˜P définie sur F t par d˜P = Z t dQ avec Z t = exp(σW t − σ2<br />
2 t).<br />
Montrer que<br />
dS t = S t ((r + σ 2 ) dt + σ d ˜B t )<br />
où ˜B est un ˜P-mouvement brownien.<br />
( )<br />
4. Soit P t = P 0 e rt St<br />
. Montrer que , t ≥ 0 est une Q-martingale.<br />
P t<br />
Montrer que P t<br />
est une<br />
S ˜P-martingale.<br />
t<br />
(∫ t<br />
)<br />
5. Soit F t = e −λt S u du + sA où A, λ sont des constantes<br />
0<br />
Soit Ψ t = F t e λt<br />
. Ecrire l’équation différentielle stochastique vérifiée par Ψ t en utilisant le<br />
Brownien ˜B.<br />
S t<br />
Exercice 6.3.6 Soit α, β et σ des fonctions (déterministes) bornées et b(t) =<br />
r le processus solution de<br />
On suppose que σ ne s’annule pas.<br />
dr t = (α(t) − β(t)r t ) dt + σ(t)dB t<br />
∫ t<br />
0<br />
β(s) ds. On note
64 Girsanov. Enoncés<br />
1. Vérifier que<br />
r t = exp(−b(t))<br />
2. Calculer E(r t ) et Cov(r t , r s ).<br />
(<br />
r 0 +<br />
∫ t<br />
0<br />
exp(b(u)) α(u) du +<br />
3. Soit Q 1 la probabilité définie sur F t par dQ 1 = L t dP, avec<br />
L t = exp(<br />
∫ t<br />
0<br />
θ(s)dB s − 1 2<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
)<br />
exp(b(u)) σ(u) dB u .<br />
(θ(s)) 2 ds)<br />
où θ(s) = − α(s)<br />
σ(s) . On suppose θ bornée. On note B1 t = B t −<br />
(exp(b(t)) r t , t ≥ 0) est une Q 1 martingale.<br />
∫ t<br />
0<br />
θ(s) ds.<br />
Montrer que<br />
4. Soit Q 2 la probabilité définie sur F t par dQ 2 = Z t dQ 1 , avec<br />
Montrer que r est une Q 2 -martingale locale.<br />
dZ t = Z t<br />
β(t)<br />
σ(t) r t dB 1 t , Z 0 = 1<br />
Exercice 6.3.7 Drift non observable Soit Bt<br />
Y = Y t + B t où Y est une variable aléatoire de loi<br />
ν, indépendante de B. Soit F une fonctionnelle sur C([0, t], R). Montrer que<br />
∫<br />
avec h(x, t) =<br />
E[F (B Y s , s ≤ t)] = E[F (B s ; s ≤ t)h(B t , y)]<br />
ν(dy) exp(yx − y2<br />
t) En déduire que, sur l’espace canonique<br />
2<br />
X t −<br />
∫ t<br />
0<br />
ds h′ x<br />
h (X s, s)<br />
est une martingale sous P h avec P h | Ft = h(X t , t)B| Ft . Montrer que B Y t = ˜B h t +<br />
∫ t ∫ t<br />
où ˜B t<br />
h est un Brownien.<br />
Soit Q définie par dQ = e −Y B t− 1 2 Y 2t dP. Montrer que sous Q, Bt Y est indépendant de Y .<br />
Exercice 6.3.8 On note h une fonction.<br />
0<br />
0<br />
ds h′ x<br />
h (BY s , s)<br />
1. Donner des conditions sur h pour que dQ = h(B T )dP définisse, sur F T une probabililité<br />
équivalente à P.<br />
2. Calculer L t telle que dQ| Ft = L t dP| Ft<br />
3. Montrer que ∀X ∈ F T , on a E Q (X|B T ) = E P (X|B T )<br />
4. Expliciter Q(B T ∈ dx).<br />
5. Soit A ∈ F T , indépendante de B T . Montrer que Q(A) = P(A). Donner des exemples de tels<br />
A.<br />
6. Calculer Q(f(B T )|F t ).<br />
7. Montrer que<br />
L t = 1 +<br />
∫ t<br />
0<br />
dB s<br />
∫ ∞<br />
−∞<br />
dy h′ (y)e −(y−B s) 2 /(2(T −s))<br />
√<br />
2π(T − s)
2009-2010 65<br />
8. Montrer que le processus W défini par<br />
dW t = dB t −<br />
est un Q mouvement Brownien.<br />
∫ ∞<br />
−∞<br />
∫ ∞<br />
−∞<br />
dyh ′ (y)e −(y−B t) 2 /(2(T −t))<br />
dt<br />
dyh(y)e −(y−B t) 2 /(2(T −t))<br />
9. (cette question ne dépend pas des précédentes) Soit G t = F t ∨σ(B T ). Montrer que le processus<br />
∫ t<br />
B T − B s<br />
M t = B t −<br />
0 T − s<br />
ds est un P-G t mouvement Brownien. Montrer que M t est indépendante<br />
de B T .<br />
10. Montrer que M est un Q-G t mouvement Brownien.<br />
∫ (<br />
t<br />
x − X s<br />
Exercice 6.3.9 Soit, pour t < 1, X t = B t +<br />
0 1 − s ds et M t = exp −<br />
Montrer que<br />
M t = exp<br />
(− x2<br />
2 + (x − X t) 2<br />
2(1 − t) + 1 )<br />
2 ln(1 − t)<br />
∫ t<br />
0<br />
x − X s<br />
1 − s dB s − 1 2<br />
Exercice 6.3.10 Soit dQ| Ft = h(t, X t )dP| Ft . Sous quelles conditions sur h Q est-elle une probabilité<br />
sur F T Montrer que<br />
est une Q-martingale<br />
B t −<br />
∫ t<br />
0<br />
∂ x h(s, B s )ds<br />
( (<br />
Exercice 6.3.11 Soit L t = exp − 1 4 e<br />
−2B t<br />
− 1 ) ∫<br />
+ 1 t ( ) )<br />
2 0 e<br />
−2B s<br />
− 1 4 e−4Bs ds<br />
1. Question préliminaire: Calculer l’intégrale ∫ t<br />
0 e−2B s<br />
dB s .<br />
2. Montrer que L est une martingale. Quelle est son espérance<br />
3. On pose dQ = L t dP. Quelle est la dynamique de B sous Q<br />
∫ t<br />
0<br />
( ) 2 x − Xs<br />
ds)<br />
1 − s<br />
6.4 Cas multidimensionel<br />
Exercice 6.4.1 Cas multidimensionel. Soient (B 1 (t), t ≥ 0) et (B 2 (t), t ≥ 0) deux mouvements<br />
Browniens indépendants. Soit (L i (t), i = 1, 2 , t ≥ 0) les processus définis par<br />
dL i (t) = θ i (t)L i (t)dB i (t) , L i (0) = 1<br />
où (θ i (t), i = 1, 2) sont des processus adaptés continus bornés.<br />
1. Vérifier que<br />
L i (t) = exp(<br />
∫ t<br />
0<br />
θ i (s)dB i (s) − 1 2<br />
∫ t<br />
0<br />
θ 2 i (s) ds) .<br />
2. Soit T ≥ 0 et Q 1 la probabilité définie sur F T par dQ 1 = L 1 (T )dP. Soit (φ t , t ≥ 0) un processus<br />
adapté continu et M t =<br />
∫ t<br />
0<br />
φ s dB 1 (s) −<br />
∫ t<br />
0<br />
θ 1 (s)φ s ds.<br />
(a) Montrer que (M t , 0 ≤ t ≤ T ) est une Q 1 -martingale locale.
66 Girsanov. Enoncés<br />
(b) On pose Z 1 (t) = M t L 1 (t). Calculer dZ 1 (t). Montrer que Z 1 est une P-martingale.<br />
Pouvait-on prévoir ce résultat <br />
3. Soit Z t = L 1 (t)L 2 (t). Ecrire dZ t . Montrer que Z est une P-martingale.<br />
4. Soit Q la probabilité définie sur F T par dQ = Z T dP. Comment se transforment les browniens<br />
B i <br />
5. Soit (S i , i = 1, 2) deux processus solutions de<br />
dS i (t) = S i (t)[b i (t)dt + σ i (t)dB 1 (t) + φ i (t)dB 2 (t)]<br />
Montrer qu’il existe une probabilité Q équivalente à P telle que, sous Q<br />
dS i (t) = S i (t)[rdt + σ i (t)dB 1 (t) + φ i (t)dB 2 (t)]<br />
où (B i , i = 1, 2) sont des Q-Browniens indépendants.<br />
6.5 Temps d’arrêt.<br />
Exercice 6.5.1 Temps d’arrêt. Soit τ un (F t )-temps d’arrêt. Soit Q telle que dQ| FT<br />
et X ∈ F T . Comparer E P (L T 1 τ>T X) et E Q (X 1 τ>T ).<br />
= L T dP| FT<br />
Exercice 6.5.2 Let B be a Brownian motion and T = inf{t : e Bt−t/2 > a}, where a > 1. Prove<br />
that, ∀λ ≥ 1/2,<br />
E( 1 T 0. Soit r une constante.<br />
1. Montrer qu’il existe θ tel que<br />
soit une martingale.<br />
M t<br />
def<br />
= exp(−rt + θX t )<br />
2. Soit b un nombre positif et τ le temps d’arrêt défini par<br />
τ = inf{t ≥ 0 | X t = b}<br />
Calculer E(exp(−rτ + θX τ )). On admettra que la martingale M t est uniformément intégrable<br />
et que le temps d’arrêt τ est fini. En déduire E(exp(−rτ)).<br />
3. On suppose que les conditions de la première question sont satisfaites. Soit Q telle que dQ =<br />
M t dP, sur F t . Comment se transforme B<br />
4. Soit S le processus défini par<br />
et Y t = ln S t<br />
s . Ecrire dY t.<br />
dS t = S t [rdt + σdB t ], S 0 = s
2009-2010 67<br />
5. Soit B une constante telle que s < B. Soit T B le temps d’arrêt<br />
T B = inf{t ≥ 0 | S t = B}<br />
Calculer<br />
E(exp(−rT B )) .<br />
Exercice 6.5.4 Soit f et g deux fonctions déterministes, f de classe C 1 , g continue.<br />
F t =<br />
∫ t<br />
0<br />
f(s)dB s et u est la solution de<br />
On note<br />
u ′′ (t) − 2 f ′ (t)<br />
f(t) u′ (t) − 2λg(t)f 2 (t)u(t) = 0<br />
avec u ′ (T ) = −2aλu(T )f 2 (T ). Le but de cet exercice est de montrer que<br />
E<br />
(<br />
exp<br />
(<br />
−λ<br />
[<br />
aF 2 T +<br />
∫ T<br />
0<br />
g(t)F 2 t dt<br />
]))<br />
=<br />
( ) 2 u(T )<br />
u(0)<br />
1. Montrer que, pour toute fonction h continue, le processus L défini par<br />
est une martingale.<br />
2. En déduire que<br />
( ( ∫ T<br />
h(s)<br />
1 = E exp<br />
0 2f(s) dF s 2 − 1 2<br />
( (<br />
= E exp 1 ∫<br />
h(T )<br />
T<br />
2 f(T ) F T 2 −<br />
(∫ t<br />
L t = exp h(s)F s dB s − 1<br />
0<br />
2<br />
0<br />
F 2 t<br />
∫ t<br />
0<br />
∫ t<br />
(h(s)f(s) + h 2 (s)F 2 s )ds<br />
( h ′ (t)f(t) − f ′ (t)h(t)<br />
f 2 (t)<br />
0<br />
)<br />
h 2 (s)Fs 2 ds<br />
))<br />
)<br />
dt −<br />
∫ t<br />
0<br />
(h(s)f(s) + h 2 (s)F 2 s )ds<br />
) )<br />
3. Montrer que<br />
E<br />
(<br />
exp<br />
[ (<br />
1 u ′ ) ∫<br />
(T )<br />
T<br />
2 u(T )f 2 FT 2 − Ft<br />
2 (T )<br />
0<br />
( u ′′ (t) − 2u ′ (t)f ′ (t)/f(t)<br />
u(t)f 2 (t)<br />
) ])<br />
dt =<br />
( ) 1/2 u(T )<br />
u(0)<br />
4. Résoudre le même problème par changement de temps.<br />
5. Soit Ψ une fonction borélienne bonée de R dans R. Comment calculer<br />
( ( [ ∫ ]<br />
T<br />
∫ ))<br />
T<br />
K = E exp −λ aFT 2 + g(t)Ft 2 dt Ψ(A + BF T + φ(t)F t dt)<br />
0<br />
0<br />
Exercice 6.5.5 Decomposition canonique Soit B un mouvement Brownien et h une fonction<br />
positive, vérifiant h(0, 0) = 1 et harmonique en espace (c’est-à-dire telle que h(t, B t ) est une martingale).<br />
On définit Q par dQ| Ft = h(t, B t )dP Ft . Montrer que B t −<br />
∫ t<br />
h ′ x<br />
0 h (s, B s)ds est un Q-mouvement<br />
Brownien.
68 Girsanov. Enoncés<br />
6.6 Finance<br />
Dans toute cette section, P est la probabilité historique, Q la probabilité risque neutre.Le processus<br />
˜S est le prix de l’actif sous-jacent aprs actualisation (soit ˜S t = S t e − ∫ t<br />
0 rsds . Dans un modèle Black<br />
et Scholes, le prix de l’actif suit<br />
dS t = S t (b t dt + σdB t )<br />
sous la probabilité P, où σ est une constante.<br />
Exercice 6.6.1 Moyenne. Soit dS t = S t (rdt + σdB t ), S 0 = 1, r et σ étant des constantes. On<br />
( ∫ 1 T<br />
)<br />
souhaite calculer C = E Q [(Z T − S T ) + ] quand Z T = exp ln S t dt .<br />
T<br />
1. Soit Q ∗ la probabilité définie sur F T par dQ ∗ = exp(σB T − σ 2 T/2)dQ. Montrer que<br />
e −rT E Q [(Z T − S T ) + ] = E Q ∗[( Z T<br />
S T<br />
− 1) + ] .<br />
∫ T<br />
2. Soit ˜B t = B t − σt. Ecrire Z T /S T sous la forme exp(αT −<br />
que l’on précisera.<br />
0<br />
0<br />
β(t)d ˜B t ) pour une fonction β<br />
3. Montrer que le calcul de C se réduit au calcul de E Q (( ˜S T −K) + ) pour un Brownien géométrique<br />
˜S dont on précisera la loi.<br />
Exercice 6.6.2 Volatilité stochastique On rappelle le théorème de représentation prévisible à<br />
deux dimensions: soit B = (B 1 , B 2 ) un Brownien à valeurs dans R 2 et F B sa filtration canonique.<br />
Toute F B -martingale de carré intégrable s’écrit M t = m +<br />
∫ t<br />
0<br />
φ 1 sdB 1 s +<br />
∫ t<br />
0<br />
φ 2 sdB 2 s où (φ i , i = 1, 2)<br />
sont des processus adaptés.<br />
Soient µ et η deux fonctions déterministes de R + dans R et σ, γ deux fonctions déterministes de R<br />
dans R. On considère alors un marché financier où l’actif risqué vérifie<br />
où Y est un processus solution de<br />
dS t = S t (µ(t)dt + σ(Y t )dB 1 t ), S 0 = s<br />
dY t = η(t)dt + γ(Y t )dB 2 t , Y 0 = 1<br />
1. Déterminer l’ensemble des probabilités équivalentes à P telles que, sous Q, S soit une martingale.<br />
2. Soit B un actif contingent B ∈ F T . Comment lui donner un prix (le taux sans risque est nul)<br />
<br />
Exercice 6.6.3 Options boost. Soit M une F-martingale à valeurs strictement positives.<br />
1. Justifier qu’il existe ψ tel que dM t = ψ t dB t et qu’il existe Ψ tel que dM t = Ψ t M t dB t .<br />
2. Soit S un Brownien géométrique tel que S 0 = x et<br />
dS t = S t (r dt + σdB t ) (6.1)<br />
où r et σ sont des constantes. Montrer qu’il existe γ tel que S t = x(M t ) γ où M est une<br />
martingale. A quel choix de r et σ correspond la valeur γ = 1
2009-2010 69<br />
3. Soit S un processus vérifiant (6.1), S ∗ t = sup s≤t S s et B ∗ t = sup s≤t B s . La loi de B ∗ t est connue<br />
(c’est celle de |B t |, ce résultat sera admis), on notera Φ(a) = P(B ∗ t ≤ a). Calculer, en utilisant<br />
les résultats de la question 3, E( 1 S ∗<br />
T ≤a) qui correspond à la valeur d’une option boost (au<br />
coefficient exp(−rT ) près).<br />
Exercice 6.6.4 Volatilité stochastique. Soit B 1 et B 2 deux Browniens indépendants, et F t =<br />
σ(B 1 s, B 2 s, s ≤ t) la filtration engendrée par les deux Browniens. Soit µ et η deux fonctions déterministes<br />
bornées de R + dans R et σ, γ deux fonctions déterministes bornées définies de R dans R. On note<br />
S la solution de<br />
dS t = S t (µ(t)dt + σ(Y t )dB 1 t ), S 0 = s<br />
où Y est un processus solution de<br />
dY t = η(t)dt + γ(Y t )dB 2 t , Y 0 = 1<br />
1. Soit θ un processus borné et Z la solution de<br />
dZ t = Z t θ t dB 1 t , Z 0 = 1<br />
Ecrire explicitement Z t sous la forme d’une exponentielle.<br />
2. Soit λ et ν deux processus adaptés bornés et L le processus défini par<br />
[∫ t<br />
L t = exp λ s dBs 1 − 1 ∫ t ∫ t<br />
(λ s ) 2 ds + ν s dBs 2 − 1 ∫ t<br />
]<br />
(ν s ) 2 ds<br />
0 2<br />
2<br />
Ecrire l’EDS vérifiée par L.<br />
0<br />
0<br />
0<br />
(6.2)<br />
3. On pose ˜B t = B 1 t −<br />
∫ t<br />
0<br />
constante. Montrer que L ˜Z est une martingale.<br />
λ s ds et on note ˜Z la solution de d ˜Z t = ˜Z t θd ˜B 1 t , ˜Z 0 = 1 où θ est une<br />
4. Soit Q ∗ définie sur F t par dQ ∗ = L t dP. Montrer que ˜Z est une Q ∗ martingale. En déduire<br />
que ˜B 1 est un Q ∗ brownien.<br />
5. Montrer que ˜B 2 t = B 2 t −<br />
∫ t<br />
0<br />
ν s ds est un Q ∗ brownien.<br />
6. On admet que si Q est une mesure équivalente à P il existe λ, ν tels que la densité de Q par<br />
rapport à P soit de la forme (6.2). Décrire l’ensemble des couples λ, ν correspondants à des<br />
probabilités Q telles que (S t e −rt , t ≥ 0) soit une Q-martingale.<br />
7. Le marché financier est-il complet <br />
8. Soit X un actif contingent duplicable, c’est-à-dire tel qu’il existe V processus adapté de la<br />
forme<br />
dV t = rV t dt + φ t (dS t − rS t dt)<br />
vérifiant V T = X, avec φ processus adapté borné. (On ne demande pas de justifier cette<br />
définition)<br />
(a) Montrer que (V t e −rt , t ≥ 0) est une Q martingale pour tout Q ∈ Q.<br />
(b) On suppose que V t = v(t, S t , Y t ). Montrer que v vérifie une équation aux dérivées partielles<br />
que l’on explicitera.<br />
Exercice 6.6.5 Symétrie put-call.<br />
est une constante et M 0 = 1.<br />
Soit M une (F t )-martingale telle que dM t = M t σdB t où σ
70 Girsanov. Enoncés<br />
1. Vérifier que M est à valeurs strictement positives.<br />
2. Calculer dY t quand Y t = (M t ) −1 .<br />
3. Soit Q ∗ telle que dQ ∗ = M t dP sur F t . Déterminer la loi de Y sous Q ∗ .<br />
4. Montrer que E P ((M T − K) + ) = KE P ((K −1 − M T ) + ).<br />
Exercice 6.6.6 Symétries<br />
On suppose que le prix d’un actif, sous la probabilité risque neutre Q est donné par<br />
dS t = S t ([r − q]dt + σdB t ), S 0 = x<br />
où q est le taux de dividendes. On note C(x, K, r, q) (ou C(x, K, r, q, σ) si besoin est) le prix d’une<br />
option d’achat européenne de prix d’exercice K, soit<br />
C(x, K, r, q) = E Q (e −rT (S T − K) + )<br />
On rappelle que, dans le cas r = 0 = q, en notant C ∗ (x, K) = C(x, K, 0, 0) le prix d’un call de strike<br />
K sur un sous jacent de valeur initiale x et P ∗ le prix d’un put, on a<br />
[ ( x<br />
)] [ ( x<br />
)]<br />
[ ( )] [ ( )]<br />
K K<br />
C ∗ (x, K) = xN d 1 −KN d 0 , P ∗ (x, K) = −xN d 0 +KN d 1 , (6.3)<br />
K<br />
K<br />
x<br />
x<br />
avec<br />
d 1 (α) = 1<br />
σ √ T ln(α) + 1 2 σ√ T , d 0 (α) = d 1 (α) − σ √ T<br />
et que le delta du call est DeltaC ∗ (x, K) = N (d 1 ( x K )).<br />
1. Montrer, en utilisant les résultats de l’exercice 3.6 que C(x, K, r, q) = C ∗ (xe −qT , Ke −rT ).<br />
2. Montrer, au vu des formules précédentes que<br />
( )] xe<br />
DeltaC(x, K, r, q) = e −qT −qT<br />
N<br />
[d 1<br />
Ke −rT<br />
où DeltaC est le Delta du call.<br />
3. Montrer, au vu des formules (6.3) et de la question (a) que<br />
DeltaP(x, K, r, q) = −e −qT N<br />
[d 0<br />
( Ke<br />
−rT<br />
xe −qT )]<br />
C(x, K, r, q) = C ∗ (Ke −µT , x) = P ∗ (xe −µT , K) = P (K, x, q, r) (6.4)<br />
où µ = r − q et P le prix d’un put. Commenter.<br />
Exercice 6.6.7 Options power. Soit<br />
dS t = S t ((r − δ)dt + σdB t ), S 0 = x .<br />
Cette dynamique modélise, sous la probabilité risque-neutre Q, le prix d’un actif versant des dividendes<br />
au taux δ le taux spot étant r.<br />
1. Calculer<br />
dans le cas h(x) = (x α − K) + .<br />
E Q (h(S T )e −r(T −t) |F t )<br />
2. On suppose r = δ. On pose dQ ∗ | Ft = (S t /x)dQ| Ft et Z t = x 2 /S t . Quelle est la dynamique de<br />
(Z t , t ≥ 0) sous Q ∗ Montrer que pour toute fonction f borélienne bornée<br />
1<br />
x E Q(S T f( x2<br />
S T<br />
)) = E Q (f(S T ))
2009-2010 71<br />
3. On repasse au cas général. Montrer que S a est une martingale pour une valeur de a que l’on<br />
précisera. Montrer que, pour toute fonction f borélienne bornée<br />
4. On se place dans le cas<br />
E Q (f(S T )) = 1 x a E Q(S a T f( x2<br />
S T<br />
))<br />
h(x) = x β (x − K) +<br />
Montrer que h(S T ) s’écrit comme différence de deux payoffs correspondants à des options<br />
d’achat Européennes portant sur S β+1 et sur S β avec des strikes que l’on déterminera.<br />
Exercice 6.6.8 Option d’échange Soit dS (i)<br />
t = S (i)<br />
t (b i dt + σ i dB (i)<br />
t , i = 1, 2 où les coefficients sont<br />
constants, les browniens B (i) étant correlles. Calculer la valeur d’une option d’échange dont le payoff<br />
est (S (1)<br />
T<br />
− S(2) T )+ .<br />
Exercice 6.6.9 Taux de change On considère deux pays. Les quantités relatives au pays domestique<br />
seront indexées par d, les quantités relatives à l’autre pays par f. Chaque pays possède<br />
un taux sans risque noté respectivement r d et r f . Les marchés des deux pays sont dirigés par un<br />
mouvement Brownien B. Sous la probabilité P, un actif S suit la dynamique<br />
dS t = S t (µ t dt + σ S t dB t )<br />
On suppose que chacun des deux marchés est sans arbitrage : il existe une probabilité risque neutre<br />
domestique notée Q d équivalente à P telle que sous Q d le processus (e −rdt S d t , t ≥ 0) est une Q d<br />
martingale.<br />
1. Montrer que tout actif domestique S d a une dynamique de la forme<br />
dS d t = S d t (r d dt + σ t dB d t )<br />
où B d est un Q d mouvement Brownien. On notera λ d la prime de risque définie par dB d t =<br />
dB t + λ d t dt. Le taux de change entre ces pays est X dirigé par<br />
dX t = X t [(r d − r f ) dt + σ X t dB d t ]<br />
Si S f est un prix en unités monétaires du pays étranger, S f X est le prix du même produit en<br />
unités monétaires domestiques.<br />
2. Soit S f un actif étranger de dynaique<br />
Montrer que<br />
dS f t = S f t (r f t dt + σ t dB f t )<br />
λ f t − λ d t = −σ X t<br />
B d t − B f t =<br />
∫ t<br />
0<br />
σ X s ds<br />
3. Quelle est la dynamique du taux de change inverse Y = 1/X <br />
4. On souhaite valoriser une option quanto, c’est à dire une option sur produit étranger faisant<br />
intervenir le taux de change. Comment évaluer en monnaie domestique un flux étranger de<br />
(Sf T −K) + Comment évaluer une option d’achat sur action étrangère avec strike en monnaie<br />
domestique
72 Girsanov. Enoncés<br />
Exercice 6.6.10 Richesse (Cox-Huang, Karatzas) Un agent financier souhaite investir sur un<br />
marché sur lequel deux actifs sont négociables:<br />
Un actif sans risque de dynamique dS 0 (t) = S 0 (t)r(t)dt où r est déterministe,<br />
Un actif risqué dont le prix a pour dynamique dS 1 (t) = S 1 (t)(b(t)dt + σ(t)dB t ). On suppose<br />
que σ ne s’annule pas.<br />
La richesse X de cet agent a pour dynamique<br />
dX t = X t r(t)dt + π t [b(t) − r(t)]dt + σ(t)π t dB t<br />
où π est un processus F adapté représentant la proportion de la richesse investie dans l’actif risqué.<br />
1. Montrer qu’il existe une probabilité Q telle que dS 1 (t) = S 1 (t)(r(t)dt + σ(t)d ˜B t ) où ˜B est un<br />
Q-mouvement Brownien.<br />
2. Montrer que (R(t)X t , t ≥ 0) est une Q-martingale locale, avec R(t) = exp −<br />
∫ t<br />
0<br />
r(s)ds<br />
b(t) − r(t)<br />
3. Soit θ(t) = et H solution de l’équation dH t = −H t (r(t)dt + θ(t)dB t ), H 0 = 1.<br />
σ(t)<br />
Montrer que le processus (H t X t , t ≥ 0) est une P-martingale locale.<br />
4. On suppose que (H t X t , t ≥ 0) est une P-martingale pour tout choix de π. L’agent souhaite<br />
obtenir une richesse terminale égale à ζ, v.a. F T mesurable (i.e. X T = ζ). Montrer que<br />
sa richesse initiale X 0 est alors déterminée, et que son portefeuille de couverture (i.e. π)<br />
également.<br />
Exercice 6.6.11 Optimisation de richesse Sur le marché financier on trouve un actif risqué et<br />
un actif sans risque. Soit (S t , t ≥ 0) le prix de l’actif risqué. On suppose que dS t = S t (µ t dt + σdB t )<br />
. L’actif sans risque vérifie<br />
dS 0 (t) = S 0 (t)r t dt .<br />
Les processus µ t , r t sont F t -adaptés bornés, σ est une constante non nulle.<br />
(<br />
1. Montrer que S t exp −<br />
2. On pose θ t = µ t − r t<br />
.<br />
σ<br />
∫ t<br />
0<br />
)<br />
µ s ds est une P-martingale.<br />
Déterminer Q telle que, sous Q le processus ˜B t = B t +<br />
Ecrire l’équation vérifiée par S t en utilisant ˜B t .<br />
∫ t<br />
0<br />
θ s ds soit un mouvement Brownien.<br />
3. Un agent de richesse initiale x investit sa richesse X t suivant l’actif sans risque et l’actif risqué<br />
de prix S t suivant X t = n 0 (t)S 0 (t) + n 1 (t)S t . On suppose que dX t = n 0 (t)dS 0 (t) + n 1 (t)dS t .<br />
(a) Montrer que dX t = r t X t dt + n 1 (t)(dS t − S t r t dt).<br />
(b) On note π t = n 1 (t)S t et R t = exp −<br />
∫ t<br />
Ecrire dX t en fonction de π t , r t , et B t .<br />
0<br />
r s ds.<br />
(c) Montrer que, sous Q, le processus X t R t est une martingale.<br />
(d) Soit ζ = X T . Ecrire X t sous forme d’une espérance conditionnelle faisant intervenir ζ et<br />
le processus r.<br />
4. On se donne un processus (c t , t ≥ 0) à valeurs positives adapté et un processus (π t , t ≥ 0) de<br />
carré intégrable F t - adapté.<br />
Soit (X t , t ≥ 0) un processus tel que<br />
dX t = r t X t dt + π t (dB t + θ t dt) − c t dt . (6.5)
2009-2010 73<br />
(a) Montrer que, sous Q, le processus X t R t +<br />
X t R t = E Q (X T R T +<br />
∫ T<br />
(b) Ecrire cette relation sous P.<br />
t<br />
R s c s ds|F t ).<br />
∫ t<br />
0<br />
R s c s ds est une martingale. En déduire que<br />
(c) Montrer que si l’on impose la condition X T ≥ 0, il existe une solution de (6.5) positive,<br />
vérifiant cette condition.<br />
Exercice 6.6.12 Soit X t = µt + σB t . On note T a = inf{t|X t = a}. Trouver une probabilité Q<br />
telle que sous Q, ( ˜B t = X t /σ , t ≥ 0) soit un mouvement Brownien. Exprimer T a en utilisant ˜B t .<br />
Calculer E P (exp −λT a ).<br />
Exercice 6.6.13 Montrer que le prix d’une option Asiatique dont le strike est le sous jacent est<br />
le prix d’un call sur un sous jacent de dynamique dZ t = (1 − rZ t )dt − Z t σdB t . Comment faire le<br />
calcul<br />
Exercice 6.6.14 On considère un modèle Black et Scholes. Calculer, pour tout couple (s, t)<br />
E P (S t |F s ) et E Q (S t |F s ).<br />
On note Y t = ∫ t<br />
0 S udu.<br />
• Quel est le prix, à la date t du payoff Y T (versé en T )<br />
• Expliciter la stratégie de couverture de Y T<br />
• On considère le payoff h(Y T , S T ), versé en T , où h est une fonction borélienne (bornée)<br />
– Montrer que le prix à la date t de h(Y T , S T ) s’écrit ϕ(t, Y t , S t ) et montrer comment obtenir<br />
ϕ(t, y, x) par un calcul d’espérance (non conditionnelle)<br />
– Quelle est l’EDP satisfaite par ϕ<br />
– Déterminer la stratégie de couverture associée.<br />
Exercice 6.6.15 Zero-coupons Soit<br />
(<br />
dY t<br />
[<br />
= h(t)dt+dB t et r t = σ(t)Y t où h et σ sont des fonctions<br />
∫ t<br />
])<br />
de classe C 1 . On souhaite calculer E exp − r s ds .<br />
(∫ t<br />
1. Soit f une fonction continue et L f t = exp<br />
1. En déduire que<br />
E<br />
(<br />
exp<br />
[<br />
h(T )B T −<br />
∫ T<br />
0<br />
0<br />
0<br />
f(s)dB s − 1 2<br />
h ′ (s)B s ds − 1 2<br />
∫ T<br />
0<br />
∫ t<br />
0<br />
)<br />
H 2 (s)ds . Justifier que E(L f T ) =<br />
h 2 (s)ds<br />
])<br />
= 1 .<br />
2. On note Σ (resp. H) la primitive de σ (resp. h) nulle en 0. Montrer que<br />
( [ ∫ ])<br />
T<br />
∫ ( (<br />
T<br />
E exp − r s ds = exp(Σ(T )H(T )− Σ(T )h(t)dt)E exp h(T )B T −<br />
0<br />
0<br />
3. Calculer cette quantité.<br />
∫ T<br />
0<br />
Σ(t)dB t ds<br />
Exercice 6.6.16 Soit dY t = 2 √ Y t dB t + (2β(t)Y t + δ)dt et r t = σ(t)Y t , où σ et β sont des fonctions<br />
de classe C 1 . On introduit dX t = 2 √ X t dB t + δdt.<br />
))<br />
.
74 Compléments. Enoncés<br />
1. Soit H une fonction de classe C 2 et<br />
(∫ t<br />
Z t = exp H(s) √ X s dB s − 1 2<br />
On admet que Z est une martingale. Montrer que<br />
( ( 1<br />
Z t = exp H(t)X t − δ<br />
2<br />
2. Montrer que<br />
exp<br />
∫ t<br />
0<br />
0<br />
H(s)ds −<br />
E<br />
(<br />
exp<br />
[<br />
∫ t<br />
0<br />
−<br />
∫ t<br />
0<br />
H ′ (s)X s ds −<br />
∫ T<br />
0<br />
r s ds<br />
])<br />
[<br />
∫ ] ( [<br />
1<br />
T<br />
∫<br />
2 (−β(0)X 1( T<br />
0 − δ β(s)ds) E exp β(T )XT −<br />
0<br />
2<br />
0<br />
3. Comment calculer cette dernière expression<br />
=<br />
)<br />
H 2 (s)X s ds<br />
∫ t<br />
0<br />
))<br />
H 2 (s)X s ds e −1 2 H(0)X 0<br />
X s (β 2 (s) + β ′ (s) + 2σ(s))ds )])<br />
Exercice 6.6.17 On se place dans le cas où S t = e 2(Bt+νt) Montrer que S est une sousmartingale<br />
pour ν+1 ≥ 0 et une surmartingale sinon. En déduire que le prix d’une option asiatique est plus petit<br />
que le prix d’une option plain vanilla. Montrer par une minoration simple que E( 1 T<br />
νs))ds) ≥ E(e 2(B T +νT ) )<br />
∫ T<br />
0<br />
exp(2(B s +
Chapter 7<br />
Compléments<br />
Dans tout ce chapitre, B est un mouvement Brownien dont la filtration est notée F.<br />
7.1 Théorème de Lévy.<br />
Exercice 7.1.1 Lévy’s theorem. Let<br />
D =<br />
sup (B s − B t ), D 1 = B θ − inf B t, D 2 = sup B t − B σ<br />
0≤s≤t≤1<br />
θ≤t≤1 0≤t≤σ<br />
where θ (resp. σ) is the time of the absolute maximum (resp. minimum) of the Brownian motion<br />
over [0, 1], (i.e., ).<br />
1. Prove that D loi<br />
= sup 0≤t≤1 |B t |.<br />
2. En déduire la loi de D.<br />
3. Prove that D 1<br />
loi<br />
= sup g≤t≤1 |B t | where g = sup{t ≤ 1 : B t = 0}.<br />
Exercice 7.1.2 On note B ∗ le processus B ∗ t = sup s≤t B s .<br />
1. Justifier rapidement (en se basant sur des résultats classiques) que P(B ∗ t > a) = 2P(B t > a)<br />
pour a > 0. Cette égalité est-elle vérifiée également pour a ≤ 0<br />
2. Soit s < t. Montrer que<br />
3. Calculer explicitement cette quantité.<br />
P( sup B u > 0, B s < 0) = 2P(B t > 0, B s < 0)<br />
s≤u≤t<br />
4. On note g t = sup{s ≤ t : B s = 0}. Calculer la loi de g t .<br />
Exercice 7.1.3 On note B ∗ t = sup 0≤s≤t B s et θ = sup{t ≤ 1 : B t = B ∗ t }. On souhaite calculer la<br />
loi de θ.<br />
1. Ecrire {θ ≤ t} en utilisant les variables B ∗ t et sup t≤s≤1 B s<br />
2. Ecrire {θ ≤ t} en utilisant B ∗ t et sup t≤s≤1 (B s − B s )<br />
75
76 Compléments. Enoncés<br />
3. Quelle est la loi de sup t≤s≤1 (B s − B s ) conditionnelle à F t <br />
4. En déduire que P(θ ≤ t|F t ) = Φ(Bt ∗ − B t ) où Φ(x) = P(B1−t ∗ < x)<br />
5. Calculer Φ(x).<br />
6. On admet que Bt ∗ − B t a même loi que B t . Comment obtenir la loi de θ<br />
7.2 Equations rétrogrades<br />
Exercice 7.2.1 Equation rétrograde 1. Dans tout le problème ζ est une variable F T -mesurable,<br />
intégrable.<br />
1. On note X t = E(ζ|F t ). Montrer qu’il existe un processus ( ̂X s , s ≤ T ) tel que<br />
dX t = ̂X t dB t , X T = ζ (7.1)<br />
2. Soit r un nombre réel. En utilisant e rt E(ζe −rT |F t ) montrer qu’il existe un couple (X, ̂X) de<br />
processus (F t ) adaptés tels que<br />
dX t = rX t dt + ̂X t dB t<br />
X T = ζ<br />
3. Soit (r t , t ≥ 0) un processus F adapté borné. Montrer qu’il existe un couple (X, ̂X) de processus<br />
F-adaptés tels que<br />
dX t = r t X t dt + ̂X t dB t , X T = ζ<br />
4. Soit Γ β,γ le processus solution de dΓ t = −Γ t (β t dt+γ t dB t ), Γ 0 = 1 où β et γ sont des processus<br />
F adaptés bornés. Soit φ un processus F adapté borné. En considérant<br />
∫ T<br />
E(Γ T ζ + Γ s φ s ds|F t )<br />
t<br />
montrer qu’il existe un couple (X, ̂X) de processus F adaptés tels que<br />
dX t = −(φ t + X t β t + γ t ̂Xt )dt + ̂X t dB t ,<br />
X T = ζ<br />
5. Soit a un nombre réel. En considérant 1<br />
2a ln (E [exp (2aζ) |F t]), montrer qu’il existe un couple<br />
(X, ̂X) de processus F-adaptés tels que<br />
6. Montrer que 1 ( [<br />
])<br />
2a ln E Γ 2ac,b<br />
t,T<br />
exp (2aζ) |F t est solution de<br />
dX t = −a ̂X 2 t dt + ̂X t dB t , X T = ζ (7.2)<br />
dX t = −(a ̂X 2 t − b ̂X t − c)dt + ̂X t dB t , X T = ζ<br />
Exercice 7.2.2 Equation rétrograde 2. Soit H la solution de<br />
On notera H t,s = H s<br />
H t<br />
pour t < s.<br />
dH t = −H t (rdt + θdB t ) , H 0 = 1<br />
1. Soit t fixé. Quelle est l’EDS suivie par (H t,s , s ≥ t).
2009-10 77<br />
2. Soit ζ une v.a. bornée F T -mesurable et X t = ln E(H t,T e ζ def<br />
|F t ). Montrer que Y t = exp(X t )H t<br />
est une martingale que l’on peut écrire sous la forme z +<br />
∫ t<br />
0<br />
z s dB s .<br />
3. Montrer que dX t = (a ̂X 2 t + b ̂X t + c)dt + ̂X t dB t où ̂X est un processus adapté que l’on<br />
déterminera en fonction de Y, z, r et θ et où b et c sont des constantes.<br />
Exercice 7.2.3 Equation rétrograde 3..<br />
1. Soit (α t , t ≥ 0) un processus F-adapté. Donner la solution (Y, Z) de l’équation rétrograde<br />
−dY t = α t dt − Z t dB t , Y T = 0. (7.3)<br />
2. Au moyen du théorème de Girsanov, donner la solution de<br />
−dY t = (α t + γZ t )dt − Z t dB(t), Y T = 0. (7.4)<br />
où γ est un scalaire quelconque. Exprimer Y 0 sous la forme d’une espérance dépendant des<br />
données du problème.<br />
3. On pose α t = B t . Montrer que Y 0 =<br />
E(M t B t ) et E(M t signB t )) où<br />
∫ T<br />
0<br />
E(M t B t ) dt où M t = exp(γB t − 1 2 γ2 t). Calculer<br />
4. On introduit le processus<br />
sign(B s ) = 1 si B s > 0, et ; sign(B s ) = −1 si B s ) ≤ 0 .<br />
B t =<br />
∫ t<br />
0<br />
sign(B s ) dB s ,<br />
On rappelle que ce processus est un mouvement Brownien, on notera F t = σ(B s ; s ≤ t) sa<br />
filtration, qui est incluse dans F t . Montrer que la solution de<br />
−dY t = (B t + γZ t ) dt − Z t dB t , Y T = 0 ,<br />
vérifie<br />
Y 0 = γT 2 /2. (7.5)<br />
5. Montrer que la solution de<br />
−dY t = (B t + γZ t )dt − Z t dB t , Y T = 0, (7.6)<br />
vérifie<br />
Y 0 =<br />
∫ T<br />
E ( ∫<br />
) T<br />
M T B t dt = E ( )<br />
M t B t dt.<br />
0<br />
0<br />
6. Montrer, au moyen de la formule d’Itô que<br />
E ( ∫<br />
) t<br />
M t B t = γE (M s sign(B s )) ds,<br />
pour 0 ≤ t ≤ T. et en déduire que<br />
0<br />
Y 0 = γT 2 /2 − 2γ<br />
où Φ est la fonction de répartition de la loi normale centrée réduite.<br />
∫ T<br />
0<br />
(T − s)Φ(−γ √ s)ds. (7.7)
78 Compléments. Enoncés<br />
7. Supposons que Y 0 représente l’utilité (mesure le bien être que l’on éprouve quand on consomme<br />
c) associée à un plan de consommation (c t = exp(B(t))) et une information F et que<br />
Y 0 représente l’utilité associée au même plan de consommation mais avec l’information F.<br />
Interprétez alors le résultat trouvé en (7.5) et en (7.7) selon que γ > 0 ou que γ < 0.<br />
Exercice 7.2.4 facts on quadratic BS<strong>DE</strong> The solution of the BS<strong>DE</strong> −dy t = az 2 t −z t dB t , y T = ζ<br />
is y t = 1<br />
2a ln E(e2aζ |F t ). The solution of<br />
obtained by Girsanov.<br />
leads to<br />
The solution of<br />
−dy = (az 2 + bz)dt − zdB t<br />
−dy = (az 2 + bz)dt − zdB t = az 2 dt − z(dB t − bdt) = az 2 dt − z t d ̂B t )<br />
y t = 1<br />
2a ln Ê(e2aζ |F t )<br />
= 1<br />
= 1<br />
2a<br />
2a ln E(ebB T − 1 2 b2T e 2aζ |F t )e bBt− 1 2 b2 t<br />
(<br />
ln E(e bB T − 1 2 b2T e 2aζ |F t ) + bB t − 1 2 b2 t<br />
−dy = (az 2 + bz + c t )dt − zdB t<br />
follows setting ỹ t = y t + ∫ t<br />
0 c sds. The process ỹ satisfies<br />
∫ T<br />
−dỹ = (az 2 + bz)dt − zdB t , ỹ T = ζ + c s ds<br />
0<br />
)<br />
therefore<br />
(<br />
1<br />
ln E(e bB T − 1 2 b2T e 2a(ζ+∫ T<br />
0 csds) |F t ) + bB t − 1 )<br />
2a<br />
2 b2 t −<br />
∫ t<br />
0<br />
c s ds<br />
7.3 Théorèmes de représentation<br />
Exercice 7.3.1 Soit B (i) , i = 1, 2, 3 trois MB, avec B (i) , i = 1, 2 indépendants. Montrer qu’il n’est<br />
pas possible d’avoir σ(B s (3) , s ≤ t)) = σ(B s (1) , B s<br />
(2) , s ≤ t).<br />
Exercice 7.3.2 Changement de temps Soit M t =<br />
1. Justifier que (M t , t ≥ 0) est une martingale.<br />
∫ t<br />
0<br />
1 Bs >0dB s .<br />
2. Trouver un processus (A t , t ≥ 0) croissant tel que M 2 t − A t est une (F t )-martingale.<br />
3. On admet qu’il existe un processus croissant C tel que A(C(t)) = t. Montrer que (M Ct , t ≥ 0)<br />
est un (G t )-mouvement Brownien. Préciser quelle est la filtration (G t )-utilisée.<br />
Exercice 7.3.3 Crochet et indépendance. Soient B 1 et B 2 deux MB tels que leur crochet soit<br />
nul. Montrer qu’ils sont indépendants.
2009-10 79<br />
7.4 Temps local.<br />
Exercice 7.4.1 Loi du couple (|B t |, L t ). On note L le temps local de B.<br />
1. Montrer que la loi du couple (|B t |, L t ) est<br />
µ t (da, dl) = 1 a≥0 1 l≥0<br />
2(a + l)<br />
√<br />
2πt<br />
3<br />
)<br />
(a + l)2<br />
exp<br />
(− da dl<br />
2t<br />
2. On note T a = inf{t ≥ 0; B t = a} et τ l = inf{t ≥ 0; L t = l}. Montrer que T l<br />
loi<br />
= τ l<br />
3. Montrer que le processus (|B t |, L t ) est markovien de semi groupe<br />
∫<br />
Q t (α, λ, f) = µ t (da, dl)f(α ∨ l − (l − a), (λ − α) + α ∨ l)<br />
4. Montrer que, pour tout t, les v.a.s S t (S t − B t ) et B t sont indépendantes.<br />
5. Montrer que S t (S t − B t ) loi<br />
= t E où E est une variable exponentielle de paramètre 1.<br />
2<br />
Exercice 7.4.2 Formule de Tanaka.<br />
1. Peut-on appliquer la formule d’Itô pour calculer dZ t avec Z t = |B t |<br />
2. On admet qu’il existe un processus croissant L tel que<br />
|B t | = |B 0 | +<br />
∫ t<br />
0<br />
f(B s )dB s + L t<br />
avec f(x) = 1 si x > 0 et f(x) = −1 sinon. Montrer que (<br />
mouvement Brownien que l’on notera β.<br />
∫ t<br />
0<br />
f(B s )dB s , t ≥ 0) est un<br />
3. Soit S t = sup s≤t B s . Vérifier que S est un processus croissant. Comparer les décompositions<br />
|B t | = β t + L t et S t − B t = −B t + S t . Pour cette question, je ne vous demande aucun<br />
raisonnement précis.<br />
Exercice 7.4.3 Temps local. Soit L le temps local. Montrer que L t = inf s≥t (|B s | + L s ).<br />
Exercice 7.4.4 Temps aléatoire. Soit B un MB, S son maximum sur [0, 1] (soit S = sup{B s , s ≤<br />
1} et θ = inf{t ≤ 1 : B t = S}. La v.a. θ est-elle un temps d’arrêt Quelle est la loi de θ On<br />
calculera P(θ ≤ u) et on utilisera le principe de réflexion et l’identité de Lévy (S t − B t , t ≥ 0) loi<br />
=<br />
(|B t |, t ≥ 0).<br />
Calculer P(θ ≤ t|F t ).<br />
Exercice 7.4.5 Des martingales. Soit X une martingale continue et S t = sup s≤t X s .<br />
1. Pour quelles fonctions f le processus Y t = f(X t , S t , 〈X〉 t ) est-il une martingale locale<br />
2. Montrer que si g est C 2 et g(0) = 0, le processus<br />
est une martingale locale.<br />
g(S t ) − (S t − X t )g ′ (S t )
80 Compléments. Enoncés<br />
3. Montrer que si g est C 2 et g(0) = 0, le processus<br />
est une martingale locale.<br />
g(L t ) − |X t |g ′ (L t )<br />
Exercice 7.4.6 Scaling Soit B un MB et L son temps local. Montrer que<br />
(L x loi<br />
λ 2 t , x ∈ R, t ≥ 0) = (λL x/λ<br />
t x ∈ R, t ≥ 0)<br />
On utilisera<br />
∫ λ 2 t<br />
∫ t<br />
f(B s )ds loi<br />
= λ 2 f(λB u )du<br />
0<br />
0<br />
Exercice 7.4.7 Calculer E(L x T a<br />
).<br />
Exercice 7.4.8 Let M be a continuous martingale such that 〈M〉 ∞ = ∞ and β the associated<br />
Dubins-Schwarz BM. Prove that L a t (M) = L a 〈M〉 t<br />
(β).<br />
Exercice 7.4.9 Let φ be a non negative process indexed by R + × R. Prove that<br />
∫ ∞<br />
dy<br />
∫ t<br />
d s L y s φ(s, y) =<br />
∫ t<br />
−∞ 0<br />
0<br />
d s 〈Y 〉 s φ(s, Y s ) .<br />
7.5 Lois<br />
Exercice 7.5.1 Temps d’atteinte. Soit X solution de<br />
On note T a = inf{t ≥ 0 | X t = a}.<br />
X t = a(X t )dt + b(X t )dB t , X 0 = x .<br />
1. Donner des conditions sur la fonction V pour que (e −λt V (X t ), t ≥ 0) soit une martingale.<br />
2. En déduire E(e −λTa 1 (Ta
2009-10 81<br />
2. Prove that, for a > 0, sup u (B u − au) loi<br />
= 1 e, where e is a standard exponential variable with<br />
2a<br />
mean 1.<br />
3. Let B be a BM and T 1 the first hitting time of 1. Define I t = − inf s≤t B s . Identify the law of<br />
I T1 .<br />
Exercice 7.5.4 Loi du maximum.<br />
loi<br />
On rappelle que, pour T fixé, max t≤T B t = |B T |. On note C = E[(e −σB T<br />
−1) + ] et P = [(1−e σB T<br />
) + ].<br />
Montrer que pour x > 0<br />
(Il n’y a aucun calcul à faire)<br />
E[max<br />
t≤T (xeσBt − xe σB T<br />
)] = x[C + P ]<br />
7.6 Filtrations<br />
Exercice 7.6.1 Agent initié L’agent initié connait la valeur terminale<br />
∫<br />
du Brownien. Le problème<br />
t<br />
def B T − B u<br />
est de savoir comment se transforment les martingales. Soit Z t = B t −<br />
T − u<br />
du<br />
1. Soit f une fonction déterministe. Montrer que<br />
∫ T<br />
E[Z u f(v)dB v ] =<br />
En déduire que si, pour tout u, E[Z u<br />
∫ T<br />
et montrer que f est une constante.<br />
0<br />
0<br />
∫ u<br />
0<br />
f(v)dv −<br />
∫ u<br />
0<br />
1<br />
ds<br />
T − s<br />
∫ T<br />
s<br />
0<br />
dvf(v)<br />
f(v)dB v ] = 0 , alors f vérifie f(u) = 1 ∫ T<br />
dvf(v)<br />
T − u u<br />
2. Soit t < T . On admet que E(B t |B T ) = aB T + b où a et b sont des constantes. Montrer que<br />
b = 0 et que a = t T . (On pourra prendre l’espérance des deux membres et calculer E(B tB T ))<br />
3. Soit s < t < T . On admet que E(B t |B s , B T ) = aB s + bB T + c où a, b et c sont des constantes.<br />
Montrer que a = T − t<br />
T − s , b = t − s<br />
T − s , c = 0.<br />
4. On note F ∗ t = F t ∨ σ(B T ) la tribu engendrée par (B u , u ≤ t) et par B T . On admet que pour<br />
s < t, E(B t |B T , B s ) = E(B t |F ∗ s ). Montrer que Z est une (F ∗ t )- martingale. On pourrait<br />
montrer que c’est un MB.<br />
Exercice 7.6.2 Soit G une filtration et B un G mouvement brownien.<br />
1. Soit H une filtration plus petite que G. Vérifier que le processus M t = E(B t |H t ) est une<br />
martingale. (on précisera par rapport à quelle filtration).<br />
2. Soit X t = B t +<br />
∫ t<br />
de X (qui vérifie F X t<br />
0<br />
Y u du où Y est un processus G adapté intégrable. On note F X la filtration<br />
⊂ G t ) et Ŷu = E(Y u |F X u ). Vérifier que Z t = (X t −<br />
∫ t<br />
0<br />
Ŷ u du, t ≥ 0) est<br />
une F X -martingale (on calculera l’espérance conditionnelle de Z t par rapport à F X s ). Montrer<br />
que Z est un mouvement Brownien.
82 Compléments. Enoncés<br />
7.7 Options barrières<br />
Exercice 7.7.1 On note N la fonction de répartition de la loi normale et M t = sup(B s , s ≤ t).<br />
1. Soit x ∈ R. Montrer que P(B t ≤ x) = P(B t ≤ −x) = N (x( √ t) −1 ).<br />
2. Soit y > 0 donné, T = inf{t ≥ 0 |B t = y}.<br />
Soit B ∗ t = B T +t − B T . On admet que T est un temps d’arrêt et (B ∗ t , t ≥ 0) est un Brownien<br />
indépendant de F T .<br />
(a) Montrer que<br />
P(B t ≤ x, M t > y) = P(T < t, B ∗ t−T ≤ x − y)<br />
(b) Montrer que<br />
P(T < t, Bt−T ∗ ≤ x − y) =<br />
∫ t<br />
0<br />
P(T ∈ du)P(B ∗ t−u ≤ x − y) = P(T < t, B ∗ t−T ≥ y − x)<br />
(c) Montrer que pour y > x, on a<br />
P(B t ≤ x, M t > y) = P(B t ≥ 2y − x)<br />
En déduire que<br />
P(B t ≤ x, M t < y) = N ( x √<br />
t<br />
) − N ( x − 2y √<br />
t<br />
)<br />
3. En déduire la loi de T , celle de M t et la densité du couple (B t , M t ).<br />
4. Soit X t = µt + B t , Y t = sup (X s , 0 ≤ s ≤ t}. Montrer, en utilisant le théorème de Girsanov,<br />
que le calcul de<br />
P(X t < x, Y t < y)<br />
se déduit du calcul précédent.<br />
7.8 Méandres, ponts, excursions<br />
Exercice 7.8.1 Loi conditionnelle. Soit d t = inf{s ≥ t : B s = 0}. Montrer que d t (B) loi<br />
=<br />
t + (−B t) 2<br />
où G est une variable gaussienne de loi N (0, 1) indépendante de B t . Soit g = sup{t ≤<br />
G 2<br />
1 : B t = 0}. Calculer P(g ≤ t|F t ).<br />
Exercice 7.8.2 Martingale d’Azéma. On admet que le processus m u =<br />
1<br />
√ t − gt<br />
|B gt +u(t−g t )|, u ≤<br />
1 est indépendant de F gt , que sgneB t est F gt mesurable et que m 1 a pour densité xe −x2 /2 1 x>0 dx.<br />
Calculer E(B t |F gt ), E(Bt 2 α2 αBt−<br />
− t|F gt ) et E(e 2 t |F gt ). Montrer que ces processus sont des martingales.<br />
7.9 Divers<br />
Exercice 7.9.1 Soit dS t = S t (µdt + σdB t ) et ˜S t = S t max(1, max 0≤s≤t<br />
K<br />
S s<br />
). Calculer e −rT E( ˜S T )
2009-10 83<br />
Exercice 7.9.2 Soit S un brownien géométrique<br />
On pose M t = 1 t<br />
∫ t<br />
0<br />
S u du. Calculer<br />
dS t = S t (µdt + σdB t )<br />
E((M T − k) + |F t ) 1 Mt ≥(T k/t)<br />
1. Soit s < t M s = sup u≤s B u , M s t = sup s≤u≤t B u . Calculer P(M s < a, M s t < b, B t < c). On<br />
donnera le résultat sous forme d’une intégrale.<br />
2. Soit X t = e 2(Bt+νt) (x + ∫ t<br />
0 e2(Bs+νs) ds). Montrer que<br />
dX t = f(t, X t )dt + g(t, X t )dB t<br />
où l’on explicitera les fonctions f et g. Comment pourrait-on calculer le prix d’une option<br />
européenne sur le sous jacent X, en présence d’un actif sans risque de taux constant r<br />
Exercice 7.9.3 Let B be a Brownian motion and T a = inf{t ≥ 0 : B t = a} where a > 0.<br />
1. Using the Doléans-Dade exponential of λB, prove that<br />
and that<br />
E(e −λ2 T a<br />
/2|F t ) = e −λa + λ<br />
∫ Ta ∧t<br />
0<br />
e −λ(a−B u)−λ 2 u/2 du<br />
∫ Ta<br />
e −λ2 T a/2 = e −λa + λ e −λ(a−Bu)−λ2u/2 du<br />
0<br />
2. By differentiating the Laplace transform of T a , and the fact that ϕ satisfies the Kolmogorov<br />
equation, prove that<br />
where ϕ(t, x) = 1 √<br />
2πt<br />
e −x2 /(2t) .<br />
3. Prove that, for any f<br />
λe −λc = 2<br />
E(f(T a )|F t ) = E(f(T a )) + 2<br />
∫ ∞<br />
0<br />
e −λ2 t/2 ∂ ϕ(t, c) dt<br />
∂t<br />
∫ Ta∧t ∫ ∞<br />
0<br />
0<br />
f(u + s) ∂<br />
∂u ϕ(u, B s − a)dudB s<br />
4. Deduce that<br />
1 Ta
84 Sauts. Enoncés
Chapter 8<br />
Processus à sauts<br />
8.1 Processus de Poisson<br />
Un processus de Poisson standard est un processus de comptage (i.e. N t = ∑ ∞<br />
i=1 1 Ti≤t, où les<br />
T i sont des v.a. positives croissantes) à accroissements indépendents et stationnaires. La variable<br />
aléatoire N t a pour loi une loi de Poisson de paramêtre λ.<br />
Un processus de Poisson d’intensité déterministe λ(s) est un processus de comptage tel que M t =<br />
∫ t<br />
N t − λ(s)ds est la martingale compensée.<br />
∑ 0 ∞<br />
i=1 Z T i<br />
1 Ti ≤t = ∑ s≤t Z s∆N s .<br />
Si<br />
la formule d’intégration par parties est<br />
X t− dY t + Y t− dX t + d[X, Y ] t<br />
dX t = a t dt + σ t dB t + ϕ t dN t<br />
dY t = α t dt + ν t dB t + ϑ t dN t<br />
POur tout processus Z on définit ∫ t<br />
0 Z sdN s =<br />
d(XY ) t = X t− dY t + Y t− dX t + σ t ν t dt + ϕ t ϑ t dN t<br />
Dans cete section, N est un processus de Poisson de filtration naturelle F = (F t = σ(N s , s ≤ t); t ≥<br />
0).<br />
def<br />
Exercice 8.1.1 Montrer que si N est un processus de Poisson standard, M t = N t − λt est une<br />
martingale. Montrer que si N est un processus de Poisson d’intensit é λ(s), f une fonction borélienne<br />
bornée et g une fonction borélienne bornée à valeurs dans ] − 1, ∞[, les processus<br />
sont des martingales.<br />
X t = exp(<br />
Y t = exp(<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
f(s)dN s +<br />
∫ t<br />
ln(1 + g(s))dM s +<br />
0<br />
λ(s)(1 − e f(s) )ds)<br />
∫ t<br />
0<br />
[ln(1 + g(s)) − g(s)]λ(s)ds)<br />
Exercice 8.1.2 Soit N i , i = 1, 2 deux processus de Poisson indépendants de même intensité. Montrer<br />
que N 1 − N 2 est une martingale.<br />
Exercice 8.1.3 Soit F ∗ t<br />
= σ(N s , s ≤ t, N T ). Montrer que<br />
M ∗ t<br />
def<br />
= N t −<br />
∫ t<br />
0<br />
N T − N s<br />
T − s<br />
ds<br />
85
86 Sauts. Enoncés<br />
est une F ∗ -martingale.<br />
Exercice 8.1.4 Caractérisation de Processus de Poisson.<br />
1. Calculer ψ(z, t) = ∑ n<br />
z n P (N t = n).<br />
2. Soit X un processus à accroissements indépendants, à valeurs dans l’ensemble des entiers, tel<br />
loi<br />
que X t+s − X t = X s et ψ(z, t) = ∑ z n P (X t = n). Montrer que ψ(z, t + h) = ψ(z, t)ψ(z, h).<br />
n<br />
On suppose qu’il existe ν tel que<br />
1<br />
h P (X h ≥ 2) → 0 ,<br />
1<br />
h P (X h = 1) → ν ,<br />
1<br />
h (1 − P (X h = 0)) → ν<br />
quand h tend vers 0. Montrer que ∂ ψ(z, t) = ν(z − 1)ψ(z, t). Quel est le processus X<br />
∂t<br />
Exercice 8.1.5 Calculer la transformée de Laplace de ∫ t<br />
0 N sds<br />
Exercice 8.1.6 On note τ = T 1 le premier saut de N et D t = N t∧τ<br />
∫ t∧τ<br />
1. Déterminer δ tel que Z t = D t − δ u du soit une martingale.<br />
0<br />
2. On note L t = (1 − D t )/(1 − F (t)) où F (t) = P (τ ≤ t) est supposée continue. Montrer que<br />
dL t = α t dZ t où on explicitera α. Même question si F est seulement continue à droite.<br />
3. Soit N 1 et N 2 deux PP d’intensité constante λ 1 et λ 2 et D i les processus associés. On note<br />
µ 1 (t) = ( α 1<br />
−1)D 2 (t−) et µ 2 (t) = ( α 2<br />
−1)D 1 (t−). Soit ρ t solution de dρ t = ρ t− (µ 1 (t)dZ 1 (t)+<br />
λ 1 λ 2<br />
µ 2 (t)dZ 2 (t)). Expliciter ρ t . Soit dQ = ρ t dP . Calculer Q(τ 1 > t, τ 2 < s) pour s < t.<br />
8.2 Poisson composé<br />
Soit λ un nombre réel positif, µ une loi de probabilité sur R. Un processus de Poisson composé de<br />
paramêtres (λ, µ) est un processus X = (X t , t ≥ 0) de la forme<br />
∑N t<br />
X t =<br />
où N est un processus de Poisson d’intensité λ et où les (Y k , k ∈ N) sont des v.a. i.i.d. de loi µ,<br />
indépendantes de N.<br />
Exercice 8.2.1 Soit M t = N t − λt et Z t = X t − µλt. Montrer que Z et (M t Y t − µλt, t ≥ 0) sont<br />
des martingales.<br />
Exercice 8.2.2 On considère l’équation<br />
k=1<br />
X t = x + N t − c<br />
Y k<br />
∫ t<br />
0<br />
X s ds<br />
1. Montrer que cette équation admet au plus une solution.
2009-10 87<br />
2. Montrer que<br />
est une solution.<br />
e −ct x +<br />
∫ t<br />
0<br />
e −c(t−s) dN s<br />
Exercice 8.2.3 Montrer qu’un processus de Poisson composé a des accroissements indépendants et<br />
stationnaires et que (si Y 1 est intégrable)<br />
E(X t ) = λtE(Y 1 )<br />
Exercice 8.2.4 Let X be a (λ, µ) componud<br />
Var (X t ) = λtE(Y 2<br />
1 ).<br />
Exercice 8.2.5 Let X be a (λ, µ) compound Poisson process and f a bounded Borel function.<br />
Then,<br />
(<br />
∑ Nt ∫<br />
)<br />
exp f(Y k ) + t (1 − e f(x) )λµ(dx)<br />
is a martingale.<br />
k=1<br />
Poisson process. Prove that the process<br />
M f t = ∑ s≤t<br />
f(∆X s ) 1 ∆Xs ≠0 − tλµ(f)<br />
is a martingale; the process<br />
is a martingale.<br />
(M f t ) 2 − tλµ(f 2 )<br />
Suppose that X is a pure jump process and that there exists a finite positive measure σ such<br />
that<br />
∑<br />
f(∆X s ) 1 ∆Xs≠0 − tσ(f)<br />
is a martingale for any f, then X is a compound Poisson process.<br />
s≤t<br />
Exercice 8.2.6 If X is a (λ, µ) compound Poisson process,<br />
( ( ∫ ∞<br />
))<br />
E(e −αX t<br />
) = exp −λt 1 − e −αu µ(du)<br />
8.3 Formule d’Itô<br />
Dans cette section, B est un mouvement Brownien et N un processus de Poisson de martingale<br />
compensée M. On note F t = σ(W s , N s , s ≤ t).<br />
Exercice 8.3.1 On suppose que N est d’intensité constante λ.<br />
1. Montrer que la solution de<br />
est, pour φ > −1<br />
dS t = S(t − )(rdt + σdB t + φdM t ), S 0 = x<br />
0<br />
S t = xe rt exp(σW t − 1 2 σ2 t) exp(ln(1 + φ)N t − φλt) . (8.1)<br />
.
88 Sauts. Enoncés<br />
2. Ecrire la solution en faisant apparaitre la martingale M.<br />
3. Quelle est la dynamique de 1/S<br />
4. Quelle est la dynamique de S 2 <br />
5. Calculer E(S t ) et E(St 2 ).<br />
6. Quelle est la solution de (8.1)pour φ = −1 et pour φ < −1<br />
7. Quelle est la solution de (8.1) lorsque les coefficients dépendent du temps<br />
Exercice 8.3.2 Soit<br />
dX t = µ(t, X t )dt + σ(t, X t )dB t + φ(t, X t− )dM t<br />
et H une fonction de classe C 1,2 . Sous quelles conditions sur les coefficients le processus Y t = H(t, X t )<br />
est-il une martingale locale<br />
8.4 Temps de Défaut<br />
Exercice 8.4.1 Soit τ un temps aléatoire sur un espace (Ω, G, P).<br />
processus positif, G-adapté (λ s , s ≥ 0) tel que 1 τ≤t −<br />
∫ t∧τ<br />
fonction borélienne, X une variable aléatoire G T mesurable et<br />
∫ T ∫ T<br />
V t = E(X exp − λ s ds +<br />
t<br />
t<br />
0<br />
On suppose qu’il existe un<br />
λ u du soit une G martingale. Soit h une<br />
∫<br />
( u<br />
du h u λ u exp − λ s ds ) |G t ) .<br />
t<br />
Montrer que<br />
∣ ) ∣∣<br />
1 {t
2009-10 89<br />
4. Soit Q l’ensemble des probabilités risque neutre, et<br />
V t = esssup Q E Q (R T B|F t )<br />
On admettra que V est une surmartingale pour tout Q et que toute surmatingale s’écrit comme<br />
une martingale moins un processus croissant.<br />
Montrer qu’il existe A Q processus croissant, µ, ν tels que V t = v +<br />
∫ t<br />
0<br />
µ s dB Q s +<br />
où W Q et M Q sont des Q-martingales et B Q un MB.. Préciser le lien entre A P et A Q .<br />
5. Montrer que µ t<br />
φ<br />
σ − ν t ≥ 0<br />
6. Montrer que A P −<br />
∫ t<br />
0<br />
λ(µ s<br />
φ<br />
σ − ν s) est un processus croissant.<br />
∫ t<br />
0<br />
dM Q s − A Q t ,<br />
7. En déduire que V est la valeur d’un portefeuille X dont on explicitera le processus de consommation.<br />
Exercice 8.5.3 On considère un actif de prix<br />
dS t = S t− (rdt + ϕdM t )<br />
où M est la martingale compos ée associé à un processus de Poisson d’intensité constante λ.<br />
1. Vérifier que S t e −rt est une martingale.<br />
2. Soit X le valeur d’un portefeuille autofinancant comportant θ parts d’actif risqué, soit<br />
dX t = rX t dt + θ t (dS t − rS t dt)<br />
Vérifier que ˜X t = e rt X t est une martingale. Ecrire la dynamique de ˜X en fonction de ˜S.<br />
3. Ecrire l’EDS vérifiée par X/S.<br />
4. On pose dQ = S t e −rt /S 0 dP. Vérifier que X/S est une martingale sous Q.
90 Rappels<br />
s<br />
CORRIGES
Chapter 1<br />
Rappels, Corrigés<br />
1.1 Tribu<br />
Exercice 1.1.1: L’ensemble B − A s’écrit B ∩ A c . Si F est une tribu, elle est stable par passage<br />
au complémentaire et par intersection, d’où le résultat.<br />
Exercice 1.1.2 : 1) La tribu engendrée par A est constituée des quatre ensembles A, A c , ∅, Ω.<br />
2) Cette tribu doit contenir A et B, l’ensemble vide et Ω. Puis les complémentaires, soit A c et B c<br />
(les complémentaires de Ω et de l’ensemble vide égaux à l’ensemble vide et à Ω sont déjà dans la<br />
liste). Puis les unions d’ensembles soit A ∪ B, les autres unions A ∪ Ω = Ω, A ∪ B c = B c ,... sont<br />
déja dans la liste. Puis les intersections A c ∩ B c . On a terminé car les autres ensembles formés à<br />
partir d’opérations de passage au complémentaire, d’intersection et d’union sont dans la liste par<br />
exemple (A c ∩ B c ) ∪ B c = B c .<br />
Exercice 1.1.4 : Soit G = F 1 ∩ F 2 la famille composée des ensembles qui appartiennent à F 1 et à<br />
F 2 . La famille G est une tribu si<br />
(i) Ω ⊂ G, ce qui est le cas car Ω ⊂ F 1 , Ω ⊂ F 2 donc Ω ⊂ F 1 ∩ F 2 .<br />
(ii) la famille G est stable par passage au complémentaire: si A ⊂ G, la stabilité des<br />
tribus F 1 et F 2 par passage au complémentaire implique A c ⊂ F 1 , A c ⊂ F 2 donc A c ⊂ F 1 ∩ F 2 .<br />
(iii) la famille G est stable par intersection dénombrable: si A i ⊂ G, la stabilité des<br />
tribus F 1 et F 2 par intersection dénombrable implique ∩ i A i ⊂ F 1 , A c ⊂ F 2 donc ∩ i A c ⊂ F 1 ∩ F 2 .<br />
Les autres propriétés résultent des précédentes: L’ensemble vide appartient à G car c’est le complémentaire<br />
de Ω ( utiliser (i) et (ii)), la famille G est stable par union dénombrable: en passant au complémentaire<br />
l’identité (∩A i ) c ∪ (A c i ) on obtient ∩A i = (∪ i A i ) c . Il reste à utiliser (ii) et (iii).<br />
L’union de tribus n’est pas une tribu: considèrer le cas F 1 = σ(A), F 2 = σ(B). la famille F 1 ∪ F 2<br />
ne contient pas A c ∩ B c . Ne pas confondre sous ensembles et éléments. Par exemple, un intervalle<br />
est un sous ensemble de R, et n’est pas un élément de R.<br />
Exercice 1.1.6 : On utilise que X −1 (B) = {ω : X(ω) ∈ B}. La famille C est une tribu: la stabilité<br />
requise provient des égalités suivantes: X −1 (B c ) = (X −1 (B)) c , X −1 (∩B n ) = ∩X −1 (B n ). On<br />
trouvera une démonstration de la réciproque dans tout ouvrage de proba, cette démonstration est<br />
basée sur le théorème qui précise que si une tribu contient une classe stable par intersection finie,<br />
elle contient la plus petite tribu engendrée par cette classe.<br />
Exercice 1.1.7 : Les diverses quantités que l’on veut comparer sont égales. Les espérances E(f(X))<br />
et E(f(Z)) sont égales parce que X et Z ont même loi, et E(f(X, Y )) = E(f(Z, T )) car le couple<br />
(X, Y ) a même loi que le couple (Z, T ). Si l’hypothèse (Z, T ) sont indépendantes n’était pas faite,<br />
91
92 Rappels<br />
l’égalité en loi des variables X et Z et celle des variables Y et T ne suffirait pas. Par exemple, on<br />
peut prendre X loi<br />
= Y de loi gaussienne N (0, 1), X et Y indépendantes et Z = T = X. On aurait<br />
alors E(X 2 Y 2 ) = 1 et E(Z 2 T 2 ) = E(X 4 ) = 3. (contre exemple pour la question 3)<br />
1.2 Variables gaussiennes.<br />
Exercice 1.2.1 : Par symétrie de la densité et imparité de x 3 , on a E(X 3 ) = 0 et, par parité de<br />
x 4 on a E(X 4 ) = 2<br />
σ √ 2π<br />
∫ ∞<br />
parties successives et on obtient E(X 4 ) = 3σ 4 .<br />
On a également E(|X|) = 2 ∫ ∞<br />
σ √ 2π<br />
√<br />
2π<br />
et, par des calculs analogues<br />
E(|X 3 |) = 4σ3 √<br />
2π<br />
.<br />
0<br />
x 4 e − x2<br />
2σ 2 dx. Cette dernière intégrale se calcule par intégrations par<br />
0<br />
x exp − x2<br />
dx, d’où E(|X|) =<br />
2σ<br />
2σ2 Soit U une variable gaussienne d’espérance m et de variance σ 2 . Pour calculer E(exp{λU 2 + µU}),<br />
on doit calculer<br />
∫<br />
1 ∞<br />
σ √ e λu2 +µu e − 1<br />
2σ 2 (u−m)2 du .<br />
2π<br />
On montre que<br />
avec Σ 2 =<br />
Il vient<br />
En particulier<br />
−∞<br />
λu 2 + µu − 1<br />
2σ 2 (u − m)2 = − 1<br />
2Σ 2 (<br />
u − (µ + m σ 2 )Σ2) 2<br />
+<br />
Σ 2<br />
2 (µ + m σ 2 )2 − m2<br />
2σ 2<br />
σ2<br />
1−2λσ<br />
. 2<br />
E(exp{λU 2 + µU}) = Σ σ exp ( Σ<br />
2<br />
E(exp λU 2 ) =<br />
2 (µ + m σ 2 )2 − m2<br />
2σ 2 )<br />
1<br />
√ exp m 2 λ<br />
1 − 2λσ<br />
2 1 − 2λσ 2<br />
Par propriété de l’espérance conditionelle E(e aXY ) = E(Φ(X)) avec Φ(x) = e axY .<br />
Exercice 1.2.2 : Si X et Y sont gaussiennes indépendantes de loi N (m 1 , σ1) 2 et N (m 2 , σ2), 2 la<br />
somme X + Y est gaussienne: ceci se voit très facilement avec les fonctions caractéristiques:<br />
E(e it(X+Y ) ) = E(e itX )E(e itY ) = e itm 1− t2 σ<br />
1<br />
2<br />
2 e itm 2− t2 σ<br />
2<br />
2<br />
2 = e itm− t2 σ 2<br />
2<br />
avec m = m 1 + m 2 et σ 2 = σ1 2 + σ2.<br />
2<br />
On peut le voir aussi en se souvenant que si X et Y sont indépendantes, de densité f et g, la somme<br />
X + Y a pour densité h(x) = ∫ ∞<br />
f(x − y) g(y) dy et en effectuant le calcul. Attention, ce résultat<br />
−∞<br />
n’est pas nécessairement vrai si on n’a pas l’indépendance de X et Y (la somme de deux gaussiennes<br />
est une gaussienne si le vecteur est gaussien).<br />
On peut aussi calculer la transformée de Laplace de la somme<br />
E ( exp(λ(X + Y )) ) = E(exp(λ(X))E(exp(λ(Y ))<br />
= exp[λ(m 1 + m 2 ) + λ2<br />
2 (σ2 1 + σ 2 2)]<br />
ce qui montre que la somme a une loi gausienne d’espérance m 1 + m 2 et de variance σ 2 1 + σ 2 2.<br />
.<br />
Exercice 1.2.3 :
Corrigés 93<br />
1. Si X est N (m, σ 2 ), sa densité est f(x) = 1<br />
σ √ 2π<br />
N (0, 1). On peut le vérifier de plusieurs façons.<br />
exp −(x<br />
− m)2<br />
2σ 2<br />
et la v.a. Y = X − m<br />
σ<br />
est<br />
• En calculant la fonction de répartition de Y : Soit F Y la fonction de répartition de Y . On<br />
a F Y (y) = P(Y ≤ y) = P(X ≤ m + yσ) = F X (m + yσ). Il reste à dériver par rapport à y<br />
pour obtenir la densité de Y qui est σf(m + yσ) = √ 1 exp − y2<br />
2π 2 .<br />
• On peut utiliser les fonctions caractéristiques. Soit φ(t) = E(e itX ) = e itm− t2 σ 2<br />
2 la fonction<br />
caractéristique de X; la fontion caractéristique de Y est<br />
E(e itY X−m<br />
it<br />
) = E(e σ ) = e − itm t<br />
σ φ(<br />
σ ) = e− t2 2<br />
Cette remarque permet de ramener des calculs sur N (m, σ 2 ) à des calculs sur N (0, 1).<br />
La variable X −m est gaussienne centrée. D’où en utilisant l’exercice 1.2.1, E(|X −m|) = 2σ √<br />
2π<br />
.<br />
2. On a E(e λX ) = 1 ∫ ∞<br />
σ √ e λx (x − m)2<br />
exp −<br />
2π −∞<br />
2σ 2 dx.<br />
On montre que e λx exp − (x−m)2<br />
2σ<br />
= exp(λm + 1 2 2 σ2 λ 2 ) exp[− 1<br />
2σ<br />
(x − (m + λσ 2 )) 2 ] et le résultat<br />
2<br />
s’obtient facilement.<br />
3. Soit X une v.a. de loi N (0, 1). On a<br />
E( 1 X
94 Rappels<br />
A t (Var X)A ≥ 0, c’est-à-dire que les matrices de variance covariance sont semi définies positives.<br />
Exercice 1.2.6 : La v.a. λX + µY est gaussienne d’espérance λE(X) + µE(Y ) et de variance<br />
λ 2 σ 2 (X) + µ 2 σ 2 (Y ). On en déduit<br />
[<br />
E(exp(λX + µY )) = exp λE(X) + µE(Y ) + 1 ]<br />
2 (λ2 σ 2 (X) + µ 2 σ 2 (Y ))<br />
[<br />
= exp λE(X) + 1 ] [<br />
2 λ2 σ 2 (X) exp µE(Y ) + 1 ]<br />
2 µ2 σ 2 (Y ) = E(exp λX) E(exp µY )<br />
d’où l’indépendance.<br />
Exercice 1.2.7 : Si (X, Y ) est un vecteur gaussien, X et Y sont des vecteurs gaussiens.<br />
Cas d = 1. La projection de X sur (Y 1 , Y 2 , . . . , Y n ) est de la forme P r X = ∑ n<br />
i=1 a iY i C’est une v.a.<br />
gaussienne car Y est gaussien. Le vecteur (X − P r X, Y ) est gaussien. Les vecteurs X − P r X et Y<br />
sont indépendants car E((X − P r X)Y i ) = 0 par définition de la projection.<br />
Exercice 1.2.8 : Toujours avec la transformée de Laplace.<br />
On vérifie dans un premier temps que<br />
E(exp(λX)) = E[E(exp(λX)|Y )] = E[exp(λ(aY + b) + λ2<br />
2 σ2 )]<br />
= exp[λaE(Y ) + λ2 a 2<br />
2 σ2 (Y )] exp[λb + λ2<br />
2 σ2 ]<br />
donc, la v.a. X est gaussienne d’espérance b + aE(Y ) et de variance σ 2 + a 2 σ 2 (Y ). On calcule de<br />
la même façon E(Y e λX ) = E(Y exp(λ(aY + b) + λ2<br />
2 σ2 )] et en dérivant par rapport à λ, on trouve<br />
E(XY ) = aE(Y 2 ) + bE(Y ).<br />
D’autre part<br />
E(exp(λX + µY )) = E[exp(µY )E(exp(λX|Y )]<br />
et on vérifie que ceci est<br />
= E[exp(µY ) exp(λ(aY + b) + λ2<br />
2 σ2 )]<br />
= E[exp[(λa + µ)Y ]] exp(λb + λ2 σ 2<br />
2 )<br />
= exp[(λa + µ)E(Y ) +<br />
exp(λE(X) + µE(Y )) + 1 Var(λX + µY ))<br />
2<br />
(λa + µ)2<br />
σ 2 (Y )] exp(λb + λ2 σ 2<br />
2<br />
2 )<br />
1.3 Espérance conditionnelle<br />
Exercice 1.3.2 : Il suffit de calculer E([X −Y ] 2 |G) qui vaut 0 (développer le carré) donc, en prenant<br />
l’espérance E([X − Y ] 2 ) = 0.<br />
Exercice 1.3.5 : Sous les hypothèses de l’exercice E(X −Y |G) = E(X|G)−Y car Y est G-mesurable<br />
et E(X − Y |G) = E(X − Y ) = m par indépendance. D’où E(X |G) = m + Y . De la même façon<br />
E((X − Y ) 2 |G) = E(X 2 |G) − 2Y E(X|G) + Y 2 d’où E(X 2 |G) = σ 2 + (Y + m) 2 .
Corrigés 95<br />
Exercice 1.3.6 : Par définition de la projection E(XZ) = E((P r X)Z) pour tout Z combinaison<br />
linéaire des Y i . Cela ne suffit pas à dire que P r X est l’espérance conditionnelle car il existe des v.a.<br />
qui sont Y -mesurable et qui ne sont pas combinaison linéaire des Y i . Mais nous avons montré que<br />
X−P r X et Y sont indépendantes, d’où E(X−P r X |Y ) = E(X−P r X) = 0. D’où E(X|Y ) = P r X.<br />
Si n = 1, E(X|Y ) = P r X appartient à l’espace engendré par Y donc s’écrit αY , et on déduit de<br />
E(X|Y ) = αY , après multiplication par Y et intégration α = E(XY )<br />
E(Y 2 ) .<br />
Exercice 1.3.7 : Soit X = X 1 + X 2 . On a E(X|G) = E(X 1 |G) + E(X 2 |G) = E(X 1 ) + X 2 . Puis<br />
E(X 2 |G) = E(X 2 1 ) + X 2 2 + 2X 2 E(X 1 ) et<br />
Var (X|G) = E(X 2 |G) − (E(X|G)) 2 = Var X 1 .<br />
E(e λX |G) = E(e λX 1<br />
e λX 2<br />
|G) = e λX 2<br />
E(e λX 1<br />
) = e λX 2<br />
exp(λE(X 1 ) + λ2<br />
2 Var (X 1))<br />
Exercice 1.3.8 : Il est facile de montrer la suite d’égalités<br />
Cov (Z 1 , Z 2 |G) = E(Z 1 Z 2 |G) − E(Z 1 |G)E(Z 2 |G)<br />
= E(Z 1 Z 2 |G) − E(Z 2 (E(Z 1 |G))|G)<br />
= E((Z 1 − E(Z 1 |G) Z 2 |G)<br />
Exercice 1.3.9 : Le membre de droite, noté K est H mesurable. Il suffit de vérifier que<br />
pour tout H ∈ H, ce qui se réduit à<br />
ce qui est routine.<br />
E(X 1 H ) = E(K 1 H )<br />
E(X 1 C 1 A ) = E(K 1 C 1 A , et E(X 1 C 1 A c) = E(K 1 C 1 A c)<br />
Exercice 1.3.10 : Par linéarité, E(aX + b|Z) = aE(X|Z) + b. La tribu engendrée par Z est<br />
composée des sous-ensembles de Ω de la forme Z −1 (A) où A est un borélien de R et Z −1 (A) =<br />
{ω|Z(ω) ∈ A} = {ω|αY (ω) + b ∈ A} = {ω|Y (ω) ∈ B} où B est l’ensemble des nombres réels tels<br />
que x ∈ B ⇐⇒ αx + b ∈ A et est un borélien (La preuve parfaite exigerait la démonstration de ce<br />
point, qui tient au fait que B est l’image réciproque de A par l’application g : y → 1 y − b, soit<br />
α<br />
B = g −1 (A) et que g est continue, donc borélienne)<br />
Exercice 1.3.11 : La premiere question est directe en utilisant le résultat admis dans l’exercice<br />
1.1.6. En utilisant cette question, on a que E(X|G) 1 1≤τ est de la forme h(1 ∧ τ) 1 1≤τ = h(1) 1 1≤τ .<br />
En prenant l’espérance des deux membres, on identifie la constante h(1).<br />
Exercice 1.3.12 : Trivial.<br />
Exercice 1.3.13 : E(X|F) est G ∨ F mesurable. Soit F ∈ F et G ∈ G, on a alors, en utilisant<br />
l’indépendance<br />
E(X 1 F 1 G ) = E(X 1 F )E( 1 G )<br />
et<br />
E( 1 F 1 G E(X|F)) = E( 1 F E(X|F))E( 1 G )<br />
donc E(X 1 F 1 G ) = E( 1 F 1 G E(X|F)). Nous avons donc montré que E(X 1 H ) = E( 1 H E(X|F)) pour<br />
tout H ∈ G ∨ F de la forme H = F ∩ G. Ces ensembles engendrent la tribu G ∨ F et forment une<br />
famille stable par intersection. L’application qui à H associe E(X 1 H ) (resp. E( 1 H E(X|F))) définit
96 Rappels<br />
une mesure positive sur cette tribu, les deux mesures, après normalisation par E(X) sont des probabilités<br />
(c’est-à-dire l’application qui à H associe E(X 1 H )/E(X) est une probabilité) qui coincident<br />
sur les ensembles de la forme F ∩ G, donc, par théorème de classe monotone, elles coincident sur la<br />
tribu engendrée.<br />
Exercice 1.3.14 : Seule la réciproque demande une démonstration. Si E Q (X|G) = E P (X|G) alors<br />
E P (LX|G) = E P (X|G)E P (L|G) = E P (XE P (L|G)|G) D’où E P (X(L − E P (L|G))|G) = 0 pour tout X. Il<br />
en résulte (prendre X = L − E P (L|G)) que L − E P (L|G) = 0.<br />
∫<br />
Exercice 1.3.15 : Soit dQ = Ψ(X)dP. On a E P (φ(X)) = φ(x)f(x)dx, E Q (φ(X)) = E P (Ψ(X)φ(X)) =<br />
∫<br />
Ψ(x)φ(x)f(x)dx. Il suffit de choisir Ψ telle que Ψ(x)f(x) = g(x).<br />
1.4 Martingales<br />
Exercice 1.4.1 : Soit s ≥ t et X t = E(X|F t ). On a, en utilisant F t ⊂ F s<br />
E(X s |F t ) = E(X|F s |F t ) = E(X|F t ) = X t .<br />
Exercice 1.4.2 : Soit X t = M t − A t . On a, pour t ≥ s E(X t |F s ) = M s − E(A t |F s ) et comme<br />
A s ≤ A t ou −A t ≤ −A s , E(X t |F s ) ≤ M s − E(A s |F s ) = M s − A s = X s .<br />
Exercice 1.4.3 : C’est le lemme de Fatou: de l’inégalité<br />
E(M t∧τn |F s ) = M s∧τn<br />
on en déduit l’inégalité de surmartingale en utilisant que M s∧τn<br />
converge vers M s et que<br />
lim E(M t∧τn |F s ) ≤ E(lim M t∧τn |F s ) = E(M t |F s )<br />
(le lemme de Fatou assure que lim E(X n |G) ≤ E(lim X n |G) si les v.a. sont positives).<br />
Soit F ∈ F et G ∈ G E(X 1 F 1 G ) = E( 1 F 1 G E(X|F)) car E(X 1 F 1 G ) = E(X 1 F )E( 1 G ) et<br />
E( 1 F 1 G E(X|F)) = E( 1 F E(X|F))E( 1 G ).<br />
Exercice 1.4.4 : Par définition de la propriété de martingale, X t = E(X T |F t ). Cette propriété est<br />
à la base de tous les calculs d’évaluation en finance. En effet, ces formules reposent sur le fait qu’un<br />
certain processus est une martingale et donc que sa valeur à l’instant t est l’espérance conditionnelle<br />
de sa valeur terminale.<br />
Exercice 1.4.7 : Soit G = (G t , t ≥ 0) la filtration de M, c’est à dire G t = σ(M s , s ≤ t). Par<br />
définition, G t ⊂ F t (La martingale M est F adaptée, et la filtration de M est la plus petite filtration<br />
telle que la propriété d’adaptation soit vraie. On a alors E(M t |G s ) = E(M t |F s |G s ) = E(M s |G s ) = M s<br />
On peut aussi montrer que si que si M est une F-martingale et H t ⊂ F t , E(M t |H t ) est une H-<br />
martingale.<br />
Exercice 1.4.8 : Pour s < t, on a (τ ≤ s) ⊂ (τ < t), d’où<br />
Z t = E(τ ≤ t|F t ) ≥ E(τ ≤ s|F t )<br />
et le résultat suit en prenant l’espérance conditionnelle par rapport à F s .
Corrigés 97<br />
Exercice 1.4.9 : Si X est un PAI, et X t intégrable, pour t > s, les propriétés de l’espérance<br />
conditionelle permettent d’écrire<br />
E(X t − X s |F s ) = E(X t − X s )<br />
d’øù Y t<br />
def<br />
= X t − E(X t ) est une martingale. En utilisant que le PAI Y est une martingale<br />
E(Y 2<br />
t − Y 2<br />
s |F s ) = E((Y t − Y s ) 2 |F s ) = E((Y t − Y s ) 2 )<br />
et il est facile d’en déduire que X 2 t − E(X 2 t ) est une martingale. De la même façon<br />
E(Z t |F s ) = E(eλX t<br />
|F s<br />
E(e λXt )<br />
=<br />
1.5 Temps d’arrêt<br />
1<br />
E(e λXs ) eλX s<br />
= Z s<br />
= E(eλ(X t−X s ) |F s<br />
e λX s<br />
=<br />
E(e λXt )<br />
E(e λ(X t−X s ) )<br />
E(e λ(Xt−Xs) )E(e λXs ) eλX s<br />
Exercice 1.5.1 : La seule difficulté est la stabilité par passage au complémentaire. Si A ∈ F τ on<br />
écrit<br />
A c ∩ (τ ≤ t) = (τ ≤ t) − (A ∩ (τ ≤ t) ∈ F t<br />
Exercice 1.5.2 :Par hypothèse sur X, pour tout a, {X ≤ a} ∈ F T Par définition de la tribu F T ,<br />
{X ≤ a} ∩ {T ≤ t} ∈ F t . Par suite {X ≤ a} ∩ {T ≤ a} ∈ F a . Le premier membre de cette inclusion<br />
est {X ≤ a}.<br />
Exercice 1.5.4 : Il suffit d’écrire<br />
et donc, si A ∈ F S on a A ∩ (T ≤ t) ∈ F t .<br />
A ∩ (T ≤ t) = A ∩ (S ≤ t) ∩ (T ≤ t)<br />
Exercice 1.5.5: Il suffit d’écrire<br />
(S ≤ a) ∩ (S ≤ t) = (S ≤ (a ∧ t)) ∈ F a∧t<br />
Exercice 1.5.6: Montrons que S ≤ T ∈ F T . pour cela , on écrit<br />
(S ≤ T ) ∩ (T ≤ t) = (S ∧ t ≤ T ∧ t) ∩ (T ≤ t) ∩ (S ≤ t)<br />
et chacu des trois ensembles du membre de droite est dans F t (car S ∧ t est plus petit que t donc<br />
F t mesurable.<br />
On introduit R = S ∧ T . C’est un temps d’arrêt, F R mesurable avec F R ⊂ F T . Donc<br />
(R = T ) ∈ F T , et (R < T ) ∈ F T , par suite (S < T ) ∈ F T et S = T ∈ F T , ainsi que T ≤ S<br />
et T < S.<br />
Exercice 1.5.7 : Soit ω fixé. La fonction t → Z t (ω) vaut 1 pour t ∈ [S(ω), T (ω[ et 0 sinon. Elle<br />
est continue sur les trois intervalles [0, S(ω)[, ]S(ω), T (ω)[, ]T (ω), ∞[. Elle est continue à droite en<br />
S(ω) car si t → S(ω) ”par la droite” (soit t > S(ω)), Z t (ω) = 1 tend vers Z S(ω) (ω) = 1.<br />
Exercice 1.5.11 : Utiliser le théorème d’arrêt et le temps d’arrêt T y pour y > a. On a E(M Ty∧t) =<br />
a. On fait alors tendre t vers l’infini M Ty∧t converge vers y sur T y < ∞ et vers 0 sinon. (et est<br />
borné). D’où P(T y < ∞) = a/y. Il reste à remarquer que P(T y < ∞) = P(sup M t ≥ y).
98 Rappels<br />
1.6 Temps discret<br />
Exercice : L’égalité E(X n+p |F n ) = X n est vraie pour p = 1. En utilisant<br />
E(X n+p |F n ) = E(X n+p |F n+p−1 |F n ) = E(X n+p−1 |F n )<br />
on démontre le résultat par récurrence.<br />
Exercice : On obtient<br />
E((H · M) n |F n−1 ) =<br />
=<br />
=<br />
=<br />
n∑<br />
E(H k (M k − M k−1 ) |F n−1 )<br />
k=1<br />
n−1<br />
∑<br />
H k (M k − M k−1 ) + E(H n (M n − M n−1 ) |F n−1 )<br />
k=1<br />
n−1<br />
∑<br />
H k (M k − M k−1 ) + H n E(M n − M n−1 |F n−1 )<br />
k=1<br />
n−1<br />
∑<br />
H k (M k − M k−1 )<br />
k=1<br />
1.7 Algèbre béta-gamma<br />
1.8 Divers<br />
Exercice 1.8.1 :<br />
E(exp −λM τ ) = E(θ<br />
= E(θ<br />
= θE(<br />
∫ ∞<br />
0<br />
∫ ∞<br />
0<br />
∫ ∞<br />
0<br />
dte −θt e −λM t<br />
) = E(θ<br />
dt<br />
∫ ∞<br />
0<br />
due −λu λ<br />
∫ ∞<br />
0<br />
dte −θt λ<br />
due −θt λ 1 u>Mt e −λu ) = E(θ<br />
∫ Tu<br />
0<br />
dte −θt ) =<br />
∫ ∞<br />
0<br />
∫ ∞<br />
M<br />
∫<br />
t<br />
∞<br />
0<br />
e −λu du)<br />
du<br />
∫ ∞<br />
due −λu λ(1 − e −θT u<br />
)<br />
0<br />
dte −θt λ 1 Tu >te −λu )<br />
Exercice 1.8.2 : La partie directe est évidente, car e λX et e λY sont indépendantes. La réciproque<br />
n’est pas vraie, comme le montre le contre exemple suivant: Soit X, Y telles que P(X = i, Y = j) =<br />
a i,j où les a i,j sont donnés pas les coefficients de la matrice<br />
⎡<br />
⎤<br />
1/9 1/6 1/18<br />
⎣ 1/18 1/9 1/6 ⎦<br />
1/6 1/18 1/9<br />
La loi de X est égale à celle de Y et P(X = i) = 1/3 = P(Y = j). On vérifie que X et Y ne sont<br />
pas indépendantes (par exemple P(X = 1, Y = 3) ≠ 1/9.<br />
La loi de X + Y est égale à la loi de X 1 + Y 1 où X 1 a même loi que X, Y 1 a même loi que Y et X 1<br />
et Y 1 sont indépendantes.<br />
Cet exercice montre que la loi de la somme de deux v.a. dépend très fortement de la loi du<br />
COUPLE. Rappellons à ce sujet que si Z 1 et Z 2 sont gaussiennes, cela n’implique pas que Z 1 + Z 2<br />
est gaussienne: Le contre exemple suivant du à Nelson le prouve: Soit n la densité gaussienne réduite<br />
centrée et u une fonction impaire continue, nulle hors de [−1, +1] telle que |u(x)| < (2πe) −1/2 . On<br />
vérifie que f(x, y) = n(x)n(y) + u(x)u(y) est une densité, que les lois marginales sont normales, et
Corrigés 99<br />
la loi de la somme n’est pas normale.<br />
Par contre, si le vecteur (X, Y ) est gaussien, la somme X + Y est gaussienne. Pour que le vecteur<br />
(X, Y ) soit gaussien, il faut et il suffit que X soit gaussien et que la loi conditionnelle de Y à X soit<br />
gaussienne.
100 Brownien.
Chapter 2<br />
Mouvement Brownien, Corrigés<br />
2.1 Propriétés élémentaires<br />
Exercice 2.1.1 : Trivial. Ceci constitue une caractérisation du mouvement Brownien comme processus<br />
gaussien centré de covariance t ∧ s.<br />
Exercice 2.1.3 :<br />
1. On a E(B s B 2 t ) = E( E(B s B 2 t |F s )). La variable aléatoire B s est F s -mesurable, d’où E(B s B 2 t ) =<br />
E(B s E(B 2 t |F s )).<br />
On sait que B 2 t − t est une martingale, d’où, si s > t, E(B 2 t |F s ) = B 2 s − s + t. En utilisant que<br />
la v.a. B t est centrée et que E(B 3 t ) = 0, on obtient que<br />
E(B s B 2 t ) = E(B s (B 2 s − s + t)) = E(B 3 s) = 0.<br />
Si s > t, on a E(B s B 2 t ) = E( E(B s B 2 t |F t )) = E(B 2 t E(B s |F t )) = E(B 3 t ) = 0 où on a utilisé la<br />
propriété de martingale de B.<br />
2. Le MB est une martingale, donc E(B t |F s ) = B s pour t ≥ s et E(B t |F s ) = B s pour t < s car B t<br />
est F s -mesurable dans ce cas. Si s < t, E(B t |B s ) = E(B t −B s +B s |B s ) = E(B t −B s |B s )+B s =<br />
B s car B t − B s est indépendant de B s et centré. Si t < s, on s’inspire du pont Brownien (voir<br />
ex suivant) pour écrire E(B t |B s ) = E(B t − t s B s|B s ) + t s B s. La v.a. B t − t s B s est centrée<br />
et indépendante de B s : en effet, le couple (B t − t s B s, B s ) est un couple gaussien centré et sa<br />
covariance est nulle. On en déduit E(B t |B s ) = t s B s.<br />
On peut aussi utiliser les résultats sur le conditionnement d’un vecteur gaussien.<br />
3. La variable B t + B s est gaussienne (car B est un processus gaussien) centrée. On peut<br />
aussi écrire (B t + B s ) comme une somme de v.a. gaussiennes indépendantes: si t > s,<br />
B t + B s = B t − B s + 2B s . On en déduit que sa variance est t + 3s.<br />
4. Soit θ s une variable aléatoire bornée F s -mesurable. On a, pour s ≤ t<br />
E(θ s (B t − B s )) = E(E(θ s (B t − B s )|F s )) = E(θ s E((B t − B s )|F s )) = 0.<br />
De même<br />
E(θ s (B t − B s ) 2 ) = E(E(θ s (B t − B s ) 2 |F s )) = E(θ s E((B t − B s ) 2 |F s )) = (t − s)E(θ s ).<br />
101
102 Brownien.<br />
5. E( 1 Bt ≤a) = P(B t ≤ a) = P( √ tU ≤ a) = P(U ≤ a/ √ t) où U est une v.a. de loi N (0, 1).<br />
∫ a<br />
E(B t 1 Bt ≤a) = x√ 1 exp(− x2<br />
−∞ 2πt 2t ) dx = √ t<br />
se calcule facilement.<br />
∫ a/<br />
√<br />
t<br />
−∞<br />
y √ 1 exp(− y2<br />
) dy et la dernière intégrale<br />
2π 2<br />
Exercice 2.1.4 :<br />
Pour t > u, la propriété d’indépendance et de stationarité des accroissements conduit à<br />
f(B t ) = f(B t − B u + B u ) loi<br />
= f( ̂B t−u + B u )) loi<br />
= f( ̂B t−u + √ uG))<br />
où ̂B s = B s+u − B u est un MB indépendant de F u et G une v;a. gaussienne standard, indépendante<br />
de ̂B t−u .<br />
Exercice 2.1.5 :<br />
On peut calculer la densité de B Θ<br />
∫<br />
P(B Θ ∈ dx) = P(B t ∈ dx)θe −θt 1 t>0 dt =<br />
On trouve<br />
P(B Θ ∈ dx) =<br />
∫ ∞<br />
0<br />
√<br />
2θ<br />
2 e−|x|√ 2θ dx<br />
1<br />
√<br />
2πt<br />
exp(− x2<br />
2t )θe−θt dt<br />
mais ce calcul d’intégrale n’est pas trivial. Cependant, on peut y arriver sans utiliser un attirail lourd<br />
de changement de variables. On sait que la transformée de Laplace du temps d’atteinte du niveau a<br />
par un mouvement Brownien est e −|a|√2λ |a|<br />
et que la densité de ce temps d’atteinte est √ /2u 2πu<br />
3 e−a2 .<br />
Ce qui s’écrit<br />
−|a| √ 2λ = E(e −λTa ) =<br />
Par dérivation par rapport à λ, on obtient<br />
|a|<br />
√<br />
2λ<br />
e −|a|√ 2λ =<br />
∫ ∞<br />
e −λt<br />
0<br />
∫ ∞<br />
e −λt<br />
0<br />
|a|<br />
√ /2t 2πt<br />
3 e−a2 dt .<br />
|a|<br />
√ e −a2 /2t dt .<br />
2πt<br />
D’où<br />
Exercice 2.1.6 :<br />
λ<br />
∫ ∞<br />
0<br />
√<br />
e −λt 1<br />
2λ<br />
√ e −a2 /2t dt =<br />
2πt 2 e−|a|√ 2λ .<br />
1. Le processus M est F-mesurable. La v.a. M t est intégrable: E(|Bt 3 |) = Ct 3 2 où C est une<br />
∫ t ∫ t<br />
∫ t<br />
√<br />
2s<br />
constante et E| B s ds| ≤ E(|B s |) ds = ds < ∞.<br />
0<br />
0<br />
0 π<br />
En utilisant que, pour t > s, la v.a. B t − B s est indépendante de F s , on obtient<br />
E(Bt 3 |F s ) = E((B t − B s + B s ) 3 |F s ) = E((B t − B s ) 3 ) + 3B s E(B t − B s ) 2 + 3BsE(B 2 t − B s ) + Bs<br />
3<br />
= 3B s (t − s) + Bs 3 .<br />
D’autre part<br />
E(<br />
∫ t<br />
0<br />
B u du|F s ) =<br />
∫ t<br />
0<br />
E(B u |F s ) du =<br />
∫ s<br />
0<br />
E(B u |F s ) du+<br />
∫ t<br />
La propriété de martingale de M est alors facile à vérifier.<br />
s<br />
E(B u |F s ) du =<br />
∫ s<br />
0<br />
B u du+B s (t−s)
Corrigés 103<br />
2. Des calculs analogues aux précédents montrent que B 3 t − 3tB t est une martingale. Il suffit<br />
de montrer que pour s < t, E(B 3 t − 3tB t |F s ) = B 3 s − 3sB s . Or, en utilisant que B t − B s est<br />
indépendant de F s , on obtient E((B t − B s ) 3 |F s ) = E((B t − B s ) 3 ) = 0 car E(X 3 ) = 0 si X est<br />
une variable gaussienne centrée. Il reste à utiliser (a − b) 3 = a 3 − 3a 2 b + 3ab 2 − b 3 pour obtenir<br />
E(B t − B s ) 3 |F s ) = E(B 3 t |F s ) − 3B s E(B 2 t |F s ) + 3B 2 sE(B t |F s ) − B 3 s<br />
= E(B 3 t |F s ) − 3B s (B 2 s − s + t) + 3B 2 sB s − B 3 s<br />
Le processus B 3 t − 3tB t est une martingale, donc par différence tB t −<br />
B s ds est une martingale,<br />
égale (intégration par parties) à<br />
∫ t<br />
0<br />
sdB s .<br />
3. La v.a. X t est F t -mesurable et intégrable : en effet |X t | ≤ t|B t | +<br />
facile de vérifier que Z est intégrable (soit E(Z) < ∞, car E(|B t |) =<br />
Soit t > s.<br />
E(X t |F s ) = E(tB t −<br />
= tB s −<br />
= −<br />
∫ s<br />
0<br />
∫ t<br />
0<br />
∫ s<br />
0<br />
B u du|F s ) = tE(B t |F s ) −<br />
B u du −<br />
∫ t<br />
B u du + B s s = X s<br />
s<br />
B s du = tB s −<br />
∫ t<br />
0<br />
∫ s<br />
0<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
2t √<br />
2π<br />
).<br />
|B s |ds =: Z et il est<br />
E(B u |F s )du<br />
B u du − B s (t − s)<br />
le processus X est une martingale.<br />
On peut aussi appliquer la formule d’Itô et vérifier que dX t = tdB t . Comme f(s) = s est de<br />
carré intégrable (soit<br />
∫ t<br />
0<br />
s 2 ds < ∞) , l’intégrale de Wiener<br />
peut aussi remarquer que, par intégration par parties, X t =<br />
∫ t<br />
∫0<br />
t<br />
0<br />
sdB s est une martingale. On<br />
sdB s .<br />
4. On verra plus tard que U n’est pas une martingale. On peut remarquer que E(U t ) n’est sans<br />
doute pas constant.<br />
5. Soit t > s. E(Y t |F s ) = E(t 2 B t − 2<br />
2<br />
∫ s<br />
0<br />
B u du − 2<br />
∫ t<br />
s<br />
B s du = t 2 B s − 2<br />
∫ t<br />
∫<br />
0 s<br />
0<br />
B u du|F s ) = t 2 E(B t |F s ) − 2<br />
∫ t<br />
0<br />
E(B u |F s )du = t 2 B s −<br />
B u du − 2B s (t − s) = Y s + (t 2 − s 2 )B s − 2B s (t − s) Pour<br />
que Y soit une martingale, il faudrait que 0 = (t 2 − s 2 )B s − 2B s (t − s) = (t − s)B s (t + s − 2),<br />
ce qui n’est pas.<br />
Exercice 2.4.4 : En écrivant M t = −(Bt 2 −t)+(a+b)B t −ab et en utilisant que B et (Bt 2 −t, t ≥ 0)<br />
sont des martingales, le caractère martingale de M provient de la structure espace vectoriel de<br />
l’ensemble des martingales. Le processus M t∧Ta,b est une martingale de valeur initiale −ab, donc<br />
E[M t∧Ta,b ] = −ab. Le temps d’arrêt T a,b , majoré par T a est fini (cf. Exercice 2.4.1). Lorsque t<br />
converge vers l’infini M t∧Ta,b = (a − B t∧Ta,b )(B t∧Ta,b − b) + t ∧ T a,b converge vers (a − B Ta,b )(B Ta,b −<br />
b) + T a,b = T a,b , car (a − B Ta,b )(B Ta,b − b) = 0. La quantité (a − B t∧Ta,b )(B t∧Ta,b − b) est majorée<br />
par (a − b) 2 et la quantité t ∧ T a,b converge en croissant vers T a,b dont on ne sait pas qu’elle<br />
est intégrable. On peut conclure en appliquant le théorème de Lebesgue dominé pour la partie<br />
E(a − B t∧Ta,b )(B t∧Ta,b − b) et le théorème de convergence monotone pour la partie portant sur le<br />
temps d’arrêt. On en déduit E(T a,b ) = −ab.
104 Brownien.<br />
[∫<br />
Exercice 2.1.9 : Soit t ≥ s. E x (f(B t )g(B s )) = E x (f( ˆB t−s +B s )g(B s )) = E<br />
∫<br />
E(Ψ(X s )) avec Ψ(z) = g(z) f(y)p t−s (z, y)dy.<br />
∫<br />
D’où E x (f(B t )g(B s )) = p s (x, z)Ψ(z)dz.<br />
]<br />
dyf(y)p t−s (B s , y)g(B s ) =<br />
Autre mode de raisonnement: On applique la propriété de Markov.<br />
E x (f(B t )g(B s )) = E x (g(B s )E((f(B t )|F s )) = E x (g(B s )E((f(B t )|B s )) = E x (g(B s )ϕ(B s ))<br />
avec ϕ(z) = E z (f(B t−s )) = ∫ f(y)p t−s (z, y)dy.<br />
Exercice 2.1.11 :En utilisant l’exercice 1.2.1:<br />
∫ 1<br />
B s<br />
Exercice 2.1.13 : E|<br />
0<br />
E x (exp −λ(B t ) 2 1<br />
) = √ exp(−<br />
λx2<br />
1 + 2λt 1 + 2λt )<br />
s ds| ≤ ∫ 1<br />
Exercice 2.1.14 Utiliser que {B t < 0} ⊂ {τ ≤ t}.<br />
0<br />
E| B ∫ 1<br />
s<br />
s |ds = c 1<br />
√ ds < ∞. s<br />
0<br />
Exercice 2.1.16 La quantité e −λt u(B t ) est majorée par e −λt M, qui est intégrable sur [0, ∞], d’où<br />
l’existence de f et g.<br />
La suite d’égalités<br />
(∫ ∞<br />
) ( [∫ ∞<br />
])<br />
E x dte −λt u(B t ) = E x E x dte −λt u(B t ) |F τ<br />
τ<br />
τ<br />
[∫ ∞<br />
]<br />
[∫ ∞<br />
]<br />
E x dte −λt u(B t )|F τ = e −λτ E x dte −λt u(B t+τ − B τ + B τ )|F τ<br />
τ<br />
[∫ ∞<br />
]<br />
E x dte −λt u(B t+τ − B τ + B τ )|F τ<br />
0<br />
=<br />
∫ ∞<br />
E x (u(B t+τ − B τ + B τ )|F τ ) = E Bτ [u( ̂B t )]<br />
0<br />
0<br />
dte −λt E x (u(B t+τ − B τ + B τ )|F τ )<br />
où la dernière égalité résulte de la propriété forte de Markov, ̂B étant le Brownien (B t+τ −B τ , t ≥ 0),<br />
indépendant de F τ , conduisent à<br />
(∫ ∞<br />
)<br />
E x dte −λt u(B t ) = E x (e −λτ ψ(B τ ))<br />
avec ψ(x) =<br />
∫ ∞<br />
0<br />
τ<br />
dte −λt E x [u( ̂B t )] = f(x) ce qui est le résultat souhaité.<br />
Exercice 2.1.17 : Il suffit d’écrire<br />
∑ α<br />
k<br />
k! E(Bk t |F s ) = ∑ α k<br />
k! H k(B s , −(t − s))<br />
Exercice 2.1.19 :P(au moins un zéro dans ]s, t[|B s = a) = P(T a ≤ t − s). Il reste à calculer<br />
2<br />
∫ ∞<br />
0<br />
1<br />
da√ e −a2 /2s<br />
2πs<br />
On utilise Fubini et de la trigonométrie.<br />
∫ t−s<br />
0<br />
dx(2πx 3 ) −1/2 a exp(− a2<br />
2x )
Corrigés 105<br />
2.2 Processus Gaussien<br />
Exercice 2.2.1 : Le processus Y tel que Y t =<br />
∫ t<br />
0<br />
B u du est défini trajectoire par trajectoire, comme<br />
intégrale de Riemann d’une fonction continue. En particulier, on a dY t = B t dt. Nous vérifions que le<br />
processus Y est un processus gaussien. Tout d’abord, la v.a. Y t est une gaussienne comme limite de<br />
sommes de Riemann qui sont des gaussiennes car B est un processus gaussien. Le caractère gaussien<br />
du processus s’obtient par un raisonnement analogue.<br />
On a E(Y t ) =<br />
∫ t<br />
0<br />
E(B u ) du = 0.<br />
La covariance de Y est E(Y t Y s ) =<br />
∫ t<br />
On se place dans le cas s < t et il vient<br />
E(Y t Y s ) =<br />
=<br />
0<br />
∫ s<br />
0<br />
∫ s<br />
0<br />
du<br />
∫ t<br />
0<br />
∫ s<br />
0<br />
dvE(B u B v ). Il reste à intégrer<br />
[∫ s<br />
du<br />
0<br />
]<br />
dv(u ∧ v) .<br />
[∫ s<br />
]<br />
du (v ∧ u)dv +<br />
0<br />
[∫ u<br />
du vdv +<br />
Tous calculs faits, pour s < t: E(Y t Y s ) = s2<br />
(3t − s).<br />
6<br />
Exercice 2.2.2 La solution est<br />
0<br />
∫ s<br />
u<br />
∫ t<br />
s<br />
]<br />
udv +<br />
[∫ s<br />
]<br />
du (v ∧ u)dv<br />
0<br />
∫ t<br />
∫ t<br />
X t = e −at x + e −at e (a+b)t dB t<br />
0<br />
s<br />
[∫ s<br />
du<br />
0<br />
]<br />
vdv .<br />
On procède comme pour le processus d’OU. On peut aussi résoudre dX t = −aX t dt ce qui donne<br />
X t = Ce −at et appliquer une méthode de variation de la constante. On cherche un processus C tel<br />
que X t = C t e −at vérifie l’équation (cette méthode ne prend toute sa signification que si on a vu la<br />
formule d’intégration par parties)<br />
dX t = −aC t e −at dt + e −at dC t = −aX t dt + e bt dB t<br />
d’ou e −at dC t = e bt dB t soit dC t = e (b+a)t dB t . Il resterait à vérifier que l’on a bien trouvé une<br />
solution, car on ne dispose pas du lemme d’Itô et on ne sait pas justifier que la dérivée de C t e −at<br />
est −aC t e −at dt + e −at dC t .<br />
Exercice 2.2.4 :<br />
1. Le processus (Z t = B t − tB 1 , 0 ≤ t ≤ 1) est un processus gaussien car pour tout choix de<br />
(a i , t i )<br />
∑<br />
ai Z ti = ∑ a i B ti − ( ∑ a i t i )B 1<br />
est une v.a.r. gaussienne (B est un processus gaussien). De la même façon, on obtient que<br />
le vecteur (Z t , B 1 ) est gaussien. Ses deux composantes Z t et B 1 sont indépendantes car<br />
E(Z t B 1 ) = E(B t B 1 ) − tE(B 2 1) = 0. La covariance de Z est<br />
E(Z t Z s ) = E(B s B t ) − sE(B 1 B t ) − tE(B s B 1 ) + tsE(B 2 1) = (s ∧ t) − st.<br />
On appelle Z un pont Brownien.
106 Brownien.<br />
2. Le processus (Y t = Z 1−t , 0 ≤ t ≤ 1) est gaussien centré. Sa covariance est, pour s ≤ t,<br />
E(Y t Y s ) = (1 − t) ∧ (1 − s) − (1 − s)(1 − t) = (s ∧ t) − st = s(1 − t).<br />
3. Soit Y t = (1 − t)B t . Le processus Y est un processus gaussien car ∑ a<br />
1−t i Y ti = ∑ b i B si . On<br />
a E(Y t ) = 0 et pour s < t<br />
E(Y s Y t ) = (1 − t)(1 − s)E(B t B s<br />
s ) = (1 − t)(1 − s) = s(1 − t)<br />
1−t 1−s<br />
1 − s<br />
Exercice 2.2.5 : Par définition de l’intégrale de Riemann, toute combinaison linéaire ∑ i<br />
a i Z ti<br />
est limite dans L 2 de sommes du type ∑ j<br />
b j B tj , d’où le caractère gaussien. (Attention, il ne faut<br />
pas se contenter de dire que Z est la somme de deux processus gaussiens. La somme de deux v.a.<br />
gaussiennes n’est pas nécessairement une gaussienne. Cette propriété est vraie si les variables sont<br />
∫ t<br />
B n s<br />
indépendantes) On utilise ici que<br />
s ds = lim ∑ B ti<br />
(t i+1 − t i ).<br />
t i<br />
0<br />
Pour caractériser la loi du processus gaussien Z, il suffit de donner son espérance et sa covariance.<br />
Il est immédiat de montrer que E(Z t ) = 0. Il reste à calculer la covariance. Soit s < t.<br />
On utilise que E(<br />
E(Z s Z t ) = E(B s B t ) − E[<br />
∫ b<br />
a<br />
f(B u )du) =<br />
∫ t<br />
0<br />
∫ b<br />
a<br />
i=0<br />
∫<br />
B s<br />
u<br />
B s<br />
u du] − E[B B u<br />
t<br />
0<br />
u du] + E[ ∫ t<br />
0<br />
du B u<br />
u<br />
∫ s<br />
0<br />
dv B v<br />
v<br />
E[f(B u )]du et que E(B u B v ) = u ∧ v). Après quelques calculs<br />
d’intégration sur les intégrales doubles, il vient E(Z s Z t ) = s. Le processus Z est un processus<br />
gaussien d’espérance nulle et de covariance s ∧ t.<br />
Le processus Z est donc un mouvement Brownien. Cependant le processus Z n’est pas une (F t )<br />
martingale: pour s > t<br />
∫ s<br />
1<br />
E(Z s − Z t |F t ) =<br />
u B sdu ≠ 0<br />
On a ici l’exemple d’un processus qui est un MB (et une martingale par rapport à sa propre filtration),<br />
mais qui n’est pas un brownien, ni même une martingale par rapport à une filtration plus<br />
grosse. Le problème est connu sous le nom de grossissement de filtration. (Voir l’exercice sur l’agent<br />
initié, dans le chapitre compléments)<br />
Exercice 2.2.6 : B u − u t B t = (B u −<br />
et B t est orthogonal à B u − u t B t .<br />
t<br />
u<br />
t + h B t+h) − u t (B t −<br />
t<br />
t + h B t+h) montre la croissance de Γ t<br />
Exercice 2.2.7 : Rappel (cf. Exercice 1.6.2) : soit X est une v.a. de loi N(m; σ 2 ) et Y =<br />
exp{λ(X − m) − 1 2 λ2 σ 2 }. Soit dQ = Y dP. Sous Q, X est une v.a. de densité N(m + λσ 2 , σ 2 ).<br />
On montre alors que ˜B t = B t − mt a une loi gaussienne sous Q.<br />
On vérifie ensuite l’indépendance des accroissements: il s’agit de montrer que<br />
E Q (φ( ˜B t+s − ˜B s ) ψ( ˜B s )) = E Q (φ( ˜B t+s − ˜B s )) E Q (ψ( ˜B s ))<br />
pour toutes fonctions boréliennes bornées (φ, ψ). On a, par changement de probabilité, avec L t =<br />
exp(mB t − m2<br />
2 t) A = E Q (φ( ˜B t+s − ˜B s ) ψ( ˜B s )) = E P (L t+s φ( ˜B t+s − ˜B s ) ψ( ˜B s ).
Corrigés 107<br />
On a ˜B t+s − ˜B s = B t+s − B s − mt.<br />
En utilisant l’indépendance de B t+s − B s et de B s (sous P) et la forme de L, on obtient<br />
A = E P [exp(m(B t+s − B s ) − 1 2 m2 t)) φ(B t+s − B s − mt)] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )].<br />
Sous P, B t+s − B s et B t ont même loi, d’où<br />
A = E P [exp(mB t − 1 2 m2 t)φ(B t − mt)] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )]<br />
= E P [exp(mB t − 1 2 m2 t)φ( ˜B t )] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )]<br />
ce qui conduit à<br />
A = E Q (φ( ˜B t )) E Q (ψ( ˜B s )) .<br />
Exercice 2.2.8 :<br />
sup<br />
t<br />
(|B t | − µt p/2 )| = sup(|B λ 2 s)| − µ(λ 2 s) p/2 ) loi<br />
= sup(λ|B s | − µ(λ 2 s) p/2 ) = λ sup(|B s | − s p/2 )<br />
s<br />
E(|B T |) ≤ E((|B T | − µT p/2 )) + µE(T p/2 ) ≤ E(sup t (|B t | − µt p/2 )) + µE(T p/2 )<br />
s<br />
s<br />
2.3 Multidimensionnel<br />
1<br />
Exercice 2.3.2 : Si les coefficients σ i sont des constantes, il suffit de définir B 3 (t) = √ (σ<br />
σ 2 1 B 1 (t)+<br />
1 +σ2<br />
2<br />
σ 2 B 2 (t)). Ce processus est un mouvement Brownien car c’est une martingale et (B3(t)−t; 2 t ≥ 0) est<br />
1<br />
une martingale. Si les σ sont déterministes, on pose dB 3 = √<br />
σ 2<br />
1 (t)+σ2 2(t)(σ 1(t)dB 1 (t) + σ 2 (t)dB 2 (t)).<br />
Le processus<br />
est une martingale<br />
B (3) (t) =<br />
1<br />
√<br />
1 − ρ<br />
2 (B (2)(t) − ρB (1) (t))<br />
B 2 (3) (t) = 1<br />
1 − ρ 2 (B2 (2) + ρ2 B 2 (1) (t) − 2ρB (1)(t)B (2) (t)<br />
Par définition de la corrélation, B (1) (t)B (2) (t) − ρt est une martingale. Il s’en suit que B 2 (3) (t) − t<br />
est une martingale, donc B (3) est un MB. Il reste à montrer que B (3) est indépendant de B (1) .<br />
Remarque: On peut utiliser le théorème de RP pour établir que si le coefficient de corrélation de<br />
deux MB est nul, ces processus sont indépendants.<br />
2.4 Temps d’atteinte<br />
Exercice 2.4.1 : Soit λ > 0. Le processus M défini par M t = exp(λB t − 1 2 λ2 t) est une martingale.<br />
On applique le théorème d’arrêt de Doob. Si a > 0, la martingale M t∧Ta est uniformément intégrable,<br />
car majorée par exp(λa). Donc E(exp(λB Ta − 1 2 λ2 T a )) = 1, soit E(exp(λa − 1 2 λ2 T a ) 1 Ta
108 Brownien.<br />
Exercice 2.4.2 :<br />
Bt∧n 2 − (t ∧ n).<br />
Appliquer le théorème d’arrêt de Doob à la martingale B et au processus<br />
Exercice : On note S t = max s≤t B s . En remarquant que S T = max s≤t B s ∨ max t T |F t ) = P(S T < a|F t ) = 1 St
Corrigés 109<br />
et on passe à la limite E(M T ∗ a ∧n) = a.<br />
Exercice 2.4.9 : Le processus exp[−2µX t /σ 2 ] est une martingale, en effet il est facile de mettre<br />
ce processus sous la forme exp(λB t − 1 2 λ2 t). On en déduit que h(X t ) est une martingale et que<br />
E(h(X τ∧t) ) = h(0). L’inégalité |h(X τ∧t) )| ≤ sup x∈[−B,A] (h(x)) permet d’appliquer le théorème de<br />
convergence dominée.<br />
Exercice 2.4.15 : On sait que (Lamberton et Lapeyre 2nd edition, page 96, Musiela et Rutkowski<br />
p. 49, Voir aussi Karatzas et Shreve, page 95) si M t = sup s≤t B s<br />
P(B t ≤ x , M t ≤ y) = P(B t ≤ x) − P(B t ≥ 2y − x)<br />
pour<br />
0 ≤ y, x ≤ y. On en déduit, par dérivation<br />
et<br />
P(B t ∈ dx , M t ≤ y) = √ 1 exp(− x2<br />
2πt 2t ) − √ 1 (2y − x)2<br />
exp(− )<br />
2πt 2t<br />
P(M t ≤ y|B t = x) = P(B t ∈ dx , M t ≤ y)<br />
P(B t ∈ dx)<br />
Si le MB est issu de x, on utilise<br />
(2y − x)2<br />
= 1 − exp(− + x2<br />
2t 2t )<br />
P(sup B s + x ≤ y|B t + x = z) = P(M t ≤ y − x|B t = z − x)<br />
s≤t<br />
2.5 Scaling<br />
Exercice 2.5.2 : La partie a) résulte de<br />
La partie c) résulte de<br />
et<br />
(T 1 > t) = (1 > S t ) loi<br />
= (1 > √ tS 1 ) = ( 1<br />
S 2 1<br />
d ∆a = inf{t ≥ ∆ a : B t = 0} = inf{t : 1 a A t ≥ 1,<br />
loi<br />
= inf{t : A t/a ≥ 1, B t/a = 0} = ad ∆1<br />
> t)<br />
1<br />
√ a<br />
B t = 0}<br />
(A g ≤ a) = (g ≤ ∆ 1 ) = (1 ≤ d ∆a<br />
loi<br />
= (1 ≤ ad ∆1 ) = ( 1<br />
d ∆1<br />
≤ a)<br />
La partie d) est facile. Dans ce cas ∆ 1<br />
loi<br />
= T ∗ 1 = inf{t : sup s≤t |B s | ≥ 1}.<br />
Exercice 2.5.3 :<br />
P( sup |B t | ≤ x) = P( sup |B t | ≤ 1) = P(M 1 ≥ 1<br />
1≤t≤1<br />
1≤t≤(1/x 2 )<br />
x 2 )<br />
2.6 Compléments<br />
Exercice 2.6.1 : On calcule E((B t − ̂B t ) 2 )<br />
E((B t − ̂B t ) 2 ) = E(B 2 t ) + E( ̂B 2 t ) − 2E(B t ̂Bt )<br />
= 2t − 2E(B t ̂Bt )
110 Brownien.<br />
Il reste à calculer<br />
E(B t ̂Bt ) = E[ E ( (B t ̂Bt |G t<br />
)<br />
]) = E( ̂B2 t ) = t<br />
d’où E((B t − ̂B t ) 2 ) = 0; il s’en suit l‘égalité souhaitée.<br />
Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u ≤ s, β (s)<br />
u<br />
d’écrire β (s)<br />
u<br />
= B u − u t B t + u s (s t B t − B s ) = β (t)<br />
u<br />
− u s β(t) s<br />
def<br />
= B u − u s B s ∈ Π t . Il suffit<br />
. Le processus (β u<br />
(t) ; u ≤ t) est indépendant<br />
de la variable u t B t (calculer les covariances), et B u = (β (s) + u t B t est la décomposition orthogonale<br />
de B, la projection de F t est donc<br />
∫ t<br />
0<br />
u<br />
f(s)d s β s<br />
(t) . Le processus ̂B est un processus gaussien centré<br />
de covariance t ∧ s, c’est un MB (On peut aussi le voir en utilisant des résultats d’unicité en loi de<br />
solution d’équa diff) Il est facile de montrer que<br />
∫ s<br />
̂B s = β s<br />
(t) du<br />
−<br />
0 u β(t) u<br />
et que, en particulier<br />
∫ t<br />
du<br />
̂B t = −<br />
0<br />
u β(t) u<br />
∫ t<br />
D’où l’égalité des tribus. Il en résulte, en notant ¯F (t) =<br />
par partie que<br />
∫ t<br />
0<br />
f(s)dB s =<br />
∫ t<br />
0<br />
f(s)d ̂B s − B ∫ t<br />
t<br />
t ¯F (t) +<br />
0<br />
0<br />
f(s)ds et en utilisant une intégration<br />
¯F (s)<br />
s d ̂B s .<br />
Exercice 2.6.7 : On utilisera le théorème de représentation prévisible pour représenter B (1)<br />
t , B (2)<br />
t<br />
en terme de B (3) . Si l’égalité était possible, on aurait B (i)<br />
E(B (1)<br />
t B (2)<br />
t ) = E(<br />
0<br />
∫ t<br />
0<br />
Φ (1)<br />
s Φ (2)<br />
s ds) = 0.<br />
B s − X s<br />
1 − s ds = B t +<br />
∫ t ∫<br />
B t<br />
s<br />
0 1 − s ds − 0<br />
∫ t<br />
∫ t<br />
∫ t<br />
t =<br />
0<br />
Φ (i)<br />
s dB s avec<br />
∫ t<br />
0<br />
E[Φ (i)<br />
s ] 2 ds = t et<br />
Exercice 2.6.8 : Les premiéres questions se traitaient en utilisant des formules d’intégration par<br />
parties, ou la formule d’Itô. A la main, on calcule<br />
∫ t<br />
∫ s<br />
B u<br />
B t +<br />
ds<br />
Par différentiation<br />
= B t −<br />
=<br />
∫ t<br />
0<br />
= (1 − t)<br />
0<br />
t − u<br />
1 − u dB u +<br />
(1 − t − u<br />
1 − u )dB u +<br />
∫ t<br />
∫<br />
B t<br />
t<br />
dX t = (1 − t)<br />
(1 − t) 2 dt − dt<br />
=<br />
B t<br />
1 − t dt + dB t − 1<br />
1 − t X tdt<br />
0<br />
0<br />
∫ t<br />
0<br />
0<br />
(1 − u) 2 du − ∫ t<br />
B s<br />
1 − s (1 − t − s<br />
1 − s )ds<br />
B s<br />
1<br />
1 − u dB u + (1 − t)<br />
0<br />
1 − s (1 − t − s<br />
1 − s )ds<br />
∫ t<br />
0<br />
B s<br />
(1 − s) 2 ds<br />
0<br />
∫ s<br />
ds<br />
0<br />
∫<br />
B s<br />
(1 − s) 2 ds + (1 − t) 1<br />
t<br />
1 − t dB t − dt<br />
0<br />
1<br />
1 − u dB u<br />
1<br />
1 − s dB s<br />
Le calcul de la covariance du processus Gaussien X s’obtenait en appliquant plusieurs fois le<br />
résultat d’isométrie ∫ t ∫ s<br />
∫ t∧s<br />
E( f(u)dB u g(u)dB u ) = f(u)g(u)du<br />
0<br />
0<br />
0
2009-10 111<br />
et en remarquant que les v.a.<br />
s < t<br />
∫ t<br />
f(u)dB u et<br />
∫ s<br />
0<br />
0<br />
E(X s X t ) = s + 2s(1 − t) + (2 − s − t) ln(1 − s)<br />
g(v)dB v sont indépendantes. On trouvait pour<br />
2.7 Finance<br />
Exercice 2.7.1 : On calcule séparément E(S t 1 St
112 Itô. Corrigés
Chapter 3<br />
Intégrale d’Itô, Corrigés<br />
3.1 Intégrale de Wiener<br />
Exercice 3.1.1 : On a tB t = ∫ t<br />
0 sdB s + ∫ t<br />
0 B sds (en utilisant la formule d’intégration par parties)<br />
et E(Y t ) = 0, E(Y s Y t ) = ts(t ∧ s). Le processus Y est un processus gaussien (c’était d’ailleurs<br />
évident par définition de Y ). On peut aussi utiliser la formule d’Itô (voir plus loin) qui conduit à<br />
dY t = tdB t + B t dt.<br />
Exercice 3.1.2 : La v.a. X t =<br />
∫ t<br />
0<br />
(sin s) dB s est définie, car ∫ t<br />
0 sin2 s ds < ∞, pour tout t. Le<br />
processus X est gaussien d’espérance nulle et de covariance E(X s X t ) = ∫ s∧t<br />
sin 2 u du. Il vient alors<br />
0<br />
E(X t X s ) = s∧t<br />
2 − 1 4<br />
sin 2(s ∧ t).<br />
Le processus X est une martingale, d’où, pour s < t, on a E(X t |F s ) = X s . La dernière égalité<br />
résulte d’une IP.<br />
Exercice 3.1.4 : La v.a. Y t =<br />
∫ t<br />
0<br />
(tan s) dB s est définie, car ∫ t<br />
0 tan2 s ds < ∞ pour t < π 2 . Le<br />
processus Y est gaussien, centré de covariance E(Y t Y s ) = ∫ s∧t<br />
0<br />
tan 2 u du = tan(s ∧ t) − (s ∧ t).<br />
Le processus Y est une martingale.<br />
Exercice 3.1.5 : Soit<br />
∫ t<br />
dB s<br />
X t = (1 − t)<br />
0 1 − s ; 0 ≤ t < 1<br />
En appliquant le Lemme d’Itô (ou une I.P.) à f(t, y) = (1 − t)y et Y t =<br />
il vient dX t = (−dt)<br />
∫ t<br />
0<br />
dB s<br />
1 − s + (1 − t) dB t<br />
1 − t , d’où<br />
{<br />
X t<br />
dX t =<br />
t − 1 dt + dB t ; 0 ≤ t < 1<br />
X 0 = 0<br />
∫ t<br />
0<br />
dB s<br />
1 − s (donc dY t = dB t<br />
1 − t )<br />
dB s<br />
On admet l’unicité de la solution. Le processus X est gaussien car<br />
0 1 − s<br />
Wiener, et on a E(X t ) = 0 et la covariance de X est donnée par, pour s < t<br />
∫ t<br />
est une intégrale de<br />
∫ t<br />
dB u<br />
E(X s X t ) = (1 − t)(1 − s)E(<br />
0 1 − u<br />
∫ s<br />
0<br />
∫<br />
dB s<br />
u<br />
1 − u ) = (1 − t)(1 − s) du<br />
= (1 − t)s<br />
(1 − u)<br />
2<br />
113<br />
0
114 Itô. Corrigés<br />
En particulier E(Xt 2 ) = t(1 − t) d’où X t tend vers 0 quand t tend vers 1. Le processus X est un<br />
pont Brownien.<br />
Exercice 3.1.6 : Formule évidente en écrivant B t =<br />
∫ t2<br />
Exercice 3.1.7 : E( (B t − B t1 ) dt|F t1 ) =<br />
t 1<br />
parties<br />
∫ t2<br />
t 1<br />
cherchée est<br />
B t − B t1 ) dt = t 2 (B t2 − B t1 ) −<br />
∫ t2<br />
t 1<br />
(t 2 − t) 2 dt.<br />
∫ t2<br />
∫ t2<br />
t 1<br />
t 1<br />
tdB t =<br />
∫ t<br />
0<br />
dB s et en utilisant l’isométrie.<br />
E((B t − B t1 )|F t1 ) , dt = 0. Par intégration par<br />
∫ t2<br />
t 1<br />
(t 2 − t)dB t On en déduit que la variance<br />
3.2 Formule d’Itô<br />
Exercice 3.2.1 : 1. Soit X t = Bt 2 . On a, en posant f(x) = x 2<br />
dX t = f ′ (B t )dB t + 1 2 f ′′ (B t ) dt = 2B t dB t + dt .<br />
2. Soit X t = t + exp B t . En posant f(t, x) = t + e x , on a<br />
dX t = dt + exp B t dB t + 1 2 exp B tdt .<br />
3. Soit X t = B 3 t − 3tB t . En posant f(t, x) = x 3 − 3tx on obtient<br />
dX t = 3B 2 t dB t − 3tdB t − 3B t dt + 1 2 3 2B tdB t dB t = (3B 2 t − 3t)dB t .<br />
On retrouve le caractère martingale de X établi au chapitre précédent.<br />
Exercice 3.2.2 : Soit X t = exp ∫ t<br />
0 a(s) ds et Y t = Y 0 + ∫ t<br />
0 [b(s) exp(− ∫ s<br />
0 a(u)du) dB s, où a et b sont<br />
des fonctions déterministes. En utilisant la notation différentielle dX t = a(t) ( exp ∫ t<br />
0 a(s) ds) dt et<br />
dY t = b(t) exp(− ∫ t<br />
0 a(u)du) dB t, d’où dX t dY ˙ t = 0. On pose Z t = X t Y t . Par la formule d’Itô, on a<br />
dZ t = X t dY t + Y t dX t = b(t) dB t + a(t)X t Y t dt<br />
soit dZ t = a(t)Z t dt + b(t)dB t . Le processus (Z t exp − ∫ t<br />
0 a(s) ds = Y t; t ≥ 0) est une martingale<br />
locale.<br />
Exercice 3.2.3 : La formule d’Itô donne (nous omettons les indices t<br />
dY = X 1 X 2 dt + t(X 1 dX 2 + X 2 dX 1 + d〈X 1 , X 2 〉<br />
= X 1 X 2 dt + t(X 2 f(t) + σ 1 σ 2 )dt + t(X 1 σ 2 + X 2 σ 1 )dB<br />
Exercice 3.1.3 : La formule d’Itô appliquée à sin B t donne<br />
sin B t = 0 +<br />
∫ t<br />
0<br />
cos B s dB s − 1 2<br />
∫ t<br />
0<br />
sin B s ds,<br />
d’où Y t = ∫ t<br />
0 cos B s dB s . C’est une martingale, car E( ∫ t<br />
0 cos2 B s ds) < ∞, pour tout t. On a<br />
E(Y t ) = 0 et var Y t = E( ∫ t<br />
0 cos2 B s ds).
2009-10 115<br />
Exercice 3.2.4 : En appliquant la formule d’Itô, on obtient<br />
d(X 2 t + Y 2<br />
t ) = 2X t dX t + 2Y t dY t + d〈X〉 t + d〈Y 〉 t = 2X t Y t dB t − 2x t Y t dB t + (X 2 t + Y 2<br />
t )dt<br />
En posant Z t = X 2 t +Y 2<br />
t on montre que le processus Z vérifie dZ t = Z t dt ce qui s’intègre en Z t = ze t .<br />
Exercice 3.2.5 : Il est évident que dZ t = Y t dB t . On calcule facilement E(Y 2<br />
s ) =<br />
L’intégrale stochastique est une martingale car<br />
et E(Z t ) = 0, E(Z 2 t ) = E( ∫ t<br />
0 Y 2<br />
s ds).<br />
E(<br />
∫ t<br />
0<br />
Y 2<br />
s ds) =<br />
∫ t<br />
0<br />
E(Y 2<br />
s )ds < ∞<br />
∫ t<br />
0<br />
e 2s ds.<br />
Exercice 3.2.6 : Soit dX t = a(K t − X t ) dt + σdB t . On voudrait que X t = f(K t ). La formule d’Itô<br />
appliquée à f(K t ) donne<br />
soit<br />
Si on identifie les deux drifts, on obtient<br />
dX t = f ′ (X t )dK t + 1 2 f ′′ (K t )σ 2 dt<br />
dX t = (f ′ (K t )b + 1 2 f ′′ (K t )σ 2 ) dt + f ′ (K t )σdB t<br />
a(K t − f(K t )) = f ′ (K t )b + 1 2 f ′′ (K t )σ 2<br />
d’où f est solution de<br />
1<br />
2 σ2 f ′′ (x) + bf ′ (x) + af(x) = ax .<br />
On résout cette EDO et on montre que f est de la forme<br />
avec λ 1 et λ 2 solutions de 1 2 σ2 λ 2 + bλ + a = 0.<br />
αe λ1x + βe λ2x + (x − b a )<br />
Exercice 3.2.7 : Soit X t = ∫ t<br />
0 σ(s) dB ∫<br />
s − 1 t<br />
2 0 σ2 (s) ds. On a<br />
dX t = σ(t) dB t − 1 2 σ2 (t) dt.<br />
Soit Y t = exp X t . On applique la formule d’Itô avec f(x) = e x .<br />
dY t = exp(X t ) dX t + 1 2 exp(X t) σ 2 (t) dt<br />
= Y t (− 1 2 σ2 (t) dt + σ(t)dB t ) + 1 2 Y t σ 2 (t) dt<br />
= Y t σ(t) dB t .<br />
Le processus Y est une martingale locale. C’est une martingale si<br />
(∫ t<br />
)<br />
E Yt 2 σ 2 (t) dt < ∞ .<br />
0<br />
Ce critère n’est pas très bon, nous en verrons d’autres par la suite.<br />
Si σ est une constante, Y est un brownien géométrique avec drift nul. En particulier,<br />
Y t = exp(σB t − σ2<br />
2 t)
116 Itô. Corrigés<br />
est une (vraie) martingale:<br />
Vérifions à titre d’exercice dans ce cas les conditions d’intégrabilité:<br />
d’où<br />
Y t = exp X t = exp(σB t − 1 2 σ2 t)<br />
E(|Y t |) = E(Y t ) = E(exp(σB t − σ2<br />
2 t)) = 1 √<br />
2πt<br />
∫ ∞<br />
−∞<br />
E(Y 2<br />
t ) = E(exp(2σB t − σ 2 t)) = exp(σ 2 t) .<br />
En particulier, si σ = 1 le processus exp( B t − t 2<br />
) est une martingale.<br />
Soit Z t = 1 Y t<br />
. Pour calculer dZ t , on peut utiliser la formule d’Itô<br />
ce qui va s’écrire<br />
dZ t = − Y tσ(t)<br />
Y 2<br />
t<br />
dB t + 1 2<br />
Z t = Z 0 exp(−<br />
e σx− 1 2 σ2t e − x2<br />
2t dx = 1<br />
2Yt 2 σ 2 (t)<br />
Yt<br />
3 dt = Z t (−σ(t)dB t + σ 2 (t)dt)<br />
∫ t<br />
0<br />
σ(s)dB s + 1 2<br />
∫ t<br />
0<br />
σ 2 (s) ds)<br />
formule que l’on peut obtenir directement en inversant l’exponentielle.<br />
Exercice 3.2.8 :<br />
Par simple application de la formule d’Itô<br />
Exercice 3.2.9 : Dans le cas h = 0, on a<br />
dZ t = (aZ t + b)dt + cZ t dB t<br />
S t = S 0 e (r−q)t e σB t− 1 2 σ2t = e (r−q)t M t .<br />
Donc M t = M 0 e σBt− 1 2 σ2t est une martingale positive, d’espérance 1 et on peut l’utiliser comme<br />
densité de RN. Sous Q, le processus ̂B t = B t − σt est un MB.<br />
Dans le cas général<br />
S t = S 0 e (r−q)t e ∫ t<br />
0 hsds e σB t− 1 2 σ2t .<br />
On en déduit e − ∫ t<br />
0 hsds = 1 S t<br />
M t e −(r−q)t . Donc<br />
e −rT E(e − ∫ T<br />
0 h(Ss)ds Ψ(S T )) = e −rT E( 1<br />
S T<br />
M T e −(r−q)T Ψ(S T )) = e −qT E Q ( 1<br />
S T<br />
Ψ(S T )) .<br />
On se place dans le cas h t = S −p<br />
t<br />
et on pose Z t = S p t . Le lemme d’Itô conduit à<br />
dZ t = pS p t σdB t + (r − q)pS p t dt + pdt + 1 p(p − 1)Sp−2 t St 2 σ 2 dt<br />
2<br />
= pZ t σdB t +<br />
([(r − q)p + 1 ] )<br />
2 p(p − 1)σ2 Z t + p dt<br />
= (aZ t + b)dt + cZ t dB t<br />
Le processus f(Z t ) est une martingale locale si<br />
f ′ (z)(az + b) + 1 2 f ′′ (z)c 2 z 2 = 0 .<br />
On pose g = f ′ . L’équation<br />
g(z)(az + b) + 1 2 g′ c 2 z 2 = 0
2009-10 117<br />
a pour solution g(z) = α exp( 2b<br />
c 2 z )z−1/c2 . Les fonctions f recherchées (ce que l’on appelle les fonctions<br />
d’échelle) sont les primitives de g.<br />
Exercice 3.2.10 : Le processus Z est une martingale locale car dZ t = cX t Z t dB t . On a<br />
soit U t = U 0 + 2<br />
∫ t<br />
0<br />
X s dB s +<br />
dU t = 2X t dX t + d〈X〉 t<br />
= 2X t (a − bX t )dt + 2X t dB t + dt<br />
∫ t<br />
0<br />
1<br />
2 (X2 t − X 2 0 − t) =<br />
(2X s (a − bX s ) + 1)ds On en déduit<br />
∫ t<br />
0<br />
X s dB s + a<br />
∫ t<br />
0<br />
X s ds − b<br />
∫ t<br />
0<br />
X 2 s ds<br />
Exercice 3.2.11 : Pour montrer que Z est une martingale locale, on calcule dZ et on vérifie que<br />
1<br />
son drift est nul. On a Z t = f(t, B t ) avec f(t, x) = √ exp −<br />
x2<br />
. Il en résulte que<br />
1 − t 2(1 − t)<br />
B t<br />
dZ t = −<br />
(1 − t) exp − B2 t<br />
3/2 2(1 − t) dB t<br />
Le processus (Z t , t < 1) est une martingale locale. C’est une vraie martingale si pour tout T ≤ 1<br />
∫ T<br />
E[<br />
0<br />
∫ T<br />
Le terme de gauche est majoré par E[<br />
0<br />
B 2 t<br />
(1 − t) 3 exp − B2 t<br />
(1 − t) dt] < ∞<br />
Bt<br />
2 ∫ T<br />
(1 − t) 3 dt] =<br />
0<br />
t<br />
dt < ∞.<br />
(1 − t)<br />
3<br />
Exercice 3.2.12 : Soit Z t = (L t ) a exp(−Γ(a)t). Alors, en utilisant que<br />
implique<br />
on obtient<br />
L t = e θB t− 1 2 θ2 t<br />
L a t = e aφBt− 1 2 aφ2t = e aφBt− 1 2 a2 φ 2t e 1 2 φ2 (a 2 −a)<br />
dZ t = dM t + e −Γ(a)t (L t ) a (−Γ(a) + a(a − 1)φ)<br />
où M est une martingale.<br />
Le processus Z est une martingale pour Γ(a) = a(a − 1)φ. Exercice 3.2.13 : Il est facile d’établir<br />
que<br />
dY t = −Y t [(2X t a t + σ 2 t (1 + 2X 2 t ))dt + 2X t σ t dB t ]<br />
et, en utilisant que X t = 0 et Y t = 1 on obtient 0 = −σ 2 t dt.<br />
Exercice 3.2.21 : La fonction d’échelle de X t = exp(B t + νt) est s(x) = x −2ν .<br />
croissant de s(X) est A t =<br />
∫ t<br />
0<br />
(s ′ σ) 2 (X s )ds.<br />
Le processus<br />
Exercice 3.2.25 : On obtient facilement<br />
E(f(B 1 )|F t ) = E(f(B 1 − B t + B t )|F t ) = E(f( ̂B 1−t + B t )|F t ) = ψ(t, B t )<br />
avec<br />
ψ(t, x) = E(f(x + B 1−t )) . (3.1)
118 Itô. Corrigés<br />
D autre part, la formule d’Itô et la propriété de martingale de ψ(t, B t ) conduisent à ψ(t, B t ) =<br />
E(f(B 1 )) +<br />
∫ t<br />
0<br />
∂ x ψ(s, B s )dB s . On écrit (grace à 3.1)<br />
∂ x ψ(t, x) = E(f ′ (x + B 1−t ))<br />
et un raisonnement analogue au précédent montre que si on pose ϕ(t, x) = E(f ′ (x + B 1−t )) on<br />
obtient<br />
ϕ(t, B t ) = E(f ′ (B 1 )|F t )<br />
3.3 Cas multidimensionnel<br />
Exercice 3.3.1 : De façon évidente, on a<br />
dS 3 (t) = 1 2 [dS 1(t) + dS 2 (t)] = 1 2 [r(S 1(t) + S 2 (t)] dt + σ 1 S 1 (t)dB 1 (t) + σ 2 S 2 (t)dB 2 (t) .<br />
On peut remarquer que<br />
√<br />
σ 2 1 S2 1 (t) + σ2 2 S2 2 (t) dB3 (t) = (σ 1 S 1 (t)dB 1 (t) + σ 2 S 2 (t)dB 2 (t))<br />
définit un Brownien B 3 qui permet d’écrire<br />
√<br />
σ 2<br />
1 S 2 1 (t)+σ2 2 S2 2 (t)<br />
où σ(t) =<br />
S 1(t)+S 2(t)<br />
est un processus.<br />
En utilisant le lemme d’Itô, on obtient<br />
ce que l’on peut écrire<br />
dS 3 (t) = r S 3 (t)dt + σ(t)S 3 (t)dB 3 t<br />
dS 4 (t) = S 4 (t)(r dt − 1 8 (σ2 1 + σ 2 2) dt + σ 1<br />
2 dB 1(t) + σ 2<br />
2 dB 2(t)) ,<br />
dS 4 (t) = S 4 (t)(r dt − 1 8 (σ2 1 + σ 2 2) dt + σdB 4 (t)) .<br />
Pour vérifier que B 3 et B 4 sont des browniens, on peut procéder de différentes façons (voir aussi les<br />
exercices sur le Brownien)<br />
a. B i (t+s)−B i (t) a même loi que B i (s), cette loi est N (0, s) et les accroissements sont indépendants<br />
b. B i et (Bi 2(t) − t, t ≥ 0) sont des martingales et B i est un processus continu<br />
c. pour tout λ, le processus exp(λB i (t) − λ2<br />
2<br />
t) est une martingale.<br />
3.4 Compléments<br />
Exercice 3.4.1 : En utilisant le théorème de Fubini pour les intégrales doubles<br />
F (x) =<br />
∫ x<br />
dz<br />
∫ z<br />
dyf(y) =<br />
∫ x<br />
dyf(y)<br />
∫ x<br />
dz =<br />
∫ x<br />
−∞ −∞<br />
−∞<br />
y<br />
−∞<br />
Par dérivation par rapport à la borne supérieure<br />
F ′ (x) =<br />
∫ x<br />
dyf(y) =<br />
∫ ∞<br />
−∞<br />
−∞<br />
f(y) 1 x>y dy<br />
dyf(y)(x − y) +
2009-10 119<br />
Le lemme d’Itô conduit alors au résultat. La formule finale s’écrit aussi<br />
∫ t<br />
0<br />
f(B s )ds = 2<br />
∫ ∞<br />
−∞<br />
L B (t, y)f(y)dy<br />
(<br />
∫ t<br />
)<br />
avec L B (t, y) = (B t − y) + − (B 0 − y) + − 1 Bs>ydB s et est connue sous le nom formule de<br />
0<br />
temps d’occupation. Le processus L B (·, y) est le temps local de B au point y entre 0 et t. La<br />
difficulté est de vérifier que le processus L(·, y) est un processus croissant.<br />
Exercice 3.4.2 : On a, en exprimant X t comme le produit de exp B 1 (t) et de U t =<br />
qui vérifie dU t = exp[−B 1 (t)] dB 2 (t)<br />
∫ t<br />
0<br />
exp[−B 1 (s)] dB 2 (s)<br />
dX t = exp B 1 (t)(exp −B 1 (t)) dB 2 (t) + U t (exp[B 1 (t)]dB 1 (t) + 1 2 exp[B 1(t)]dt)<br />
= dB 2 (t) + X t dB 1 (t) + 1 2 X tdt<br />
Soit f(x) = sinh x, alors, f ′ (x) = 1 2 (ex + e −x ) = cosh x et f ′′ (x) = 1 2 (ex − e −x ) = sinh x. O applique<br />
le lemme d’Itô:<br />
M t<br />
def<br />
= B 2 (t) +<br />
dZ t = cosh(B 1 (t)) dB 1 (t) + 1 2 sinh(B 1(t)) dt =<br />
∫ t<br />
Son crochet est t +<br />
∫ t<br />
0<br />
√<br />
1 + Z 2 t dB 1 (t) + 1 2 Z tdt<br />
X s dB 1 (s) est une martingale locale comme somme de deux martingales locales.<br />
∫ t<br />
0<br />
X 2 s ds =<br />
√<br />
X t = 1 + X<br />
2 s dB 3 (t) + 1<br />
0<br />
2<br />
l’égalité en loi de X et de Z.<br />
∫ t<br />
∫<br />
0 t<br />
0<br />
(1 + X 2 s )ds, d’où γ s = √ 1 + X 2 s . En regroupant les résultats<br />
X t dt et Z t =<br />
∫ t<br />
0<br />
√<br />
1 + Z<br />
2 s dB 1 (s) + 1 2<br />
∫ t<br />
0<br />
Z s ds. On obtient donc<br />
Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et le lemme d’Itô conduit à<br />
2 a − B<br />
dZ t = 1 St
120 Itô. Corrigés<br />
On obtient<br />
et<br />
E(S t ) = e bt E( ˜S t ) = e bt S 0<br />
E(S t |F s ) = E(e bt ˜St |F s ) = e bt ˜Ss = e b(t−s) S s<br />
Le calcul de E ( exp((b − 1 2 σ2 )(t − s) + σ(B t − B s ))|F s<br />
)<br />
se fait également à partir de celui de E(exp(σ(Bt −<br />
B s ))|F s ) = E(exp(σ(B t − B s ))) pour lequel il suffit d’utiliser la transformée de Laplace de la v.a.<br />
gaussienne B t − B s . On obtient<br />
E(S t |F s ) = exp(b(t − s))S s .<br />
Si Z t = ( ˜S t ) −1 , on a dZ t = Z t ((σ 2 − b) dt − σdB t ).<br />
Ces calculs se généralisent au cas de coefficients aléatoires. Soit dS t = S t (b t dt + σ t dB t ) et<br />
Y t = S t exp(− ∫ t<br />
0 b s ds). On a d(exp(− ∫ t<br />
0 b s ds) = b t exp(− ∫ t<br />
0 b s ds)dt. Le processus Y vérifie<br />
dY t = exp(−<br />
∫ t<br />
et est une martingale locale.<br />
0<br />
b s ds)dS t − S t b t exp(−<br />
∫ t<br />
0<br />
b s ds)dt = exp(−<br />
La solution de dL t = −L t θ t dB t est une martingale locale, qui s’écrit<br />
On pose Y t = S t L t . On a<br />
L t = L 0 exp(−<br />
Par définition d〈S, L〉 t = −S t σ t L t θ t dt, d’où<br />
∫ t<br />
0<br />
θ s dB s − 1 2<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
θ 2 sds).<br />
dY t = S t dL t + L t dS t + d < S, L > t .<br />
dY t = Y t ((b t − θ t σ t ) dt + σ t dB t ) .<br />
b s ds)S t σ t dB t = Y t σ t dB t<br />
En finance, le changement de probailité le plus utilis{e correspond au cas θ t = − r(t)−bt<br />
σ t<br />
. Il vient<br />
alors<br />
dY t = Y t (r(t) dt + σ t dB t ) .<br />
Soit R t = exp(− ∫ t<br />
r(s) ds). Le processus Y R = LRS est une martingale locale qui vérifie d(LRS) =<br />
0<br />
LRSσdB.<br />
Exercice 3.5.3 : Soit<br />
dS t = S t (rdt + σdB t )<br />
et A t = 1 t<br />
∫ t<br />
0 ln S sds. On a S t = S 0 exp(σB t − 1 2 σ2 t + rt) et<br />
ln S t = ln S s + σ(B t − B s ) + (r − σ2<br />
)(t − s)<br />
2<br />
Le processus ln S est un processus gaussien, d’où A t est une variable gaussienne.<br />
∫<br />
Soit G(t, T ) = 1 T<br />
T t (B s − B t ) ds. Soit t fixé. Le processus (B s − B t , s ≥ t) est gaussien, d’où G(t, T )<br />
est une variable gaussienne. Le processus (B s − B t , s ≥ t) est indépendant de F t donc G(t, T ) aussi,<br />
∫<br />
d’où E(G(t, T )|F t ) = 1 T<br />
T<br />
E(B<br />
t s − B t ) ds = 0.<br />
Var (G(t, T )|F t ) = E(G 2 (t, T )) = 1<br />
T 2 ∫ T<br />
t<br />
∫ T<br />
t<br />
E((B s − B t )(B u − B t ))ds du .
2009-10 121<br />
E((B s − B t )(B u − B t )) = (s ∧ u) − t. Tous calculs faits<br />
Var (G(t, T )|F t ) = 1<br />
T 2 (1 3 T 3 − 1 3 t3 + tT (t − T ))<br />
( ∫<br />
En écrivant A T = 1 t<br />
T 0 ln S s ds + ∫ )<br />
T<br />
ln S<br />
t s ds et en remarquant que<br />
on obtient<br />
∫ T<br />
t<br />
ln S s ds = (T − t) ln S t + 1 r − σ 2<br />
(T − t) 2 + σG(t, T )<br />
2 2<br />
A T = t T A t + (1 − t T )[ln S t + 1 2<br />
σ2<br />
(r − (T − t)] + σG(t, T ).<br />
2<br />
Exercice 3.5.5 : Soit ˜S t = e −bt S t . On a vu déja plusieurs fois que ˜S t est une martingale (par<br />
exemple vérifier, en utilisant le lemme d’Itô, que d ˜S t = ˜S t σdB t ).<br />
Soit X t défini par<br />
On a, X T = V T et si t ≤ T − h<br />
soit<br />
et si T − h ≤ t ≤ T<br />
= e −bT 1 h<br />
∫ t<br />
T −h<br />
E(S u |F t ) du + 1 h<br />
dX t<br />
X t<br />
e −bt X t = E[ e−bT<br />
h<br />
e −bt X t = e −bT 1 h<br />
∫ T<br />
∫ T<br />
T −h<br />
T −h<br />
S u du |F t ] .<br />
E(S u |F t ) du<br />
e −bt −bt 1 − e−bh<br />
X t = S t e<br />
bh<br />
e −bt X t = e −bT 1 h<br />
∫ T<br />
∫ T<br />
T −h<br />
E(S u |F t ) du<br />
E(S u |F t ) du = e−bT<br />
S u du + S t e<br />
t<br />
h T −h<br />
= bdt + σS {<br />
t<br />
1 − e −bh<br />
1 − e<br />
1 {t
122 Itô. Corrigés<br />
et en utilisant que exp(σB t − 1 2 σ2 t) est une martingale d’éspérance 1, on obtient<br />
E(S t ) = S 0 exp(rt − ∆(t)) .<br />
On montre que S est de carré intégrable : en effet<br />
S 2 t = S 2 0 exp(2rt − 2∆(t) + 2σB t ) = S 2 0 exp(2rt − 2∆(t) + 1 2 (2σ)2 t) exp(2σB t − 1 2 (2σ)2 t)<br />
et l’on sait que exp(2σB t − 1 2 (2σ)2 t) est une martingale égale à 1 en t = 0, d’où<br />
E(S 2 t ) = S 2 0 exp(2rt − 2∆(t) + 1 2 (2σ)2 t)<br />
et E( ∫ t<br />
0 S2 s e −2rs ds) < ∞, ce qui établit le caractère martingale de la martingale locale Z.<br />
On sait que (formule de Black et Scholes en changeant de nom les paramètres) si dS t = S t (adt +<br />
σdB t ), S 0 = x alors<br />
E(e −aT (S T − K) + )) = xN (d 1 ) − Ke −aT N (d 2 )<br />
avec d 1 = 1<br />
σ √ T ln( x<br />
Ke −aT ) + 1 2 σ2 T ). Le calcul demandé est alors facile.<br />
3.6 Le crochet<br />
3.7 Finance<br />
Exercice 3.7.6 : Par définition,<br />
C Am<br />
t ≥ C t = E(e −rT (S T − K) + |F t ) = E(e −rT g(S T )|F t )<br />
avec g(x) = (x − K) + . En utilisant g(x) ≤ e −rt g(xa rt , pour tout t et l’inégalité de Jensen (liée à la<br />
convexité de g) on obtient<br />
e −ru g(S u ) ≤ e −rT g(S u e r(T −u) ) = e −rT g(e rT E(S T e −rT |F u )) = e −rT g(E(e rT S T e −rT |F u ))<br />
= e −rT g(E(S T |F u )) ≤ E(e −rT g(S T )|F u )) = C u<br />
P ≤ P Am et la propriété de sous martingale de (K − S t e −rt ) permet de conclure.<br />
Exercice 3.7.3 : On écrit la formule d’intégration par parties<br />
En particulier (on omet les indices t) (X = Y )<br />
d( X t<br />
Y t<br />
) = X t d( 1 Y t<br />
) + 1 Y t<br />
dX t + d〈X, 1 Y 〉 t .<br />
d( X X ) = d(1) = 0 = Xd( 1 X ) + 1 X dX + d〈X, 1 X 〉 .<br />
Soit dV = π 1 dS 1 + π 2 dS 2 . On a donc<br />
d〈V,<br />
1<br />
S 1 〉 = π 1d〈S 1 ,<br />
1<br />
S 1 〉 + π2 d〈S 2 ,<br />
1<br />
S 1 〉 .
Corrigés. 2009-10 123<br />
Par suite, si V 1 = V/S 1 , on peut écrire la suite d’égalités (on utilise V = π 1 S 1 + π 2 S 2 )<br />
dV 1<br />
t = V d( 1<br />
S 1 ) + 1<br />
S 1 dV + d〈V, 1<br />
S 1 〉<br />
= (π 1 S 1 + π 2 S 2 )d( 1<br />
S 1 ) + 1<br />
S 1 (<br />
π1 dS 1 + π 2 dS 2) + π 1 d〈S 1 ,<br />
= π 1<br />
(<br />
S 1 d( 1<br />
S 1 ) + 1<br />
S 1 dS1 + d〈S 1 ,<br />
= π 2 d( S2<br />
S 1 )<br />
Exercice 3.7.14 : On remarque que<br />
1<br />
S 1 〉 + π2 d〈S 2 ,<br />
) (<br />
1<br />
S 1 〉 + π 2 S 2 d( 1<br />
S 1 ) + 1<br />
S 1 dS2 + d〈S 2 ,<br />
F T = σ(B s , s ≤ t) = σ(S 1 s , s ≤ t) = σ(S 2 s , s ≤ t)<br />
1<br />
S 1 〉<br />
)<br />
1<br />
S 1 〉<br />
Le marché est complet: en effet, toute v.a. F T mesurable s’écrit comme valeur terminale d’un<br />
portefeuille auto-finançant composé des actifs sans risque et de l’actif 1, donc le marché composé<br />
d’un actif supplémentaire (avec les mêmes actifs contingents) est également complet. La seule<br />
probabilité équivalente à la probabilité P telle que l’actif sans risque et l’actif 1, actualisés, sont des<br />
martingales est Q définie par dQ| Ft = exp(−θB t − 1 2 θ2 t)dP | Ft avec θ = µ i − r<br />
. L’actif 2, actualisé<br />
σ<br />
n’est pas une martingale sous Q, il n’existe donc pas de probabilité équivalente à la probabilité P<br />
telle que TOUS les actifs actualisés soient des martingales. Le marché présente des opportunités<br />
d’arbitrage. Supposons µ 1 > µ 2 . Si, à la date 0, on achète une part de l’actif 1 et on vend une<br />
part de l’actif 2 (capital initial investi nul) et que l’on maintient cette position jusqu’en T , on a un<br />
portefeuille de valeur<br />
ce qui constitue un arbitrage.<br />
S 1 T − S 2 T = [ exp(µ 1 T ) − exp(µ 2 T ) ] exp(σB T − 1 2 σ2 T ) > 0
124 Exemples
Chapter 4<br />
Exemples, Corrigés<br />
4.1 Processus de Bessel<br />
Exercice 4.1.3 : La formule d’Itô conduit à<br />
dZ t = − 1 Rt<br />
2 dR t + 1 2<br />
2 Rt<br />
3 d〈R〉 t = − 1 Rt<br />
2 dB t − 1 Rt<br />
3 dt + 1 Rt<br />
3 dt = − 1 Rt<br />
2 dB t<br />
Soit V t = sinh λR t<br />
. On pose f(x) =<br />
λR t<br />
sinh λx<br />
λx<br />
, d’où<br />
f ′ (x)<br />
sinh λx cosh λx<br />
= −<br />
λx 2 +<br />
x<br />
f ′′ (x) =<br />
sinh λx λ cosh λx<br />
+2<br />
λx 3 −<br />
x 2<br />
La formule d’intégration par parties conduit à<br />
−<br />
cosh λx<br />
x 2<br />
+<br />
λ sinh λx<br />
x<br />
.<br />
et on vérifie que les termes en dt s’annulent.<br />
dU t = e −tλ2 2 [− λ2<br />
2 V tdt + dV t ]<br />
Il suffit d’appliquer le théorème d’arrêt de Doob à la martingale U et au temps d’arrêt T b (on<br />
utilise que sinh x est born,ée sur [0, b]). On obtient E(exp(− λ2 T b λb<br />
)(sinh )) = 1, d’où E(exp(− λ2 T b<br />
2 λb<br />
2 )) =<br />
λb<br />
sinh λb .<br />
Exercice 4.1.4 :<br />
Les deux résultats s’obtiennet en appliquant le lemme d’Itô<br />
d(ln R t ) = 1 R t<br />
dR t − 1<br />
2(R t ) 2 dR tdR t = 1 R t<br />
dB t − 1 R t<br />
1<br />
2R t<br />
dt + 1<br />
2(R t ) 2 dt = 1 R t<br />
dB t ,<br />
dR ν t = νR ν−1<br />
t dR t +<br />
ν(ν − 1)<br />
2<br />
R ν−2<br />
t<br />
dR t dR t = νR ν−1<br />
t<br />
= νRt<br />
ν−1 dB t + ν2<br />
125<br />
dB t + νR ν−1<br />
t<br />
2 Rν−2 t<br />
dt<br />
1<br />
dt +<br />
2R t<br />
ν(ν − 1)<br />
Rt ν−2 dt .<br />
2
126 Exemples<br />
On pose Z t = exp(− ν2<br />
2<br />
∫ t<br />
0<br />
∫ t<br />
ds<br />
) et on applique le lemme d’Itô.<br />
R 2 s<br />
ds<br />
dZ t = d exp(− ν2<br />
2 0 Rs<br />
2 [<br />
dL t = Z t dRt ν + Rt ν dZ t = Z t<br />
Exercice 4.1.5 :<br />
= Z t νRt<br />
ν−1 dB t<br />
La formule d’Itô conduit á<br />
Sous Q ˜B t<br />
def<br />
= B t + µ<br />
∫ t<br />
0<br />
) = Z t (− ν2<br />
2 ) 1 Rt<br />
2 dt<br />
νRt<br />
ν−1<br />
dB t + νR ν−1<br />
t<br />
1<br />
dt +<br />
2R t<br />
dY t = 2 √ Y t dB t + δdt<br />
dZ t = Z t (−µ √ Y )dB t<br />
ν(ν − 1)<br />
2<br />
√<br />
Yu du est un MB et dY t = 2 √ Y t d ˜B t + (δ − 2µY t )dt.<br />
Exercice 4.2.2 : Par application de la formule d’Itô à Z t = B 2 t<br />
on a alors<br />
dZ t = 2B t dB t + 2B 1 t dB 1 t + 2dt =<br />
dZ t = 2B t dB t + dt = 2 √ Z t dB t + dt<br />
Rt<br />
ν−2 dt − ν2<br />
2<br />
2<br />
√<br />
(Bt ) 2 + (B 1 t ) 2 √(B t ) 2 + (B 1 t ) 2 (B t dB t + B 1 t dB 1 t )<br />
1<br />
R 2 t<br />
]<br />
Rt ν dt<br />
Avec n Browniens on obtient µ = n.<br />
Si ρ t<br />
def<br />
= √ R t , la formule d’Itô conduit à<br />
= 2 √ Z t dB 3 t + 2dt<br />
dX t = dR (µ)<br />
t<br />
dρ t = 1<br />
2ρ t<br />
(µ − 1)dt + dB t<br />
+ dR (ν)<br />
t = (µ + ν)dt + 2<br />
√<br />
R (µ)<br />
t<br />
+ R (ν)<br />
t dZ t<br />
où Z est un MB. On en déduit que la somme de deux Bessels carrés indépendants est un Bessel<br />
carré.<br />
Exercice 4.1.6 : P x (inf s≤t X s ) = P x (T a > t) et on connait la transformée de Laplace de T a<br />
E (ν) (exp − λ2<br />
2 T a).<br />
Dans le cas du BES(3) P (3)<br />
x | Ft = ( X t∧τ<br />
x<br />
D’où P (3)<br />
x (T a > t) = P (3)<br />
x (∞ > T a > t) + (1 − a x<br />
a<br />
x P 0((x − a) > |N| √ t).<br />
Voir Borodin pour l autre cas<br />
)<br />
Wx | Ft d’où pour a < x P (3)<br />
x (φ(T a ) 1 Ta T a > t) = a x P 0(T (x−a) > t) =<br />
4.2 Processus de Bessel carré<br />
Exercice 4.2.4 : Remarquer que E(R (2)<br />
1 ) = E√ ξ 2 1 + ξ2 2 .
Corrigés. 2009-10 127<br />
Exercice 4.2.5 : On part de<br />
On sait que (R t ; t ≥ 0) loi<br />
= x exp(B Ct + νC t )<br />
W (ν) |F t = exp(νB t − ν2<br />
2 t)W|F t<br />
P (ν) (F (R s ), s ≤ t) = W (ν) (F(xB u ), u ≤ C t )<br />
W (ν) (F (xB u ), u ≤ C t ) = W(exp(B Ct +νC t )F(xB u ), u ≤ C t ) = P (0) ( R t<br />
x )ν exp − ν2<br />
2C t<br />
F(R s ), s ≤ t)<br />
car sous P (0) exp νB Ct = (exp B Ct ) ν , R t = x exp B Ct<br />
4.3 Autres processus<br />
Exercice 4.3.3 : La première question résulte d’une application du lemme d’Itô: f(t, X t ) est une<br />
martingale locale si Gf(t, X t ) = 0 avec Gf(t, x) = ∂ t f + x(1 − x)(µ − x)∂ x f + 1 2 x2 (1 − x) 2 ∂ xx f. Dire<br />
que h 0 (X) est une martingale locale revient à vérifier que h 0 est solution de x(1 − x)(µ − x)h ′ +<br />
1<br />
2 x2 (1 − x) 2 h ′′ = 0. Montrer que h 1 (X t ) − t est une martingale locale revient à vérifier que h 1<br />
satisfait<br />
−1 + x(1 − x)(µ − x)h ′ + 1 2 x2 (1 − x) 2 h ′′ = 0 .<br />
En appliquant le théorème d’arêt de Doob (la fonction h 0 est bornée sur [a, b], la martingale locale<br />
h 0 (X t∧τ ) est uniformément intégrable) E(h 0 (X τ )) = h 0 (x) soit<br />
h 0 (x) = E(h 0 (X τ )) = h 0 (a)P(X τ = a) + h 0 (b)P(X τ = b) = h 0 (a)P(X τ = a) + h 0 (b)(1 − P(X τ = a)) .<br />
On applique ensuite le théorème de Doob à h 1 (X t ) − t<br />
h 1 (x) = E[(h 1 (a) − τ) 1 Xτ =a)] + E[(h 1 (b) − τ) 1 Xτ =b)]<br />
= h 1 (a)P(X τ = a) + h 1 (b)(1 − P(X τ = a)) − E(τ)<br />
4.4 Des Calculs<br />
Exercice 4.4.2 : For t ≤ 1 and a > 0, the events {Y t ≤ a} and {T a ≥ t} are equal, where<br />
T a = inf{t ≥ 0, X t = a}.<br />
Then, P(Y t ≤ a) = P(T a ≥ t). Let ˜X = X/σ and T α ( ˜X) = inf{t ≥ 0, ˜X t = α}. Then, T a = T α ( ˜X)<br />
where α = a/σ.<br />
It is well known (the proof follows, from example from inversion of Laplace transform) that<br />
P 0 (T α ( ˜X) ∈ dt) =<br />
|α| √<br />
2πt<br />
3<br />
exp −(α<br />
− ˜µt)2<br />
2t<br />
where ˜µ = µ/σ (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor, second edition, page<br />
320, ex. 1.21).<br />
Therefore, you get the cumulative function of Y for t ≤ 1.<br />
Let us denote Φ(t, a, µ, σ) = P(sup 0≤s≤t (µs + σB s ) ≤ a).<br />
Suppose now that 2 > t > 1. Then<br />
X t = X 1 + µ 1 (t − 1) + σ 1 (B t − B 1 ) = X 1 + µ 1 (t − 1) + σ 1 ˜Bt−1
128 Equa. Diff.<br />
where ˜B is a BM independent of σ(B s , s ≤ 1).<br />
Then,<br />
where<br />
P(Y t ≤ a) = P ( Y 1 ≤ a , max<br />
1≤s≤t (X 1 + µ 1 (s − 1) + σ 1 ˜Bs−1 ) ≤ a )<br />
= P ( Y 1 ≤ a P [ max<br />
1≤s≤t (X 1 + µ 1 (s − 1) + σ 1 ˜Bs−1 ) ≤ a)|F 1<br />
])<br />
= E( 1 (Y1 ≤a) Ψ(t − 1, X 1 ))<br />
Ψ(u, x) = E( max<br />
0≤s≤u (x + µ 1s + σ 1 ˜Bs ) ≤ a) = E( max<br />
0≤s≤u (µ 1s + σ 1 ˜Bs ) ≤ a − x)<br />
and this quantity is known from step 1: Ψ(u, x) = Φ(u, a − x, µ 1 , σ 1 ).<br />
Then, it remains to know the law of the pair Y 1 , X 1 . This is the reflection principle in the case<br />
µ = 0 (Revuz Yor, page 105 ex. 3.14) and the general result follows from Girsanov’s theorem. For<br />
example Borodin-Salminen, page 198, formula 1.18 in the case where σ = 1<br />
References:<br />
P(Y 1 ≥ y, X 1 ∈ dz) = 1 √<br />
2πt<br />
exp[µy − µ2 t<br />
2<br />
(|z − y| + y)2<br />
− ] dz<br />
2t<br />
Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts and Formulae, Birkhäuser,<br />
1996.<br />
Exercice 4.4.3 : On écrit dS = D(rdt + σ t d ˜B t ). Si ˜C est la valeur de C actualisé, alors dC =<br />
Cmσd ˜B t . Il suffit de résoudre et d’identifier<br />
(<br />
St<br />
C t = C 0 exp[− m − 1 ∫ t<br />
S 0 m<br />
[ r s ds + 1 ∫ t<br />
) m<br />
σ 2<br />
2<br />
sds]]<br />
Exercice 4.4.4 : On remarque que Y t = e λt X t est un MB changé de temps: Y t = B Λ(t) avec<br />
∫ t<br />
Λ(t) = σ 2 e 2λu du = σ 2 e2λt − 1<br />
. Par suite τ = inf{t : |Y t | > e λy g(t)}. D’où la suite d’égalités<br />
2λ<br />
0<br />
{τ > t} = {|B Λ(u) | < e λu g(u), ∀Λ(u) < Λ(t)}<br />
0<br />
= {|B v | < e λC(v) g(C(v)), ∀v < Λ(t)} = {τ ∗ > Λ(t)}<br />
0<br />
avec<br />
τ ∗ = inf{t : |B t | > e λC(t) g(C(t))}
Chapter 5<br />
Equations différentielles<br />
stochastiques, Corrigés<br />
5.1 Equation Linéaire<br />
Exercice 5.1.7 : L’équation a une solution unique car b(t, x) = a + αx et σ(t, x) = b + βx sont<br />
lipschitziennes et ont une croissance linéaire. On a<br />
X t = x +<br />
∫ t<br />
0<br />
(a + αX s ) ds +<br />
∫ t<br />
0<br />
(b + βX s ) dB s<br />
L’intégrale stochastique est une martingale car E( ∫ t<br />
0 (b + βX s) 2 ds) ≤ E( ∫ t<br />
0 2(b2 + β 2 Xs 2 ) ds) et la<br />
solution de l’équation vérifie E(sup s≤t Xs 2 ) < ∞. D’où en prenant l’espérance de X t et en posant<br />
m(t) = E(X t )<br />
m(t) = x +<br />
∫ t<br />
0<br />
(a + αm(s)) ds .<br />
La fonction m est dérivable et vérifie m ′ (t) = a + αm(t).<br />
m(0) = x, la solution est<br />
La formule d’Itô conduit à<br />
m(t) = (x + a α )eαt − a α<br />
Compte tenu de la condition initiale<br />
d(X 2 t ) = 2X t (a + αX t ) dt + 2X t (b + βX t ) dB t + (b + βX t ) dt .<br />
En admettant que l’intégrale stochastique est une martingale et en posant M(t) = E(X 2 t )<br />
M(t) = x 2 + 2<br />
∫ t<br />
0<br />
(am(s) + αM(s)) ds +<br />
∫ t<br />
0<br />
(b 2 + β 2 M(s) + 2bβm(s)) ds<br />
soit {<br />
M ′ (t) − (2α + β 2 )M(t) = 2(a + bβ)m(t) + b 2<br />
M(0) = x 2<br />
la solution est<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
M(t) = Ce (2α+β2)t + ke αt + c<br />
k(−α − β 2 ) = 2(a + bβ)(x + a α )<br />
c = (b 2 − 2(a + bβ) a α ) 1<br />
2α+β 2<br />
C + k + c = x 2<br />
129
130 Equa. Diff.<br />
Exercice 5.1.3 : On a dY t = Y t (αdt + βdB t ) dont la solution est (cf brownien géométrique)<br />
On a (cf propriété de martingale du Brownien)<br />
Y t = exp[(α − 1 2 β2 )t + βB t )]<br />
E(Y t |F s ) = exp(αt)E(exp[− 1 2 β2 t + βB t ] |F s ) = exp(αt) exp[− 1 2 β2 s + βB s ]<br />
D’où, si α ≥ 0, on a E(Y t |F s ) ≥ Y s . Le processus Y est une martingale si on a égalité soit si α = 0.<br />
c. Le processus Y ne s’annule pas. Le processus Z t est un processus d’Itô car Yt<br />
−1 est de carré<br />
intégrable (voir brownien géométrique) et<br />
dZ t = (a − bβ)Y −1<br />
t<br />
On a ainsi d〈Y, Z〉 t = bYt<br />
−1 Y t β = bβ.<br />
Soit U t = Y t Z t . La formule d’Itô conduit à<br />
dt + bYt<br />
−1 dB t<br />
dU t = (a − bβ) dt + b dB t + U t (α dt + β dB t ) + bβ dt = (a + αU t ) dt + (b + βU t ) dB t<br />
et comme U 0 = x on a par unicité X t = U t .<br />
Exercice 5.1.4: L’équation dX t = αX t dt + b dB t admet une solution unique. En posant Z t =<br />
e −αt X t on voit que dZ t = e −αt¯dB t d’où<br />
∫ t<br />
X t = e αt x + e αt e −αs b dB s<br />
Il en résulte que X est un processus gaussien de moyenne E(X t ) = e αt x et de variance<br />
Si Y t = φ(X t ), la formule d’Itô conduit à<br />
Dans le cas particulier de l’énoncé,<br />
soit<br />
C’est une martingale car E( ∫ t<br />
0<br />
intégrable.<br />
V (X t ) = b 2 2αt 1 − e−2αt def<br />
e = σ 2 (t) .<br />
2α<br />
dY t = φ ′ (X t )dX t + 1 2 φ′′ (X t )b 2 dt .<br />
dY t = exp(− α b 2 X2 t )(bdB t )<br />
Y t = b<br />
∫ t<br />
0<br />
0<br />
exp(− α b 2 X2 s )dB s<br />
exp(−<br />
2α<br />
b 2 X 2 s )ds) < ∞ (faire le calcul en utilisant ce qui suit) de carré<br />
En utilisant le calcul de E(e λU 2 ) quand U est une gaussienne, on trouve, en posant m(t) = e αt<br />
1<br />
E(e λX2 t ) = √<br />
1 − 2λσ2 (t) exp λm2 (t)x 2<br />
1 − 2λσ 2 = Φ(t, x)<br />
(t)<br />
et<br />
E(e λX2 t |Fs ) =<br />
1<br />
√<br />
1 − 2λσ2 (t − s) exp λm2 (t − s)X 2 s<br />
1 − 2λσ 2 (t − s) = Φ(t − s, X s)
Corrigés. 2009-10 131<br />
Soit t fixé. Par définition, le processus d’Itô V défini par V s = Φ(t − s, X s ) est une martingale,<br />
donc son drift est nul. On a donc<br />
−∂ 1 Φ(t − s, x) + αx∂ 2 Φ(t − s, x) + 1 2 b2 ∂ 22 Φ(t − s, x) = 0<br />
∂ 1 Φ(u, x) + αx∂ 2 Φ(u, x) + 1 2 b2 ∂ 22 Φ(u, x) = 0<br />
En posant Ψ = ln Φ et en recherchant Ψ sous la forme<br />
Ψ(t, x) = x 2 a(t) + b(t)<br />
on a (voir la forme de Φ) les conditions de l’énoncé sur les fonctions a et b.<br />
Exercice 5.2.1 : Dans un premier temps, on pose Y t = e αt X t . Ce processus vérifie<br />
dY t = e αt (µ − γV t )dt) + e αt√ V t dW 1,t<br />
Calculer ϕ(λ) = E(exp(λX T )) revient à calculer ψ(λ) = E(exp(λY T )). On a en effet ϕ(λ) = ψ(λe αT ).<br />
Le calcul des espérances conditionnelles se réduit à un calcul d’espérance par la propriété de Markov.<br />
On a<br />
Y t = Y 0 +<br />
∫ t<br />
On est donc ramené à calculer<br />
A = E<br />
(<br />
exp<br />
(<br />
−γ<br />
0<br />
e αs (µ − γV s )ds +<br />
∫ t<br />
0<br />
e αs V s ds +<br />
En décorrélant W 1,t , le terme sous l’exponentielle est<br />
−γ<br />
∫ t<br />
0<br />
e αs V s ds + ρ<br />
∫ t<br />
En utilisant l’indépendance entre W et V<br />
( (<br />
A = E<br />
exp<br />
−γ<br />
∫ t<br />
0<br />
0<br />
e αs V s ds + ρ<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
e αs√ V s dW 1,s<br />
e αs√ V s dW 1,s<br />
))<br />
e αs√ V s W 2,s + √ ∫ t<br />
1 − ρ 2 e αs√ V s dW s<br />
∫ t<br />
0<br />
e αs√ V s W 2,s +<br />
Il reste un calcul du type espérance de l’exponentielle de<br />
0<br />
√<br />
1 − ρ<br />
2<br />
2<br />
∫ t<br />
0<br />
e 2αs V s ds<br />
))<br />
Cette expression sécrit<br />
∫ t<br />
f(s)V s ds +<br />
∫ t<br />
0<br />
0<br />
g(s) √ V s dW 2,s<br />
∫ t<br />
0<br />
f(s)V s ds +<br />
=<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
= G(t)V t +<br />
g(s)(dV s − k(θ − V s )ds) =<br />
∫ t<br />
F (s)V s ds + G(t)V t − G(0)V 0 −<br />
∫ t<br />
0<br />
H(s)V s ds<br />
0<br />
F (s)V s ds +<br />
∫ t<br />
0<br />
G ′ V s ds<br />
∫ t<br />
0<br />
G(s)dV s<br />
ou f, g, F, G, H sont des fonctions déterministes. (remarque: pour un processus d’Ornstein Uhlenbeck,<br />
ce type de calcul est standard)<br />
Exercice 5.1.9 : On pose Y t = e at X t . On a<br />
dY t = abe at dt + σe at/2√ Y t dW t
132 Equa. Diff.<br />
et on en déduit E(Y t ) = x + b(e at − 1) En utilisant<br />
on obtient Y t − E(Y t ) =<br />
∫ t<br />
0<br />
Y t = x +<br />
∫ t<br />
= E(Y t ) +<br />
abe as ds +<br />
∫ t<br />
0<br />
0<br />
∫ t<br />
σe as/2√ Y s dW s par suite<br />
0<br />
V ar(Y t ) =<br />
σe as/2√ Y s dW s<br />
∫ t<br />
0<br />
σ 2 e as E(Y s )ds<br />
σe as/2√ Y s dW s<br />
5.2 Processus affines<br />
(<br />
Exercice 5.2.2 : Si α et β existent, le processus M t = e α(t)+β(t)St exp − ∫ )<br />
t<br />
0 ψ(S s)ds<br />
martingale, donc E(M T |F t ) = M t ce qui conduit à<br />
E<br />
(<br />
e θS T<br />
exp<br />
(<br />
−<br />
∫ T<br />
0<br />
ψ(S s )ds<br />
)<br />
) (<br />
|F t = e α(t)+β(t)S t<br />
exp −<br />
∫ t<br />
0<br />
)<br />
ψ(S s )ds .<br />
est une<br />
D’où le résultat en remarquant que exp(− ∫ t<br />
0 ψ(S s)ds) est F t -mesurable. Pour que M soit une<br />
martingale, il faut que sa partie à variation bornée soit nulle. Il est facile de voir que<br />
d(e α(t)+β(t)S t<br />
) = e α(t)+β(t)S t<br />
(α ′ + β ′ )dt + βdS t + β 2 σ(S t ) 2 dt<br />
Ce qui conduit à<br />
soit<br />
α ′ + β ′ S t − ψ(S t ) + βµ(S t )dt + β 2 σ(S t ) 2 = 0<br />
α ′ + β ′ x − ψ(x) + β(µ 0 + µ 1 x) + β 2 (σ 0 + σ 1 x) = 0<br />
Cette équation doit être vérifiée pour tout (t, x) d’où (cours élémentaire sur les ED)<br />
α ′ − ψ 0 + βµ 0 + β 2 σ 0 = 0<br />
β ′ − ψ 1 + βµ 1 + β 2 σ 1 = 0<br />
La seconde équation est une équation de Ricatti<br />
5.3 Finance<br />
Exercice 5.4.1 : La solution de<br />
dS t = S t (r dt + σ dB t )<br />
vérifie, pour t ≤ u<br />
)<br />
S u = S t exp<br />
(r(u − t) + σ(B u − B t ) − σ2<br />
2 (u − t)<br />
Le processus S est à valeurs ( positives (si S 0 > 0) et ne s’annule pas.<br />
1. Le processus M t = E [ 1 ∫ )<br />
T<br />
S u du − K] + |F t est une martingale.<br />
T<br />
0<br />
(5.1)
Corrigés. 2009-10 133<br />
2. En utilisant ( que s(a − b) + = (sa − sb) + si s > 0 et la F t -mesurabilité de S t , on obtient<br />
M t = S t E [ 1 ∫ )<br />
T<br />
S u<br />
du − K ] + |F t ce qui s’écrit de façon évidente<br />
T S t S t<br />
0<br />
∫ t<br />
S t E<br />
(<br />
[ 1 T<br />
∫ T<br />
t<br />
)<br />
S u<br />
du − ζ t ] + |F t<br />
S t<br />
avec ζ t = St<br />
−1 (K − 1 S u du), variable F t -mesurable.<br />
T 0<br />
3. On rappelle que, si X est indépendante de G et Y est G-mesurable,<br />
E(f(X, Y )|G) = [E(f(X, y)] y=Y .<br />
Les variables ( S u<br />
S t<br />
, u ≥ t) sont indépendantes de F t (utiliser (5.1)), et ζ t est F t mesurable. Il en<br />
résulte<br />
M t = S t Φ(t, ζ t )<br />
avec<br />
Φ(t, x) = E<br />
4. On obtient<br />
dSt −1 = − 1<br />
St<br />
2 dS t + 1 2<br />
on en déduit les égalités suivantes<br />
2<br />
S 3 t<br />
( ∫ ) +<br />
1 T<br />
S u<br />
du − x .<br />
T t S t<br />
d < S, S > t = ( σ2<br />
S t<br />
− r S t<br />
)dt − σ S t<br />
dB t .<br />
dζ t = −St<br />
−1 S t<br />
T dt + (K − 1 T<br />
d < ζ, ζ > t = ζt 2 σ 2 dt<br />
∫ t<br />
0<br />
S u du)dS −1<br />
t<br />
= − 1 T dt + ζ t(−σdB t − rdt + σ 2 dt)<br />
dΦ(t, ζ t ) = Φ ′ t dt + Φ ′ x dζ t + 1 2 Φ” xx d < ζ, ζ > t = (...) dt − σζ t Φ ′ x dB t<br />
d < S, Φ > t = −S t σ 2 ζ t Φ ′ x<br />
La formule d’Itô appliquée à M t est alors (écriture volontairement simplifiée)<br />
dM t = ΦdS + SdΦ + dSdΦ<br />
ce qui s’écrit<br />
Soit<br />
Φ(t, ζ t )dS t + S t [Φ ′ t(t, ζ t )dt + Φ ′ x(t, ζ t )dζ t + 1 2 Φ xx”(t, ζ t )d < ζ, ζ > t ] + d < S, Φ > t<br />
dM t = S t (rΦ + ∂Φ<br />
∂t − ( 1 T + rζ)∂Φ ∂x + 1 2 σ2 ζ 2 ∂2 Φ<br />
∂x 2 ) dt + dN t<br />
où N est une martingale du type (...) dB t . Le processus M étant une martingale locale, sa partie<br />
processus à variation finie est nulle, soit<br />
Exercice 5.4.2 : Il est facile de montrer que<br />
(<br />
S t = S 0 exp rt +<br />
0 = rΦ + ∂Φ<br />
∂t − ( 1 T + rζ)∂Φ ∂x + 1 2 σ2 ζ 2 ∂2 Φ<br />
∂x 2<br />
∫ t<br />
0<br />
σ(s)dB s − 1 2<br />
∫ t<br />
0<br />
)<br />
σ 2 (s) ds
134 Girsanov.<br />
est solution de l’équation proposée.<br />
∫ t<br />
0<br />
2. POur t fixé,<br />
∫ t<br />
σ 2 (s)ds. Il en résulte que<br />
∫ t<br />
0<br />
σ(s)dB s est une variable gaussienne (intégrale de Wiener) centrée de variance<br />
∫ t<br />
0∫ t<br />
σ(s)dB s − 1 2<br />
∫ t<br />
0<br />
σ 2 (s) ds est une variable gaussienne car d’espérance<br />
− 1 σ 2 (s) ds et de variance σ 2 (s)ds.<br />
2 0<br />
0<br />
3. La formule de valorisation d’une option revient à calculer E Q (S T −K) + . Dans le cas où S T = S 0 e U<br />
où U est une variable d’espérance rT et de variance V 2 = σ 2 T , on a<br />
avec<br />
d 1 = 1 V<br />
Il suffit donc de remplacer σ 2 T par Σ 2 =<br />
C(0, x) = xN (d 1 ) − Ke −rT N (d 2 )<br />
(ln( x K ) + T r + V 2 )<br />
, d 2 = d 1 − V<br />
2<br />
∫ T<br />
0<br />
σ 2 (s)ds<br />
C(0, x) = xN (d 1 ) − Ke −rT N (d 2 )<br />
avec<br />
d 1 = 1 Σ<br />
(ln( x )<br />
K ) + T r + Σ2<br />
, d 2 = d 1 − Σ<br />
2<br />
5.4 Equations différentielles<br />
Exercice 5.5.4 : Nous vérifions que<br />
∫ t<br />
1<br />
X t = tN + (1 − t)<br />
0 1 − s dB s (5.2)<br />
est solution de dX t = dB t + N − X t<br />
dt. Par différentiation de (5.2)<br />
1 − t<br />
dX t = Ndt − 1<br />
∫ t<br />
0<br />
1<br />
1 − s dB s + dB t<br />
= Ndt − 1<br />
1 − t (X t − tX 1 )dt + dB t<br />
= dB t + 1<br />
1 − t (−X t + N)dt<br />
Le processus X est donc gaussien, centré, de covariance (s < t)<br />
∫ t<br />
E(X s X t ) = ts + (1 − t)(1 − s)E(<br />
= ts + (1 − t)(1 − s)<br />
0<br />
∫ s<br />
0<br />
∫<br />
1<br />
s<br />
1 − u dB u<br />
0<br />
1<br />
(1 − u) 2 du = s<br />
1<br />
1 − v dB v
Chapter 6<br />
Girsanov, Corrigés<br />
6.1 Résultats élémentaires<br />
Exercice 6.1.2 : Par changement de probabilité, le processus H étant une martingale positive<br />
d’espérance 1, en posant dQ = H t dP, on définit une nouvelle probabilité Q et E P (H T ln H T ) =<br />
E Q (ln H T ). Or,<br />
D’où<br />
Le processus ˜B t = B t +<br />
d’où le résultat.<br />
−<br />
∫ t<br />
0<br />
∫ t<br />
Exercice 6.1.4 : On a Γ t = exp(<br />
0<br />
H t = exp(−<br />
∫ t<br />
E Q (ln H T ) = E Q (−<br />
0<br />
θ s dB s − 1 2<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
θ s dB s − 1 2<br />
θ 2 sds)<br />
∫ t<br />
θ s ds est un Q mouvement Brownien, et<br />
θ s dB s − 1 2<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
θ 2 sds = −<br />
β s ds) exp(<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
0<br />
θ s d ˜B s + 1 2<br />
γ s dB s − 1 2<br />
∫ t<br />
0<br />
θ 2 sds)<br />
∫ t<br />
0<br />
θ 2 sds ,<br />
γ 2 s ds), d’où Γ t exp(−<br />
∫ t<br />
0<br />
β s ds) est<br />
une martingale. L’écriture dΓ t = Γ t γ t (dB t + β t<br />
γ t<br />
dt) montre que sous Q défini par dQ = L t dP, avec<br />
β t<br />
dL t = L t dB t , le processus<br />
γ ˜B t défini par d ˜B t = dB t + β t<br />
dt est un mouvement Brownien.<br />
t γ t<br />
Le processus Γ vérifiant dΓ t = Γ t γ t d ˜B t est une Q-martingale locale. On obtient facilement d(Γ −1<br />
t ) =<br />
−Γ −1<br />
t<br />
γ t (dB t − γ2 t − β t<br />
dt) et le choix de R s’en suit.<br />
γ t<br />
6.2 Crochet<br />
Exercice 6.2.1 : Soit Z = N− < N, M > et L t = exp(M t − 1 2 〈M〉 t). On a d(ZL) = ZdL + LdZ +<br />
d〈Z, L〉 = mart + d〈Z, L〉 − Ld〈M, N〉 = mart<br />
Exercice 6.2.2 : On vérifie que Z t = h(X t )M t −<br />
135<br />
∫ t<br />
0<br />
h ′ (X s )<br />
d〈M, X〉 est une P-martingale.<br />
h(X s )
136 Girsanov.<br />
6.3 Processus<br />
Exercice 6.3.4 :<br />
1. La question 1 a déja été traitée dans l’exercice .<br />
2. On se place dans le cas d’un Brownien issu de a. Soit<br />
dP b = exp{−b<br />
∫ T<br />
0<br />
B s dB s − b2 2<br />
∫ T<br />
0<br />
B 2 s ds}dP .<br />
En posant θ s = −bB s et en appliquant Girsanov, on montre que sous P b le processus B t +<br />
b ∫ t<br />
0 B s ds est un brownien issu de a que l’on note W t . L’égalité<br />
B t = −<br />
∫ t<br />
0<br />
bB s ds + W t<br />
qui s’écrit dB t = −bB t dt + dW t montre que le processus (B t , t ≥ 0) est un processus<br />
d’Ornstein-Uhlenbeck sous P b . D’où B t est une variable gaussienne sous P b , d’espérance ae −bt<br />
et de variance 1 − e−2tb<br />
.<br />
2b<br />
Soit x = a 2 . En utilisant que, sur F t ,<br />
dP = exp{b<br />
∫ t<br />
on a, pour tout Z, F t -mesurable P-intégrable,<br />
0<br />
B s dB s + b2 2<br />
∫ t<br />
0<br />
B 2 s ds}dP b<br />
d’où<br />
E P (Z) = E b (Z exp{b<br />
E P (exp{−αB 2 t − b2 2<br />
La formule d’Itô montre que<br />
(sous P et sous P b ).<br />
On obtient, en posant x = a 2<br />
E P (exp{−αB 2 t − b2 2<br />
∫ t<br />
0<br />
∫ t<br />
∫ t<br />
0<br />
0<br />
∫ T<br />
0<br />
B s dB s + b2 2<br />
∫ T<br />
B 2 s ds}) = E b (exp{−αB 2 t + b<br />
B s dB s = 1 2 (B2 t − a 2 − t)<br />
0<br />
B 2 s ds})<br />
∫ t<br />
0<br />
B s dB s })<br />
B 2 s ds}) = E b (exp{−αB 2 t + b 2 (B2 t − x − t)})<br />
Sous P b , B t est une gaussienne. On applique le résultat de la question 1 et on trouve (calculs)<br />
E P (exp{−αB 2 t − b2 2<br />
∫ t<br />
On note Φ(α, b) l’expression de droite.<br />
0<br />
B 2 s ds}) = (cosh bt + 2 α b sinh bt)− 1 2 exp[−<br />
xb<br />
2<br />
1 + 2α b<br />
coth bt<br />
coth bt + 2α ]<br />
b<br />
Exercice 6.3.3 : Soit dX t = −λX t dt + dB t un processus d’Ornstein-Uhlenbeck. Sous P λ , X est<br />
un Brownien car X t = −λ<br />
∫ t<br />
0<br />
E P (exp − b2 2<br />
X s ds + B t . On a<br />
∫ T<br />
0<br />
X 2 s ds) = E Pλ (L −1<br />
T exp −b2 2<br />
∫ T<br />
0<br />
X 2 s ds)
Corrigés. 2009-10 137<br />
(On comparera cet exercice au précédent)<br />
(<br />
∫ T<br />
∫ T<br />
= E Pλ<br />
(exp −λ X s dX s − λ2<br />
Xs 2 ds − b2<br />
0<br />
2 0 2 0<br />
(<br />
= E Pλ<br />
(exp − λ 2 (X2 T − T ) − λ2 + b 2 ∫ ))<br />
T<br />
Xs 2 ds<br />
2 0<br />
(<br />
= exp λT )<br />
Φ( λ 2 2 , √ λ 2 + b 2 )<br />
∫ T<br />
X 2 s ds<br />
))<br />
Exercice 6.3.5 : Soit S solution de<br />
S t = S 0 exp(µt + σB t − σ2<br />
2 t).<br />
dS t = S t (µ dt + σ dB t ) , S 0 = s .<br />
1. Soit dQ = L t dP avec L t = exp(θB t − 1 2 θ2 t). Le théorème de Girsanov montre que W est un<br />
Q-mouvement Brownien.<br />
2. Soit d˜P = Z t dQ avec Z t = exp(σW t − σ2<br />
2 t)<br />
Le théorème de Girsanov montre que ( ˜B t = W t − σt, t ≥ 0) est un ˜P-mouvement brownien.<br />
On a alors<br />
dS t = S t ((r + σ 2 ) dt + σ d ˜B t )<br />
3. Soit P t = P 0 e rt . Le processus (Y t = S t<br />
, t ≥ 0) est une Q-martingale, car Y t = Y 0 exp(σW t −<br />
P t<br />
σ 2<br />
2 t) (ou parce que (Itô) dY t = d(S te −rt )<br />
= Y t dW t .)<br />
P 0<br />
Le processus Z t = P t<br />
est une<br />
S ˜P-martingale car Z t = Z 0 exp(−σ ˜B t − σ2<br />
t 2 t)<br />
( ∫ )<br />
4. Soit F t = e −λt t<br />
0 S u du + sA où A, λ sont des constantes<br />
Soit Ψ t = F t<br />
P t<br />
e λt . On a dΨ t = (1 − rΨ t ) dt − σΨ t d ˜B t<br />
Exercice 6.3.7 : Let Bt<br />
Y = Y t + B t and F be a functional on C([0, t], R). Using the independance<br />
between Y and B, and Cameron-Martin theorem, we get<br />
∫<br />
E[F (Bs Y , s ≤ t)] = E[F (sY + B s , s ≤ t)] = ν(dy)E[F (sy + B s , s ≤ t)] (6.1)<br />
∫<br />
= ν(dy)E[F (B s , s ≤ t) exp(yB t − y2<br />
2 t)] = E[F (B s; s ≤ t)h(B t , y)] (6.2)<br />
∫<br />
where h(x, t) =<br />
= E h (F (X s , s ≤ t)] (6.3)<br />
ν(dy) exp(yx − y2<br />
2 t) and Ph | Ft = h(B t , t)W | Ft . Therefore,<br />
B h t<br />
def<br />
= B t −<br />
∫ t<br />
0<br />
ds h′ x<br />
h (B s, s)<br />
is a P h -martingale, more precisely a P h Brownian motion and B t is solution of<br />
X t = B h t +<br />
∫ t<br />
0<br />
ds h′ x<br />
h (X s, s)
138 Girsanov.<br />
Under P h , B has the same law as B Y under P. Then, B Y t = ˜B h t +<br />
that<br />
where B Y t<br />
= σ(B Y s , s ≤ t). On a<br />
E(Y |B Y t ) = h′ x<br />
h (BY s , s)<br />
∫ t<br />
0<br />
ds h′ x<br />
h (BY t , t). Let us remark<br />
E Q (f(Y )F (Bs Y , s ≤ t)) = E P (e −Y Bt− 1 2 Y 2t F (Bs Y , s ≤ t))<br />
∫<br />
= ν(dy)f(y)E P (e −yB t− 1 2 y2t F (B s + ys, s ≤ t))<br />
=<br />
∫<br />
ν(dy)f(y)E(F (B s , s ≤ t)) = E(F (B s , s ≤ t))E P (f(Y ))<br />
et la loi de Y est la même sous P et sous Q.<br />
Exercice gi:4 : On remarque que e −2B t<br />
− 1 = −2 ∫ t<br />
0 e−2B s<br />
dB s + 2 ∫ t<br />
− 1 4<br />
(<br />
e<br />
−2B t<br />
− 1 ) + 1 2<br />
= 1 2<br />
∫ t<br />
0<br />
∫ t<br />
∫ t<br />
0<br />
e −2B s<br />
dB s − 1 2<br />
(<br />
e −2B s<br />
− 1 )<br />
4 e−4B s<br />
ds<br />
∫ t<br />
0<br />
∫ t<br />
e −2B s<br />
ds + 1 2<br />
∫ t<br />
0<br />
0 e−2B s<br />
ds<br />
(<br />
e −2B s<br />
− 1 )<br />
4 e−4B s<br />
ds<br />
= 1 e −2B s<br />
dB s − 1 e −4B s<br />
ds<br />
2 0<br />
4 0<br />
( ∫ t<br />
et on sait que exp<br />
0 θ ∫<br />
sdB s − 1 t<br />
2<br />
ds)<br />
0 θ2 est une martingale locale. On peut vérifier que la condition<br />
de Novikov est satisfaite Sous Q, le processus ̂B<br />
∫<br />
= B − 1 t<br />
2 0 e−2B s<br />
ds est un MB.<br />
6.4 Cas multidimensionnel<br />
6.5 Temps d’arrêt<br />
Exercice 6.5.1 : Soit dP µ = L t dP où L t = exp(− µ σ B t− µ2<br />
2σ 2 t). Sous P µ, ( ˜B t = B t + µ σ t = X t<br />
σ , t ≥ 0)<br />
est un Brownien et X t = σ ˜B t .<br />
De l’égalité T a = inf{t | ˜B t = a }, on en déduit le résultat qui figure dans le cours en procédant<br />
σ<br />
comme suit:<br />
On a dP = L −1<br />
t dP µ avec<br />
L −1<br />
t = exp( µ σ B t + µ2<br />
2σ 2 t) = exp(µ σ ˜B t − µ2<br />
2σ 2 t)<br />
et pour tout temps d’arrêt T , on a<br />
(<br />
E P (exp(−λ(T ∧ t)) = E Pµ (L T ∧t e −λ(T ∧t) ) = E Pµ exp( µ σ ˜B T ∧t − µ2 + 2λσ 2 )<br />
2σ 2 (T ∧ t))<br />
On en déduit<br />
E P (exp(−λT a ) 1 Ta
Corrigés. 2009-10 139<br />
Exercice 6.5.2 :<br />
and use that<br />
E( 1 T ln a} = inf{t : B t + (λ − 1/2)t > ln a}<br />
Exercice 6.5.3 : Le processus (M t = exp(θ ˜B t − θ2 t<br />
2 ) , t ≥ 0) est une P µ-martingale et si a et θ<br />
sont positifs (M t∧Ta , t ≥ 0) est uniformément intégrable, car majorée par exp(θa). On en déduit<br />
E Pµ (M Ta ) = 1 d’où<br />
E P (e −λTa 1 Ta
140 Compléments<br />
avec Y t = 1 ∫ t<br />
S u du et K = T . Par un changement de probabilité (le processus e −rt S t<br />
S t 0<br />
S 0<br />
Q-martingale positive d’espérance 1), on obtient A = S 0<br />
T Ẽ((Y T − K) + ) avec, sous ˜Q<br />
dY t = (1 − rY t )dt + Y t σd ˜B t .<br />
est une<br />
On peut utiliser que Y t = U t + V t avec U solution de<br />
et V t = y +<br />
∫ t<br />
Exercice 6.6.15 :<br />
0<br />
dU t = −rU t dt − σU t d ˜B t , U 0 = 1<br />
(U s ) −1 ds, ce qui ne nous avance pas beaucoup.<br />
1. On a dr t = σ′ (t)<br />
σ(t) r tdt + σ(t)(dB t + h(t)dt).<br />
2. Une intégration par parties donne le résultat.<br />
3. Une nouvelle intégration par parties donne le résultat<br />
4. Une quantité du type<br />
A = E<br />
(<br />
exp<br />
(<br />
f(T )B T −<br />
∫ T<br />
0<br />
B s g(s)ds<br />
se calcule en recherchant une fonction ϕ telle que ϕ ′ (s) = g(s), ϕ(T ) = g(T ). On peut aussi<br />
remarquer que<br />
∫ T<br />
h(T )B T − B s (h ′ (s) + σ(s))ds<br />
0<br />
est une variable gaussienne centrée dont on identifie la variance.<br />
Exercice 6.6.17 : S t = x + mart + 2(ν + 1)<br />
que E(( 1 T<br />
∫ T<br />
0<br />
∫ t<br />
0<br />
))<br />
S u du. Utiliser que 1 − e−b<br />
b<br />
≥ e −b . On en déduit<br />
exp(2(B s + νs))ds − K) + ) ≥ E((exp 2(B T + νT ) − k) + ) pour k assez petit.<br />
Exercice 6.6.7 Pour évaluer E Q (h(S T )|F t ) dans le cas h(x) = (x α − K) + , on utilise ce qui précède<br />
en écrivant S α T sous la forme x exp((a − b2 2 )t + bB t). IL est facile de vérifier que sous Q ∗ ,<br />
dZ t = −σZ t d ˜B t<br />
et comme ˜B donc − ˜B est un MB, Z a même dynamique sous Q ∗ que S sous Q. Par suite<br />
∀ϕ, E Q (ϕ(S T )) = E Q ∗(ϕ(Z T )) .<br />
Par définition de Q ∗ 1<br />
x E Q(S T f( x2<br />
)) = E Q ∗(f( x2<br />
)) .<br />
S T S T<br />
Par définition de Z,<br />
E Q ∗(S T f( x2<br />
S T<br />
)) = E Q ∗(f(Z T )) = E Q (f(S T )) .<br />
Si S a est une martingale, le même raisonnement conduit à la formule souhaitée. Un peu d’algèbre<br />
permettait décrire x β (x − K) + comme<br />
(x β+1 − K β+1 ) + − K(x β − K β ) + .
Chapter 7<br />
Compléments, Corrigés<br />
7.1 Théorème de Lévy.<br />
Exercice 7.1.1 : Soit S t = sup 0≤s≤t W s et<br />
Grace au théorème de Lévy<br />
D = sup (W s − W t ) = sup<br />
0≤s≤t≤1<br />
0≤t≤1 0≤s≤t<br />
= sup (S t − W t ) loi<br />
= sup |W t |<br />
0≤t≤1<br />
0≤t≤1<br />
sup (W s − W t )<br />
(S t − W t , S t , W t ; θ ≤ t ≤ 1) loi<br />
= (|W t |, L t , L t − |W t |; g ≤ t ≤ 1)<br />
D’où<br />
Thus<br />
W θ , sup (S t − W t − S t )) loi<br />
= L g − |B g |, sup (|W t | − L t ) = (L g , sup (|W t | − L g )<br />
θ≤t≤1<br />
g≤t≤1<br />
g≤t≤1<br />
D 1 = W θ + sup (S t − W t − S t ) loi<br />
= L g + sup |W t | − L g<br />
θ≤t≤1<br />
g≤t≤1<br />
Exercice 7.4.1 : La premiere égalité provient du théorème de Lévy et de la connaissance de la loi<br />
du couple S t , B t ). La seconde égalité en loi provient de la symétrie de la loi du couple. Pour le semi<br />
groupe, on utilise la formule de Lévy et l’indépendance de (B u , u ≤ t) et de ˜B v = B t+v − B t<br />
E(f(S t+s − B t+s , S t+s |F s ) = E(f((S s − B s ) ∨ ˜S t − ˜B t , B s + (S s − B s ) ∨ ˜S t S t+s )|F s )<br />
∫<br />
= µ t (da, dl)f(α ∨ l − (l − a), (λ − α) + α ∨ l)<br />
Les résultats concernant l’indépendance de S t (S t − B t ) et B t sont dus à Seshadri.<br />
7.2 Equations rétrogrades<br />
Exercice 7.2.2 : Il s’agit d’appliquer la formule d’Itô et le théorème de représentation. La propriété<br />
de martingale de X provient de X t = E(e ζ H T |F t ) et le théorème de représentation établit l’existence<br />
141
142 Compléments<br />
de z. Puis, en utilisant la formule d’Itô<br />
d(1/H t ) = − 1<br />
Ht<br />
2 dH t + 1<br />
Ht<br />
3 d〈H〉 t = 1 [(r + θ 2 )dt + θdW t )]<br />
H t<br />
d(Z t /H t ) = Z t<br />
[(r + θ 2 )dt + θdW t ) + H t z t dW t + z t<br />
θdt<br />
H t H t<br />
dX t = ( z t<br />
H t<br />
+ θ)dW t +<br />
= ̂X t dW t + (r + θ ̂X t − 1 2 ̂X 2 t )dt<br />
(<br />
(r + θ 2 ) + z t<br />
H t<br />
θ − 1 2 ( z t<br />
H t<br />
+ θ) 2 )<br />
dt<br />
7.3 Théorèmes de représentation<br />
Exercice 7.3.1 : On utilisera le théorème de représentation prévisible pour représenter W (1)<br />
t , W (2)<br />
t<br />
en terme de W (3) . Si l’égalité était possible, on aurait W (i)<br />
E(W (1)<br />
t W (2)<br />
t ) = E(<br />
∫ t<br />
0<br />
Φ (1)<br />
t Φ (2)<br />
t dt) = 0.<br />
∫ t<br />
t =<br />
0<br />
Φ (i)<br />
t dW t avec<br />
∫ t<br />
0<br />
E[Φ (i)<br />
t ] 2 dt = t et<br />
Exercice 7.3.2 : M est une intégrale stochastique, l’intégrand est borné donc de carré intégrable,<br />
M est une martingale.<br />
Par propriété de l’intégrale stochastique<br />
[∫ t<br />
] 2 ∫ t<br />
1 Ws>0dW s − ( 1 Ws>0) 2 ds<br />
0<br />
est une martingale. Une autre méthode consiste à appliquer la formule d’Itô à Yt 2 avec Y t =<br />
∫ t<br />
0<br />
1 Ws >0dW s . Le processus A t =<br />
∫ t<br />
def<br />
Le processus M Ct est une G t = F Ct martingale et<br />
est une martingale.<br />
0<br />
0<br />
1 Ws >0ds est un processus croissant.<br />
MC 2 t<br />
− A Ct = MC 2 t<br />
− t<br />
7.4 Temps local.<br />
Exercice 7.4.2 : On ne peut pas appliquer Itô car x → |x| n’est pas de classe C 2 . Un calcul fait<br />
en pensant qu’un point ne compte pas et que l’on peut négliger le point oú la dérivée n’existe pas<br />
conduirait à (la dérivée de |x| est égale à sgn sauf en 0 et la dérivé seconde est nulle sauf en 0)<br />
|B t | =<br />
∫ t<br />
0<br />
sgn(B s )dB s et l’intégrale du membre de droite n’est pas positive (nous verrons plus loin<br />
que c’est un mouvement Brownien).<br />
Le processus β est une martingale de crochet<br />
u ≥ t<br />
∫ t<br />
0<br />
f 2 (B s )ds = t, c’est un MB. Il est évident que pour<br />
S u = sup W s ≥ S t = sup W s<br />
s≤u<br />
s≤t<br />
La première décomposition exprime que |W t | est égal à un MB plus un processus croissant, la seconde<br />
décomposition dit que S t − W t a la même propriété. On peut montrer, grace au lemme de<br />
Skohorod (voir poly) que (S t − W t , t ≥ 0) loi<br />
= (|W t |, t ≥ 0) et que (L t , t ≥ 0) loi<br />
= (S t , t ≥ 0).
Corrigés. 2009-10 143<br />
Exercice 7.4.3 : |B s | + L s ≥ L t = L dt for s ≥ t, and |B dt | + L dt = L dt .<br />
Exercice 7.4.4 : (θ ≤ u) = sup s≥u B s ≤ sup s≤u B s = sup 1≥s≥u (B s − B u ) + B u ≤ sup s≤u B s d’où<br />
P(θ ≤ u) = P(Ŝ1−u ≤ S u − B u ) On trouve finalement que θ a une loi Arc Sinus.<br />
Exercice 7.4.5 : On utilise la formule d’Itô<br />
dY t = f ′ x(X t , S t , 〈X〉 t )dX t + f ′ s(X t , S t , 〈X〉 t )dS t + (f ′ t + 1 2 f ′′<br />
xx)(X t , S t , 〈X〉 t )d〈X〉 t<br />
Or f s(X ′ t , S t , 〈X〉 t ) = f s(S ′ t , S t , 〈X〉 t ) dS t presque surement. Si 1 2 f xx ′′ + f t ′ = 0 et f s(s, ′ s, t) = 0, Y<br />
est une martingale locale.<br />
g(S t ) − (S t − X t )g ′ (S t ) = g(S t ) −<br />
=<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
g ′ (S s )dX s<br />
g ′ (S s )dS s +<br />
∫ t<br />
0<br />
g ′ (S s )dX s +<br />
∫ t<br />
0<br />
(S s − X s )g ′′ (S s )dS s<br />
Exercice 7.4.6 : On utilise le scaling du MB pour écrire<br />
∫ λ 2 t<br />
∫ t<br />
∫<br />
f(B s )ds loi<br />
= λ 2 f(λB u )du = λ 2<br />
0<br />
0<br />
da f(λa)L a t<br />
Exercice 7.4.8 : From the occupation formula and change of time<br />
∫ 〈M〉t<br />
∫<br />
duf(β u ) = dyf(y)L y 〈M〉 t<br />
(β).<br />
0<br />
7.5 Lois<br />
Exercice 7.5.1 : Soit Y t = f(X t ). On en déduit<br />
Le résultat souhaité en découle.<br />
∫ t<br />
0<br />
d〈M〉 s f(M s ) =<br />
X t<br />
dY t =<br />
b(X t ) dX t + 1 ( 1<br />
2 b(X t ) − X tb ′ (X t )) b 2<br />
b 2 (X t )dt<br />
(X t )<br />
(a(X t )<br />
= X t<br />
b(X t ) dt + dW ) 1( t + b(Xt ) − X t b ′ (X t ) ) dt<br />
2<br />
f(X t ) − f(X 0 ) −<br />
∫ t<br />
0<br />
[ a(X s )<br />
Xs<br />
b(X s ) + 1 (<br />
b(Xs ) − X s b ′ (X s ) )] ∫ t<br />
ds =<br />
2<br />
0<br />
X s dW s<br />
∫ t<br />
0<br />
d〈M〉 s f(β 〈M〉s ) =<br />
Exercice 7.5.2 : Let V be a standard Brownian motion starting at v, that is, V t = v + W t . In this<br />
case, the two events { τ a (V ) ≤ t} and { sup s≤t W s ≥ α}, where α = a − v are equal. The reflection<br />
principle implies that the r.v. sup s≤t W s is equal in law to the r.v. ‖W t ‖. Therefore,<br />
P(τ α (W ) ≤ t) = P(sup W s ≥ α) = P(‖W t ‖ ≥ α) = P(Wt 2 ≥ α 2 ) = P(tG 2 ≥ α 2 )<br />
s≤t<br />
where G is a Gaussian variable, with mean 0 and variance 1. It follows that τ α (W ) loi<br />
, and the<br />
G2 probability density function of τ a (V ) is<br />
f(t) = a − v √<br />
2πt<br />
3 exp (<br />
−<br />
(v −<br />
)<br />
a)2<br />
.<br />
2t<br />
= α2
144 Compléments<br />
The computation of<br />
E ( 1 {T a. On admettra que M est uniformément intégrable.<br />
a = E[M Ty ] = yP(T y < ∞) = yP(sup M t ≥ y)<br />
Soit a y = P(sup M t ≥ y) = P( a y ≥ U) = P( a U ≥ y).<br />
7.6 Filtrations<br />
Exercice 7.6.2 : M t = E(W t |H t ) est un processus H-adapté. Pour montrer que c’est une H-<br />
martingale, il suffit d’écrire la suite d’égalités suivantes, pour t ≥ s<br />
E(M t |H s ) = E(W t |H t |H s ) = E(W t |H s )<br />
= E(W t |G s |H s ) = E(W s |H s )<br />
Pour montrer que Z est une F X -martingale, on écrit (en justifiant chaque égalité, ce que je ne fais<br />
pas)<br />
E(Z t |F X s ) = E(X t |F X s ) − E(<br />
= E(W t +<br />
∫ t<br />
= E(W t |F X s ) + E(<br />
= E(W s |F X s ) + E(<br />
0<br />
= E(X s |F X s ) +<br />
= X s +<br />
= X s −<br />
∫ t<br />
s<br />
∫ s<br />
0<br />
∫ t<br />
0<br />
Ŷ u du|F X s )<br />
Y u du|F X s ) − E(<br />
∫ s<br />
0<br />
∫ s<br />
0<br />
∫ t<br />
s<br />
Ŷ u du −<br />
Ŷ u du)<br />
∫ t<br />
0<br />
Y u du|F X s ) + E(<br />
Y u du|F X s ) + E(<br />
E(Y u |F X s )du −<br />
∫ s<br />
0<br />
Ŷ u du|F X s )<br />
∫ t<br />
s<br />
∫ t<br />
s<br />
∫ s<br />
0<br />
E(Ŷu|F X s )du − E(<br />
Y u du|F X s ) −<br />
Y u du|F X s ) −<br />
Ŷ u du − E(<br />
on a utilisé que E(W t |F X s ) = E(W s |F X s ) et que, pour u > s<br />
∫ t<br />
s<br />
∫ t<br />
s<br />
Ŷ u du|F X s )<br />
E(Y u |F X s ) = E(Y u |F X u |F X s ) = E(Ŷu|F X s )<br />
∫ s<br />
0<br />
∫ s<br />
0<br />
Ŷ u du|F X s )<br />
Ŷ u du − E(<br />
Ŷ u du − E(<br />
∫ t<br />
s<br />
∫ t<br />
s<br />
Ŷ u du|F X s )<br />
Ŷ u du|F X s )<br />
7.7 Options barrières<br />
∫<br />
Exercice 7.7.1 : Soit Φ t (x) = P(B t < x) = √ 1 x u2<br />
2πt<br />
exp(−<br />
−∞ 2t )du. on a Φ t(x) = 1 − Φ t (−x) d’où,<br />
P(B t < x) = P(B t > −x).
Corrigés. 2009-10 145<br />
Soit T = inf{t ≥ 0|B t = y}. Par définition P(B t ≤ x, M t > y) = P(T < t, Bt−T<br />
∗ < x − y). Si<br />
M t > y, c’est que l’on a dépassé y avant t: Si M t > y, on a T < t. De plus Bt−T ∗ = B t −B T = B t −y.<br />
Par indépendance, P(T < t, Bt−T ∗ < x − y) = ∫ t<br />
0 P(T ∈ du , B∗ t−u < x − y) = ∫ t<br />
0 P(T ∈ du)P(B∗ t−u <<br />
x − y). D’après 1, P(Bt−u ∗ < x − y) = P(Bt−u ∗ > −x + y), d’où<br />
∫ t<br />
et par indépendance<br />
∫ t<br />
0<br />
0<br />
P(T ∈ du)P(B ∗ t−u < x − y) =<br />
P(T ∈ du)P(B ∗ t−u > y − x) =<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
P(T ∈ du)P(B ∗ t−u > y − x)<br />
P(T ∈ du, B ∗ t−u > y − x) = P(T < t, B t > 2y − x)<br />
En tenant compte du fait que si B t > 2y − x et y > x , alors B t > y, donc T < t on en déduit<br />
P(T < t, B t > 2y − x) = P(B t > 2y − x) d’où<br />
P(B t ≤ x, M t > y) = P(B t > 2y − x)<br />
En utilisant<br />
on obtient<br />
P(B t ≤ x, M t < y) = P(B t ≤ x) − P(B t ≤ x, M t > y)<br />
P(B t ≤ x, M t < y) = N ( x √<br />
t<br />
) − N ( x − 2y √<br />
t<br />
)<br />
3. La loi de T s’obtient en écrivant P(T < t) = P(M t < y) et la densité du couple (B t , M t ) en<br />
dérivant P(B t ≤ x, M t < y).<br />
4. Soit X t = µt + B t , Y t = sup (X s , 0 ≤ s ≤ t}. Soit dQ = ζdP avec ζ = exp(−µX t + 1 2 µ2 t). En<br />
utilisant le théorème de Girsanov, on a<br />
P(X t < x, Y t < y) = E Q (exp(µX t − 1 2 µ2 t) 1 Xt
146 Compléments<br />
where Ṽ is a Brownian motion independent of τ a(V ).<br />
For t < 1, the set {g ≤ t} is equal to {d t > 1}.<br />
d a t (W ) = t + inf {u ≥ 0 : W u+t − W t = a − W t } = t + ̂τ a−Wt<br />
( a<br />
2 ) ( ‖a‖<br />
P<br />
G 2 > 1 − t = Φ √<br />
). 1 − t<br />
loi<br />
= t + (a − W t) 2<br />
G 2 .<br />
Then, the Itô-Tanaka formula combined with the identity xΦ ′ (x) + Φ ′′ (x) = 0 lead to<br />
( ) ∫ |Wt |<br />
t<br />
( ) ( )<br />
P(g ≤ t|F t ) = Φ √ = Φ ′ |Ws | |Ws |<br />
√ d √ + 1 ∫ t<br />
1 − t 1 − s 1 − s 2<br />
=<br />
=<br />
0<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
Φ ′ ( |Ws |<br />
√ 1 − s<br />
) sgn(Ws )<br />
√ 1 − s<br />
dW s +<br />
Φ ′ ( |Ws |<br />
√ 1 − s<br />
) sgn(Ws )<br />
√ 1 − s<br />
dW s +<br />
Exercice 7.4.7 : The occupation time formula leads to<br />
E<br />
∫ Ta (X)<br />
0<br />
f(X s ) ds =<br />
∫ a<br />
−∞<br />
It remains to compute φ(x) = E[L x T a<br />
]. Tanaka’s formula reads<br />
∫ Ta<br />
(X Ta − x) + = (−x) + +<br />
(a − x) + = (−x) + +<br />
Then, taking expectation of both sides<br />
Therefore, if φ(x) = E[̷L x T a<br />
]<br />
which gives<br />
0<br />
∫ Ta<br />
f(x)E[L x T a<br />
]dx<br />
1 (Xs >x)dX s + 1 2 Lx T a<br />
1<br />
2 E[̷Lx T a<br />
] = (a − x) + − (−x) + − νE[<br />
= (a − x) + − (−x) + − νE[<br />
1<br />
2 φ(x) = (a − x)+ − (−x) + − ν<br />
⎧<br />
⎪⎨<br />
φ(x) =<br />
⎪⎩<br />
Exercice 7.8.2 : Il suffit d’écrire<br />
1<br />
(1 − exp(2ν(x − a))<br />
ν for<br />
0<br />
0<br />
∫ t<br />
0<br />
√<br />
2<br />
π<br />
( )<br />
ds |Ws |<br />
1 − s Φ′′ √ 1 − s<br />
( )<br />
dL<br />
√ s<br />
Φ ′ |Ws |<br />
√ 1 − s 1 − s<br />
∫ t<br />
1 (Xs>x)(dW s + νds) + 1 2 Lx T a<br />
∫ a<br />
x<br />
∫ Ta<br />
0<br />
∫ a<br />
x<br />
1 (Xs >x)ds]<br />
L y T a<br />
dy]<br />
φ(y)dy, φ(a) = 0<br />
0 ≤ x ≤ a<br />
1<br />
(1 − exp(−2νa)) exp(2νx) for x ≤ 0<br />
ν<br />
B t = m 1<br />
√ t − gt (sgneB t )<br />
0<br />
dL s<br />
√ 1 − s<br />
.<br />
√<br />
On a alors E(B t |F gt ) = E(m 1 t − gt (sgneB t )F gt ) = √ t − g t (sgneB t )E(m 1 ) = √ √ π<br />
t − g t (sgneB t )<br />
2<br />
On note µ t = √ t − g t (sgneB t ), c’est une martingale. Des calculs analogues conduisent à<br />
E(B 2 t − t|F gt ) = E(m 2 1)µ 2 t − t
Corrigés. 2009-10 147<br />
avec h(x) = E(e xm1 ).<br />
E(e αB t− α2<br />
2 t |F gt ) = h(αµ t )e − α2<br />
2
148 Sauts.
Chapter 8<br />
Sauts, Corrigés.<br />
8.1 Processus de Poisson<br />
Exercice 8.4.1 : Il suffit d’utiliser l’Exercice 1.4.9.<br />
Exercice 8.1.3 : La Propiéé d’accroissements indépendants du processus de POisson conduit à<br />
E(N t − N s |F s ∧ σ(N 1 )) = E(N t − N s |(N s − N 1 ))<br />
Il est bien connu (ou tout au moins facile de vérifier ) que si X et Y sont deux variables de Poisson,<br />
indépendantes, de paramètre µ et ν<br />
( )<br />
n<br />
P(X = k|X + Y = n) = α k (1 − α) n−k<br />
k<br />
avec α = µ . On en déduit<br />
µ + ν<br />
E(N t − N s |F s ∧ σ(N 1 )) = t − s<br />
1 − s (N 1 − N s )<br />
La vérification de la propriété de martingale est alors facile.<br />
Exercice 8.1.4 : Si N est un processus de Poisson, P(N t = n) = e −λt λn t n<br />
ψ(z, t) = e −λt e −λtz<br />
n!<br />
d’où<br />
Si N un processus à accroissements indépendants tel que N t+s − N t<br />
loi<br />
= N s<br />
On en déduit<br />
ψ(z, t + s) =<br />
∞∑<br />
z n P(N t+s = n) = E(z N t+s<br />
) = E(z N t+s−N t +N t<br />
)<br />
n=0<br />
= E(z Nt+s−Nt )E(z Nt ) = E(z Ns )E(z Nt ) = ψ(z, t)ψ(z, s)<br />
ψ(z, t + h) − ψ(z, t) = ψ(z, t)[ψ(z, h) − 1]<br />
ce qui conduit à une EDO en utilisant les propriétés de ψ données dans l’énoncé. En tenant compte<br />
de ψ(z, 0) = 1, on montre que ψ(z, t) = e −λt e −λtz , ce qui caractérise le processus de Poisson (cette<br />
égalité caractérise la loi de N t , ce qui avec N un processus à accroissements indépendants tel que<br />
loi<br />
N t+s − N t = N s caractérise le processus de Poisson.)<br />
149
150 Sauts.<br />
Exercice 8.2.1 : Le processus de Poisson composé est un processus à accroissements indépendants,<br />
donc pour s < t<br />
E(Y t − Y s |F s ) = E(Y t − Y s ) = E(X t − X s ) − µλ(t − s) = 0<br />
On peut le démontrer à la main:<br />
avec<br />
E(X t − X s |F s ) = E(<br />
i=n+1<br />
∑N t<br />
i=N s+1<br />
N t −N<br />
∑ s +N s<br />
Y i |F s ) = E( Y i |F s ) = Ψ(N s )<br />
i=N s+1<br />
n+N<br />
∑ t−s<br />
Ψ(n) = E( Y i ) = ∑ P(N t−s = k)E(<br />
n+k<br />
∑<br />
i=n+1<br />
= ∑ P(N t−s = k)kE(Y 1 ) = E(Y 1 )E(N t−s ) = E(Y 1 )λ(t − s)<br />
Y i )<br />
Exercice 8.2.2 :<br />
Si X et ˜X sont deux solutions,<br />
Z t<br />
def<br />
= X t − ˜X t = −c<br />
∫ t<br />
0<br />
(X s − ˜X s )ds = −c<br />
et Z est solution de l’équation différentielle ordinaire Z t ′ = −cZ t avec condition initiale nulle. Donc<br />
Z = 0.<br />
Soit X t = e −ct x +<br />
∫ t<br />
0<br />
e −c(t−s) dN s . On calcule<br />
∫ t<br />
0<br />
X s ds =<br />
∫ t<br />
0<br />
e −cs xds +<br />
∫ t<br />
0<br />
ds<br />
∫ s<br />
0<br />
∫ t<br />
0<br />
Z s ds<br />
e −c(s−u) dN u .<br />
L’intégrale double se calcule en employant Fubini (pour des intégrales de Stieltjes)<br />
∫ t<br />
0<br />
ds<br />
∫ s<br />
0<br />
e −c(s−u) dN u =<br />
∫ t<br />
0<br />
= 1 c (N t −<br />
En utilisant que M et Y sont des martingales<br />
∫ t<br />
dN u dse −c(s−u) = 1 c<br />
u<br />
∫ t<br />
0<br />
e −c(t−s) dN s ) .<br />
∫ t<br />
0<br />
dN u (1 − e −c(t−u) )<br />
E(M t Y t |F s ) = E(M t (Y t − Y s )|F s ) + M s Y s = E((M t − M s )(Y t − Y s )|F s ) + M s Y s<br />
Le calcul de E((M t −M s )(Y t −Y s )|F s ) se fait comme le précédent. Exercice 8.1.5 :<br />
par parties, d(tN t ) = N t dt + tdN t D’ou<br />
Par intégration<br />
∫ t<br />
N s ds = tN t −<br />
∫ t<br />
sdN s =<br />
∫ t<br />
0<br />
0<br />
0<br />
(t − s)dN s<br />
Pour calculer la TL, il suffit d utiliser que pour toute fonction h (ici, pour t fixé h(s) = −λ(t − s))<br />
si c est l’intensité de N<br />
E(exp(<br />
∫ t<br />
8.2 Poisson composé<br />
h(s)dN s ) = exp(−c<br />
∫ t<br />
0<br />
0<br />
(1 − e h(s) )ds)<br />
Exercice 8.2.3 :<br />
Par indépendance des Y k , on obtient<br />
n∑<br />
m∑<br />
E(λ Y k + µ Y k )) = E(λY 1 ) n E(µY 1 ) m<br />
k=1 k=n+1
Corrigés. 2009-10 151<br />
Le caractère PAIS de N s’obtient à partir de<br />
E(λX s + µ(X t − X s )) = E(ψ(λ, N s )ψ(µ, N t − N s )) = E(ψ(λ, N s ))E(ψ(µ, N t−s ))<br />
où ψ(λ, n) = E(λY 1 ) n . Le processus N est indépendant des (Y k , k ≥ 1) et la v.a. N t a une loi de<br />
Poisson : il s’en suit que<br />
P(X t ≤ x) = ∑ n<br />
= ∑ n<br />
= e −λt ∑ n<br />
P(N t = n,<br />
n∑<br />
Y k ≤ x)<br />
k=1<br />
P(N t = n)P(<br />
n∑<br />
Y k ≤ x)<br />
k=1<br />
(λt) n<br />
F ∗ (x) ,<br />
n!<br />
et<br />
∞∑ n∑<br />
∞∑<br />
E(X t ) = E( Y k 1 Nt =n) = nE(Y )P(N t = n)<br />
n=1<br />
= E(Y )<br />
k=1<br />
n=1<br />
∞∑<br />
nP(N t = n) = λtE(Y 1 ) .<br />
n=1<br />
Le calcul de la variance peut être obtenu avec les m ˆmes arguments, mais il est plus facile d’utiliser<br />
que le moment d’ordre deux est obtenu par dérivation (d’ordre deux) de la transformée de Laplace<br />
de X t Exercice 8.2.4 : Le processus X étant un PAI et E(X t ) = λtE(Y 1 ) on obtient que<br />
(X t − tλE(Y ), t ≥ 0) est une martingale. Plus généralement, si f une fonction borélienne bornée, on<br />
note µ(f) = ∫ f(x)µ(dx) l’espE(f(Y )). Par définition de M f ,<br />
E(M f t ) = ∑ n<br />
E(f(Y n ))P(T n < t) − tλµ(f) = σ(f) ∑ n<br />
P(T n < t) − tλµ(f) = 0<br />
La fin de la preuve est standard et utilise le calcul suivant, pour s > 0<br />
⎛<br />
⎞<br />
E(M f t+s − M f t |F t ) = E ⎝<br />
∑<br />
f(∆X u ) 1 ∆Xu ≠0 − sλµ(f)|F t<br />
⎠ = 0 .<br />
Pour la réciproque, on écrit<br />
où f(x) = e iux − 1. Il en résulte<br />
t
152 Sauts.<br />
Exercice 8.2.6 : From the independence between the r.v. (Y k , k ≥ 1) and the process N,<br />
where Φ(n) = E<br />
(<br />
exp (−α<br />
(<br />
)<br />
∑N t<br />
E(e −αX t<br />
) = E exp (−α Y k ) = E(Φ(N t ))<br />
k=1<br />
)<br />
n∑<br />
Y k ) = [Ψ Y (α)] n , with Ψ Y (α) = E (exp −αY ). Now, E(Φ(N t )) =<br />
k=1<br />
∑<br />
[Ψ Y (α)] n e −λt λn t n<br />
. Exercice 8.4.1 : Appliquer la formule d’intégration par parties à V t exp −<br />
n!<br />
n<br />
∫ t<br />
0<br />
∫<br />
( u<br />
du h u λ u exp − λ s ds ) = U t et à U t (1 − 1 τ≤t ).<br />
0<br />
8.3 Marché complets, incomplets<br />
Exercice 8.5.1 : We shall now restrict our attention to the simple case of a complete market where<br />
dS t = S t− [µdt + φdM t ]<br />
and r = 0. Here, M is the compensated martingale associated with a poisson process with deterministic<br />
intensity.<br />
The non-arbitrage condition is equivalent to the existence of γ such that γ > −1 and µ+λφγ = 0.<br />
This implies that λφ − µ > 0.<br />
λφ<br />
The unique equivalent martingale measure Q is defined by dQ<br />
dP | F t<br />
= L t where L is the strictly<br />
positive martingale<br />
( ) Nt<br />
λφ − µ<br />
L t =<br />
exp(tµ/φ)<br />
λφ<br />
µ<br />
which satisfies dL t = −L t−<br />
λφ dM t.<br />
Under the measure Q, ˜Mt<br />
def<br />
= M t + tµ/φ is a martingale.<br />
Exercice 8.5.2 : Les m.m.e. sont définies par leur densité L vérifiant<br />
avec<br />
dL t = L t− (−ψ t dB t + γ t dM t )<br />
σψ(t) = b − r + λφγ(t) , dP ⊗ dt.p.s.<br />
Elles sont indexées par un processus γ > −1. Sous P γ , le processus B γ défini par<br />
∫ t<br />
0<br />
λ s ds +<br />
B γ t<br />
def<br />
= B t −<br />
∫ t<br />
0<br />
ψ(s) ds<br />
est un mouvement Brownien M γ t<br />
On utilisera<br />
avec θ = b − r<br />
σ .<br />
def<br />
= M t −<br />
B γ (t) = B(t) + tθ +<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
λγ(s)ds est une martingale.<br />
λφ γ(s)<br />
σ ds = B0 t +<br />
∫ t<br />
0<br />
λφ γ(s)<br />
σ<br />
ds