11.07.2015 Views

EXERCICES DE CALCUL STOCHASTIQUE DESS IM Evry, option ...

EXERCICES DE CALCUL STOCHASTIQUE DESS IM Evry, option ...

EXERCICES DE CALCUL STOCHASTIQUE DESS IM Evry, option ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>EXERCICES</strong> <strong>DE</strong> <strong>CALCUL</strong> <strong>STOCHASTIQUE</strong><strong>DE</strong>SS <strong>IM</strong> <strong>Evry</strong>, <strong>option</strong> financeMonique JeanblancUniversité d’EVRYOctobre 2005


Contents1 Rappels 71.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 91.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.7 Algèbre béta-Gamma . . . . . . . . . . . . . . . . . . . . . . . . . 151.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Mouvement Brownien 172.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . 172.2 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . 202.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . 212.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.8 Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.8.1 Partie I : Résultats préliminaires . . . . . . . . . . . . . 292.8.2 Partie II . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.8.3 Partie III . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 Intégrale d’Itô 333.1 Intégrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . 333.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 393.4 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.5 Brownien géométrique et extensions. . . . . . . . . . . . . . . . . 423.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443


4 CONTENTS4 Equations différentielles stochastiques 494.1 Equation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544.3 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . 565 Exemples 595.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 595.2 Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . 615.3 Autres processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.4 Des calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 646 Girsanov 676.1 Résultats élémentaires. . . . . . . . . . . . . . . . . . . . . . . . . 676.2 Crochet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.3 Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.4 Cas multidimensionel . . . . . . . . . . . . . . . . . . . . . . . . . 756.5 Temps d’arrêt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 766.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 787 Compléments 877.1 Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . 877.2 Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . 887.3 Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . 927.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 927.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 937.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 947.7 Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . 957.8 Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . 967.9 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 968 Processus à sauts 998.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 998.2 Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . 1018.3 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1028.4 Défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1038.5 Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . 1031 Rappels, Corrigés 1071.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1071.2 Variables gaussiennes. . . . . . . . . . . . . . . . . . . . . . . . . 1081.3 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 1111.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1131.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1141.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1151.7 Algèbre béta-gamma . . . . . . . . . . . . . . . . . . . . . . . . . 1151.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115


CONTENTS 52 Mouvement Brownien, Corrigés 1172.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . 1172.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . 1212.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . 1242.4 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . 1252.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1272.6 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1272.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1293 Intégrale d’Itô, Corrigés 1313.1 Intégrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . 1313.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1323.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 1373.4 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1383.5 Brownien géométrique et extensions . . . . . . . . . . . . . . . . 1393.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1423.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1424 Equations différentielles stochastiques, Corrigés 1454.1 Equation Linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 1454.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1494.3 Equations différentielles . . . . . . . . . . . . . . . . . . . . . . . 1515 Exemples, Corrigés 1535.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 1535.2 Processus de Bessel carré . . . . . . . . . . . . . . . . . . . . . . 1555.3 Autres processus . . . . . . . . . . . . . . . . . . . . . . . . . . . 1555.4 Des Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1566 Girsanov, Corrigés 1596.1 Résultats élémentaires . . . . . . . . . . . . . . . . . . . . . . . . 1596.2 Crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1606.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1606.4 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 1636.5 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1636.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1657 Compléments, Corrigés 1677.1 Théorème de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . 1677.2 Equations rétrogrades . . . . . . . . . . . . . . . . . . . . . . . . 1687.3 Théorèmes de représentation . . . . . . . . . . . . . . . . . . . . 1687.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1687.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1707.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1707.7 Options barrières . . . . . . . . . . . . . . . . . . . . . . . . . . . 1717.8 Méandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . 172


6 Rappels8 Sauts, Corrigés. 1758.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 1758.2 Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . . . 1778.3 Marché complets, incomplets . . . . . . . . . . . . . . . . . . . . 178


Chapter 1Rappels1.1 TribuExercice 1.1.1 Ensembles appartenant à une tribu.1. Montrer que si F est une tribu, et si A et B appartiennent à F avecA ⊂ B, alors B − A ∈ F où B − A est l’ensemble des éléments de B quine sont pas dans A.2. Montrer que 1 B−A = 1 B − 1 A .3. Montrer que si C et D appartiennent à F, alors C∆D def= {C ∩ D c } ∪{C c ∩ D} aussi.Exercice 1.1.2 Exemples de tribus.1. Décrire la tribu engendrée par un ensemble A.2. Décrire la tribu engendrée par deux ensembles A et B disjoints.Exercice 1.1.3 Fonctions indicatrices.On note 1 A la v.a. qui vaut 1 pour ω ∈ A et 0 sinon.1. Montrer que 1 A∩B = 1 A 1 B .2. Montrer que, si A ∩ B = ∅, on a 1 A∪B = 1 A + 1 B .3. Montrer que 1 A∪B = 1 A + 1 B − 1 A∩B .Exercice 1.1.4 Union et intersection.Soit F 1 et F 2 deux tribus. Montrer que F 1 ∩ F 2 est une tribu. Montrer qu’engénéral F 1 ∪ F 2 n’est pas une tribu.Exercice 1.1.5 Tribu grossie par un ensemble.(*)Soit F une tribu et A n’appartenant pas à F. Montrer que la tribu engendréepar F et A est composée des ensembles B tels que il existe C et D appartenantà F vérifiant B = (C ∩ A) ∪ (D ∩ A c ).7


8 RappelsExercice 1.1.6 Tribu engendrée par une v.a.(*)Soit X une v.a. sur un espace (Ω, G). La tribu engendrée par X, notée σ(X),est la plus petite sous tribu F telle que X soit mesurable de (Ω, F) dans (IR, B).Elle est engendrée par C = {F ⊂ Ω, |F = X −1 (B), B ∈ B). Montrer que Cest une tribu. Vérifier que si Y = h(X) avec h borélienne, alors Y est σ(X)mesurable. On admettra que la réciproque est vraie.Exercice 1.1.7 Lois de v.a.Soit (X, Y ) un couple de variables indépendantes et (Z, T ) deux variables indépendantestelles que X loi= Z et Y loi= T .1. Comparer E(f(X)) et E(f(Z)).2. Comparer E(X 2 Y ) et E(Z 2 T ).3. Comparer E(f(X)g(Y )) et E(f(Z)g(T )).4. Comparer E(f(X, Y )) et E(f(Z, T )).1.2 Variables gaussiennesExercice 1.2.1 Moments.Soit X une v.a.r. de loi N (0, σ 2 ). Calculer E(X 3 ), E(X 4 ), E(|X|) et E(|X 3 |).Exercice 1.2.2 Moments. Soit X un v.a. normale. Calculer les moments dee X .Exercice 1.2.3 Exponentielles. Soit N une v.a. de loi N (0, 1). CalculerE(exp(aN 2 + bN)). Montrer que E(exp a22 N 2 ) = E(exp aNN ′ ) avec N et N ′i.i.d.Exercice 1.2.4 Somme de variables gaussiennes indépendantes.Soit X et Y deux v.a. gaussiennes indépendantes. Montrer que X + Y est unevariable gaussienne. Précisez sa loi.Exercice 1.2.5 Transformée de Laplace.Soit X une v.a.r. de loi N (m, σ 2 ).1. Quelle est la loi de X−mσ? Calculer E|X − m|.2. Montrer que E(e λX ) = exp(λm + 1 2 λ2 σ 2 ). Calculer E(Xe λX ).∫ x3. Soit Φ(x) = √ 12πe − y2 2−∞dy. Calculer, dans le cas m = 0 et σ = 1 lavaleur de E( 1 X≤b exp λX) en fonction de (Φ, λ, b).4. Calculer E(exp{λX 2 + µX}) pour 1 − 2λσ 2 ≥ 0.


Enoncés. 2005-06 95. Montrer que E(e θX f(X)) = e mθ+σ2 θ 2 /2 E(f(X + θσ 2 ) pour f continuebornée.6. Montrer que, si f est ”régulière” E(f(X)(X − m)) = σ 2 E(f ′ (X)).7. Montrer que si G est une va de loi N (0, 1)E(e aG N (bG + c)) = e a2 /2 N ( c + ab √1 + b2Exercice 1.2.6 Convergence.Soit (X n , n ≥ 1) une suite de v.a. gaussiennes qui converge dans L 2 vers X.Quelle est la loi de X?Exercice 1.2.7 Vecteur gaussien. Soit X un vecteur gaussien à valeurs dansIR n et A une matrice (p, n). Montrer que AX est un vecteur gaussien. Préciserson espérance et sa variance.Exercice 1.2.8 Vecteur Gaussien. Soit (X, Y ) un vecteur gaussien centrétel que E(XY ) = 0. Montrer que X et Y sont indépendantes.Exercice 1.2.9 Projection.(*)Rappel : projection dans L 2 : Soit A un sous espace de L 2 (Ω) engendré par lesvariables aléatoires Y 1 , . . . , Y n , c’est-à-dire si Z ∈ A, il existe (a i ) réels tels queZ = ∑ i a iY i . Soit X ∈ L 2 . On appelle projection de X sur A l’unique élémentP rX de A tel queE( (X − P rX)Z) = 0, ∀Z ∈ ASoit (X 1 , X 2 , . . . , X d , Y 1 , . . . , Y n ) un vecteur gaussien centré dans R d+n .Montrer que X = (X 1 , X 2 , . . . , X d ) et Y = (Y 1 , . . . , Y n ) sont deux vecteursgaussiens centrés.On suppose d = 1. Montrer que P rX est une v.a. gaussienne σ(Y ) mesurable,telle que X − P rX et Y sont indépendantes.Exercice 1.2.10 Caractérisation de vecteur gaussien. (*) Soit (X, Y )deux v.a.r. telles que Y est gaussienne et la loi conditionnelle de X à Y estgaussienne de moyenne aY + b et de variance indépendante de Y , c’est-à-direque E(exp(λX)|Y = y) = exp(λ(ay + b) + λ22 σ2 ). Montrer que le couple (X, Y )est gaussien.1.3 Espérance conditionnelleOn travaille sur un espace (Ω, F, P ) muni d’une sous-tribu de F notée G.Exercice 1.3.1 Montrer queE(Y E(X|G)) = E(XE(Y |G))


10 RappelsExercice 1.3.2 Montrer que si X ∈ L 2 et E(X|G) = Y et E(X 2 |G) = Y 2 alorsX = Y .Exercice 1.3.3 Soit (X, Y ) indépendantes, X strictement positive et Z = XY .Calculer E( 1 Z≤t |X) en utilisant la fonction de répartition de Y .Exercice 1.3.4 Soit (X, Y ) indépendantes, équidristibuées et M = max(X, Y ).Calculer E( 1 X≤t |M).Exercice 1.3.5 Conditionnement et indépendance.Soit X, Y deux v.a. telles que la v.a. X − Y est indépendante de G, d’espérancem et de variance σ 2 . On suppose que Y est G-mesurable. Calculer E(X −Y | G).En déduire E(X | G). Calculer E( (X − Y ) 2 | G). En déduire E(X 2 | G).Exercice 1.3.6 Vecteur gaussien (*) Suite de l’exercice 1.2.9Soit (X, Y 1 , . . . , Y n ) un vecteur gaussien centré dans IR 1+n . Montrer que E(X|Y ) =P rX.On suppose n = 1. Montrer que E(X|Y ) = αY . Déterminer α.Exercice 1.3.7 Soit X = X 1 + X 2 . On suppose que X 1 est indépendante deG, que X 2 est G mesurable et que X 1 est gaussienne.1. Calculer E(X|G) et var (X|G).2. Calculer E(e λX |G).Exercice 1.3.8 Covariance conditionnelle. Soit Z 1 , Z 2 deux variables aléatoiresde carré intégrable. On définitCov(Z 1 , Z 2 |G) = E(Z 1 Z 2 |G) − E(Z 1 |G)E(Z 2 |G) .Montrer queCov(Z 1 , Z 2 |G) = E[ (Z 1 − E(Z 1 |G)) Z 2 |G ].Exercice 1.3.9 Tribu grossie.Soit A /∈ G et A ∈ F et X une v.a. intégrable. On note H la tribu engendrée parG et A. (Voir exercice 1.1.5). On admettra que les v.a. Z qui sont H mesurabless’écrivent Z = Y 1 1 A + Y 2 1 A c, où les v.a. Y i sont G-mesurables. Montrer queE(X|H) = E(X 1 A |G)E( 1 A |G)1 A + E(X 1 A c|G)E( 1 A c|G)1 A cExercice 1.3.10 Linéarité. Soit Z = αY + β, avec α ≠ 0. Montrer queE(aX + b|Z) = aE(X|Y ) + b.Exercice 1.3.11 Grossissement progressif (*) Soit F une tribu. On considèrela tribu G engendrée par τ ∧ 1 où τ est une v.a. à valeurs dans IR + .1. Montrer que toute v.a. G mesurable s’écrit h(τ ∧ 1) où h est borélienne.


Enoncés. 2005-06 112. Montrer que, si X est une v.a. F mesurable, E(X|G) 1 1≤τ = A 1 1≤τ où Aest une constante. Montrer que A = E(X 1 1≤τ )/P (1 ≤ τ).Exercice 1.3.12 Conditionnement et indépendance 1. Soit G 1 et G 2deux σ-algèbres indépendantes, G = G 1 ∨ G 2 et (X i , i = 1, 2) deux variablesaléatoires bornées telles que X i est G i mesurable. Montrer que E(X 1 X 2 |G) =E(X 1 |G 1 )E(X 2 |G 2 ).Exercice 1.3.13 Conditionnement et indépendance 2. Montrer que si Gest indépendante de σ(X) ∨ F, E(X|G ∨ F) = E(X|F).Exercice 1.3.14 Formule de Bayes.sous-tribu de F. Montrer queSoit dQ = LdP sur (Ω, F) et G unesi et seulement si L est G mesurable.E Q (X|G) = E P (X|G), ∀X ∈ FExercice 1.3.15 Soit f et g deux densités strictement positives sur IR. Soit Xune v.a. de densité f sur un espace (Ω, P ). Montrer qu’il existe une probabilitéQ sur cet espace telle que X soit de densité g.Exercice 1.3.16 Indépendance conditionnelle Soit (F t ) et (G t ) deux filtrations.1. Montrer que les propriétés suivantes sont équivalentes. (H1) for any t,the σ-algebras F ∞ and G t are conditionally independent given F t .(H2) ∀F ∈ F ∞ , ∀G t ∈ G t , E(F G t |F t ) = E(F |F t ) E(G t |F t )(H3) ∀t, ∀G t ∈ G t , E(G t |F ∞ ) = E(G t |F t )(H4) ∀t, ∀F ∈ F ∞ , E(F |G t ) = E(F |F t ).2. Soit F et G deux filtrations telles que F t ⊂ G t . Montrer que(H) Every F-square integrable martingale is a G-square integrable martingaleéquivaut à (H1).3. Dans le cas G t = F t ∨ σ(t ∧ τ) où τ est un temps aléatoire, montrer que(H1) équivaut à(H5) ∀s ≤ t, P (τ ≤ s|F ∞ ) = P (τ ≤ s|F t ).1.4 MartingalesL’espace Ω est muni d’une filtration (F t ).Exercice 1.4.1 Exemple de base. Soit X une v.a. intégrable. Montrer que(E(X |F t ), t ≥ 0) est une martingale.


12 RappelsExercice 1.4.2 Surmartingale. On dit que M est une surmartingale si- M t est adapté, intégrable- E(M t |F s ) ≤ M s , ∀s ≤ tLe processus M est une sousmartingale si −M est une surmartingale.1. Montrer que si M est une martingale et A un processus croissant adapté(A s ≤ A t , ∀s ≤ t) alors M − A est une surmartingale.2. Soit M une martingale. Que peut-on dire de M 2 ?3. Soit M une martingale telle que E(M 2 ∞) < ∞. Montrer que sup t E(M 2 t ) s.2. E((M t − M s ) 2 ) = E(M 2 t ) − E(M 2 s ) pour t > s.3. La fonction Φ définie par Φ(t) = E(M 2 t ) est croissante.Exercice 1.4.7 Projection de martingale. Montrer que si M est une F t -martingale, c’est aussi une martingale par rapport à sa propre filtration G t =σ(M s , s ≤ t). Soit H t ⊂ F t . Montrer que Y t = E(M t |H t ) est une H t -martingale.Exercice 1.4.8 Une sousmartingale. Soit τ une v.a. positive. Montrer queZ t = P (τ ≤ t|F t ) est une sousmartingale.


Enoncés. 2005-06 13Exercice 1.4.9 Exemples de martingales.1. Soit X un PAI. Montrer que X est une martingale et que si X est de carréintégrable, X 2 t − E(X 2 t ) est une martingale.2. Soit X une chaine de Markov. Montrer que∑f(X s− , X s ) −s≤test une martingale.∫ t0∑qXs ,jf(X s , j)dsExercice 1.4.10 Soit M une martingale positive continue uniformément intégrableet τ = inf{t : M t = 0}. Montrer que M est nulle sur t > τ.1.5 Temps d’arrêtExercice 1.5.1 Tribu associée à un temps d’arrêt.d’arrêt. Montrer que F τ est une tribu.Soit τ un tempsExercice 1.5.2 Soit T un temps d’arrêt et X une variable aléatoire appartenantà F T , vérifiant X ≥ T . Montrer que X est un temps d’arrêt.Exercice 1.5.3 Exemple de processus adapté. Soit T un temps d’arrêt.Montrer que le processus X t = 1 ]0,T ] (t) est adapté.Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps d’arrêt telsque S ≤ T . Montrer que F S ⊂ F T .Exercice 1.5.5 Propriété de mesurabilité. Soit S un temps d’arrêt. Montrerque S est F S -mesurable.Exercice 1.5.6 Soit S et T deux temps d’arrêt. Montrer que {S ≤ T }, {T ≤S} appartiennent à F S .Exercice 1.5.7 Exemple de processus càdlàg. Soit S et T deux tempsd’arrêt tels que S < T . Montrer que le processus Z t = 1 [S,T [ (t) (égal à 1 siS ≤ t < T et à 0 sinon) est un processus càdlàg.Exercice 1.5.8 Exemple trivial de temps d’arrêt. Montrer qu’une constanteτ est un temps d’arrêt. Quelle est dans ce cas la tribu F τ ?Exercice 1.5.9 Opérations sur les temps d’arrêt. Montrer que l’inf (resp.le sup) de deux temps d’arrêt est un temps d’arrêt.Exercice 1.5.10 Caractérisation de martingale.1. Soit s < t, A ∈ F s et T = t 1 A c + s 1 A . Montrer que T est un tempsd’arrêt.


14 Rappels2. Montrer que si E(X T ) = E(X 0 ) pour tout temps d’arrêt T , alors le processusX est une martingale.Exercice 1.5.11 Théorème d’arrêt. Soit M une martingale continue telleloique M 0 = a et lim t→∞ M t = 0. Montrer que sup M t = a où U est une v.a. deUloi uniforme sur [0, 1].1.6 Temps discretL’espace Ω est muni d’une filtration (F n ).Exercice 1.6.1 Soit F n une suite de tribu décroissante On suppose que si B ∈F ∞ = ∩ n F n alors P (B) = 0 ou P (B) = 1. Calculer E([P (A|F n ) − P (A|F m )] 2 ).En déduire que P (A|F n ) convergeExercice 1.6.2 Soit F n une suite de tribu croissante et F ∞ = ∪ n F n . Montrerque E(X|F n ) converge dans L 2 vers E(X|F ∞ ).Exercice 1.6.3 Processus croissant associé à une martingale de carréintégrable. Soit (X n , n ≥ 0) une (F n )-martingale vérifiant E(X 2 n) < ∞ pourtout n.1. Montrer que, pour tout p ≥ 0, E(X n+p |F n ) = X n .2. Montrer que E((X n − X n−1 ) 2 |F n−1 ) = E(X 2 n|F n−1 ) − X 2 n−1 pour tout n.3. Montrer qu’il existe un unique processus (A n ) tel que(i) A n est F n−1 adapté, (ii) A 0 = 0, (iii) X 2 n − A n estune martingale.Vérifier que A n est un processus croissant.On montrera que la suite de processus définie par A 0 = 0, A n = A n−1 +E(X 2 n|F n−1 ) − X 2 n−1 a les propriétés désirées et que si à a les mêmespropriétés, A n − A n−1 = Ãn − Ãn−1.Exercice 1.6.4 Intégrale stochastique. Soit M une martingale et H unprocessus borné prévisible (soit H n est F n−1 -mesurable). 0n note ∆M k = M k −M k−1 .1. Montrer que (H · M) n = ∑ nk=1 H k∆M k est une martingale.2. Soit M et N deux martingales telles que E(M 2 n) < ∞, E(N 2 n) < ∞ Onnote [M, N] = ∑ nk=1 ∆M k ∆N k . Montrer queest une martingale.(M n N n − M 0 N 0 − [M, N] n ; n ≥ 0)


Enoncés. 2002-03 151.7 Algèbre béta-GammaExercice 1.7.1 Loi Arc sinus Une variable aléatoire A a une loi Arc Sinus si1 1sa densité est √ √ 1 t∈[0,1] . Montrer que cos 2 (Θ) loi= A si Θ est uniformeπ 1 − tsur [0, 2π].Soit N et N ′ deux variables N (0, 1) indépendantes. Montrer queA.Soit C = N N ′ . Montrer que C a une loi de Cauchy et que 11 + Csinus.1.8 DiversN 2 loiN 2 + N ′2 =2a une loi ArcExercice 1.8.1 Soit X un processus at M t = sup 0≤s≤t X s . On note τ une v.a.de loi exponentielle de paramètre θ indépendante de X. Montrer que(∫ ∞)E (exp(−λM τ )) = 1 − λE due −λu e −θT uoù T u = inf{t : X t ≥ u}.Exercice 1.8.2 Transformée de Laplace et indépendance. Soit X etY deux v.a. indépendantes. Justifier que E(e λ(X+Y ) ) = E(e λX )E(e λY ). Laréciproque est-elle vraie?Exercice 1.8.3 Transformée de Laplace et moments. Soit X et Y deuxv.a. bornées telles que E(e λX) = E(e λY ) pour tout λ. Montrer que X et Y ontmême moments.Exercice 1.8.4 Markov. Soit X un processus de Markov fort et T a = inf{t :X t = a}. Montrer que, pour t < TP (X T ∈ dx |X t = a) = P (X T ∈ dx|T a = t) .Exercice 1.8.5 Propriété de Markov Soit B un mouvement Brownien et fune fonction. On note T f = inf{t : B t = f(t)}. Montrer que P (B t ≥ f(s)|T f =s) = 1 2 1 s


16 Brownien.


Chapter 2Mouvement BrownienDans tout ce qui suit, (B t , t ≥ 0) (ou (W t , t ≥ 0)) est un mouvement Brownienréel (un processus à accroissements indépendants issu de 0, tel que pour t > s,B t − B s est une v.a. gaussienne centré de variance t − s) et on note (F t ) safiltration naturelle.Dans certains exercices, il sera précisé que B est issu de x. On rappelle que Bet (B 2 t − t, t ≥ 0) sont des martinales.2.1 Propriétés élémentairesExercice 2.1.1 Caractérisation. Montrer qu’un processus X est un mouvementBrownien si et seulement sia. Pour tout t 0 < t 1 . . . < t n , le vecteur (X t0 , X t1 , . . . , X tn ) est un vecteurgaussien centréb. E(X t X s ) = s ∧ tc. X 0 = 0Exercice 2.1.2 Calcul d’espérances.1. Calculer pour tout couple (s, t) les quantités E(B s B 2 t ), E(B t |F s ) et E(B t |B s ).2. On a vu, dans Exercice 1.2.1, que si Z est une v.a. gaussienne centrée devariance σ 2 , on a E(Z 4 ) = 3σ 4 . Calculer E(B 2 t B 2 s).3. Quelle est la loi de B t + B s ?4. Soit θ s une variable aléatoire bornée F s -mesurable. Calculer pour t ≥ s,E(θ s (B t − B s )) et E[θ s (B t − B s ) 2 ].5. Calculer E( 1 Bt ≤a) et E(B t 1 Bt ≤a) où 1 A (ω) est la v.a. égale à 1 si ω ∈ Aet 0 sinon.6. Calculer E( ∫ t0 exp(B s)ds) et E(exp(αB t ) ∫ t0 exp(γB s)ds).17


18 Brownien.Exercice 2.1.3 Lois. Montrer que E(f(B t )) = E(f(G √ u + B t−u )) avec Gv.a. indépendante de B t−u et de loi gaussienne centré réduite.Exercice 2.1.4 Soit Θ une variable aléatoire de loi exponentielle de paramètreθ (soit P (Θ ∈ dx) = θe −θx 1 x>0 dx) indépendante de B. Quelle est la loi de B Θ ?Exercice 2.1.5 Des martingales. Parmi les processus suivants, quels sontceux qui sont des martingales. ( On pourra utiliser, sans démonstration, queE[∫ t0B u du|F s ] =∫ t1. M t = B 3 t − 3 ∫ t0 B s ds.2. Z t = B 3 t − 3tB t .3. X t = tB t − ∫ t0 B s ds.4. U t = sin B t −5. U t = sin B t + 1 20∫ tE[B u |F s ] du.)0∫ t6. Y t = t 2 B t − 2 ∫ t0 B sds.B s (cos s) ds.0sin(B s ) ds.Exercice 2.1.6 On suppose b < 0 < a. Montrer que (a − B t )(B t − b) + t estune F t -martingale. En déduire E(T a,b ) où T a,b = T a ∧ T b .Exercice 2.1.7 Exponentielle de Brownien. Calculer E(e x+Bt ) et E(sin(x+B t )) en utilisantE(f(x + B t )) = f(x) + 1 2∫ t0E(f ′′ (x + B s )) ds .Exercice 2.1.8 Changement de temps. Soit Z t = B A(t) où A est une fonctiondéterministe continue strictement croissante.1. Calculer l’espérance et la variance de Z t . Ce processus est-il une martingalepar rapport à F t ?.2. On définit G t = F A(t) . Montrer que Z est une G-martingale.3. Déterminer le processus croissant C tel que (Z t ) 2 −C t soit une G-martingale.4. Soit un processus M tel que M est une martingale et il existe A, fonctiondéterministe continue strictement croissante telle que M 2 t − A(t) est unemartingale. On note C l’inverse de A, c’est-à-dire la fonction telle queC(A(t)) = t. Montrer que W t = M C(t) est un mouvement Brownien.Exercice 2.1.9 Calcul d’espérance. Comment calculer E x (f(B t )g(B s ))?


Enoncés. 2002-03 19Exercice 2.1.10 CalculerE((λ∫ 10duB u + µB 1 ) 2 )Exercice 2.1.11 Calcul de transformée de Laplace. Calculer E x(exp(−λW2t ) ) .Exercice 2.1.12 Comportement limite.1. Montrer que lim t→∞B tt= 02. Montrer que lim t→∞ P x (B t < 0) = 1/2. En déduire que pour tout x > 0,si T 0 = inf{t : B t = 0}, on a P x (T 0 < ∞) ≥ 1/2. (En fait, on peut montrerque T 0 est fini ps.)Exercice 2.1.13 Montrer que l’intégrale∫ 10B sds est convergente.sExercice 2.1.14 Tribu triviale. On admettra qu’un ensemble appartenant àla filtration F 0 = F 0 + a pour probabilité 0 ou 1.Si τ = inf{t ≥ 0 : B t > 0}, montrer que P (τ ≤ t) ≥ 1 2 .P (τ = 0) = 1.En déduire queExercice 2.1.15 Application de la propriété de Markov. Montrer que( ∫ t∫) s( ∫ t−sE x h(r, B r )dr|F s = h(r, B r )dr + E Bs h(s + u, B u )du )00Exercice 2.1.16 Soit τ un(∫ temps d’arrêt, λ > 0 et u une fonction continueτ) (∫ ∞)bornée. On pose g(x) = E x e −λt u(B t )dt et f(x) = E x e −λt u(B t )dt0où comme d’habitude l’indice x précise que le Brownien est issu de x.1. Montrer que g et f sont définies.2. Montrer queE x(∫ ∞τ)e −λt (u(B t )dt = E x 1τ


20 Brownien.Exercice 2.1.18 Des gaussiennes Soit S t = exp(µt+σW t ). Calculer l’espéranceet la variance de∫ TS t dt et∫ T00Exercice 2.1.19 Zeros Montrer queln S t dt. Ces variables sont-elles gaussiennes?P (B u ≠ 0, ∀u ∈]s, t[) = 2 π arcsin √ stExercice 2.1.20 Filtration Soit G t = F t ∨ σ(B 1 ). Vérifier que B n’est pasune (G t )-martingale.2.2 Processus GaussiensExercice 2.2.1 Montrer que le processus Y t =son espérance et sa covariance.Exercice 2.2.2 Expliciter la solution deCalculer E(X t ) et V ar(X t ).∫ tdX t = −aX t dt + e bt dB t0B u du est gaussien. CalculerExercice 2.2.3 Non-existence de processus. Montrer qu’il n’existe pas deprocessus X tel que ∀(s, t), s ≠ t, les variables X t et X s soient indépendantes,centrées gausssiennes, et E(X 2 t ) localement borné. On considérera∫ t0X s ds eton montrera que ce processus serait Gaussien, on calculera son espérance et savariance.Exercice 2.2.4 Le pont Brownien. On définit un pont Brownien parZ t = B t − tB 1 , 0 ≤ t ≤ 1.1. Montrer que Z est un processus gaussien indépendant de B 1 . Préciser saloi, c’est-à-dire sa moyenne et sa fonction de covariance.2. Montrer que le processus ˜Z avec ˜Z t = Z 1−t a même loi que Z.3. Montrer que le processus Y avec Y t = (1 − t)B t , 0 < t < 1 a même loi1−tque Z.4. Montrer que (Z tloi= (B t |B 1 = 0)).B sExercice 2.2.5 Un exemple surprenant. Montrer que Z t = B t −0 s dsest un processus gaussien. Calculer sa variance et sa covariance. En déduire queZ est un mouvement Brownien. Montrer que Z n’est pas une (Ft B )-martingale,où (Ft B ) est la filtration naturelle de B.∫ t


Enoncés. 2002-03 21Exercice 2.2.6 Pont. Soit B un MB et Γ t l’espace Gaussien engendré par(B u − u t B t, u ≤ t). Montrer que Γ t est croissant en t. Montrer que Γ(B u , u ≤t) = Γ t ⊕ Γ(B t ) où Γ(G) est l’espace engendré par G.Exercice 2.2.7 Changement de probabilité. Soit B un MB, L t = exp(mB t −m 22 t) , et Q définie sur F T par dQ = L T dP . Montrer que ˜B t = B t − mt est,sous Q, un processus gaussien à accroissements indépendants. Montrer que ˜B test un Q-mouvement Brownien.Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et T une v.a. positive.On admettra queE(sup(|B t | − t p/2 )) < ∞t1. Montrer queavec λ = ( 1 µ )1/(p−1) .E(sup(|B t | − µt p/2 )) = λE(sup(|B s | − s p/2 ))ts2. Montrer que E(|B T |) ≤ E(sup t (|B t | − µt p/2 )) + µE(T p/2 ).3. Montrer que∀p > 1, ∃C p , ∀T,E(|B T |) ≤ C p ||T 1/2 || p2.3 MultidimensionnelExercice 2.3.1 Soit deux mouvements Browniens B (1) et B (2) corrélés de coefficientde corrélation ρ. Montrer, sans utiliser la formule d’Itô pour des processuscorrélés, qu’il existe un Brownien B (3) , indépendant de B (2) tel queB (1) = ρB (2) + √ 1 − ρ 2 B (3) .Exercice 2.3.2 Somme de browniens. Soit W un mouvement brownienindépendant de B et ρ ∈ [0, 1]. Montrer que (U t = ρW t + √ 1 − ρ 2 B t , t ≥ 0) estun mouvement Brownien.Soient B (1) et B (2) deux browniens indépendants et (σ i , i = 1, 2) deux fonctionsdéterministes. Montrer qu’il existe une fonction σ 3 telle que le processus B (3)défini parσ 3 (t)dB (3)t = σ 1 (t)dB (1)t + σ 2 (t)dB (2)test un Brownien.Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction boréliennebornée. Montrer que, pour 0 < s < t E x (f(B t )|F s ) = Φ(B s ) avec Φ(x) =E x [f(B t−s )]. En déduire que B i B j est une martingale pour i ≠ j.


22 Brownien.Exercice 2.3.4 Mouvement Brownien dans R 2 .1. Soit W 1 et W 2 deux mouvements Browniens indépendants. Le processusW t = W 1 (t) + W 2 (t) est-il un mouvement Brownien? Si oui, justifiez laréponse, sinon, expliquez pourquoi. Même question avec αW 1 (t)+βW 2 (t).2. Soit W 1 et W 2 deux processus. Soit c un réel donné. Montrer que si( {exp aW 1 (t) + bW 2 (t) − t [ ] [ ]} )1 c a2 [a, b] , t ≥ 0c 1 best une martingale pour tout couple (a, b), W 1 et W 2 sont des MB. CalculerE[exp(aW 1 (t) + bW 2 (t))].Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel etU une matrice telle que UU T = I. Montrer que (UB t , t ≥ 0) est un MB.2.4 Temps d’atteinteDans tous ces exercices, a ∈ IR et T a = inf{t : B t = a} où B est un mouvementBrownien.Exercice 2.4.1 Transformée de Laplace. Montrer que T a est un tempsd’arrêt. Calculer E(e −λT a) pour tout λ réel. Montrer que P (T a < ∞) = 1 etque E(T a ) = ∞.Mêmes questions avec S t = exp(σB t ).Exercice 2.4.2 Montrer (sans calculs) que pour b > a > 0, la v.a. T b − T a estindépendante de T a . Quelle est la loi de T b −T a ? Que peut-on dire du processus(T a , a > 0)?Exercice 2.4.3 Soit a < 0 < b et T = T a ∧ T b . Calculer P (T a < T b ) et E(T ).Exercice 2.4.4 Processus du temps d’atteinte.1. Soit f(t) = E(e −rT a1 Ta


Enoncés. 2002-03 23Exercice 2.4.5 Temps d’atteinte Soit T un nombre réel. Calculer Z t =loiP (T a > T |F t ). On rappelle que sup u≤t W u = |W t |.Exercice 2.4.6 Premier instant. Soit W un MB issu de 0 et T d = d+inf{t :W t+d = 0}. Calculer E(e −λT d ) et E( 1 Wd ≤ae −λT d ).Soit T ∗ = d si W d ≥ −a et T ∗ = d + T d si W d ≤ −a, W d+T d ≥ −a. CalculerE(e −λT ∗ ).Exercice 2.4.7 Self decomposable Montrer qu’il existe c tel que T rloi= cT r +X avec X indépendante de c.Exercice 2.4.8 Soit ˜T a et ̂T a deux v.a. indépendantes de même loi que T a .˜T aQuelle est la loi de˜T a + ̂T(Sans faire de calculs).aExercice 2.4.9 Loi de l’inf. Soit I = − inf s≤T1 B s . Montrer que P (I ∈ dx) =dx1 + x 2 .Exercice 2.4.10 Calculer E(e −λT a) avec T a = inf{t : X t = a} et X t = νt +W t . Calculer E(e −λT ) pour T = T a ∧ T b .Exercice 2.4.11 Soit Ta ∗ = inf{u : M u − B u > a} avec M u = sup t≤u B t .Montrer que M T ∗ aa une loi exponentielle.Exercice 2.4.12 Temps d’atteinte Soit A et B deux nombres positifs. Onnote X t = µt + σB t et h(x) = exp(−2µx/σ2 ) − exp(2µB/σ 2 )exp(−2µA/σ 2 ) − exp(2µB/σ 2 ) . Vérifier queh(X t ) est une martingale. Le temps d’arrêt τ est défini parCalculer P (X τ = A).τ = inf{t : X t = A ouX t = −B} .Exercice 2.4.13 Soit f une fonction borélienne bornée et et∫u(x) = E x (exp[− θ2 T02 T 0 + duf(B u )])0où B est un mouvement Brownien issu de x. Montrer que u est solution de12 u′′ = ( θ2+ f)u, u(0) = 12Exercice 2.4.14 Soient a, d deux nombres réels positifs.1. Calculer E(e −|B d| √ 2λ 1 Bd ≤−a).


24 Brownien.2. Soit T 1 = inf{t ≥ d : B t = 0}. Montrer que T 1 est un temps d’arrêt. CalculerE(e −λT1 ) et E(e −λT1 1 Bd ≤−a). Montrer que B T1 +d est indépendantde B d et de T 1 .3. On introduit la v.a. τ 1 suivante : si B d ≤ −a, on pose τ 1 = d. Si B d > −aet si B T1 +d ≤ −a, on pose τ 1 = T 1 + d, sinon on pose τ 1 = ∞.Calculer pour λ > 0 la transformée de Laplace de τ 1 , soit E(e −λτ1 ).4. On continue. Si B d ≤ −a, on pose τ 2 = d. Si B d > −a et si B T1 +d ≤ −a,on pose T τ 2 = T 1 + d, sinon on définit T 2 = inf{t ≥ T 1 + d : B t = 0}.Si B T2 +d ≤ −a on pose τ 2 = T 2 + d. Dans tous les autres cas, on poseτ 2 = ∞.(a) Montrer que B T2 +d est indépendant de (B T1 +d, B d ) et de T 2 .(b) Calculer la transformée de Laplace de τ 2 .5. On utilise la même procédure pour définir par itération τ n et on poseτ = τ ∞ .(a) Montrer que τ est fini en utilisant, après l’avoir justifié queP (τ < ∞) = ∏ iP (B Ti +d < −a)(b) Calculer la transformée de Laplace de τ.(c) Calculer la transformée de Laplace de B τ .(d) Montrer que B τ est indépendant de τ.Exercice 2.4.15 On trouve parfois (voir exercice précédent, ou les temps d’atteinted’un niveau) des temps d’arrêt τ tels que τ et B τ sont indépendants. Ceci n’estcependant pas très courant. Dans ce qui suit on admettra le résultat (non trivial)suivant (Cramer) Si X et Y sont deux v.a. indépendantes telles que X + Yest une v.a. gaussienne, alors X et Y sont des gaussiennes.Le but de cet exercice est de montrer : si τ est borné par K et si τ et B τsont indépendants, alors τ est une constante.1. Montrer que si s > K,B s = B τ + ̂B s−τavec ̂B un mouvement Brownien indépendant de F τ .2. Montrer que B τ et ̂B s−τ sont des v.a. indépendantes.3. Calculer l’espérance et la variance de B τ . (Attention, ce n’est pas trivial.Penser au cas où τ = T a .)4. Montrer que ̂B s−τ est une v.a. Gaussienne.5. Montrer que l’on obtient √ K − τ G loi= √ K − E(τ) G où G est une v.a.gaussienne réduite centrée.


Enoncés. 2002-03 256. Conclure.Exercice 2.4.16 Soit a et µ deux constantes strictement positives et T 1 =inf{t : B t ≥ a − µt}, T 2 = inf{t : B t ≤ −a + µt}. On pose, pour tout λa ≥ 0,Φ(λ) = E(exp[−λτ]) avec τ = T 1 ∧ T 2 .1. Montrer que T 1loi= T 2 et que (T 1 , T 2 ) loi= (T 2 , T 1 ).2. Vérifier que Φ est bien définie et donner un majorant et un minorant simplesde Φ (S’aider par un dessin).3. Montrer que Φ(λ) = 2E (exp(−λT 1 ) 1 T1 t}. En déduire g tloi= td 1loi= 1d(1/t) .


26 Brownien.4. On suppose que A est un processus croissant continu tel que, pout tout c(B ct , A ct , t ≥ 0) loi= ( √ cB t , cA t ; t ≥ 0)On note ∆ a = inf{t : A t ≥ a}. Montrer que d ∆aloiA g = 1/d ∆1 .5. Montrer que A t = sup s≤t B 2 s vérifie les conditions précédentes.Exercice 2.5.3 Montrer queoù T ∗ 1 = inf{t ≥ 0 : |W t | = 1}.sup |W t | loi= √ 10≤t≤1 T∗1loi= ad ∆1 . En déduireExercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit queA a la propriété (hom) s’ il existe r ∈ IR tel que pour tout c,(B ct , A ct ; t ≥ 0) loi= ( √ cB t , c r+1 A t ; t ≥ 0)Pour quelle valeur de r la fonctionnelle A t =∫ t01 (Bs >0)ds a t’elle la propriété(hom)? Même question pour le temps local (voir la définition plus loin)2.6 ComplémentsExercice 2.6.1 Projection d’un Brownien. Soit B un MB dans sa filtration(F t ) et (G t ) une filtration plus petite que (F t ). On suppose que E(B t |G t ) = ̂B test un MB. Montrer que ̂B t = B t .Exercice 2.6.2 Filtration de carrés de Browniens. Soit Y t = aB 2 t + bW 2 tavec a ≠ b et a et b non nuls, W et B étant des Browniens indépendants.Montrer que σ(Y s , s ≤ t) = σ(B s , W s , s ≤ t). Généraliser au cas de n carrés.Exercice 2.6.3 Représentation prévisible. Soit W (i) , i = 1, 2, 3 trois MB,avec W (i) , i = 1, 2 indépendants. Montrer qu’il n’est pas possible d’avoirσ(W s (3) , s ≤ t)) = σ(W s (1) , W s(2) , s ≤ t). On utilisera le théorème de représentationprévisible pour représenter W (1)t , W (2)t en terme de W (3) .Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on définit la tribuF β t = σ{(B s − s t B t, s ≤ t}1. Montrer que la famille F β t est croissante en t.


Enoncés. 2002-03 272. Soit f ∈ L 2 (IR + , ds). Calculer la projection ̂F t sur L 2 ((F β ) t ) de F t =∫ t0f(s)dB s .3. Montrer que le processus ̂B t = B t −Brownien et que4. Montrer que ̂F t =∫ t0∫ t0du B uuF β t = σ{ ̂B u , u ≤ t}̂f(s)d ̂B t , avec ̂f(t) = f(t) − 1 test un (F β t )-mouvement∫ t0f(u)du.Exercice 2.6.5 Soit B un MB réel, T 0 = inf{t : B t = 0}, g = sup{t 1 : B t = 0}. ∫ Montrer que P x (d > 1 + t) =p(1, x; y)P y (T 0 > t)dy et que P 0 (g ≤ t) = p(t, 0; y)P y (T 0 > 1 − t)dy.Exercice 2.6.6 Loi de g t . Montrer queP ( sup B u > 0, B s < 0) = 2P (B t > 0, B s < 0) = 2[ 1s≤u≤t4 − 1 √ s2π arcsin t ]En déduire la loi de g t = sup{s ≤ t : B s = 0}Exercice 2.6.7 Représentation prévisible. Trouver un processus f prévisibletel que F = E(F ) +1. F = B T ,2. F =∫ T03. F = B 2 T ,B s ds,4. F = exp B T .∫ T0f s dB s pourExercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un secondmouvement Brownien issu de 0 indépendant de B et1. Montrer queX t = (1 − t)∫ t0∫ t ∫W ts0 1 − s ds − 0∫W ts(1 − s) 2 ds + (1 − t) 11 − s dB s .∫ sds00∫W tu(1 − u) 2 du = (1 − t)0W s(1 − s) 2 ds.2. En admettant que si f et g sont deux fonctions déterministes on peutintervertir le sens des intégrales dansB t −∫ t0∫ sds0∫ t0dsf(s)11 − u dB u = (1 − t)∫ s0∫ t0g(u)dB u , montrer que11 − s dB s


28 Brownien.3. Vérifier que X est solution deX t = B t +∫ t0W s − X sds .1 − s∫ t4. (sans utiliser ce qui précede) Montrer que X t = (1 − t)W t .5. Calculer E(X s X t ).0dB s − dW s1 − s+Exercice 2.6.9 Soit G une filtration, W un G mouvement brownien. Soit Hune filtration plus petite que G. Montrer que le processus M t = E(W t |H t )est une martingale. (on précisera par rapport à quelle filtration). Soit X t =W t +∫ t0Y u du où Y est un processus G adapté. On note F X la filtration de X etŶ u = E(Y u |F X u ). Vérifier que Z t = (X t −∫ t0Ŷ u du, t ≥ 0) est une F X -martingale(on calculera l’espérance conditionnelle de Z t par rapport à F X s .Exercice 2.6.10 Let X be a Brownian motion with drift µ and MtXt}X t . Prove thatE(M X T |F t ) = M X t +∫ ∞MtX −X t(1 − F (T − t, u)du= sup { s ≤where F (T − t, u) = P (M X T −t ≤ u)2.7 FinanceExercice 2.7.1 Black et Scholes. Calculer E(e −at (S t − K) + ) quandS t = xe bt exp(σW t − σ22 t)Ecrire la formule obtenue quand a = b = r et quand a = r, b = r − δ. CalculerE(e −rt (S t − K) + |F s ) pour s < t.Exercice 2.7.2 Options reset Une <strong>option</strong> reset est caractérisée par une suitede dates t 1 , t 2 , . . . , t n . Le payoff de cette <strong>option</strong> estA = ∑ i(S T − S ti ) + 1 Sti =inf{K,S t1 ,S t2 ,...,S t n } + (S T − K) + 1 K=inf{K,St1 ,S t2 ,...,S t n }Calculer le prix d’une telle <strong>option</strong>, c’est-à-dire calculer E(e −rT A) quand.S t = xe rt exp(σW t − σ22 t)


Enoncés. 2002-03 292.8 Problème2.8.1 Partie I : Résultats préliminairesSoit (B t ) t≥0 un mouvement Brownien standard sur un espace de probabilit(Ω, F, P ). On note (F t ) t≥0 la filtration naturelle de B.Etant donné un processus continu (X t ) t≥0 à valeurs réelles, on pose pourt > 0 ,MtX = sup X s ,s≤tm X t= infs≤t X s .Si a est un nombre réel strictement positif, on définit égalementT X a = inf{t ≥ 0; X t = a}, ˜TXa = inf{t ≥ 0; |X t | = a} .Il a été démontré en cours que Ta B est un temps d’arrêt relativement à (F t ) t≥0 ,fini p.s. , tel que E(Ta B ) = ∞ et pour λ ≥ 0 ,E [ exp(−λTa B ) ] (= exp −a √ )2λ .1. En inversant la transformée de Laplace de Ta B , montrer que la densité dela loi de TaB est donnée par( )a√ exp − a21 (t>0) .2πt3 2t2. Démontrer que pour λ ≥ 0 ,[E exp(−λ ˜T] ( (a B ) = cosh a √ −12λ)).3. Prouver que ˜T B a est intégrable et calculer E( ˜T B a ) .4. Soient c et d deux nombres réels strictement positifs et posons T B =Tc B ∧ T−d B . Montrer que pour λ ∈ IR ,[)]E exp(− λ22 T B sinh(λd)1 (T B =Tc B) =sinh(λ(c + d)) ,[)]E exp(− λ22 T B cosh(λ(c − d)/2)=cosh(λ(c + d)/2) .5. En utilisant la propriété de Markov forte, démontrer que si c ≥ 0 , b ≤ c ,P [B t ≤ c , M B t> c] = P [B t > 2c − b].6. En-déduire que pour chaque t > 0 , les variables aléatoires M B t et |B t | ontla même loi.


30 Brownien.7. Vérifier que pour chaque t > 0 , la densité de la loi du couple (B t , M B t )est donnée par2(2c − b)√2πt3)(2c − b)2exp(− 1 {0≤c} 1 {b≤c} .2t8. Retrouver alors la densité de la loi de T B a explicitée au 1. .2.8.2 Partie IIOn considère le processus (Y t ) t≥0 défini par : ∀t ≥ 0 , Y t = µ t + B t , où µ ∈ IR .1. Montrer qu’il existe une mesure de probabilité P µ sous laquelle (Y t ) t≥0est un mouvement Brownien standard.2. En utilisant le résultat de la question I.7. , en-déduire que pour chaquet > 0 , la densité de la loi du couple (Y t , M Y t ) est donnée par2(2c − b)√2πt32.8.3 Partie III) ((2c − b)2exp(− . exp µ b − 1 )2t2 µ2 t 1 {0≤c} 1 {b≤c} .Soit (S t ) t≥0 le processus tel que : ∀t ≥ 0 , S t = x exp [ (r − 1 2 σ2 )t + σB t], où x,r et σ sont des nombres réels strictement positifs. Dans la suite, on désignerapar N la fonction de répartition de la loi normale centrale réduite.1. Expliciter la probabilité P θ qui fait de ( ˜B t ) t≥0 un mouvement Brownienstandard, avec ˜B t = θt + B t et θ = r σ − σ 2 .2. Trouver une relation entre M S t et M ˜Bt et entre m S t et m ˜Bt pour chaquet > 0.Dans ce qui suit, H et K désigne des nombres réels strictements positifs.3. Montrer queP [ S t ≤ K , M S t≤ H ] ( ) (2r/σ H 2 )−1= N(d 1 ) −N(d 2 ) ,xavecd 1 =( ( ) Klog −(r − 1 ) )x 2 σ2 t /σ √ t ,d 2 =( ( ) KxlogH 2 −(r − 1 ) )2 σ2 t /σ √ t .


Enoncés. 2002-03 314. Montrer queP [ S t ≥ K , m S t≥ H ] ( ) (2r/σ H 2 )−1= N(d 3 ) −N(d 4 ) ,xavecd 3 =d 4 =( ( x)log +(r − 1 ) )K 2 σ2 t /σ √ t ,(log( H2xK)+(r − 1 ) )2 σ2 t /σ √ t .5. Déduire de la question 3. que (E désignant l’espérance sous P )]( ) )(2r/σ HE[S t 1 {St ≤K ,Mt S≤H} = x e(N(d 2 )+1rt5 ) −N(d 6 ) ,xavecd 5 =d 6 =( ( ) Klog −(r + 1 ) )x 2 σ2 t /σ √ t ,( ( ) KxlogH 2 −(r + 1 ) )2 σ2 t /σ √ t .6. En utilisant le résultat de la question 4., vérifier que]( ) )(2r/σ HE[S t 1 {St ≥K ,m S t ≥H} = x e(N(d 2 )+1rt7 ) −N(d 8 ) ,xavecd 7 =d 8 =( ( x)log +(r + 1 ) )K 2 σ2 t /σ √ t ,(log( H2Kx)+(r + 1 ) )2 σ2 t /σ √ t .[]7. On pose v 1 (x, T ) = E e −rT (S T − K) +1 {m ST ≥H} .Montrer que[ ( ) ] [(2r/σ H 2 )+1( ) ](2r/σ H 2 )−1v 1 (x, T ) = x N(d 7 ) −N(d 8 ) −e −rT K N(d 3 ) −N(d 4 ) .x xDéterminer la quantité ∂∂x v 1(x, T − t) .[]8. On pose v 2 (x, T ) = E e −rT (S T − K) +1 {M ST ≤H} . Donner une formuleexplicite pour v 2 (x, T ) et ∂∂x v 2(x, T − t) .


32 Itô.9. On pose[]v 3 (x, T ) = E e −rT (S T − K) +1 {M ST ≥H}[]v 4 (x, T ) = E e −rT (S T − K) +1 {m ST ≤H},,v(x, T ) = E [ e −rT (S T − K) +].Donner une relation entre v 2 (x, T ) ,v 3 (x, T ) et v(x, T ) d’une part et entrev 1 (x, T ) ,v 4 (x, T ) et v(x, T ) d’autre part.


Chapter 3Intégrale d’ItôDans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtrationest notée (F t ).3.1 Intégrale de WienerExercice 3.1.1 Soit Y t = tB t . Calculer dY t , l’espérance de Y t et E(Y t Y s ).Exercice 3.1.2 1. Montrer que la v.a. X t =∫ t2. Montrer que X est un processus gaussien.Calculer son espérance et la covariance E(X s X t ).3. Calculer E[X t |F s ].4. Montrer que X t = (sin t)B t −∫ t0(cos s)B s ds.0(sin s) dB s est définie.Exercice 3.1.3est défini.1. Montrer que le processus (Y t = ∫ t0 (tan s) dB s, 0 ≤ t < π 2 )2. Montrer que Y est un processus gaussien, calculer son espérance et savariance et son espérance conditionnelle.3. Montrer que Y t = (tan t) B t −∫ t0B scos 2 s ds.Exercice 3.1.4 Pont. On considère l’équation différentielle stochastique{X tdX t =t − 1 dt + dB t ; 0 ≤ t < 1X 0 = 033


34 Itô.1. Montrer que∫ tdB sX t = (1 − t)0 1 − s ; 0 ≤ t < 1 .2. Montrer que (X t , t ≥ 0) est un processus gaussien. Calculer son espéranceet sa covariance.3. Montrer que lim t→1 X t = 0.Exercice 3.1.5 Montrer que, si f est une fonction déterministe de carré intégrable∫ ∞E(B t f(s) dB s ) =Exercice 3.1.6 Calculs de moments.∫ t20∫ t0f(s) ds .Calculer A = E( (B t −B t1 ) dt|F t1 ). Montrer que (B t −B t1 ) dt = (t 2 −t 1t 1 t 1t)dB t . Utiliser cette égalité pour calculer A d’une autre manière. Calculer[∫ t2]Var (B t − B t1 ) dt|F t1 .t 13.2 Formule d’ItôExercice 3.2.1 Ecrire les processus suivants comme des processus d’Itô enprécisant leur drift et le coefficient de diffusion1. X t = B 2 t2. X t = t + e Bt3. X t = B 3 t − 3tB t4. X t = 1 + 2t + e B t5. X t = [B 1 (t)] 2 + [B 2 (t)] 26. X t = (B t + t) exp(−B t − 1 2 t)7. X t = exp(t/2) sin(B t )Exercice 3.2.2 Intégration par parties.Y t = Y 0 +∫ t0[ (b(s) exp −∫ s0∫ t2∫ t2(∫ t)Soit X t = exp a(s)ds et0)]a(u)du dB soù a et b sont des fonctions déterministes. On pose Z t := X t Y t . Montrer quedZ t = a(t)Z t dt + b(t)dB t .


Enoncés. 2005-06 35Exercice 3.2.3 Intégration par parties.Soit Y t = tX 1 (t)X 2 (t) avecdX 1 (t) = f(t) dt + σ 1 (t)dB tdX 2 (t) = σ 2 (t)dB tCalculer dY t .Exercice 3.2.4 Montrer que (Y t = sin(B t ) + 1 2martingale. Calculer son espérance et sa variance.∫ t0 sin(B s) ds, t ≥ 0) est uneExercice 3.2.5 Equation différentielle.On admet que le système suivantadmet une solution ⎧⎪ ⎨⎪ ⎩X t = x +Y t = y −Montrer que X 2 t + Y 2t = (x 2 + y 2 )e t .∫ t∫0tExercice 3.2.6 Formule d’Itô. Soit Y t =1. Ecrire l’EDS vérifiée par Z t .2. Calculer E(Z t ), E(Z 2 t ) et E(Z t Z s ).0Y s dB sX s dB s∫ t0e s dB s et Z t =∫ t0Y s dB s .Exercice 3.2.7 On suppose que X est un processus d’Itô de drift a(K t − X t ),que X t = f(K t ) et que K t = bt + σB t où a, b, σ sont des constantes et B unmouvement brownien. Quelle est la forme de f ?Exercice 3.2.8 Exponentielle.L 2 (Ω × IR) etX t =∫ tOn pose Y t := exp X t et Z t = Y −1t .0Soit σ un processus adapté continu deσ s dB s − 1 2∫ t0σ 2 s ds .1. Expliciter la dynamique de Y , c’est-à-dire exprimer dY t .2. Montrer que Y est une martingale locale. Donner une condition sur σpour que ce soit une martingale.3. Calculer E(Y t ) dans ce cas. Expliciter les calculs quand σ = 1.4. Calculer dZ t .Exercice 3.2.9 Soit (a, b, c, z) des constantes et∫ t)Z t = e (a−c2 /2)t+cW t(z + b e −(a−c2 /2)s−cW sdsQuelle est l’EDS vérifiée par Z?0


36 Itô.Exercice 3.2.10 On considère le processus de dynamiqueoù (h t , t ≥ 0) est un processus adapté.dS t = S t ((r − q + h t )dt + σdW t )1. On se place dans le cas h t = 0, ∀t. Montrer que (M t = S t e −(r−q)t , t ≥ 0)est une martingale positive. On définit une probabilité Q par dQ| Ft =M tM 0dP | Ft . Comment se transforme le MB W?2. Dans le cas h non nul, expliciter S t (Utiliser l’exercice 3.2.9).3. On suppose que h t = h(S t ) où h est une fonction continue. On admetqu’il existe une solution de l’EDS correspondante. Montrer quee −rT E(e − ∫ T0 h(S s)ds Ψ(S T )) = e −qT S 0 E Q (S −1T Ψ(S T ))4. On se place maintenant dans le cas h t = S −pt , avec p réel. On admet qu’ilexiste une solution de l’EDS. On pose Z t = S p t .(a) Quelle est la dynamique de Z?(b) Vérifier, en utilisant l’exercice 4 que l’on peut expliciter Z.(c) Pour quelles fonctions f, le processus f(Z) est il une martingale(locale)?Exercice 3.2.11 Processus d’Ornstein Uhlenbeck. Soit X tel que dX t =(a − bX t )dt + dB t( ∫ t∫ t)1. Montrer que Z t = exp c X s dB s − c2 Xs 2 ds est une martingale2locale.02. Soit U t = X 2 t . Ecrire dU t puis la variable U t comme une somme d’intégrales.3. Montrer que∫ t0X s dB s = 1 2 (X2 t − X 2 0 − t) − a0∫ tExercice 3.2.12 Soit Z le processus défini par(1Z t = √ exp −W 2 )t.1 − t 2(1 − t)0X s ds + b∫ t0X 2 s ds .1. Montrer que Z est une martingale et que Z t tend vers 0 quand t tend vers1..2. Calculer E(Z t ).3. Ecrire Z t sous la formeZ t = exp (∫ t0Φ s dW s − 1 2où Φ est un processus que l’on précisera.∫ t0Φ 2 sds)


Enoncés. 2005-06 37Exercice 3.2.13 Moments d’une exponentielle. Soit L le processus solutiondedL t = L t φdW t , L 0 = 1où φ est une constante. Le processus L est l’exponentielle de Doléans-Dade deφW et se note L t = E(φW ) t .1. Déterminer la fonction λ telle que, pour a ∈ IR, le processus (L t ) a exp(−λ(a)t)est une martingale.2. En déduire le calcul de E [(L t ) a ] pour tout a ∈ IR.Exercice 3.2.14 Démonstration de l’unicité de l’écriture d’un processusd’Itô.Soit dX t = a t dt + σ t dW t . On souhaite démontrer que si X ≡ 0, alors a ≡ 0, σ ≡0.1. Appliquer la formule d’Itô à Y t = exp(−X 2 t ).2. En déduire le résultat souhaité.Exercice 3.2.15 Soit V = KX avecCalculer dV t et d ln X t .dX t = X t (µ − k − s ln X t )dt + σX t dW tdK t = K t (r + k)dtExercice 3.2.16 Montrer queM t = exp ( −∫ test une martingale locale.Exercice 3.2.17 Soit A t =0B 2 sds ) exp ( − B2 t2 tanh(T − t)) 1(cosh(T − t)) 1/2∫ t0exp(W s +νs)ds et dS t = S t (rdt+σdW t ). Montrerque le processus f(t, S t , A t ) est une martingale si f vérifie une équation auxdérivées partielles à coefficients déterministes que l’on précisera.Exercice 3.2.18 Soit dX t = dB t + 1 X tdt. Montrer que(locale).locale?.1 X test une martingaleQuelles sont les fonctions f telles que f(t, X t ) soit une martingaleExercice 3.2.19 Soit B et W deux browniens corrélés etdr t = [a(b − r t ) − λσr t ]dt + σ √ r t dW tdV t = (r t − δ)V t dt + σ V V t dB tOn pose X t = √ r t et Y t = ln V t − αX t avec α = 2ρσ V /σ. Calculer dX et dY .


38 Itô.Exercice 3.2.20 Soit T fixé et B(t, T ) = exp −(∫ Tdf(t, T ) = α(t, T )dt + σ(t, T )dW t , ∀t < TMontrer quet)f(t, u)du avecdB(t, T ) = (r t − ˜α(t, T ) + 1 2 ˜σ(t, T ))B(t, T )dt − ˜σ(t, T )B(t, T )dW toù on a noté ˜α(t, T ) =Exercice 3.2.21 Soit∫ Ttα(u, T )dudr t = (a − br t )dt − σ √ r t (dW t + λdt)et B un mouvement Brownien indépendant de W . On note H le processus(∫ tH t = exp r s ds + 1 ∫ t∫ t ∫ t(λ 2 1 + λr s )ds + λ 1 dB s + λ √ )r s dW s200Montrer que le calcul de E(exp(H α T )|F t) se réduit à celui de E(exp(−ηr T −µ∫ Ttr s ds)|F t ).Exercice 3.2.22 Fonction d’échelle. Soit X un processus d’Itô. Une fonctions est une fonction d’echelle si s(X) est une martingale locale. Déterminerles fonctions d’échelle des processus suivants:1. B t + νt2. X t = exp(B t + νt)3. X t = x +∫ t0b(X s )ds +∫ tque s(X t ) = β At où β est un MB.Exercice 3.2.23 SoitSoit u une solution de00σ(X s )ds. Identifier le processus croissant A teldΨ t = (1 − rΨ t )dt + σΨ t dW tσ 22 x2 u ′′ (x) + (1 − rx)u ′ (x) − λu(x) = 0On définit x ∗ comme solution de x ∗ u ′ (x ∗ ) = u(x ∗ ) et v(x) =admettra que v ′′ (x) ≥ 0.Soit enfin V définie par{ V (x) = v(x), 0 ≤ x ≤ x∗= x, x > x ∗0x∗u(x ∗ u(x). On)


Enoncés. 2005-06 39Montrer que 1 − (r + λ)x ∗ ≤ 0.Ecrire la formule d’Itô pour e −λt V (Ψ t ). Il apparait un terme LV (x) − λV (x)avecLV (x) = (1 − rx)V ′ (x) + σ22 x2 V ′′ (x)Montrer que sur x > x ∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x ∗ , on aLV (x) − λV (x) = 0En déduire queV (Ψ 0 ) ≥ Ẽ(e−λT V (Ψ T ))(en admettant que l’intégrale stochastique est une martingale).Exercice 3.2.24 Reprendre l’exercice 2.6.8 en utilisant la formule d’Itô.Exercice 3.2.25 Pont Brownien Calculer P (sup 0≤s≤t B s ≤ y, B t ∈ dx). Endéduire que, pour un pont brownien b, issu de x à l instant 0, qui doit se trouveren z, z > 0 à l’instant t, on a pour y > zP ( sup b s ≤ y) = exp0≤s≤t(z + x − 2y)2(− +2tQuelle est la valeur de P (sup 0≤s≤t b s ≤ y) pour y < z?)(z − x)2.2tExercice 3.2.26 Formule de Clark-Ocone Soit f une fonction bornée declasse C 1 . Justifier rapidement qu’il existe une fonction ψ telle que, pour t ≤ 1E(f(B 1 )|F t ) = ψ(t, B t ) .Expliciter ψ(t, x) sous la forme d’une espérance (non conditionnelle). Ecrire laformule d’Itô pour ψ en faisant les simplifications qui s’imposent. Montrer queψ(t, B t ) = E(f(B 1 )) +∫ t3.3 Cas multidimensionnel0E(f ′ (B 1 )|F s )dB s .Exercice 3.3.1 On considère deux processus S 1 et S 2 définis pardS i (t) = S i (t)(rdt + σ i dB i t), i = 1, 2 (3.1)où B 1 et B 2 sont deux Browniens indépendants et où les coefficients r, σ i sontconstants.1. On pose S 3 (t) defvérifiée par S 3 .= S1(t)+S2(t)2. Ecrire l’équation différentielle stochastique2. Soit S 4 (t) def= √ S 1 (t)S 2 (t). Ecrire l’équation différentielle stochastiquevérifiée par S 4 .


40 Itô.Exercice 3.3.2 Formule d’Itô multidimensionnelle. Soient (B 1 (t), t ≥ 0)et (B 2 (t), t ≥ 0) deux mouvements Browniens indépendants. Soit (L i (t), i =1, 2 , t ≥ 0)) les processus définis pardL i (t) = θ i (t)L i (t)dB i (t) , L i (0) = 1où (θ i (t), i = 1, 2) sont des processus adaptés continus bornés. Soit Z t =L 1 (t)L 2 (t). Ecrire dZ t .Montrer que L 1 (t)L 2 (t) est une martingale.Exercice 3.3.3 Soit (B 1 (t), t ≥ 0) et (B 2 (t), t ≥ 0) deux mouvements Browniensindépendants et ρ une constante telle que |ρ| ≤ 1.1. Montrer que le processus (W t , t ≥ 0) défini par W t = ρB 1 (t)+ √ 1 − ρ 2 B 2 (t)est un mouvement Brownien.2. Soit (φ i (t), t ≥ 0; i = 1, 2) deux processus continus adaptés de carréintégrable (tels que ∀T ≥ 0, E( ∫ T0 φ2 i (t) dt) < ∞).(a) On définit (Z t , t ≥ 0) par dZ t = φ 1 (t)dB 1 (t) + φ 2 (t)dB 2 (t) et Z 0 = z.Montrer que Z est une martingale.(b) Soit Ψ(t) = φ 2 1(t) + φ 2 2(t). On suppose que Ψ(t) > 0. On définit(Y t , t ≥ 0) pardY t =φ 1(t)√Ψ(t)dB 1 (t) + φ 2(t)√Ψ(t)dB 2 (t) , Y 0 = y .Ecrire l’équation vérifiée par Y 2t .Montrer que (Y t , t ≥ 0) est un mouvement Brownien.3. On définit R t = B 2 1(t) + B 2 2(t). Ecrire l’équation différentielle vérifiée parR et celle vérifiée par U t = √ R t . On montrera quedU t = a U tdt + bdB 3 (t)où a et b sont des constantes et B 3 un mouvement Brownien.Exercice 3.3.4 Soit dS (i)t= S (i)t(µ (i)tdt + σ (i)tdW (i)t ) où W (i) , i = 1, 2 sontt ) k 2soitdeux MB corrélés. Déterminer k i , i = 1, 2 pour que e −rt (S (1)t ) k 1(S (2)une martingale.3.4 ComplémentsExercice 3.4.1 Formule de Tanaka. Soit f une fonction et F définie parF (x) =∫ x−∞dz∫ z−∞f(y) dy


Enoncés. 2005-06 41Vérifier queet que F ′ (x) =∫ x−∞F (x) =f(y) dy =∫ ∞∫ ∞−∞−∞(x − y) + f(y)dyf(y) 1 x>y dy.Montrer, en appliquant la formule d’Itô à F que∫ t0f(B s )ds = 2∫ ∞−∞(∫ t)f(y) (B t − y) + − (B 0 − y) + − 1 Bs >ydB s dy .0Exercice 3.4.2 Egalité de Bougerol.browniens indépendants.Soit W 1 et W 2 deux mouvements1. Appliquez la formule d’Itô aux processusX tdef= exp(W 1 (t))2. Montrer que dZ t =∫ t∫ t3. Vérifier que M tdef= W 2 (t) +00exp(−W 1 (s)) dW 2 (s), Z tdef= sinh W 1 (t)φ(Z s )dW 1 (s) +∫ tE(M 2 t ). En admettant que M t =brownien, identifier γ.0∫ t0ψ(Z s )ds.X s dW 1 (s) est une martingale. Calculer∫ t4. En déduire une relation entre X t et Z t .0γ s dW 3 (s), où W 3 est un mouvementExercice 3.4.3 Soit dr t = δdt + 2 √ r t dB t et f(t, x) une fonction de C 1,2b.1. Quelle condition doit vérifier la fonction s pour que s(r t ) soit une martingale?2. Quelle condition doit vérifier la fonction f pour que f(t, r t ) soit une martingale?3. Soit Z t = r 2 t et ρ t = √ r t . Ecrire les EDS vérifiées par Z t et par ρ t .4. Soit dr 1 t = µ 1 dt + 2 √ r t dB 1 t et dr 2 t = µ 2 dt + 2 √ r t dB 2 t deux processus, avecB 1 et B 2 deux browniens indépendants. On admettra que r 1 et r 2 sontindépendants. On note R le processus défini par R t = r 1 t + r 2 t . Montrerque R s’écrit sous la forme (5.1).Exercice 3.4.4 Temps d’atteinte. Soit τ = T a = inf{t : W t = a}. On acalculé Z t = P (τ > T |F t ). Quelle est la dynamique du processus Z?.


42 Itô.Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la formedX t = H t dW t , dY t = K t dW t . On note M t l’unique solution de l’équationdM t = M t dX t , M 0 = 1. Montrer que la solution de dZ t = dY t + Z t dX t , Z 0 = zest∫ t1Z t = M t (z + (dY s − H s K s ds))0 M sQuelle est la solution de dZ t = dY t + Z t dX t lorsque dX t = H t dWt 1 , dY t =K t dWt2 où W 1 et W 2 sont deux MB éventuellement corrélés?3.5 Brownien géométrique et extensions.Dans cette section, S est un Brownien géométrique de dynamiqueoù b et σ sont des constantes.Exercice 3.5.1 Soit ˜S t = e −bt S t .dS t = S t (b dt + σ dB t ) (3.2)1. Montrer que ( ˜S t , t ≥ 0) est une martingale. En déduire E(S t ) et la valeurde E(S t |F s ) pour tous les couples (t, s).2. Ecrire l’équation différentielle vérifiée par (S t ) −1 .3. Montrer que S T = S 0 exp[(b − 1 2 σ2 )T + σB T ], puis que S T = S t exp[(b −12 σ2 )(T − t) + σ(B T − B t )].4. Soit dL t = −L t θ t dW t où θ t est un processus adapté continu de L 2 (Ω×IR). On pose Y t = S t L t . Calculer dY t .5. Soit ζ t défini pardζ t = −ζ t (r dt + θ t dB t )Montrer que ζ t = L t exp(−rt). calculer dζ −1t .6. Calculer d(S t ζ t ). Comment choisir θ pour que ζS soit une martingale ?Exercice 3.5.2 Soit A t = 1 t∫ t0ln S s ds.1. Montrer que ln S s = ln S t + (b − σ22 )(s − t) + σ(B s − B t ) pour s ≥ t.2. Montrer que A t est une variable gaussienne.3. Soit G(t, T ) = 1 T∫ Tt(B s − B t ) ds. Montrer queA T = t T A t + (1 − t T )[ln S t + 1 2σ2(b − )(T − t)] + σG(t, T )2


Enoncés. 2005-06 434. Montrer que G(t, T ) est une variable gaussienne indépendante de F t , donton calculera l’espérance conditionnelle et la variance conditionnelle (parrapport à F t ).5. En déduire que A T = Z t + U où Z t est F t mesurable et U une variablegaussienne indépendante de F t . Montrer que α(t)e Zt = E(e A T|F t ),où l’onprécisera la valeur de α.∫Exercice 3.5.3 Soit V T = 1 Th T −h S udu où h est un nombre réel donné tel que0 < h < T . Soit X le processus défini par1. Quelle est la valeur de X T ?e −bt X t = E[e −bT V T |F t ] .2. Exprimer X t en fonction de S t pour t ≤ T − h.3. Exprimer X t en fonction de S t et de (S u , T − h ≤ u ≤ t) pour T − h ≤t ≤ T .4. Montrer que dX t = X t bdt + σS t γ t dW t avec γ t = 1 {t


44 Itô.1. Calculer 〈M〉 pour M = B.2. Calculer 〈M〉 pour M t =∫ t0σ s dB sExercice 3.6.2 Crochet de martingales. Soit M et N deux martingales.On pose, par analogie avec 2ab = (a + b) 2 − a 2 − b 22〈M, N〉 = 〈M + N, M + N〉 − 〈M, M〉 − 〈N, N〉Montrer que MN − 〈M, N〉 est une martingale.Exercice 3.6.3 Utilisation de crochets. Ecrire la formule d’Itô en utilisantle crochet.3.7 FinanceExercice 3.7.1 Dans un marché incomplet, il existe des actifs contingents duplicables.En particulier, montrer queest un processus d’Itô.∫ T0(aS s + b)ds est duplicable lorsque SExercice 3.7.2 Equation d’évaluation. Soit dS t = rS t dt + S t σ(t, S t )dB t ,où r est une constante.1. Montrer que E(Φ(S T )|F t ) est une martingale pour toute fonction Φ boréliennebornée.2. Justifier que E(Φ(S T )|F t ) = E(Φ(S T )|S t )3. Soit ϕ(t, x) la fonction définie par ϕ(t, S t ) = E(Φ(S T )|S t ). Ecrire dZ t avecZ t = ϕ(t, S t ).4. En utilisant que ϕ(t, S t ) est une martingale, et en admettant que ϕ estC 1,2 , montrer que pour tout t > 0 et tout x > 0:∂ϕ(t, x) + rx∂ϕ∂t ∂x (t, x) + 1 2 σ2 (t, x)x 2 ∂2 ϕ(t, x) = 0 .∂x2 Quelle est la valeur de ϕ(T, x)?Exercice 3.7.3 Options Européennes et Américaines. On rappelle l’inégalitéde Jensen : si Φ est une fonction convexe et G une tribu, E(Φ(X)|G) ≥Φ(E(X|G)).On admettra que si τ est un temps d’arrêt borné par T et Z une sous-martingale,E(Z T ) ≥ E(Z τ ). On note dS t = S t (rdt + σ t dW t ) le prix d’un actif où σest un processus adapté borné. Soit C = E(e −rT (S T − K) + ) le prix d’uncall Européen et C Am = sup τ E(e −rτ (S τ − K) + ) le prix d’un call Américain,le sup étant pris sur tous les temps d’arrêt à valeurs dans [0, T ]. On noteP = E(e −rT (Ke rT − S T ) + ) et P Am = sup τ E(e −rτ (Ke rτ − S τ ) + ) les prix deputs à strike actualisés.


Enoncés. 2005-06 451. Montrer que (e −rt S t − K) + est une sous-martingale.2. Soit g une fonction convexe de classe C 2 telle que g(0) = 0. Montrer queEn déduire que∀x, ∀α ≥ 1, g(x) ≤ 1 α g(αx)E(e −ru g(S u )|F t ) ≤ E(e −rT g(S T )|F t )pour tout t < u ≤ T . Montrer que C = C Am .3. Montrer que P = P Am .Exercice 3.7.4 Volatilité stochastique Soit r un réel et (σ t , t ≥ 0) un processusaléatoire (F t ) adapté tel que σ 1 ≤ σ t ≤ σ 2 où σ 1 et σ 2 sont des constantes.1. On note V 1 la fonction V 1 (t, x) définie par V 1 (t, x) = e −r(T −t) E(h(X T )|X t =x) lorsque dX(t) = X(t)(rdt + σ 1 dB t ). Montrer que e −rt V 1 (t, X t ) est unemartingale.2. Ecrire l’ EDS vérifiée par le processus V 1 (t, X t ). En déduire que la fonctionV 1 satisfait une EDP. Dans la suite, on suppose V 1 convexe en x.3. Soit dS 1 (t) = S 1 (t)(rdt+σ t dW t ). Ecrire la formule d’Itô pour e −rt V 1 (t, S t ).En déduire e −rT V 1 (t, S T ) en fonction de e −rt V 1 (t, S t ), d’une intégrale endt dont on donnera le signe et d’une intégrale stochastique.4. Montrer que e −rt V 1 (t, S t ) ≤ E(e −rT h(S T )|F t ) ≤ e −rt V 2 (t, S t ).Exercice 3.7.5 Heath-Jarrow-Morton. Soit T fixé et (r t , 0 ≤ t ≤ T ) unefamille de processus (dépendant du paramètre T ) que l’on notera, comme danstoute la littérature sur les taux (r(t, T ), 0 ≤ t ≤ T ) telle que, pour tout T fixéoù∂ Σ(t, T ) = σ(t, T ) .∂T1. On pose X t =dr(t, T ) = σ(t, T )Σ(t, T )dt + σ(t, T )dW t∫ T +aoù on explicitera µ et φ.Tr(t, u)du. Montrer que l’on peut écrireX t = X 0 +∫ t0µ s ds +2. En déduire la dynamique de Y t = exp X t .∫ t0φ s dW s


46 Itô.Exercice 3.7.6 Portefeuille de marché. On considère un marché comportantun actif sans risque de taux r et un actif risqué de dynamiquedS t = S t (µ t dt + σ t dW t ) .Un portefeuille est un couple (α, β) de processus adaptés et la valeur du portefeuilleest le processus (V t , t ≥ 0)Le portefeuille est dit autofinançant siV t = α t S 0 t + β t S t .dV t = α t dS 0 t + β t dS t .1. Montrer qu’un portefeuille autofinançant est caractérisé par le couple(v, β) tel quedV t = r t V t dt + β t (dS t − r t S t dt), V 0 = v .On utilise très souvent le processus H défini paravec θ = µ t − r tσ t.dH t = −H t (r t dt + θ t dW t )2. Montrer que M t = (H t ) −1 est la valeur d’un portefeuille autofinançantdont on précisera la valeur de α et de β. Ce portefeuille est appellé portefeuillede marché .Exercice 3.7.7 Dividendes. SoitdS t = S t ([r − δ]dt + σdW t ), S 0 = x (3.3)1. Montrer que S t = S 0 exp(at + cW t ) où on explicitera a, c. Montrer que∫ TS t e −rt = E(S T e −rT + δS s e −rs ds|F t ) , .t2. Montrer qu’il existe β tel que S β soit une Q-martingale.3. On suppose que dY t = Y t (rdt + νdW t ), Y 0 = y. Soit γ une constante.Montrer que Y γ vérifie une équation du type (3.3) où l’on précisera lavaleur de δ et de σ.4. Calculer E((S T − K) + ).Exercice 3.7.8 Assurance de portefeuille.


Enoncés. 2005-06 471. Soit M une martingale telle que M T ≥ 0. Montrer que M t ≥ 0 pourt < T . Cette propriété s’étend-elle au cas t > T ? Si oui, donner unedémonstration, sinon, donner un contre exemple.Soit τ un temps d’arrêt borné par T . On suppose que M τ = 0. Montrerqu’alors M s = 0 pour s ∈ [τ, T ].2. Soit V la valeur d’un portefeuille autofinançant dans un modèle Black-Scholes. On rappelle que d(R t V t ) = π t R t σV t dW t avec R t = e −rt . Montrerque si V T ≥ K alors V t ≥ e −r(T −t) K. Montrer que s’il existe τ < T telque V τ = e −r(T −τ) K, alors V t = e −r(T −t) K pour t ∈ [τ, T ].3. Un agent de richesse initiale x souhaite former un portefeuille tel queV T > K. Quelle condition sur x cela implique t’il? Comment peut-ilréaliser cet objectif? (on donnera plusieurs solutions)√YtExercice 3.7.9 Soit dX t =T − t X tdW t et dY t = g t dB t + µdt. On noteC(T − t, x, σ) la fonction√de Black-Scholes. Donner une relation entre g, µ pourYtque C(T − t, X t , ) soit une martingale.T − t∫ TExercice 3.7.10 Calcul de E(exp − r s ds|F t ) avec r t = f(t) + σ202 t + σW tExercice 3.7.11 Question préliminaire Soit X et Y deux processus d’Itô continus(on ne précisera pas leur dynamique, c’est inutile pour ce qui suit). Rappelerla formule d’intégration par parties pour d(XY ). En déduire queX t d( 1 X t) + 1 X tdX t + d〈X, 1 X 〉 t = 0 .On considère un marché comportant deux actifs dont les prix sont des processusd’Itô S 1 et S 2 tels que S 1 est strictement positif. Un portefeuille de valeurV t = πt 1 St 1 + πt 2 St2 est autofinancant sidV t = π 1 t dS 1 t + π 2 t dS 2 t .On choisit comme numéraire le premier actif et on note Ṽt = V t /S 1 t , ˜S 2 t = S 2 t /S 1 t ,d’oùṼ t = V t /S 1 t = π 1 t + π 2 t ˜S 2 t .Le but de cet exercice est de montrer que la notion d’autofinancement ne dépendpas du choix de numéraire, c’est-à-dire quedV t = π 1 t dS 1 t + π 2 t dS 2 t (3.4)impliquedṼt = π 2 t d ˜S 2 t . (3.5)


48 Equa. Diff.11. Calculer d〈V,S 〉 (1) t en fonction de d〈S (1) ,(2. Montrer que dVt1 = πt2 S (2)t d 1 + 13. Montrer que dV 1t= π 2 t d(S (2)tS (1)tS (1)t).S (1)t1S (1) 〉 t et d〈S (2) ,dS (2)t + d〈S (2) ,1S 〉 (1) t)1S (1) 〉 tExercice 3.7.12 On considère un marché dans lequel sont négociés trois actifsUn actif sans risque dont la dynamique est dS 0 t = S 0 t rdt et <strong>DE</strong>UX actifs risquésdS i t = S i t(µ i dt + σdW t )avec µ 1 ≠ µ 2 et le même mouvement Brownien uni-dimensionnel W . Les actifscontingents sont choisis dans F T = σ(S 1 s , S 2 s , s ≤ T ) = σ(W s , s ≤ T ).1. Montrer que le marché est complet.2. Montrer que la marché admet des opportunités d’arbitrage.3. Construire EXPLICITEMENT une telle opportunité d’arbitrage, c’està-direexpliciter un triplet (π 0 , π 1 , π 2 ) de processus adaptés tels que leportefuille associé soit autofinancant et V 0 = 0, V T > 0. On pourra serestreindre à une OA statique, c’est-à-dire telle que (π 0 , π 1 , π 2 ) soient desconstantes.


Chapter 4Equations différentiellesstochastiques4.1 Equation linéaireExercice 4.1.1 Soit α, σ deux constantes et dX(t) = − 1 2 αX(t) dt + 1 σdW (t).2Soit Y t = X t e αt/2 . Ecrire dY t . En déduire la forme de la solution X(t).Exercice 4.1.2 Soit l’EDSdX t = bX t dt + dB t , X 0 = x.1. On pose Y t = e −t X t . Quelle est l’EDS vérifiée par Y t ? Exprimer Y t sousla forme Y t = y +∫ t2. Calculer E(Y t ) et E(Yt 2 ).3. Justifier que∫ t00f(s)dB s où l’on explicitera la fonction f.Y s ds est un processus gaussien. Calculer E(exp[4. Exprimer Y t pour t > s sous la forme Y t = Y s +∫ texplicitera la fonction g. Calculer E(Y t |F s ) et Var (Y t |F s )5. Calculer E(X t |F s ) et Var (X t |F s ).Exercice 4.1.3 SoitSoit u une solution dedΨ t = (1 − rΨ t )dt + σΨ t dW tσ 22 x2 u ′′ (x) + (1 − rx)u ′ (x) − λu(x) = 049s∫ t0Y s ds]).g(u)dB u où l’on


50 Equa. Diff.On définit x ∗ comme solution de x ∗ u ′ (x ∗ ) = u(x ∗ ) et v(x) =admettra que v ′′ (x) ≥ 0.Soit enfin V définie par{V (x) = v(x), 0 ≤ x ≤ x∗= x, x > x ∗x∗u(x ∗ u(x). On)Montrer que 1 − (r + λ)x ∗ ≤ 0.Ecrire la formule d’Itô pour e −λt V (Ψ t ). Il apparait un terme LV (x) − λΨ(x)avecLV (x) = (1 − rx)V ′ (x) + σ22 x2 V ′′ (x)Montrer que sur x > x ∗ on a LV (x) − λV (x) ≤ 0 et que sur x ≤ x ∗ , on aLV (x) − V (x) = 0En déduire queV (Ψ 0 ) ≥ Ẽ(e−λT V (Ψ T ))(en admettant que l’intégrale stochastique est une martingale).Exercice 4.1.4 Préliminaire. Soit a, α, b, β quatre constantes réelles. Soitx ∈ IR.On considère l’équation différentielle stochastiquedX t = (a + αX t ) dt + (b + βX t ) dB t (4.1)X 0 = x1. Montrer que (4.1) admet une solution unique.2. On note m(t) = E(X t ) et M(t) = E(X 2 t ).(a) Montrer que m(t) est l’unique solution de l’équation différentielleordinairey ′ − αy = a (4.2)y(0) = x(b) Ecrire la formule d’Itô pour X 2 t où X t est solution de (4.1).(c) En déduire que M(t) est l’unique solution de l’équation différentielleordinairey ′ − (2α + β 2 ) y = 2(a + bβ)m + b 2 (4.3)y(0) = x 2où m est la solution de (4.2). (On admettra que l’intégrale stochastiquequi intervient est une martingale)(d) Résoudre (4.2) puis (4.3).


Enoncés. 2005-06 51Exercice 4.1.5 Cas particulier 1.1. Soit (Y t ) t≥0 l’unique solution de l’équation (4.1) quand a = b = 0 vérifiantY 0 = 1.Montrer queY t = exp {(α − 1 2 β2 )t + βB t } .2. Montrer que si α ≥ 0, Y est une sous-martingale par rapport à la filtration(F t ).A quelle condition sur α, Y est elle une martingale?3. Soit (Z t ) t≥0 le processus défini parZ t = x + (a − bβ)∫ t0Ys−1 ds + b∫ t0Y −1s dB s .Montrer que (Z t ) t≥0 est un processus d’Itô. Calculer < Y, Z > t .En déduire que la solution X t de (4.1) peut s’écrire X t = Y t Z t .Exercice 4.1.6 Cas particulier 2. On se place dans le cas a = β = 0dX t = αX t dt + b dB t (4.4)X 0 = x .1. Montrer que l’unique solution de (4.4) s’écritX t = e αt (X 0 + b∫ t0e −αs dB s ) .(On pourra utiliser l’exercice précédent ou poser Y t = e −αt X t et résoudrel’équation vérifée par Y .2. Montrer que X est un processus gaussien, calculer son espérance et savariance.∫ t(3. Justifier que X s ds est un processus gaussien. Calculer E exp[ ∫ )t0 X sds] .04. Calculer E(X t |F s ) et Var (X t |F s ).5. Soit X t solution de (4.4), et φ une fonction de classe C 2 . Ecrire la formuled’Itô pour Z t = φ(X t ).En déduire que si φ(x) =∫ x0Z t = bexp(−α y2) dy, alorsb2 ∫ t0exp(−α B2 sb 2 ) dB sZ t est-elle une martingale de carré intégrable?


52 Equa. Diff.6. Soit λ fixé. CalculerΦ(t, y) = E(e λX2 t ) .Soit t fixé. Etudier la martingale E(e λX2 t |Fs ) , s ≤ t.Montrer que Φ est solution d’une équation aux dérivées partielles. SoitΨ(t, x) = ln Φ(t, x). Montrer queΨ(t, x) = x 2 a(t) + b(t), avec a ′ (t) = −a(t)(2α + b 2 a(t)), b ′ (t) = −b 2 a(t) .Exercice 4.1.7 Cas particulier 3. On se place dans le cas a = α = 0dX t = (b + βX t )dB t (4.5)X 0 = xoù x ≠ − b β. Soit h la fonction définie parh(y) = 1 βln |b + βyb + βx |pour y ≠ − b β1. On pose Y t = h(X t ). Quelle est l’équation vérifiée par Y t ?2. En déduire que la solution de (4.5) s’écritX t = (x + b β ) exp(−β2 2 t + βB t) − b βExercice 4.1.8 Cas particulier 4. On se place dans le cas a = 1, b = 0. Onpose Y t = e −αt X t . Quelle est l’équation différentielle vérifiée par Y ?Calculer E(X t ) et Var (X t ).Exercice 4.1.9 Soit f, F, g, G des fonctions continues bornées. On note X lasolution deet Y la solution de1. Expliciter Y .dX t = [f(t) + F (t)X t ]dt + [g(t) + G(t)X t ]dW t , X 0 = x2. Soit Z défini parZ t = x +dY t = F (t)Y t dt + G(t)Y t dW t , Y 0 = 1∫ tMontrer que X = Y Z.0Y −1s [f(s) − G(s)g(s)]ds +∫ t0Y −1s g(s)dW s .


Enoncés. 2005-06 533. Soit m(t) = E(X t ) et M t = E(X 2 t ). Montrer que m est l’unique solutionde y ′ (t) − F (t)y(t) = f(t), y(0) = x. En déduireoù ˜F (t) =∫ t0m(t) = exp( ˜F (t))[x +∫ t0]exp − ˜F (s)f(s)dsF (s)ds. Montrer que M est l’unique solution deY ′ (t) − [2F (t) + G 2 (t)]y(t) = 2[f(t) + g(t)G(t)]m(t) + g 2 (t), y(0) = x 2Exercice 4.1.10 Calculer espérance et variance de X t avecdX t = a(b − X t )dt + σ √ X t dW tExercice 4.1.11 Soit 0 < s < T et m ∈ IR. Vérifier que la solution deestdX t = (s − T )X t + mT(s − T )t + T 2 dt + dB tX t = m ∫ tT t + [(ss − T )t + T 2 dB u]0 (s − T )u + T 2Exercice 4.1.12 Soit π un processus adapté (de carré intégrable), σ, θ et rdes processus adaptés (bornés), c un processus positif, adapté, borné et X lasolution dedX x,π,ct = r t X x,π,ct dt − c t dt + πt T σ t [dW t + θ t dt] (4.6)X x,π,c (0) = xOn note H le deflateur, soit H t( ∫ t= exp0 r sds + ∫ t0 θ ∫sdW s − 1 t2ds)0 θ2 =∫ tL t 0 r sds .Montrer que les processus H t X t + H s c s ds, t ≥ 0 et L t (X t R t +∫0t0 cR sds) sont des martingale. Vérifier que leur difference est une martingale.∫ tExercice 4.1.13 Calculer E(exp(λX T )) pourdX t = (µ − αX t − γV t )dt + √ V t dW 1,tdV t = k(θ − V t )dt + σ √ V t dW 2,tExercice 4.1.14 On considère l’équationdX t = 1 Xt ≥0dW t , X 0 = x . (4.7)On suppose qu’il existe une solution.1. Vérifier que, pour x = 0, la solution de (4.7) n’est pas identiquement nulle.


54 Equa. Diff.2. Vérifier que, pour x ≥ 0, la solution est à valeurs positives. On pourramontrer, en utilisant la formule d’Itô, que si f est une fonction régulière,nulle sur IR + , alors f(X t ) est nulle.3. Montrer que la solution issue de 0 est d’espérance nulle à tout instant t.4. Que peut on en conclure?Exercice 4.1.15 SoitdS t = µ(S t )dt + σ(S t )dW toù µ et σ 2 (le carré de σ) sont des fonctions affines : µ(x) = µ 0 + µ 1 x ; σ 2 (x) =σ 0 + σ 1 x. On souhaite montrer que pour toute fonction affine ψ(x) = ψ 0 + ψ 1 x,pour tout θ, il existe deux fonctions α et β telles que,( ()Ee θS Texp−∫ Ttψ(S s )ds|F t)= e α(t)+β(t)St .1. Montrer qu’il suffit d’établir l’existence de deux fonctions α et β telles quele processus( ∫ t)e α(t)+β(t)S texp − ψ(S s )dsest une martingale avec α(T ) = 0, β(T ) = θ.2. Montrer que la détermination de α et β conduit à la résolution d’uneéquation de Ricatti (type d’équation différentielle non linéaire) et d’uneéquation différentielle linéaire. On ne demande pas la résolution de ceséquations.3. Généraliser le résultat au cas où dS t = µ(S t )dt + σ(S t )dW t + dX t où(X t , t ≥ 0) est un processus de Poisson.Exercice 4.1.16 Soit 0 < s < T et m ∈ IR. Vérifier que la solution dedX t = (s − T )X t + mT(s − T )t + T 2 dt + dW t, X 0 = 00estX t = m ∫ tT t + [(s − T )t + T 2 dW u]0 (s − T )u + T 24.2 FinanceExercice 4.2.1 Options Asiatiques. Soit S t solution dedS t = S t (r dt + σ dB t )les paramètres r et σ étant constants.


Enoncés. 2005-06 55(1. Soit K une constante. Montrer que le processus M t = E ( 1 Test une martingale.∫ T0S u du − K) + |F t)2. Montrer que, si l’on pose ζ t = St−1 (K − 1 TM t = S t E(∫ T3. Soit Φ(t, x) = E [ 1 T tet que M t = S t Φ(t, ζ t ).([ 1 T∫ Tt∫ t0S u du), on a)S udu − ζ t ] + |F t .S t)(S udu − x] + . Montrer que Φ(t, x) = E [ 1 ∫ )TS udu − x] + |F tS t T t S t4. Ecrire la formule d’Itô pour M. En déduire une équation aux dérivéespartielles vérifiée par Φ.Exercice 4.2.2 Black et Scholes, volatilité déterministe. Soit σ une fonctiondéterministe continue et r une constante et (S t , t ≥ 0) la solution de1. Montrer quedS t = S t (r dt + σ(t) dB t ) , S 0 = x(S t = S 0 exp rt +∫ t∫ t∫ t0σ(s) dB s − 1 2∫ t0)σ 2 (s) ds2. Montrer que σ(s) dB s − 1 σ 2 (s) ds est une variable gaussienne dont02 0on calculera l’espérance et la variance.3. On rappelle que dans le cas σ constant, le prix d’un call est donné paravecC(0, x) = xN (d 1 ) − Ke −rT N (d 2 )d 1 = 1 (ln(σ √ x )σ2) + T (r +T K 2 ) , d 2 = d 1 − σ √ TEn déduire (sans faire de calculs) que, dans le cas de volatilité déterministe,la formule de Black et Scholes s’écritExprimer D 1 et D 2 .E((S T − K) + ) = xN (D 1 ) − Ke −rT N (D 2 )


56 Equa. Diff.Exercice 4.2.3 La formule de Dupire. SoitdS t = S t (rdt + σ(t, S t )dW t )où σ est une fonction de IR + × IR + dans IR et f(t, x) la densité de S t , soitf(t, x) = P (S t ∈ dx). ON admettra que∂ t f − 1 2 ∂ [xx x 2 σ 2 (t, x)f(t, x) ] + ∂ x [rxf] = 0On note C(K, T ) le prix en zéro d’un call Européen de strike K et de maturitéT . On note ∂ 1 C, ∂ 2 C, ∂ 11 C les dérivées partielles de C par rapport à la premièrevariable, seconde variable, dérivée seconde par rapport à la premiere variable.1. Montrer que ∂ 11 C(K, T ) = e −rT f(T, K).2. Montrer que1 [x 22 ∂x 2 σ 2 (t, x)f(t, x) ] = e∂ 2rt ∂2∂x 2 (rx ∂ ∂2 ∂CC) + ert∂x ∂x 2 ∂t3. En déduire12 x2 σ 2 (t, x) ∂2 C∂C(t, x) = rx∂C (x, t) + (t, x)∂x2 ∂x ∂t4.3 Equations différentiellesExercice 4.3.1 Soit α une constante etdX t = −α 2 X 2 t (1 − X t )dt + αX t (1 − X t )dW t (4.8)la condition initiale étant X 0 = x avec x ∈]0, 1[. On admet que X prend sesvaleurs dans l’intervalle ]0, 1[. On pose Y t =X t.1 − X t1. Quelle est l’équation différentielle stochastique vérifiée par Y ?2. En déduire que X t =x exp(αW t − α 2 t/2)x exp(αW t − α 2 t/2) + 1 − x .Exercice 4.3.2 Produit d’exponentielle. Soit W un MB et h un processusadapté borné. On note E(hW ) t = L t l’unique solution de dL t =defL t h t dW t , L 0 = 1. Etablir une formule du type E(h 1 W 1 +h 2 W 2 ) t = X t E(h 1 W 1 ) t E(h 2 W 2 ) toù X est à déterminer.Exercice 4.3.3 Soit W un mouvement Brownien issu de a > 0 et T 0 = inf{t :W t = 0}. Pour t < T 0 , on définit X t = µ (W t ) α . Montrer que, pour t < T 0 ,dX t = b(X t ) dt + σ(X t ) dW t


2005-06 57où on explicitera b et σ. En déduire la forme de la solution de dY t = Yt n dW t +1 2n−1nYtdt, Y 0 = y ≥ 0 avant le premier temps d’atteinte de 0. (On admettra2l’unicité de la solution).Exercice 4.3.4 Ponts1. Soit N une gaussienne réduite centrée indépendante de B. Vérifier que lasolution de dX t = dB t + N − X ∫ tt1dt est X t = tN + (1 − t)1 − t0 1 − s dB s.En déduire que X est un processus gaussien, dont on calculera l’espéranceet la covariance.2. Soit W un MB indépendant de B. Vérifier que la solution de dX t =dB t + W ∫t − X t∫tW tsdt est X t = (1 − t)1 − t0 (1 − s) 2 ds + (1 − t) 10 1 − s dB s.En déduire que X est un processus gaussien, dont on calculera l’espéranceet la covariance.


58 Exemples. Enoncés


Chapter 5ExemplesDans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtrationest notée (F t ).5.1 Processus de BesselExercice 5.1.1 Soit B 1 et B 2 deux mouvements Browniens indépendants et1. Ecrire l’EDS vérifiée par Z t .Z t = B 2 1(t) + B 2 2(t) .2. On pose Y t = √ Z t . Ecrire l’EDS vérifiée par Y t .3. Ecrire l’EDS vérifiée par 1/Y t .Exercice 5.1.2 Formule d’Itô On considère les processus de la formedr t = µdt + 2 √ r t dB t (5.1)On admet que r t ≥ 0 presque partout (par rapport à t et à ω.)1. Soit f(t, x) une fonction de C 1,2b. Quelle condition doit vérifier la fonctionf pour que f(t, r t ) soit une martingale ?2. Soit Z t = r 2 t et ρ t = √ r t . Ecrire les EDS vérifiées par Z t et par ρ t .3. Soit dr 1 t = µ 1 dt + 2 √ r t dB 1 t et dr 2 t = µ 2 dt + 2 √ r t dB 2 t deux processus, avecB 1 et B 2 deux browniens indépendants. On admettra que r 1 et r 2 sontindépendants. On note R le processus défini par R t = r 1 t + r 2 t . Montrerque R s’écrit sous la forme (5.1).59


60 Exemples. EnoncésExercice 5.1.3 Processus de Bessel de dimension 3. Soit R le processussolution dedR t = 1 R tdt + dW t , R 0 = 1 .1. Montrer que Z t = 1 R test une martingale locale.2. Montrer que (U t = exp(− λ2 t2 ) sinh λR t, t ≥ 0) est une martingale locale.λR tOn admetra que c’est une martingale.3. En déduire la valeur de E(exp(− λ2 T m) où T m = inf{t : R t = m}, avec2m > 0.4. Soit f une fonction continue bornée et a un nombre réel. Quelles conditionsdoit vérifier la fonction v pour quesoit une martingale?v(R t ) exp[−at −∫ t0f(R s )ds]5. Supposons que v est explicitée. Comment calculerez vousE(exp[−aT m −∫ Tm0f(R s ) ds]) ?Exercice 5.1.4 Processus de Bessel de dimension 2. Soit dR t = dW t +12R tdt.1. Montrer que Z t = ln R t est une intégrale stochastique par rapport à W .2. Soit ν un nombre réel positif. Montrer que L t = [R t ] ν exp(− ν22est une martingale locale.∫ t0ds)Exercice 5.1.5 Processus de Bessel de dimension δ. Soit dR t = dB t +δ − 12R tdt.1. Pour quelles fonctions s le processus s(R t ) est-il une martingale locale?2. Quelle est la dynamique de Y t = R 2 t ?3. Montrer que Z tdef= exp(− µ 2 (Y t − δt) − µ22∫ t4. Soit dQ = ZdP . Quelle est la dynamique de Y sous Q?0R 2 sY u du) est une martingale.Exercice 5.1.6 Minimum d’un BesselQuelle est la loi de inf s≤t X s lorsque X est un processus de Bessel?


2005-06 615.2 Processus de Bessel carréExercice 5.2.1 Soit α, σ deux constantes et dX(t) = − 1 2 αX(t) dt + 1 σdW (t).2Soit Y t = X t e αt/2 . Ecrire dY t .1. En déduire la forme de la solution X(t).2. On suppose que (W 1 , W 2 , . . . , W n ) sont des Browniens indépendants eton note X i la solution de dX i (t) = − 1 2 αX i(t) dt + 1 2 σdW i(t). Soit r leprocessus défini par r(t) = X 2 1 (t) + . . . + X 2 n(t).3. Montrer que le processus B défini par B(0) = 0 et dB(t) =est un mouvement Brownien.n∑i=1X i (t)dW i (t)√rt4. Montrer que dr t = (a − br t ) dt + σ √ r t dB tExercice 5.2.2 Processus de Bessel carré. Soit x ≥ 0 et R un processustel quedR t = µdt + 2 √ |R t |dW t , R 0 = x (5.2)On admettra que R t existe et que R t ≥ 0.1. Soit Z t = (W t ) 2 . Montrer que Z vérifie une équation de la forme (5.2).Quelle est la valeur de µ correspondante?2. Soit W 1 un mouvement Brownien indépendant de W et Z 1 t = (W t ) 2 +(W 1 t ) 2 . Montrer que Z 1 vérifie une équation de la forme (5.2). Quelle estla valeur de µ correspondante? Généralisation à la somme des carrés de nBrowniens indépendants.3. Soit ρ t = √ R t . Montrer que dρ t = b(t, ρ t , µ)dt + dW t . On explicitera b.4. Soit W 1 un mouvement Brownien indépendant de W . On note R (µ) (x) leprocessus défini en (5.2) et, pour y ≥ 0, le processus R (ν) (y) solution dedR (ν)tOn notera simplement R (µ)tles processus R (µ)tindépendants.(a) Soit X t = R (µ)tet R (ν)t= νdt + 2 √ R t (ν)dW 1 t , R (ν)0 = y (5.3)et R (ν)t ces deux processus. On supposera quene s’annulent pas et on admettra qu’ils sont+ R (ν)t . Calculer dX t .


62 Exemples. Enoncés(b) Montrer que le processus Z défini ci-dessous est un mouvement Brownien√ √R (µ)t dW t + R (ν)t dWt1dZ t = √R (µ)t + R (ν)t(c) En déduire que X t = R (µ)t+ R (ν)tvérifiedX t = βdt + 2 √ X t dZ tOn explicitera β en fonction de µ et ν.5. (a) On suppose que l’on connaît E(R (µ)t ) = m(µ) et Var(R (µ)t ) = v(µ)pour tout µ. Exprimer E(X t ) et Var(X t ) en fonction de m et v.(b) On admet que, si W est un brownien issu de √ x (voir exo 2.1.11)E(exp −λ(W t ) 2 1) = √ exp(−λx1 + 2λt 1 + 2λt ) (5.4)Comment calculer E(exp −λ[ρ (1)t ] 2 ), E(exp −λR (1)t (x)) et E(exp −λR (2)t (x)) ?.On utilisera la question (d) et l’indépendance de R (µ)t6. Montrer queE(exp −λR (µ)t (x)) = E(exp −λR (1)t (x))Calculer E(exp −λR (µ)t (x)).7. Comment démontrer l’indépendance de R (µ)tComment démontrer (5.4) ?et R (ν)t .() µ−1E(exp −λR (1)t (0))et R (ν)t ?Exercice 5.2.3 Processus de Bessel carré.Soit X un BESQ (δ) (x).1. Montrer que ( 1 c X ct, t ≥ 0) est un BESQ (δ) (x/c).2. Monter que, si F est un processus adaptéZ t = exp{ 1 2est une martingale locale.∫ t0F s d(X s − δs) − 1 23. Montrer que si F est déterministe, dérivableZ t = exp{ 1 2 F (t)X t − F (0)X 0 − δ∫ t0F (s)ds − 1 2∫ t0∫ tF 2 s X s ds}0F 2 s X s ds + X s dF (s)}


2005-06 634. Soit Φ solution deΦ ′′ = b 2 Φ , Φ(0) = 1, Φ ′ (1) = 0Montrer que Z t = exp{ 1 2 F (t)X t − F (0)X 0 − δ ln Φ(t) − b2 2admettra que Z est une martingale.5. En déduire que∫ t0X s ds}. OnQ (δ)x (exp − 1 2∫ 1Exercice 5.2.4 En utilisant que∫ soù R s (2) = B s + 1 20duR (2)u0X s ds) = (cosh b) −δ/2 exp(−xb tanh b)sup |W t | loi= 11≤t≤1 2∫ 10dsR (2)smontrer que E sup 1≤t≤1 (|W t |) = √ π/2.Exercice 5.2.5 Application du théorème de Lamperti The following absolutecontinuity relation between two BES processes (with ν ≥ 0)( ) ν (P x (ν) Rtν2∫ t)ds= exp − P x(0)x2where P (ν) is the law of a BES with index ν. On utiliseraet (R t ; t ≥ 0) loi= x exp(B Ct + νC t )0R 2 sW (ν) |F t = exp(νW t − ν22 t)W |F tExercice 5.2.6 Soit dX t = 2 √ X t dW t + δ(t)dt où δ est une fonction (continuebornée). On veut calculer() )A = E t,x(exp− 1 2∫ TtX u m(u)duf(X T )1. On se place dans le cas f = 1, et on note ϕ la solution deMontrer que(E t,x(exp− 1 2∂ uu ϕ(u, T ) = m(u)ϕ(u, T ) ; ∂ u ϕ(T, T ) = 0∫ TtX u m(u)du))( ) ( ∫ )∂u ϕ(t, T )= exp2ϕ(t, T ) x 1 T∂ u ϕ(s, T )exp2 t ϕ(s, T ) δ(u)du2. Montrer que le calcul de A se ramène au calcul de la solution d’une EDP.


64 Exemples. Enoncés5.3 Autres processus.Exercice 5.3.1 Processus d’Ingersoll. Soit a < z < b et Z le processussolution dedZ t = (Z t − a)(b − Z t )σdW t , Z 0 = zOn admet que pour tout t, le processus Z vérifie a < Z t < b.1. Calculer d(Z −1t ).2. soit ζ tdef= Z t − ab − Z t. Calculer dζ t puis d(ln ζ t ).3. Soit X t = (b − Z t )g(t, ζ t ). Donner une condition sur g pour que X soitune martingale. Sauriez vous résoudre l’équation obtenue ?4. Soit Y solution dedY t = (Y t − a)(b − Y t ) 2 dt + (Y r − a)(b − Y t )σdW tMontrer qu’il existe une probabilité Q que l’on déterminera telle que, sousQ Y ait même loi que Z sous P .Exercice 5.3.2 Un processus stationnaire. Soit X vérifiant dX t = −aX t dt+σdW t , X 0 v.a. donnée.1. Explicitez X t .2. Montrer que si X 0 est une v.a. gaussienne indépendante de W , le processusX est un processus gaussien.3. On suppose que X 0 est gaussienne, indépendante de W . Déterminer la loide X 0 pour que la loi de la v.a. X t ne dépende pas de t.Exercice 5.3.3 Soit X solution de (on admet que X existe)dX t = X t (1 − X t ) ((µ − X t )dt + dW t ) , X 0 = xSoit h 0 (x) = ( )1−x 2θ−1x et h1 (x) = 2 ln(1−x)−ln x(2µ−1)1. Montrer que h 0 (X t ) et h 1 (X t ) − t sont des martingales.2. Montrer que P (X τ = a) = h 0(x)−h 0 (b)h 0(a)−h 0(b)5.4 Des calculset τ = inf{t ≥ 0, S t ∉ [a, b]}.et calculer E(τ).Exercice 5.4.1 Un calcul de probabilité. On suppose connueΦ(a, T ) = P (W t ≤ at , ∀t ≤ T )


2005-06 65Soit W 1 et W 2 deux MB indépendants etdX t = X t (rdt + σ 1 dW 1 (t)), X 0 = 1dY t = Y t (rdt + σ 2 dW 2 (t)), Y 0 = 1Calculer, en fonction de Φ la quantité P (X t ≤ Y t , ∀t ≤ T ).Exercice 5.4.2 Un calcul de loi Let dX t = µ(t)dt + σ(t)dW t , X 0 = 0 whereµ and σ are piece wise constant over known time.Let us restrict our attention to the caseµ(t) = µ ∀t ∈ [0, 1[,µ(t) = µ 1 ∀t ∈ [1, ∞[,σ(t) = σ ∀t ∈ [0, 1[, σ(t) = σ 1 ∀t ∈ [1, 2[/, .Describe the distribution of Y t = max 0≤s≤t X s .Exercice 5.4.3 Montrer que la solution de[dC t = C t r t dt + m( dS ]t− r t dt)S tavec dS t = S t (µ t dt + σ t dW t ) s’écrit sous la formeoù on explicitera a et b.C t = C 0(StS 0exp[a∫ t0r s ds + b∫ t0) mσsds]2Exercice 5.4.4 Changement de temps Soit dX t = −λX t dt + σdW t et τ =inf{t : |X t | > g(t)} où g est une fonction déterministe. Exprimer P (τ > t) enfonction de Ψ(u) = P (τ ∗ > u) avec τ ∗ = inf{t : |W t | > h(t)}.


66 Girsanov. Enoncés


Chapter 6GirsanovDans tous ces exercices, B (ou W ) désigne un P -mouvement Brownien issu de0, F t sa filtration canonique.6.1 Résultats élémentaires.Exercice 6.1.1 Changement de probabilité Soit (θ t , t ≥ 0) un processus∫ tadapté continu borné et L t = exp[ θ s dB s − 1 θ0 2sds]. 2 Soit Q la probabilité0définie sur F T par dQ = L T dP . Soit (φ t , t ≥ 0) un processus adapté continuborné et M t =∫ t0φ s dB s −∫ t0∫ tθ s φ s ds. Montrer que M t est une Q-martingale.On pose Z t = M t L t . Calculer dZ t . Montrer que Z t est une P -martingale locale.Pouvait-on prévoir ce résultat.Exercice 6.1.2 Un calcul d’espérance. Soit θ un processus adapté bornéet H le processus défini par dH t = −H t θ t dW t , H 0 = 1. On note dQ| Ft =H t dP | Ft . Montrer que E P (H T ln H T ) = E Q ( 1 θ2sds). 2 On pourra faire une0démonstration à la main (quand θ est déterministe) ou utiliser le théorème deGirsanov.Exercice 6.1.3 Calcul d’espérance. Soit p une fonction déterministe donnée.∫ TPour quelles fonctions h et k le processus exp(h(t) + k(t)W 2 t +est-il une martingale. Applications :∫ T1. Calculer E[exp(λWT 2 + p(s)Ws 2 ds]∫ T2. Calculer E[exp(λWT 2 + p(s)Ws 2 ds)Ψ(A + BW T )]0067∫ t0p(s)W 2 s ds)


68 Girsanov. EnoncésExercice 6.1.4 Itô+ Girsanov. Soit Γ le processus solution de dΓ t = Γ t (β t dt+γ t dW t ), Γ 0 = 1 où β et γ sont des processus F adaptés bornés.(1. Montrer que Γ t exp −∫ t0)β s ds est une martingale locale.2. Trouver une probabilité Q telle que Γ t soit une Q-martingale locale.3. Calculer dΓ −1 . Trouver une probabilité R telle que Γ −1t soit une R-martingale locale.Exercice 6.1.5 Longstaff’s Model. Soit r t = Yt 2 avec dY t = dW t − (λY t +α2 )dt.1. Donner la dynamique de r.2. Soit f et g deux fonctions déterministes (que l’on supposera continuesbornées). ExprimerE(exp∫ ten fonction de exp 1 20[f(s)W s + g(s)]dW s − 1 2∫ t0g 2 (s)ds.3. Montrer que le calcul de E(exp −∫ t0∫ t0[f 2 (s)W 2 s + 2W s f(s)g(s)]ds)r s ds) se déduit du calcul de l’expressionprécédente avec des fonctions f et g vérifiant des conditions que l’onprécisera.Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densiténe dépend pas de ν.P (B t + νt ∈ dy|B s + νs = x)Exercice 6.1.7 Loi du sup. On supposera que l’on connait la loi du couple(B ∗ t , B t ) où pour un processus X on noteXt ∗ = sup X s .s≤tMontrer comment calculer la loi de (L ∗ t , L t ) pour L t = exp(αB t − α22 t).Exercice 6.1.8 Loi de quantiles


2005-06 691. Soit F et G deux fonctionnelles définies sur C([0, 1], IR). Montrer que l’ona équivalence entre(i) ∀t, ∀µ ∈ IR, F (X s , s ≤ t) loi= G(X s , s ≤ t) le processus X étant unBrownien de drift µ(ii) ∀t, F (X s , s ≤ t) loi= G(X s , s ≤ t) le processus X étant un Brownien.2. Soit A t =que∫ t0ds 1 Xs ≥0 et θ t = sup{s ≤ t : sup u≤s X u = X s }. MontrerA tloi= θ t , lorsque le processus Xest un mouvement Brownien de drift µéquivaut àA 1loi= θ 1 , lorsque le processus Xest un mouvement Brownien3. Soit X un mouvement Brownien. Montrer que si E(f(X 1 , A 1 ) 1 X1>0) =loiE(f(X 1 , θ 1 ) 1 X1>0), alors X 1 , A 1 = (X 1 , θ 1 ).La preuve de la première assertion peut être trouvée dans Embrechts et al.6.2 Crochet.Exercice 6.2.1 Girsanov Soit M une P -martingale et dQ = exp(M t − 1 2 〈M〉 t) dP .Montrer que si N est une P martingale, N− < N, M > est une Q martingale.Exercice 6.2.2 h-processus. Soit X tel que dX t = µdt + σdW t , X 0 = x et hune fonction de classe C 1 telle que h(X t ) est une martingale positive. On noteQ la probabilité définie par dQ| Ft = h(X t)h(x) dP | F t. Soit M une P -martingale.∫ th ′ (X s )Montrer que M t −h(X s ) d〈M, X〉 s est une Q-martingale.6.3 Processus.0Exercice 6.3.1 Processus de Bessel. Soit P la probabilité historique, θ etµ deux processus. On note P θ la probabilité telle que le processus W θ définipar W θ tdef= W t −∫ ttelle que W µ def= W t −0θ(s)ds soit un mouvement Brownien et P µ la probabilité∫ t1. Quelles sont les densités L θ = dP θ0µ(s)ds soit un mouvement Brownien.dP et Lµ = dP µdP ?


70 Girsanov. Enoncés2. Soit L = LθL µ . Expliciter L en fonction de W puis en fonction de W µ . Aquel changement de probabilité type Girsanov correspond L?3. Soit R le processus solution dedR t = δ − 1R tdt + dW t , R 0 = 1(a) Montrer que∫ t0dR s= ln R t + 1 ∫ tR s 2 01R 2 sds(b) Soit θ un processus adapté borné et L t = exp(∫ tOn notera Q la probabiité définie par dQ = L t dP .Comment choisir θ pour que, sous Q0θ(s)dW (s)− 1 2∫ t0θ 2 (s)ds).dR t = 1 R tdt + d ˜W toù ˜W est un Q-Brownien.(c) Exprimer dans ce cas L t en n’utilisant que le processus R(d) En déduire que( ∫ tE(f(R t )) = E (ρ t ) δ exp[α0où α est une constante dépendant de n etdsρ 2 sdρ t = 1 ρ tdt + d ˜W t , ρ 0 = 1 .)] f(ρ t )Exercice 6.3.2 Fonctionnelles exponentielles1. Calculer E( ∫ t0 exp(B s)ds) et E(exp(αB t ) ∫ t0 exp(γB s)ds).2. Soit A(t, ν) =∫ t0exp(B s + νs)ds.(a) Montrer en utilisant le théorème de Girsanov que le calcul de E(A(t, ν))se ramène au cas ν = 0.(b) Peut-on faire un calcul direct?Exercice 6.3.3 Soit X le processus solution dedX t = −λX t dt + dB t , X 0 = x.


2005-06 711. On définit(L t = exp λ∫ t0X s dB s − λ22∫ t0)Xs 2 ds. Vérifier que L est une martingale locale. On admet pour la suite quec’est une martingale.2. On note P λ la mesure de probabilité définie sur F t par dP λ = L t dP .Quelle est la dynamique de X sous P λ ?3. Montrer que4. CalculerL t = exp(∫ t0λX s dX s + 1 2E P(exp(− b2 2∫ t0∫ t0)Xs 2 ds) .λ 2 X 2 s ds)5.6. Montrer que le calcul de E(expb∫ t0∫ t0X 2 s ds) se déduit de celui de E(exp(aB 2 sds)). On ne cherchera pas à effectuer ce dernier calcul.Exercice 6.3.4 Processus d’Ornstein-Uhlenbeck.1. Soit U une variable gaussienne d’espérance m et de variance σ 2 . CalculerE(exp{λU 2 + µU}) pour 1 − 2λσ 2 ≥ 0.2. On définit sur F T la mesure P b par∫ TdP b = exp{−b B s dB s − b202∫ T0B 2 s ds}dP(a) Justifier que, sous P b le processus (W t = B t + b ∫ t0 B s ds , t ≤ T ) estun brownien.(b) En déduire que sous P b , le processus (B t , t ≥ 0) est un processusd’Ornstein-Uhlenbeck, et que B t est une variable gaussienne dont onprécisera, en s’appuyant sur le cours, l’espérance et la variance.(c) Montrer que, sous P , on a∫ t0B s dB s = 1 2 (B2 t − t).La même égalité est-elle vraie sous P b ?∫ t0B s dB s −


72 Girsanov. Enoncés(d) Montrer que, pour tout t ≤ T ,E P (exp{−αB 2 t − b2 2∫ t0B 2 s ds}) = E b (exp{−αB 2 t + b 2 (B2 t − t)})où E b désigne l’espérance sous P b .Montrer que si ˜B est un brownien issu de a, on aE P (exp{−α ˜B 2 t − b2 2∫ t0˜B 2 s ds}) = E b (exp{−α ˜B 2 t + b 2 ( ˜B 2 t − a 2 − t)})(e) En déduire (il y a des calculs) que, pour tout t,∫ tE P (exp{−αB 2 t − b2 20B 2 s ds}) = (cosh bt + 2 α b sinh bt)− 1 23. Montrer que si ˜Bt est un Brownien issu de aE P (exp{−α ˜B 2 t − b2 2∫ t0˜B 2 s ds}) = (cosh bt+2 α b sinh bt)− 1 2 exp[−xb21 + 2α bcoth btcoth bt + 2α ]bavec x = a 2 .Exercice 6.3.5 Soit S solution deles coefficients µ et σ étant constants.dS t = S t (µ dt + σ dB t ) , S 0 = s ,1. Montrer que S t = S 0 exp(µt + σB t − σ22 t).2. On pose θ = − µ − rσ . Soit Q définie sur F t par dQ = L t dP avec L t =exp(θB t − 1 2 θ2 t). Montrer que (W t = B t + θt, t ≥ 0) est un Q-mouvementbrownien.3. Soit ˜P définie sur F t par d ˜P = Z t dQ avec Z t = exp(σW t − σ22 t).Montrer quedS t = S t ((r + σ 2 ) dt + σ d ˜B t )où ˜B est un ˜P -mouvement brownien.( )4. Soit P t = P 0 e rt St. Montrer que , t ≥ 0 est une Q-martingale.P tMontrer que P tS test une ˜P -martingale.


2005-06 735. Soit F t = e −λt (∫ t0)S u du + sA où A, λ sont des constantesSoit Ψ t = F t e λt. Ecrire l’équation différentielle stochastique vérifiée parS tΨ t en utilisant le Brownien ˜B.Exercice 6.3.6 Soit α, β et σ des fonctions (déterministes) bornées et b(t) =∫ t0β(s) ds. On note r le processus solution deOn suppose que σ ne s’annule pas.1. Vérifier que(r t = exp(−b(t)) r 0 +dr t = (α(t) − β(t)r t ) dt + σ(t)dW t∫ t2. Calculer E(r t ) et Cov(r t , r s ).0exp(b(u)) α(u) du +3. Soit Q 1 la probabilité définie sur F t par dQ 1 = L t dP , avecL t = exp(∫ t0θ(s)dW s − 1 2∫ t0∫ t0)exp(b(u)) σ(u) dW u .(θ(s)) 2 ds)où θ(s) = − α(s)σ(s) . On suppose θ bornée. On note W t1 = W t −Montrer que (exp(b(t)) r t , t ≥ 0) est une Q 1 martingale.4. Soit Q 2 la probabilité définie sur F t par dQ 2 = Z t dP , avecdZ t = Z tβ(t)σ(t) r t dW 1 t , Z 0 = 1Montrer que r est une Q 2 -martingale.∫ t0θ(s) ds.Exercice 6.3.7 Drift non observable Soit Bt Y = Y t + B t où Y est unevariable aléatoire de loi ν, indépendante de B. Soit F une fonctionnelle surC([0, t], IR). Montrer que∫avec h(x, t) =E[F (B Y s , s ≤ t)] = E[F (B s ; s ≤ t)h(B t , y)]ν(dy) exp(yx − y2t) En déduire que, sur l’espace canonique2X t −∫ t0ds h′ xh (X s, s)


74 Girsanov. Enoncésest une martingale sous P h avec P h | Ft = h(X t , t)W | Ft . Montrer que B Y t =˜B h t +∫ t ∫ tds h′ x0 0h (BY s , s) où ˜B h test un Brownien.Soit Q définie par dQ = e −Y B t− 1 2 Y 2t dP . Montrer que sous Q, BtYde Y .est indépendantExercice 6.3.8 Soit B un MB et F sa filtration naturelle.fonction.On note h une1. Donner des conditions sur h pour que dQ = h(B T )dP définisse, sur F Tune probabililité équivalente à P .2. Calculer L t telle que dQ| Ft = L t dP | Ft3. Montrer que ∀X ∈ F T , on a E Q (X|B T ) = E P (X|B T )4. Expliciter Q(B T ∈ dx).5. Soit A ∈ F T , indépendante de B T . Montrer que Q(A) = P (A). Donnerdes exemples de tels A.6. Calculer Q(f(B T )|F t ).7. Montrer queL t = 1 +∫ t0dB s∫ ∞−∞8. Montrer que le processus W défini pardW t = dB t −∫ ∞−∞∫ ∞−∞est un Q mouvement Brownien.dy h′ (y)e −(y−B s) 2 /(2(T −s))√2π(T − s)dyh ′ (y)e −(y−B t) 2 /(2(T −t))dtdyh(y)e −(y−B t) 2 /(2(T −t))9. (cette question ne dépend pas des précédentes) Soit G t = F t ∨σ(B T ). Montrerque le processus M t = B t −∫ tB T − B s0 T − sds est un P -G t mouvementBrownien. Montrer que M t est indépendante de B T .10. Montrer que M est un Q-G t mouvement Brownien.∫ (tx − X sExercice 6.3.9 Soit X t = W t +0 1 − s ds et M t = exp −Montrer queM t = exp(− x22 + (x − X t) 22(1 − t) + 1 )2 ln(1 − t)Verifier cette formule∫ t0x − X s1 − s dW s − 1 2∫ t0( ) 2 x − Xsds1 − s


2005-06 75Exercice 6.3.10 Soit dQ| Ft = h(t, X t )dP | Ft . Sous quelles conditions sur h Qest-elle une probabilité sur F T ? Montrer queest une Q-martingale?B t −∫ t0∂ x h(s, B s )ds( (Exercice 6.3.11 Soit L t = exp − 1 4 e−2W t− 1 ) ∫+ 1 t ( ) )2 0 e−2W s− 1 4 e−4Ws ds1. Question préliminaire: Calculer l’intégrale ∫ t0 e−2W sdW s .2. Montrer que L est une martingale. Quelle est son espérance?3. On pose dQ = L t dP . Quelle est la dynamique de W sous Q?6.4 Cas multidimensionelExercice 6.4.1 Cas multidimensionel. Soient (B 1 (t), t ≥ 0) et (B 2 (t), t ≥0) deux mouvements Browniens indépendants. Soit (L i (t), i = 1, 2 , t ≥ 0) lesprocessus définis pardL i (t) = θ i (t)L i (t)dB i (t) , L i (0) = 1où (θ i (t), i = 1, 2) sont des processus adaptés continus bornés.1. Vérifier queL i (t) = exp(∫ t0θ i (s)dB i (s) − 1 2∫ t0θ 2 i (s) ds) .2. Soit T ≥ 0 et Q 1 la probabilité définie sur F T par dQ 1 = L 1 (T )dP .Soit (φ t , t ≥ 0) un processus adapté continu et M t =∫ t0θ 1 (s)φ s ds.(a) Montrer que (M t , 0 ≤ t ≤ T ) est une Q 1 -martingale locale.∫ t0φ s dB 1 (s) −(b) On pose Z 1 (t) = M t L 1 (t). Calculer dZ 1 (t). Montrer que Z 1 est uneP -martingale. Pouvait-on prévoir ce résultat ?3. Soit Z t = L 1 (t)L 2 (t). Ecrire dZ t . Montrer que Z est une P -martingale.4. Soit Q la probabilité définie sur F T par dQ = Z T dP . Comment se transformentles browniens B i ?


76 Girsanov. Enoncés5. Soit (S i , i = 1, 2) deux processus solutions dedS i (t) = S i (t)[b i (t)dt + σ i (t)dB 1 (t) + φ i (t)dB 2 (t)]Montrer qu’il existe une probabilité Q équivalente à P telle que, sous QdS i (t) = S i (t)[rdt + σ i (t)dW 1 (t) + φ i (t)dW 2 (t)]où (W i , i = 1, 2) sont des Q-Browniens indépendants.6.5 Temps d’arrêt.Exercice 6.5.1 Temps d’arrêt. Soit τ un (F t )-temps d’arrêt. Soit Q telleque dQ| FT = L T dP | FT et X ∈ F T . Comparer E P (L T 1 τ>T X) et E Q (X 1 τ>T ).Exercice 6.5.2 Let W be a Brownian motion and T = inf{t : e B t−t/2 > a},where a > 1. Prove that, ∀λ ≥ 1/2,E( 1 T 0. Soit r une constante.1. Montrer qu’il existe θ tel quesoit une martingale.M tdef= exp(−rt + θX t )2. Soit b un nombre positif et τ le temps d’arrêt défini parτ = inf{t ≥ 0 | X t = b}Calculer E(exp(−rτ + θX τ )). On admettra que la martingale M t estuniformément intégrable et que le temps d’arrêt τ est fini. En déduireE(exp(−rτ)).3. On suppose que les conditions de la première question sont satisfaites.Soit Q telle que dQ = M t dP , sur F t . Comment se transforme W ?4. Soit S le processus défini paret Y t = ln S ts . Ecrire dY t.dS t = S t [rdt + σdW t ], S 0 = s


2005-06 775. Soit B une constante telle que s < B. Soit T B le temps d’arrêtCalculerT B = inf{t ≥ 0 | S t = B}E(exp(−rT B )) .Exercice 6.5.4 Soit f et g deux fonctions déterministes, f de classe C‘1, gcontinue. On note F t =∫ t0f(u)dW u et u est la solution deu ′′ (t) − 2 f ′ (t)f(t) u′ (t) − 2λg(t)f 2 (t)u(t) = 0avec u ′ (T ) = −2aλu(T )f 2 (T ). Le but de cet exercice est de montrer que( ( [ ∫ ]))T( ) 2 u(T )E exp −λ aFT 2 + g(t)Ft 2 dt =u(0)01. Montrer que, pour toute fonction h continue, le processus L défini par(∫ tL t = exp h(s)F s dW s − 1 ∫ t)h 2 (s)Fs 2 ds2est une martingale.2. En déduire que( ( ∫ Th(s)1 = E exp0 2f(s) dF s 2 − 1 2( (= E exp 1 ∫h(T )T2 f(T ) F T 2 −3. Montrer que( [1E exp2( u ′ (T )u(T )f 2 (T )00F 2 t∫ t0) ∫ TFT 2 − Ft200(h(s)f(s) + h 2 (s)F 2 s )ds( h ′ (t)f(t) − f ′ (t)h(t)f 2 (t))))dt −( u ′′ (t) − 2u ′ (t)f ′ (t)/f(t)u(t)f 2 (t)4. Résoudre le même problème par changement de temps.∫ t0(h(s)f(s) + h 2 (s)F 2 s )ds) ])dt =5. Soit Ψ une fonction borélienne bonée de IR dans IR. Comment calculer( ( []))K = Eexp−λaF 2 T +∫ T0g(t)F 2 t dtΨ(A + BF T +∫ T0φ(t)F t dt)Exercice 6.5.5 Decomposition canonique Soit W un mouvement Brownienet h une fonction positive, vérifiant h(0, 0) = 1 et harmonique en espace(c’est-à-dire telle que h(t, W t ) est une martingale). On définit Q par∫ th ′ xdQ| Ft = h(t, W t )dP Ft . Montrer que W t −0 h (s, W s)ds est un Q-mouvementBrownien.( ) 1/2 u(T )u(0)) )


78 Girsanov. Enoncés6.6 FinanceExercice 6.6.1 Moyenne. Soit dS t = S t (rdt + σdB t ), S 0 = 1, r et σétant des constantes. On souhaite calculer C = E[(Z T − S T ) + ] quand Z T =( ∫ 1 T)exp ln S t dt .T01. Soit Q la probabilité définie sur F T par dQ = exp(σB T − σ 2 T/2)dP .Montrer quee −rT E P [(Z T − S T ) + ] = E Q [( Z TS T− 1) + ] .∫ T2. Soit ˜B t = B t − σt. Ecrire Z T /S T sous la forme exp(αT − β(t)d ˜B t ).03. Montrer que le calcul de C se réduit au calcul de E(( ˜S T − K) + ) pour unBrownien géométrique ˜S dont on précisera la loi.Exercice 6.6.2 Volatilité stochastique On rappelle le théorème de représentationprévisible à deux dimensions Soit W = (W 1 , W 2 ) un Brownien à valeurs dansIR 2 et (F t ) sa filtration canonique. Toute (F t )-martingale de carré intégrables’écrit M t = m +∫ t0φ 1 (s)dW 1 (s) +∫ t0φ 2 (s)dW 2 (s) où (φ i , i = 1, 2) sont desprocessus adaptés. Soient µ et η deux fonctions déterministes de IR + dans IR etσ, γ deux fonctions déterministes de IR dans IR. On considère alors un marchéfinancier où l’actif risqué vérifieoù Y est un processus solution dedS t = S t (µ(t)dt + σ(Y t )dW 1 t ), S 0 = sdY t = η(t)dt + γ(Y t )dW 2 t , Y 0 = 11. Quelles doivent être les propriétés du processus (L t , t ≥ 0) pour que laformule dQ|F t = L t dP définisse une probabilité Q ?2. Déterminer l’ensemble des probabilités équivalentes à P telles que, sousQ, S soit une martingale.3. Soit B un actif contingent B ∈ F T . Comment lui donner un prix (le tauxsans risque est nul) ?Exercice 6.6.3 Options boost. Soit M une F t -martingale à valeurs strictementpositives.1. Justifier qu’il existe ψ tel que dM t = ψ t dW t .2. Montrer qu’il existe Ψ tel que dM t = Ψ t M t dW t .


2005-06 793. Soit γ un nombre réel. Calculer d[(M t ) γ ].4. Soit S un Brownien géométrique tel que S 0 = s etdS t = S t (r dt + σdW t ) (6.1)où r et σ sont des constantes. Montrer qu’il existe γ tel que S t = s(M t ) γoù M est une martingale de la forme précédente. Expliciter Ψ en fonctionde r et σ. A quel choix de r et σ correspond la valeur γ = 1?5. Soit K un nombre réel positif et M une martingale telle que dM t =M t σdW t où σ est une constante et M 0 = 1. Montrer queE((M t − K) + ) = E((1 − KM t ) + )On pourra utiliser le théorème de Girsanov et faire apparaitre une nouvelleprobabilité Q et déterminer la loi de 1/M sous Q.6. Soit S un processus vérifiant (6.1), St ∗ = sup s≤t S s et Wt ∗ = sup s≤t W s . Laloi de Wt∗ est connue (c’est celle de |W t |, ce résultat sera admis), on noteraΦ(a) = P (Wt ∗ ≤ a). Calculer, en utilisant les résultats de la question 3,E( 1 S ∗T ≤a) qui correspond à la valeur d’une <strong>option</strong> boost (au coefficientexp(−rT ) près).Exercice 6.6.4 Volatilité stochastique. Soit W 1 et W 2 deux Browniensindépendants, et F t = σ(Ws 1 , Ws 2 , s ≤ t) la filtration engendrée par les deuxBrowniens. Soit µ et η deux fonctions déterministes bornées de IR + dans IR etσ, γ deux fonctions déterministes bornées définies de IR dans IR. On note S lasolution dedS t = S t (µ(t)dt + σ(Y t )dWt 1 ), S 0 = soù Y est un processus solution dedY t = η(t)dt + γ(Y t )dW 2 t , Y 0 = 11. Soit θ un processus borné et Z la solution dedZ t = Z t θ t dW 1 t , Z 0 = 1Ecrire explicitement Z t sous la forme d’une exponentielle.2. Soit λ et ν deux processus adaptés bornés et L le processus défini par[∫ tL t = exp λ s dWs 1 − 1 ∫ t ∫ t(λ s ) 2 ds + ν s dWs 2 − 1 ∫ t](ν s ) 2 ds (6.2)220Ecrire l’EDS vérifiée par L.3. On pose ˜W t = W 1 t −∫ t000λ s ds et on note ˜Z la solution de d ˜Z t = ˜Z t θd ˜W 1 t , ˜Z 0 =1 où θ est une constante. Montrer que L ˜Z est une martingale.0


80 Girsanov. Enoncés4. Soit Q définie sur F t par dQ = L t dP . Montrer que ˜Z est une Q martingale.En déduire que ˜W 1 est un Q brownien.5. Montrer que ˜W 2 t = W 2 t −∫ t0ν s ds est un Q brownien.6. On admet que si Q est une mesure équivalente à P il existe λ, ν tels que ladensité de Q par rapport à P soit de la forme (6.2). Décrire l’ensemble descouples λ, ν correspondants à des probabilités Q telles que (S t e −rt , t ≥ 0)soit une Q-martingale.7. Le marché financier est-il complet ?8. Soit X un actif contingent duplicable, c’est-à-dire tel qu’il existe V processusadapté de la formedV t = rV t dt + φ t (dS t − rS t dt)vérifiant V T = X, avec φ processus adapté borné. (On ne demande pasde justifier cette définition)(a) Montrer que (V t e −rt , t ≥ 0) est une Q martingale pour tout Q ∈ Q.(b) On suppose que V t = v(t, S t , Y t ). Montrer que v vérifie une équationaux dérivées partielles que l’on explicitera.Exercice 6.6.5 Symétrie put-call. Soit M une (F t )-martingale telle quedM t = M t σdW t où σ est une constante et M 0 = 1.1. Vérifier que M est à valeurs strictement positives.2. Calculer dY t quand Y t = (M t ) −1 .3. Soit Q telle que dQ = M t dP sur F t . Déterminer la loi de Y sous Q.4. Montrer que E P ((M T − K) + ) = KE P ((K −1 − M T ) + ).Exercice 6.6.6 SymétriesOn suppose que le prix d’un actif, sous la probabilité risque neutre Q est donnépar (3.3) où q est le taux de dividendes. On note C(x, K, r, q) (ou C(x, K, r, q, σ)si besoin est) le prix d’une <strong>option</strong> d’achat européenne de prix d’exercice K, soitC(x, K, r, q) = E(e −rT (S T − K) + )On rappelle que, dans le cas r = 0 = q, en notant C ∗ (x, K) = C(x, K, 0, 0) leprix d’un call de strike K sur un sous jacent de valeur initiale x et P ∗ le prixd’un put, on a[ ( x)] [ ( x)][ ( )] [ ( )]K KC ∗ (x, K) = xN d 1 −KN d 0 , P ∗ (x, K) = −xN d 0 +KN d 1 ,KKxx(6.3)


2005-06 81avecd 1 (α) = 1σ √ T ln(α) + 1 2 σ√ T , d 0 (α) = d 1 (α) − σ √ Tet que le delta du call est DeltaC ∗ (x, K) = N (d 1 ( x K )).1. Montrer, en utilisant les résultats de l’exercice 3.3 que C(x, K, r, q) =C ∗ (xe −qT , Ke −rT ).2. Montrer, au vu des formules précédentes que( )] xeDeltaC(x, K, r, q) = e −qT −qTN[d 1Ke −rTDeltaP(x, K, r, q) = −e −qT N[d 0( Ke−rTxe −qT )]où DeltaC est le Delta du call.3. Montrer, au vu des formules (6.3) et de la question (a) queC(x, K, r, q) = C ∗ (Ke −µT , x) = P ∗ (xe −µT , K) = P (K, x, q, r) (6.4)où µ = r − q et P le prix d’un put. Commenter.4. On souhaite montrer avec des arguments probabilistes que C ∗ (K, x) =P ∗ (x, K). (cas µ = 0).(a) On commencera par calculer la dynamique de 1/S, dans le cas dS t =S t σdW t .(b) On transformera E((S T −K) + ) en Ẽ((x− ˜S T ) + ) où Ẽ est l’espérancesous une probabilité que l’on précisera.5. Le payoff d’une <strong>option</strong> power sur le sous-jacent Y est Y α T (Y T −K) + . Montrezque son prix C pow (y, K, ν, α) peut s’obtenir facilement à partir de calleuropéens portant sur les sous jacents Y α et Y α+1 .Exercice 6.6.7 Options power. SoitdS t = S t ((r − δ)dt + σdB t ), S 0 = x .Cette dynamique modélise, sous la probabilité risque-neutre P , le prix d’un actifversant des dividendes au taux δ le taux spot étant r.1. On souhaite évaluer un actif contingent sur S, actif versant des dividendes.Il s’agit donc de calculerE P (h(S T )e −r(T −t) |F t ) .Quelle est la valeur de cet actif dans le cas h(x) = (x α −K) + ? (On utiliserasans modération les formules classiques sur l’évaluation de produits étudiésdans le poly ou dans tout ouvrage de référence.)


82 Girsanov. Enoncés2. On suppose r = δ. On pose dQ| Ft = (S t /x)dP | Ft . Justifier rapidementque l’on définit un changement de probabilité. On pose Z t = x 2 /S t . Quelleest la dynamique de (Z t , t ≥ 0) sous Q? Montrer que pour toute fonctionf borélienne bornée1x E P (S T f( x2S T)) = E P (f(S T ))3. On repasse au cas général. Montrer que S a est une martingale pourune valeur de a que l’on précisera. Montrer que, pour toute fonctionf borélienne bornée4. On se place dans le casE P (f(S T )) = 1 x a E P (S a T f( x2S T))h(x) = x β (x − K) +Montrer que h(S T ) s’écrit comme différence de deux payoffs correspondantsá des <strong>option</strong>s d’achat Européennes portant sur S β+1 et sur S β avecdes strikes que l’on déterminera.Exercice 6.6.8 Option d’échange Soit dS (i)t = S (i)toù les coefficients sont constants, les browniens W (i) étant correlles. Calculer lavaleur d’une <strong>option</strong> d’échange dont le payoff est (S (1)TExercice 6.6.9 Option quanto(b i dt + σ i dW (i)t , i = 1, 2− S(2) T )+ .Exercice 6.6.10 Taux de change On considère deux pays. Les quantitésrelatives au pays domestique seront indexées par d, les quantités relatives àl’autre pays par f. Chaque pays possède un taux sans risque noté respectivementr d et r f . Les marchés des deux pays sont dirigés par un mouvement BrownienW . Sous la probabilité P , un actif S suit la dynamiquedS t = S t (µ t dt + σ S t dW t )On suppose que chacun des deux marchés est sans arbitrage : il existe uneprobabilité risque neutre domestique notée Q d équivalente à P telle que sousQ d le processus (e −rdt S d t , t ≥ 0) est une Q d martingale.1. Montrer que tout actif domestique S d a une dynamique de la formedS d t = S d t (r d dt + σ t dW d t )où W d est un Q d mouvement Brownien. On notera λ d la prime de risquedéfinie par dWtd = dW t + λ d t dt. Le taux de change entre ces pays est Xdirigé pardX t = X t [(r d − r f ) dt + σt X dWt d ]Si S f est un prix en unités monétaires du pays étranger, S f X est le prixdu même produit en unités monétaires domestiques.


2005-06 832. Soit S f un actif étranger de dynaiqueMontrer quedS f t = S f t (r f t dt + σ t dW f t )λ f t − λ d t = −σ X tW d t − W f t =∫ t0σ X s ds3. Quelle est la dynamique du taux de change inverse Y = 1/X ?4. On souhaite valoriser une <strong>option</strong> quanto, c’est à dire une <strong>option</strong> sur produitétranger faisant intervenir le taux de change. Comment évaluer enmonnaie domestique un flux étranger de (Sf T − K) + ? Comment évaluerune <strong>option</strong> d’achat sur action étrangère avec strike en monnaie domestique?Exercice 6.6.11 Richesse (Cox-Huang, Karatzas) Un agent financier souhaiteinvestir sur un marché sur lequel deux actifs sont négociables:Un actif sans risque de dynamique dS 0 (t) = S 0 (t)r(t)dt où r estdéterministe,Un actif risqué dont le prix a pour dynamique dS 1 (t) = S 1 (t)(b(t)dt+σ(t)dW t ). On suppose que σ ne s’annule pas.La richesse X de cet agent a pour dynamiquedX t = X t r(t)dt + π t [b(t) − r(t)]dt + σ(t)π t dW toù π est un processus (F t ) adapté représentant la proportion de la richesseinvestie dans l’actif risqué.1. Montrer qu’il existe une probabilité Q telle que dS 1 (t) = S 1 (t)(r(t)dt +σ(t)d˜W t ) où ˜W est un Q mouvement Brownien.2. Montrer que (R(t)X t , t ≥ 0) est une Q martingale locale, avec R(t) =exp −∫ t0r(s)dsb(t) − r(t)3. Soit θ(t) = et H solution de l’équation dH t = −H t (r(t)dt +σ(t)θ(t)dW t ), H 0 = 1. Montrer que le processus (H t X t , t ≥ 0) est une P -martingale locale.4. On suppose que (H t X t , t ≥ 0) est une P -martingale pour tout choix deπ. L’agent souhaite obtenir une richesse terminale égale à ζ, v.a. F Tmesurable (i.e. X T = ζ). Montrer que sa richesse initiale X 0 est alorsdéterminée, et que son portefeuille de couverture (i.e. π) également.


84 Girsanov. EnoncésExercice 6.6.12 Optimisation de richesse Sur le marché financier on trouveun actif risqué et un actif sans risque. Soit (S t , t ≥ 0) le prix de l’actif risqué.On suppose que dS t = S t (µ t dt + σdB t ) . L’actif sans risque vérifiedS 0 (t) = S 0 (t)r t dt .Les processus µ t , r t sont F t -adaptés bornés, σ est une constante non nulle.( ∫ t)1. Montrer que S t exp − µ s ds est une P -martingale.2. On pose θ t = µ t − r t.σ0Déterminer Q telle que, sous Q le processus ˜B t = B t +mouvement Brownien.Ecrire l’équation vérifiée par S t en utilisant ˜B t .∫ t0θ s ds soit un3. Un agent de richesse initiale x investit sa richesse X t suivant l’actif sansrisque et l’actif risqué de prix S t suivant X t = n 0 (t)S 0 (t) + n 1 (t)S t . Onsuppose que dX t = n 0 (t)dS 0 (t) + n 1 (t)dS t .(a) Montrer que dX t = r t X t dt + n 1 (t)(dS t − S t r t dt).(b) On note π t = n 1 (t)S t et R t = exp −∫ tEcrire dX t en fonction de π t , r t , et B t .0r s ds.(c) Montrer que, sous Q, le processus X t R t est une martingale.(d) Soit ζ = X T . Ecrire X t sous forme d’une espérance conditionnellefaisant intervenir ζ et le processus r.4. On se donne un processus (c t , t ≥ 0) à valeurs positives adapté et unprocessus (π t , t ≥ 0) de carré intégrable F t - adapté.Soit (X t , t ≥ 0) un processus tel quedX t = r t X t + π t (dB t + θ t dt) − c t dt . (6.5)(a) Montrer que, sous Q, le processus X t R t +∫ tR s c s ds est une martingale.v En déduire que X t R t = E Q (X T R T +(b) Ecrire cette relation sous P .0∫ TtR s c s ds|F t ).(c) Montrer que si l’on impose la condition X T ≥ 0, il existe une solutionde (6.5) positive, vérifiant cette condition.Exercice 6.6.13 Soit X t = µt + σB t . On note T a = inf{t|X t = a}. Trouverune probabilité Q telle que sous Q, ( ˜B t = X t /σ , t ≥ 0) soit un mouvementBrownien. Exprimer T a en utilisant ˜B t . Calculer E P (exp −λT a ).


2005-06 85Exercice 6.6.14 Montrer que le prix d’une <strong>option</strong> Asiatique dont le strike estle sous jacent est le prix d’un call sur un sous jacent de dynamique dZ t =(1 − rU t )dt − Z t σdW t . Comment faire le calcul?Exercice 6.6.15 Zero-coupons Soit Y t = h(t)dt + dW t et(r t =[σ(t)Y t où h et∫ t])σ sont des fonctions de classe C 1 . On souhaite calculer E exp − r s ds .1. Exprimer dr.(∫ t2. Soit L H t = exp H(s)dW s − 1 ∫ t)H 2 (s)ds . Justifier que E(L H T02) = 10pour toute fonction H continue. En déduire que( [])EexpH(T )W T −∫ T3. En utilisant L h t , montrer que( [ ]) (Eexp−∫ T0r s ds4. Calculer cette quantité.= E0F ′ (s)W s ds − 1 2exp(h(T )W T −∫ T0∫ T0H 2 (s)ds0= 1 .Exercice 6.6.16 Soit dY t = 2 √ Y t dW t + (2β(t)Y t + δ)dt et r t = σ(t)Y t , où σ etβ sont des fonctions de classe C 1 . On introduit dX t = 2 √ X t dW t + δdt.1. Calculer dr t .2. Soit H une fonction de classe C 2 et(∫ tZtH = exp H(s) √ X s dW s − 1 20∫ t0∫ T ∫ ))W s (h ′ 1 T(s) + σ(s))ds − h 2 (s)ds .0 2 0)H 2 (s)X s dsOn admet que Z est une martingale. Montrer que( (∫ 1 t ∫ tZ t = exp H(t)X t − δ H(s)ds − H ′ (s)X s ds − 1 2 23. Montrer queexpE(0exp[−[∫ ]1T2 (−β 0X 0 − δ β(s)ds) E0∫ T00r s ds4. Comment calculer cette dernière expression?])=∫ t0))H 2 (s)X s ds( [∫1( Texp β(T )XT − X s (β 2 (s) + β ′ (s) + 2σ(s))ds )])20


86 Compléments. EnoncésExercice 6.6.17 On se place dans le cas où S t = e 2(Wt+νt) Montrer en utilisantla formule d’Itô que S est une sousmartingale pour ν + 1 ≥ 0 et unesurmartingale sinon. En déduire que le prix d’une <strong>option</strong> asiatique est plus petitque le prix d’une <strong>option</strong> plain vanilla. Montrer par une minoration simpleque E( 1 T∫ T0exp(2(W s + νs))ds) ≥ E(e 2(W T +νT ) )


Chapter 7ComplémentsENONCESDans tout ce chapitre, B (ou W ) est un mouvement Brownien dont la filtrationest notée (F t ).7.1 Théorème de Lévy.Exercice 7.1.1 Lévy’s theorem. Let W be a standard Brownian motion andD =sup (W s − W t ), D 1 = W θ − inf W t, D 2 = sup W t − W σ0≤s≤t≤1θ≤t≤1 0≤t≤σwhere θ (resp. σ) is the time of the absolute maximum (resp. minimum) of theBrownian motion over [0, 1], (i.e., ).1. Prove that D loi= sup 0≤t≤1 |W t |.2. En déduire la loi de D.3. Prove that D 1loi= sup g≤t≤1 |W t | where g = sup{t ≤ 1 : W t = 0}.Exercice 7.1.2 Loi du couple (|B t |, L t ).1. Montrer que la loi du couple (|B t |, L t ) estexp(−µ t (da, dl) = 1 a≥0 1 l≥02(a + l)√2πt3)(a + l)2da dl2t2. On note T a = inf{t ≥ 0; B t = a} et τ l = inf{t ≥ 0; L t = l}. Montrer queT lloi= τ l87


88 Compléments. Enoncés3. Montrer que le processus (|B t |, L t ) est markovien de semi groupe∫Q t (α, λ, f) = µ t (da, dl)f(α ∨ l − (l − a), (λ − α) + α ∨ l)4. Montrer que S t (S t − B t ) et B t sont indépendantes.5. Montrer que S t (S t − B t ) loi= t E où E est une variable exponentielle de2paramètre 1.Exercice 7.1.3 On note W ∗ le processus W ∗ t = sup s≤t W s .1. Justifier rapidement (en se basant sur des résultats classiques) que P (W ∗ t >a) = 2P (W t > a) pour a > 0. Cette égalité est-elle vérifiée également poura ≤ 0?2. Soit s < t. Montrer queP ( sup W u > 0, W s < 0) = 2P (W t > 0, W s < 0)s≤u≤t3. Calculer explicitement cette quantité.4. On note g t = sup{s ≤ t : W s = 0}. Calculer la loi de g t .Exercice 7.1.4 On note M t = sup 0≤s≤t B s et θ = sup{t ≤ 1 : B t = M t }. Onsouhaite calculer la loi de θ.1. Ecrire {θ ≤ t} en utilisant les variables M t et sup t≤s≤1 B s2. Ecrire {θ ≤ t} en utilisant M t et sup t≤s≤1 (B s − B s )3. Quelle est la loi de sup t≤s≤1 (B s − B s ) conditionnelle à F t ?4. En déduire que P (θ ≤ t|F t ) = Φ(M t − B t ) où Φ(x) = P (M 1−t < x)5. En utilisant le cours, calculer Φ(x).6. On admet que M t − B t a même loi que B t . Comment obtenir la loi de θ?7.2 Equations rétrogradesExercice 7.2.1 Equation rétrograde 1. Soit HOn notera H t,s = H sH tpour t < s.dH t = −H t (rdt + θdW t ) , H 0 = 11. Soit t fixé. Quelle est l’EDS suivie par (H t,s , s ≥ t).


2000-01 892. Soit ζ une v.a. de F T et X t = ln E(H t,T e ζ |F t ). Montrer que Y tdef=exp(X t )H t est une martingale que l’on peut écrire sous la forme z +∫ t0z s dW s .3. Montrer que dX t = (a ̂X 2 t + b ̂X t + c)dt + ̂X t dW t où ̂X est un processusadapté que l’on déterminera en fonction de Z, z, r et θ et où b et c sontdes constantes.Exercice 7.2.2 Equation rétrograde 2. La question (b) est triviale, si l’onadmet (a). Dans tout le problème ζ est une variable F T -mesurable, intégrable.1. Soit H est une variable F T mesurable, intégrable. Justifier qu’il existe unprocessus (h s , s ≤ T ) et une constante z tels que E(H|F t ) = z+On pourra admettre ce résultat pour poursuivre.∫ t0h s dW s .2. On note X t = E(ζ|F t ). Montrer qu’il existe un processus ( ̂X s , s ≤ T ) telquedX t = ̂X t dW t , Y T = ζ (7.1)En déduire que, si ζ une variable F T mesurable intégrable, il existe uncouple (X, ̂X) de processus (F t ) adaptés vérifiant (7.1).3. Soit r un nombre réel. En utilisant e rt E(ζe −rT |F t ) montrer qu’il existeun couple (X, ̂X) de processus (F t ) adaptés tels quedX t = rX t dt + ̂X t dW tY T = ζ4. Soit (r t , t ≥ 0) un processus (F t ) adapté borné. En utilisant une méthodeanalogue, montrer qu’il existe un couple (X, ̂X) de processus (F t ) adaptéstels quedX t = r t X t dt + ̂X t dW t , Y T = ζ5. Soit Γ β,γ le processus solution de dΓ t = −Γ t (β t dt + γ t dW t ), Γ 0 = 1 oùβ et γ sont des processus (F t ) adaptés bornés. Soit φ un processus (F t )adapté borné. En considérantE(Γ T ζ +∫ TtΓ s φ s ds|F t )montrer qu’il existe un couple (X, ̂X) de processus (F t ) adaptés tels quedX t = −(φ t + X t β t + γ t ̂Xt )dt + ̂X t dW t ,̂XT = ζ6. Soit a un nombre réel. En considérant 12a ln (E [exp (2aζ) |F t]), montrerqu’il existe un couple (X, ̂X) de processus (F t )-adaptés tels quedX t = − ̂X 2 t dt + ̂X t dW t , ̂XT = ζ (7.2)


90 Compléments. Enoncés7. Montrer que 1 ( [])2a ln E Γ 2ac,bt,Texp (2aζ) |F t est solution dedX t = −(a ̂X 2 t − b ̂X − c)dt + ̂X t dW t , ̂XT = ζExercice 7.2.3 Equation rétrograde 3..1. Soit (α t , t ≥ 0) un processus F-adapté. Donner la solution (Y, Z) del’équation rétrograde−dY t = α t dt − Z t dW t , Y T = 0. (7.3)2. Au moyen du théorème de Girsanov, donner la solution de−dY t = (α t + γZ t )dt − Z t dW (t), Y T = 0. (7.4)où γ est un scalaire quelconque. Exprimer Y 0 sous la forme d’une espérancedépendant des données du problème.3. On pose α t = W t . Montrer que Y 0 =∫ T12 γ2 t). Calculer E(M t W t ) et E(M t signW t )) où0E(M t W t ) dt où M t = exp(γW t −sign(W s ) = 1 si W s > 0, et ; sign(W s ) = −1 si W s ) ≤ 0 .4. On introduit le processusW t =∫ t0sign(W s ) dW s ,On rappelle (cf. cours) que ce processus est un mouvement Brownien, onnotera F t = σ(W s ; s ≤ t) sa filtration, qui est incluse dans F t . Montrerque la solution de−dY t = (W t + γZ t ) dt − Z t dW t , Y T = 0 ,vérifieY 0 = γT 2 /2. (7.5)5. Montrer que la solution de−dY t = (W t + γZ t )dt − Z t dW t , Y T = 0, (7.6)vérifieY 0 =∫ T0E ( ∫) TM T W t dt = E ( )M t W t dt.0


2000-01 916. Montrer, au moyen de la formule d’Itô queE ( ∫) tM t W t = γE (M s sign(W s )) ds,pour 0 ≤ t ≤ T. et en déduire queY 0 = γT 2 /2 − 2γ0∫ T0(T − s)Φ(−γ √ s)ds. (7.7)où Φ est la fonction de répartition de la loi normale centrée réduite.7. Supposons que Y 0 représente l’utilité (mesure le bien être que l’on éprouvequand on consomme c) associée à un plan de consommation (c t = exp(W (t)))et une information F et que Y 0 représente l’utilité associée au même plande consommation mais avec l’information F. Interprétez alors le résultattrouvé en (7.5) et en (7.7) selon que γ > 0 ou que γ < 0.Exercice 7.2.4 facts on quadratic BS<strong>DE</strong> The solution of the BS<strong>DE</strong> −dy t =az 2 t − z t dW t , y T = ζ is y t = 12a ln E(e2aζ |F t ). The solution ofobtained by Girsanov.−dy = (az 2 + bz)dt − zdW t−dy = (az 2 + bz)dt − zdW t = az 2 dt − z(dW t − bdt) = az 2 dt − z t dŴt)leads toy t = 12a ln Ê(e2aζ |F t )= 1= 12a2a ln E(ebW T − 1 2 b2T e 2aζ |F t )e bW t− 1 2 b2 t(ln E(e bW T − 1 2 b2T e 2aζ |F t ) + bW t − 1 2 b2 t)The solution of−dy = (az 2 + bz + c t )dt − zdW tfollows setting ỹ t = y t + ∫ t0 c sds. The process ỹ satisfiestherefore12a∫ T−dỹ = (az 2 + bz)dt − zdW t , ỹ T = ζ + c s ds0(ln E(e bW T − 1 2 b2T e 2a(ζ+∫ T0 csds) |F t ) + bW t − 1 )2 b2 t −∫ t0c s ds


92 Compléments. Enoncés7.3 Théorèmes de représentationExercice 7.3.1 Soit W (i) , i = 1, 2, 3 trois MB, avec W (i) , i = 1, 2 indépendants.Montrer qu’il n’est pas possible d’avoir σ(W s (3) , s ≤ t)) = σ(W s (1) , W s(2) , s ≤ t).Exercice 7.3.2 Changement de temps Soit M t =1. Justifier que (M t , t ≥ 0) est une martingale.∫ t01 Ws>0dW s .2. Trouver un processus (A t , t ≥ 0) croissant tel que M 2 t − A t est une (F t )-martingale.3. On admet qu’il existe un processus croissant C tel que A(C(t)) = t. Montrerque (M Ct , t ≥ 0) est un (G t )-mouvement Brownien. Préciser quelleest la filtration (G t )-utilisée.Exercice 7.3.3 Crochet et indédendance. Soient W 1 et W 2 deux MB telsque leur crochet soit nul. Montrer qu’ils sont indépendants.7.4 Temps local.Exercice 7.4.1 Formule de Tanaka.1. Peut-on appliquer la formule d’Itô pour calculer dZ t avec Z t = |W t |?2. On admet qu’il existe un processus croissant L tel que|W t | = |W 0 | +∫ t0f(W s )dW s + L tavec f(x) = 1 si x > 0 et f(x) = −1 sinon. Montrer que (0) est un mouvement Brownien que l’on notera β.∫ t0f(W s )dW s , t ≥3. Soit S t = sup s≤t W s . Vérifier que S est un processus croissant. Comparerles décompositions |W t | = β t + L t et S t − W t = −W t + S t . Pour cettequestion, je ne vous demande aucun raisonnement précis.Exercice 7.4.2 Temps local. Soit L le temps local. Montrer que L t =inf s≥t (|B s | + L s ).Exercice 7.4.3 Temps aléatoire. Soit B un MB, S son maximum sur [0, 1](soit S = sup{B s , s ≤ 1} et θ = inf{t ≤ 1 : B t = S}. La v.a. θ est-elle untemps d’arrêt? Quelle est la loi de θ? On calculera P (θ ≤ u) et on utilisera leprincipe de réflexion et l’identité de Lévy (S t − B t , t ≥ 0) loi= (|B t |, t ≥ 0).Calculer P (θ ≤ t|F t ).


2000-01 93Exercice 7.4.4 Des martingales. Soit X une martingale continue et S t =sup s≤t X s .1. Pour quelles fonctions f le processus Y t = f(X t , S t , 〈X〉 t ) est-il une martingalelocale?2. Montrer que si g est C 2 et g(0) = 0, le processusest une martingale locale.g(S t ) − (S t − X t )g ′ (S t )3. Montrer que si g est C 2 et g(0) = 0, le processusest une martingale locale.g(L t ) − |X t |g ′ (L t )Exercice 7.4.5 Scaling Soit B un MB et L son temps local. Montrer queOn utilisera(L x loiλ 2 t , x ∈ IR, t ≥ 0) = (λL x/λt x ∈ IR, t ≥ 0)∫ λ 2 tExercice 7.4.6 Calculer E(L x T a).0∫ tf(B s )ds loi= λ 2 f(λB u )duExercice 7.4.7 Let M be a continuous martingale such that 〈M〉 ∞ = ∞ andβ the associated Dubins-Schwarz BM. Prove that L a t (M) = L a 〈M〉 t(β).0Exercice 7.4.8 Let φ be a non negative process indexed by IR + × IR. Provethat7.5 Lois∫ ∞−∞dy∫ t0d s L y s φ(s, y) =∫ t0d s 〈Y 〉 s φ(s, Y s ) .Exercice 7.5.1 Temps d’atteinte. Soit X solution deOn note T a = inf{t ≥ 0 | X t = a}.X t = a(X t )dt + b(X t )dW t , X 0 = x .1. Donner des conditions sur la fonction V pour que (e −λt V (X t ), t ≥ 0) soitune martingale.2. En déduire E(e −λTa 1 (Ta


94 Compléments. Enoncés3. Soit f(x) =∫ x4. En déduire que0yb(y) dy et Y t = f(X t ). On suppose b ∈ C 1 . Calculer dY t .∫ tfonction que l’on précisera.0X s dW s = f(X t ) − f(x) +∫ t0g(X s ) ds où g est uneExercice 7.5.2 Temps d’atteinte Soit V t = v + W t et τ a (V ) = inf{t : V t =a}. Montrer que τ a (V ) loi (a − v)2=G 2 , où G est une variable de loi N (0, 1).Comment calculer E ( 1 {T 0 and T 0 = inf{t : B t = 0}. Identifythe law of sup u≤T0 B u .2. Prove that, for a > 0, sup u (B u − au) loi= 1 e, where e is a standard2aexponential variable with mean 1.3. Let B be a BM and T 1 the first hitting time of 1. Define I t = − inf s≤t B s .Identify the law of I T1 .Exercice 7.5.4 Loi du maximum.loiOn rappelle que, pour T fixé, max t≤T W t = |W T |. On note C = E[(e −σW T−1) + ]et P = [(1 − e σW T) + ]. Montrer que pour x > 0(Il n’y a aucun calcul à faire)7.6 Filtrations0E[maxt≤T (xeσW t− xe σW T)] = x[C + P ]Exercice 7.6.1 Agent initié L’agent initié connait la valeur terminale duBrownien. Le problème∫est de savoir comment se transforment les martingales.tdef W T − W uSoit Z t = W t −T − udu1. Soit f une fonction déterministe. Montrer que∫ TE[Z u f(v)dW v ] =0∫ u0f(v)dv −∫ u01dsT − s∫ Tsdvf(v)∫ TEn déduire que si, pour tout u, E[Z u f(v)dW v ] = 0 , alors f vérifief(u) = 1T − u∫ Tu0dvf(v) et montrer que f est une constante.


2000-01 952. Soit t < T . On admet que E(W t |W T ) = aW T + b où a et b sont desconstantes. Montrer que b = 0 et que a = t . (On pourra prendreTl’espérance des deux membres et calculer E(W t W T ))3. Soit s < t < T . On admet que E(W t |W s , W T ) = aW s + bW T + c où a, bet c sont des constantes. Montrer que a = T − tT − s , b = t − sT − s , c = 0.4. On note F ∗ t = F t ∨ σ(W T ) la tribu engendrée par (W u , u ≤ t) et par W T .On admet que pour s < t, E(W t |W T , W s ) = E(W t |F ∗ s ). Montrer que Zest une (F ∗ t )- martingale. On pourrait montrer que c’est un MB.Exercice 7.6.2 Soit G une filtration et W un G mouvement brownien.1. Soit H une filtration plus petite que G. Vérifier que le processus M t =E(W t |H t ) est une martingale. (on précisera par rapport à quelle filtration).2. Soit X t = W t +∫ t0Y u du où Y est un processus G adapté intégrable. On0note F X la filtration de X (qui vérifie Ft X ⊂ G t ) et Ŷu = E(Y u |Fu X ).∫ tVérifier que Z t = (X t − Ŷ u du, t ≥ 0) est une F X -martingale (on calculeral’espérance conditionnelle de Z t par rapport à F X s ). Montrer queZ est un mouvement Brownien.7.7 Options barrièresExercice 7.7.1 On note N la fonction de répartition de la loi normale et M t =sup(B s , s ≤ t).1. Soit x ∈ IR. Montrer que P (B t ≤ x) = P (B t ≤ −x) = N (x( √ t) −1 ).2. Soit y > 0 donné, T = inf{t ≥ 0 |B t = y}.Soit B ∗ t = B T +t −B T . On admet que T est un temps d’arrêt et (B ∗ t , t ≥ 0)est un Brownien indépendant de F T .(a) Montrer que(b) Montrer queP (B t ≤ x, M t > y) = P (T < t, B ∗ t−T ≤ x − y)P (T < t, B ∗ t−T ≤ x−y) =∫ t0P (T ∈ du)P (B ∗ t−u ≤ x−y) = P (T < t, B ∗ t−T ≥ y−x)


96 Compléments. Enoncés(c) Montrer que pour y > x, on aEn déduire queP (B t ≤ x, M t > y) = P (B t ≥ 2y − x)P (B t ≤ x, M t < y) = N ( x √t) − N ( x − 2y √t)3. En déduire la loi de T , celle de M t et la densité du couple (B t , M t ).4. Soit X t = µt + B t , Y t = sup (X s , 0 ≤ s ≤ t}. Montrer, en utilisant lethéorème de Girsanov, que le calcul dese déduit du calcul précédent.P (X t < x, Y t < y)7.8 Méandres, ponts, excursionsExercice 7.8.1 Loi conditionnelle. Soit d t = inf{s ≥ t : B s = 0}. Montrerque d t (W ) loi= t + (−W t) 2G 2 où G est une variable gaussienne de loi N (0, 1)indépendante de W t . Soit g = sup{t ≤ 1 : B t = 0}. Calculer P (g ≤ t|F t ).Exercice 7.8.2 Martingale d’Azéma. On admet que le processus m u =1√ t − gt|B gt +u(t−g t )|, u ≤ 1 est indépendant de F gt , que sgneB t est F gt mesurableet que m 1 a pour densité xe −x2 /2 1 x>0 dx. Calculer E(B t |F gt ), E(B 2 t − t|F gt ) etα2 αBt−E(e 2 t |F gt ). Montrer que ces processus sont des martingales.7.9 DiversExercice 7.9.1 Soit dS t = S t (µdt + σdW t ) et ˜S t = S t max(1, max 0≤s≤tKS s).Calculer e −rT E( ˜S T )Exercice 7.9.2 Soit S un brownien géométriqueOn pose M t = 1 t∫ t0S u du. CalculerdS t = S t (µdt + σdW t )E((M T − k) + |F t ) 1 Mt≥(T k/t)1. Soit s < t M s = sup u≤s W u , M s t = sup s≤u≤t W u . Calculer P (M s


2005-06 972. Soit X t = e 2(W t+νt) (x + ∫ t0 e2(W s+νs) ds). Montrer quedX t = f(t, X t )dt + g(t, X t )dW toù l’on explicitera les fonctions f et g. Comment pourrait-on calculer leprix d’une <strong>option</strong> européenne sur le sous jacent X, en présence d’un actifsans risque de taux constant r?Exercice 7.9.3 Let B be a Brownian motion and T a = inf{t ≥ 0 : B t = a}where a > 0.1. Using the Doléans-Dade exponential of λB, prove thatand thatE(e −λ2 T a/2|F t ) = e −λa + λ∫ Ta∧t0e −λ(a−Bu)−λ2 u/2 du∫ Tae −λ2 T a /2 = e −λa + λ e −λ(a−B u)−λ 2 u/2 du02. By differentiating the Laplace transform of T a , and the fact that ϕ satisfiesthe Kolmogorov equation, prove thatλe −λc = 2where ϕ(t, x) = 1 √2πte −x2 /(2t) .3. Prove that, for any fE(f(T a )|F t ) = E(f(T a )) + 24. Deduce that∫ ∞1 Ta


98 Sauts. Enoncés


Chapter 8Processus à sauts8.1 Processus de PoissonDans cette section, N t est un processus de Poisson d’intensité déterministe λ(s)et M t = N t −∫ t0λ(s)ds la martingale compensée.Exercice 8.1.1 Soit N i , i = 1, 2 deux processus de Poisson indépendants demême intensité. Montrer que N 1 − N 2 est une martingale.Exercice 8.1.2 Soit F ∗ test une F ∗ t -martingale.= σ(N s , s ≤ t, N T ). Montrer queM ∗ tdef= N t −∫ tExercice 8.1.3 Montrer que les processusX t = exp(Y t = exp(sont des martingales.∫ t0∫ t0sdN s +∫ t00ln(1 + s)dM s +N T − N sT − sdsλ(s)(1 − e s )ds)∫ t0[ln(1 + s) − s]λ(s)ds)Exercice 8.1.4 Caractérisation de Processus de Poisson.1. Calculer ψ(z, t) = ∑ nz n P (N t = n).2. Soit X un processus à accroissements indépendants, à valeurs dans l’ensembleloides entiers, tel que X t+s − X t = X s et ψ(z, t) = ∑ z n P (X t = n). Montrerque ψ(z, t + h) = ψ(z, t)ψ(z, h). On suppose qu’il existe ν telnque1h P (X h ≥ 2) → 0 ,1h P (X h = 1) → ν ,991h (1 − P (X h = 0)) → ν


100 Sauts. Enoncésquand h tend vers 0. Montrer que ∂ ψ(z, t) = ν(z − 1)ψ(z, t). Quel est le∂tprocessus X?Exercice 8.1.5 Soit (Y i , i ≥ 1) des variables indépendantes équidistribuéesd’espérance µ et indépendantes de N. On note X t = ∑ N ti=1 Y i le processusde Poisson composé. Soit M t = N t − λt et Z t = X t − µλt. Montrer que Z et(M t Y t − µλt, t ≥ 0) sont des martingales.Exercice 8.1.6 On considère l’équationX t = x + N t − c∫ t0X s ds1. Montrer que cette équation admet au plus une solution.2. Montrer queest une solution.e −ct x +∫ t0e −c(t−s) dN sExercice 8.1.7 On note τ = T 1 le premier saut de N et D t = N t∧τ∫ t∧τ1. Déterminer δ tel que Z t = D t − δ u du soit une martingale.02. On note L t = (1 − D t )/(1 − F (t)) où F (t) = P (τ ≤ t) est supposéecontinue. Montrer que dL t = α t dZ t où on explicitera α. Même questionsi F est seulement continue à droite.3. Soit N 1 et N 2 deux PP d’intensité constante λ 1 et λ 2 et D i les processusassociés. On note µ 1 (t) = ( α 1− 1)D 2 (t−) et µ 2 (t) = ( α 2− 1)D 1 (t−).λ 1 λ 2Soit ρ t solution de dρ t = ρ t− (µ 1 (t)dZ 1 (t) + µ 2 (t)dZ 2 (t)). Expliciter ρ t .Soit dQ = ρ t dP . Calculer Q(τ 1 > t, τ 2 < s) pour s < t.Exercice 8.1.8 Calculer la TL deExercice 8.1.9 Montrer quef(N t == f(N 0 ) + ∆f(0)∫ t0∫ t0N s ds.dN s +∫ tCalculer ∫ t0 dN (∫ ss 0 dN ∫ tu)et0 dN (∫ ss 0 dN ∫ uu 0 dN )v0(∫ s)dN s ∆ 2 f(N u− dN u0


2005-06 1018.2 Poisson composéLet λ0 be a positive number and µ be a probability law on IR. A (λ, µ) compoundPoisson process is a process X = (X t , t ≥ 0) of the form∑N tX t =k=1where N is a Poisson process with intensity λ > 0 and (Y k , k ∈ IN) are nonnegativei.i.d. random variables with law µ, independent of N. It differs from aPoisson process since the sizes of the jump are random variables, independentof the Poisson process.Exercice 8.2.1 We denote by Y a random variable with law µ. Prove that acompound Poisson process is with independent increments, andY kE(X t ) = λtE(Y )Var (X t ) = λtE(Y 2 ).Exercice 8.2.2 Let X be a (λ, µ) componud Poisson process. Prove that theprocessM f t = ∑ s≤tf(∆X s ) 1 ∆Xs ≠0 − tλµ(f)is a martingale; the process(M f t ) 2 − tλµ(f 2 )is a martingale.Suppose that X is a pure jump process and that there exists a finite positivemeasure σ such that ∑f(∆X s ) 1 ∆Xs ≠0 − tσ(f)s≤tis a martingale for any f, then X is a compound Poisson process.Exercice 8.2.3 If X is a (λ, µ) compound Poisson process,( ( ∫ ∞))E(e −αX t) = exp −λt 1 − e −αu µ(du) .Exercice 8.2.4 Let X be a (λ, µ) compound Poisson process and f a boundedBorel function. Then,(∑ Nt ∫)exp f(Y k ) + t (1 − e f(x) )λµ(dx)is a martingale.k=10


102 Sauts. Enoncés8.3 Formule d’ItôExercice 8.3.1 Soit W un mouvement Brownien et M t = N t −λt la martingalecompensée associée au processus de Poisson N d’intensité constante λ.1. Montrer que la solution deest, pour φ > −1dS t = S(t − )(rdt + σdW t + φdM t ), S 0 = xS t = xe rt exp(σW t − 1 2 σ2 t) exp(ln(1 + φ)N t − φλt) . (8.1)2. Ecrire la solution en faisant apparaitre la martingale M.3. Quelle est la dynamique de 1/S t ?4. Quelle est la dynamique de S 2 t ?5. Calculer E(S t ) et E(S 2 t ).6. Quelle est la solution de (8.1)pour φ = −1? et pour φ < −1?7. Quelle est la solution de (8.1) lorsque les coefficients dépendent du temps?Exercice 8.3.2 SoitdX t = µ(t, X t )dt + σ(t, X t )dW t + φ(t, X t− )dM tet H une fonction de classe C 1,2 . Sous quelles conditions le processus Y t =H(t, X t ) est-il une martingale locale?Exercice 8.3.3 Soit un espace de probabilité (Ω, F, P ) sur lequel évoluent unmouvement Brownien W et un processus de Poisson N, d’intensité déterministeλ. On suppose que F t = σ(W s , N s , s ≤ t).1. Déterminer la dynamique de toutes les martingales strictement positives.2. Soit Q une probabilité équivalente à P sur tout F t . Caractériser la dynamiquede la densité L t de Q par rapport à P .3. Quelle sont les formes possibles de L si on impose que, sous Q le processus˜S = e −rt S t où S a pour dynamiquesoit une martingale?4. Même question sidS t = S(t − )(rdt + σdW t + φdM t )dS t = S(t − )(µdt + σdW t + φdM t )


2005-06 1038.4 DéfautExercice 8.4.1 Soit τ un temps aléatoire sur un espace (Ω, G t , P ). On supposequ’il existe un processus positif, G-adapté (λ s , s ≥ 0) tel que 1 τ≤t −∫ t∧τ0λ u dusoit une G t martingale. Soit h une fonction borélienne, X une variable aléatoireG T mesurable etMontrer que∫ T ∫ TV t = E(X exp − λ s ds +tt(Appliquer Ito à V t exp −U t (1 − 1 τ≤t ).∫( udu h u λ u exp − λ s ds ) |G t ) .∣ ) ∣∣1 {t


104 Sauts. EnoncésMontrer qu’il existe A Q processus croissant, µ, ν tels que V t = v+∫ tdMsQ0∫ t0µ s dW Q s +− A Q t , où W Q et M Q sont des Q-martingales et W Q un MB..Préciser le lien entre A P et A Q .5. Montrer que µ tφσ − ν t ≥ 06. Montrer que A P −∫ t0λ(µ sφσ − ν s) est un processus croissant.7. En déduire que V est la valeur d’un portefeuille X dont on explicitera leprocessus de consommation.Exercice 8.5.3 On considère un actif de prixdS t = S t− (rdt + ϕdM t )où M est la martingale compos ée associé à un processus de Poisson d’intensitéconstante λ.1. Vérifier que S t e −rt est une martingale.2. Soit X le valeur d’un portefuille autofinancant comportant θ parts d’actifrisqué, soitdX t = rX t dt + θ t (dS t − rS t dt)Vérifier que ˜X t = e rt X t est une martingale. Ecrire la dynamique de ˜X enfonction de ˜S.3. Ecrire l’EDS vérifiée par X/S.4. On pose dQ = S t e −rt /S 0 dP . Vérifier que X/S est une martingale sousQ.


Corrigés. 2005-06 105sCORRIGES


106 Rappels


Chapter 1Rappels, Corrigés1.1 TribuExercice 1.1.1: L’ensemble B − A s’écrit B ∩ A c . Si F est une tribu, elle eststable par passage au complémentaire et par intersection, d’où le résultat.Exercice 1.1.2 : 1) La tribu engendrée par A est constituée des quatre ensemblesA, A c , ∅, Ω.2) Cette tribu doit contenir A et B, l’ensemble vide et Ω. Puis les complémentaires,soit A c et B c (les complémentaires de Ω et de l’ensemble vide égaux à l’ensemblevide et à Ω sont déjà dans la liste). Puis les unions d’ensembles soit A ∪ B, lesautres unions A ∪ Ω = Ω, A ∪ B c = B c ,... sont déja dans la liste. Puis lesintersections A c ∩ B c . On a terminé car les autres ensembles formés à partird’opérations de passage au complémentaire, d’intersection et d’union sont dansla liste par exemple (A c ∩ B c ) ∪ B c = B c .Exercice 1.1.4 : Soit G = F 1 ∩ F 2 la famille composée des ensembles qui appartiennentà F 1 et à F 2 . La famille G est une tribu si(i) Ω ⊂ G, ce qui est le cas car Ω ⊂ F 1 , Ω ⊂ F 2 donc Ω ⊂ F 1 ∩ F 2 .(ii) la famille G est stable par passage au complémentaire: siA ⊂ G, la stabilité des tribus F 1 et F 2 par passage au complémentaire impliqueA c ⊂ F 1 , A c ⊂ F 2 donc A c ⊂ F 1 ∩ F 2 .(iii) la famille G est stable par intersection dénombrable: si A i ⊂ G,la stabilité des tribus F 1 et F 2 par intersection dénombrable implique ∩ i A i ⊂F 1 , A c ⊂ F 2 donc ∩ i A c ⊂ F 1 ∩ F 2 .Les autres propriétés résultent des précédentes: L’ensemble vide appartient à Gcar c’est le complémentaire de Ω ( utiliser (i) et (ii)), la famille G est stable parunion dénombrable: en passant au complémentaire l’identité (∩A i ) c ∪ (A c i ) onobtient ∩A i = (∪ i A i ) c . Il reste à utiliser (ii) et (iii).L’union de tribus n’est pas une tribu: considèrer le cas F 1 = σ(A), F 2 = σ(B).la famille F 1 ∪ F 2 ne contient pas A c ∩ B c . Ne pas confondre sous ensembles107


108 Rappelset éléments. Par exemple, un intervalle est un sous ensemble de IR, et n’est pasun élément de IR.Exercice 1.1.6 : On utilise que X −1 (B) = {ω : X(ω) ∈ B}. La famille Cest une tribu: la stabilité requise provient des égalités suivantes: X −1 (B c ) =(X −1 (B)) c , X −1 (∩B n ) = ∩X −1 (B n ). On trouvera une démonstration de laréciproque dans tout ouvrage de proba, cette démonstration est basée sur lethéorème qui précise que si une tribu contient une classe stable par intersectionfinie, elle ccntient la plus petite tribu engendrée par cette classe.Exercice 1.1.7 : Les diverses quantités que l’on veut comparer sont égales.Les espérances E(f(X)) et E(f(Z)) sont égales parce que X et Z ont mêmeloi, et E(f(X, Y )) = E(f(Z, T )) car le couple (X, Y ) a même loi que le couple(Z, T ). Si l’hypothèse (Z, T ) sont indépendantes n’était pas faite, l’égalité en loides variables X et Z et celle des variables Y et T ne suffirait pas. Par exemple,on peut prendre X loi= Y de loi gaussienne N (0, 1), X et Y indépendantes etZ = T = X. On aurait alors E(X 2 Y 2 ) = 1 et E(Z 2 T 2 ) = E(X 4 ) = 3. (contreexemple pour la question 3)1.2 Variables gaussiennes.Exercice 1.2.1 : Par symétrie de la densité et imparité de x 3 , on a E(X 3 ) = 0et, par parité de x 4 on a E(X 4 ) = 2σ √ 2π∫ ∞0x 4 e − x22σ 2 dx.Cette dernièreintégrale se calcule par intégrations par parties successives et on obtient E(X 4 ) =3σ 4 .On a également E(|X|) = 2 ∫ ∞σ √ x exp − x2dx, d’où E(|X|) = √ 2σ et,2π 0 2σ2 2πpar des calculs analogues E(|X 3 |) = √ 4σ3 . 2πExercice 1.2.4 : Si X et Y sont gaussiennes indépendantes, la somme X + Yest gaussienne: ceci se voit très facilement avec les fonctions caractéristiques:E(e it(X+Y ) ) = E(e itX )E(e itY ) = e itm1− t2 σ122 e itm2− t2 σ222 = e itm− t2 σ 22avec m = m 1 + m 2 et σ 2 = σ1 2 + σ2.2On peut le voir aussi en se souvenant que si X et Y sont indépendantes, dedensité f et g, la somme X + Y a pour densité h(x) = ∫ ∞f(x − y) g(y) dy−∞et en effectuant le calcul. Attention, ce résultat n’est pas vrai si on n’a pasl’indépendance de X et Y .On peut aussi calculer la transformée de Laplace de la sommeE ( exp(λ(X+Y )) ) = E(exp(λ(X))E(exp(λ(Y )) = exp[λ(m(X)+m(Y ))+ λ22 (σ2 (X)+σ 2 (Y ))]


Corrigés. 2005-06 109ce qui montre que la somme a une loi gausienne d’espérance m(X) + m(Y ) etde variance σ 2 (X) + σ 2 (Y ).Exercice 1.2.5 :1. Si X est N (m, σ 2 ),sa densité est f(x) = 1σ √ − m)2exp −(x2π 2σ 2 et la v.a.Y = X − m est N (0, 1). On peut le vérifier de plusieurs façons.σ• En calculant la fonction de répartition de Y : Soit F Y la fonction derépartition de Y . On a F Y (y) = P (Y ≤ y) = P (X ≤ m + yσ) =F X (m+yσ). Il reste à dériver par rapport à y pour obtenir la densitéde Y qui est σf(m + yσ) = √ 1 exp − y22π 2 .• On peut utiliser les fonctions caractéristiques. Soit φ(t) = E(e itX ) =e itm− t2 σ 22 la fonction caractéristique de X; la fontion caractéristiquede Y estE(e itY X−mit) = E(e σ ) = e − itm tσ φ(σ ) = e− t2 2Cette remarque permet de ramener des calculs sur N (m, σ 2 ) à descalculs sur N (0, 1).La variable X − m est gaussienne centrée. D’où en utilisant l’exercice 1,E(|X − m|) = √ 2σ2π.2. On a E(e λX ) = 1 ∫ ∞σ √ e λx (x − m)2exp −2π −∞2σ 2 dx.On montre que e λx exp − (x−m)22σ= exp(λm + 1 2 2 σ2 λ 2 ) exp[− 12σ(x − (m +2λσ 2 )) 2 ] et le résultat s’obtient facilement. item Soit X une v.a. de loiN (0, 1). On aE( 1 X


110 Rappelsavec Σ 2 =Il vientEn particulierσ21−2λσ. 2E(exp{λU 2 + µU}) = Σ σ exp ( Σ2E(exp λU 2 ) =2 (µ + m σ 2 )2 − m22σ 2 )1√ exp m 2 λ1 − 2λσ2 1 − 2λσ 24. Il est facile, par changement de variable, d’obtenir E(e θX f(X)) = e mθ+σ2 θ 2 /2 E(f(X+θσ 2 ) pour f continue bornée.5. Par dérivation par rapport à θ, on obtient pour f ”régulière” E(f(X)(X −m)) = σ 2 E(f ′ (X)).6. En dérivant E(e aG N (bG + c)) par rapport à b, on obtient le résultat.Exercice 1.2.6 : Rappels:la convergence L 2 implique la convergence L 1 : ||X n − X|| 2 converge vers 0implique ||X n − X|| 1 converge vers 0, avec ||X|| 1 = ∫ |X|dP . Ce résultat estΩévident compte tenu de l’inégalité ||X|| 1 ≤ ||X|| 2 qui résulte de la positivité dela variance Var (|X| ) = ||X|| 2 2 − ||X|| 2 1.Si X n converge vers X dans L 2 (resp. L 1 ), on a E(Xn) 2 converge vers E(X 2 )(resp E(X n ) converge vers E(X)). (La réciproque est fausse)Si X n converge dans L 2 vers X, on a en particulier m n converge vers m et σn2converge vers σ . La suite de fonctions caractéristiques e itm n− t2 σn22 converge verse itm− t2 σ 22 et la loi de X est gaussienne.Exercice 1.2.7 : Soit X un vecteur gaussien. Le vecteur Y = AX est unvecteur gaussien, car toutes les combinaisons linéaires de composantes de Y sontdes combinaisons linéaires de composantes de X, donc une variable gaussienne.Que le vecteur X soit gaussien ou non, on a E(AX) = AE(X) et Var AX =A t (Var X)A, où VarX désigne la matrice de variance covariance du vecteur X.On obtient dans le cas p = 1 que A t (Var X)A ≥ 0, c’est-à-dire que les matricesde variance covariance sont semi définies positives.Exercice 1.2.8 : La v.a. λX + µY est gaussienne d’espérance λE(X) + µE(Y )et de variance λ 2 σ 2 (X) + µ 2 σ 2 (Y ). On en déduit[E(exp(λX + µY )) = exp λE(X) + µE(Y ) + 1 ]2 (λ2 σ 2 (X) + µ 2 σ 2 (Y ))[= exp λE(X) + 1 ] [2 λ2 σ 2 (X) exp µE(Y ) + 1 ]2 µ2 σ 2 (Y ) = E(exp λX) E(exp µY )d’où l’indépendance..


Corrigés. 2005-06 111Exercice 1.2.9 : Si (X, Y ) est un vecteur gaussien, X et Y sont des vecteursgaussiens.Cas∑d = 1. La projection de X sur (Y 1 , Y 2 , . . . , Y n ) est de la forme P r X =ni=1 a iY i C’est une v.a. gaussienne car Y est gaussien. Le vecteur (X −P r X, Y ) est gaussien. Les vecteurs X − P r X et Y sont indépendants carE((X − P r X)Y i ) = 0 par définition de la projection.Exercice 1.2.10 : Toujours avec la transformée de Laplace.On vérifie dans un premier temps queE(exp(λX)) = E[E(exp(λX)|Y )] = E[exp(λ(aY + b) + λ22 σ2 )]= exp[λaE(Y ) + λ2 a 22 σ2 (Y )] exp[λb + λ22 σ2 ]donc, la v.a. X est gaussienne d’espérance b+aE(Y ) et de variance σ 2 +a 2 σ 2 (Y ).On calcule de la même façon E(Y e λX ) = E(Y exp(λ(aY + b) + λ22 σ2 )] et endérivant par rapport à λ, on trouve E(XY ) = aE(Y 2 ) + bE(Y ).D’autre partE(exp(λX + µY )) = E[exp(µY )E(exp(λX|Y )]et on vérifie que ceci est= E[exp(µY ) exp(λ(aY + b) + λ22 σ2 )] = E[exp[(λa + µ)Y ]] exp(λb + λ2 σ 22 )(λa + µ)2= exp[(λa + µ)E(Y ) + σ 2 (Y )] exp(λb + λ2 σ 222 )exp(λE(X) + µE(Y )) + 1 Var(λX + µY ))21.3 Espérance conditionnelleExercice 1.3.2 : Il suffit de calculer E([X − Y ] 2 |G) qui vaut 0 (développer lecarré) donc, en prenant l’espérance E([X − Y ] 2 ) = 0.Exercice 1.3.5 : Sous les hypothèses de l’exercice E(X − Y |G) = E(X|G) − Ycar Y est G-mesurable et E(X −Y |G) = E(X −Y ) = m par indépendance. D’oùE(X |G) = m+Y . De la même façon E((X −Y ) 2 |G) = E(X 2 |G)−2Y E(X|G)+Y 2 d’où E(X 2 |G) = σ 2 + (Y + m) 2 .Exercice 1.3.6 : Par définition de la projection E(XZ) = E((P r X)Z) pourtout Z combinaison linéaire des Y i . Cela ne suffit pas à dire que P r X estl’espérance conditionnelle car il existe des v.a. qui sont Y -mesurable et qui nesont pas combinaison linéaire des Y i . Mais nous avons montré que X − P r Xet Y sont indépendantes, d’où E(X − P r X |Y ) = E(X − P r X) = 0. D’où


112 RappelsE(X|Y ) = P r X.Si n = 1, E(X|Y ) = P r X appartient à l’espace engendré par Y donc s’écritαY , et on déduit de E(X|Y ) = αY , après multiplication par Y et intégrationα = E(XY )E(Y 2 ) .Exercice 1.3.7 : Soit X = X 1 + X 2 . On a E(X|G) = E(X 1 |G) + E(X 2 |G) =E(X 1 ) + X 2 . Puis E(X 2 |G) = E(X 2 1 ) + X 2 2 + 2X 2 E(X 1 ) etVar (X|G) = E(X 2 |G) − (E(X|G)) 2 = Var X 1 .E(e λX |G) = E(e λX 1e λX 2|G) = e λX 2E(e λX 1) = e λX 2exp(λE(X 1 ) + λ22 Var (X 1))Exercice 1.3.8 : Il est facile de montrer la suite d’égalitésCov (Z 1 , Z 2 |G) = E(Z 1 Z 2 |G) − E(Z 1 |G)E(Z 2 |G)= E(Z 1 Z 2 |G) − E(Z 2 (E(Z 1 |G))|G)= E((Z 1 − E(Z 1 |G) Z 2 |G)Exercice 1.3.9 : Le membre de droite, noté K est H mesurable. Il suffit devérifier queE(X 1 H ) = E(K 1 H )pour tout H ∈ H, ce qui se réduit àce qui est routine.E(X 1 C 1 A ) = E(K 1 C 1 A , et E(X 1 C 1 A c) = E(K 1 C 1 A c)Exercice 1.3.10 : Par linéarité, E(aX + b|Z) = aE(X|Z) + b. La tribu engendréepar Z est composée des sous-ensembles de Ω de la forme Z −1 (A) oùA est un borélien de IR et Z −1 (A) = {ω|Z(ω) ∈ A} = {ω|αY (ω) + b ∈ A} ={ω|Y (ω) ∈ B} où B est l’ensemble des nombres réels tels que x ∈ B ⇐⇒αx + b ∈ A et est un borélien (La preuve parfaite exigerait la démonstration dece point, qui tient au fait que B est l’image réciproque de A par l’applicationg : y → 1 α y − b, soit B = g−1 (A) et que g est continue, donc borélienne)Exercice 1.3.11 : La premiere question est directe en utilisant le résultat admisdans l’exercice 1.1.6. En utilisant cette question, on a que E(X|G) 1 1≤τest de la forme h(1 ∧ τ) 1 1≤τ = h(1) 1 1≤τ . En prenant l’espérance des deuxmembres, on identifie la constante h(1).Exercice 1.3.12 : Trivial.Exercice 1.3.13 : E(X|F) est G ∨ F mesurable. Soit F ∈ F et G ∈ G, on aalors, en utilisant l’indépendanceE(X 1 F 1 G ) = E(X 1 F )E( 1 G )


Corrigés. 2005-06 113etE( 1 F 1 G E(X|F)) = E( 1 F E(X|F))E( 1 G )donc E(X 1 F 1 G ) = E( 1 F 1 G E(X|F)). Nous avons donc montré que E(X 1 H ) =E( 1 H E(X|F)) pour tout H ∈ G ∨ F de la forme H = F ∩ G. Ces ensemblesengendrent la tribu G ∨ F et forment une famille stable par intersection.L’application qui à H associe E(X 1 H ) (resp. E( 1 H E(X|F))) définit unemesure positive sur cette tribu, les deux mesures, après normalisation par E(X)sont des probabilités (c’est-à-dire l’application qui à H associe E(X 1 H )/E(X)est une probabilité) qui coincident sur les ensembles de la forme F ∩ G, donc,par théorème de classe monotone, elles coincident sur la tribu engendrée.Exercice 1.3.14 : Seule la réciproque demande une démonstration. SiE Q (X|G) = E P (X|G) alors E P (LX|G) = E P (X|G)E P (L|G) = E P (XE P (L|G)|G)D’où E P (X(L − E P (L|G))|G) = 0 pour tout X. Il en résulte (prendre X =L − E P (L|G)) que L − E P (L|G) = 0.∫Exercice 1.3.15 : Soit dQ = Ψ(X)dP . On a E P (φ(X)) = φ(x)f(x)dx, E Q (φ(X)) =∫E P (Ψ(X)φ(X)) = Ψ(x)φ(x)f(x)dx. Il suffit de choisir Ψ telle que Ψ(x)f(x) =g(x).1.4 MartingalesExercice 1.4.1 : Soit s ≥ t et X t = E(X|F t ). On a, en utilisant F t ⊂ F sE(X s |F t ) = E(X|F s |F t ) = E(X|F t ) = X t .Exercice 1.4.2 : Soit X t = M t − A t . On a, pour t ≥ s E(X t |F s ) = M s −E(A t |F s ) et comme A s ≤ A t ou −A t ≤ −A s , E(X t |F s ) ≤ M s − E(A s |F s ) =M s − A s = X s .Exercice 1.4.3 : C’est le lemme de Fatou: de l’inégalitéE(M t∧τn |F s ) = M s∧τnon en déduit l’inégalité de surmartingale en utilisant que M s∧τnM s et quelim E(M t∧τn |F s ) ≤ E(lim M t∧τn |F s ) = E(M t |F s )converge vers(le lemme de Fatou assure que lim E(X n |G) ≤ E(lim X n |G) si les v.a. sont positives).Soit F ∈ F et G ∈ G E(X 1 F 1 G ) = E( 1 F 1 G E(X|F)) car E(X 1 F 1 G ) =E(X 1 F )E( 1 G ) et E( 1 F 1 G E(X|F)) = E( 1 F E(X|F))E( 1 G ).


114 RappelsExercice 1.4.4 : Par définition de la propriété de martingale, X t = E(X T |F t ).Cette propriété est à la base de tous les calculs d’évaluation en finance. En effet,ces formules reposent sur le fait qu’un certain processus est une martingaleet donc que sa valeur à l’instant t est l’espérance conditionnelle de sa valeurterminale.Exercice 1.4.7 : Soit G = (G t , t ≥ 0) la filtration de M, c’est à dire G t =σ(M s , s ≤ t). Par définition, G t ⊂ F t (La martingale M est F adaptée, et lafiltration de M est la plus petite filtration telle que la propriété d’adaptationsoit vraie. On a alors E(M t |G s ) = E(M t |F s |G s ) = E(M s |G s ) = M s On peutaussi montrer que si que si M est une F-martingale et H t ⊂ F t , E(M t |H t ) estune H-martingale.Exercice 1.4.8 : Pour s < t, on a (τ ≤ s) ⊂ (τ < t), d’oùZ t = E(τ ≤ t|F t ) ≥ E(τ ≤ s|F t )et le résultat suit en prenant l’espérance conditionnelle par rapport à F s .1.5 Temps d’arrêtExercice 1.5.1 : La seule difficulté est la stabilité par passage au complémentaire.Si A ∈ F τ on écritA c ∩ (τ ≤ t) = (τ ≤ t) − (A ∩ (τ ≤ t) ∈ F tExercice 1.5.2 :Par hypothèse sur X, pour tout a, {X ≤ a} ∈ F T Pardéfinition de la tribu F T , {X ≤ a} ∩ {T ≤ t} ∈ F t . Par suite {X ≤ a} ∩ {T ≤a} ∈ F a . Le premier membre de cette inclusion est {X ≤ a}.Exercice 1.5.4 : Il suffit d’écrireA ∩ (T ≤ t) = A ∩ (S ≤ t) ∩ (T ≤ t)et donc, si A ∈ F S on a A ∩ (T ≤ t) ∈ F t .Exercice 1.5.5: Il suffit d’écrire(S ≤ a) ∩ (S ≤ t) = (S ≤ (a ∧ t)) ∈ F a∧tExercice 1.5.6: Montrons que S ≤ T ∈ F T . pour cela , on écrit(S ≤ T ) ∩ (T ≤ t) = (S ∧ t ≤ T ∧ t) ∩ (T ≤ t) ∩ (S ≤ t)et chacu des trois ensembles du membre de droite est dans F t (car S ∧ t est pluspetit que t donc F t mesurable.


Corrigés. 2005-06 115On introduit R = S ∧ T . C’est un temps d’arrêt, F R mesurable avecF R ⊂ F T . Donc (R = T ) ∈ F T , et (R < T ) ∈ F T , par suite (S < T ) ∈ F T etS = T ∈ F T , ainsi que T ≤ S et T < S.Exercice 1.5.7 : Soit ω fixé. La fonction t → Z t (ω) vaut 1 pour t ∈ [S(ω), T (ω[et 0 sinon. Elle est continue sur les trois intervalles [0, S(ω)[, ]S(ω), T (ω)[, ]T (ω), ∞[.Elle est continue à droite en S(ω) car si t → S(ω) ”par la droite” (soit t > S(ω)),Z t (ω) = 1 tend vers Z S(ω) (ω) = 1.Exercice 1.5.11 : Utiliser le théorème d’arrêt et le temps d’arrêt T y poury > a. On a E(M Ty∧t) = a. On fait alors tendre t vers l’infini M Ty∧t convergevers y sur T y < ∞ et vers 0 sinon. (et est borné). D’où P (T y < ∞) = a/y. Ilreste à remarquer que P (T y < ∞) = P (sup M t ≥ y).1.6 Temps discretExercice 1.6.3 : L’égalité E(X n+p |F n ) = X n est vraie pour p = 1. En utilisantE(X n+p |F n ) = E(X n+p |F n+p−1 |F n ) = E(X n+p−1 |F n )on démontre le résultat par récurrence.Exercice 1.6.4 : On obtientE((H · M) n |F n−1 ) ====n∑E(H k (M k − M k−1 ) |F n−1 )k=1n−1∑H k (M k − M k−1 ) + E(H n (M n − M n−1 ) |F n−1 )k=1n−1∑H k (M k − M k−1 ) + H n E(M n − M n−1 |F n−1 )k=1n−1∑H k (M k − M k−1 )k=11.7 Algèbre béta-gamma1.8 DiversExercice 1.8.1 :E(exp −λM τ ) = E(θ∫ ∞dte −θt e −λMt ) = E(θ∫ ∞dte −θt λ∫ ∞00M te −λu du)


116 Brownien.= E(θ= θE(∫ ∞0∫ ∞0dt∫ ∞0due −λu λdue −θt λ 1 u>Mt e −λu ) = E(θ∫ Tu0dte −θt ) =∫ ∞0∫ ∞0du∫ ∞due −λu λ(1 − e −θT u)Exercice 1.8.2 : La partie directe est évidente, car e λX et e λY sont indépendantes.La réciproque n’est pas vraie, comme le montre le contre exemple suivant: SoitX, Y telles que P (X = i, Y = j) = a i,j où les a i,j sont donnés pas les coefficientsde la matrice⎡⎣1/9 1/6 1/181/18 1/9 1/61/6 1/18 1/9La loi de X est égale à celle de Y et P (X = i) = 1/3 = P (Y = j). On vérifieque X et Y ne sont pas indépendantes (par exemple P (X = 1, Y = 3) ≠ 1/9.La loi de X + Y est égale à la loi de X 1 + Y 1 où X 1 a même loi que X, Y 1 amême loi que Y et X 1 et Y 1 sont indépendantes.Cet exercice montre que la loi de la somme de deux v.a. dépend très fortementde la loi du COUPLE. Rappellons à ce sujet que si Z 1 et Z 2 sont gaussiennes,cela n’implique pas que Z 1 +Z 2 est gaussienne: Le contre exemple suivantdu à Nelson le prouve: Soit n la densité gaussienne réduite centrée et u une fonctionimpaire continue, nulle hors de [−1, +1] telle que |u(x)| < (2πe) −1/2 . Onvérifie que f(x, y) = n(x)n(y)+u(x)u(y) est une densité, que les lois marginalessont normales, et la loi de la somme n’est pas normale.Par contre, si le vecteur (X, Y ) est gaussien, la somme X + Y est gaussienne.Pour que le vecteur (X, Y ) soit gaussien, il faut et il suffit que X soit gaussienet que la loi conditionnelle de Y à X soit gaussienne.⎤⎦0dte −θt λ 1 Tu>te −λu )


Chapter 2Mouvement Brownien,Corrigés2.1 Propriétés élémentairesExercice 2.1.1 : Trivial. Ceci constitue une caractérisation du mouvementBrownien comme processus gaussien.Exercice 2.1.2 :1. On a E(B s B 2 t ) = E( E(B s B 2 t |F s )). La variable B s est F s -mesurable,d’où, si t > s, E(B s B 2 t ) = E(B s E(B 2 t |F s )).On sait que B 2 t − t est une martingale, d’où E(B 2 t |F s ) = B 2 s − s + t. Enutilisant que B t est centré et que E(B 3 t ) = 0, on obtient queE(B s B 2 t ) = E(B s (B 2 s − s + t)) = E(B 3 s) = 0.Si s > t, on a E(B s B 2 t ) = E( E(B s B 2 t |F t )) = E(B 2 t E(B s |F t )) = E(B 3 t ) =0.2. Le MB est une martingale, donc E(B t |F s ) = B s pour t ≥ s et E(B t |F s ) =B s pour t < s car B t est F s -mesurable dans ce cas. Si s < t, E(B t |B s ) =E(B t −B s +B s |B s ) = E(B t −B s |B s )+B s = B s car B t −B s est indépendantde B s et centré. Si t < s, on s’inspire du pont Brownien (voir ex suivant)pour écrire E(B t |B s ) = E(B t − t s B s|B s ) + t s B s. La v.a. B t − t s B sest centrée et indépendante de B s : en effet, le couple (B t − t s B s, B s )est un couple gaussien centré et sa covariance est nulle.E(B t |B s ) = t s B s.On en déduitOn peut aussi utiliser les résultats sur le conditionnement d’un vecteurgaussien.117


118 Brownien.3. La variable B t + B s est gaussienne (car B est un processus gaussien)centrée. On peut aussi écrire (B t + B s ) comme une somme de v.a. gaussiennesindépendantes: B t + B s = B t − B s + 2B s . On en déduit que savariance est t + 3s.4. Soit θ s une variable aléatoire bornée F s -mesurable. On a, pour s ≤ tE(θ s (B t − B s )) = E(E(θ s (B t − B s )|F s )) = E(θ s E((B t − B s )|F s )) = 0.De mêmeE(θ s (B t −B s ) 2 ) = E(E(θ s (B t −B s ) 2 |F s )) = E(θ s E((B t −B s ) 2 |F s )) = (t−s)E(θ s ).∫5. E( 1 Bt ≤a) =Ω1 Bt ≤adP =N ( a √t). On peut aussi écrire∫ a−∞∫√1a/ t√ exp(− x22πt 2t ) dx = 1√ exp(− y22π 2 ) dy =E( 1 Bt ≤a) = P (B t ≤ a) = P ( √ tU ≤ a) = P (U ≤ a/ √ t) où U est une v.a.de loi N (0, 1).∫ aE(B t 1 Bt ≤a) = x√ 1 exp(− x2−∞ 2πt 2t ) dx = √ tet la dernière intégrale se calcule facilement.∫ a/√t−∞−∞y 1 √2πexp(− y22 ) dyExercice 2.1.3 :Pour t > u, la propriété d’indépendance et de stationarité des accroissementsconduit àf(B t ) = f(B t − B u + B u ) loi= f( ̂B t−u + B u )) loi= f( ̂B t−u + √ uG))où ̂B s = B s+u − B u est un MB indépendant de F u .Exercice 2.1.4 :On peut calculer la densité de B Θ∫P (B Θ ∈ dx) = P (B t ∈ dx)θe −θt 1 t>0 dt =∫ ∞01√2πtexp(− x22t )θe−θt dtOn trouve√2θP (B Θ ∈ dx) =2 e−|x|√ 2θ dxmais ce calcul d’intégrale n’est pas trivial. Cependant, on peut y arriver sansutiliser un attirail lourd de changement de variables. On sait que la transforméede Laplace du temps d’atteinte du niveau a par un mouvement Brownien este −|a|√2λ |a|et que la densité de ce temps d’atteinte est √ /2u 2πu3 e−a2 . Ce quis’écrit−|a| √ 2λ = E(e −λTa ) =∫ ∞e −λt0|a|√ /2t 2πt3 e−a2 dt .


Corrigés. 2002-03 119Par dérivation par rapport à λ, on obtientD’oùExercice 2.1.5 :λ|a|√2λe −|a|√ 2λ =∫ ∞0∫ ∞e −λt0|a|√ e −a2 /2t dt .2πt√e −λt 12λ√ e −a2 /2t dt =2πt 2 e−|a|√ 2λ .1. Le processus M est F-mesurable. M t est intégrable: E(|Bt 3 |) = Ct 3 2 où C∫ t ∫ t∫ t√2sest une constante et E| B s ds| ≤ E(|B s |) ds = ds < ∞.000 πEn utilisant que, pour t > s, la v.a. B t − B s est indépendante de F s , onobtientE(B 3 t |F s ) = E((B t −B s +B s ) 3 |F s ) = E((B t −B s ) 3 )+3B s E(B t −B s ) 2 +3B 2 sE(B t −B s )+B 3 sd’où E(Bt 3 |F s ) = 3B s (t − s) + Bs.3D’autre partE(∫ t0B u du|F s ) =∫ t0E(B u |F s ) du =∫ s0E(B u |F s ) du+La propriété de martingale est alors facile à vérifier.∫ tsE(B u |F s ) du =2. Des calculs analogues montrent que B 3 t − 3tB t est une martingale. Ilsuffit de montrer que pour s < t, E(B 3 t − 3tB t |F s ) = B 3 s − 3sB s . Or, enutilisant que B t −B s est indépendant de F s , on obtient E((B t −B s ) 3 |F s ) =E((B t −B s ) 3 ) = 0 car E(X 3 ) = 0 si X est une variable gaussienne centrée.Il reste à utiliser (a − b) 3 = a 3 − 3a 2 b + 3ab 2 − b 3 pour obtenirE(B t − B s ) 3 |F s ) = E(B 3 t |F s ) − 3B s E(B 2 t |F s ) + 3B 2 sE(B t |F s ) − B 3 s= E(Bt 3 |F s ) − 3B s (Bs 2 − s + t) + 3BsB 2 s − Bs3Le processus Bt 3 − 3tB t est une martingale, donc par différence tB t −∫ t0B s ds est une martingale, égale (intégration par parties) à∫ t0sdB s .3. La v.a. X t est F t mesurable et intégrable : en effet |X t | ≤ t|B t | +∫ t0|B s |ds = Z et il est facile de vérifier que Z est intégrable (soit E(Z) s.E(X t |F s ) = E(tB t −= tB s −∫ t0∫ s0B u du|F s ) = tE(B t |F s ) −B u du −∫ tsB s du = tB s −∫ t0∫ s0E(B u |F s )du∫ sB u du − B s (t − s) = −0B u du+B s (t−s)∫ s0B u du + B s s = X s


120 Brownien.le processus X est une martingale.On peut aussi appliquer la formule d’Itô et vérifier que dX t = tdB t .Comme f(s) = s est de carré intégrable (soitde Wiener∫ t0∫ t0s 2 ds < ∞) , l’intégralesdB s est une martingale. On peut aussi remarquer que, parintégration par parties, X t =∫ t0sdB s .4. On verra plus tard que U n’est pas une martingale. On peut remarquerque E(U t ) n’est sans doute pas constant.5. Soit t > s. E(Y t |F s ) = E(t 2 B t −2t 2 B s − 2∫ s0B u du − 2∫ ts∫ t0B s du = t 2 B s − 2B u du|F s ) = t 2 E(B t |F s )−2∫ s0∫ tB u du − 2B s (t − s) = Y s +(t 2 − s 2 )B s − 2B s (t − s) Pour que Y soit une martingale, il faudrait que0 = (t 2 − s 2 )B s − 2B s (t − s) = (t − s)B s (t + s − 2), ce qui n’est pas.Exercice 2.1.6 : En écrivant M t = −(Bt 2 − t) + (a + b)B t − ab et en utilisantque B et (Bt 2 − t, t ≥ 0) sont des martingales, le caractère martingale de Mprovient de la structure espace vectoriel de l’ensemble des martingales. Le processusM t∧Ta,b est une martingale de valeur initiale −ab, donc E[M t∧Ta,b ] = −ab.Le temps d’arrêt T a,b , majoré par T a est fini. Lorsque t converge vers l’infiniM t∧Ta,b = (a−B t∧Ta,b )(B t∧Ta,b −b)+t ∧ T a,b converge vers (a−B Ta,b )(B Ta,b −b)+T a,b = T a,b , car (a−B Ta,b )(B Ta,b −b) = 0. La quantité (a−B t∧Ta,b )(B t∧Ta,b −b)est majorée par (a − b) 2 et la quantité t ∧ T a,b converge en croissant vers T a,bdont on ne sait pas qu’elle est intégrable. On peut conclure en appliquant lethéorème de Lebesgue dominé pour la partie E(a − B t∧Ta,b )(B t∧Ta,b − b) et lethéorème de convergence monotone pour la partie portant sur le temps d’arrêt.On en déduit E(T a,b ) = −ab.0E(B u |F s )du =Exercice [∫2.1.9 :Soit t ≥ s. ] E x (f(B t )g(B s )) = E x (f( ˆB t−s∫+ B s )g(B s )) =E dyf(y)p t−s (B s , y)g(B s ) = E(Ψ(X s )) avec Ψ(z) = g(z) f(y)p t−s (z, y)dy.∫D’où E x (f(B t )g(B s )) = p s (x, z)Ψ(z)dz.Autre mode de raisonnement: On applique la propriété de Markov.E x (f(B t )g(B s )) = E x (g(B s )E((f(B t )|F s )) = E x (g(B s )E((f(B t )|B s )) = E x (g(B s )ϕ(B s ))avec ϕ(z) = E z (f(B t−s )) = ∫ f(y)p t−s (z, y)dy.Exercice 2.1.11 :E x (exp −λ(W t ) 2 1) = √ exp(−λx21 + 2λt 1 + 2λt )


Corrigés. 2002-03 121∫ 1B sExercice 2.1.13 : E|0s ds| ≤ ∫ 1Exercice 2.1.14 Utiliser que {B t < 0} ⊂ {τ ≤ t}.0E| B ∫ 1ss |ds = c 1√ ds < ∞. sExercice 2.1.16 La quantité e −λt u(B t ) est majorée par e −λt M, qui est intégrablesur [0, ∞], d’où l’existence de f et g.La suite d’égalités(∫ ∞) ( [∫ ∞])E x dte −λt u(B t ) = E x E x dte −λt u(B t ) |F τττ[∫ ∞][∫ ∞]E x dte −λt u(B t )|F τ = e −λτ E x dte −λt u(B t+τ − B τ + B τ )|F ττ[∫ ∞]E x dte −λt u(B t+τ − B τ + B τ )|F τ0=∫ ∞E x (u(B t+τ − B τ + B τ )|F τ ) = E Bτ [u( ̂B t )]000dte −λt E x (u(B t+τ − B τ + B τ )|F τ )où la dernière égalité résulte de la propriété forte de Markov, ̂B étant le Brownien(B t+τ − B τ , t ≥ 0), indépendant de F τ , conduisent à(∫ ∞)E x dte −λt u(B t ) = E x (e −λτ ψ(B τ ))avec ψ(x) =∫ ∞0τdte −λt E x [u( ̂B t )] = f(x) ce qui est le résultat souhaité.Exercice 2.1.17 : Il suffit d’écrire∑ αkk! E(Bk t |F s ) = ∑ α kk! H k(B s , −(t − s))Exercice 2.1.19 :P (au moins un zero dans ]s, t[|B s = a) = T (T a ≤ t − s).Il reste à calculer2∫ ∞01da√ e −a2 /2s2πsOn utilise Fubini et de la trigo.∫ t−s2.2 Processus GaussienExercice 2.2.1 : Soit Y t =∫ t00dx(2πx 3 ) −1/2 a exp(− a22x )B u du. Le processus Y est défini trajectoirepar trajectoire, comme intégrale de Riemann d’une fonction continue. En particulier,on a dY t = B t dt. Le processus Y est un processus gaussien. Toutd’abord, Y t est une gaussienne comme limite de sommes de Riemann qui sontdes gaussiennes car B est un processus gaussien. Le caractère gaussien du processuss’obtient par un raisonnement analogue.


122 Brownien.On a E(Y t ) =∫ t0E(B u ) du = 0.La covariance de Y est E(Y t Y s ) =∫ t0∫ tOn se place dans le cas s < t et il vientE(Y t Y s ) =∫ s0[∫ s]du (v ∧ u)dv +00du∫ s[∫ s]du dv(u ∧ v) .0∫ ts0dvE(B u B v ). Il reste à intégrer[∫ s]du (v ∧ u)dv =0Tous calculs faits, pour s < t: E(Y t Y s ) = s2(3t − s).6Exercice 2.2.2La solution est∫ tX t = e −at x + e −at e (a+b)t dB t0∫ s0[∫ udu vdv +0On procède comme pour le processus d’OU. On peut aussi résoudre dX t =−aX t dt ce qui donne X t = ce −at et appliquer une méthode de variation de laconstante. On cherche un processus c tel que X t = C t e −at vérifie l’équation(cette méthode ne prend toute sa signification que si on a vu le lemme d’Itô)dX t = −aC t e −at dt + e −at dC t = −aX t dt + e bt dB td’ou e −at dC t = e bt dB t soit dC t = e (b+a)t dB t . Il resterait à vérifier que l’on abien trouvé une solution, car on ne dispose pas du lemme d’Itô et on ne sait pasjustifier que la dérivée de C t e −at est −aC t e −at dt + e −at dC t .Exercice 2.2.4 :1. Le processus (Z t = B t − tB 1 , 0 ≤ t ≤ 1) est un processus gaussien carpour tout choix de (a i , t i )∫ su]udv +∫ ts[∫ sdu vd0∑ai Z ti = ∑ a i B ti − ( ∑ a i t i )B 1est une v.a.r. gaussienne (B est un processus gaussien). De la même façon,on obtient que le vecteur (Z t , B 1 ) est gaussien. Ses deux composantes Z tet B 1 sont indépendantes car E(Z t B 1 ) = E(B t B 1 ) − tE(B1) 2 = 0. Lacovariance de Z estE(Z t Z s ) = E(B s B t ) − sE(B 1 B t ) − tE(B s B 1 ) + tsE(B1) 2 = (s ∧ t) − st.On appelle Z un pont Brownien.


Corrigés. 2002-03 1232. Le processus (Y t = Z 1−t , 0 ≤ t ≤ 1) est gaussien centré. Sa covariance est,pour s ≤ t,E(Y t Y s ) = (1 − t) ∧ (1 − s) − (1 − s)(1 − t) = (s ∧ t) − st = s(1 − t).3. Soit Y t = (1 − t)B t . Le processus Y est un processus gaussien car∑ 1−tai Y ti = ∑ b i B si . On a E(Y t ) = 0 et pour s < tE(Y s Y t ) = (1 − t)(1 − s)E(B t B ss ) = (1 − t)(1 − s) = s(1 − t)1−t 1−s1 − sExercice 2.2.5 : Par définition de l’intégrale de Riemann, toute combinaisonlinéaire ∑ a i Z ti est limite dans L 2 de sommes du type ∑ b j B tj , d’où le caractèregaussien. (Attention, il ne faut pas se contenter de dire que Z est laijsomme de deux processus gaussiens. La somme de deux v.a. gaussiennes n’estpas nécessairement une gaussienne. Cette propriété est vraie si les variables∫ tB n ssont indépendantes) On utilise ici que0 s ds = lim ∑ B ti(t i+1 − t i ).ti=0 iPour caractériser la loi du processus gaussien Z, il suffit de donner sonespérance et sa covariance( sa variance s’en déduira)Il est immédiat de montrer que E(Z t ) = 0. Il reste à calculer la covariance. Soits < t.E(Z s Z t ) = E(B s B t )−E[On utilise que E(∫ ba∫ t0f(B u )du) =∫B suB su du]−E[B B ut0∫ bau du]+E[ ∫ t0du B uu∫ s0dv B vvE[f(B u )]du et que E(B u B v ) = u ∧ v).Après quelques calculs d’intégration sur les intégrales doubles, il vient E(Z s Z t ) =s. Le processus Z est un processus gaussien d’espérance nulle et de covariances ∧ t.Le processus Z est donc un mouvement Brownien. Cependant le processus Zn’est pas une (F t ) martingale: pour s > tE(Z s − Z t |F t ) =∫ st1u B sdu ≠ 0On a ici l’exemple d’un processus qui est un MB (et une martingale par rapportà sa propre filtration), mais qui n’est pas un brownien, ni même une martingalepar rapport à une filtration plus grosse. Le problème est connu sous le nom degrossissement de filtration. (Voir l’exercice sur l’agent initié, dans le chapitrecompléments)


124 Brownien.Exercice 2.2.6 : B u − u t B t = (B u −ut + h B t+h) − u t (B t −tt + h B t+h) montrela croissance et B t est orthogonal à B u − u t B t .Exercice 2.2.7 : Rappel : soit X est une v.a. de loi N(m; σ 2 ) et Y =exp{λ(X − m) − 1 2 λ2 σ 2 }. Soit dQ = Y dP . Sous Q, X est une v.a. de densitéN(m + λσ 2 , σ 2 ).On montre alors que ˜B t = B t − mt a une loi gaussienne sous Q.On vérifie ensuite l’indépendance des accroissements: il s’agit de montrer queE Q (φ( ˜B t+s − ˜B s ) ψ( ˜B s )) = E Q (φ( ˜B t+s − ˜B s )) E Q (ψ( ˜B s ))pour toutes fonctions boréliennes bornées (φ, ψ).probabilité, avec L t = exp(mB t − m22 t)On a, par changement deA = E Q (φ( ˜B t+s − ˜B s ) ψ( ˜B s )) = E P (L t+s φ( ˜B t+s − ˜B s ) ψ( ˜B s ).On a ˜B t+s − ˜B s = B t+s − B s − mt.En utilisant l’indépendance de B t+s − B s et de B s (sous P ) et la forme de L,on obtientA = E P [exp(m(B t+s −B s )− 1 2 m2 t)) φ(B t+s −B s −mt)] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )].Sous P , B t+s − B s et B t ont même loi, d’oùA = E P [exp(mB t − 1 2 m2 t)φ(B t − mt)] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )]= E P [exp(mB t − 1 2 m2 t)φ( ˜B t )] E P [exp(mB s − 1 2 m2 s)ψ( ˜B s )]ce qui conduit àExercice 2.2.8 :A = E Q (φ( ˜B t )) E Q (ψ( ˜B s )) .supt(|B t |−µt p/2 )| = sup(|B λ 2 s)|−µ(λ 2 s) p/2 ) loi= sup(λ|B s |−µ(λ 2 s) p/2 ) = λ sup(|B s |−s p/2 )sE(|B T |) ≤ E((|B T | − µT p/2 )) + µE(T p/2 ) ≤ E(sup t (|B t | − µt p/2 )) + µE(T p/2 )ss2.3 MultidimensionnelExercice 2.3.2 : Si les coefficients σ i sont des constantes, il suffit de définir1B 3 (t) = (σ 1 B 1 (t) + σ 2 B 2 (t)). Ce processus est un Brownien car c’est√σ 21 +σ 2 2une martingale telle que (B 2 3(t) − t; t ≥ 0) est une martingale. Si les σ sont


Corrigés. 2002-03 1251déterministes, on pose dB 3 = √σ 21 (t)+σ2 2(t)(σ 1(t)dB 1 (t) + σ 2 (t)dB 2 (t)).Le processusB (3) (t) =1√1 − ρ2 (B (2)(t) − ρB (1) (t))est une martingaleB 2 (3) (t) = 11 − ρ 2 (B2 (2) + ρ2 B 2 (1) (t) − 2ρB (1)(t)B (2) (t)Par définition de la corrélation, B (1) (t)B (2) (t) − ρt est une martingale. Il s’ensuit que B 2 (3) (t) − t est une martingale, donc B (3) est un MB. Il reste à montrerque B (3) est indépendant de B (1) . On peut utiliser le théorème de RP pourétablir que si le coefficient de corrélation de deux MB est nul, ces processus sontindépendants.2.4 Temps d’atteinteExercice 2.4.1 : Soit λ > 0. Le processus M défini par M t = exp(λB t − 1 2 λ2 t)est une martingale. On applique le théorème d’arrêt de Doob. Si a > 0,la martingale M t∧Ta est uniformément intégrable, car majorée par exp(λa).Donc E(exp(λB Ta − 1 2 λ2 T a )) = 1, soit E(exp(λa − 1 2 λ2 T a ) 1 Ta


126 Brownien.Le processus ˜W u = W t+u −W t est un MB indépendant de F t . D’où P (max t


Corrigés. 2002-03 127pour0 ≤ y, x ≤ y. On en déduit, par dérivationetP (W t ∈ dx , M t ≤ y) = √ 1 exp(− x22πt 2t ) − √ 1 (2y − x)2exp(− )2πt 2tP (M t ≤ y|W t = x) = P (W t ∈ dx , M t ≤ y)P (W t ∈ dx)Si le MB est issu de x, on utilise(2y − x)2= 1 − exp(− + x22t 2t )P (sup W s + x ≤ y|W t + x = z) = P (M t ≤ y − x|W t = z − x)s≤t2.5 ScalingExercice 2.5.2 : La partie a) résulte deLa partie c) résulte deet(T 1 > t) = (1 > S t ) loi= (1 > √ tS 1 ) = ( 1S 2 1d ∆a = inf{t ≥ ∆ a : B t = 0} = inf{t : 1 a A t ≥ 1,loi= inf{t : A t/a ≥ 1, B t/a = 0} = ad ∆1> t)1√ aB t = 0}(A g ≤ a) = (g ≤ ∆ 1 ) = (1 ≤ d ∆aloi= (1 ≤ ad ∆1 ) = ( 1d ∆1≤ a)La partie d) est facile. Dans ce cas ∆ 1loi= T ∗ 1 = inf{t : sup s≤t |B s | ≥ 1}.Exercice 2.5.3 :P ( sup |W t | ≤ x) = P ( sup |W t | ≤ 1) = P (M 1 ≥ 11≤t≤11≤t≤(1/x 2 )x 2 )2.6 ComplémentsExercice 2.6.1 : On calcule E((B t − ̂B t ) 2 )E((B t − ̂B t ) 2 ) = E(Bt 2 ) + E( ̂B t 2 ) − 2E(B t ̂Bt )= 2t − 2E(B t ̂Bt )Il reste à calculerE(B t ̂Bt ) = E[ E ( )(B t ̂Bt |G t ]) = E( ̂B2 t ) = t


128 Brownien.d’où E((B t − ̂B t ) 2 ) = 0; il s’en suit l‘égalité souhaitée.Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u ≤ s, β (s)uB u − u s B s ∈ Π t . Il suffit d’écrire β u(s)us β(t) s= B u − u t B t + u s (s t B t − B s ) = β (t)u. Le processus (β u(t) ; u ≤ t) est indépendant de la variable u t B t (calculerles covariances), et B u = (β u (s) + u t B t est la décomposition orthogonale de B,la projection de F t est donc∫ t0def=f(s)d s β s(t) . Le processus ̂B est un processusgaussien centré de covariance t ∧ s, c’est un MB (On peut aussi le voir enutilisant des résultats d’unicité en loi de solution d’équa diff) Il est facile demontrer queet que, en particulier̂B s = β (t)s∫ sdu−0 u β(t) u∫ tdûB t = −0 u β(t) uD’où l’égalité des tribus. Il en résulte, en notant ¯F (t) =une intégration par partie que∫ t0f(s)dB s =∫ t0f(s)d ̂B s − B ∫ ttt ¯F (t) +0∫ t0−f(s)ds et en utilisant¯F (s)s d ̂B s .Exercice 2.6.7 : On utilisera le théorème de représentation prévisible pourreprésenter W (1)t , W (2)t en terme de W (3) . Si l’égalité était possible, on auraitW (i)t =0.∫ t0Φ (i)s dW s avec∫ t0E[Φ (i)s ] 2 ds = t et E(W (1)t W (2)t ) = E(∫ t ∫W t ∫ ss0 1 − s ds − ds0 0∫ t∫ t∫ t0Φ (1)s Φ (2)s ds) =Exercice 2.6.8 : Les premiéres questions se traitaient en utilisant des formulesd’intégration par parties, ou la formule d’Itô. A la main, on calcule∫ t∫W s − X sW t ∫ suB t +ds = B t +0 1 − s(1 − u) 2 du − ds0 0Par différentiation= B t −=∫ t0= (1 − t)0t − u1 − u dB u +(1 − t − u1 − u )dB u +∫ t∫W ttdX t = (1 − t)(1 − t) 2 dt − dt000∫ t0W s1 − s (1 − t − s1 − s )dsW s11 − u dB u + (1 − t)1 − s (1 − t − s1 − s )ds∫ t0W s(1 − s) 2 ds∫W s(1 − s) 2 ds + (1 − t) 1t1 − t dB t − dt011 − s dB s11 − u dB u


2002-03 129= W t1 − t dt + dB t − 11 − t X tdtLe calcul de la covariance du processus Gaussien X s’obtenait en appliquantplusieurs fois le résultat d’isométrieE(∫ tet en remarquant que les v.a.On trouvait pour s < t2.7 Finance0∫ sf(u)dW u g(u)dW u ) =0∫ t0f(u)dW u et∫ t∧s0∫ s0f(u)g(u)duE(X s X t ) = s + 2s(1 − t) + (2 − s − t) ln(1 − s)g(v)dB v sont indépendantes.Exercice 2.7.1 : On calcule séparément E(S t 1 St


130 Itô. Corrigés


Chapter 3Intégrale d’Itô, Corrigés3.1 Intégrale de WienerExercice 3.1.1 : On a tB t = ∫ t0 sdB s + ∫ t0 B sds (en utilisant la formuled’intégration par parties) et E(Y t ) = 0, E(Y s Y t ) = ts(t ∧ s). Le processus Y estun processus gaussien (c’était d’ailleurs évident par définition de Y ). On peutaussi utiliser la formule d’Itô (voir plus loin) qui conduit à dY t = tdB t + B t dt.∫ tExercice 3.1.2 : La v.a. X t = (sin s) dB s est définie, car ∫ t0 sin2 s ds < ∞,0pour tout t. Le processus X est gaussien d’espérance nulle et de covarianceE(X s X t ) = ∫ s∧tsin 2 u du. Il vient alors E(X0 t X s ) = s∧t2 − 1 4sin 2(s ∧ t).Le processus X est une martingale, d’où, pour s < t, on a E(X t |F s ) = X s . Ladernière égalité résulte d’une IP.Exercice 3.1.3 : La v.a. Y t =∫ t0(tan s) dB s est définie, car ∫ t0 tan2 s ds < ∞pour t < π 2 . Le processus Y est gaussien, centré de covariance E(Y tY s ) =∫ s∧t0tan 2 u du = tan(s ∧ t) − (s ∧ t).Le processus Y est une martingale.Exercice 3.1.4 : Soit∫ tdB sX t = (1 − t)0 1 − s ; 0 ≤ t < 1En appliquant le Lemme d’Itô (ou une I.P.) à f(t, y) = (1−t)y et Y t =131∫ t0dB s1 − s


132 Itô. Corrigés(donc dY t = dB ∫ tt1 − t ) il vient dX dB st = (−dt)0 1 − s + (1 − t) dB t1 − t , d’où{X tdX t =t − 1 dt + dB t ; 0 ≤ t < 1X 0 = 0On admet l’unicité de la solution. Le processus X est gaussien carune intégrale de Wiener, et on a E(X t ) = 0 et pour s < t∫ tdB uE(X s X t ) = (1−t)(1−s)E(0 1 − u∫ s0∫ t0dB s1 − s est∫dB su1 − u ) = (1−t)(1−s) du(1 − u) 2 = (1−t)sEn particulier E(Xt 2 ) = t(1 − t) d’où X t tend vers 0 quand t tend vers 1. Leprocessus X est un pont Brownien.Exercice 3.1.5 : Formule évidente en écrivant B t =l’isométrie.Exercice 3.1.6 : E(∫ t2Par intégration par parties∫ t2t 1t 1(B t − B t1 ) dt|F t1 ) =∫ t2∫ t2∫ t00dB s et en utilisantt 1E((B t − B t1 )|F t1 ) , dt = 0.t 1B t − B t1 ) dt = t 2 (B t2 − B t1 ) −(t 2 − t)dB t On en déduit que la variance cherchée est∫ t2t 1∫ t2(t 2 − t) 2 dt.t 1tdB t =3.2 Formule d’ItôExercice 3.2.1 : 1. Soit X t = Bt 2 . On a, en posant f(x) = x 2dX t = f ′ (B t )dB t + 1 2 f ′′ (B t ) dt = 2B t dB t + dt .2. Soit X t = t + exp B t . En posant f(t, x) = t + e x , on adX t = dt + exp B t dB t + 1 2 exp B tdt .3. Soit X t = Bt 3 − 3tB t . En posant f(t, x) = x 3 − 3tx on obtientdX t = 3Bt 2 dB t − 3tdB t − 3B t dt + 1 2 3 2B tdB t dB t = (3Bt 2 − 3t)dB t .On retrouve le caractère martingale de X établi au chapitre précédent.Exercice 3.2.2 : Soit X t = exp ∫ t0 a(s) ds et Y t = Y 0 + ∫ t0 [b(s) exp(− ∫ s0 a(u)du) dB s,où a et b sont des fonctions déterministes. En utilisant la notation différentielle


2002-03 133dX t = a(t) ( exp ∫ t0 a(s) ds) dt et dY t = b(t) exp(− ∫ t0 a(u)du) dB t, d’où dX t dY ˙ t =0. On pose Z t = X t Y t . Par la formule d’Itô, on adZ t = X t dY t + Y t dX t = b(t) dB t + a(t)X t Y t dtsoit dZ t = a(t)Z t dt + b(t)dB t . Le processus (Z t exp − ∫ t0 a(s) ds = Y t; t ≥ 0) estune martingale locale.Exercice 3.2.3 : La formule d’Itô donne (nous omettons les indices tdY = X 1 X 2 dt + t(X 1 dX 2 + X 2 dX 1 + d〈X 1 , X 2 〉= X 1 X 2 dt + t(X 2 f(t) + σ 1 σ 2 )dt + t(X 1 σ 2 + X 2 σ 1 )dBExercice 3.2.4 : La formule d’Itô appliquée à sin B t donnesin B t = 0 +∫ t0cos B s dB s − 1 2∫ t0sin B s ds,d’où Y t = ∫ t0 cos B s dB s . C’est une martingale, car E( ∫ t0 cos2 B s ds) < ∞, pourtout t. On a E(Y t ) = 0 et var Y t = E( ∫ t0 cos2 B s ds).Exercice 3.2.5 : En appliquant la formule d’Itô, on obtientd(X 2 t +Y 2t ) = 2X t dX t +2Y t dY t +d〈X〉 t +d〈Y 〉 t = 2X t Y t dB t −2x t Y t dB t +(X 2 t +Y 2t )dtEn posant Z t = Xt 2 + Yt2qui s’intègre en Z t = ze t .on montre que le processus Z vérifie dZ t = Z t dt ceExercice 3.2.6 : Il est évident que dZ t = Y t dB t . On calcule facilementE(Y 2s ) =∫ t0e 2s ds. Par suite L’intégrale stochastique est une martingale carE(∫ t0Y 2s ds) =et E(Z t ) = 0, E(Z 2 t ) = E( ∫ t0 Y 2s ds).∫ t0E(Y 2s )ds < ∞Exercice 3.2.7 : Soit dX t = a(K t − X t ) dt + σdB t . On voudrait que X t =f(K t ). La formule d’Itô appliquée à f(K t ) donnesoitdX t = f ′ (X t )dK t + 1 2 f ′′ (K t )σ 2 dtdX t = (f ′ (K t )b + 1 2 f ′′ (K t )σ 2 ) dt + f ′ (K t )σdB tSi on identifie les deux drifts, on obtienta(K t − f(K t )) = f ′ (K t )b + 1 2 f ′′ (K t )σ 2


134 Itô. Corrigésd’où f est solution de12 σ2 f ′′ (x) + bf ′ (x) + af(x) = ax .On résout cette EDO et on montre que f est de la formeαe λ 1x + βe λ 2x + (x − b a )avec λ 1 et λ 2 solutions de 1 2 σ2 λ 2 + bλ + a = 0.Exercice 3.2.8 : Soit X t = ∫ t0 σ(s) dB ∫s − 1 t2 0 σ2 (s) ds. On adX t = σ(t) dB t − 1 2 σ2 (t) dt.Soit Y t = exp X t . On applique la formule d’Itô avec f(x) = e x .dY t = exp(X t ) dX t + 1 2 exp(X t) σ 2 (t) dt= Y t (− 1 2 σ2 (t) dt + σ(t)dB t ) + 1 2 Y t σ 2 (t) dt= Y t σ(t) dB t .Le processus Y est une martingale locale. C’est une martingale si(∫ tE0)Yt 2 σ 2 (t) dt < ∞ .Ce critère n’est pas très bon, nous en verrons d’autres par la suite.Si σ est une constante, Y est un brownien géométrique avec drift nul.particulier,Y t = exp(σB t − σ22 t)est une (vraie) martingale:Vérifions à titre d’exercice dans ce cas les conditions d’intégrabilité:EnY t = exp X t = exp(σB t − 1 2 σ2 t)d’oùE(|Y t |) = E(Y t ) = E(exp(σB t − σ22 t)) = 1 √2πt∫ ∞−∞E(Y 2t ) = E(exp(2σB t − σ 2 t)) = exp(σ 2 t) .e σx− 1 2 σ2t e − x22t dx = 1En particulier, si σ = 1 le processus exp( B t − t 2) est une martingale.


2002-03 135Soit Z t = 1 Y t. Pour calculer dZ t , on peut utiliser la formule d’ItôdZ t = − Y tσ(t)Y 2tce qui va s’écriredB t + 1 2Z t = Z 0 exp(−2Yt 2 σ 2 (t)Yt3 dt = Z t (−σ(t)dB t + σ 2 (t)dt)∫ t0σ(s)dB s + 1 2∫ t0σ 2 (s) ds)formule que l’on peut obtenir directement en inversant l’exponentielle.Exercice 3.2.9 :Par simple application de la formule d’ItôdZ t = (aZ t + b)dt + cZ t dW tExercice 3.2.10 : Dans le cas h = 0, on aS t = S 0 e (r−q)t e σW t− 1 2 σ2t = e (r−q)t M t .Donc M t = M 0 e σW t− 1 2 σ2t est une martingale positive, d’espérance 1 et on peutl’utiliser comme densité de RN. Sous Q, le processus Ŵt = W t − σt est un MB.Dans le cas généralS t = S 0 e (r−q)t e ∫ t0 hsds e σWt− 1 2 σ2t .On en déduit e − ∫ t0 h sds = 1 S tM t e −(r−q)t . Donce −rT E(e − ∫ T0 h(S s)ds Ψ(S T )) = e −rT E( 1S TM T e −(r−q)T Ψ(S T )) = e −qT E Q ( 1S TΨ(S T )) .On se place dans le cas h t = S −ptet on pose Z t = S p t . Le calcul d Ito conduit àdZ t = pS p t σdW t + (r − q)pS p t dt + pdt + 1 p(p − 1)Sp−2 t St 2 σ 2 dt2= pZ t σdW t +([(r − q)p + 1 ] )2 p(p − 1)σ2 Z t + p dt= (aZ t + b)dt + cZ t dW tLe processus f(Z t ) est une martingale locale siOn pose g = f ′ . L’équationf ′ (z)(az + b) + 1 2 f ′′ (z)c 2 z 2 = 0 .g(z)(az + b) + 1 2 g′ c 2 z 2 = 0a pour solution g(z) = α exp( 2bc 2 z )z−1/c2 . Les fonctions f recherchées (ce quel’on appelle les fonctions d’échelle) sont les primitives de g.


136 Itô. CorrigésExercice 3.2.11 : Le processus Z est une martingale locale car dZ t = cX t Z t dB t .On asoit U t = U 0 + 2∫ t0dU t = 2X t dX t + d〈X〉 t= 2X t (a − bX t )dt + 2X t dB t + dtX s dB s +12 (X2 t − X 2 0 − t) =∫ t0∫ t0(2X s (a − bX s ) + 1)ds On en déduitX s dB s + a∫ t0X s ds − b∫ t0X 2 s dsExercice 3.2.12 : Pour montrer que Z est une martingale locale, on calculedZ et on vérifie que son drift est nul. On a Z t = f(t, B t ) avec f(t, x) =1√ exp −x2Il en résulte que1 − t 2(1 − t)B tdZ t = −(1 − t) exp − B2 t3/2 2(1 − t) dB tLe processus (Z t , t < 1) est une martingale locale. C’est une vraie martingalesi pour tout T ≤ 1∫ TE[0∫ TLe terme de gauche est majoré par E[0B 2 t(1 − t) 3 exp − B2 t(1 − t) dt] < ∞Bt2 ∫ T(1 − t) 3 dt] =Exercice 3.2.13 : Soit Z t = (L t ) a exp(−Γ(a)t). Alorsoù M est une martingale.dZ t = dM t + e −Γ(a)t (L t ) a (−Γ(a) + a(a − 1)φ)Exercice 3.2.14 : Il est facile d’établir quedY t = −Y t [(2X t a t + σ 2 t (1 + 2X 2 t ))dt + 2X t σ t dW t ]et, en utilisant que X t = 0 et Y t = 1 on obtient 0 = −σ 2 t dt.0tdt < ∞.(1 − t)3Exercice 3.2.22 : La fonction d’échelle de X t = exp(B t + νt) est s(x) = x −2ν .Le processus croissant de s(X) est A t =Exercice 3.2.26 : On obtient facilement∫ t0(s ′ σ) 2 (X s )ds.E(f(B 1 )|F t ) = E(f(B 1 − B t + B t )|F t ) = E(f( ̂B 1−t + B t )|F t ) = ψ(t, B t )


2002-03 137avecψ(t, x) = E(f(x + B 1−t )) . (3.1)D autre part, la formule d’Itô et la propriété de martingale de ψ(t, B t ) conduisentà ψ(t, B t ) = E(f(B 1 )) +∫ t0∂ x ψ(s, B s )dB s . On écrit (grace à 3.1)∂ x ψ(t, x) = E(f ′ (x + B 1−t ))et un raisonnement analogue au précédent montre que si on pose ϕ(t, x) =E(f ′ (x + B 1−t )) on obtientϕ(t, B t ) = E(f ′ (B 1 )|F t )3.3 Cas multidimensionnelExercice 3.3.1 : De façon évidente, on adS 3 (t) = 1 2 [dS 1(t) + dS 2 (t)] = 1 2 [r(S 1(t) + S 2 (t)] dt+σ 1 S 1 (t)dB 1 (t)+σ 2 S 2 (t)dB 2 (t) .On peut remarquer que√σ 2 1 S2 1 (t) + σ2 2 S2 2 (t) dB3 (t) = (σ 1 S 1 (t)dB 1 (t) + σ 2 S 2 (t)dB 2 (t))définit un Brownien B 3 qui permet d’écrire√σ 21 S 2 1 (t)+σ2 2 S2 2 (t)dS 3 (t) = r S 3 (t)dt + σ(t)S 3 (t)dB 3 toù σ(t) =S 1 (t)+S 2 (t)est un processus.En utilisant le lemme d’Itô, on obtientdS 4 (t) = S 4 (t)(r dt − 1 8 (σ2 1 + σ 2 2) dt + σ 12 dB 1(t) + σ 22 dB 2(t)) ,ce que l’on peut écriredS 4 (t) = S 4 (t)(r dt − 1 8 (σ2 1 + σ 2 2) dt + σdB 4 (t)) .Pour vérifier que B 3 et B 4 sont des browniens, on peut procéder de différentesfaçons (voir aussi les exercices sur le Brownien)a. B i (t + s) − B i (t) a même loi que B i (s), cette loi est N (0, s) et les accroissementssont indépendantsb. B i et (Bi 2(t) − t, t ≥ 0) sont des martingales et B i est un processus continuc. pour tout λ, le processus exp(λB i (t) − λ22t) est une martingale.


138 Itô. Corrigés3.4 ComplémentsExercice 3.4.1 : En utilisant le théorème de Fubini pour les intégrales doublesF (x) =∫ x−∞dz∫ z−∞dyf(y) =∫ x−∞dyf(y)∫ xPar dérivation par rapport à la borne supérieureF ′ (x) =∫ x−∞dyf(y) =∫ ∞−∞ydz =∫ x−∞f(y) 1 x>y dydyf(y)(x − y) +Le lemme d’Itô conduit alors au résultat. La formule finale s’écrit aussi∫ t0f(B s )ds = 2∫ ∞−∞L B (t, y)f(y)dy(∫ t)avec L B (t, y) = (B t − y) + − (B 0 − y) + − 1 Bs >ydB s et est connue sous0le nom formule de temps d’occupation. Le processus L B (·, y) est le temps localde B au point y entre 0 et t. La difficulté est de vérifier que le processus L(·, y)est un processus croissant.Exercice 3.4.2 : On a, en exprimant X t comme le produit de exp W 1 (t) et deU t =∫ t0exp[−W 1 (s)] dW 2 (s) qui vérifie dU t = exp[−W 1 (t)] dW 2 (t)dX t = exp W 1 (t)(exp −W 1 (t)) dW 2 (t) + U t (exp[W 1 (t)]dW 1 (t) + 1 2 exp[W 1(t)]dt)= dW 2 (t) + X t dW 1 (t) + 1 2 X tdtSoit f(x) = sinh x, alors, f ′ (x) = 1 2 (ex +e −x ) = cosh x et f ′′ (x) = 1 2 (ex −e −x ) =sinh x. O applique le lemme d’Itô:dZ t = cosh(W 1 (t)) dW 1 (t) + 1 2 sinh(W 1(t)) dt =M tdef= W 2 (t) +∫ t0√1 + Z 2 t dW 1 (t) + 1 2 Z tdtX s dW 1 (s) est une martingale locale comme somme de deuxmartingales locales. Son crochet est t +∫ t√1 + X2 s . En regroupant les résultats X t =et Z t =et de Z.∫ t0√1 + Z2 s dW 1 (s) + 1 2∫ t00X 2 s ds =∫ t0∫ t0(1 + X 2 s )ds, d’où γ s =√1 + X2 s dW 3 (t) + 1 2∫ t0X t dtZ s ds. On obtient donc l’égalité en loi de X


2002-03 139Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et lelemme d’Itô conduit à2 a − WdZ t = 1 St


140 Itô. Corrigéset est une martingale locale.La solution de dL t = −L t θ t dB t est une martingale locale, qui s’écritOn pose Y t = S t L t . On aL t = L 0 exp(−∫ t0θ s dB s − 1 2∫ t0θ 2 sds).dY t = S t dL t + L t dS t + d < S, L > t .Par définition d〈S, L〉 t = −S t σ t L t θ t dt, d’oùdY t = Y t ((b t − θ t σ t ) dt + σ t dB t ) .En finance, on utilise souvent le cas θ t = − r(t)−btσ t. Il vient alorsdY t = Y t (r(t) dt + σ t dB t ) .Soit R t = exp(− ∫ tr(s) ds). Le processus Y R = LRS est une martingale locale0qui vérifie d(LRS) = LRSσdB.Exercice 3.5.2 : SoitdS t = S t (rdt + σdB t )∫et A t = 1 tt 0 ln S sds. On a S t = S 0 exp(σB t − 1 2 σ2 t + rt) etln S t = ln S s + σ(B t − B s ) + (r − σ2)(t − s)2Le processus ln S t est un processus gaussien, d’où A t est une variable gaussienne.∫Soit G(t, T ) = 1 TT t (B s − B t ) ds. Le processus s → B s − B t est gaussien,d’où G(s, T ) est une variable gaussienne. Le processus (B s − B t , s ≥ t) est∫indépendant de F t donc G(t, T ) aussi, d’où E(G(t, T )|F t ) = 1 TTE(Bt s −B t ) ds = 0.Var (G(t, T )|F t ) = E(G 2 (t, T )) = 1T 2 ∫ Tt∫ TE((B s − B t )(B u − B t )) = (s ∧ u) − t. Tous calculs faitstE((B s − B t )(B u − B t ))ds du .Var (G(t, T )|F t ) = 1T 2 (1 3 T 3 − 1 3 t3 + tT (t − T ))( ∫En écrivant A T = 1 tT 0 ln S s ds + ∫ )Tln St s ds et en remarquant que∫ Ttln S s ds = (T − t) ln S t + 1 r − σ 2(T − t) 2 + σG(t, T )2 2


2002-03 141on obtientA T = t T A t + (1 − t T )[ln S t + 1 2σ2(r − (T − t)] + σG(t, T ).2Exercice 3.5.4 : Soit ˜S t = e −rt S t . On a vu déja plusieurs fois que ˜S t est unemartingale (par exemple vérifier, en utilisant le lemme d’Itô, que d ˜S t = ˜S t σdB t ).Soit X t défini pare −rt X t = E[ e−rThOn a, X T = V T et si t ≤ T − h∫ TT −hS σ udu |F t ] .soitet si T − h ≤ t ≤ Te −rt X t = e −rT 1 h∫ TT −hE(S u |F t ) due −rt X t = St σ −rt 1 − e−rherh= e −rT 1 hdX tX t∫ te −rt X t = e −rT 1 h∫ T∫ TT −hE(S u |F t ) du∫ tE(S u |F t ) du+ 1 E(S u |F t ) du = e−rTT −h h th T −h{= rdt + σSσ t1 − e −rh1 − e1 {t


142 Itô. Corrigéset en utilisant que exp(σW t − 1 2 σ2 t) est une martingale d’éspérance 1, on obtientE(S t ) = S 0 exp(rt − ∆(t)) .On montre que S est de carré intégrable : en effetSt 2 = S0 2 exp(2rt−2∆(t)+2σW t ) = S0 2 exp(2rt−2∆(t)+ 1 2 (2σ)2 t) exp(2σW t − 1 2 (2σ)2 t)et l’on sait que exp(2σW t − 1 2 (2σ)2 t) est une martingale égale à 1 en t = 0, d’oùE(S 2 t ) = S 2 0 exp(2rt − 2∆(t) + 1 2 (2σ)2 t)et E( ∫ t0 S2 s e −2rs ds) < ∞, ce qui établit le caractère martingale de la martingalelocale Z.On sait que (formule de Black et Scholes en changeant de nom les paramètres)si dS t = S t (adt + σdW t ), S 0 = x alorsE(e −aT (S T − K) + )) = xN (d 1 ) − Ke −aT N (d 2 )avec d 1 = 1σ √ T ln( xKe −aT ) + 1 2 σ2 T ). Le calcul demandé est alors facile.3.6 Le crochet3.7 FinanceExercice 3.7.3 : Pour g(x) = (x − K) +et aussiC Amt ≥ C t = E(e −rT (S T − K) + |F t ) = E(e −rT g(S T )|F t )e −ru g(S u ) ≤ e −rT g(S u e r(T −u) ) = e −rT g(e rT E(S T e −rT F u )) = e −rT g(E(e rT S T e −rT F u ))= e −rT g(E(S T F u )) ≤ E(e −rT g(S T )|F t ))P ≤ P Am et la propriété de sous martingale de (K −S t e −rt ) permet de conclure.Exercice 3.7.11 : On écrit la formule d’intégration par partiesd( X tY t) = X t d( 1 Y t) + 1 Y tdX t + d〈X, 1 Y 〉 t .En particulier (on omet les indices t) (X = Y )d( X X ) = d(1) = 0 = Xd( 1 X ) + 1 X dX + d〈X, 1 X 〉 .


Corrigés. 2005-06 143Soit dV = π 1 dS 1 + π 2 dS 2 . On a doncd〈V,1S 1 〉 = π 1d〈S 1 ,1S 1 〉 + π2 d〈S 2 ,1S 1 〉 .Par suite, si V 1 = V/S 1 , on peut écrire la suite d’égalités (on utilise V =π 1 S 1 + π 2 S 2 )dV 1t = V d( 1S 1 ) + 1S 1 dV + d〈V, 1S 1 〉= (π 1 S 1 + π 2 S 2 )d( 1S 1 ) + 1S 1 (π1 dS 1 + π 2 dS 2) + π 1 d〈S 1 ,= π 1(S 1 d( 1S 1 ) + 1S 1 dS1 + d〈S 1 ,= π 2 d( S2S 1 )Exercice 3.7.12 : On remarque que1S 1 〉 + π2 d〈S 2 ,) (1S 1 〉 + π 2 S 2 d( 1S 1 ) + 1S 1 dS2 + d〈S 2 ,F T = σ(W s , s ≤ t) = σ(S 1 s , s ≤ t) = σ(S 2 s , s ≤ t)Le marché est complet: en effet, toute v.a. F T mesurable s’écrit comme valeurterminale d’un portefeuille auto-finançant composé des actifs sans risque et del’actif 1, donc le marché composé d’un actif supplémentaire (avec les mêmesactifs contingents) est également complet. La seule probabilité équivalente à laprobabilité P telle que l’actif sans risque et l’actif 1, actualisés, sont des martingalesest Q définie par dQ| Ft = exp(−θW t − 1 2 θ2 t)dP | Ft avec θ = µ i − r.σL’actif 2, actualisé n’est pas une martingale sous Q, il n’existe donc pas de probabilitééquivalente à la probabilité P telle que TOUS les actifs actualisés soientdes martingales. Le marché présente des opportunités d’arbitrage. Supposonsµ 1 > µ 2 . Si, à la date 0, on achète une part de l’actif 1 et on vend une part del’actif 2 (capital initial investi nul) et que l’on maintient cette position jusqu’enT , on a un portefeuille de valeurS 1 T − S 2 T = [ exp(µ 1 T ) − exp(µ 2 T ) ] exp(σW T − 1 2 σ2 T ) > 0ce qui constitue un arbitrage.1S 1 〉)1S 1 〉


144 Equa. Diff.


Chapter 4Equations différentiellesstochastiques, Corrigés4.1 Equation LinéaireExercice 4.1.4 : L’équation a une solution unique car b(t, x) = a + αx etσ(t, x) = b + βx sont lipschitziennes et ont une croissance linéaire. On aX t = x +∫ t0(a + αX s ) ds +∫ t0(b + βX s ) dB sL’intégrale stochastique est une martingale car E( ∫ t0 (b+βX s) 2 ds) ≤ E( ∫ t0 2(b2 +β 2 Xs 2 ) ds) et la solution de l’équation vérifie E(sup s≤t Xs 2 ) < ∞. D’où enprenant l’espérance de X t et en posant m(t) = E(X t )m(t) = x +∫ t0(a + αm(s)) ds .La fonction m est dérivable et vérifie m ′ (t) = a + αm(t). Compte tenu de lacondition initiale m(0) = x, la solution estLa formule d’Itô conduit àm(t) = (x + a α )eαt − a αd(X 2 t ) = 2X t (a + αX t ) dt + 2X t (b + βX t ) dB t + (b + βX t ) dt .En admettant que l’intégrale stochastique est une martingale et en posantM(t) = E(X 2 t )M(t) = x 2 + 2∫ t0(am(s) + αM(s)) ds +145∫ t0(b 2 + β 2 + 2bβm(s)) ds


146 Equa. Diff.soit {M ′ (t) − (2α + β 2 )M(t) = 2(a + bβ)m(t) = b 2la solution est⎧⎪⎨⎪⎩M(0) = x 2M(t) = Ce 2α+β2 )t + ke αt + ck(−α − β 2 ) = 2(a + bβ)(x + a α )c = (b 2 − 2(a + bβ) a α ) 12α+β 2K + k + c = x 2Exercice 4.1.5 : On a dY t = Y t (αdt + βdB t ) dont la solution est (cf browniengéométrique)Y t = exp[(α − 1 2 β2 )t + βB t )]On a (cf propriété de martingale du Brownien)E(Y t |F s ) = exp(αt)E(exp[− 1 2 β2 t + βB t ] |F s ) = exp(αt) exp[− 1 2 β2 s + βB s ]D’où, si α ≥ 0, on a E(Y t |F s ) ≥ Y s . Le processus Y est une martingale si on aégalité soit si α = 0.c. Le processus Y ne s’annule pas. Le processus Z t est un processus d’Itô carY −1test de carré intégrable (voir brownien géométrique) etdZ t = (a − bβ)Y −1tOn a ainsi d〈Y, Z〉 t = bYt−1 Y t β = bβ.Soit U t = Y t Z t . La formule d’Itô conduit àdt + bYt−1 dB tdU t = (a−bβ) dt+b dB t +U t (α dt+β dB t )+bβ dt = (a+αU t ) dt+(b+βU t ) dB tet comme U 0 = x on a par unicité X t = U t .Exercice 4.1.6: Soit dX t = αX t dt + b dB t . On sait (ex précédents) quecette équation admet une solution unique. En posant Z t = e −αt X t on voit quedZ t = e −αt¯dB t d’où∫ tX t = e αt x + e αt e −αs b dB sIl en résulte que X est un processus gaussien de moyenne E(X t ) = e αt x et devarianceV (X t ) = b 2 2αt 1 − e−2αt defe = σ 2 (t) .2αSi Y t = φ(X t ), la formule d’Itô conduit àdY t = φ ′ (X t )dX t + 1 2 φ′′ (X t )b 2 dt .0


Corrigés. 2005-06 147Dans le cas particulier de l’énoncé,soitdY t = exp(− α b 2 X2 t )(bdB t )Y t = b∫ t0exp(− α b 2 X2 s )dB sC’est une martingale car E( ∫ t 2αexp(−0 bX 2 2 s )ds) < ∞ (faire le calcul en utilisantce qui suit) de carré intégrable.En utilisant le calcul de E(e λU 2 ) quand U est une gaussienne, on trouve, enposant m(t) = e αtetE(e λX2 t |Fs ) =1E(e λX2 t ) = √1 − 2λσ2 (t) exp λm2 (t)x 21 − 2λσ 2 = Φ(t, x)(t)1√1 − 2λσ2 (t − s) exp λm2 (t − s)X 2 s1 − 2λσ 2 (t − s) = Φ(t − s, X s)Soit t fixé. Par définition, le processus d’Itô V défini par V s = Φ(t − s, X s )est une martingale, donc son drift est nul. On a donc−∂ 1 Φ(t − s, x) + αx∂ 2 Φ(t − s, x) + 1 2 b2 ∂ 22 Φ(t − s, x) = 0∂ 1 Φ(u, x) + αx∂ 2 Φ(u, x) + 1 2 b2 ∂ 22 Φ(u, x) = 0En posant Ψ = ln Φ et en recherchant Ψ sous la formeΨ(t, x) = x 2 a(t) + b(t)on a (voir la forme de Φ) les conditions de l’énoncé sur les fonctions a et b.Exercice 4.1.13 : Dans un premier temps, on pose Y t = e αt X t . Ce processusvérifiedY t = e αt (µ − γV t )dt) + e αt√ V t dW 1,tCalculer ϕ(λ) = E(exp(λX T )) revient à calculet ψ(λ) = E(exp(λY T )). On aen effet ϕ(λ) = ψ(λe αT . Le calcul des espérances conditionneles se réduit à uncalcul d’espérance par la propriété de Markov. On aY t = Y 0 +∫ tOn est donc ramené à calculerA = E(exp(−γ0e αs (µ − γV s )ds +∫ t0e αs V s ds +∫ t∫ t00e αs√ V s dW 1,se αs√ V s dW 1,s))


148 Equa. Diff.En décorrélant W 1,t , le terme sous l’exponentielle est−γ∫ t0e αs V s ds + ρ∫ tEn utilisant l’indépendance entre W et V( (A = Eexp−γ∫ t00e αs V s ds + ρe αs√ V s W 2,s + √ ∫ t1 − ρ 2 e αs√ V s dW s∫ t0e αs√ V s W 2,s +Il reste un calcul du type espérance de l’exponentielle deCette expression sécrit∫ t0f(s)V s ds +∫ t0∫ t0f(s)V s ds +∫ tg(s)(dV s − k(θ − V s )ds) =0g(s) √ V s dW 2,s=∫ t0∫ t00= G(t)V t +√1 − ρ22F (s)V s ds +∫ t0∫ t0e 2αs V s))G(s)dV sF (s)V s ds + G(t)V t − G(0)V 0 −∫ t0H(s)V s dsou f, g, F, G, H sont des fonctions déterministes. (remarque: pour un ornsteinUhlenbeck, ce type de calcul est standard)Exercice 4.1.10 : On pose Y t = e at X t . On a∫ t0G ′ V s dset E(Y t ) = x + b(e at − 1) En utilisanton obtient Y t − E(Y t ) =dY t = abe at dt + σe at/2√ Y t dW tY t = x +∫ t0abe as ds + σe as/2√ Y s dW s= E(Y t ) + σe as/2√ Y s dW s∫ t0σe as/2√ Y s dW s par suiteV ar(Y t ) =∫ t0σ 2 e as E(Y s )dsExercice ?? : Si α et β existent, le processus M t = e α(t)+β(t)S texpest une martingale, donc E(M T |F t ) = M t ce qui conduit à( ( ∫ ) )T(E e θS Texp − ψ(S s )ds |F t = e α(t)+β(t)S texp −0∫ t0(− ∫ )t0 ψ(S s)ds)ψ(S s )ds .


Corrigés. 2005-06 149D’où le résultat en remarquant que exp(− ∫ t0 ψ(S s)ds) est F t adapté. Pour queM soit une martingale, il faut que sa partie à variation bornée soit nulle. Il estfacile de voir queCe qui conduit àsoitd(e α(t)+β(t)S t) = e α(t)+β(t)S t(α ′ + β ′ )dt + βdS t + β 2 σ(S t ) 2 dtα ′ + β ′ S t − ψ(S t ) + βµ(S t )dt + β 2 σ(S t ) 2 = 0α ′ + β ′ x − ψ(x) + β(µ 0 + µ 1 x) + β 2 (σ 0 + σ 1 x) = 0Cette équation doit être vérifiée pour tout (t, x) d’où (cours élémentaire sur lesED)α ′ − ψ 0 + βµ 0 + β 2 σ 0 = 0β ′ − ψ 1 + βµ 1 + β 2 σ 1 = 0La seconde équation est une équation de Ricatti4.2 FinanceExercice 4.2.1 : Soit S t solution dedS t = S t (r dt + σ dB t ) .On a pour t ≤ uS u = S t exp(r(u − t) + σ(B u − B t ) − σ22 (u − t) )(4.1)Le processus S est à valeurs ( positives (si S 0 > 0) et ne s’annule pas.1. Le processus M t = E [ 1 ∫ )TS u du − K] + |F t est une martingale, car ilT 0s’écrit E(Z|F t ).2. En utilisant que s(a − b) (+ = (sa − sb) + si s > 0 et la F t -mesurabilité deS t , on obtient M t = S t E [ 1 ∫ )TS udu − K ] + |F t ce qui s’écrit de façonT 0 S t S tévidente(S t E [ 1 ∫ )TS udu − ζ t ] + |F tT S t∫ ttavec ζ t = St−1 (K − 1 S u du), variable F t -mesurable.T 03. On rappelle que, si X est indépendante de G et Y est G-mesurable,E(f(X, Y )|G) = [E(f(X, y)] y=Y .


150 Equa. Diff.Les variables ( S uS t, u ≥ t) sont indépendantes de F t (utiliser (4.1)), et ζ t est F tmesurable. Il en résulteM t = S t Φ(t, ζ t )avec4. En utilisant que S uS tΦ(t, x) = E5. On a (appliquer Itô à f(x) = 1 x )dS −1t = − 1S 2 t( ∫ ) +1 TS udu − x .T t S test indépendant de F t , on obtient le résultat.dS t + 1 22S 3 ton en déduit les égalités suivantesd < S, S > t = ( σ2S t− r S t)dt − σ S tdB t .dζ t = −St−1 S tT dt + (K − 1 Td < ζ, ζ > t = ζt 2 σ 2 dt∫ t0S u du)dS −1t= − 1 T dt + ζ t(−σdB t − rdt + σ 2 dt)dΦ(t, ζ t ) = Φ ′ t dt + Φ ′ x dζ t + 1 2 Φ” xx d < ζ, ζ > t = (...) dt − σζ t Φ ′ x dB td < S, Φ > t = −S t σ 2 ζ t Φ ′ xLa formule d’Itô appliquée à M t est alors (écriture volontairement simplifiée)dM t = ΦdS + SdΦ + dSdΦce qui s’écritΦ(t, ζ t )dS t +S t [Φ ′ t(t, ζ t )dt+Φ ′ x(t, ζ t )dζ t + 1 2 Φ xx”(t, ζ t )d < ζ, ζ > t ]+d < S, Φ > tSoitdM t = S t (rΦ + ∂Φ∂t − ( 1 T + rζ)∂Φ ∂x + 1 2 σ2 ζ 2 ∂2 Φ∂x 2 ) dt + dN toù N est une martingale du type (...) dB t . Le processus M étant une martingale,on doit avoir la partie processus à variation finie nulle, soitExercice 4.2.2 :0 = rΦ + ∂Φ∂t − ( 1 T + rζ)∂Φ ∂x + 1 2 σ2 ζ 2 ∂2 Φ∂x 2S t = S 0 exp(rt +∫ t0σ(s)dB s − 1 2∫ t0)σ 2 (s) dsest solution de l’équation proposée. Il suffit d’appliquer la formule d’Itô.


Corrigés. 2005-06 1512.∫ t0de varianceσ(s)dB s est une variable gaussienne (intégrale de Wiener) centrée∫ t0σ 2 (s)ds. Il en résulte que∫ t0σ(s)dB s − 1 2∫ t0σ 2 (s) ds est unevariable gaussienne car d’espérance − 1 σ 2 (s) ds et de variance σ 2 (s)ds.2 003. La formule de valorisation d’une <strong>option</strong> revient à calculer E Q (S T − K) + .Dans le cas où S T = S 0 e U où U est une variable d’espérance rT et de varianceV 2 = σ 2 T , on aC(0, x) = xN (d 1 ) − Ke −rT N (d 2 )avecd 1 = 1 VIl suffit donc de remplacer σ 2 T par Σ 2 =∫ t(ln( x K ) + T r + V 2 ), d 2 = d 1 − V2∫ T0σ 2 (s)dsC(0, x) = xN (d 1 ) − Ke −rT N (d 2 )∫ tavecd 1 = 1 Σ(ln( x K ) + T r + Σ22 ) ), d 2 = d 1 − Σ4.3 Equations différentiellesExercice 4.3.4 : Nous vérifions queX t = tN + (1 − t)∫ t011 − s dB s (4.2)est solution de dX t = dB t + N − X tdt. Par différentiation de (4.2)1 − t∫ tdX t = Ndt − 1011 − s dB s + dB t= Ndt − 11 − t (X t − tX 1 )dt + dB t= dB t + 11 − t (−X t + N)dtLe processus X est donc gaussien, centré, de covariance (s < t)∫ sts + (1 − t)(1 − s)0∫ tE(X s X t ) = ts + (1 − t)(1 − s)E(01(1 − u) 2 du = s∫1s1 − u dB u011 − v dB v


152 Exemples


Chapter 5Exemples, Corrigés5.1 Processus de BesselExercice 5.1.3 :La formule d’Itô conduit àdZ t = − 1 Rt2 dR t + 1 22 Rt3 d〈R〉 t = − 1 Rt2 dB t − 1 Rt3 dt + 1 Rt3 dt = − 1 Rt2 dB tSoit V t = sinh λR t. On pose f(x) =λR tsinh λxλx, d’oùf ′ (x)sinh λx cosh λx= −λx 2 +xf ′′ (x) =sinh λx λ cosh λx+2λx 3 −x 2La formule d’Itô conduit à−cosh λxx 2+λ sinh λxx.dU t = e −tλ2 2 [− λ22 V tdt + dV t ]et on vérifie que les termes en dt s’annulent.Il suffit d’appliquer le théorème d’arrêt de Doob à la martingale U t et autemps d’arrêt T b . On obtient E(exp(− λ2 T b2λbsinh λb .Exercice 5.1.4 :1. On applique Itôλb)(sinh )) = 1, d’où E(exp(− λ2 T bλb2 )) =d(ln R t ) = 1 R tdR t − 12(R t ) 2 dR tdR t = 1 R tdW t − 1 R t12R tdt+ 12(R t ) 2 dt = 1 R tdW t .153


154 Exemples2. Toujours en appliquant ItôdR ν t = νR ν−1t dR t +ν(ν − 1)23. On pose Z t = exp(− ν22∫ tR ν−2tdR t dR t = νRtν−1 dW t +νRtν−1 1dt+2R t= νRtν−1 dW t + ν2∫ t02 Rν−2 tdtds) et on applique le lemme d’Itô.dZ t = d exp(− ν2 ds2 0 Rs2 ) = Z t (− ν22 ) 1 Rt2 dt[dL t = Z t dRt ν + Rt ν dZ t = Z t νRtν−1 dW t + νRtν−1 1dt +2R t= Z t νRtν−1 dW tR 2 sν(ν − 1)2ν(ν − 1)Rt ν−2 dt .2Rtν−2 dt − ν221R 2 t]Rt ν dtExercice 5.1.5 :La formule d’Itô conduit ádY t = 2 √ Y t dW t + δdtSous Q ˜W tdef= W t + µ∫ t0dZ t = Z t (−µ √ Y )dW t√Yu du est un MB et dY t = 2 √ Y t d˜W t + (δ − 2µY t )dt.Exercice 5.2.2 : Par application de la formule d’Itô à Z t = W 2 ton a alorsdZ t = 2W t dW t +2W 1 t dW 1 t +2dt =dZ t = 2W t dW t + dt = 2 √ Z t dW t + dt2√(Wt ) 2 + (W 1 t ) 2 √(W t ) 2 + (W 1 t ) 2 (W t dW t +W 1 t dW 1 t )Avec n Browniens on obtient µ = n.Si ρ tdef= √ R t , la formule d’Itô conduit àdX t = dR (µ)t= 2 √ Z t dW 3 t + 2dtdρ t = 12ρ t(µ − 1)dt + dW t+ dR (ν)t = (µ + ν)dt + 2√R (µ)t+ R (ν)t dZ toù Z est un MB. On en déduit que la somme de deux Bessels carrés indépendantsest un Bessel carré.Exercice 5.1.6 : P x (inf s≤t X s ) = P x (T a > t) et on connait la transformée de


Corrigés. 2005-06 155Laplace de T a E (ν) (exp − λ22 T a).Dans le cas du BES(3) P x (3) | Ft = ( X t∧τxax W x(φ(T a )) D’où P x (3) (T a > t) = P x (3) (∞ > T a > t) + (1 − a xT a > t) = a x P 0(T (x−a) > t) = a x P 0((x − a) > |N| √ t).Voir Borodin pour l autre cas)Wx | Ft d’où pour a < x P (3)x (φ(T a ) 1 Ta5.2 Processus de Bessel carréExercice 5.2.4 : Remarquer que E(R (2)1 ) = E√ ξ 2 1 + ξ2 2 .Exercice 5.2.5 : On part deW (ν) |F t = exp(νW t − ν22 t)W |F tOn sait que (R t ; t ≥ 0) loi= x exp(B Ct + νC t )P (ν) (F (R s ), s ≤ t) = W (ν) (F (xB u ), u ≤ C t )W (ν) (F (xB u ), u ≤ C t ) = W (exp(B Ct +νC t )F (xB u ), u ≤ C t ) = P (0) ( R tx )ν exp − ν22C tF (R s ), s ≤ t)car sous P (0) exp νB Ct = (exp B Ct ) ν , R t = x exp B Ct5.3 Autres processusExercice 5.3.3 :La première question résulte d’une application du lemme d’Itô: f(t, X t ) estune martingale locale si ’Gf(t, X t ) = 0 avec Gf(t, x) = ∂ t f + x(1 − x)(µ −x)∂ x f + 1 2 x2 (1 − x) 2 ∂ xx f. Dire que h 0 (X) est une martingale locale revient àvérifier que h 0 est solution de x(1 − x)(µ − x)h ′ + 1 2 x2 (1 − x) 2 h ′′ = 0. Montrerque h 1 (X t ) − t est une martingale locale revient à vérifier que h 1 satisfait−1 + x(1 − x)(µ − x)h ′ + 1 2 x2 (1 − x) 2 h ′′ = 0 .En appliquant le théorème d’arêt de Doob (la fonction h 0 est bornée sur [a, b],la martingale locale h 0 (X t∧τ ) est uniformément intégrable) E(h 0 (X τ )) = h 0 (x)soith 0 (x) = E(h 0 (X τ )) = h 0 (a)P (X τ = a)+h 0 (b)P (X τ = b) = h 0 (a)P (X τ = a)+h 0 (b)(1−P (X τ = a)) .


156 ExemplesOn applique ensuite le théorème de Doob à h 1 (X t ) − th 1 (x) = E[(h 1 (a) − τ) 1 Xτ =a)] + E[(h 1 (b) − τ) 1 Xτ =b)]5.4 Des Calculs= h 1 (a)P (X τ = a) + h 1 (b)(1 − P (X τ = a)) − E(τ)Exercice 5.4.2 : For t ≤ 1 and a > 0, the events {Y t ≤ a} and {T a ≥ t} areequal, where T a = inf{t ≥ 0, X t = a}.Then, P (Y t ≤ a) = P (T a ≥ t). Let ˜X = X/σ and T α ( ˜X) = inf{t ≥ 0, ˜X t = α}.Then, T a = T α ( ˜X) where α = a/σ.It is well known (the proof follows, from example from inversion of Laplacetransform) thatP 0 (T α ( ˜X) ∈ dt) =|α| √2πt3exp −(α− ˜µt)22twhere ˜µ = µ/σ (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor,second edition, page 320, ex. 1.21).Therefore, you get the cumulative function of Y for t ≤ 1.Let us denote Φ(t, a, µ, σ) = P (sup 0≤s≤t (µs + σW s ) ≤ a).Suppose now that 2 > t > 1. ThenX t = X 1 + µ 1 (t − 1) + σ 1 (W t − W 1 ) = X 1 + µ 1 (t − 1) + σ 1˜Wt−1where ˜W is a BM independent of σ(W s , s ≤ 1).Then,P (Y t ≤ a) = P ( Y 1 ≤ a , max (X 1 + µ 1 (s − 1) + σ 1˜Ws−1 ) ≤ a )1≤s≤twhere= P ( Y 1 ≤ a P [ max1≤s≤t (X 1 + µ 1 (s − 1) + σ 1˜Ws−1 ) ≤ a)|F 1])= E( 1 (Y1 ≤a) Ψ(t − 1, X 1 ))Ψ(u, x) = E( max0≤s≤u (x + µ 1s + σ 1˜Ws ) ≤ a) = E( max0≤s≤u (µ 1s + σ 1˜Ws ) ≤ a − x)and this quantity is known from step 1: Ψ(u, x) = Φ(u, a − x, µ 1 , σ 1 ).Then, it remains to know the law of the pair Y 1 , X 1 . This is the reflectionprinciple in the case µ = 0 (Revuz Yor, page 105 ex. 3.14) and the generalresult follows from Girsanov’s theorem. For example Borodin-Salminen, page198, formula 1.18 in the case where σ = 1P (Y 1 ≥ y, X 1 ∈ dz) = 1 √2πtexp[µy − µ2 t2(|z − y| + y)2− ] dz2t


Corrigés. 2005-06 157References:Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts andFormulae, Birkhäuser, 1996.Exercice 5.4.3 : On écrit dS = D(rdt + σ t d ˜W t ). Si ˜C est la valeur de Cactualisé, alors dC = Cmσd ˜W t . Il suffit de résoudre et d’identifier(StC t = C 0 exp[− m − 1 ∫ tS 0 m[ r s ds + 1 20∫ t0) mσsds]]2Exercice 5.4.4 : On remarque∫que Y t = e λt X t est un MB changé de temps:tY t = B Λ(t) avec Λ(t) = σ 2 e 2λu du = σ 2 e2λt − 1. Par suite τ = inf{t : |Y t | >02λe λy g(t)}. D’où la suite d’égalités{τ > t} = {|B Λ(u) | < e λu g(u), ∀Λ(u) < Λ(t)}= {|B v | < e λC(v) g(C(v)), ∀v < Λ(t)} = {τ ∗ > Λ(t)}avecτ ∗ = inf{t : |W t | > e λC(t) g(C(t))}


158 Girsanov.


Chapter 6Girsanov, Corrigés6.1 Résultats élémentairesExercice 6.1.2 : Par changement de proba, le processus H étant une martingalepositive d’espérance 1, en posant dQ = H t dP , on définit une nouvelleprobabilité Q et E P (H T ln H T ) = E Q (ln H T ). Or,H t = exp(−∫ t0θ s dW s − 1 2∫ t0θ 2 sds)D’oùE Q (ln H T ) = E Q (−∫ t0θ s dW s − 1 2∫ t0θ 2 sds)Le processus ˜W t = W t +12∫ t0θ 2 sds = −∫ t0∫ t0θ s d ˜W s + 1 2θ s ds est un Q mouvement Brownien, et −∫ tExercice 6.1.4 : On a Γ t = exp(Γ t exp(−∫ t00θ 2 sds, d’où le résultat.∫ t0β s ds) exp(∫ t0γ s dW s − 1 2∫ t0∫ t0θ s dW s −γ 2 s ds), d’oùβ s ds) est une martingale. L’écriture dΓ t = Γ t γ t (dW t + β tγ tdt) montreque sous Q défini par dQ = L t dP , avec dL t = L tβ tγ tdW t , le processus ˜W tdéfini par d ˜W t = dW t + β tγ tdt est un mouvement Brownien.Le processus Γ vérifiant dΓ t = Γ t γ t d ˜W t est une Q-martingale locale. On obtientfacilement d(Γ −1t) = −Γ −1tγ t (dW t − γ2 t − β tdt) et le choix de R s’en suit.γ t159


160 Girsanov.6.2 CrochetExercice 6.2.1 : Soit Z = N− < N, M > et L t = exp(M t − 1 2 〈M〉 t). On ad(ZL) = ZdL + LdZ + d〈Z, L〉 = mart + d〈Z, L〉 − Ld〈M, N〉 = mart∫ th ′ (X s )Exercice 6.2.2 : On vérifie que Z t = h(X t )M t − d〈M, X〉 est une0 h(X s )P -martingale.6.3 ProcessusExercice 6.3.4 :1. La question 1 a déja été traitée dans l’exercice 1.2.3.2. On se place dans le cas d’un Brownien issu de a. SoitdP b = exp{−b∫ T0B s dB s − b2 2∫ T0B 2 s ds}dP .En posant θ s = −bB s et en appliquant Girsanov, on montre que sous P ble processus B t + b ∫ t0 B s ds est un brownien issu de a que l’on note W t .L’égalitéB t = −∫ t0bB s ds + W tqui s’écrit dB t = −bB t dt + dW t montre que le processus (B t , t ≥ 0) estun processus d’Ornstein-Uhlenbeck sous P b . D’où (cf. cours) B t est unevariable gaussienne sous P b , d’espérance ae −bt et de variance 1 − e−2tb.2bSoit x = a 2 . En utilisant que, sur F t ,dP = exp{b∫ t0B s dB s + b2 2∫ ton a, pour tout Z, F t -mesurable P -intégrable,d’oùE P (Z) = E b (Z exp{bE P (exp{−αB 2 t − b2 2∫ tLa formule d’Itô montre que∫ t00∫ T00B s dB s + b2 2B 2 s ds}dP b∫ TB 2 s ds}) = E b (exp{−αB 2 t + bB s dB s = 1 2 (B2 t − a 2 − t)0B 2 s ds})∫ t0B s dB s })


Corrigés. 2005-06 161(sous P et sous P b ).On obtient, en posant x = a 2E P (exp{−αB 2 t − b2 2∫ t0B 2 s ds}) = E b (exp{−αB 2 t + b 2 (B2 t − x − t)})Sous P b , B t est une gaussienne. On applique le résultat de la question 1et on trouve (calculs)E P (exp{−αB 2 t − b2 2∫ t0B 2 s ds}) = (cosh bt+2 α b sinh bt)− 1 2 exp[−xb21 + 2α bcoth btcoth bt + 2α ]bOn note Φ(α, b) l’expression de droite.Exercice 6.3.3 : Soit dX t = −λX t dt+dW t un processus d’Ornstein-Uhlenbeck.Sous P λ , X est un Brownien car X t = −λ∫ t0X s ds + W t . On aE P (exp − b2 2∫ T0X 2 s ds) = E Pλ (L −1T exp −b2 2∫ T0X 2 s ds)(∫ T∫ T= E Pλ(exp −λ X s dX s − λ2Xs 2 ds − b202 0 2 0(= E Pλ(exp − λ 2 (X2 T − T ) − λ2 + b 2 ∫ ))TXs 2 ds2 0(= exp λT )Φ( λ 2 2 , √ λ 2 + b 2 )(On comparera cet exercice au précédent)Exercice 6.3.5 : Soit S solution deS t = S 0 exp(µt + σB t − σ22 t).dS t = S t (µ dt + σ dB t ) , S 0 = s .∫ TX 2 s ds1. Soit dQ = L t dP avec L t = exp(θB t − 1 2 θ2 t). Le théorème de Girsanovmontre que W est un Q-mouvement Brownien.2. Soit d ˜P = Z t dQ avec Z t = exp(σW t − σ22 t)Le théorème de Girsanov montre que ( ˜B t = W t − σt, t ≥ 0) est un ˜P -mouvement brownien. On a alorsdS t = S t ((r + σ 2 ) dt + σ d ˜B t )))


162 Girsanov.3. Soit P t = P 0 e rt . Le processus (Y t = S tP t, t ≥ 0) est une Q-martingale, carY t = Y 0 exp(σW t − σ22 t) (ou parce que (Itô) dY t = d(S te −rt )P 0= Y t dW t .)Le processus Z t = P tS test une ˜P -martingale car Z t = Z 0 exp(−σ ˜B t − σ22 t)( ∫ )4. Soit F t = e −λt t0 S u du + sA où A, λ sont des constantesSoit Ψ t = F tP te λt . On a dΨ t = (1 − rΨ t ) dt − σΨ t d ˜B tExercice 6.3.7 : Let BtY = Y t + B t and F be a functional on C([0, t], IR).Using the independance between Y and B, and Cameron-Martin theorem, weget∫E[F (Bs Y , s ≤ t)] = E[F (sY + B s , s ≤ t)] = ν(dy)E[F (sy + B s , s ≤ t)] (6.1)∫= ν(dy)E[F (B s , s ≤ t) exp(yB t − y22 t)] = E[F (B s; s ≤ t)h(B(6.2)t , y)]∫where h(x, t) == E h (F (X s , s ≤ t)] (6.3)ν(dy) exp(yx − y22 t) and P h | Ft = h(B t , t)W | Ft . Therefore,B h tdef= B t −∫ t0ds h′ xh (B s, s)is a P h -martingale, more precisely a P h Brownian motion and B t is solution ofX t = B h t +∫ t0ds h′ xh (X s, s)Under P h , B has the same law as B Y under P . Then, B Y t = ˜B h t +Let us remark thatwhere B Y t= σ(B Y s , s ≤ t). On aE(Y |B Y t ) = h′ xh (BY s , s)∫ t0ds h′ xh (BY t , t).E Q (f(Y )F (Bs Y , s ≤ t)) = E P (e −Y Bt− 1 2 Y 2t F (Bs Y , s ≤ t))∫= ν(dy)f(y)E P (e −yBt− 1 2 y2t F (B s + ys, s ≤ t))=∫ν(dy)f(y)E(F (B s , s ≤ t)) = E(F (B s , s ≤ t))E P (f(Y ))


Corrigés. 2005-06 163et la loi de Y est la même sous P et sous Q. Exercice gi:4 : On remarque quee −2Wt − 1 = −2 ∫ t0 e−2Ws dW s + 2 ∫ t0 e−2Ws ds− 1 4(e−2W t− 1 ) + 1 2= 1 2= 1 2∫ t0∫ t0∫ t0e −2Ws dW s − 1 2e −2Ws dW s − 1 4(e −2W s− 1 )4 e−4W sds∫ t0∫ t0e −2Ws ds + 1 2e −4Ws ds∫ t0(e −2Ws − 1 4 e−4Ws )ds( ∫ tet on sait que exp0 θ ∫sdW s − 1 t2ds)0 θ2 est une martingale locale. On peutvérifier∫que la condition de Novikov est satisfaite Sous Q, le processus Ŵ =W − 1 t2 0 e−2W sds est un MB.6.4 Cas multidimensionnel6.5 Temps d’arrêtExercice 6.5.1 : Soit dP µ = L t dP où L t = exp(− µ σ B t − µ22σ 2 t). Sous P µ,( ˜B t = B t + µ σ t = X tσ , t ≥ 0) est un Brownien et X t = σ ˜B t .De l’égalité T a = inf{t | ˜B t = a }, on en déduit le résultat qui figure dans leσcours en procédant comme suit:On a dP = L −1t dP µ avecL −1t = exp( µ σ B t + µ22σ 2 t) = exp(µ σ ˜B t − µ22σ 2 t)et pour tout temps d’arrêt T , on a(E P (exp(−λ(T ∧t)) = E Pµ (L T ∧t e −λ(T ∧t) ) = E Pµ exp( µ σ ˜B T ∧t − µ2 + 2λσ 2 )2σ 2 (T ∧t))On en déduitE P (exp(−λT a ) 1 Ta


164 Girsanov.Exercice 6.5.2 :and use thatE( 1 T ln a} = inf{t : W t + (λ − 1/2)t > ln a}Exercice 6.5.3 : Le processus (M t = exp(θ ˜B t − θ2 t2 ) , t ≥ 0) est une P µ-martingale et si a et θ sont positifs (M t∧Ta , t ≥ 0) est uniformément intégrable,car majorée par exp(θa). On en déduit E Pµ (M Ta ) = 1 d’oùE P (e −λT a1 Ta


Corrigés. 2005-06 1656.6 Finance⎛ (Exercice 6.6.14 : Il s’agit de calculer A = E ⎝e −rT 1Tque l’on écritA = 1 T E(e−rT S T (Y T − K) + )∫ T0) ⎞ +S u du − S T⎠0avec Y t = 1 ∫ tS u du et K = T . Par un changement de probabilité (le pro-S tcessus e −rt S tS 0est une Q-martingale positive d’espérance 1), on obtient A =S 0T Ẽ((Y T − K) + ) avec, sous ˜QdY t = (1 − rY t )dt + Y t σd ˜W t .On peut utiliser que Y t = U t + V t avec U solution deet V t = y +∫ tExercice 6.6.15 :0dU t = −rU t dt − σU t d ˜W t , U 0 = 1(U s ) −1 ds, ce qui ne nous avance pas beaucoup.1. On a dr t = σ′ (t)σ(t) r tdt + σ(t)(dW t + h(t)dt).2. On reconnait une exponentielle de Doleans Dade, et une intégration parparties donne le résultat.3. En appliquant Girsanov, et en utilisant que r t = σ(t)Y t( [ ∫ ]) ( (T∫ TE exp − r s ds = E exp h(s)dW s − 1 20Une integration par parties permet de conclure.4. La quantitéA = E(exp(h(T )W T −0∫ T0∫ TW s (h ′ (s) + σ(s))ds0∫ ))Th 2 (s)ds − σ(s)W s ds0se calcule en recherchant une fonction g telle que g ′ (s) = σ(s)+h ′ (s), g(T ) =h(T ). On obtient alors( [ ∫ ]) (TE exp − r s ds = exp − 1 ∫ ) (T∫ )h 2 1 T(s)ds A = exp (g 2 (s) − h 2 (s))ds2200))0


166 ComplémentsOn peut aussi remarquer que∫ Th(T )W T − W s (h ′ (s) + σ(s))ds0est une variable gaussienne centrée dont on identifie la variance.Exercice 6.6.17 : S t = x + mart + 2(ν + 1)e −b . On en déduit que E(( 1 TνT ) − k) + ) pour k assez petit.∫ T0∫ t0S u du. Utiliser que 1 − e−bbexp(2(W s + νs))ds − K) + ) ≥ E((exp 2(W T +Exercice 6.6.7 Pour évaluer E P (h(S T )|F t ) dans le cas h(x) = (x α − K) + , onutilise ce qui précède en écrivant S α T sous la forme x exp((a − b2 2 )t + bW t). ILest facile de vérifier que sous Q,dZ t = −σZ t d ˜W tet comme ˜W donc − ˜W est un MB, Z a même dynamique sous Q que S sousP . Par suite∀ϕ, E P (ϕ(S T )) = E Q (ϕ(Z T )) .Par définition de QPar définition de Z,1x E P (S T f( x2S T)) = E Q (f( x2S T)) .E Q (S T f( x2S T)) = E Q (f(Z T )) = E P (f(S T )) .Si S a est une martingale, le même raisonnement conduit à la formule souhaitée.Un peu d’algèbre permettait décrire x β (x − K) + comme(x β+1 − K β+1 ) + − K(x β − K β ) + .≥


Chapter 7Compléments, Corrigés7.1 Théorème de Lévy.Exercice 7.1.1 : Soit S t = sup 0≤s≤t W s etD = sup (W s − W t ) = sup0≤s≤t≤1Grace au théorème de LévyD’où0≤t≤1 0≤s≤t= sup (S t − W t ) loi= sup |W t |0≤t≤10≤t≤1sup (W s − W t )(S t − W t , S t , W t ; θ ≤ t ≤ 1) loi= (|W t |, L t , L t − |W t |; g ≤ t ≤ 1)W θ , sup (S t − W t − S t )) loi= L g − |B g |, sup (|W t | − L t ) = (L g , sup (|W t | − L g )θ≤t≤1g≤t≤1g≤t≤1ThusD 1 = W θ + sup (S t − W t − S t ) loi= L g + sup |W t | − L gθ≤t≤1g≤t≤1Exercice 7.1.2 : La premiere égalité provient du théorème de Lévy et de laconnaissance de la loi du couple S t , B t ). La seconde égalité en loi provient de lasymétrie de la loi du couple. Pour le semi groupe, on utilise la formule de Lévyet l’indépendance de (B u , u ≤ t) et de ˜B v = B t+v − B tE(f(S t+s − B t+s , S t+s |F s ) = E(f((S s − B s ) ∨ ˜S t − ˜B t , B s + (S s − B s ) ∨ ˜S t S t+s )|F s )∫= µ t (da, dl)f(α ∨ l − (l − a), (λ − α) + α ∨ l)Les résultats concernant l’indépendance de S t (S t −B t ) et B t sont dus à Seshadri.167


168 Compléments7.2 Equations rétrogradesExercice 7.2.1 : Il s’agit d’appliquer la formule d’Itô et le théorème dereprésentation. La propriété de martingale de X provient de X t = E(e ζ H T |F t )et le théorème de représentation établit l’existence de z. Puis, en utilisant laformule d’Itôd(1/H t ) = − 1Ht2 dH t + 1Ht3 d〈H〉 t = 1 [(r + θ 2 )dt + θdW t )]H td(Z t /H t ) = Z t[(r + θ 2 )dt + θdW t ) + H t z t dW t + z tθdtH t H tdX t = ( z tH t+ θ)dW t += ̂X t dW t + (r + θ ̂X t − 1 2 ̂X 2 t )dt((r + θ 2 ) + z tH tθ − 1 2 ( z tH t+ θ) 2 )dt7.3 Théorèmes de représentationExercice 7.3.1 : On utilisera le théorème de représentation prévisible pourreprésenter W (1)t , W (2)t en terme de W (3) . Si l’égalité était possible, on auraitW (i)t =0.∫ t0Φ (i)t dW t avec∫ t0E[Φ (i)t ] 2 dt = t et E(W (1)t W (2)t ) = E(∫ t0Φ (1)t Φ (2)t dt) =Exercice 7.3.2 : M est une intégrale stochastique, l’intégrand est borné doncde carré intégrable, M est une martingale.Par propriété de l’intégrale stochastique[∫ t] 21 Ws>0dW s −0∫ t0( 1 Ws>0) 2 dsest une martingale. Une autre méthode consiste à appliquer la formule d’Itô àY 2t avec Y t =∫ t01 Ws>0dW s . Le processus A t =croissant.defLe processus M Ct est une G t = F Ct martingale etest une martingale.7.4 Temps local.∫ tMC 2 t− A Ct = MC 2 t− t01 Ws>0ds est un processusExercice 7.4.1 : On ne peut pas appliquer Itô car x → |x| n’est pas de classeC 2 . Un calcul fait en pensant qu’un point ne compte pas et que l’on peut négligerle point oú la dérivée n’existe pas conduirait à (la dérivée de |x| est égale à sgn


Corrigés. 2005-06 169sauf en 0 et la dérivé seconde est nulle sauf en 0) |B t | =∫ t0sgn(B s )dB s etl’intégrale du membre de droite n’est pas positive (nous verrons plus loin quec’est un mouvement Brownien).Le processus β est une martingale de crochetest évident que pour u ≥ t∫ tS u = sup W s ≥ S t = sup W ss≤us≤t0f 2 (B s )ds = t, c’est un MB. IlLa première décomposition exprime que |W t | est égal à un MB plus un processuscroissant, la seconde décomposition dit que S t − W t a la même propriété. Onpeut montrer, grace au lemme de Skohorod (voir poly) que (S t − W t , t ≥ 0) loi=(|W t |, t ≥ 0) et que (L t , t ≥ 0) loi= (S t , t ≥ 0).Exercice 7.4.2 : |B s | + L s ≥ L t = L dt for s ≥ t, and |B dt | + L dt = L dt .Exercice 7.4.3 : (θ ≤ u) = sup s≥u B s ≤ sup s≤u B s = sup 1≥s≥u (B s − B u ) +B u ≤ sup s≤u B s d’où P (θ ≤ u) = P (Ŝ1−u ≤ S u − B u ) On trouve finalementque θ a une loi Arc Sinus.Exercice 7.4.4 : On utilise la formule d’ItôdY t = f ′ x(X t , S t , 〈X〉 t )dX t +f ′ s(X t , S t , 〈X〉 t )dS t +(f ′ t + 1 2 f ′′xx)(X t , S t , 〈X〉 t )d〈X〉 tOr f ′ s(X t , S t , 〈X〉 t ) = f ′ s(S t , S t , 〈X〉 t ) dS t presque surement. Si 1 2 f ′′xx + f ′ t = 0et f ′ s(s, s, t) = 0, Y est une martingale locale.g(S t ) − (S t − X t )g ′ (S t ) = g(S t ) −=∫ t0∫ t0g ′ (S s )dX sg ′ (S s )dS s +∫ t0g ′ (S s )dX s +∫ t0(S s − X s )g ′′ (S s )dS sExercice 7.4.5 : On utilise le scaling du MB pour écrire∫ λ 2 t∫ t∫f(B s )ds loi= λ 2 f(λB u )du = λ 200da f(λa)L a tExercice 7.4.7 : From the occupation formula and change of time∫ t∫ 〈M〉t∫d〈M〉 s f(β 〈M〉s ) = duf(β u ) = dyf(y)L y 〈M〉 t(β).00∫ t0d〈M〉 s f(M s ) =


170 Compléments7.5 LoisExercice 7.5.1 : Soit Y t = f(X t ). On en déduitX tdY t =b(X t ) dX t + 1 ( 12 b(X t ) − X tb ′ (X t )) b 2b 2 (X t )dt(X t )(a(X t )= X tb(X t ) dt + dW ) 1( t + b(Xt ) − X t b ′ (X t ) ) dt2Le résultat souhaité en découle.f(X t ) − f(X 0 ) −∫ t0[ a(X s )Xsb(X s ) + 1 (b(Xs ) − X s b ′ (X s ) )] ∫ tds =20X s dW sExercice 7.5.2 : Let V be a standard Brownian motion starting at v, thatis, V t = v + W t . In this case, the two events { τ a (V ) ≤ t} and { sup s≤t W s ≥α}, where α = a − v are equal. The reflection principle implies that the r.v.sup s≤t W s is equal in law to the r.v. ‖W t ‖. Therefore,P (τ α (W ) ≤ t) = P (sup W s ≥ α) = P (‖W t ‖ ≥ α) = P (Wt 2 ≥ α 2 ) = P (tG 2 ≥ α 2 )s≤twhere G is a Gaussian variable, with mean 0 and variance 1. It follows thatτ α (W ) loi= α2G 2 , and the probability density function of τ a(V ) isThe computation off(t) = a − v √2πt3 exp (−(v −)a)2.2tE ( 1 {T a. On admettra que M est uniformément intégrable.a = E[M Ty ] = yP (T y < ∞) = yP (sup M t ≥ y)Soit a y = P (sup M t ≥ y) = P ( a y ≥ U) = P ( a U ≥ y).7.6 FiltrationsExercice 7.6.2 : M t = E(W t |H t ) est un processus H-adapté. Pour montrerque c’est une H-martingale, il suffit d’écrire la suite d’égalités suivantes, pour


Corrigés. 2005-06 171t ≥ sE(M t |H s ) = E(W t |H t |H s ) = E(W t |H s )= E(W t |G s |H s ) = E(W s |H s )Pour montrer que Z est une F X -martingale, on écrit (en justifiant chaque égalité,ce que je ne fais pas)E(Z t |F X s ) = E(X t |F X s ) − E(= E(W t +∫ t= E(W t |F X s ) + E(= E(W s |F X s ) + E(0= E(X s |F X s ) += X s += X s −∫ ts∫ s0∫ t0Ŷ u du|F X s )Y u du|F X s ) − E(∫ tsŶ u du −Ŷ u du)∫ s0∫ s0∫ t0Y u du|F X s ) + E(Y u du|F X s ) + E(E(Y u |F X s )du −∫ s0Ŷ u du|F X s )∫ s0∫ ts∫ tE(Ŷu|F X s )du − E(sY u du|F X s ) −Y u du|F X s ) −Ŷ u du − E(on a utilisé que E(W t |F X s ) = E(W s |F X s ) et que, pour u > s7.7 Options barrières∫ tE(Y u |F X s ) = E(Y u |F X u |F X s ) = E(Ŷu|F X s )s∫ tsŶ u du|F X s )∫ s0∫ s0Ŷ u du|F X s )Ŷ u du − E(Ŷ u du − E(∫Exercice 7.7.1 : Soit Φ t (x) = P (B t < x) = √ 1 x u22πtexp(−−∞ 2t )du. on aΦ t (x) = 1 − Φ t (−x) d’où, P (B t < x) = P (B t > −x).Soit T = inf{t ≥ 0|B t = y}. Par définition P (B t ≤ x, M t > y) = P (T y, c’est que l’on a dépassé y avant t: Si M t > y, on aT < t. De plus Bt−T ∗ = B t − B T = B t − y. Par indépendance, P (T < t, Bt−T ∗ −x + y), d’où∫ t0et par indépendance∫ t0P (T ∈ du)P (B ∗ t−u < x − y) =P (T ∈ du)P (B ∗ t−u > y−x) =∫ t0∫ t0P (T ∈ du)P (B ∗ t−u > y − x)∫ ts∫ tP (T ∈ du, B ∗ t−u > y−x) = P (T < t, B t > 2y−x)sŶ u du|F X s )Ŷ u du|F X s )


172 ComplémentsEn tenant compte du fait que si B t > 2y − x et y > x , alors B t > y, donc T < ton en déduit P (T < t, B t > 2y − x) = P (B t > 2y − x) d’oùEn utilisantP (B t ≤ x, M t > y) = P (B t > 2y − x)P (B t ≤ x, M t < y) = P (B t ≤ x) − P (B t ≤ x, M t > y)on obtientP (B t ≤ x, M t < y) = N ( x √t) − N ( x − 2y √t)3. La loi de T s’obtient en écrivant P (T < t) = P (M t < y) et la densité ducouple (B t , M t ) en dérivant P (B t ≤ x, M t < y).4. Soit X t = µt + B t , Y t = sup (X s , 0 ≤ s ≤ t}. Soit dQ = ζdP avec ζ =exp(−µX t + 1 2 µ2 t). En utilisant le théorème de Girsanov, on aP (X t < x, Y t < y) = E Q (exp(µX t − 1 2 µ2 t) 1 Xt


Corrigés. 2005-06 173For t < 1, the set {g ≤ t} is equal to {d t > 1}.d a t (W ) = t + inf {u ≥ 0 : W u+t − W t = a − W t } = t + ̂τ a−Wt( a2 ) ( ‖a‖PG 2 > 1 − t = Φ √). 1 − tloi= t + (a − W t) 2G 2 .Then, the Itô-Tanaka formula combined with the identity xΦ ′ (x) + Φ ′′ (x) = 0lead to( ) ∫ |Wt |t( ) ( )P (g ≤ t|F t ) = Φ √ = Φ ′ |Ws | |Ws |√ d √ + 1 ∫ t1 − t 1 − s 1 − s 2==0∫ t0∫ t0Φ ′ ( |Ws |√ 1 − s) sgn(Ws )√ 1 − sdW s +Φ ′ ( |Ws |√ 1 − s) sgn(Ws )√ 1 − sdW s +Exercice 7.4.6 : The occupation time formula leads toE∫ Ta (X)0f(X s ) ds =∫ a−∞f(x)E[L x T a]dxIt remains to compute φ(x) = E[L x T a]. Tanaka’s formula reads∫ Ta(X Ta − x) + = (−x) + +(a − x) + = (−x) + +0∫ TaThen, taking expectation of both sides1 (Xs >x)dX s + 1 2 Lx T a12 E[̷Lx T a] = (a − x) + − (−x) + − νE[Therefore, if φ(x) = E[̷L x T a]which gives= (a − x) + − (−x) + − νE[12 φ(x) = (a − x)+ − (−x) + − ν⎧⎪⎨φ(x) =⎪⎩1(1 − exp(2ν(x − a))ν for00∫ t1 (Xs>x)(dW s + νds) + 1 2 Lx T a∫ ax∫ Ta0∫ ax1 (Xs >x)ds]L y T ady]φ(y)dy, φ(a) = 00 ≤ x ≤ a1(1 − exp(−2νa)) exp(2νx) for x ≤ 0ν0√2π( )ds |Ws |1 − s Φ′′ √ 1 − s( )dL√ sΦ ′ |Ws |√ 1 − s 1 − s∫ t0dL s√ 1 − s.


174 Sauts.Exercice 7.8.2 : Il suffit d’écrireB t = m 1√ t − gt (sgneB t )√On a alors E(B t |F gt ) = E(m 1 t − gt (sgneB t )F gt ) = √ √t − g t (sgneB t )E(m 1 ) =√ π t − gt (sgneB t )2 On note µ t = √ t − g t (sgneB t ), c’est une martingale. Descalculs analogues conduisent àE(B 2 t − t|F gt ) = E(m 2 1)µ 2 t − tavec h(x) = E(e xm 1).α2 αBt−E(e 2 t |F gt ) = h(αµ t )e − α22


Chapter 8Sauts, Corrigés.8.1 Processus de PoissonExercice 8.1.2 :E(N t − N s |F s ∧ σ(N 1 )) = E(N t − N s |(N s − N 1 ))Il est bien connu (ou tout au moins facile de vérifier ) que si X et Y sont deuxvariables de Poisson, indépendantes, de paramètre µ et ν( ) nP (X = k|X + Y = n) = α k (1 − α) n−kkavec α = µ . On en déduitµ + νE(N t − N s |F s ∧ σ(N 1 )) = t − s1 − s (N 1 − N s )La vérification de la propriété de martingale est alors facile.Exercice 8.1.4 : Si N est un processus de Poisson, P (N t = n) = e −λt λn t nd’ouψ(z, t) = e −λt e −λtzSi N un processus à accroissements indépendants tel que N t+s − N tloi= N sn!ψ(z, t + s) = ∑ nz n P (N t+s = n) = E(z Nt+s ) = E(z Nt+s−Nt+Nt )On en déduit= E(z N t+s−N t)E(z N t) = E(z N s)E(z N t) = ψ(z, t)ψ(z, s)ψ(z, t + h) − ψ(z, t) = ψ(z, t)[ψ(z, h) − 1]ce qui conduit à une EDO en urilisant les propriétés de ψ données dans l’énoncé.En tenant compte de ψ(z, 0) = 1, on montrait que ψ(z, t) = e −λt e −λtz , ce qui175


176 Sauts.caractérise le processus de Poisson (cette égalité caractérise la loi de N t , ce quiloiavec N un processus à accroissements indépendants tel que N t+s − N t = N scaractérise le processus de Poisson.)Exercice 8.1.5 : Le processus de Poisson composé est un processus à accroissementsindépendants, donc pour s < tE(Y t − Y s |F s ) = E(Y t − Y s ) = E(X t − X s ) − µλ(t − s) = 0On peut le démontrer à la main, sans utiliser que le processus de Poisson composéest un PAIavecE(X t − X s |F s ) = E(i=n+1∑N ti=N s +1N t −N∑ s +N sY i |F s ) = E( Y i |F s ) = Ψ(N s )i=N s +1n+N∑ t−sΨ(n) = E( Y i ) = ∑ P (N t−s = k)E(Exercice 8.1.6 :n+k∑i=n+1= ∑ P (N t−s = k)kE(Y 1 ) = E(Y 1 )E(N t−s ) = E(Y 1 )λ(t − s)Si X et ˜X sont deux solutions,Z tdef= X t − ˜X t = −c∫ t0(X s − ˜X s )ds = −cY i )∫ t0Z s dset Z est solution de l’équation différentielle ordinaire Z t ′ = −cZ t avec conditioninitiale nulle. Donc Z = 0.Soit X t = e −ct x +∫ t0∫ t0e −c(t−s) dN s . On calculeX s ds =∫ t0e −cs xds +∫ t0ds∫ s0e −c(s−u) dN u .L’intégrale double se calcule en employant Fubini (pour des intégrales de Stieltjes)∫ t0ds∫ s0e −c(s−u) dN u =∫ t0= 1 c (N t −∫ tdN u dse −c(s−u) = 1 cu∫ tEn utilisant que M et Y sont des martingales0e −c(t−s) dN s ) .∫ t0dN u (1 − e −c(t−u) )E(M t Y t |F s ) = E(M t (Y t − Y s )|F s ) + M s Y s = E((M t − M s )(Y t − Y s )|F s ) + M s Y sLe calcul de E((M t − M s )(Y t − Y s )|F s ) se fait comme le précédent. Exercice8.1.8 : Si j’ecris la formule d ito d(tN t ) = N t dt + tdN t D’ou∫ t0N s ds = tN t −∫ t0sdN s =∫ t0(t − s)dN s


Corrigés. 2005-06 177Pour calculer la TL, il suffit d utiliser que pour toute fonction h (ici, pour t fixéh(s) = −λ(t − s)) si c est l’intensité de NE(exp(∫ t8.2 Poisson composé0h(s)dN s ) = exp(−c∫ t0(1 − e h(s) )ds)Exercice 8.2.1 :From the independance of Y k , one getsE(λn∑Y k + µk=1m∑k=n+1)) = E(λY 1 ) n E(µY 1 ) mThen, the independence and stationarity of the increments of N follows fromE(λX s +µ(X t −X s )) = E(ψ(λ, N s )ψ(µ, N t −N s )) = E(ψ(λ, N s ))E(ψ(µ, N t−s ))where ψ(λ, n) = E(λY 1 ) n . From the independence of N and the r.v. (Y k , k ≥ 1)and using the Poisson law of N t , we getandE(X t ) =P (X t ≤ x) = ∑ nn=1= ∑ n= e −λt ∑ nk=1P (N t = n,n∑Y k ≤ x)k=1P (N t = n)P (n∑Y k ≤ x)k=1(λt) nF ∗ (x) .n!∞∑ n∑∞∑E( Y k 1 Nt =n) = nE(Y )P (N t = n)= E(Y )n=1∞∑nP (N t = n) = λtE(Y 1 ) .n=1The computation of the variance can be done with the same method, however,it is more convenient to use the Laplace transform of X t and the fact that thesecond moment is obtained from the second derivative of the Laplace transform.Exercice 8.2.2 : From the independence of increments, we obtain that(X t − tλE(Y ), t ≥ 0) is a martingale. More generally, for any bounded Borelfunction f, we denote by µ(f) = ∫ f(x)µ(dx) the expectation E(f(Y )). Fromthe definition of M f ,E(M f t ) = ∑ nE(f(Y n ))P (T n < t) − tλµ(f) = σ(f) ∑ nP (T n < t) − tλµ(f) = 0


178 Sauts.The proof of the proposition is now standard and results from the computationof conditional expectation which lead to, for s > 0⎛⎞E(M f t+s − M f t |F t ) = E ⎝∑f(∆X u ) 1 ∆Xu ≠0 − sλµ(f)|F t⎠ = 0 .For the reciprocal, writee iuXt = 1 + ∑ s≤t= +where f(x) = e iux − 1. Hence,t −1 and µ + λφγ = 0. This implies that λφ − µ > 0.λφ


Corrigés. 2005-06 179The unique equivalent martingale measure Q is defined by dQdP | F tL is the strictly positive martingale= L t wherewhich satisfies dL t = −L t−µλφ dM t.( ) Ntλφ − µL t =exp(tµ/φ)λφUnder the measure Q, ˜Mtdef= M t + tµ/φ is a martingale.Exercice 8.5.2 : Les m.m.e. sont définies par leur densité L vérifiantavecdL t = L t− (−ψ t dW t + γ t dM t )σψ(t) = b − r + λφγ(t) , dP ⊗ dt.p.s.Elles sont indexées par un processus γ > −1. Sous P γ , le processus W γ définiparW γ (t) def= W (t) −∫ test un mouvement Brownien M γ (t) def= M(t) −On utiliseraavec θ = b − rσ .W γ (t) = W (t) + tθ +∫ t00ψ(s) ds∫ tλφ γ(s)σ ds = W 0 (t) +0λγ(s)ds est une martingale.∫ t0λφ γ(s)σds


180 Sauts.


Bibliography181

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!