a la Finance Université Paris 1 Calcul Stochastique ... - samos-matisse
a la Finance Université Paris 1 Calcul Stochastique ... - samos-matisse
a la Finance Université Paris 1 Calcul Stochastique ... - samos-matisse
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
M2 - Mathématiques Appliquées<br />
à l’Économie et à <strong>la</strong> <strong>Finance</strong><br />
Université <strong>Paris</strong> 1<br />
Spécialité : Modélisation et Méthodes Mathématiques<br />
en Économie et <strong>Finance</strong><br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2<br />
Annie Millet<br />
15<br />
14<br />
13<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
Table des matières<br />
1. Processus d’Itô de dimension quelconque . . . . . . . . . . . . . . 1<br />
1.1. Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />
1.2. Variation quadratique - Crochet d’une martingale locale. . . . . . 4<br />
1.3. Processus d’Itô réel. . . . . . . . . . . . . . . . . . . . . . . . 12<br />
1.4. Processus d’Itô de dimension d - Formule d’Itô générale . . . . . . 13<br />
1.4.1. Processus d’Itô de dimension d . . . . . . . . . . . . . . . . . 13<br />
1.4.2. Formule d’Itô générale . . . . . . . . . . . . . . . . . . . . 15<br />
1.5. Propriétés du Brownien. . . . . . . . . . . . . . . . . . . . . . 17<br />
1.5.1. Caractérisations de Lévy . . . . . . . . . . . . . . . . . . . 17<br />
1.5.2. Propriétés de Markov . . . . . . . . . . . . . . . . . . . . . 19<br />
1.6. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
2. Équations différentielles stochastiques . . . . . . . . . . . . . . 24<br />
2.1. Solution forte - Diffusion. . . . . . . . . . . . . . . . . . . . . 25<br />
2.2. Solution faible.. . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />
2.3. Quelques propriétés des diffusions. . . . . . . . . . . . . . . . . 33<br />
2.3.1. Flot stochastique et Propriété de Markov . . . . . . . . . . . . 33<br />
2.3.2. Générateur infinitésimal . . . . . . . . . . . . . . . . . . . . 35<br />
2.3.3. Théorème de comparaison . . . . . . . . . . . . . . . . . . . 38<br />
2.4. Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . 39<br />
2.5. Lien avec les EDP. . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
2.5.1. Problème parabolique . . . . . . . . . . . . . . . . . . . . . 40<br />
2.5.2. Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . 41<br />
2.6. Exemples en finance. . . . . . . . . . . . . . . . . . . . . . . . 44<br />
2.6.1. Problème de Sturm-Liouville - Temps d’occupation . . . . . . . . 44<br />
2.6.2. Introduction à <strong>la</strong> formule de B<strong>la</strong>ck & Sholes . . . . . . . . . . . 46<br />
2.7. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />
3. Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . 54<br />
3.1. Changement de probabilité . . . . . . . . . . . . . . . . . . . . 54<br />
3.2. Formule de Cameron Martin. . . . . . . . . . . . . . . . . . . . 55<br />
3.3. Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . 57<br />
3.4. Condition de Novikov et généralisations . . . . . . . . . . . . . . 58<br />
3.5. Existence de solutions faibles . . . . . . . . . . . . . . . . . . . 61<br />
3.6. Exemples d’application à des calculs d’espérance . . . . . . . . . . 62<br />
3.7. Théorème de représentation prévisible . . . . . . . . . . . . . . 64<br />
3.8. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />
4. Applications à <strong>la</strong> finance . . . . . . . . . . . . . . . . . . . . . . 68<br />
4.1. Modélisation d’un marché financier en temps continu . . . . . . . . 68<br />
4.1.1. Modélisation d’un marché à d actifs risqués et k facteurs . . . . . . 68<br />
4.1.2. Description des stratégies . . . . . . . . . . . . . . . . . . . 69
4.1.3. Absence d’opportunité d’arbitrage - Mesure martingale équivalente . . 70<br />
4.1.4. Probabilité risque neutre . . . . . . . . . . . . . . . . . . . . 71<br />
4.2. Modèle de B<strong>la</strong>ck & Sholes généralisé . . . . . . . . . . . . . . . 73<br />
4.2.1. Absence d’opportunité d’arbitrage et changement de probabilité -<br />
Prime de risque . . . . . . . . . . . . . . . . . . . . . . . 73<br />
4.2.2. Complétude du marché . . . . . . . . . . . . . . . . . . . . 76<br />
4.2.3. <strong>Calcul</strong> du portefeuille de couverture dans le modèle de B<strong>la</strong>ck & Sholes 78<br />
4.2.4. Vo<strong>la</strong>tilité . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />
4.3. Modèle de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . 82<br />
4.3.1. Processus de Bessel généraux . . . . . . . . . . . . . . . . . . 82<br />
4.3.2. Modèle de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . 84<br />
4.3.3. <strong>Calcul</strong> du prix d’un zéro-coupon . . . . . . . . . . . . . . . . 85<br />
4.4. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
1<br />
1 Processus d’Itô de dimension quelconque<br />
Le but de ce chapitre est d’étendre les notions de mouvement Brownien, de processus<br />
d’Itô et <strong>la</strong> formule d’Itô de <strong>la</strong> dimension 1 à une dimension d arbitraire.<br />
1.1 Rappels<br />
Nous rappelons tout d’abord quelques définitions et notations du cours de <strong>Calcul</strong> <strong>Stochastique</strong><br />
1. La filtration donne « l’information » dont on dispose à chaque instant t.<br />
Définition 1.1 Soit (Ω, F, P) un espace probabilisé.<br />
(i) Une filtration est une famille croissante (F t , t ≥ 0) de sous-tribus de F, c’est à dire<br />
telle que F s ⊂ F t ⊂ F si s ≤ t.<br />
(ii) On dit que <strong>la</strong> filtration (F t ) satisfait les conditions usuelles si elle est :<br />
• continue à droite, i.e., F t = F t+ := ⋂ s>t F s.<br />
• complète, i.e., toutes les tribus F t contiennent les ensembles négligeables, ce qui revient<br />
à demander que P(A) = 0 entraîne A ∈ F 0 .<br />
Convention. Dans toute <strong>la</strong> suite on se donne un espace probabilisé filtré (Ω, F, (F t , t ≥<br />
0), P) et on suppose que sa filtration (F t ) satisfait les conditions habituelles. On supposera<br />
de plus que <strong>la</strong> tribu F 0 est <strong>la</strong> complétée de <strong>la</strong> tribu triviale {∅, Ω}, ce qui entraîne que les v.a.<br />
F 0 mesurables sont presque sûrement constantes. Ceci ne sera pas rappelé dans les énoncés.<br />
Définition 1.2 Un processus stochastique (à valeurs dans R d ) est une famille (X t , t ≥ 0)<br />
de variables aléatoires X t : (Ω, F) → (R d , R d ).<br />
(i) Le processus stochastique (X t ) est (F t )-adapté si X t est mesurable de (Ω, F t ) dans<br />
(R d , R d ) pour tout instant t ≥ 0.<br />
(ii) Le processus stochastique (X t ) est progressivement mesurable (ou progressif) si pour<br />
tout instant t ≥ 0, l’application (s, ω) ↦→ X s (ω) est mesurable de B([0, t])⊗F t dans (R d , R d ).<br />
(iii) Soit (X t ) un processus stochastique. Sa filtration naturelle est (F X t , t ≥ 0) où F X t =<br />
σ(σ(X s , s ∈ [0, t]), N) où N désigne les ensembles négligeables. Si le processus (X t ) est<br />
continu à droite, sa filtration naturelle (F X t ) satisfait les conditions habituelles.<br />
Théorème 1.3 Soit (X t ) un processus stochastique à valeurs dans R d , adapté et continu à<br />
droite. Alors (X t ) est progressif.<br />
La notion de temps d’arrêt joue un rôle crucial dans <strong>la</strong> théorie.<br />
Définition 1.4 Une variable aléatoire τ : Ω → [0, +∞] est un temps d’arrêt (re<strong>la</strong>tivement<br />
à <strong>la</strong> filtration (F t )), ou (F t )-temps d’arrêt, si {τ ≤ t} ∈ F t pour tout t ≥ 0. Si τ est un<br />
temps d’arrêt re<strong>la</strong>tivement à (F t ), on note<br />
F τ = {A ∈ F : A ∩ {τ ≤ t} ∈ F t , ∀t ∈ [0, +∞[}.<br />
Enfin si (X t ) est un processus (F t )-adapté, on note X τ (ω) = X τ(ω) (ω); si le processus (X t )<br />
est continu à droite et adapté, X τ 1 {τ
2 1 Processus d’Itô de dimension quelconque<br />
Proposition 1.5 Soit (X t , t ≥ 0) un processus à valeurs dans R d , (F t )-adapté et A ∈ R d .<br />
Rappelons <strong>la</strong> convention inf ∅ = +∞.<br />
(i) Si A est fermé et (X t ) est continu, D A = inf{t ≥ 0 : X t ∈ A} est un (F t )-temps<br />
d’arrêt.<br />
(ii) Si A est un ensemble ouvert et (X t ) est continu à droite, alors le temps d’atteinte<br />
de A noté T A = inf{t > 0 : X t ∈ A} est un (F t +)-temps d’arrêt.<br />
Démonstration. (i) De façon évidente, <strong>la</strong> continuité de X . et le fait que A est fermé entraînent<br />
{D A ≤ t} = {ω : inf s∈Q,s≤t d(X s (ω), A) = 0} ∈ F t , où d(x, A) = inf y∈A d(x, y).<br />
(ii) Pour vérifier {T A ≤ t} ∈ F + t , il suffit de vérifier que {T A < t} ∈ F t pour tout t.<br />
De plus, si s < t et X s (ω) ∈ A, <strong>la</strong> continuité à droite de X . (ω) et le fait que A est ouvert<br />
entraînent qu’il existe ε ∈]0, t − s[ tel que pour tout r ∈ [s, s + ε[, X r (ω) ∈ A, d’où<br />
{T A < t} = ∪ s
1.1 Rappels 3<br />
Démonstration. (i) Pour tout n ≥ 1, soit S n (ω) = k2 −n sur {S ∈ [(k − 1)2 −n , k2 −n [},<br />
k ≤ K2 n + 1 et T n défini de façon simi<strong>la</strong>ire. Alors S n et T n sont des (F t )-temps d’arrêt<br />
qui ne prennent qu’un nombre fini de valeurs et tels que S ≤ S n ≤ T n , lim n S n = S et<br />
lim n T n = T. Si A ∈ F Sn , en découpant l’ensemble A suivant les valeurs prises par S n et en<br />
utilisant <strong>la</strong> propriété de martingale, on voit que ∫ M A S n<br />
dP = ∑ ∫<br />
k<br />
M A∩{S n=k} KdP, c’est à<br />
dire que M Sn = E(M K |F Sn ). Puisque F Sn ⊂ F Tn , on a donc<br />
E(M Tn |F Sn ) = E(E(M K |F Tn )|F Sn ) = M Sn .<br />
On en déduit que pour A ∈ F S ⊂ F Sn , ∫ M A S n<br />
dP = ∫ M A T n<br />
dP. De plus, les suites de<br />
temps d’arrêt (S n , n ≥ 1) et (T n , n ≥ 1) étant décroissantes, le calcul précédent montre que<br />
les suites (M Sn , F Sn ) et (M Tn , F Tn ) sont des martingales descendantes, donc uniformément<br />
intégrables. Puisque <strong>la</strong> martingale M est continue à droite, M T = lim n M Tn et M S =<br />
lim n M Sn p.s. et dans L 1 . On en déduit que pour tout A ∈ F S , ∫ M A SdP = ∫ M A TdP,<br />
ce qui termine <strong>la</strong> démonstration. On remarque que cette démonstration s’étend aisément au<br />
cas où S et T sont des temps d’arrêt non bornés tels que S ≤ T si <strong>la</strong> martingale M est<br />
uniformément intégrable, donc fermée.<br />
(ii) Si s ≤ t, il suffit d’appliquer <strong>la</strong> partie (i) aux temps d’arrêt s ∧ T ≤ t ∧ T ≤ t,<br />
pour déduire que M t∧T est une (F t∧T )-martingale. Montrons que ce processus (F t )-adapté<br />
intégrable est encore une (F t )-martingale.<br />
Soit A ∈ F s . De façon évidente, A ∩ {T > s} ∈ F s∧T , et puisque E(M t∧T |F s∧T ) = M s∧T ,<br />
∫<br />
∫<br />
M t∧T dP = M s∧T dP.<br />
A∩{T>s}<br />
A∩{T>s}<br />
De plus, sur {T ≤ s}, M t∧T = M T = M s∧T ; on en déduit ∫ M A t∧TdP = ∫ M A s∧TdP, ce qui<br />
termine <strong>la</strong> démonstration. ✷<br />
Cette proposition justifie <strong>la</strong> définition suivante qui permet de « localiser » <strong>la</strong> notion de<br />
martingale en introduisant une suite croissante de temps d’arrêt.<br />
Définition 1.8 Un processus (F t )-adapté et continu à droite M est une (F t )-martingale<br />
locale s’il existe une suite croissante (τ n ) de (F t )-temps d’arrêt telle que τ n → ∞ et M τn :=<br />
(M t∧τn , t ≥ 0) est une (F t )-martingale pour tout n.<br />
Remarque 1.9 (1) Soit M une martingale locale. En remp<strong>la</strong>çant <strong>la</strong> suite de temps d’arrêt<br />
(τ n ) par (τ n ∧ n) on voit que l’on peut demander que chaque martingale M τn soit uniformément<br />
intégrable. Pour tout n ≥ 1, soit S n = inf{t ≥ 0 : |M t | ≥ n}. Alors S n est<br />
un temps d’arrêt et si <strong>la</strong> martingale locale M est continue, on peut, en remp<strong>la</strong>çant τ n par<br />
τ n ∧ n ∧ S n , demander que <strong>la</strong> martingale M τn soit bornée.<br />
(2) Même si M est une martingale locale intégrable, ce n’est pas nécessairement une<br />
martingale. On pourra voir un contre-exemple dans [11], page 182.<br />
Définition 1.10 Le processus (B t , t ≥ 0) est un mouvement Brownien (standard) réel - ou<br />
unidimensionnel si les propriétés (a)-(c) sont vérifiées :<br />
a) P(B 0 = 0) = 1 (le mouvement Brownien est issu de l’origine).<br />
b) Pour 0 ≤ s ≤ t, B t − B s est une variable réelle de loi gaussienne, centrée de variance<br />
(t − s), notée N(0, t − s).<br />
c) Pour tout n et 0 ≤ t 0 ≤ t 1 · · · ≤ t n , les variables aléatoires B t0 , B t1 − B t0 , · · · ,<br />
B tn − B tn−1 sont indépendantes.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
4 1 Processus d’Itô de dimension quelconque<br />
Rappelons que les trajectoires du Brownien B sont p.s. continues, et même Höldériennes<br />
d’ordre α < 1 , mais p.s. qu’elles ne sont pas dérivables (ni même des fonctions de c<strong>la</strong>sse<br />
2<br />
C 2).<br />
1 On supposera souvent que <strong>la</strong> tribu (F t ) considérée est <strong>la</strong> tribu naturelle de B, notée (Ft B ),<br />
et satisfait donc le théorème d’arrêt 1.7. La propriété c) montre que pour tout 0 ≤ s < t,<br />
l’accroissement B t − B s est indépendant de <strong>la</strong> tribu Fs<br />
B = σ(σ(B u , 0 ≤ u ≤ s), N). Le<br />
mouvement Brownien est donc une (Ft B )-martingale. Rappelons des propriétés du Brownien<br />
qui seront d’un usage constant, et pourront être montrées à titre d’exercice.<br />
Proposition 1.11 Soit (B t ) un Brownien. Alors<br />
(i) (Scaling) Pour toute constante c > 0, le processus cB t/c 2 est un mouvement Brownien<br />
et (−B t ) est un mouvement Brownien.<br />
(ii) (Bt 2 − t, t ≥ 0) est (FB t )-martingale.<br />
(iii) Pour tout θ ∈ R, le processus<br />
(<br />
exp<br />
(<br />
θB t − θ2 t<br />
2<br />
) )<br />
, t ≥ 0 est une (Ft B)-martingale.<br />
La figure suivante montre trois exemples de trajectoires de B (obtenues par simu<strong>la</strong>tion).<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−4<br />
−5<br />
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0<br />
1.2 Variation quadratique - Crochet d’une martingale locale<br />
Rappelons les notations suivantes.<br />
Définition 1.12 Soit (Ω, F, (F t , t ≥ 0), P) un espace filtré. Pour a = 1, 2 et T ∈]0, +∞]<br />
on note :<br />
{<br />
(∫ t<br />
) }<br />
H a (F t ) = h progressivement mesurable tel que pour tout t ≥ 0, E |h s | a ds < ∞ ,<br />
{<br />
∫ t<br />
0<br />
}<br />
Ha loc (F t ) = h progressivement mesurable tel que pour tout t ≥ 0, |h s | a ds < ∞ p.s. ,<br />
0<br />
{<br />
(∫ T<br />
) }<br />
Ha T (F t) = h progressivement mesurable tel que E |h s | a ds < +∞ .<br />
0<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.2 Variation quadratique - Crochet d’une martingale locale 5<br />
En particulier soit h un processus cad<strong>la</strong>g (F t )-adapté; si pour tout t > 0 on a ∫ t<br />
( 0 h2 s ds <<br />
∫ )<br />
+∞ p.s., alors h ∈ H2 loc t<br />
, si E<br />
0 h2 sds < ∞ pour tout t, alors h ∈ H 2 (F t ), ... Lorsque<br />
<strong>la</strong> filtration (F t ) est <strong>la</strong> filtration naturelle (Ft B ) d’un mouvement Brownien B, on notera<br />
simplement H1 loc := H1 loc (Ft B ), H2 loc := H2 loc (Ft B ), ...<br />
La propriété suivante des intégrales stochastiques par rapport au mouvement Brownien<br />
est fondamentale.<br />
Théorème 1.13 Soit B un mouvement Brownien et (Ft B ) sa filtration naturelle. Soit h ∈<br />
H 2 ; alors le processus t → I t = ∫ t<br />
h 0 sdB s est une (Ft B )-martingale de carré intégrable et à<br />
trajectoires p.s. continues.<br />
Soit h ∈ H2 loc (par exemple un processus cad<strong>la</strong>g, (Ft B)-adapté tel que ∫ t<br />
0 h2 sds < +∞<br />
p.s.) Alors l’intégrale stochastique I t = ∫ t<br />
h 0 sdB s peut être construite comme une martingale<br />
locale continue.<br />
Rappelons <strong>la</strong> notion de variation satisfaite par les intégrales de <strong>la</strong> borne supérieure déterministes.<br />
Définition 1.14 (i) Soit s < t et f : [s, t] → R. La fonction f est à variation bornée sur<br />
[s, t] si V [s,t] (f) < +∞, où<br />
{ }<br />
∑<br />
V [s,t] (f) := sup |f(t i+1 ) − f(t i )| : {s = t 0 < t 1 < · · · < t n ≤ t} subdivision de [s, t] .<br />
i<br />
La fonction f : [0, +∞[ est à variation finie sur [0, +∞[ si elle est à variation bornée sur<br />
tout intervalle [0, T].<br />
(ii) Le processus (X t ) est à variation bornée sur [s, t] (resp. à variation finie) si ses<br />
trajectoires sont p.s. à variation bornée sur [s, t] (resp. p.s. à variation finie).<br />
De façon évidente, si b ∈ H1 loc (F t ), le processus t → I t = ∫ t<br />
b 0 sds est à variation finie; en<br />
effet pour tout T ≥ 0, V [0,T] (I) ≤ ∫ T<br />
|b(t)| dt. Le comportement des intégrales stochastiques<br />
0<br />
est tout autre.<br />
Proposition 1.15 Soit (M t ) une (F t )-martingale locale p.s. continue à variation finie.<br />
Alors pour tout t <strong>la</strong> variable aléatoire M t est presque sûrement constante (égale à M 0 ).<br />
Démonstration. Puisque M 0 est p.s. constante, en remp<strong>la</strong>çant M t par M t − M 0 , on peut<br />
supposer M 0 = 0.<br />
(i) Fixons T et supposons que (M t ) est une martingale continue et que sa variation<br />
V [0,T] (M) est (p.s.) bornée par C. Soit ∆ = {t 0 = 0 < t 1 < · · · < t n = T } une subdivision de<br />
[0, T], |∆| = sup n−1<br />
i=0 |t i+1 − t i | son pas et pour 0 ≤ k ≤ n − 1 soit X k = M tk+1 − M tk . Alors<br />
∑n−1<br />
E(|M T | 2 ) = E(|M T − M 0 | 2 ) = E(Xk) 2 + 2<br />
k=0<br />
∑<br />
1≤i
6 1 Processus d’Itô de dimension quelconque<br />
appliquant le Théorème de convergence dominée, on en déduit E ( sup k |M tk+1 − M tk | ) → 0<br />
quand |∆| → 0. On en déduit E(|M T | 2 ) = 0 ce qui entraîne M T = 0 p.s.<br />
(ii) Supposons que (M t ) est une martingale p.s. continue. Pour tout n, soit<br />
τ n = inf{t ∈ [0, T] : V [0,t] (M) ≥ n} ∧ T<br />
(avec <strong>la</strong> convention inf ∅ = +∞). La définition de V [0,t] montre que c’est un processus (F t )-<br />
adapté, continu. La Proposition 1.5 (i) montre que (τ n ) est une suite de (F t )-temps d’arrêt;<br />
de façon évidente, (τ n ) est croissante et converge vers T. Le théorème d’arrêt 1.7 montre<br />
que le processus (Mt τn<br />
) = (M t∧τn , t ≥ 0) est une (F t )-martingale. De plus, par construction,<br />
V [0,T] (M τn ) ≤ n p.s. Soit t ∈ [0, T]; <strong>la</strong> partie (i) montre donc que M t∧τn = 0 p.s. puis <strong>la</strong><br />
continuité p.s. de M permet, en faisant tendre n vers l’infini, d’en déduire que M t = 0 p.s.<br />
(iii) Soit maintenant M une martingale locale continue et soit (τ n ) une suite de temps<br />
d’arrêt qui croit vers T telle que (M t∧τn , t ≥ 0) est une martingale continue. Pour tout<br />
n cette martingale est à variation bornée sur [0, T] et est donc nulle p.s. d’après (ii). On<br />
conclut de nouveau par passage à <strong>la</strong> limite en n en utilisant <strong>la</strong> continuité p.s. de M. ✷<br />
La proposition précédente montre que le mouvement Brownien n’est p.s. pas à variation<br />
bornée sur [0, T] et que l’intégrale stochastique t → ∫ t<br />
σ 0 sdB s ne peut pas être définie<br />
ω par ω et n’est pas à variation finie, sauf si elle est nulle.<br />
La « bonne notion » pour les intégrales stochastiques, tout comme pour le Brownien, est<br />
celle de variation quadratique. Pour tout processus X défini sur [0, T], 0 ≤ t ≤ T et toute<br />
subdivision ∆ = {t 0 = 0 < t 1 < · · · < t k = T },<br />
∑k−1<br />
Tt ∆ (X) = |X ti+1 ∧t − X ti ∧t| 2 .<br />
i=0<br />
Définition 1.16 Soit X : [0, T]×Ω → R un processus stochastique défini sur [0, T]. On dit<br />
que X est de variation quadratique finie si pour tout t ∈ [0, T],<br />
〈X, X〉 t = lim T t<br />
∆ existe en probabilité,<br />
|∆|→0<br />
c’est à dire que pour toute suite (∆ n ) de subdivisions de [0, T] dont le pas tend vers 0, <strong>la</strong><br />
suite T ∆n<br />
t converge en probabilité vers une limite notée 〈X, X〉 t .<br />
Les deux résultats suivants donnent les rapports entre processus à variation bornée et à<br />
variation quadratique finie.<br />
Proposition 1.17 Soit X un processus continu à variation bornée sur [0, T]. Alors X est<br />
de variation quadratique nulle sur [0, T].<br />
Démonstration. Soit ∆ = {0 = t 0 < t 1 < · · · < t k = T } une subdivision de [0, T]. Alors<br />
∑k−1<br />
∑k−1<br />
|X ti+1 − X ti | 2 ≤ |X ti+1 − X ti | sup |X ti+1 − X ti |.<br />
0≤i
1.2 Variation quadratique - Crochet d’une martingale locale 7<br />
On remarque d’ailleurs que <strong>la</strong> démonstration précédente et le Théorème de convergence<br />
dominée entraînent que si V [0,t] (X) ≤ C p.s. où C est constante, Tt<br />
∆ converge vers 0 dans<br />
L 1 . ✷<br />
Le résultat suivant a été montré dans le cours de <strong>Calcul</strong> <strong>Stochastique</strong> 1.<br />
Théorème 1.18 Le mouvement Brownien (B t ) est de variation quadratique finie sur tout<br />
intervalle [0, T] et 〈B, B〉 t = t. Plus précisément, lorsque |∆| → 0, E(|Tt ∆ (B) − t| 2 ) → 0,<br />
c’est à dire que <strong>la</strong> convergence a lieu dans L 2 .<br />
De plus, si σ ∈ H2 loc,<br />
le processus (∫ t<br />
σ 0 sdB s , t ≥ 0) est de variation quadratique ∫ t<br />
0 σ2 s ds<br />
sur chaque intervalle [0, t].<br />
Nous allons tout d’abord le généraliser à des martingales locales continues.<br />
Notation Soit ∆ = {t 0 = 0 < t 1 < t 2 < · · · } une subdivision de [0, +∞[ telle que pour tout<br />
t > 0, ∆ ∩ [0, t] ne comprend qu’un nombre fini de points. Par analogie avec les notations<br />
précédentes, pour tout t > 0 (en ajoutant t à <strong>la</strong> subdivision) et pour tout processus X<br />
notons<br />
Tt ∆ (X) = ∑ ti+1 ∧t − X ti ∧t)<br />
i≥0(X 2 . (1.2)<br />
Le processus X est à variation quadratique finie si pour tout t <strong>la</strong> famille de processus T ∆<br />
t (X)<br />
converge en probabilité vers 〈X, X〉 t quand le pas |∆| de <strong>la</strong> subdivision sur [0, t] tend vers<br />
0.<br />
Le résultat suivant est fondamental. Il relie <strong>la</strong> variation quadratique à une martingale<br />
associée au carré du processus.<br />
Théorème 1.19 Soit M une (F t )-martingale locale continue. Alors M est de variation quadratique<br />
finie et sa variation quadratique 〈M, M〉 t est l’unique processus croissant, adapté,<br />
continu, nul en zéro tel que<br />
(<br />
M<br />
2<br />
t − 〈M, M〉 t , t ≥ 0 ) est une (F t ) martingale locale .<br />
De plus, ∣ pour s < t et toute∣ suite (∆ n ) de subdivisions dont le pas |∆ n | tend vers 0, <strong>la</strong> suite<br />
sup s≤t Ts<br />
∆n (M) − 〈M, M〉 s converge vers 0 en probabilité.<br />
Si de plus, M est une martingale de carré intégrable (c’est à dire que E(Mt 2 ) < +∞<br />
pour tout t), alors (Mt 2 − 〈M, M〉 t, t ≥ 0) est une (F t ) martingale continue telle que pour<br />
tout couple de temps d’arrêt bornés S ≤ T ≤ C,<br />
E(M 2 T − M 2 S|F S ) = E(|M T − M S | 2 |F S ) = E(〈M, M〉 T − 〈M, M〉 S |F S ).<br />
Démonstration. L’unicité de <strong>la</strong> décomposition découle de <strong>la</strong> Proposition 1.15. En effet,<br />
soit Mt 2 = Y t + A t = Z t + B t où A, B sont des processus continus à variation finie et nuls<br />
en 0, Y, Z sont des martingales locales, continues puisque M. 2 , A . et B . le sont. Alors <strong>la</strong><br />
différence Y − Z = B − A est une martingale locale continue à variation finie nulle en 0,<br />
donc est nulle d’après <strong>la</strong> Proposition 1.15.<br />
Pour prouver l’existence, nous distinguerons plusieurs étapes. Pour alléger les notations,<br />
nous ne ferons pas référence à <strong>la</strong> filtration pour les temps d’arrêt, martingales, ... En remp<strong>la</strong>çant<br />
(M t ) par (M t − M 0 , t ≥ 0) qui est aussi une martingale (ou une martingale locale),<br />
nous supposerons que M 0 = 0.<br />
(1) On suppose que M est une martingale bornée par C. Pour toute subdivision ∆,<br />
s < t, notons i et k les entiers tels que t i ≤ s < t i+1 et t k ≤ t < t k+1 .<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
8 1 Processus d’Itô de dimension quelconque<br />
Alors si i = k, <strong>la</strong> propriété de martingale de M entraîne que<br />
Si i < k,<br />
E ( T ∆<br />
t (M) − T ∆ s (M) ∣ ∣ Fs<br />
)<br />
= E(|Mt − M ti | 2 − |M s − M ti | 2 |F s )<br />
= E(|M t − M s | 2 |F s ) = E(M 2 t − M2 s |F s).<br />
E ( |M ti+1 − M ti | 2 |F s<br />
)<br />
= E<br />
(<br />
|Mti+1 − M s | 2 |F s<br />
)<br />
+ |Ms − M ti | 2 .<br />
Avec <strong>la</strong> convention ∑ n 2<br />
j=n 1<br />
x j = 0 si n 1 > n 2 , on en déduit<br />
E ( T ∆<br />
t (M) − T ∆ s (M) ∣ ∣ Fs<br />
)<br />
= E<br />
(|M ti+1 − M s | 2 +<br />
D’autre part, pour tout s ≤ a < b ≤ c < d ≤ t,<br />
∑k−1<br />
j=i+1<br />
|M tj+1 − M tj | 2 + |M t − M tk | 2 ∣ ∣∣Fs<br />
).<br />
E[(M b − M a )(M d − M c )|F s ] = E[(M b − M a )E[M d − M c |F c ]|F s ] = 0.<br />
En décomposant M t − M s comme somme d’accroissements sur les points {s, t i+1 , · · · , t k , t}<br />
on obtient donc<br />
E ( |M t − M s | 2 |F s<br />
)<br />
= E<br />
(|M ti+1 − M s | 2 +<br />
∑k−1<br />
j=i+1<br />
|M tj+1 − M tj | 2 + |M t − M tk | 2 ∣ ∣∣Fs<br />
),<br />
On en déduit que<br />
E [ Mt 2 − M2 s |F ] [ ] [<br />
s = E (Mt − M s ) 2 |F s = E T<br />
∆<br />
t (M) − Ts ∆ (M)|F s]<br />
. (1.3)<br />
Le processus (Mt 2 −T t ∆ (M), t ≥ 0) est donc une martingale de carré intégrable et E(Mt 2) =<br />
E(Tt ∆ (M)) pour tout t ≥ 0.<br />
(2) Soit M une martingale continue bornée par C. Fixons a en notons (∆ n ) une suite<br />
de subdivisions de [0, a] dont le pas tend vers 0. Montrons que <strong>la</strong> suite (Ta ∆n (M), n ≥ 0)<br />
converge dans L 2 , c’est à dire est de Cauchy dans L 2 .<br />
Soit ∆ et ∆ ′ deux subdivisions; notons ˜∆ <strong>la</strong> subdivision obtenue en prenant l’union des<br />
points de ∆ et ∆ ′ . Notons<br />
X = T ∆ (M) − T ∆′ (M).<br />
Puisque (Mt 2 − T t ∆ (M) , t ≥ 0) est une martingale, X est également une martingale nulle<br />
en 0 telle que (X t , 0 ≤ t ≤ a) est bornée. Le calcul précédent appliqué à X au lieu de M<br />
montre que<br />
[<br />
] [ ]<br />
E(Xa 2 ) = E |Ta ∆ ∆′<br />
(M) − Ta (M)|2 = E T ˜∆<br />
a (X) .<br />
[<br />
De plus, T ˜∆<br />
a (X) ≤ 2 T ˜∆ (<br />
a T ∆ (M) ) + T ˜∆ (<br />
a T<br />
∆ ′ (M) )] .<br />
Pour vérifier que <strong>la</strong> suite Ta<br />
∆n (M) est de Cauchy, il suffit donc de vérifier que<br />
[<br />
E T ˜∆ (<br />
a T ∆ (M)) )] converge vers 0 quand |∆| + |∆ ′ | → 0.<br />
Soit s k ∈ ˜∆ et t l l’unique élément de ∆ tel que t l ≤ s k < s k+1 ≤ t l+1 . Alors<br />
T ∆ s k+1<br />
(M) −T ∆ s k<br />
(M) = (M sk+1 −M tl ) 2 −(M sk −M tl ) 2 = (M sk+1 −M sk )(M sk+1 +M sk −2M tl ).<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.2 Variation quadratique - Crochet d’une martingale locale 9<br />
On en déduit<br />
T ˜∆<br />
a<br />
(<br />
T ∆ (M) ) ≤ T ˜∆<br />
a (M)<br />
(<br />
)<br />
sup |M sk+1 + M sk − 2M tl | 2 .<br />
k<br />
Puisque M est continue bornée, le théorème de convergence dominée entraîne que<br />
(<br />
)<br />
E sup |M sk+1 + M sk − 2M tl | 4 → 0 quand |∆| + |∆ ′ | → 0.<br />
k<br />
Il suffit d’après l’inégalité de Schwarz de prouver que E(|T ˜∆<br />
a (M)| 2 ) reste bornée par une<br />
constante, c’est à dire que<br />
sup E(|Ta ∆ (M)|2 ) < +∞.<br />
∆<br />
Soit ∆ une subdivision qui contient a = t n . Alors<br />
( n−1<br />
) 2<br />
∑<br />
|Ta ∆ (M)|2 = |M ti+1 − M ti | 2<br />
i=0<br />
∑n−1<br />
∑n−2<br />
∑n−1<br />
= |M ti+1 − M ti | 4 + 2 |M ti+1 − M ti | 2<br />
i=0<br />
i=0<br />
i=0<br />
i=0<br />
j=i+1<br />
|M tj+1 − M tj | 2<br />
∑n−1<br />
∑n−2<br />
( )<br />
= |M ti+1 − M ti | 4 2 (<br />
+ 2 Mti+1 − M ti T<br />
∆<br />
a (M) − Tt ∆<br />
i+1<br />
(M) ) .<br />
L’équation (1.3) montre que E [ T ∆ a (M)−T ∆<br />
t i+1<br />
(M)|F ti+1<br />
]<br />
= E<br />
[<br />
(Ma −M ti+1 ) 2 |F ti+1<br />
]<br />
. Puisque<br />
(M ti+1 − M ti ) 2 est F ti+1 -mesurable, on en déduit<br />
∑n−1<br />
E(|Ta ∆ (M)|2 ) = E(|M ti+1 − M ti | 4 )<br />
i=0<br />
n−1<br />
∑<br />
+ 2<br />
i=0<br />
n−1<br />
E [ |M ti+1 − M ti | 2 E ( T ∆ a (M) − T ∆<br />
t i+1<br />
(M)|F ti+1<br />
)]<br />
∑<br />
∑n−1<br />
= E(|M ti+1 − M ti | 4 ) + 2 E [ |M ti+1 − M ti | 2 (M a − M ti+1 ) 2]<br />
i=0<br />
[(<br />
≤ E<br />
sup<br />
k<br />
i=0<br />
) ]<br />
|M tk+1 − M tk | 2 + 2 sup |M a − M tk | 2 Ta ∆ (M) .<br />
k<br />
Puisque sup t |M t | ≤ C et M 0 = 0, l’équation (1.3) pour 0 et a entraîne que E(T ∆ a (M)) ≤ C 2<br />
et donc<br />
E(|T ∆ a (M)|2 ) ≤ 12C 2 E(T ∆ a (M)) ≤ 12C4 . (1.4)<br />
La suite (Ta<br />
∆n (M), n ≥ 1) est donc de Cauchy dans L 2 ; elle converge dans L 2 (donc aussi<br />
en probabilité) vers une limite notée 〈M, M〉 a .<br />
(3) Soit M une martingale continue bornée par C. Il reste à vérifier que le processus<br />
〈M, M〉 a les propriétés annoncées. Soit (∆ n ) une suite de subdivisions dont le pas |∆ n | tend<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
10 1 Processus d’Itô de dimension quelconque<br />
vers 0. Pour tout m < n, le processus T ∆n (M) − T ∆m (M) est une martingale et l’inégalité<br />
de Doob entraîne que<br />
(<br />
) [<br />
E |Ts<br />
∆n<br />
(M) − Ts ∆m<br />
(M)| 2 ≤ 4E |Ta<br />
∆n<br />
(M) − Ta ∆m<br />
(M)| 2] .<br />
sup<br />
0≤s≤a<br />
Soit m(k) un entier tel que pour tout m ≥ m(k), E(|Ts<br />
∆m (M)−T ∆ m(k)<br />
s (M)| 2 ) ≤ 2 −k . On peut<br />
supposer que <strong>la</strong> suite m(k) est strictement croissante et, d’après le lemme de Borel Cantelli,<br />
de <strong>la</strong> suite (T. ∆n (M), n ≥ 1) on peut donc extraire une sous-suite (T ∆ m(k)<br />
. (M), k ≥ 1) qui<br />
converge p.s. uniformément sur l’intervalle [0, a].<br />
Par un procédé diagonal, on peut faire en sorte d’extraire une nouvelle sous-suite qui<br />
converge uniformément sur tout intervalle [0, N] pour tout entier N. La limite 〈M, M〉 est<br />
donc p.s. continue. De plus, <strong>la</strong> limite étant indépendante de <strong>la</strong> suite de subdivisions choisie,<br />
on peut faire en sorte que <strong>la</strong> suite de subdivisions soit telle que ∆ n ⊂ ∆ n+1 et que ∪ n ∆ n<br />
soit dense dans [0, +∞[.<br />
Alors, si s < t sont des points de ∪ n ∆ n , il existe n 0 tel que s, t ∈ ∆ n pour tout n ≥ n 0 . On<br />
en déduit alors de façon évidente que Ts<br />
∆n ≤ Tt<br />
∆n<br />
pour n ≥ n 0 , d’où 〈M, M〉 s ≤ 〈M, M〉 t et<br />
que le processus 〈M, M〉 est croissant par continuité. Enfin, en faisant tendre n vers l’infini<br />
dans l’équation (1.3) écrite pour <strong>la</strong> subdivision ∆ n et en utilisant l’intégrabilité uniforme<br />
de <strong>la</strong> suite (Tt<br />
∆n<br />
(M), n ≥ 1) qui découle du fait que cette suite est bornée dans L 2 d’après<br />
(1.4), on déduit que M 2 − 〈M, M〉 est une martingale.<br />
(4) Soit M une martingale locale continue et (T n ) une suite de temps d’arrêt qui croît<br />
p.s. vers +∞ et telle que pour tout n le processus X(n) = M Tn défini par (1.1) est une<br />
martingale continue bornée. La démonstration précédente montre qu’il existe un processus<br />
croissant A(n) nul en 0 tel que pour tout n, (X(n) 2 t − A(n) t , t ≥ 0) est une martingale. De<br />
plus <strong>la</strong> martingale arrêtée<br />
(X(n + 1) 2 − A(n + 1)) Tn = X(n) 2 − A(n + 1) Tn<br />
est une martingale et A(n + 1) Tn est un processus croissant nul en 0. L’unicité montrée en<br />
(1) permet de déduire que A(n + 1) Tn = A(n) Tn p.s. Ceci permet de définir sans ambiguïté<br />
un processus croissant 〈M, M〉 t = A(n) t pour tout t ≤ T n . L’unicité vient de l’unicité sur<br />
tout intervalle [0, T n ].<br />
Fixons t > 0, ε > 0 et δ > 0. La suite de temps d’arrêt (T n ) tend vers +∞, donc pour n<br />
assez grand S = T n est tel que P(S ≤ t) < δ et <strong>la</strong> martingale M S est bornée. La première<br />
partie montre que lorsque le pas de <strong>la</strong> subdivision |∆| tend vers 0, Tt ∆(MS<br />
) converge vers<br />
〈M S , M S 〉 t en probabilité. Puisque Ts ∆ (M S ) = Ts ∆ (M) et 〈M S , M S 〉 s = 〈M, M〉 s pour<br />
s ∈ [0, S], on en déduit que pour |∆| assez petit<br />
(<br />
) (<br />
)<br />
P sup |Ts ∆ (M) − 〈M, M〉 s| ≥ ε ≤ δ + P sup |Ts ∆ (MS ) − 〈M S , M S 〉 s | ≥ ε ≤ 2δ.<br />
s≤t<br />
s≤t<br />
(5) Supposons enfin que M est une martingale est de carré intégrable. D’après l’inégalité<br />
de Doob,<br />
E( sup |M s | 2 ) ≤ 2E(|M t | 2 ).<br />
0≤s≤t<br />
D’autre part, soit (T n ) une suite de temps d’arrêt qui croît p.s. vers +∞ et telle que pour tout<br />
n le processus X n = M Tn est une martingale continue bornée. Pour tout t, E(〈M, M〉 t∧Tn ) =<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.2 Variation quadratique - Crochet d’une martingale locale 11<br />
E(|M t∧Tn | 2 ) et <strong>la</strong> suite (M t∧Tn , n ≥ 0) est une (F t∧Tn , n ≥ 0) martingale bornée dans L 2 qui<br />
converge dans L 2 vers M 2 t . De plus, le théorème de convergence monotone montre que<br />
E(〈M, M〉 t ) = lim<br />
n<br />
E(〈M, M〉 t∧Tn ) = lim<br />
n<br />
E(|M t∧Tn | 2 ).<br />
Enfin <strong>la</strong> martingale discrète (M t∧Tn , n ≥ 1) est fermée par M t ∈ L 2 et converge dans L 2 vers<br />
M t puisque ∨ n F t∧Tn = F t ; on a donc E(〈M, M〉 t ) = E(Mt 2 ) < +∞. L’inégalité de Doob<br />
montre alors que pour tout s ≤ t,<br />
Ms 2 − 〈M, M〉 s ≤ sup Mr 2 + 〈M, M〉 r ∈ L 1 .<br />
r≤t<br />
L’exercice 1.4 (ii) montre que cette martingale locale continue uniformément intégrable est<br />
une martingale. Il suffit d’appliquer le Théorème d’arrêt 1.7 pour conclure <strong>la</strong> démonstration.<br />
✷<br />
Le crochet de deux martingales locales continues M et N est défini par po<strong>la</strong>risation.<br />
Théorème 1.20 Soit M et N des (F t )-martingales locales continues. Il existe un unique<br />
processus continu, adapté, à variation finie 〈M, N〉 nul en 0 tel que (M t N t − 〈M, N〉 t , t ≥ 0)<br />
soit une martingale locale continue. De plus pour toute suite ∆ n de subdivisions de [0, t] dont<br />
le pas tend vers 0, <strong>la</strong> suite<br />
∣<br />
sup<br />
s≤t<br />
∣ ∑<br />
∣∣∣∣ (M ti+1 ∧s − M ti ∧s)(N ti+1 ∧s − N ti ∧s) − 〈M, N〉 s converge vers 0 en probabilité.<br />
∣<br />
t i ∈∆ n<br />
Démonstration. L’unicité découle de <strong>la</strong> proposition 1.15. Pour l’existence, il suffit de vérifier<br />
que<br />
〈M, N〉 = 1 [<br />
]<br />
〈M + N , M + N〉 − 〈M − N , M − N〉 .<br />
4<br />
a les propriétés annoncées. C’est <strong>la</strong> différence de deux processus croissants et c’est donc un<br />
processus à variation finie. ✷<br />
Définition 1.21 On dit que le processus 〈M, N〉 est le crochet de M et N et que le processus<br />
〈M, M〉 aussi noté 〈M〉 est le processus croissant associé à M.<br />
Définition 1.22 Un processus X est une semi-martingale continue s’il admet <strong>la</strong> décomposition<br />
X t = X 0 +M t +A t pour tout t, où (M t ) est une (F t )-martingale locale continue, (A t )<br />
est un processus continu à variation finie, M 0 = A 0 = 0.<br />
On déduit aisément <strong>la</strong><br />
Proposition 1.23 La variation quadratique d’une semi-martingale continue X = X 0 +M+<br />
A est finie et égale 〈M, M〉. La décomposition de X est unique (à indistinguabilité près).<br />
On note donc 〈X, X〉 = 〈M, M〉 et on dit que ce processus croissant est le crochet de X. De<br />
même, si X = X 0 + M + A et Y = Y 0 + N + B sont des semi-martingales continues (avec<br />
les martingales locales continues M, N et les processus à variation finie A et B) on définit<br />
le crochet de X et Y comme<br />
〈X, Y 〉 = 〈M, N〉 = 1 [<br />
]<br />
〈X + Y , X + Y 〉 − 〈X − Y , X − Y 〉 .<br />
4<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
12 1 Processus d’Itô de dimension quelconque<br />
Démonstration. Soit X = X 0 + M + A une semi-martingale continue. Si X admet une<br />
autre décomposition X = ¯X 0 + ¯M + Ā où Ā est un processus à variation finie, ¯M est une<br />
martingale locale continue, ¯M0 = Ā0 = 0, on a ¯X 0 = X 0 , le processus M − ¯M = Ā − A est<br />
une martingale locale continue à variation finie, est est donc nulle p.s. d’après <strong>la</strong> Proposition<br />
1.15.<br />
Soit ∆ une subdivision de [0, t]. D’après <strong>la</strong> Proposition 1.17 le processus A est à variation<br />
quadratique nulle et pour prouver que <strong>la</strong> variation quadratique de X est celle de M, il suffit<br />
de vérifier que<br />
∑<br />
(<br />
)<br />
(M<br />
∣<br />
ti+1 − M ti )(A ti+1 − A ti )<br />
∣ ≤ sup |M ti+1 − M ti | V ar [0,t] (A).<br />
i<br />
Puisque les trajectoires de M sont p. s. continues (donc uniformément continues sur [0, t])<br />
et que V ar [0,t] (A) < +∞ on déduit que p.s., le majorant tend vers 0 quand |∆| → 0. ✷<br />
1.3 Processus d’Itô réel.<br />
Définition 1.24 Soit (B t ) un mouvement Brownien, (Ft B ) sa filtration naturelle, x ∈ R,<br />
b ∈ H1 loc(FB<br />
t ) et σ ∈ Hloc 2 (FB t ). Le processus X défini par<br />
X t = x +<br />
∫ t<br />
0<br />
i<br />
σ s dB s +<br />
∫ t<br />
0<br />
b s ds (1.5)<br />
est un processus d’Itô; il est à trajectoires continues. Le processus b est sa dérive, le processus<br />
σ est le coefficient de diffusion et x est <strong>la</strong> condition initiale. L’équation (1.5) est souvent<br />
également notée { dXt = b t dt + σ t dB t ,<br />
(1.6)<br />
X 0 = x.<br />
Le Théorème 1.13 montre que M t = ∫ t<br />
σ 0 sdB s est une (Ft B )-martingale locale continue.<br />
Un processus d’Itô X t = x + ∫ t<br />
σ 0 sdB s + ∫ t<br />
b 0 sds est donc une semi-martingale locale continue.<br />
On dit que t → ∫ t<br />
σ 0 sdB s est sa « partie martingale » (même si c’est seulement une<br />
martingale locale) et que t → x + ∫ t<br />
b 0 sds est sa « partie à variation finie ». La partie martingale(<br />
de X est une « vraie » (Ft B )-martingale si le coefficient de diffusion σ est cad<strong>la</strong>g tel<br />
∫ )<br />
t<br />
que E < +∞ pour tout t > 0, ou plus généralement si σ ∈ H 2 (Ft B ). C’est une<br />
0 σ2 sds<br />
martingale bornée dans L 2 si σ ∈ H ∞ 2 (F 2 t ).<br />
Les résultats de <strong>la</strong> section précédente donnent donc immédiatement quelques propriétés<br />
importantes des processus d’Itô.<br />
Corol<strong>la</strong>ire 1.25 (i) Le crochet d’un processus d’Itô X t = x + ∫ t<br />
σ 0 sdB s + ∫ t<br />
b 0 sds est défini<br />
par 〈X, X〉 t = ∫ t<br />
0 σ2 sds pour tout t ≥ 0.<br />
(ii) Plus généralement, le crochet croisé de deux processus d’Itô X t = x + ∫ t<br />
σ 0 sdB s +<br />
∫ t<br />
b 0 sds et Y t = y + ∫ t<br />
¯σ 0 sdB s + ∫ t ¯b 0 s ds est celui de leurs parties martingales, soit 〈X, Y 〉 t =<br />
∫ t<br />
σ 0 s¯σ s ds.<br />
(iii) Soit (X t = x + ∫ t<br />
σ 0 sdB s + ∫ t<br />
b 0 sds = ˜x + ∫ t<br />
˜σ 0 sdB s + ∫ t ˜b 0 s ds, t ≥ 0) un processus<br />
d’Itô, où b,˜b ∈ H1 loc (Ft B ), σ, ˜σ ∈ H2 loc (Ft B ), x, ˜x ∈ R. Alors, x = ˜x, b = ˜b ds ⊗ dP p.p. et<br />
σ = ˜σ ds ⊗ dP p.p., c’est à dire que <strong>la</strong> décomposition de X est unique.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.4 Processus d’Itô de dimension d - Formule d’Itô générale 13<br />
(iv) Soit (X t ) un processus d’Itô qui est une (Ft B<br />
est nulle ds ⊗ dP p.p.<br />
)-martingale locale. Alors sa dérive b<br />
Démonstration. (i) et (ii) sont des conséquences immédiates de <strong>la</strong> Proposition 1.17, du<br />
Théorème 1.18 et de <strong>la</strong> po<strong>la</strong>risation.<br />
(iii) La différence D t = ∫ t<br />
(˜b 0 s − b s )ds = ∫ t<br />
(σ 0 s − ˜σ s )dB s est dont un processus à variation<br />
bornée sur [0, T] (à cause de l’intégrale déterministe) et une martingale locale continue (à<br />
cause de l’intégrale stochastique et du Théorème 1.13). La Proposition 1.17 montre que <strong>la</strong><br />
variation quadratique de l’intégrale stochastique de σ − ˜σ est nulle p.s. sur tout intervalle<br />
[0, t], soit ∫ t<br />
|σ 0 s − ˜σ s | 2 ds = 0, et σ = ˜σ ds ⊗ dP p.p. sur [0, t] × Ω. On en déduit que<br />
∫ t<br />
(b 0 s − ˜b s )ds = 0 pour tout t, ce qui termine <strong>la</strong> démonstration puisque X 0 = x = ˜x.<br />
(iv) Le processus d’Itô X t = x+ ∫ t<br />
σ 0 sdB s + ∫ t<br />
b 0 sds est continu. Puisque t → x+ ∫ t<br />
σ 0 sdB s<br />
est une (Ft B )-martingale locale continue, par différence le processus t → ∫ t<br />
b 0 sds est une<br />
martingale locale continue et est à variation finie sur tout intervalle [0, t]. Il est donc constant<br />
(et égal à 0) p.s. d’après <strong>la</strong> Proposition 1.15 ✷<br />
1.4 Processus d’Itô de dimension d - Formule d’Itô générale<br />
1.4.1 Processus d’Itô de dimension d<br />
Nous étendons tout d’abord <strong>la</strong> définition du mouvement Brownien réel au cas d’un<br />
processus de dimension quelconque.<br />
Définition 1.26 Soit ( B t = (B 1 t , B 2 t , . . .,B r t ), t ≥ 0 ) un processus r-dimensionnel et (F t )<br />
une filtration. On dit que B est un (F t )-Brownien standard r-dimensionnel si les processus<br />
(B i ), 1 ≤ i ≤ r sont des (F t )-Browniens réels indépendants, c’est à dire : B 0 = 0 et pour<br />
0 ≤ s ≤ t<br />
(i) B t − B s suit une loi normale N(0, (t − s)Id r ).<br />
(ii) l’accroissement B t − B s est indépendant de <strong>la</strong> tribu F s .<br />
Quand <strong>la</strong> filtration n’est pas précisée, on dit que B est un Brownien standard d-dimensionnel<br />
si c’est un mouvement Brownien pour sa filtration naturelle (F B t ). Si B est un Brownien<br />
standard pour <strong>la</strong> filtration (F t ), c’est aussi un Brownien standard pour sa filtration naturelle<br />
(F B t ). Le Brownien est un processus gaussien à accroissements indépendants.<br />
Nous commettrons l’abus de notation consistant à identifier un vecteur (x 1 , · · · , x r ) ∈ R r et<br />
<strong>la</strong> matrice colonne de ses composantes dans <strong>la</strong> base canonique. Nous noterons donc<br />
⎛ ⎞<br />
B t =<br />
⎜<br />
⎝<br />
B 1 t<br />
.<br />
B r t<br />
⎟<br />
⎠ .<br />
Nous généralisons de même <strong>la</strong> notion de processus d’Itô. Notons M(d, r) l’ensemble des<br />
matrices d × r à d lignes et r colonnes. On dit qu’un processus X = (Xj(t) i : 1 ≤ i ≤ d, 1 ≤<br />
j ≤ r, t ≥ 0) à valeurs dans M(d, k) appartient à H1 loc(F<br />
t) (resp. H2 loc(F<br />
t), H2 2(F t), H2 ∞(F t))<br />
si chaque composante Xk i est un processus réel qui appartient à Hloc 1 (F t ) (resp. H2 loc (F t ),<br />
H2 2(F t), H2 ∞(F t)).<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
14 1 Processus d’Itô de dimension quelconque<br />
Définition 1.27 Soit B un (F t )-Brownien standard de dimension r, σ = (σk i : 1 ≤ i ≤<br />
d, 1 ≤ k ≤ r) : Ω × [0, +∞[→ M(d, r) ∈ H2 loc , b = (b 1 , · · · , b d ) : Ω × [0, +∞[→ R d ∈ H1 loc ,<br />
et x = (x 1 , · · · , x d ) ∈ R d . Le processus (X t ) à valeurs dans R d est un processus d’Itô de<br />
condition initiale x, de coefficient de diffusion σ et de coefficient de dérive b si pour tout<br />
i = 1, · · · , d,<br />
r∑<br />
∫ t ∫ t<br />
Xt i = xi + σk i (s)dBk s + b i (s)ds. (1.7)<br />
k=1<br />
0<br />
En notation matricielle, si on commet l’abus de notation qui consiste à identifier un vecteur<br />
x = (x 1 , · · · , x d ) de R d et <strong>la</strong> matrice colonne de ses coefficients dans <strong>la</strong> base canonique,<br />
l’équation (1.7) peut s’écrire<br />
0<br />
où on note<br />
⎛<br />
X t =<br />
⎜<br />
⎝<br />
X 1 t<br />
.<br />
X d t<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ , x = ⎝<br />
X t = x +<br />
∫ t<br />
0<br />
σ(s)dB s +<br />
∫ t<br />
⎞ ⎛<br />
x 1<br />
σ1(s) 1 · · ·<br />
⎟ ⎜<br />
. ⎠ , σ(s) = ⎝ . .<br />
x d σ1 d(d) · · ·<br />
0<br />
b(s)ds,<br />
⎞ ⎛ ⎞<br />
σr(s)<br />
1 b 1 (s)<br />
⎟ ⎜ ⎟<br />
. ⎠ , b(s) = ⎝ . ⎠ .<br />
σd r (s) b d (s)<br />
Considérons les processus d’Itô unidimensionnels<br />
ξ t = x +<br />
r∑<br />
k=1<br />
∫ t<br />
0<br />
σ k (s)dB k s +<br />
∫ t<br />
0<br />
b(s)ds et ¯ξt = ¯x +<br />
r∑<br />
¯σ j (s)dBs k +<br />
k=1<br />
∫ t<br />
0<br />
¯b(s)ds,<br />
pour b,¯b ∈ H1 loc et σ k , ¯σ k ∈ H2 loc.<br />
Alors le processus ∫ t<br />
b(s)ds est continu à variation finie,<br />
0<br />
tandis que le processus ∑ r<br />
∫ t<br />
k=1<br />
σ 0 k(s)dBs k est une martingale locale continue comme somme<br />
de martingales locales continues. Les processus ξ et ¯ξ sont donc des semi-martingales. Pour<br />
trouver leurs ( crochets, on remarque tout d’abord que pour chaque indice k = 1, · · · , r, le<br />
∣∣∣ ∫ t<br />
processus σ 0 k(s)dBs<br />
k ∣ 2 − ∫ )<br />
t<br />
|σ 0 k(s)| 2 ds , t ≥ 0 est une (F t )-martingale locale.<br />
Soit k ≠ l ; supposons d’abord que les processus σ k et σ l sont étagés, c’est à dire<br />
∑n−1<br />
σ k = ξk i 1 ]t i ,t i+1 ] et σ l =<br />
i=0<br />
n∑<br />
ξl i 1 ]t i ,t i+1 ], t 0 = 0 < t 1 < · · · et ξk i , ξj l<br />
F ti -mesurables.<br />
i=1<br />
Soit s < t; sans perte de généralité, on peut supposer que les instants s et t sont ajoutés à<br />
<strong>la</strong> liste des t i , avec s = t I et t = t n . Alors,<br />
(∫ t<br />
E σ k (u)dBu<br />
k<br />
0<br />
∫ t<br />
0<br />
)<br />
σ l (u)dBu<br />
l ∣<br />
∑n−1<br />
∑n−1<br />
(<br />
)<br />
∣F s = E ξk i ξ j l [Bk t i+1<br />
− Bt k i<br />
][Bt l j+1<br />
− Bt l ∣<br />
j<br />
] ∣F s<br />
=<br />
i=0 j=0<br />
∫ s<br />
0<br />
σ k (u)dB k u<br />
∫ s<br />
0<br />
σ l (u)dB l u.<br />
En effet l’indépendance de F ti , B k t i+1<br />
− B k t i<br />
et B l t i+1<br />
− B l t i<br />
, entraîne par exemple que :<br />
si I ≤ i = j, puisque E[(B k t i+1<br />
−B k t i<br />
)(B l t i+1<br />
−B l t i<br />
)|F ti ) = E[(B k t i+1<br />
−B k t i<br />
)(B l t i+1<br />
−B l t i<br />
)] = 0,<br />
on en déduit E(ξ i k ξi l E[(Bk t i+1<br />
− B k t i<br />
)(B l t i+1<br />
− B l t i<br />
)|F ti ) ∣ ∣ FtI ) = 0.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.4 Processus d’Itô de dimension d - Formule d’Itô générale 15<br />
L’indépendance de (B l t j+1<br />
− B l t j<br />
et de F tj entraîne :<br />
si i < I ≤ j, ξ i k (Bk t i+1<br />
− B k t i<br />
)E(ξ j l E(Bl t j+1<br />
− B l t j<br />
|F tj )|F tI ) = 0,<br />
si I ≤ i < j, E(ξk i(Bk t i+1<br />
− Bt k i<br />
)ξ j l E(Bl t j+1<br />
− Bt l j<br />
|F tj ) ∣ FtI ) = 0,<br />
Cette propriété s’étend ensuite à des processus σ k et σ l de H2(F 2 t ) pour lesquels on déduit<br />
que<br />
(∣ ∣∣<br />
r∑<br />
∫ t<br />
σ k (s)dBs<br />
k r∑<br />
∫<br />
∣ 2 t<br />
)<br />
− |σ k (s)| 2 ds , t ≥ 0<br />
k=1<br />
0<br />
k=1<br />
est une (F t )-martingale. Par localisation, on montre enfin que ce processus est une (F t )-<br />
martingale locale si on sait seulement que les processus σ k , 1 ≤ k ≤ r appartiennent à<br />
H2 loc (F t ).<br />
Le crochet des processus ξ et ¯ξ est donc celui de leurs parties martingales<br />
m t = ∑ r<br />
∫ t<br />
k=1<br />
σ 0 k(s)dBs k, et ¯m t = ∑ r<br />
∫ t<br />
k=1 ¯σ 0 k(s)dBs k soit<br />
∫<br />
〈ξ , ¯ξ〉<br />
t r∑<br />
t = 〈m, ¯m〉 t = σ k (s)¯σ k (s)ds.<br />
Le crochet de <strong>la</strong> martingale locale m est égal à celui de ξ, soit<br />
〈ξ , ξ〉 t = 〈m, m〉 t =<br />
∫ t<br />
0<br />
0<br />
0<br />
k=1<br />
r∑<br />
|σ k (s)| 2 ds =<br />
k=1<br />
∫ t<br />
0<br />
‖σ(s)‖ 2 ds,<br />
où ‖σ(s)‖ désigne <strong>la</strong> norme euclidienne dans R r du vecteur (σ 1 (s), · · · , σ r (s)).<br />
1.4.2 Formule d’Itô générale<br />
Les résultats de <strong>la</strong> section précédente sont résumés dans <strong>la</strong><br />
Proposition 1.28 Soit (B t ) un (F t )-Brownien standard à valeurs dans R r , (X t ) un processus<br />
d’Itô à valeurs dans R d de <strong>la</strong> forme (1.7). Alors X est à trajectoires continues. Pour<br />
chaque i = 1, · · · , d, le processus ( ∫ t<br />
0 bi (s)ds, t ≥ 0) est continu à variation finie (c’est à dire<br />
que chacune de ses composantes est à variation finie), nul en 0. Le processus ∫ t<br />
σ(s)dB 0 s est<br />
une martingale locale continue (c’est à dire que chacune de ses composantes est une martingale<br />
locale continue) nulle en 0. La décomposition est unique. Le crochet des composantes<br />
X i et X j , 1 ≤ i, j ≤ d est<br />
〈X i , X j 〉 t =<br />
∫ t<br />
0<br />
r∑<br />
σk i (s)σj k (s)ds.<br />
k=1<br />
La formule d’Itô, montrée pour un processus d’Itô réel dans le cours de <strong>Calcul</strong> <strong>Stochastique</strong><br />
1, se généralise immédiatement à des processus d’Itô multidimensionnels. Rappelons<br />
<strong>la</strong> tout d’abord en dimension 1 sous sa forme <strong>la</strong> plus simple.<br />
Théorème 1.29 Soit X t = x+ ∫ t<br />
σ(s)dB 0 s+ ∫ t<br />
b(s)ds, où x ∈ R, (B 0 t) est un (F t )-Brownien,<br />
b ∈ H1 loc , σ ∈ H2 loc . Soit f : R → R une fonction de c<strong>la</strong>sse C 2 . Alors pour tout t ≥ 0,<br />
f(X t ) = f(x) +<br />
= f(x) +<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
f ′ (X s )dX s + 1 2 f ′′ (X s )d〈X, X〉 s (1.8)<br />
∫ t<br />
[<br />
f ′ (X s )σ(s)dB s + f ′ (X s )b(X s ) + 1 ]<br />
2 f ′′ (X s )σ 2 (s) ds.<br />
0<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
16 1 Processus d’Itô de dimension quelconque<br />
On peut donc formellement poser<br />
df(X t ) = f ′ (X t )dX t + 1 2 f ′′ (X t )d〈X, X〉 t où 〈X, X〉 t =<br />
∫ t<br />
0<br />
σ 2 (s)ds.<br />
La formule d’Itô admet <strong>la</strong> version suivante en dimension quelconque, dont <strong>la</strong> démonstration<br />
simi<strong>la</strong>ire à celle en dimension 1, est omise. Notons A ∗ <strong>la</strong> transposée de <strong>la</strong> matrice<br />
A.<br />
Théorème 1.30 Soit B un (F t )-Brownien standard de dimension r, σ un processus à valeurs<br />
dans M(d, r) qui appartient à H2 loc (F t ), b un processus à valeurs dans R d qui appartient<br />
à H1 loc(F<br />
t) et x ∈ R d . Notons X t = x + ∫ t<br />
σ(s)dB 0 s + ∫ t<br />
b 0 sds le processus d’Itô défini par<br />
les équations (1.7) pour tout i = 1, · · · , d et soit f : R d → R une fonction de c<strong>la</strong>sse C 2 .<br />
Alors si on note a(s) = σ(s)σ(s) ∗ <strong>la</strong> matrice d × d définie par a i,j (s) = ∑ r<br />
k=1 σi k (s)σj k (s)<br />
pour i, j ∈ {1, · · · , d}, on a :<br />
∫ t d∑ ∂f<br />
f(X t ) = f(x) + (X s )dXs i + 1 ∫ t d∑ ∂ 2 f<br />
(X s )d〈X i , X j 〉 s (1.9)<br />
∂x i 2 ∂x i ∂x j<br />
= f(x) +<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
i=1<br />
k∑<br />
j=1<br />
d∑<br />
i=1<br />
0<br />
i,j=1<br />
∫<br />
∂f<br />
t<br />
(X s )σ i<br />
∂x<br />
jdBs j +<br />
i 0<br />
d∑<br />
i=1<br />
∂f<br />
∂x i<br />
(X s )b i (s)ds<br />
+ 1 d∑ ∂ 2 f<br />
(X s )a i,j (s)ds. (1.10)<br />
2 0 ∂x<br />
i,j=1 i ∂x j<br />
(<br />
)<br />
Notons ∂2 f<br />
∂<br />
<strong>la</strong> matrice carrée symétrique<br />
2 f<br />
∂x 2 ∂x i ∂x j<br />
, 1 ≤ i, j ≤ d , (, ) le produit sca<strong>la</strong>ire<br />
dans R d et ∂f<br />
∂f<br />
<strong>la</strong> matrice colonne dont les composantes sont les dérivées partielles<br />
∂x ∂x i<br />
. On<br />
peut alors écrire formellement <strong>la</strong> formule d’Itô<br />
( ) ∂f<br />
df(X t ) =<br />
∂x (X t), dX t + 1 (<br />
)<br />
2 Trace σ(t)σ ∗ (t) ∂2 f<br />
∂x (X t) dt.<br />
2<br />
Si <strong>la</strong> fonction f dépend aussi du temps, on a <strong>la</strong> seconde version de <strong>la</strong> formule d’Itô.<br />
Théorème 1.31 Soit B un (F t )-Brownien standard de dimension r, σ un processus à valeurs<br />
dans M(d, r) qui appartient à H2 loc(F<br />
t), b un processus à valeurs dans R d qui appartient<br />
à H1 loc (F t ) et x ∈ R d . Notons X t = x + ∫ t<br />
σ(s)dB 0 s + ∫ t<br />
b 0 sds le processus d’Itô défini par les<br />
équations (1.7) pour tout i = 1, · · · , d et soit f : [0, +∞[×R d → R une fonction de c<strong>la</strong>sse<br />
C 1,2 , c’est à dire de c<strong>la</strong>sse C 1 par rapport à <strong>la</strong> première variable t et de c<strong>la</strong>sse C 2 par rapport<br />
à <strong>la</strong> seconde variable x. Alors si a(s) = σ(s)σ(s) ∗ , on a :<br />
∫ t ∫<br />
∂f<br />
t d∑<br />
f(t, X t ) = f(0, x) +<br />
∂t (s, X ∂f<br />
s)ds + (s, X s )dXs<br />
i ∂x i<br />
+ 1 2<br />
∫ t<br />
0<br />
= f(0, x) +<br />
+<br />
∫ t<br />
0<br />
d∑<br />
0<br />
i,j=1<br />
∫ t<br />
0<br />
0<br />
i=1<br />
∂ 2 f<br />
∂x i ∂x j<br />
(s, X s )d〈X i , X j 〉 s ds (1.11)<br />
r∑<br />
k=1<br />
d∑<br />
i=1<br />
[<br />
∂f<br />
∂t (s, X s) +<br />
∂f<br />
∂x i<br />
(s, X s )σ i k (s)dBk s<br />
d∑<br />
i=1<br />
∂f<br />
∂x i<br />
(s, X s )b i (s) + 1 2<br />
d∑<br />
i,j=1<br />
]<br />
∂ 2 f<br />
(s, X s )a i,j (s) ds.<br />
∂x i ∂x j<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.5 Propriétés du Brownien. 17<br />
De nouveau, l’équation (1.11) peut s’écrire de façon compacte sous <strong>la</strong> forme<br />
df(t, X t ) = ∂f ( )<br />
∂f<br />
∂t (t, X t)dt +<br />
∂x (t, X t), dX t + 1 (<br />
)<br />
2 Trace σ(t)σ ∗ (t) ∂2 f<br />
∂x (t, X t)<br />
2<br />
dt.<br />
Un cas particulier très simple de cette formule est le résultat suivant qui est une « formule<br />
d’intégration par parties » . On <strong>la</strong> montrera comme exercice.<br />
Si f : [0, +∞[→ R est de c<strong>la</strong>sse C 1 et (B t ) est un Brownien standard unidimensionnel,<br />
∫ t<br />
0<br />
f(s)dB s = f(t)B t −<br />
∫ t<br />
0<br />
B s f ′ (s)ds.<br />
La formule d’Itô permet de montrer que si B est un Brownien standard( unidimensionnel ∫ )<br />
et si X est un processus (Ft B)-adapté, p ∈ [1+∞[ et T > 0 sont tels que E T<br />
|X 0 s| 2p ds <<br />
+∞, alors ( ∣∣∣∣ ∫ T<br />
∣ ) ∣∣∣<br />
2p (∫ T<br />
)<br />
E X s dB s ≤ [p(2p − 1)] p T p−1 E |X s | 2p ds (1.12)<br />
0<br />
On pourra montrer cette inégalité très utile dans l’exercice 1.8. Le résultat suivant renforce<br />
<strong>la</strong> conclusion. L’une des inégalités est montrée dans l’exercice 1.8.<br />
Théorème 1.32 (Théorème de Burkholder-Davies-Gundy) Pour tout p ∈ [1, +∞[ il existe<br />
des constantes universelles k p > 0 et K p > 0 (qui ne dépendent que de p) telles que toute<br />
(F t )- martingale continue M de carré intégrable et pour tout T > 0,<br />
( )<br />
k p E (〈M〉 p T ) ≤ E sup |M s | 2p ≤ K p E (〈M〉 p T ) . (1.13)<br />
1.5 Propriétés du Brownien.<br />
1.5.1 Caractérisations de Lévy<br />
0≤s≤T<br />
Remarquons que si B est un Brownien standard d-dimensionnel, pour tout i, j = 1, · · · , d<br />
les processus (B i t , t ≥ 0) et (Bi t Bj t − δ i,j t , t ≥ 0) sont des (F B t )-martingales (avec δ i,j = 0<br />
pour i ≠ j et δ i,i = 1). La démonstration est faite dans l’exercice 1.7 Nous allons montrer<br />
que ces propriétés caractérisent le Brownien, ce qui sera fondamental pour traiter des changements<br />
de probabilité. Notons (u, v) le produit sca<strong>la</strong>ire des vecteurs u, v ∈ R d et ‖u‖ <strong>la</strong><br />
norme euclidienne de u,<br />
Théorème 1.33 (Caractérisation de Paul Lévy) Soit X = (X t = (Xt 1, · · · , Xd t ), t ≥ 0) un<br />
processus (F t )-adapté à valeurs dans R d .<br />
(i) On suppose pour tout u ∈ R d , les processus X et t ↦→ exp [(u, X t ) − ‖u‖ 2 t/2] sont des<br />
(F t )-martingales. Alors, X est un (F t )-Brownien standard de dimension d.<br />
(ii) On suppose que le processus défini pour j = 1, · · · , d par M j t = X j t − X j 0 est une<br />
(F t )-martingale locale continue nulle en 0 (M0 i = 0 pour tout i) et que les crochets de M i<br />
et M j sont<br />
〈M i M j 〉 t = δ i,j t. (1.14)<br />
Alors M est un (F t )-Brownien standard de dimension d.<br />
0<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
18 1 Processus d’Itô de dimension quelconque<br />
Démonstration. (i) Il faut montrer que pour 0 ≤ s < t, le vecteur aléatoire X t − X s suit<br />
une loi N(0, (t − s)Id) et est indépendant de F s .<br />
Soit Z un vecteur gaussien de loi N(0, (t − s)Id). Puisque <strong>la</strong> fonction caractéristique<br />
caractérise <strong>la</strong> loi, il suffit de vérifier que pour tout u ∈ R d<br />
) )<br />
E<br />
(e i(u,Xt−Xs) |F s = E<br />
(e i(u,Z) = e − ‖u‖2 (t−s)<br />
2 . (1.15)<br />
En effet, supposons que (1.15) est vraie et notons Φ(x) = e i(u,x) ; pour tout A ∈ F s<br />
on a E[1 A Φ(X t − X s )] = P(A)E[Φ(Z)]. On en déduit que pour toute fonction borélienne<br />
bornée f : R d → R et tout A ∈ F s , on a E [ 1 A f(X t − X s ) ] = P(A)E[f(Z)]. Ceci prouve<br />
l’indépendance de X t − X s de <strong>la</strong> tribu F s et montre également que <strong>la</strong> loi de X t − X s est<br />
égale à celle de Z.<br />
Pour prouver (1.15), fixons tout d’abord v ∈ R d . Par hypothèse, si 0 ≤ s < t,<br />
E [ exp ( (X t − X s , v) ) (<br />
]<br />
| F s = exp −(X s , v) + ‖v‖2 t<br />
2<br />
( ‖v‖ 2 (t − s)<br />
= exp<br />
2<br />
)<br />
.<br />
)<br />
E<br />
[<br />
exp<br />
(<br />
(X t , v) − ‖v‖2 t<br />
2<br />
) ∣∣∣<br />
Fs<br />
]<br />
Un argument de récurrence finie (reposant sur le caractère analytique des deux membres de<br />
(1.15) comme fonction de l’une de variables v k ∈ C, les autres composantes de v étant fixées<br />
dans R ou C) montre que l’équation précédente s’étend du cas v ∈ R d au cas v ∈ C d . Cette<br />
égalité appliquée au vecteur v dont les composantes sont v k = iu k montre (1.15).<br />
(ii) Nous ne montrerons cette caractérisation que dans le cas où (X t ) est un processus<br />
d’Itô, c’est à dire X t = X 0 + ∫ t<br />
H(s)dB 0 s avec H ∈ H2 loc . Le cas général nécessite une notion<br />
d’intégrale stochastique plus générale que celle par rapport au Brownien présentée en <strong>Calcul</strong><br />
<strong>Stochastique</strong> 1. Pour tout j = 1, · · · , d et t > 0, le crochet de X j à l’instant t est donné par<br />
〈X j , X j 〉 t = t = ∑ r<br />
∫ t<br />
k=1 0 |Hj k (s)|2 ds, ce qui entraîne que ∑ r<br />
k=1 |Hj k (s)|2 = 1 p.s. pour presque<br />
tout s. De plus, si j ≠ l, pour tout t > 0, le crochet 〈X j , X l 〉 t = ∫ t ∑ r<br />
0 k=1 Hj k (s)Hl k (s) ds = 0,<br />
ce qui entraîne que ∑ r<br />
k=1 Hj k (s)Hl k (s) = 0 p.s. pour presque tout s. On en déduit que H ∈ H2 2<br />
et que (X t , 0 ≤ t ≤ T) est une martingale. De plus, les égalités précédentes montrent que<br />
les vecteurs (H j (s), 1 ≤ j ≤ d) forment une famille orthonormée (donc libre) de R r , ce<br />
qui entraîne d ≤ r. Pour tout A ∈ F s et λ ∈ R d , soit f(t) = E<br />
(<br />
1 A exp [i(λ, M t − M s )]<br />
D’après <strong>la</strong> partie (i), il suffit de montrer que f(t) = P(A) exp [ − ‖λ2 ‖<br />
(t −s)] . En appliquant<br />
2<br />
<strong>la</strong> formule d’Itô séparément ( à <strong>la</strong> partie réelle et à <strong>la</strong> partie imaginaire de <strong>la</strong> fonction x =<br />
(x 1 , · · ·x d ) → exp i ∑ d<br />
j=1 λj x<br />
), j on déduit que pour s < t,<br />
ce qui entraîne<br />
e i(λ,Mt)<br />
e i(λ,Mt−Ms) = 1 + i<br />
d∑<br />
j=1 k=1<br />
= e i(λ,Ms) + i<br />
−<br />
d∑<br />
j,l=1 k=1<br />
d∑<br />
j=1 k=1<br />
∫ t<br />
r∑ λ j λ l<br />
2<br />
r∑<br />
∫ t<br />
λ j e i(λ,Mu) H j k (u)dBk u<br />
r∑<br />
∫ t<br />
λ j e i(λ,Mu−Ms) H j k (u)dBk u −<br />
s<br />
s<br />
s<br />
e i(λ,Mu) H j k (s)Hl k (u)du,<br />
d∑ |λ j | 2<br />
j=1<br />
2<br />
∫ t<br />
s<br />
e i(λ,Mu−Ms) du.<br />
)<br />
.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.5 Propriétés du Brownien. 19<br />
Les intégrales stochastiques ( ∫ t<br />
s ei(λ,Mu−Ms) H j k (u)dBk u , t ≥ s) sont des martingales pour tout<br />
j = 1, · · · , d et k = 1, · · · , r, et sont indépendantes de F s . En utilisant le théorème de Fubini,<br />
on en déduit<br />
( ∫ t<br />
) ∫ t<br />
f(t) = P(A) − ‖λ‖2<br />
2 E 1 A e i(λ,Mu−Ms) du = P(A) − ‖λ‖2 f(u)du.<br />
2<br />
s<br />
Puisque f ′ (t) = − ‖λ‖2 f(t) pour t ≥ s et que f(s) = P(A), nous avons établi que pour tout<br />
2<br />
t ≥ s, f(t) = P(A) exp(− ‖λ2 ‖<br />
(t − s)). ✷<br />
2<br />
1.5.2 Propriétés de Markov<br />
Une propriété fondamentale du Brownien est <strong>la</strong> propriété de Markov, qui traduit le fait<br />
que ce qui se passe après l’instant t (c’est à dire dans le futur à l’instant t) ne dépend pas<br />
de toute <strong>la</strong> tribu F t des évènements du « passé » , mais seulement de l’état B t à l’instant t.<br />
Décrivons tout d’abord le passage d’un instant s à un instant t ≥ s.<br />
Définition 1.34 Une probabilité de transition sur R d est une application Π : R d × R d →<br />
[0, 1] telle que<br />
(i) pour tout x ∈ R d , l’application A ∈ R d → Π(x, A) est une probabilité.<br />
(ii) pour tout A ∈ R d , x ∈ R d → Π(x, A) est mesurable de (R d , R d ) dans ([0, 1], B([0, 1]).<br />
Une fonction de transition sur R d est une famille (P s,t , 0 ≤ s < t) de probabilités de transition<br />
telle que si s < t < v l’équation de Chapman-Kolmogorov soit satisfaite :<br />
∫<br />
P s,t (x, dy)P t,v (y, A) = P s,v (x, A) , ∀A ∈ R d , ∀x ∈ R d . (1.16)<br />
Pour toute fonction f : R d → R borélienne positive (ou bornée) on note<br />
∫<br />
P s,t f(x) = f(y) P s,t (x, dy).<br />
R d<br />
Si <strong>la</strong> fonction de transition P s,t ne dépend que de t − s, on dit qu’elle homogène et dans ce<br />
cas, si on note P t = P 0,t , l’équation (1.16) s’écrit<br />
∫<br />
P s+t (x, A) = P s (x, dy)P t (y, A).<br />
Pour toute fonction f : R d → R borélienne positive (ou bornée), on a P s+t f(x) = P t<br />
(<br />
Ps f(x) )<br />
et on dit que (P t ) est un semi-groupe.<br />
L’équation (1.16) est naturelle. En effet, si X est un processus et (x, A) ∈ R d × R d →<br />
P s,t (x, A) est une probabilité de transition tels que pour tout A ∈ R d et s < t,<br />
∫<br />
P(X t ∈ A|σ(X u , u ≤ s)) = P s,t (X s , A) = 1 A (y) P s,t (x, dy) p.s.,<br />
on en déduit E(f(X t )|σ(X u , u ≤ s)) = ∫ R d f(y)P s,t (X s , dy) pour toute fonction borélienne<br />
f : R d → R positive (ou bornée). Pour s < t < v, A ∈ R d et f(y) = P t,v (y, A), on en déduit<br />
P s,v (X s , A) = P(X v ∈ A|σ(X u , u ≤ s))<br />
= E [ P(X v ∈ A|σ(X u , u ≤ t) | σ(X u , u ≤ s) ]<br />
= E [ f(X t )|σ(X u , u ≤ s) ] ∫<br />
= P s,t (X s , dy)P t,v (y, A).<br />
Ces notions permettent de formuler précisément <strong>la</strong> propriété de Markov « faible ».<br />
s<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
20 1 Processus d’Itô de dimension quelconque<br />
Définition 1.35 (1) Un processus (X t , t ≥ 0) à valeurs dans R d et adapté à <strong>la</strong> filtration<br />
(F t ) est un processus de Markov pour cette filtration si pour toute fonction borélienne bornée<br />
f : R d → R,<br />
E ( f(X t ) | F s ) = E ( f(X t ) | X s ) pour tout s ≤ t. (1.17)<br />
(2) Un processus (X t , t ≥ 0) à valeurs dans R d et adapté à <strong>la</strong> filtration (F t ) est un processus<br />
de Markov pour cette filtration de fonction de transition P s,t si pour toute fonction borélienne<br />
bornée f : R d → R,<br />
E [ ∫<br />
]<br />
f(X t ) | F s = Ps,t f(X s ) := P s,t (X s , dy)f(y). (1.18)<br />
R d<br />
On dit que le processus de Markov est homogène si sa fonction de transition est homogène.<br />
Nous allons montrer que le mouvement Brownien est un processus de Markov homogène<br />
de semi-groupe de transition P h défini pour s ≥ 0, h > 0, x ∈ R d et A ∈ R d par :<br />
∫<br />
)<br />
1<br />
‖y − x‖2<br />
P h (x, A) = P(B s+h ∈ A|B s = x) = exp<br />
(− dy,<br />
(2πh) d 2 A 2h<br />
c’est à dire que P h (x, dy) est <strong>la</strong> loi d’un vecteur gaussien N(x, hId).<br />
Théorème 1.36 (Propriété de Markov simple) Soit (B t ) un mouvement Brownien standard<br />
d-dimensionnel et f : R d → R une fonction borélienne bornée. Alors pour tout s ≤ t,<br />
∫<br />
E[f(B t ) | Fs B ] = E[f(B 1<br />
t) | B s ] =<br />
f(y) exp<br />
(− ‖y − B )<br />
s‖ 2<br />
dy.<br />
(2π(t − s)) d 2 R 2(t − s)<br />
d<br />
Démonstration. La démonstration repose sur le lemme suivant :<br />
Lemme 1.37 Soit F une tribu et G une sous-tribu de F, X : (Ω, G) → (E 1 , E 1 ) une<br />
application G-mesurable et Y : (Ω, F) → (E 2 , E 2 ) une application F-mesurable indépendante<br />
de G. Alors, pour toute fonction Φ : (E 1 × E 2 , E 1 ⊗ E 2 ) → (R, R) bornée,<br />
E(Φ(X, Y )|G) = ϕ(X), où ϕ : (E 1 , E 1 ) → (R, R) est définie par ϕ(x) = E[Φ(x, Y )].<br />
Démonstration du Lemme Pour toute application mesurable V : (Ω, F) → (E, E),<br />
notons P (V ) <strong>la</strong> mesure image de P par V . D’après <strong>la</strong> définition de P (Y ) et le Théorème de<br />
Fubini, ϕ est telle que ϕ(x) = ∫ E 2<br />
Φ(x, y)dP (Y ) (y) et est bornée, mesurable de (E 1 , E 1 ) dans<br />
(R, R). De plus, si Z : (Ω, G) → (R, R) est G-mesurable bornée, l’indépendance de Y et<br />
(X, Z) et le théorème de Fubini entraînent<br />
E [ Φ(X, Y )Z ] ∫ ∫<br />
= Φ(x, y) z dP (X,Z) (x, z) dP (Y ) (y)<br />
∫ (∫<br />
)<br />
= Φ(x, y)dP (Y ) (dy) z dP (X,Z) (x, z)<br />
∫<br />
= ϕ(x) zdP (X,Z) (x, z) = E [ ϕ(X)Z ] ,<br />
ce qui termine <strong>la</strong> démonstration.<br />
✷<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.5 Propriétés du Brownien. 21<br />
Soit s < t; appliquons le lemme précédent avec E 1 = E 2 = R d , G = F s , F = F t , X = B s<br />
et Y = B t − B s . Nous en déduisons que pour toute fonction borélienne bornée f : R d → R,<br />
E [ ]<br />
f(B t )|F s = ϕ(Bs ) où ϕ(x) = E [ f(x + B t − B s ) ] . Un calcul simi<strong>la</strong>ire avec G = σ(B s ) et<br />
F = F t pour les mêmes variables aléatoires X = B s et Y = B t − B s permet de conclure<br />
E [ ]<br />
f(B t )|B s = ϕ(Bs ). La loi de B t − B s étant gaussienne N(0, (t − s)Id), ceci termine <strong>la</strong><br />
démonstration. ✷<br />
Corol<strong>la</strong>ire 1.38 Soit τ un (F t )-temps d’arrêt fini presque sûrement et B un (F t )-Brownien<br />
standard de dimension d. Alors le processus (M t = B τ+t − B τ , t ≥ 0) est un (F τ+t , t ≥ 0)-<br />
Brownien standard indépendant de F τ .<br />
Démonstration. Supposons tout d’abord que τ ≤ C p.s. et notons G t = F τ+t pour tout<br />
t ≥ 0. Alors (G t ) est une filtration et le Théorème d’arrêt 1.7 montre que si (X t ) est une<br />
(F t )-martingale et si on note Y t = X τ+t , Y t est intégrable et pour s < t, E(Y t |G s ) =<br />
E(X τ+t |F τ+s ) = X τ+s = Y s , c’est à dire que (Y t ) est une (G t )-martingale.<br />
Il faut montrer que si 0 ≤ s < t, le vecteur aléatoire M t − M s suit une loi N(0, (t −<br />
s)Id) et est indépendant de G s . Un argument utilisé dans <strong>la</strong> démonstration du théorème<br />
de caractérisation du Brownien de Paul Lévy montre qu’il suffit de vérifier que pour tout<br />
u ∈ R d l’équation (1.15) est satisfaite.<br />
Fixons u ∈ R d et notons f(x) = e i(u,x) pour tout x ∈ R d . Alors |f| = 1 et en décomposant<br />
f en partie réelle et partie imaginaire, <strong>la</strong> propriété de Markov et <strong>la</strong> définition du Brownien<br />
montrent<br />
)<br />
(t − s)‖u‖2<br />
E(exp(i(u, B t )|F s ) = E(exp(i(u, B t )|B s ) = exp(i(u, B s )) exp<br />
(− .<br />
2<br />
On en déduit que le processus X t = exp ( i(u, B t ) + t‖u‖ 2 /2) est une (F t )-martingale, et<br />
d’après <strong>la</strong> remarque précédente, que (Y t = X τ+t , t ≥ 0) est une (G t )-martingale. Pour tout<br />
s ≤ t, on a donc<br />
(<br />
Yt<br />
∣ )<br />
∣∣Gs<br />
E = E(Y t|G s )<br />
= Y s<br />
,<br />
Y 0 Y 0 Y 0<br />
ce qui prouve que ( Y t<br />
Y 0<br />
= exp(i(u, M t ) + t‖u‖ 2 /2), t ≥ 0 ) est une (G t )-martingale. Donc pour<br />
s ≤ t,<br />
∣ ) (<br />
)<br />
E<br />
(e i(u,Mt−Ms) ∣∣Gs<br />
t‖u‖2<br />
i(u,Mt)+ ∣<br />
t‖u‖2<br />
−i(u,Ms)−<br />
= E e 2<br />
∣G s e 2 = e −(t−s)‖u‖2 2 ,<br />
ce qui termine <strong>la</strong> démonstration de (1.15) lorsque τ est borné p.s.<br />
Soit τ un temps d’arrêt presque sûrement fini; pour conclure, il suffit d’écrire (1.15) pour<br />
<strong>la</strong> suite de temps d’arrêt τ ∧ n et de faire tendre n vers +∞. ✷.<br />
On en déduit une propriété simi<strong>la</strong>ire à <strong>la</strong> propriété de Markov simple (Théorème 1.36)<br />
en remp<strong>la</strong>çant les temps fixes par des temps d’arrêt.<br />
Théorème 1.39 (Propriété de Markov forte) Soit B un (F t )-Brownien standard à valeurs<br />
dans R d et τ un (Ft B )-temps d’arrêt fini presque sûrement; alors pour tout t > 0,<br />
∫<br />
1<br />
E[f(B τ+t ) | F τ ] = E[f(B τ+t ) | B τ ] = f(y) exp<br />
(− ‖y − B )<br />
τ‖ 2<br />
dy. (1.19)<br />
(2πt) d 2 R 2t<br />
d<br />
Démonstration. Le lemme 1.37 appliqué à X = B τ , Y = B τ+t − B τ , G = F τ (ou bien<br />
G = σ(X τ )), F = F t+τ et le Corol<strong>la</strong>ire 1.38 montrent que, puisque (B τ+t −B τ , t ≥ 0) est un<br />
Brownien indépendant de F τ , <strong>la</strong> propriété de Markov forte (1.19) est satisfaite. ✷<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
22 1 Processus d’Itô de dimension quelconque<br />
1.6 Exercices<br />
Exercice 1.1 Montrer qu’une martingale locale M arrêtée est encore une martingale locale.<br />
Exercice 1.2 Soit (M t ) un processus cad<strong>la</strong>g (F t )-adapté. Montrer que c’est une (F t )-<br />
martingale si et seulement si pour tout temps d’arrêt borné T, M T ∈ L 1 et E(M T ) = E(M 0 ).<br />
Exercice 1.3 Soit (X t , 0 ≤ t ≤ T) une (F t )-surmartingale, c’est à dire que si 0 ≤ s ≤ t ≤ T,<br />
X s ≥ E(X t |F s ), telle que E(X T ) = E(X 0 ). Montrer que (X t ) est une martingale.<br />
Exercice 1.4 Soit (M t ) une (F t )-martingale locale. Monter que<br />
(i) Si M t est positive, c’est une surmartingale.<br />
(ii) S’il existe Y ∈ L 1 telle que |M t | ≤ Y p.s., alors (M t ) est une martingale.<br />
Exercice 1.5 Soit B un mouvement Brownien réel et (Ft B ) sa filtration naturelle.<br />
(i) Caractériser les valeurs de α ∈ R telles que le processus défini par I t = ∫ t<br />
|B 0 s| α dB s<br />
est une (Ft B)-martingale.<br />
(ii) En admettant que, si on note ψ(t) = √ 2 ln(ln(1/t)) pour 0 < t < 1 , lim sup e t→0 Bt<br />
= ψ(t)<br />
B<br />
+1 et lim inf t t→0 = −1, caractériser les valeurs de α telles que le processus I précédent<br />
ψ(t)<br />
est une (Ft B )-martingale locale.<br />
Exercice 1.6 Soit B un (F t )-Brownien, X t = x+ ∫ t<br />
σ 0 sdB s + ∫ t<br />
b 0 sds et ¯X t = ¯x+ ∫ t<br />
∫ ¯σ(s)dB 0 s+<br />
t ¯b 0 s ds des processus d’Itô. Récrire X t Y t comme une semi-martingale.<br />
Exercice 1.7 Soit (Bt 1, · · · , Br t ) un Brownien standard de dimension r.<br />
1. Soit X et Y des variables aléatoires réelles, G une sous-tribu de F telle que les tribus<br />
σ(X), σ(Y ) et G sont indépendantes. Montrer que E(XY |G) = E(X)E(Y ) p.s.<br />
2. En déduire que pour s < t, lorsque i ≠ j on a E(BtB i j ∣<br />
t Fs ) = BsB i s.<br />
j<br />
3. En déduire que 〈B i , B j 〉 t = δ i,j t.<br />
4. Montrer que pour tout u = (u 1 , · · · , u r ) ∈ R r ,<br />
(<br />
)<br />
E e (u,Bt)−1 2 ‖u‖2 t∣<br />
∣F s = e (u,Bs)−1 2 ‖u‖2s .<br />
Exercice 1.8 Soit (X t ) un processus (F t )-adapté et T > 0 tel que E<br />
pour p ∈ [1, +∞[.<br />
( ∫ )<br />
T<br />
|X 0 s| 2p ds < +∞<br />
1. En appliquant <strong>la</strong> formule d’Itô à M t = ∫ t<br />
X 0 sdB s , montrer qu’il existe une suite croissante<br />
(T n ) de temps d’arrêt qui tendent vers +∞ tels que<br />
(∫ T<br />
)<br />
E(M 2p<br />
T ∧T n<br />
) = p(2p − 1)E |M t∧Tn | 2(p−1) Xt∧T 2 n<br />
dt .<br />
2. La fonction t → E(|M t∧Tn | 2p ) est-elle monotone? En déduire que<br />
(∫ T ∧Tn<br />
)<br />
E(|M T ∧Tn | 2p ) ≤ [p(2p − 1)] p T p−1 E |X s | 2p ds<br />
puis que<br />
(∫ T<br />
E(|M T | 2p ) ≤ [p(2p − 1)] p T p−1 E<br />
0<br />
0<br />
0<br />
)<br />
|X s | 2p ds .<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
1.6 Exercices 23<br />
3. En appliquant l’inégalité de Doob, montrer qu’il existe une constante K p que l’on<br />
explicitera telle que<br />
( ) (∫ T<br />
E sup |M t | 2p ≤ K p E<br />
0≤s≤T<br />
0<br />
)<br />
|X s | 2p ds .<br />
Exercice 1.9 Soit (X t ) un processus (F t )-adapté continu, positif tel que X 0 = 0, (A t ) un<br />
processus croissant continu (F t )-adapté tel que pour tout temps d’arrêt T, E(X T ) ≤ E(A T ).<br />
Pour tout t ≥ 0, on note V t = sup 0≤s≤t X s .<br />
1. Montrer que pour tout temps d’arrêt T et tout ǫ > 0, P(V T ≥ ǫ) ≤ 1 ǫ E(A T). (On<br />
pourra utiliser τ ε = inf{t ≥ 0 : X t ≥ ε} et T n = T ∧ n ∧ τ ε .)<br />
2. Montrer que pour tout temps d’arrêt T, et tout δ > 0, ǫ > 0, si S = inf{t ≥ 0 : A t ≥<br />
δ}, P(V T ≥ ǫ, A T ≤ δ) ≤ P(V T ∧S ≥ ε) ≤ 1 ǫ E(δ ∧ A T).<br />
3. Soit F : [0, +∞[→ [0, ∞[ une fonction dérivable, strictement croissante telle que<br />
F(0) = 0 et pour tout x > 0, u → F ′ (u)<br />
1 u [x,+∞[(u) ∈ L 1 (λ), où λ désigne <strong>la</strong> mesure de<br />
Lebesgue. Notons G :]0, +∞[→]0, +∞[ <strong>la</strong> fonction définie par<br />
(a) Montrer que G ′ (x) = F ′ (x) + ∫ +∞<br />
x<br />
(b) Montrer que<br />
E(F(V T )) =<br />
≤<br />
∫ +∞<br />
0<br />
∫ +∞<br />
0<br />
∫ +∞<br />
F ′ (u)<br />
G(x) = 2F(x) + x du.<br />
x u<br />
≤ E(G(A T )).<br />
F ′ (u)<br />
u<br />
P(V T ≥ u)F ′ (u)du<br />
du.<br />
2P(A T ≥ u)F ′ (u)du +<br />
∫ +∞<br />
0<br />
1<br />
u E( )<br />
A T 1 {AT ≤u} F ′ (u)du<br />
En déduire que si p ∈]0, 1[, pour tout temps d’arrêt T, E(V p<br />
T ) ≤ 2−p<br />
1−p E(Ap T ).<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
24 2 Équations différentielles stochastiques<br />
2<br />
Équations différentielles stochastiques<br />
Ces processus, qui généralisent les équations différentielles ordinaires, sont fondamentaux<br />
en finance. Ils modélisent le prix d’actifs financiers.<br />
Rappelons qu’une équation différentielle ordinaire (EDO) sur [0, +∞[×R est du type<br />
y ′ t = f(t, y t ) et y 0 = y, (2.1)<br />
où y : [0, +∞[→ R est <strong>la</strong> fonction inconnue et f : [0, +∞[×R → R est une fonction<br />
donnée. L’étude mathématique des équations différentielles ordinaires est d’une importance<br />
considérable pour les applications notamment en physique. En général, il est impossible de<br />
donner une solution explicite à une EDO. On peut cependant chercher à savoir s’il existe<br />
une solution et si elle est unique. Un critère est le :<br />
Théorème 2.1 (Théorème de Cauchy-Lipschitz) Supposons qu’il existe une constante K ><br />
0 telle que pour tout t ∈ [0, +∞[, x, y ∈ R :<br />
{ |f(t, x) − f(t, y)| ≤ K|x − y| (condition de Lipschitz globale),<br />
|f(t, x)| ≤ K(1 + |x|) (condition de croissance linéaire).<br />
Alors l’EDO (2.1) a une solution unique définie sur [0, +∞[.<br />
La condition de Lipschitz globale est assez naturelle pour que <strong>la</strong> solution soit définie sur<br />
tout [0, +∞[. Si on considère par exemple y 0 = 1 et f(t, y) = y 2 , alors on voit facilement que<br />
l’unique solution de l’équation (2.1) correspondante est y t = 1/(1 − t), et que cette solution<br />
« explose » en t = 1.<br />
Une équation différentielle stochastique (EDS) est une perturbation de (2.1) avec un<br />
terme aléatoire modélisant un « bruit » autour du phénomène déterministe décrit par (2.1).<br />
La perturbation <strong>la</strong> plus simple est l’ajout d’un Brownien. Ceci modélise le fait que sur des<br />
intervalles de temps disjoints, les perturbations sont <strong>la</strong> somme de très nombreuses « petites »<br />
variables aléatoires indépendantes de même loi (qui, d’après le théorème central limite,<br />
convenablement renormalisée suit une loi « proche » d’une loi gaussienne). 0n considère<br />
donc l’équation dY t = f(t, Y t )dt+σdB t et Y 0 = y, soit, sous forme intégrale (<strong>la</strong> seule qui ait<br />
un sens mathématique, puisque le Brownien n’est pas dérivable) :<br />
Y t = y +<br />
∫ t<br />
0<br />
f(s, Y s )ds + σB t<br />
pour tout t ≥ 0. On a coutume d’utiliser des majuscules pour les solutions d’EDS et des<br />
minuscules pour les solutions d’EDO.<br />
La trajectoire y de l’EDO (2.1) est régulière et déterministe. La présence du Brownien<br />
entraîne que pour « σ petit », <strong>la</strong> trajectoire de l’EDS précédente, non dérivable, est proche<br />
de celle de (2.1), en oscil<strong>la</strong>nt aléatoirement autour. Mais quand σ est grand, cette trajectoire<br />
n’a plus rien à voir avec celle de (2.1).<br />
La figure suivante montre les trajectoires sur [0, 2] de <strong>la</strong> solution de l’EDO<br />
y ′ t = −y t, et y 0 = 5<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.1 Solution forte - Diffusion. 25<br />
(c’est à dire y t = 5e −t ) et des EDS<br />
Y t = 5 −<br />
∫ t<br />
avec σ = 0.4 et σ = 2 obtenues par simu<strong>la</strong>tion.<br />
0<br />
Y s ds + σB t<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0<br />
2.1 Solution forte - Diffusion.<br />
Dans <strong>la</strong> suite, nous étudierons donc des Équations Différentielles <strong>Stochastique</strong>s (EDS),<br />
dont <strong>la</strong> définition précise est <strong>la</strong> suivante.<br />
On se donne de nouveau une filtration (F t ) continue à droite et formée de tribus<br />
complètes (mais on ne suppose pas nécessairement que F 0 est <strong>la</strong> tribu des ensembles négligeables),<br />
un (F t )-Brownien B à valeurs dans R r , une variable aléatoire ξ à valeurs dans R d indépendante<br />
de Fs B = σ(B s , s ≥ 0), des fonctions boréliennes<br />
σ : [0, +∞[×R d → M(d, r) ∼ R dr et b : [0, +∞[→ R d .<br />
On appelle Équation Différentielle <strong>Stochastique</strong> (EDS) de condition initiale ξ, de coefficient<br />
de diffusion σ et de coefficient de dérive b un processus X tel que pour tout t ≥ 0,<br />
X t = ξ +<br />
∫ t<br />
0<br />
σ(s, X s )dB s +<br />
L’équation (2.2) sera aussi notée<br />
{ dXt = σ(t, X t )dB t + b(s, X s )ds,<br />
X 0 = ξ.<br />
∫ t<br />
0<br />
b(s, X s )ds. (2.2)<br />
On s’intéresse tout d’abord à l’existence et l’unicité de solutions au sens fort.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
26 2 Équations différentielles stochastiques<br />
Définition 2.2 Soit B un Brownien donné, ξ une variable aléatoire indépendante de <strong>la</strong><br />
tribu σ(B s , s ≥ 0) et soit (F t ) <strong>la</strong> filtration définie par les tribus F t qui sont pour tout t ≥ 0<br />
les complétées de σ(σ(B s , 0 ≤ s ≤ t), σ(ξ)). Une solution forte de (2.2) est un processus<br />
(X t ) à trajectoires presque sûrement continues tel que<br />
(i) (X t ) est adapté à <strong>la</strong> filtration (F t ),<br />
(ii) X 0 = ξ p.s.<br />
(iii) Pour tout i = 1, · · · , d, ∫ t<br />
0<br />
(iv) Pour tout t ≥ 0, et tout i = 1, · · · , d,<br />
X i t = Xi 0 + r∑<br />
k=1<br />
[<br />
|b i (s, X s )| + ∑ r<br />
k=1 |σi k (s, X s)| 2] ds < +∞ p.s.<br />
∫ t<br />
0<br />
∫ t<br />
σk i (s, X s)dBs k + b i (s, X s )ds.<br />
Le théorème suivant est fondamental; il donne des conditions suffisantes d’existence<br />
et d’unicité d’une solution forte de (2.2), calquées sur celles de l’existence de <strong>la</strong> solution<br />
d’EDO (2.1). On note |.| <strong>la</strong> norme euclidienne sur R d ou R d×r . Les conditions suivantes sur<br />
les coefficients répliquent celles imposées pour résoudre une EDO.<br />
0<br />
Définition 2.3 Soit T > 0. Une fonction ϕ : [0, T] × R d → R N satisfait<br />
(i) La condition de Lipschitz globale sur [0, T] s’il existe une constante C > 0 telle que<br />
|ϕ(t, x) − ϕ(t, y)| ≤ C|x − y| , ∀t ∈ [0, T], ∀x, y ∈ R d . (2.3)<br />
(ii) La condition globale de restriction sur <strong>la</strong> croissance sur [0, T] s’il existe C > 0 telle<br />
que<br />
|ϕ(t, x)| ≤ C(1 + |x|) , ∀t ∈ [0, T], ∀x, y ∈ R d . (2.4)<br />
Lorsque <strong>la</strong> fonction ϕ est définie sur [0, +∞[×R d et que les conditions (2.3) et (2.4) sont<br />
vérifiées sur chaque intervalle [0, T], on dit que ϕ vérifie les conditions globales de Lipschitz<br />
et de restriction sur <strong>la</strong> croissance.<br />
On remarque immédiatement, que si ϕ est globalement Lipschitzienne, <strong>la</strong> condition (2.4)<br />
de restriction sur <strong>la</strong> croissance est une conséquence immédiate de<br />
sup |ϕ(t, 0)| < +∞.<br />
t≥0<br />
La démonstration du théorème suivant d’existence et d’unicité repose sur le lemme de Gronwall.<br />
Lemme 2.4 (Lemme de Gronwall) Soit f : [0, T] → [0, M] une fonction borélienne positive<br />
bornée, a et b ≥ 0 des constantes réelles telles que pour tout t ∈ [0, T]<br />
Alors pour tout t ∈ [0, T], f(t) ≤ a e bt .<br />
f(t) ≤ a +<br />
∫ t<br />
0<br />
bf(s)ds.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.1 Solution forte - Diffusion. 27<br />
Démonstration. Il suffit d’itérer <strong>la</strong> majoration sous l’intégrale. On en déduit pour tout n ≥ 1<br />
∫ t<br />
( ∫ s<br />
)<br />
f(t) ≤ a + b a + b f(u) du ds<br />
0 0<br />
∫<br />
≤ a + abt + b 2 f(u) du ds<br />
0≤u≤s≤t<br />
∫ ( ∫ u<br />
)<br />
≤ a + abt + b 2 a + b f(v) dv du ds<br />
0≤u≤s≤t 0<br />
∫<br />
∫ t ∫ s ∫ u<br />
≤ a + abt + ab 2 du ds + b 3 f(v) dv du ds<br />
0≤u≤s≤t<br />
≤ a + abt + a b2 t 2<br />
+ · · · + a bn t n<br />
2! n!<br />
0<br />
0<br />
0<br />
+ M bn+1 t n+1<br />
(n + 1)! ,<br />
où dans <strong>la</strong> dernière intégrale on a majoré <strong>la</strong> fonction f par M. La dernière majoration de f<br />
donne f(t) ≤ a e bt par passage à <strong>la</strong> limite en n. ✷<br />
On peut cependant affaiblir les hypothèses en ne demandant qu’une hypothèse de Lipschitz<br />
« locale » de ceux-ci, mais en gardant une restriction sur <strong>la</strong> croissance globale.<br />
Définition 2.5 La fonction ϕ satisfait <strong>la</strong> condition de Lipschitz locale sur [0, T] par rapport<br />
à <strong>la</strong> variable spatiale x si pour tout n ≥ 1 il existe K n > 0 tel que pour tout t ∈ [0, T] et<br />
x, y ∈ R d :<br />
|ϕ(t, x) − ϕ(t, y)| ≤ K n |x − y| pour |x| ≤ n et |y| ≤ n. (2.5)<br />
Si ϕ est définie sur [0, +∞[ et satisfait <strong>la</strong> condition de Lipschitz locale (2.5) sur chaque<br />
intervalle [0, T] avec une suite de constantes K n qui ne dépend pas de T, on dit qu’elle est<br />
localement Lipschitzienne.<br />
Théorème 2.6 (Théorème d’existence et d’unicité forte) Soit σ et b des coefficients qui satisfont<br />
sur [0, +∞[ les conditions globales de Lipschitz (2.3) et de restriction sur <strong>la</strong> croissance<br />
(2.4). Alors, si B est un Brownien standard de dimension r, pour toute variable aléatoire<br />
X 0 de carré intégrable et indépendante de σ(B s , s ≥ 0) il existe une unique solution forte de<br />
l’EDS<br />
X t = X 0 +<br />
∫ t<br />
0<br />
σ(s, X s )dB s +<br />
∫ t<br />
0<br />
b(s, X s )ds p.s. , ∀t ≥ 0. (2.6)<br />
Cette solution forte X de (2.6), adaptée à <strong>la</strong> filtration (F t ) où F t est <strong>la</strong> tribu complétée de<br />
σ(X 0 , σ(B s , 0 ≤ s ≤ t)), est continue. De plus, il existe une constante ˜C(C, T) telle que pour<br />
tout t ≥ 0 : ( )<br />
E sup |X s | 2 ≤ ˜C(C, T)e ˜C(C,T)t [1 + E(|X 0 | 2 )]. (2.7)<br />
0≤s≤t<br />
Si <strong>la</strong> condition initiale X 0 ∈ L p , 2 ≤ p < +∞, il existe une constante ¯C(C, T, p) telle que<br />
( )<br />
E sup |X t | p < ¯C(C, T, p)[1 + E(|X 0 | p )]. (2.8)<br />
0≤t≤T<br />
Démonstration. Fixons un instant T > 0 quelconque et prouvons l’existence et l’unicité de<br />
<strong>la</strong> solution forte sur l’intervalle [0, T].<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
28 2 Équations différentielles stochastiques<br />
Unicité Nous supposons ici seulement <strong>la</strong> condition (2.5). Soit X et ¯X des solutions fortes<br />
(donc continues) de (2.6). Pour tout n ≥ 0, soit τ n = inf{t ≥ 0 : |X t | ≥ n}, ¯τ n = inf{t ≥<br />
0 : | ¯X t | ≥ n} et T n = τ n ∧ ¯τ n . Alors, T n → ∞ p.s. De plus,<br />
X t∧Tn − ¯X t∧Tn =<br />
∫ t∧Tn<br />
0<br />
[<br />
σ(s, Xs ) − σ(s, ¯X s ) ] ∫ t∧Tn<br />
[<br />
dB s + b(s, Xs ) − b(s, ¯X<br />
]<br />
s ds.<br />
L’isométrie des intégrales stochastiques et l’inégalité de Schwarz entraînent que si pour toute<br />
matrice σ de type d × r on note ‖σ‖ 2 = ∑ d ∑ r<br />
i=1 k=1 |σi k |2 , on a tout t ∈ [0, T n ],<br />
⎛<br />
d∑<br />
E(|X t∧Tn − ¯X t∧Tn | 2 ) ≤ 2E ⎝<br />
r∑<br />
∫ t∧Tn<br />
[σk i ∣<br />
(s, X s) − σk i (s, ¯X ⎞ 2<br />
s )] dBs<br />
k ⎠<br />
i=1 k=1<br />
0<br />
∣<br />
( ∣∣∣∣ ∫ t∧Tn<br />
+ 2E [b(s, X s ) − b(s, ¯X ) 2<br />
s )] ds<br />
∣<br />
≤ 2E<br />
∫ t∧Tn<br />
0<br />
≤ 2(T + 1)K 2 n<br />
0<br />
‖σ(s, X s ) − σ(s, ¯X s )‖ 2 ds + 2tE<br />
∫ t<br />
0<br />
E ( |X s∧Tn − ¯X s∧Tn | 2) ds.<br />
0<br />
∫ t∧Tn<br />
0<br />
|b(s, X s ) − b(s, ¯X s )| 2 ds<br />
Le Lemme de Gronwall appliqué à <strong>la</strong> fonction continue f(t) = E(|X t∧Tn − ¯X t∧Tn | 2 ) permet<br />
de conclure que les processus X t∧Tn et ¯X t∧Tn sont indistinguables. En faisant tendre n vers<br />
l’infini, on en déduit que X et ¯X sont également indistinguables.<br />
Existence Afin de mettre les idées en évidence et de simplifier les notations, nous supposerons<br />
r = d = 1.<br />
On construit une solution comme pour les EDO par itération de Picard. Soit X (n) une<br />
suite de processus définis par :<br />
X (0)<br />
t<br />
= X 0 , ∀t ∈ [0, T],<br />
X (n+1)<br />
t = X 0 +<br />
∫ t<br />
0<br />
σ(X (n)<br />
s )dB s +<br />
∫ t<br />
(i) Montrons par récurrence que pour tout entier n ≥ 0,<br />
0<br />
b(X (n)<br />
s )ds, ∀n ≥ 0, ∀t ∈ [0, T]. (2.9)<br />
sup E(|X (n)<br />
t | 2 ) < +∞. (2.10)<br />
0≤t≤T<br />
En utilisant <strong>la</strong> restriction sur <strong>la</strong> croissance (2.4), on en déduira que les processus X (n) sont<br />
bien définis puisque b(t, X (n)<br />
t<br />
) ∈ H T 1 (F t) et σ(t, X (n)<br />
t ) ∈ H T 2 (F t). Puisque X 0 ∈ L 2 , (2.10)<br />
est vraie pour n = 0. Supposons que (2.10) est vraie pour n et montrons que cette propriété<br />
est vraie pour n + 1. Pour tout t ∈ [0, T], l’inégalité de Schwarz, l’isométrie dans L 2 des<br />
intégrales stochastiques, <strong>la</strong> condition (2.4) et le théorème de Fubini entraînent<br />
(<br />
E(|X (n+1)<br />
t | 2 ) ≤ 3 E(|X 0 | 2 ) + T<br />
∫ t<br />
∫ t<br />
≤ 3<br />
(E(|X 0 | 2 ) + 3(T + 1) C 2<br />
0<br />
E(|b(s, X (n)<br />
s )| 2 )ds +<br />
0<br />
∫ t<br />
[<br />
1 + E(|X<br />
(n)<br />
s | 2] ds<br />
0<br />
)<br />
E(|σ(s, X s<br />
(n) )| 2 )ds<br />
)<br />
,<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.1 Solution forte - Diffusion. 29<br />
ce qui prouve (2.10).<br />
(ii) Pour tout n ≥ 1,<br />
sup<br />
n≥1<br />
sup<br />
t∈[0,T]<br />
E(|X (n)<br />
t | 2 ) ≤ K[1 + E(|X 0 | 2 )]e Ct . (2.11)<br />
En effet, pour tout t ∈ [0, T], <strong>la</strong> partie (i) montre que E(|X (1)<br />
t | 2 ) ≤ C[1 + E(|X 0 | 2 )], tandis<br />
que pour tout n ≥ 1,<br />
E(|X (n+1)<br />
t | 2 ) ≤ C[1 + E(|X 0 | 2 )] + C<br />
∫ t<br />
0<br />
E(|X s<br />
(n) | 2 )ds.<br />
En itérant cette inégalité, on en déduit par récurrence sur n que pour tout n ≥ 1 et t ∈ [0, T],<br />
E(|X (n+1)<br />
t | 2 ) ≤ C[1 + E(|X 0 | 2 )]<br />
[1 + Ct + (Ct)2<br />
2!<br />
ce qui termine <strong>la</strong> démonstration de (2.11).<br />
]<br />
+ · · · + (Ct)n ,<br />
n!<br />
(iii) Montrons que <strong>la</strong> suite (X (n) ) converge p.s. uniformément sur [0, T] vers un processus<br />
X continu, (F t )-adapté X tel que (2.7) soit vraie. Pour tout n ≥ 1, notons<br />
où<br />
A n t = ∫ t<br />
0<br />
X (n+1)<br />
t<br />
− X (n)<br />
t = A n t + M n t ,<br />
[<br />
b(s, X<br />
(n)<br />
s ) − b(s, X s (n−1) ) ] ∫ t<br />
ds , Mt n =<br />
0<br />
[<br />
σ(s, X<br />
(n)<br />
s ) − σ(s, X s (n−1) ) ] dB s .<br />
Alors, E(sup 0≤s≤t |X s<br />
(n+1) − X s (n) | 2 ) ≤ 2E ( sup 0≤s≤t |A n s |2) + 2E ( sup 0≤s≤t |Ms n|2) .<br />
L’inégalité de Schwarz et (2.3) entraînent pour tout r ∈ [0, t],<br />
|A n t |2 ≤ t<br />
∫ t<br />
0<br />
|b(s, X (n)<br />
s<br />
) − b(s, X s<br />
(n−1) )| 2 ds ≤ CT<br />
∫ t<br />
0<br />
|X (n)<br />
s<br />
− X s<br />
(n−1) | 2 ds<br />
De plus, l’inégalité (2.11) montre que le processus s → σ(s, X s<br />
(n) ) − σ(s, X s<br />
(n−1) ) appartient<br />
à H2 T (F t ). En effet, (2.3) montre que<br />
(∫ t<br />
E ∣ σ(s, X<br />
(n)<br />
s ) − σ(s, X s<br />
(n−1) ) ∣ ) ∫ t<br />
2 ds ≤ C 2 E(|X s<br />
(n) − X s<br />
(n−1) | 2 )ds<br />
0<br />
0<br />
≤ 2C 2 ∫ t<br />
0<br />
0<br />
[<br />
E(|X<br />
(n)<br />
s<br />
| 2 ) + E(|X s<br />
(n−1) | 2] ds < +∞.<br />
L’inégalité de Doob appliquée à <strong>la</strong> martingale continue (Mt n , t ≥ 0), puis (2.3) montrent que<br />
( ) ∫ t<br />
E sup |Ms n |2 ≤ 4 E(|σ(s, X s<br />
(n) ) − σ(s, X s<br />
(n−1) )| 2 )ds<br />
0≤s≤t<br />
0<br />
∫ t<br />
≤ 4C 2 E(|X s<br />
(n) ) − X s<br />
(n−1) )| 2 )ds.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
30 2 Équations différentielles stochastiques<br />
Les deux inégalités précédentes entraînent pour L := L(T) = 2C(T + 4C),<br />
(<br />
) ∫ t<br />
E sup |X s<br />
(n+1) − X s (n) | 2 ≤ L E(|X s<br />
(n) ) − X s<br />
(n−1) )| 2 ds,<br />
0≤s≤t<br />
et en itérant cette inégalité, on montre par récurrence sur n que<br />
(<br />
)<br />
E sup |X s<br />
(n+1) − X s (n) | 2 (Lt)n<br />
≤ ¯C où<br />
0≤s≤t<br />
n!<br />
L’inégalité de Markov montre alors que si A n =<br />
(<br />
P (A n ) ≤ 2 2n E<br />
0<br />
¯C = sup E(|X (1)<br />
t − X 0 | 2 ) < +∞.<br />
0≤t≤T<br />
{<br />
sup 0≤s≤T |X s<br />
(n+1) − X s (n) | ≥<br />
},<br />
1<br />
2 n<br />
)<br />
sup |X s<br />
(n+1) − X s (n) | 2 ≤<br />
0≤s≤T<br />
(4Lt)n ¯C .<br />
n!<br />
Le Lemme de Borel Cantelli permet de conclure que P(lim sup A n ) = 0, c’est à dire que<br />
pour presque tout ω, il existe un entier N(ω) tel que sup 0≤s≤T |X s<br />
(n+1) (ω) − X s (n) (ω)| 2 ≤ 1<br />
2 n<br />
pour tout n ≥ N(ω). La suite X (n)<br />
t (ω) = X (0)<br />
t (ω) + ∑ n−1<br />
[<br />
(k+1)<br />
k=0 X t (ω) − X (k)<br />
t (ω) ] est donc<br />
uniformément convergente vers <strong>la</strong> limite X t (ω). En posant X = 0 sur l’ensemble négligeable<br />
hors duquel <strong>la</strong> convergence est vraie, on a ainsi construit un processus X qui est (p.s.)<br />
continu, (F t ) adapté comme limite p.s. d’une suite de processus (F t )-adaptés (on rappelle<br />
que les tribus F t sont complètes). Enfin,<br />
( )<br />
∑n−1<br />
(<br />
)<br />
E sup |X (n)<br />
t | 2 ≤ 2E(|X 0 | 2 ) + 2 E sup |X (k+1)<br />
t − X (k)<br />
t | 2<br />
0≤t≤T<br />
0≤t≤T<br />
k=0<br />
n−1<br />
≤ 2E(|X 0 | 2 ) + 2 ¯C<br />
∑ (4Lt) k<br />
≤ 2E(|X 0 | 2 ) + 2<br />
k!<br />
¯Ce 4LT .<br />
Le lemme de Fatou permet d’en déduire que E ( sup 0≤t≤T |X t | 2) ≤ 2E(|X 0 | 2 ) + 2 ¯Ce 4LT , ce<br />
qui prouve (2.7).<br />
(iv) Montrons enfin que pour tout t ∈ [0, T], <strong>la</strong> suite X (n)<br />
t converge dans L 2 vers X t , et<br />
que le processus X satisfait (2.6). pour tout x > 0, <strong>la</strong> formule de Stirling n! ∼ √ 2πn n+1 2e −n<br />
montre que pour m assez grand, ∑ ∞<br />
k=m<br />
‖X (n)<br />
t<br />
− X (m)<br />
t ‖ 2 ≤<br />
∑n−1<br />
k=m<br />
(<br />
x k<br />
k!<br />
‖X (k+1)<br />
t<br />
) 1<br />
2<br />
k=0<br />
≤ C(x)m −1 . Pour tout t ∈ [0, T] et n > m,<br />
− X (k)<br />
t ‖ 2 ≤<br />
+∞∑<br />
k=m<br />
(<br />
¯C (4Lt)k<br />
k!<br />
) 1<br />
2<br />
→ 0<br />
quand m → +∞. La suite X (n)<br />
t est donc de Cauchy dans L 2 ; elle converge dans L 2 vers une<br />
variable aléatoire Y t de carré intégrable. Elle admet une sous-suite qui converge p.s. vers Y t<br />
et on a donc Y t = X t p.s.<br />
De plus, (2.7) et <strong>la</strong> restriction sur <strong>la</strong> croissance montrent que les processus s → b(s, X s )<br />
et s → σ(s, X s ) appartiennent respectivement à H1 T(F s) et H2 T(F s). Le théorème de Fubini<br />
montre que<br />
E<br />
∫ T<br />
0<br />
|X (n)<br />
t<br />
∫ (<br />
T<br />
− X (m)<br />
t | 2 dt ≤ ¯C<br />
∑ +∞<br />
0<br />
k=m<br />
( (4Lt)<br />
k<br />
k!<br />
)<br />
)1 2<br />
2<br />
dt → 0 quand m → +∞.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.1 Solution forte - Diffusion. 31<br />
Le lemme de Fatou et <strong>la</strong> condition de Lipschitz (2.3) montrent que pour tout m,<br />
(∫ T<br />
E<br />
0<br />
) (∫ T<br />
|X t − X (m)<br />
t | 2 dt ≤ lim inf E |X (n)<br />
t<br />
n<br />
0<br />
)<br />
− X (m)<br />
t | 2 dt → 0<br />
quand m → ∞. L’inégalité de Schwarz et <strong>la</strong> condition de Lipschitz (2.3) montrent alors<br />
que ∫ t<br />
b(s, X(n)<br />
0 s )ds converge dans L 2 vers ∫ t<br />
b(s, X 0 s)ds, tandis que l’isométrie des intégrales<br />
stochastiques prouve que ∫ t<br />
σ(s, X(n)<br />
0 s )dB s converge dans L 2 vers ∫ t<br />
σ(s, X 0 s)dB s . On en<br />
déduit que X satisfait (2.6) en prenant <strong>la</strong> limite dans L 2 de l’équation (2.9).<br />
Enfin, si l’on renforce l’intégrabilité de <strong>la</strong> condition initiale, <strong>la</strong> démonstration précédente<br />
dans <strong>la</strong>quelle on remp<strong>la</strong>ce l’isométrie de l’intégrale dans L 2 par l’inégalité de Burkholder-<br />
Davies-Gundy (1.13) permet de montrer (2.8). ✷<br />
Exemple 2.7 (Brownien géométrique) Soit σ et b des nombres réels, S 0 un nombre réel<br />
strictement positif. Le Brownien géométrique est <strong>la</strong> solution de l’EDS<br />
S t = S 0 +<br />
∫ t<br />
0<br />
σS s dB s +<br />
∫ t<br />
0<br />
bS s ds.<br />
Le Théorème 2.6 montre que cette EDS a une unique solution forte, puisque les coefficients<br />
σ(t, x) = σx et b(t, x) = bx satisfont c<strong>la</strong>irement les conditions globales de Lipschitz et de<br />
restriction sur <strong>la</strong> croissance. Pour tout t ≥ 0, notons<br />
X t = S 0 exp<br />
[<br />
σB t +<br />
(b − σ2<br />
2<br />
) ]<br />
t . (2.12)<br />
En appliquant <strong>la</strong> formule d’Itô à <strong>la</strong> fonction f(t, x) = S 0 exp[σx + (b − σ2 )t] et au Brownien<br />
2<br />
B, puisque ∂f<br />
σ2 ∂f<br />
(t, x) = (b − )f(t, x), (t, x) = σf(t, x), ∂2 f<br />
(t, x) = σ 2 f(t, x), f(t, B<br />
∂t 2 ∂x ∂x 2 t ) = X t<br />
et f(0, B 0 ) = S 0 , on déduit que<br />
∫ t<br />
X t = S 0 +<br />
0<br />
) (b − σ2<br />
X s ds +<br />
2<br />
∫ t<br />
0<br />
σX s dB s + 1 2<br />
∫ t<br />
0<br />
σ 2 X s ds = S 0 +<br />
∫ t<br />
0<br />
∫ t<br />
σX s dB s + bX s ds,<br />
0<br />
c’est à dire que X est solution de (2.12). L’unicité de <strong>la</strong> solution forte entraîne que X = S.<br />
On en déduit que S t > 0 pour tout t ≥ 0 p.s. En appliquant de nouveau <strong>la</strong> formule d’Itô<br />
à <strong>la</strong> fonction g(x) = ln(x) et à S t , on voit que si on avait postulé que le processus S ne<br />
prenait p.s. que des valeurs positives (ce que nous venons de vérifier) on aurait trouvé pour<br />
Y t = ln(S t ),<br />
Y t = Y 0 +<br />
∫ t<br />
0<br />
σ S s<br />
S s<br />
dB s +<br />
∫ t<br />
0<br />
b S s<br />
ds − 1 ∫ t<br />
σ 2 Ss<br />
2 ds = Y<br />
S s 2 0 Ss<br />
2 0 + σB t +<br />
) (b − σ2<br />
t,<br />
2<br />
c’est à dire que <strong>la</strong> forme (2.12) de <strong>la</strong> solution était « naturelle ». L’exercice 2.4 généralisera<br />
cette observation à une EDS linéaire plus générale. De plus, <strong>la</strong> loi de ln(S t ) − ln(S 0 ) est<br />
gaussienne N((b − σ2)t,<br />
2 σ2 t), c’est à dire que S t suit une loi log-normale. La figure suivante<br />
montre <strong>la</strong> simu<strong>la</strong>tion de trajectoires du Brownien géométrique sur [0, 1] avec σ = 0.5 (resp.<br />
σ = 2), b = 2 et S 0 = 1.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
32 2 Équations différentielles stochastiques<br />
15<br />
14<br />
13<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0<br />
15<br />
14<br />
13<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0<br />
2.2 Solution faible.<br />
Dans de nombreuses applications, il est plus naturel lors de <strong>la</strong> modélisation de se donner<br />
uniquement les coefficients b(t, x) et σ(t, x), ainsi que <strong>la</strong> loi de X 0 , mais pas l’espace probabilisé<br />
ni le mouvement brownien B. On cherche alors le couple (B, X) qui satisfait (2.6), ce<br />
qui donne <strong>la</strong> notion suivante.<br />
Définition 2.8 Une solution faible de l’équation<br />
dX t = σ(t, X t )dB t + b(t, X t )dt (2.13)<br />
est un triplet ( (Ω, F, (F t ), P), B, X ) où<br />
(i) (Ω, F, P) est un espace probabilisé muni d’une filtration (F t ) continue à droite et<br />
complète.<br />
(ii) (B t ) est un (F t )-Brownien de dimension r et (X t ) est un processus (F t )-adapté,<br />
continu, de dimension d tels que les propriétés (iii) et (iv) de <strong>la</strong> définition 2.2 soient satisfaites.<br />
La loi de X 0 est appelée <strong>la</strong> loi initiale. On n’exige plus que <strong>la</strong> filtration (F t ) soit <strong>la</strong> plus<br />
petite filtration qui rend mesurable B et X 0 , et <strong>la</strong> solution X t à l’instant t n’est donc plus<br />
une fonction mesurable de <strong>la</strong> trajectoire (B s , s ≤ t) et de X 0 . Cependant, puisque B est un<br />
(F t )-Brownien et que X est (F t )-adapté, X t est indépendant de <strong>la</strong> trajectoire de B après<br />
l’instant t, c’est à dire des accroissements (B r − B t , r ≥ t).<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.3 Quelques propriétés des diffusions. 33<br />
Une solution forte est c<strong>la</strong>irement une solution faible, mais <strong>la</strong> réciproque est fausse, comme<br />
le montre l’exemple suivant. L’existence d’une solution faible peut en effet être montrée sous<br />
des conditions plus générales sur les coefficients.<br />
Exemple 2.9 (Équation de Tanaka) Notons sign(x) = 1 si x ≥ 0 et sign(x) = −1 si<br />
x < 0. Alors l’EDS<br />
X t =<br />
∫ t<br />
admet une solution faible, mais pas de solution forte.<br />
0<br />
sign(X s )dB s (2.14)<br />
Si ( Ω, F, (F t ), B, X ) est une solution faible, le processus X est une martingale continue<br />
de variation quadratique 〈X, X〉 t = ∫ t<br />
sign(X 0 s) 2 ds = t et d’après <strong>la</strong> caractérisation du<br />
Brownien de P. Lévy (Théorème 1.33), X est un (F t )-Brownien. On en déduit immédiatement<br />
<strong>la</strong> « construction » d’une solution faible.<br />
∫<br />
Soit (X t ) un Brownien et (F t ) sa filtration naturelle. Pour tout t ≥ 0 soit B t =<br />
t<br />
sign(X 0 s)dX s . Le processus (B t ) est une (F t )-martingale continue, de variation quadratique<br />
〈B, B〉 t = t. La caractérisation du Brownien de P. Lévy montre donc que B est un<br />
(F t )-Brownien. De plus, dB t = sign(X t )dX t , c’est à dire que dX t = sign(X t )dB t .<br />
Sur l’espace probabilisé (Ω, F, (F t ), P), le couple (B, X) est donc une solution faible de<br />
(2.14). On voit d’ailleurs que sur le même espace probabilisé, (B, −X) est également une<br />
solution faible de (2.14), qui ne peut donc avoir une unique solution « trajectorielle » mais<br />
au mieux une unique solution « en loi ».<br />
L’absence de solution forte sera admise.<br />
Définition 2.10 On dit qu’il y a unicité en loi de <strong>la</strong> solution de (2.13) si deux solutions<br />
faibles ( (Ω, F, (F t ), P), B, X ) et ( (˜Ω, ˜F, ( ˜F t ), ˜P), ˜B, ˜X ) ont <strong>la</strong> même loi, c’est à dire que<br />
pour tout n ≥ 1 et tout 0 ≤ t 1 < t 2 < · · · < t n , les lois des vecteurs (X t1 , · · · , X tn ) et<br />
( ˜X t1 , · · · , ˜X tn ) sont égales.<br />
Le raisonnement précédent montre que pour l’équation de Tanaka (2.14), il y a unicité en<br />
loi puisque nous avons montré que toute solution faible est un Brownien.<br />
On remarque par ailleurs que si les coefficients σ et b satisfont les conditions (2.3)<br />
et (2.4), le Théorème 2.6 montre l’existence et l’unicité forte de <strong>la</strong> solution de (2.6). Il<br />
y a aussi unicité en loi de <strong>la</strong> solution forte ou de <strong>la</strong> solution faible de (2.13). En effet,<br />
soit ( (Ω, F, (F t ), P), B, X ) et ( (˜Ω, ˜F, ( ˜F t ), ˜P), ˜B, ˜X ) deux solutions faibles et soit Y et Ỹ<br />
deux ( solutions fortes continues de (2.6) définies respectivement sur les espaces probabilisés<br />
Ω, F, (Ft ), P), B ) et (˜Ω, ˜F, ( ˜Ft ), ˜P), ˜B ) . Le Théorème 2.6 permet de conclure que l’on a<br />
X t = Y t pour tout t ≥ 0 P p.s. (c’est à dire, qu’en utilisant <strong>la</strong> continuité des trajectoires<br />
on a un ensemble négligeable construit à partir des instants rationnels en dehors duquel les<br />
trajectoires coïncident). De même ˜X t = Ỹt pour tout t ≥ 0 ˜P p.s. Pour prouver l’unicité<br />
faible, il suffit donc de prouver que les lois de X et ˜X sont égales. En reprenant les schémas<br />
d’itération de Picard (2.9) pour X et ˜X, on vérifie que pour tout n ≥ 0, les lois des processus<br />
continus (B t , X (n)<br />
t<br />
) et ( ˜B t ,<br />
˜X<br />
(n)<br />
t<br />
) sont égales.<br />
2.3 Quelques propriétés des diffusions.<br />
2.3.1 Flot stochastique et Propriété de Markov<br />
Soit σ et b des coefficients qui satisfont les conditions globales de Lipschitz (2.3) et<br />
de restriction sur <strong>la</strong> croissance (2.4). En reprenant <strong>la</strong> démonstration du Théorème 2.6, on<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
34 2 Équations différentielles stochastiques<br />
montre que pour tout s ≥ 0 et pour tout x ∈ R d , il existe une unique solution trajectorielle<br />
, t ≥ s) de l’EDS (2.6) qui part de x en l’instant s, c’est à dire définie pour t ≥ s par<br />
(X s,x<br />
t<br />
X s,x<br />
t = x +<br />
∫ t<br />
s<br />
σ(u, X s,x<br />
u )dB u +<br />
Alors X 0,x = X(x) est <strong>la</strong> solution forte de (2.6) avec X 0 = x, c’est à dire<br />
X t (x) = x +<br />
∫ t<br />
0<br />
σ(s, X s (x))dB s +<br />
et on a montré E(sup 0≤t≤T |X t (x)| 2 ) < +∞.<br />
On a tout d’abord le résultat suivant de flot.<br />
∫ t<br />
s<br />
∫ t<br />
0<br />
b(u, X u )du. (2.15)<br />
b(s, X s (x))ds (2.16)<br />
Théorème 2.11 (Propriété de flot stochastique) Pour tout 0 ≤ s ≤ t, X t (x) = X s,Xs(x)<br />
t<br />
p.s.<br />
Démonstration. Soit t ≥ s; alors par (2.16) on a :<br />
X t (x) = X s (x) +<br />
tandis que par (2.15) on a :<br />
X s,Xs(x)<br />
t = X s (x) +<br />
∫ t<br />
s<br />
∫ t<br />
s<br />
σ(u, X u (x))dB u +<br />
σ(u, X s,Xs(x)<br />
u )dB u +<br />
∫ t<br />
s<br />
∫ t<br />
s<br />
b(u, X u (x))du,<br />
b(u, Xu<br />
s,Xs(x) )du.<br />
Ceci montre que les processus (X t (x), t ≥ s) et (X s,Xs(x)<br />
t , t ≥ s) sont indistinguables par<br />
unicité forte de l’EDS dont ils sont solution. ✷<br />
Cette propriété de flot stochastique permet de montrer <strong>la</strong> propriété de Markov « faible ».<br />
Théorème 2.12 (Propriété de Markov) Soit (X t (x), t ≥ 0) <strong>la</strong> solution forte de l’EDS (2.6)<br />
avec X 0 = x. Alors (X t (x), t ≥ 0) est un processus de Markov pour <strong>la</strong> filtration naturelle<br />
(F B t ) du Brownien. Plus précisément, pour toute fonction f : Rd → R borélienne positive<br />
(ou bornée), 0 ≤ s, t,<br />
où Φ t (y) = E[f(X s,y<br />
s+t)].<br />
E[f(X s+t (x))|F B s ] = E[f(X s+t(x))|X s (x)] = Φ t (X s (x)),<br />
Démonstration. Le processus (Xs+t, s,y t ≥ 0) est l’unique solution forte de l’EDS (2.6) avec<br />
comme condition initiale y, comme coefficients (t, x) → σ(s+t, x) et (t, x) → b(s+t, x) et le<br />
Brownien ˜B défini par ˜B t = B s+t − B s . C’est une fonction mesurable Ψ(y, ˜B) et il est donc<br />
indépendant de (F u , 0 ≤ u ≤ s). On en déduit que X s+t (x) = X s,Xs(x)<br />
s+t est égal à Ψ(X s (x), ˜B).<br />
Puisque X s (x) et ˜B sont indépendants, le Lemme 1.37 montre alors que pour toute fonction<br />
f mesurable bornée, E(f(X s+t (x)|Fs B) = Φ t(X s (x)) où Φ t (y) = E[f ◦Ψ(y, ˜B)] = E[f(Xs+t)].<br />
s,y<br />
Lorsqu’on conditionne par X s (x), un raisonnement simi<strong>la</strong>ire basé sur l’indépendance de ˜B<br />
et de X s (x) montre aussi que E(f(X s+t (x))|X s (x)) = Φ t (X s (x)); ✷<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.3 Quelques propriétés des diffusions. 35<br />
Lorsque les coefficients sont homogènes, c’est à dire ne dépendent pas du temps, on peut<br />
écrire <strong>la</strong> propriété de Markov sous une forme plus précise (homogène) et on a <strong>la</strong> propriété<br />
de Markov forte. En effet, dans ce cas, puisque le processus défini par ˜B t = B s+t − B s<br />
est un (F s+t , t ≥ 0)-Brownien, on en déduit que les variables aléatoires X s,y<br />
s+t et X t (y)<br />
ont <strong>la</strong> même loi et <strong>la</strong> fonction Φ t (y) utilisée dans <strong>la</strong> propriété de Markov peut s’écrire<br />
Φ t (y) = E[f(Xs+t)] s,y = E[f(X t (y))] = P t f(y). De plus, on a le<br />
Théorème 2.13 (Propriété de Markov homogène - Propriété de Markov forte)<br />
Soit σ i k : Rd → R et b i : R d → R, 1 ≤ i ≤ d, 1 ≤ k ≤ r des coefficients indépendants du<br />
temps tels qu’il existe C > 0 pour lequel pour tout i = 1, · · · , d et k = 1, · · · , r :<br />
|σ i k (x) − σi k (y)| + |bi (x) − b i (y)| ≤ C|x − y|, (2.17)<br />
Notons X(x) <strong>la</strong> solution forte de l’EDS homogène<br />
X t = X 0 +<br />
∫ t<br />
0<br />
σ(X s )dB s +<br />
∫ t<br />
0<br />
b(X s )ds (2.18)<br />
qui correspond au cas X 0 = x. C’est un processus de Markov fort homogène, c’est à dire<br />
que pour tout (Ft B )-temps d’arrêt τ fini presque sûrement et pour toute fonction borélienne<br />
positive (ou bornée) f : R d → R,<br />
où P t (x) = E[f(X t (x))].<br />
E[f(X τ+t (x))|F τ ] = E[f(X τ+t (x))|X τ (x)] = P t f(X τ (x)),<br />
Remarquons que dans le cas homogène, <strong>la</strong> condition de Lipschitz (2.17) entraîne immédiatement<br />
un analogue de <strong>la</strong> restriction sur <strong>la</strong> croissance<br />
|σ i k (x)| + |bi (x)| ≤ C(1 + |x|). (2.19)<br />
Dans le cas général (in-homogène), on montre de façon simi<strong>la</strong>ire que le processus espacetemps<br />
est fortement Markovien, c’est à dire que si f : [0, +∞[×R d → R est borélienne<br />
positive, alors pour tout temps d’arrêt τ fini presque sûrement, si<br />
on a :<br />
Φ t (s, x) = E[f(s + t, X s,x<br />
t )]<br />
E[f(τ + t, X τ+t (x))|F τ ] = E[f(τ + t, X τ+t (x))|X τ (x)] = Φ t (τ, X τ (x)).<br />
2.3.2 Générateur infinitésimal<br />
Convention : Dans toute cette section, nous considérons des coefficients σ et b qui satisfont<br />
les conditions (2.3) et (2.4) dans le cas général, ou bien les conditions du Théorème 2.13<br />
dans le cas homogène et que <strong>la</strong> condition initiale X 0 est constante.<br />
Notons C n,p ([0, +∞[×R d ) l’ensemble des fonctions u : [0, +∞[×R d → R de c<strong>la</strong>sse C n par<br />
rapport à <strong>la</strong> variable t ∈ [0, ∞[ et de c<strong>la</strong>sse C p par rapport à <strong>la</strong> variable x ∈ R d .<br />
Définition 2.14 Lorsque X est <strong>la</strong> solution de l’EDS homogène (2.18), si on note a = σσ ∗ ,<br />
le générateur infinitésimal de X est l’opérateur différentiel A défini pour u ∈ C 2 (R d ) par<br />
Au(x) =<br />
d∑<br />
i=1<br />
b i (x) ∂u<br />
∂x i<br />
(x) + 1 2<br />
d∑<br />
a i,j ∂ 2 u<br />
(x) (x) . (2.20)<br />
∂x i ∂x j<br />
i,j=1<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
36 2 Équations différentielles stochastiques<br />
Ainsi, le générateur du mouvement Brownien sur R r (qui correspond au cas d = r,<br />
σk i(x) = δ i,k d’où a(x) = Id r ) est 1∆, où ∆ est le Lap<strong>la</strong>cien défini sur 2 C2 (R r ). Le générateur<br />
d’un Brownien géométrique (réel) X t = x + ∫ t<br />
σX 0 sdB s + ∫ t<br />
bX 0 sds est l’opérateur défini sur<br />
C 2 (R) par A = bx ∂ + 1 ∂x 2 σ2 x 2 ∂2<br />
.<br />
∂x 2<br />
Lorsque <strong>la</strong> diffusion n’est pas homogène, le générateur infinitésimal dépend du temps.<br />
Définition 2.15 Si a(t, x) = σ(t, x) σ ∗ (t, x) désigne <strong>la</strong> matrice carrée symétrique d × d de<br />
type positif définie par a i,j (t, x) = ∑ r<br />
k=1 σi k (t, x) σj k<br />
(t, x), le générateur infinitésimal de <strong>la</strong><br />
diffusion (X t , t ≥ 0) définie par (2.6) est l’opérateur différentiel défini sur C 1,2 ([0, +∞[×R d )<br />
par :<br />
d∑<br />
A t u(x) = b i (t, x) ∂u (t, x) + 1 d∑<br />
a i,j ∂ 2 u<br />
(t, x) (t, x) . (2.21)<br />
∂x i 2 ∂x i ∂x j<br />
i=1<br />
La formule d’Itô montre donc que si f : [0, +∞[×R d → R est de c<strong>la</strong>sse C 1,2 et si X est<br />
solution de (2.6), alors<br />
df(t, X t ) = σ(t, X t ) ∂f [ ]<br />
∂f<br />
∂x (t, X t)dB t +<br />
∂t (t, X t) + A t f(t, X t ) dt. (2.22)<br />
On en déduit le<br />
Théorème 2.16 Soit σ et b des coefficients qui satisfont les conditions globales de Lipschitz<br />
(2.3) et de restriction sur <strong>la</strong> croissance (2.4), X 0 ∈ R d et X <strong>la</strong> solution forte de (2.6).<br />
Pour toute fonction f : [0, +∞[×R d → R appartenant à C 1,2 et telle que ∂f<br />
∂x i<br />
est bornée<br />
pour tout i = 1, · · · , d, le processus (M t ) défini par<br />
∫ t<br />
( ) ∂f<br />
M t = f(t, X t ) −<br />
∂s + A s (s, X s ) ds (2.23)<br />
0<br />
est une (Ft B )-martingale et pour tout temps d’arrêt τ p.s. borné, <strong>la</strong> formule de Dynkin est<br />
vraie :<br />
[∫ τ<br />
( ) ]<br />
∂f<br />
E[f(τ, X τ )] = f(0, X 0 ) + E<br />
∂s + A s (s, X s )ds .<br />
Démonstration. La propriété de martingale de M est une conséquence immédiate de (2.22),<br />
du Théorème 1.13, de <strong>la</strong> propriété (2.7) et de <strong>la</strong> restriction sur <strong>la</strong> croissance de σ, qui<br />
montrent que le processus s → σ(s, X s ) ∂f (s, X ∂x s) ∈ H 2 .<br />
Le Théorème d’arrêt 1.7 montre alors que si τ est p.s. borné, M 0 = E(M τ ) puisque<br />
<strong>la</strong> tribu F0<br />
B est <strong>la</strong> tribu complétée de <strong>la</strong> tribu triviale. Les dérivées partielles de f par<br />
rapport à x étant bornées, on en déduit que |f(s, X s ) − f(s, X 0 )| est majorée par une<br />
combinaison linéaire des composantes Xs, i et d’après (2.7), pour tout K > 0, <strong>la</strong> variable<br />
aléatoire sup s≤K |f(s, X s ) − f(s, X 0 )| est de carré intégrable. De plus, par continuité de f,<br />
sup s≤K |f(s, X 0 )| < +∞. Pour tout temps d’arrêt borné, <strong>la</strong> variable aléatoire f(τ, X τ ) est<br />
donc intégrable, ce qui termine <strong>la</strong> démonstration. ✷<br />
Grâce à <strong>la</strong> propriété (2.8), on peut affaiblir les hypothèses sur le contrôle des dérivées partielles<br />
de f dans les théorèmes précédents. En effet, si ∂f<br />
∂x i<br />
(t, x) est à croissance polynomiale<br />
en x uniformément en t, c’est à dire s’il existe un exposant a i > 0 tel que<br />
sup<br />
∂f<br />
∣ (t, x)<br />
t ∂x i<br />
∣ ≤ C(1 + |x|a i<br />
),<br />
0<br />
i,j=1<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.3 Quelques propriétés des diffusions. 37<br />
alors <strong>la</strong> restriction sur <strong>la</strong> croissance des coefficients σk i (t, x) et le fait que <strong>la</strong> condition initiale<br />
soit constante (donc dans tous les espaces L p , 1 ≤ p < +∞) entraînent que pour tout k, il<br />
existe une constante C et un exposant b i,k > 0 tels que pour tout t > 0<br />
E<br />
∫ t<br />
0<br />
∂f<br />
∣ (s, X s ) ∣<br />
∣2 ∣ σk i ∂x (s, X s) ∣ 2 ds ≤ C<br />
i<br />
(<br />
)<br />
1 + sup E(|X s | b i,k<br />
) < +∞.<br />
0≤s≤t<br />
Une croissance polynomiale de toutes les dérivées partielles ∂f<br />
∂x i<br />
(t, x) permet donc de conclure<br />
que les intégrales stochastiques dans <strong>la</strong> formule d’Itô de f(t, X t ) sont des martingales continues<br />
(de carré intégrable).<br />
En appliquant le théorème 2.16 avec d = r = 1, on déduit immédiatement que si f ∈ C 1,2<br />
a une dérivée partielle ∂f bornée (ou à croissance polynomiale) et si<br />
∂x<br />
∂f<br />
∂t (t, x) + A tf(t, x) = ∂f (t, x) + b(t, x)∂f<br />
∂t ∂x (t, x) + 1 2 σ(t, f<br />
x)2∂2 (t, x) = 0,<br />
∂x2 alors f(t, X t ) est une vraie (F B t )- martingale<br />
De même, si<br />
∂f<br />
∂t (t, x) + A tf(t, x) = rf(t, x),<br />
alors le processus e −rt f(t, X t ) est une (Ft B )-martingale. Le coefficient r est appelé coefficient<br />
d’actualisation. En particulier, si f(T, x) = h(x), on a f(t, X t ) = e r(t−T) E[h(X T )|Ft B ]. Ceci<br />
sera fort utile en finance, comme on le verra dans les chapitres suivants. On peut généraliser<br />
cette propriété de martingale pour un coefficient d’actualisation non constant.<br />
Théorème 2.17 Soit σ et b des fonctions qui satisfont les conditions globales de Lipschitz<br />
et de restriction sur <strong>la</strong> croissance (2.3) et (2.4), B un mouvement Brownien standard de<br />
dimension r, X t <strong>la</strong> solution de l’équation différentielle stochastique :<br />
X t = x +<br />
∫ t<br />
0<br />
σ(s, X s ) dB s +<br />
∫ t<br />
0<br />
b(s, X s ) ds (2.24)<br />
et A t son générateur infinitésimal. Alors pour toute fonction continue minorée ρ : [0, T] ×<br />
R d → [m, +∞[ et toute fonction f : [0, T] × R d → R d de c<strong>la</strong>sse C 1 et t et de c<strong>la</strong>sse C 2 en x<br />
telle que les dérivées partielles ∂f<br />
∂x i<br />
de f sont à croissance polynomiale, le processus<br />
M ρ t (f) = e − R t<br />
0 ρ(s,Xs) ds f(t, X t ) − f(0, X 0 )<br />
−<br />
∫ t<br />
est une martingale pour <strong>la</strong> filtration ( F B t ).<br />
0<br />
e − R s<br />
0 ρ(u,Xu) du ( ∂f<br />
∂s + A sf − ρ f<br />
)<br />
(s, X s ) ds<br />
Démonstration : La formule d’Itô pour un produit entraîne que<br />
d<br />
(e − R )<br />
t<br />
0 ρ(s,Xs) ds f(t, X t ) = −ρ(t, X t ) e − R t<br />
0 ρ(s,Xs) ds f(t, X t ) dt<br />
+e − R t<br />
0 ρ(s,Xs) ds d ( f(t, X t ) ) .<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
38 2 Équations différentielles stochastiques<br />
La formule d’Itô pour f(t, X t ) permet alors d’écrire :<br />
e − R t<br />
0 ρ(s,Xs) ds f(t, X t ) = f(0, X 0 )<br />
+<br />
+<br />
∫ t<br />
0<br />
d∑<br />
i=1<br />
e − R s<br />
0 ρ(u,Xu) du ( ∂f<br />
r∑<br />
k=1<br />
∫ t<br />
0<br />
∂s + A sf − ρ f<br />
)<br />
(s, X s ) ds<br />
e − R s<br />
ρ(u,Xu) du ∂f<br />
0 (s, X s ) σk i ∂x (s, X s) dBs k .<br />
i<br />
La fonction ρ étant minorée, on montre alors comme dans le théorème précédent que les processus<br />
∫ t<br />
exp ( − ∫ s<br />
ρ(u, X 0 0 u) du ) ∂f<br />
∂x i<br />
(s, X s ) σk i(s, X s) dBs k sont des martingales, ce qui conclut<br />
<strong>la</strong> démonstration. ✷<br />
Dans le cas de diffusions homogènes, l’opérateur différentiel défini par (2.20) est bien le<br />
générateur infinitésimal du processus de Markov homogène.<br />
Théorème 2.18 Le générateur infinitésimal A de <strong>la</strong> diffusion homogène X(x) solution de<br />
(2.18) avec <strong>la</strong> condition initiale x est bien son générateur en tant que processus de Markov<br />
homogène, c’est à dire que pour toute fonction f de c<strong>la</strong>sse C 2 dont les dérivées partielles<br />
d’ordre 1 et 2 sont bornées,<br />
1<br />
Af(x) = lim<br />
t→0 t [P 1<br />
tf(x) − f(x)] = lim<br />
t→0 t [E(f(X t(x)) − f(x)].<br />
Démonstration. D’après le Théorème 2.16, pour tout t ≥ 0,<br />
E[f(X t (x))] = f(x) +<br />
∫ t<br />
0<br />
E ( Af(X s (x) ) ds.<br />
Les trajectoires de X étant presque sûrement continues, celles de Af(X s ) le sont également.<br />
On en déduit que t → ∫ t<br />
Af(X 0 s(x))ds est P presque sûrement dérivable en 0 et que sa<br />
dérivée vaut Af(X 0 (x)) = Af(x).<br />
De plus, les dérivées partielles de f étant bornées par K > 0, <strong>la</strong> restriction sur <strong>la</strong><br />
croissance des coefficients montre que<br />
|Af(x)| ≤ K ∑ i<br />
|b i (x)| + ∑ i,j,k<br />
K|σ i k (x)σj k (x)| ≤ C(1 + |x|2 ).<br />
La propriété (2.7) montre alors que pour tout t > 0,<br />
sup |Af(X s )| ≤ C<br />
0≤s≤t<br />
( )<br />
1 + sup |X s | 2 ∈ L 1 .<br />
0≤s≤t<br />
Le théorème de convergence dominée permet de conclure.<br />
✷<br />
2.3.3 Théorème de comparaison<br />
Le théorème suivant permet de comparer presque sûrement des solutions d’EDS unidimensionnelles<br />
avec le même coefficient de diffusion, mais des conditions initiales et coefficients<br />
de dérive qui satisfont des inégalités simi<strong>la</strong>ires. Il s’avère souvent extrêmement utile<br />
en pratique. La preuve, qui utilise des arguments semb<strong>la</strong>bles à ceux de l’unicité trajectorielle<br />
vus précédemment, peut être trouvée dans [7].<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.4 Processus de Bessel 39<br />
Théorème 2.19 (Théorème de comparaison) Soit (B t , t ≥ 0) un mouvement brownien<br />
réel, b 1 , b 2 et σ des fonctions globalement lipschitziennes de R dans R, x 1 ≥ x 2 des nombres<br />
réels. Pour i = 1, 2, on considère les EDS<br />
X i t = x i +<br />
∫ t<br />
0<br />
b i (X i s) ds +<br />
∫ t<br />
0<br />
σ(X i s) dB s<br />
Supposons que b 1 (x) ≥ b 2 (x) pour tout x ∈ R. Alors X 1 t ≥ X2 t p.s. pour tout t ≥ 0.<br />
2.4 Processus de Bessel<br />
Dans <strong>la</strong> pratique, le théorème d’existence et d’unicité de solutions d’EDS sous les conditions<br />
usuelles sur les coefficients (conditions globales de Lipschitz et de restriction sur <strong>la</strong><br />
croissance) est parfois insuffisant pour ce qui concerne le coefficient de diffusion. On peut<br />
notablement améliorer ce théorème dans le cas réel.<br />
Théorème 2.20 (Yamada-Watanabe) Soit d = r = 1. Supposons que b et σ sont à croissance<br />
linéaire, c’est à dire satisfont <strong>la</strong> condition de restriction sur <strong>la</strong> croissance globale (2.4),<br />
que b vérifie <strong>la</strong> condition de Lipschitz globale (2.3) et que<br />
|σ(t, x) − σ(t, y)| ≤ ρ(|x − y|) , ∀t ≥ 0, ∀x, y ∈ R,<br />
où ρ :]0, +∞[→]0, +∞[ est une fonction borélienne strictement croissante telle que ρ(0) = 0<br />
et<br />
∫ ε<br />
dz<br />
ρ 2 (z) = +∞<br />
0<br />
pour tout ε > 0. Alors si X 0 = x ∈ R, il y a unicité forte pour l’équation (2.6).<br />
Une c<strong>la</strong>sse très importante d’EDS dont l’unicité forte est montrée en appliquant le<br />
théorème précédent est <strong>la</strong> suivante :<br />
X t = x + 2<br />
∫ t<br />
0<br />
√<br />
Xs dB s + δ t (2.25)<br />
où B est un Brownien réel et x, δ > 0. En effet, | √ x − √ y| ≤ √ |x − y| et le théorème<br />
de Yamada-Watanabe appliqué avec <strong>la</strong> fonction ρ(x) = √ x montre que (2.25) admet une<br />
unique solution forte. De plus, on peut montrer que cette solution est toujours positive et<br />
définie sur [0, +∞[. Cependant, le théorème 2.6 n’aurait pas permis d’obtenir ce résultat,<br />
car σ(x) = √ x n’est pas lipschitzienne en zéro. Le processus X est un processus de Bessel<br />
carré de dimension δ.<br />
Nous allons relier le processus de Bessel au Brownien. Soit n > 1 et B = (B 1 , B 2 , . . .,B n )<br />
un mouvement Brownien n-dimensionnel. Soit X le processus défini par X t = ||B t || ; alors<br />
Xt 2 = ∑ n<br />
i=1 (Bi t) 2 et <strong>la</strong> formule d’Itô montre que dXt 2 = ∑ n<br />
i=1 2Bi tdBt i + n dt.<br />
En notant (x, y) le produit sca<strong>la</strong>ire des vecteurs x et y, on voit que le processus β défini par<br />
dβ t = 1 X t<br />
(B t , dB t ) = 1<br />
||B t ||<br />
n∑<br />
Bt i dBi t , β 0 = 0,<br />
i=1<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
40 2 Équations différentielles stochastiques<br />
est une martingale continue de carré intégrable et <strong>la</strong> formule d’Itô montre que (βt 2 −t, t ≥ 0)<br />
est une martingale. La caractérisation de Paul Lévy entraîne que β est un mouvement<br />
brownien. L’égalité d(Xt 2 ) = 2(B t , dB t ) + ndt s’écrit<br />
d(X 2 t ) = 2X tdβ t + n dt .<br />
Ainsi, en posant V t = X 2 t on obtient que V est solution d’une EDS du type (2.25)<br />
dV t = 2 √ V t dβ t + n dt ,<br />
où β est un mouvement brownien. Puisque X t > 0 p.s., une nouvelle application de <strong>la</strong><br />
formule d’Itô montre que<br />
dX t = dβ t + n − 1 dt<br />
2 X t<br />
où β est un mouvement Brownien.<br />
On dit que X est un processus de Bessel (BES) de dimension n, et que V est un processus<br />
de Bessel carré (BESQ). Les processus de Bessel seront généralisés et utilisés en <strong>Finance</strong><br />
dans le modèle de Cox-Ingersoll-Ross décrit dans le dernier chapitre.<br />
2.5 Lien avec les EDP<br />
2.5.1 Problème parabolique<br />
Notons K n,p ([0, T] × R d ) l’ensemble des fonctions u : [0, T] × R d → R qui sont de c<strong>la</strong>sse<br />
C n par rapport à <strong>la</strong> variable t ∈ [0, T], de c<strong>la</strong>sse C p par rapport à <strong>la</strong> variable x ∈ R d et<br />
dont les dérivées partielles sont à croissance polynomiale, c’est à dire telles qu’il existe des<br />
constantes C > 0 et des entiers k tels que chaque dérivée partielle v de u satisfasse l’inégalité<br />
|v(t, x)| ≤ C (1 + |x| k ). On note K p (R d ) l’ensemble des fonctions u : R d → R de c<strong>la</strong>sse C p<br />
par rapport à <strong>la</strong> variable x ∈ R d dont les dérivées partielles sont à croissance polynomiale.<br />
L’exemple le plus simple d’EDP parabolique liée à un processus stochastique est l’équation<br />
de <strong>la</strong> chaleur en dimension 1, c’est à dire<br />
∂u σ2<br />
(t, x) =<br />
∂t 2<br />
∂ 2 u<br />
∂x2(t, x) , (t, x) ∈]0, +∞[×R , (2.26)<br />
où σ > 0 et où <strong>la</strong> condition initiale u(0, x) = f(x) est donnée par une fonction f : R → R<br />
borélienne à croissance polynomiale. Pour t > 0, notons p(t; x, .) <strong>la</strong> densité de x + σ B t où<br />
(B t , t ≥ 0) est un mouvement Brownien standard à valeurs réelles, c’est à dire <strong>la</strong> fonction<br />
Un calcul facile montre que ∂p = σ2<br />
∂t 2<br />
p(t; x, y) =<br />
∂ 2 p<br />
∂x 2 . Notons<br />
1<br />
σ √ 2 π t e−(x−y)2 2 σ 2 t .<br />
u(t, x) = E ( f(x + σ B t ) )<br />
pour tout t ≥ 0; alors u(0, x) = f(x). De plus, pour t > 0, u(t, x) = ∫ +∞<br />
p(t; x, y) f(y) dy<br />
−∞<br />
et <strong>la</strong> croissance polynomiale de f entraîne que l’on peut appliquer le théorème de dérivation<br />
sous le signe intégral. Pour tout couple d’entiers positifs m et n on a donc<br />
∂ n+m ∫ +∞<br />
∂t m ∂x nu(t, x) = ∂ n+m<br />
∂t m ∂xnp(t; x, y) f(y) dy ;<br />
−∞<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.5 Lien avec les EDP 41<br />
<strong>la</strong> fonction définie par u(t, x) = E[f(x+σ B t )] satisfait donc l’EDP ∂u σ2 ∂<br />
(t, x) = 2 u(t, x) sur<br />
∂t 2 ∂x 2<br />
]0, +∞[×R et appartient à K 1,2 ([ε, +∞[×R) pour tout ε > 0. Reste à vérifier le comportement<br />
asymptotique de u(t, y) quand (t, y) → (0, x). De nouveau, puisque f est à croissance<br />
polynomiale, si cette fonction est de plus continue, le théorème de convergence dominée<br />
entraîne que pour tout x ∈ R,<br />
lim u(t, y) = f(x) .<br />
(t,y)→(0,x)<br />
On a ainsi prouvé que l’équation (2.26) de condition initiale f continue à croissance<br />
polynomiale a une solution; reste à prouver l’unicité de <strong>la</strong> solution de (2.26) pour <strong>la</strong> condition<br />
initiale, ce qui donnera une interprétation probabiliste à <strong>la</strong> solution de cette EDP. De<br />
nouveau, on peut montrer l’unicité de <strong>la</strong> solution de (2.26) de façon probabiliste.<br />
Théorème 2.21 Soit u une fonction de c<strong>la</strong>sse C 1,2 sur ]0, T] × R qui satisfait l’équation<br />
de <strong>la</strong> chaleur (2.26), telle que sup |u(t, x)| soit à croissance polynomiale en x et telle pour<br />
0
42 2 Équations différentielles stochastiques<br />
Définition 2.23 Soit A t le générateur infinitésimal défini sur K 1,2 ([0, T] × R d ) par (2.21).<br />
Soit m un nombre réel, f : R d → R, g : [0, T] × R d → R d et ρ : [0, T] × R d → [m, +∞[<br />
des fonctions continues. La fonction v ∈ K 1,2 ([0, T[×R d ) satisfait le problème de Cauchy<br />
d’opérateur A t , de potentiel ρ, de Lagrangien g et de condition terminale f si c’est une<br />
fonction continue sur [0, T] × R d et si<br />
{ ∂v<br />
∂t (t, x) + A t v(t, x) − ρ(t, x) v(t, x) + g(t, x) = 0 pour (t, x) ∈ [0, T[×R d ,<br />
v(T, x) = f(x) pour x ∈ R d .<br />
(2.31)<br />
Étudions d’abord le cas g = 0, c’est à dire seulement l’existence d’un coefficient d’actualisation<br />
aléatoire ρ.<br />
Théorème 2.24 (Théorème de Feynman-Kac) Soit σ et b des fonctions satisfaisant les<br />
conditions globales de Lipschitz et de restriction sur <strong>la</strong> croissance (2.3) et (2.4), f, ρ des<br />
fonctions satisfaisant les conditions de <strong>la</strong> définition 2.23. Supposons que f ∈ K 0 (R d ). Pour<br />
tout t ∈ [0, T[ et x ∈ R d , notons (Xs t,x,<br />
s ∈ [t, T]) le processus solution de (2.30) et (F t = Ft B)<br />
<strong>la</strong> filtration naturelle du Brownien B. Alors une solution v du problème de Cauchy<br />
{ ∂v<br />
(t, x) + A ∂t t v(t, x) − ρ(t, x) v(t, x) = 0 pour (t, x) ∈ [0, T[×R d ,<br />
v(T, x) = f(x) pour x ∈ R d .<br />
admet <strong>la</strong> représentation stochastique :<br />
De plus, si (X t = X 0,x<br />
t<br />
v(t, x) = E<br />
[<br />
f(X t,x R T<br />
T )e− t<br />
]<br />
ρ(s,Xs<br />
t,x ) ds<br />
. (2.32)<br />
, t ∈ [0, T]) est <strong>la</strong> diffusion solution de (2.2), alors pour tout t ∈ [0, T],<br />
v(t, X t ) = E<br />
[e − R ]<br />
T<br />
t ρ(s,X s) ds ∣<br />
f(X T ) ∣F t . (2.33)<br />
Démonstration. La formule d’Itô montre que si v résout le problème de Cauchy (2.31) avec<br />
g = 0, le processus :<br />
M t,x<br />
s<br />
= e − R s<br />
t ρ(u,Xt,x u<br />
) du v(s, Xs t,x ) , s ∈ [t, T]<br />
est une (F t )-martingale, ce qui entraîne que M t,x<br />
t = E ( M t,x<br />
T | F t)<br />
. La propriété de martingale<br />
de (Ms 0,x , s ∈ [0, T]) et <strong>la</strong> condition terminale v(T, x) = f(x) montrent alors (2.33).<br />
Remarquons que de même, <strong>la</strong> condition terminale entraîne que<br />
v(t, x) = v(t, X t,x<br />
t ) = E<br />
[e − R T<br />
t<br />
∣ ]<br />
ρ(u,Xu<br />
t,x ) du f(X t,x ∣∣<br />
T ) Ft .<br />
Pour prouver (2.32), fixons (t, x) ∈ [0, T[×R d et notons τ n = inf{s ≥ t , |Xs t,x | ≥ n}. La formule<br />
d’Itô et le théorème d’arrêt pour les martingales entraînent que v(t, x) = E(M t,x<br />
T ∧τ n<br />
) =<br />
∑ 2<br />
i=1 T n, i avec :<br />
[<br />
Tn 1 (t, x) = E v(τ n , Xτ t,x<br />
n<br />
) e − R τn<br />
t<br />
T 2 n(t, x) = E<br />
]<br />
ρ(s,Xs t,x ) ds 1 {τn≤T }<br />
]<br />
[<br />
v(T, X t,x<br />
T ) e− R T<br />
0 ρ(s,Xt,x s ) ds 1 {τn>T }<br />
.<br />
,<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.5 Lien avec les EDP 43<br />
Une généralisation immédiate de (2.8) basée sur le lemme de Gronwall et l’inégalité de<br />
Burkholder montre que pour tout p ∈ [1, +∞[, E(sup t≤s≤T |Xs t,x|p<br />
) ≤ C p (1 + |x| p ). Il existe<br />
K > 0 tel que le terme |Tn(t, 1 x)| est dominé par Cn K P(τ n ≤ T). Pour tout p ∈ [1, +∞[,<br />
P(τ n ≤ T) ≤ C p n −p E ( sup |Xs t,x | p) ≤ C p n −p .<br />
t≤s≤T<br />
Choisissant p > K nous obtenons Tn 1 (t, x) → 0 quand n → +∞. Le théorème de convergence<br />
dominée entraîne que lorsque n → +∞,<br />
[<br />
Tn(t, 2 x) → E f(X t,x<br />
T ) R ]<br />
T<br />
e− 0 ρ(s,Xt,x s ) ds<br />
,<br />
ce qui termine <strong>la</strong> démonstration.<br />
✷<br />
Nous verrons dans l’exercice 2.6 que le problème de Cauchy (2.31) admet comme solution<br />
[<br />
]<br />
v(t, x) = E<br />
f(X t,x R T<br />
T )e− t ρ(s,Xs t,x ) ds +<br />
∫ T<br />
t<br />
g(s, X t,x<br />
s ) e − R s<br />
t ρ(u,Xt,x u ) du ds<br />
. (2.34)<br />
On déduit immédiatement du Théorème de Feynman Kac le résultat suivant. Soit r > 0<br />
et f : R d → R une fonction continue à croissance polynomiale. Alors si v continue sur<br />
[0, T] × R d et v ∈ K 1,2 ([0, T[×R d ) est solution du problème de Cauchy<br />
{ ∂v<br />
∂t (t, x) + A t v(t, x) = r v(t, x) pour (t, x) ∈ [0, T[×R d ,<br />
v(T, x) = f(x) pour x ∈ R d ,<br />
alors v(t, x) = E ( e −r(T −t) f(X t,x<br />
T )) .<br />
Ces liens entre diffusions et EDP peuvent être vus de deux façons.<br />
D’une part en « petite dimension » on peut utiliser des méthodes numériques d’EDP (différences<br />
finies ou éléments finis) afin de résoudre numériquement l’EDP (il faut encore des<br />
conditions pour qu’elle ait une solution unique) et en déduire une information sur l’espérance<br />
d’une fonction du processus.<br />
Mais les méthodes numériques, efficaces en petite dimension, deviennent très difficiles<br />
à implémenter en grande dimension. Par contre, les méthodes de Monte-Carlo ou de quasi<br />
Monte Carlo permettent d’approximer l’espérance d’une variable aléatoire ou d’un processus<br />
en une famille finie d’instants t et d’états x. On peut se servir de l’interprétation de <strong>la</strong> solution<br />
v(t, x) de l’EDP (sous réserve qu’elle soit unique) comme une espérance pour écrire cette<br />
fonction au point (t, x) à l’aide de l’espérance d’une diffusion. Par un schéma d’Euler de pas<br />
T/n, on sait approximer <strong>la</strong> trajectoire de <strong>la</strong> diffusion par celle d’un processus très simple et<br />
très rapide à simuler. La vitesse de convergence « forte » , qui donne une majoration de <strong>la</strong><br />
norme uniforme de <strong>la</strong> différence des trajectoires, est en 1/ √ n. Si on s’intéresse seulement à<br />
l’espérance d’une fonction de <strong>la</strong> diffusion en un instant T, <strong>la</strong> vitesse de convergence « faible »<br />
du schéma est en 1/n. L’espérance de <strong>la</strong> fonction du processus approximant à l’instant T<br />
est elle-même approximée par une moyenne d’après <strong>la</strong> loi forte des grands nombres. Le<br />
théorème de <strong>la</strong> limite centrale montre alors que si on dispose de N réalisations, <strong>la</strong> vitesse<br />
de convergence de <strong>la</strong> moyenne vers l’espérance est en √ 1<br />
N<br />
. Simuler une approximation de<br />
<strong>la</strong> diffusion par un schéma d’Euler est très simple et l’inconvénient est plutôt le nombre de<br />
simu<strong>la</strong>tions qu’il faut utiliser pour avoir une approximation « raisonnable ». Cette méthode<br />
est donc « lente », mais « insensible à <strong>la</strong> dimension ».<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
44 2 Équations différentielles stochastiques<br />
2.6 Exemples en finance<br />
Nous présentons ici deux exemples d’EDS importants en finance. Le modèle de B<strong>la</strong>ck &<br />
Sholes sera présenté de façon beaucoup plus approfondie dans le dernier chapitre.<br />
2.6.1 Problème de Sturm-Liouville - Temps d’occupation<br />
Nous venons de voir comment les diffusions permettent de résoudre explicitement certaines<br />
EDP. Les mêmes techniques peuvent être aussi employées pour l’étude de certaines<br />
EDO du deuxième ordre. On s’intéresse par exemple au problème suivant, dit de Sturm-<br />
Liouville :<br />
(α + k)f = f ′′<br />
2 + g (2.35)<br />
où α > 0, k : R → R + est une fonction continue et g : R → R une fonction continue telle<br />
que :<br />
∫<br />
|g(x + y)|e −|y|√2α dy < +∞<br />
R<br />
pour tout x ∈ R. Alors, si B est un Brownien standard issu de 0 et f ∈ K 2 , pour tout<br />
t > 0, le lien entre générateur infinitésimal et martingale décrit dans le théorème 2.17 avec<br />
ρ(t, y) = α + k(x + y) montre que le processus<br />
f(x+B t ) e − R t<br />
0 α+k(x+Bs)ds −f(x)−<br />
∫ t<br />
0<br />
[<br />
e − R s 1<br />
0 α+k(x+Bu)du 2 f ′′ (x + B s ) − ( α + k(x + B s ) ) ]<br />
f(x + B s ) ds<br />
est une (Ft B )-martingale. On en déduit que si f est une solution bornée de (2.35),<br />
E<br />
[f(x + B t ) e − R ] [∫ t<br />
]<br />
t<br />
0 α+k(x+Bs)ds − f(x) = −E e − R s<br />
0 α+k(x+Bu)du g(x + B s )ds .<br />
0<br />
Lorsque t → +∞, ceci entraîne :<br />
[∫ ∞<br />
f(x) = E<br />
0<br />
(<br />
g(x + B t ) exp −αt −<br />
∫ t<br />
0<br />
) ]<br />
k(x + B s )ds dt .<br />
Cette fonction est l’unique solution bornée de c<strong>la</strong>sse C 2 de (2.35).<br />
Ce résultat donne en particulier <strong>la</strong> transformée de Lap<strong>la</strong>ce de <strong>la</strong> variable aléatoire<br />
(<br />
g(B t ) exp −<br />
∫ t<br />
0<br />
)<br />
k(B s )ds<br />
(<br />
pour toute fonction g et donc par inversion <strong>la</strong> loi du couple B t , ∫ )<br />
t<br />
k(B 0 s)ds .<br />
Ce couple est très important en <strong>Finance</strong>, puisqu’il permet de « pricer » certaines options<br />
exotiques avec temps d’occupation. La formule de Feynman-Kac permet aussi de calculer <strong>la</strong><br />
densité de <strong>la</strong> variable aléatoire<br />
A + t =<br />
∫ t<br />
0<br />
1 [0,∞[ (B s ) ds<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.6 Exemples en finance 45<br />
qui représente le temps d’occupation de [0, +∞[ par le Brownien. En effet, si on pose k(x) =<br />
β1 [0,+∞[ (x) et g(x) = 1, en approximant k par une suite de fonctions continues on en déduit<br />
que pour α, β > 0 <strong>la</strong> fonction<br />
est solution de l’EDO<br />
[∫ ∞<br />
f(x) = E<br />
{<br />
0<br />
(<br />
exp −αt − β<br />
∫ t<br />
0<br />
) ]<br />
1 [0,∞) (x + B s )ds dt<br />
αf(x) = 1 − βf(x) + f ′′ (x)<br />
si x > 0,<br />
2<br />
αf(x) = 1 + f ′′ (x)<br />
si x < 0.<br />
2<br />
L’unique solution bornée et continue de cette EDO est donnée par :<br />
{<br />
Ae<br />
f(x) =<br />
−x√2(α+β) + 1 si x > 0,<br />
α+β<br />
Be x√2α + 1 si x < 0.<br />
α<br />
En imposant <strong>la</strong> continuité de f et f ′ en zéro, on trouve<br />
A =<br />
1 1<br />
√ −<br />
α(α + β) (α + β)<br />
et B =<br />
1<br />
√<br />
α(α + β)<br />
− 1 α ,<br />
ce qui entraîne<br />
∫ ∞<br />
0<br />
e −αt E<br />
[ ]<br />
e −βA+ t<br />
dt = f(0) =<br />
1<br />
√<br />
α(α + β)<br />
.<br />
Puisque Γ( 1 2 ) = √ π, le théorème de Fubini et un changement de variables montrent que<br />
∫ ∞<br />
0<br />
(∫ t<br />
e −αt du<br />
0<br />
e−βu<br />
π √ u(t−u)<br />
)<br />
dt = 1 √ π<br />
∫ +∞<br />
=<br />
0<br />
1 1<br />
√ √ . α + β α<br />
e −(α+β)u<br />
√ u<br />
du 1 √ π<br />
∫ +∞<br />
u<br />
e −α(t−u)<br />
√ t − u<br />
dt<br />
Puisque <strong>la</strong> transformée<br />
∫<br />
de Lap<strong>la</strong>ce caractérise <strong>la</strong> loi, on en déduit que pour tout β > 0,<br />
t<br />
E[e −βA+ t ] =<br />
0 e−βu √ 1 du, puis que <strong>la</strong> densité de π u(t−u) A+ t est <strong>la</strong> fonction h définie par<br />
h(u) =<br />
1<br />
π √ u(t − u) 1 ]0,t[(u).<br />
La fonction de répartition de cette loi est définie pour tout θ ∈]0, t[ par :<br />
P ( A + t ≤ θ ) =<br />
∫ θ<br />
0<br />
∫<br />
du<br />
θ/t<br />
π √ u(t − u) = ds<br />
π √ s(1 − s) = 2 √<br />
θ<br />
π Arcsin t .<br />
0<br />
La loi de A + t est appelée loi de l’arcsinus. On remarque enfin que pour θ ∈]0, t[,<br />
P ( A + t ≤ θ ) = P ( tA + 1 ≤ θ ) ,<br />
ce qui montre que les variables A + t et tA + 1 ont même loi. On aurait pu aussi obtenir ce<br />
résultat directement par « scaling » du Brownien.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
46 2 Équations différentielles stochastiques<br />
2.6.2 Introduction à <strong>la</strong> formule de B<strong>la</strong>ck & Sholes<br />
Nous présentons sommairement cet exemple fondamental, qui sera repris de façon plus<br />
systématique dans le dernier chapitre. On considère un marché financier comportant un<br />
actif dit sans risque de taux constant r, tel que S0 0 = 1, donc de prix à l’instant t donné par<br />
St 0 = ert (soit dSt 0 = rS0 t dt) et un actif risqué dont le prix S t à l’instant t vérifie<br />
S t = S 0 exp ( σB t + (b − σ 2 /2)t ) . (2.36)<br />
C’est le Brownien géométrique vu dans l’exemple 2.7, solution de l’EDS linéaire<br />
dS t = σ S t dB t + bS t dt ,<br />
où S 0 > 0, B est un mouvement brownien et b, σ ∈ R. On remarque que ce processus garde<br />
des valeurs strictement positives et qu’à chaque instant t > 0, E(S t ) = S 0 e bt . Le processus<br />
S t croit donc en moyenne comme un actif sans risque de rendement constant b. De plus,<br />
( )<br />
E(St 2 ) = S2 0 e2bt+σ2t E e 2σBt−(2σ)2 t 2 = S0 2 e2bt+σ2t ,<br />
)<br />
ce qui entraîne que V ar(S t ) = S0 (e 2e2bt σ2t − 1 . Le coefficient σ est appelé <strong>la</strong> vo<strong>la</strong>tilité et<br />
mesure <strong>la</strong> sensibilité à l’aléa, c’est à dire le risque de l’actif. C’est lui qui permet de quantifier<br />
les écarts entre S t et son espérance. On remarque facilement en utilisant l’expression explicite<br />
de S t ( que( pour tout ) δ > ) 0 qui modélise un intervalle de temps (par exemple un jour), <strong>la</strong><br />
S(j+1)δ<br />
suite ln<br />
S jδ<br />
, j ≥ 0 est une suite indépendante équidistribuée de variables aléatoires<br />
( )<br />
gaussiennes N (b − σ2)δ<br />
, 2 , σ 2 δ et il est donc facile de tester <strong>la</strong> validité du modèle sur des<br />
données réelles. On constate d’ailleurs que ce modèle rend( mal compte ) de <strong>la</strong> réalité. Un<br />
S(j+1)δ<br />
développement limité de ln(1 + u) permet d’approximer ln<br />
S jδ<br />
, par S (j+1)δ−S jδ<br />
S jδ<br />
afin de<br />
tester le caractère i.i.d. gaussien des rendements successifs observés.<br />
Pour qu’un investisseur ayant une aversion au risque préfère un actif risqué à un actif<br />
sans risque, il faut bien sûr que son rendement espéré b soit supérieur à r et <strong>la</strong> différence<br />
b − r est une « prime de risque ». Plus <strong>la</strong> vo<strong>la</strong>tilité σ est grande, plus l’actif est risqué et<br />
dans ce cas, plus <strong>la</strong> valeur de b doit être grande pour que l’investisseur préfère S t à l’actif<br />
sans risque St 0.<br />
On fixe un horizon T > 0 et on souhaite donner le prix d’un actif financier qui versera<br />
h(S T ) à <strong>la</strong> date T. Le cas d’un call Européen de maturité T et de strike K correspond au<br />
cas h(x) = (x − K) + .<br />
On procède par duplication (hedging) : on forme un portefeuille qui comprend α t parts<br />
de l’actif sans risque S 0 t (le montant de <strong>la</strong> richesse investie dans cet actif à <strong>la</strong> date t est donc<br />
α t e rt ) et de ∆ t parts de l’actif risqué S t .<br />
On suppose que le marché est sans friction, c’est à dire qu’il n’y a pas de coût de<br />
transaction (d’achat ou de vente des actifs), que l’on peut vendre à découvert (c’est à dire<br />
que les coefficients α t et ∆ t peuvent être négatifs), que les actifs sont indéfiniment divisibles<br />
(α t et ∆ t sont à valeurs réelles) et que le trading se fait en continu (c’est à dire que α t et<br />
∆ t peuvent varier à chaque instant t).<br />
On veut trouver un portefeuille « auto-finançant » (c’est à dire ne nécessitant pas de<br />
mise de fonds autre qu’à <strong>la</strong> date 0), qui ne verse pas de dividende (duquel on ne retire pas<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.6 Exemples en finance 47<br />
de l’argent avant <strong>la</strong> date T) et de valeur terminale h(S T ). La valeur de ce portefeuille à <strong>la</strong><br />
date t est<br />
V t = α t S 0 t + ∆ t S t .<br />
La condition d’autofinancement se formalise par<br />
dV t = α t dS 0 t + ∆ t dS t ,<br />
soit<br />
dV t = α t rS 0 t dt + ∆ t[bS t dt + σS t dB t ] = σ∆ t S t dB t + [ rV t + ∆ t S t (b − r) ] dt.<br />
La valeur initiale du portefeuille sera <strong>la</strong> valeur de l’actif financier. On suppose que <strong>la</strong><br />
valeur V t du portefeuille à <strong>la</strong> date t est une fonction déterministe du temps et de <strong>la</strong> valeur<br />
de l’actif risqué, soit V t = V (t, S t ). En utilisant <strong>la</strong> formule d’Itô, on calcule<br />
dV t =<br />
( ∂V<br />
∂t (t, S ∂V<br />
t) + bS t<br />
∂x (t, S t) + σ2 St<br />
2<br />
2<br />
) ( )<br />
∂ 2 V<br />
∂x (t, S ∂V<br />
t) dt + σS 2 t<br />
∂x (t, S t) dB t .<br />
En utilisant <strong>la</strong> condition d’autofinancement et en identifiant les parties martingales on obtient<br />
(parce que S t > 0 pour tout t)<br />
σ∆ t S t = σS t<br />
∂V<br />
∂x (t, S t) soit<br />
∆ t = ∂V<br />
∂x (t, S t) ,<br />
ce qui entraîne alors en identifiant les parties à variation finie<br />
∂V<br />
rS t<br />
∂x (t, S t) + ∂V<br />
∂t (t, S t) + σ2 St<br />
2<br />
2<br />
∂ 2 V<br />
∂x 2 (t, S t) − rV (t, S t ) = 0 ,<br />
avec pour condition terminale V (T, S T ) = h(S T ). Comme S t est une variable aléatoire<br />
qui peut prendre toutes les valeurs de ]0, +∞[, on en déduit que V satisfait l’EDP sur<br />
[0, +∞[×[0, +∞[ :<br />
rx ∂V ∂V<br />
(t, x) +<br />
∂x ∂t (t, x) + σ2 x 2<br />
2<br />
∂ 2 V<br />
(t, x) − rV (t, x) = 0 , (2.37)<br />
∂x2 avec pour condition terminale V (T, x) = h(x). On notera que le coefficient b a disparu.<br />
Nous allons résoudre cette EDP dans le cas d’un call européen, c’est à dire pour une<br />
condition terminale h(x) = (x − K) + , avec σ > 0. On note C <strong>la</strong> valeur du portefeuille dans<br />
ce cas particulier, Les détails des calculs sont <strong>la</strong>issés en exercice (cf. Exercice 2.5). Nous<br />
verrons au chapitre suivant une façon plus rapide et moins technique de les retrouver.<br />
Les résultats précédents entraînent que C satisfait l’équation (2.37)<br />
∂C<br />
(t, x) + rx∂C<br />
∂t ∂x (t, x) + σ2 x 2<br />
2<br />
∂ 2 C<br />
(t, x) = rC(t, x) ,<br />
∂x2 avec C(T, x) = (x−K) + . La formule de Feynman-Kac (2.32) appliquée à <strong>la</strong> fonction f(x) =<br />
(x −K) + et à ρ(s, x) = r montre que <strong>la</strong> valeur du call européen à l’instant t, est donnée par<br />
[<br />
]<br />
C(t, x) = E e r(t−T) (˜S t,x<br />
T − K)+ , (2.38)<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
48 2 Équations différentielles stochastiques<br />
avec<br />
˜S t,x<br />
T<br />
= xeσ(B T −B t)+<br />
(r− σ2<br />
2<br />
)<br />
(T −t)<br />
t,x t,x<br />
solution de l’EDS d ˜S s = σ ˜S s dW t,x<br />
t,x<br />
s + b ˜S s ds pour s ≥ t et ˜S t = x.<br />
Puisque B T − B t suit une loi gaussienne N(0, T − t), on peut calculer explicitement<br />
C(t, x). Pour tout a ∈ R, notons<br />
F(a) = 1 √<br />
2π<br />
∫ a<br />
−∞<br />
e − x2<br />
2 dx<br />
<strong>la</strong> fonction de répartition d’une loi gaussienne N(0, 1). La solution de l’équation (2.38) est<br />
donnée par <strong>la</strong> formule suivante de B<strong>la</strong>ck & Sholes<br />
C(t, x) = xF(d 1 ) − Ke −r(T −t) F(d 2 ),<br />
avec les notations<br />
d 1 =<br />
1<br />
σ √ T − t<br />
(<br />
ln ( xe r(T −t) /K ) + 1 )<br />
2 σ2 (T − t)<br />
et d 2 = d 1 − σ √ T − t. (2.39)<br />
La quantité<br />
∆ t = ∂C<br />
∂x (t, ˜S t ) = F(d 1 ),<br />
qui représente le nombre de parts de l’actif sous-jacent utilisées pour répliquer l’option s’appelle<br />
le Delta de l’option et représente aussi <strong>la</strong> sensibilité du prix de l’option par rapport au<br />
prix du sous-jacent. Le couple (C(t, S t ) −∆ t S t , ∆ t ) représente le portefeuille de couverture.<br />
D’autre part, le théorème de Feynman-Kac 2.24 appliqué au cas ρ(s, x) = r et f(x) =<br />
(x − K) + montre en appliquant l’équation (2.33) que si ˜S s = Ss 0,x est <strong>la</strong> solution de d˜S t =<br />
σ˜S t dB t + r˜S t dt,<br />
C(t, ˜S<br />
]<br />
t ) = e −(T −t) E<br />
[(˜S T − K) + |F t (2.40)<br />
L’expression (2.38) permet également de retrouver le Delta de l’option de façon différente.<br />
Dans le cas t = 0, on a<br />
C(0, x) = E [ e −rT (xM T e rT − K) + ) ] ,<br />
avec <strong>la</strong> notation ˜S t = xM t e rt S<br />
et où M t = e σ2<br />
t σBt−<br />
= xe<br />
St<br />
0 2 t pour t ≥ 0 est une martingale. En<br />
dérivant par rapport à x sous l’espérance, on retrouve<br />
où d 1 est <strong>la</strong> constante précédente.<br />
∂C<br />
∂x (0, x) = E [ ]<br />
M T 1 {xMT e rT ≥K} = F(d1 ),<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.7 Exercices 49<br />
2.7 Exercices<br />
Exercice 2.1 Le but de cet exercice est de proposer deux généralisations du Lemme de<br />
Gronwall.<br />
(i) Soit f : [0, T] → R une fonction continue. Supposons qu’il existe une constante b > 0<br />
et une fonction a : [0, T] → R positive intégrable telle que pour tout t ∈ [0, T],<br />
0 ≤ f(t) ≤ a(t) + b<br />
∫ t<br />
0<br />
f(s)ds. (2.41)<br />
Alors f(t) ≤ a(t) + b ∫ t<br />
0 a(s)eb(t−s) ds pour tout t ∈ [0, T].<br />
(ii) Soit f : [0, T] → R une fonction borélienne bornée. Supposons qu’il existe une<br />
constante a > 0 et une fonction intégrable positive b : [0, T] → R telle que 0 ≤ f(t) ≤<br />
a + ∫ t<br />
b(s)f(s)ds. Montrer que si H(t) = ∫ t<br />
b(s)ds, f(t) ≤ 0 0 aeH(t) pour tout t ∈ [0, T].<br />
Exercice 2.2 Processus d’Ornstein-Uhlenbeck Soit X 0 , σ et b des constantes réelles,<br />
(B t ) un Brownien standard de dimension 1, X le processus solution de l’équation de Langevin<br />
∫ t<br />
X t = X 0 + σB t − b X s ds.<br />
0<br />
1. Montrer que si X 1 et X 2 sont solutions de l’équation de Langevin, X 1 = X 2 .<br />
(<br />
2. Soit Y t = e −bt X 0 + σ ∫ t<br />
0 ebs dB s<br />
). Montrer que<br />
Y t = e −bt (X 0 − bσ<br />
∫ t<br />
En appliquant le théorème de Fubini, en déduire que<br />
b<br />
∫ t<br />
0<br />
Y s ds = X 0<br />
(<br />
1 − e<br />
−bt ) + bσ<br />
∫ t<br />
0<br />
0<br />
)<br />
e bs B s ds + σB t .<br />
e −b(t−u) B u du = X 0 − Y t + σB t .<br />
En déduire que l’unique solution de l’équation de Langevin est<br />
∫ t<br />
)<br />
X t = e<br />
(X −bt 0 + σ e bs dB s .<br />
3. Montrer que pour tout t, <strong>la</strong> loi de X t est gaussienne N<br />
tout s < t, calculer Cov(X s , X t ).<br />
0<br />
(<br />
)<br />
X 0 e −bt , σ2<br />
(1 − 2b e−2bt ) . Pour<br />
Exercice 2.3 Processus de Vasicek On généralise le processus précédent en ajoutant<br />
une constante dans le terme de dérive<br />
dY t = σdB t + a(b − Y t )dt.<br />
Cette EDS a été étudiée pour modéliser l’évolution des taux d’intérêt d’un marché financier<br />
et est appelée « mean-reversing » car si a et b sont positifs, le processus Y t tend vers b (en<br />
un sens à préciser).<br />
1. Montrer que X t = Y t − b est solution de l’équation de Langevin.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
50 2 Équations différentielles stochastiques<br />
2. On suppose que X 0 est une constante. En déduire une expression explicite de Y t , puis<br />
<strong>la</strong> loi de E(Y t ) et Cov(Y s , Y t ) pour 0 ≤ s ≤ t.<br />
3. On suppose que X 0 suit une loi gaussienne N(m, σ0) 2 et est indépendante de (B t ). Reprendre<br />
<strong>la</strong> question précédente et calculer <strong>la</strong> loi du vecteur (Y s , Y t ) pour<br />
0 ≤ s < t, l’espérance de Y t et <strong>la</strong> covariance de Y s et Y t . Si Y 0 > 0, Le processus<br />
Y t garde-t-il des valeurs positives?<br />
Pour 0 ≤ t ≤ T, calculer E<br />
(<br />
exp<br />
( ∫ T<br />
t<br />
Y u du<br />
)∣ ) ∣∣F B<br />
t .<br />
Exercice 2.4 Soit (B t ) un (F t )-Brownien standard de dimension r, (σ k (s), s ≥ 0) et<br />
(b(s), s ≥ 0) des processus réels progressivement mesurables définis pour k = 1, · · · , r,<br />
et M une constante réelle telle que sup 0≤t≤T (‖σ(s)‖ 2 + |b(s)|) ≤ M p.s. Pour tout X 0 ∈ R<br />
on veut résoudre explicitement l’EDS linéaire suivante (à coefficients non constants)<br />
X t = X 0 +<br />
∫ t<br />
0<br />
σ(s)X s dB s +<br />
∫ t<br />
0<br />
b(s)X s ds. (2.42)<br />
1. On suppose qu’il existe une constante réelle M telle que sup (‖σ(s)‖ 2 + |b(s)|) ≤ M<br />
0≤t≤T<br />
p.s. En reprenant <strong>la</strong> démonstration du Théorème 2.6 montrer que (2.42) a une unique<br />
solution telle que sup 0≤t≤T E(|X t | 2 ) < +∞. Sous quelles conditions supplémentaires<br />
ce processus satisfait-il <strong>la</strong> propriété de Markov?<br />
2. On suppose que (S t ) est un processus d’Itô (continu) à valeurs strictement positives<br />
tels que si dS t = ∑ k<br />
j=1 H k(s)dBs k+H 0(s)ds et si on note σ j (t) = H j(t)<br />
pour j = 1, · · · , k<br />
St<br />
i<br />
et b(t) = H 0(t)<br />
, on a ∫ T<br />
S i (t) 0 (‖σ(s)‖2 + |b(s)|)ds < +∞ p.s. Comparer ces hypothèses à<br />
celles de <strong>la</strong> question précédente.<br />
3. On suppose que les hypothèses de l’une des questions précédentes sont satisfaites. Soit<br />
( ∫ t ∫ t<br />
Y t = exp − σ(s)dB s +<br />
(−b(s) + 1 ) )<br />
2 ‖σ(s)‖2 ds .<br />
<strong>Calcul</strong>er dY t puis d(X t Y t ) et en déduire que<br />
(∫ t<br />
X t = X 0 exp σ(s)dB s +<br />
0<br />
0<br />
0<br />
∫ t<br />
0<br />
(b(s) − 1 ) )<br />
2 ‖σ(s)‖2 ds . (2.43)<br />
Exercice 2.5 Le but de cet exercice est de donner une première méthode pour trouver<br />
l’équation (2.39) du modèle de B<strong>la</strong>ck & Sholes.<br />
1. Montrer que <strong>la</strong> solution de l’équation de B<strong>la</strong>ck & Sholes (2.37) est<br />
avec C(T, x) = (x − K) + .<br />
où<br />
˜S<br />
t,x<br />
T<br />
∂C<br />
(t, x) + rx∂C<br />
∂t ∂x (t, x) + σ2 x 2<br />
2<br />
= xeσ(B T −B t)+<br />
(r− σ2<br />
2<br />
∂ 2 C<br />
(t, x) = rC(t, x)<br />
∂x2 2. Montrer que <strong>la</strong> valeur du call européen à l’instant t, est donnée par (2.38)<br />
[<br />
]<br />
C(t, x) = E e r(t−T) (˜S t,x<br />
T − K)+ ,<br />
)<br />
(T −t) .<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.7 Exercices 51<br />
3. Montrer que que si G ∼ N(0, 1), α = σ √ T − t > 0 et β = ( )<br />
r − σ2<br />
2 (T − t),<br />
[<br />
]<br />
E e −r(T −t) (˜S t,x<br />
T − K)+ = xe −r(T −t) E [ ]<br />
e α G+β 1 {α G+β≥ln(K/x)}<br />
−Ke −r(T −t) P (α G + β ≥ ln(K/x)) .<br />
∫<br />
4. Notons F(x) = √ 1 x /2<br />
2π<br />
du <strong>la</strong> fonction de répartition d’une variable aléatoire<br />
−∞ e−u2<br />
G gaussienne N(0, 1). Montrer que pour tout α > 0, β ∈ R, K > 0 et x > 0,<br />
P ( α G + β ≥ ln(K/x) ) ( ) ln(x/K) + β<br />
= F<br />
α<br />
et<br />
5. Montrer <strong>la</strong> formule (2.39).<br />
E ( (<br />
)<br />
e αG+β 1 {αG+β>ln(K/x)} = e<br />
β+ α2<br />
2 F α + ln(x/K) + β )<br />
α<br />
Exercice 2.6 Le but de l’exercice est de généraliser <strong>la</strong> formule de Feynman-Kac montrée<br />
dans le Théorème 2.24 en prouvant (2.34).<br />
Soit σ et b des fonctions satisfaisant les conditions (2.3) et (2.4), f, g, ρ des fonctions satisfaisant<br />
les conditions de <strong>la</strong> définition 2.23. Supposons que f ∈ K 0 (R d ) et que sup 0≤t≤T |g(t, x)|<br />
est à croissance polynomiale. Pour tout t ∈ [0, T[ et x ∈ R d , notons (Xs t,x , s ∈ [t, T]) le processus<br />
solution de (2.30) et (F t = Ft B ) <strong>la</strong> filtration naturelle du Brownien B. Alors une<br />
solution v du problème de Cauchy (2.31)<br />
{ ∂v<br />
(t, x) + A ∂t t v(t, x) − ρ(t, x) v(t, x) + g(t, x) = 0 pour (t, x) ∈ [0, T[×R d ,<br />
v(T, x) = f(x) pour x ∈ R d .<br />
admet <strong>la</strong> représentation stochastique :<br />
[<br />
v(t, x) = E<br />
f(X t,x R T<br />
T )e− ρ(s,X t,x<br />
t s ) ds +<br />
∫ T<br />
t<br />
g(s, X t,x<br />
s ) e − R s<br />
t ρ(u,Xt,x u ) du ds<br />
Les cinq exercices suivants étudient de façon systématique <strong>la</strong> solution de l’EDS<br />
dX t = (αX t + a)dB t + (βX t + b)dt , X 0 = x.<br />
Exercice 2.7 Préliminaire<br />
Soit a, α, b, β des constantes réelles positives et x ∈ R. On considère l’EDS<br />
dX t = (αX t + a)dB t + (βX t + b)dt , X 0 = x. (2.44)<br />
1. Montrer que (2.44) admet une unique solution forte.<br />
2. On note m(t) = E(X t ) et M(t) = E(X 2 t ).<br />
(a) Montrer que m(t) est <strong>la</strong> solution de d’EDO<br />
Résoudre cette EDO.<br />
y ′ − βy = b , y(0) = x. (2.45)<br />
]<br />
.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
52 2 Équations différentielles stochastiques<br />
(b) Écrire X2 t comme processus d’Itô en utilisant <strong>la</strong> formule d’Itô pour <strong>la</strong> solution<br />
X t de (2.44). Montrer que l’intégrale stochastique est une martingale de carré<br />
intégrable.<br />
(c) En déduire que si on note m(t) <strong>la</strong> solution de (2.45), M(t) est <strong>la</strong> solution de<br />
l’EDO<br />
y ′ − (2β + α 2 )y = 2(b + aα)m + a 2 , y(0) = x 2 .<br />
Résoudre cette EDO.<br />
Exercice 2.8 Premier cas particulier a = b = 0<br />
Soit (Y t ) <strong>la</strong> solution de (2.44) avec a = b = 0 et x = 1.<br />
“<br />
1. Montrer que Y t = e αBt+ β− α2<br />
2<br />
”<br />
t .<br />
2. Montrer que si β ≥ 0, (Y t ) est une (F t )-sous-martingale. A quelle condition sur β le<br />
processus (Y t ) est-il une martingale?<br />
3. Soit (Z t ) le processus d’Itô défini par<br />
Z t = x + a<br />
∫ t<br />
0<br />
∫ t<br />
Ys<br />
−1 dB s + (b − aα)<br />
0<br />
Ys<br />
−1 ds.<br />
Montrer que ce processus est bien défini et calculer 〈Y, Z〉 t . En déduire que <strong>la</strong> solution<br />
(X t ) de (2.44) peut s’écrire X t = Y t Z t .<br />
Exercice 2.9 Second cas particulier α = b = 0<br />
On note (X t ) <strong>la</strong> solution de l’EDS<br />
1. Montrer que l’unique solution de (2.46) est<br />
dX t = adB t + βX t dt , X 0 = x. (2.46)<br />
∫ t<br />
)<br />
X t = e<br />
(x βt + a e −βs dB s .<br />
0<br />
(On pourra soit utiliser l’exercice précédent, soit poser Y t = e −βt X t et résoudre<br />
l’équation vérifiée par Y .)<br />
2. Montrer que pour tout choix d’instants t 1 < t 2 < · · · < t d , le vecteur ξ = (X t1 , · · ·X td )<br />
est gaussien. <strong>Calcul</strong>er E(ξ) et <strong>la</strong> matrice de covariance de ξ.<br />
3. Pour tout t ≥ 0, on note I t = ∫ t<br />
X 0 sds. Montrer que pour tout choix d’instants<br />
t 1 < t 2 < · · · < t d , le vecteur (I t1 , · · ·I td ) est gaussien. <strong>Calcul</strong>er E(e It ) pour tout t ≥ 0.<br />
4. <strong>Calcul</strong>er E(X t |F s ) et V ar(X t |F s ) pour tout 0 < s < t.<br />
5. Soit (X t ) <strong>la</strong> solution de (2.46) et φ une fonction de c<strong>la</strong>sse C 2 . Écrire <strong>la</strong> formule d’Itô<br />
pour Z t = φ(X t ). En déduire que si φ(x) = ∫ (<br />
x<br />
exp −β<br />
)dy,<br />
y2<br />
0 a 2<br />
Z t = a<br />
∫ t<br />
0<br />
( )<br />
exp −β B2 s<br />
dB<br />
a 2 s .<br />
Le processus (Z t ) est-il une martingale de carré intégrable?<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
2.7 Exercices 53<br />
6. Fixons λ ∈ R. <strong>Calcul</strong>er<br />
Φ(t, y) = E<br />
( )<br />
e λX2 t<br />
.<br />
Pour t > 0 fixé, étudier <strong>la</strong> (F t )-martingale ( E(e λX2 t |Fs ), 0 ≤ s ≤ t ) . Montrer que Φ<br />
est solution d’une équation aux dérivées partielles que l’on explicitera. Soit Ψ(t, x) =<br />
ln(Φ(t, x)). Montrer que<br />
Ψ(t, x) = x 2 a(t) + b(t) avec a ′ (t) = −a(t)(2β + a 2 a(t)), et b ′ (t) = −a 2 a(t).<br />
Exercice 2.10 Troisième cas particulier b = β = 0<br />
Soit (X t ) <strong>la</strong> solution de l’EDS<br />
dX t = (αX t + a)dB t , X 0 = x ≠ − a α . (2.47)<br />
Soit h <strong>la</strong> fonction définie par<br />
h(y) = 1 ∣ ∣∣∣<br />
α ln a + αy<br />
a + αx∣ pour y ≠ −a α .<br />
1. Soit Y t = h(X t ). Quelle est l’équation vérifiée par Y t ?<br />
2. En déduire que <strong>la</strong> solution de (2.47) est<br />
X t =<br />
(<br />
x + a )<br />
exp<br />
α<br />
)<br />
(− α2<br />
2 t + αB t − a α .<br />
Exercice 2.11 Quatrième cas particulier b = 1 et a = 0<br />
Soit (X t ) <strong>la</strong> solution de (2.44) dans le cas b = 1 et a = 0. On note Y t = e −βt X t .<br />
Quelle est l’équation satisfaite par Y t ? <strong>Calcul</strong>er E(X t ) et V ar(X t ).<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
54 3 Théorème de Girsanov<br />
3 Théorème de Girsanov<br />
Avec <strong>la</strong> formule d’Itô, le théorème de Girsanov est l’outil fondamental du calcul stochastique.<br />
Il décrit comment changer de façon absolument continue <strong>la</strong> loi de certains processus.<br />
Plus précisément, on considère un processus (X t , t ≥ 0) défini sur un espace probabilisé<br />
filtré (Ω, F, (F t ), P), dont <strong>la</strong> loi sous P peut être délicate à étudier. On « perturbe » <strong>la</strong><br />
probabilité P en <strong>la</strong> multipliant par une (F t )-martingale exponentielle. On obtient alors une<br />
nouvelle probabilité Q, sous <strong>la</strong>quelle le processus X suit une autre loi, plus simple à étudier.<br />
On étudie cette loi sous <strong>la</strong> probabilité Q et on revient à <strong>la</strong> probabilité P avec <strong>la</strong> martingale<br />
exponentielle. Les applications de cette méthode sont multiples, aussi bien en finance que<br />
pour l’étude du mouvement brownien.<br />
Convention Dans tout ce chapitre, nous serons amenés à utiliser simultanément plusieurs<br />
probabilités sur un espace mesurable (Ω, F). Si P désigne une telle probabilité, nous noterons<br />
E P (X) = ∫ XdP l’espérance d’une variable aléatoire positive ou P-intégrable X, et de<br />
même E P (X | G) l’espérance conditionnelle de X par rapport à <strong>la</strong> sous-tribu G de F sous <strong>la</strong><br />
probabilité P.<br />
3.1 Changement de probabilité<br />
Soit (Ω, F, P) un espace probabilisé et L une v.a. F-mesurable positive telle que E P (L) =<br />
1, c’est à dire d’espérance 1 sous P. On définit une nouvelle probabilité Q sur F de densité<br />
L par rapport à P en posant Q(A) = E P (L1 A ) pour tout A ∈ F ; on note dQ = L dP.<br />
Alors une variable aléatoire X est Q intégrable si et seulement si LX est P-intégrable; si<br />
X est positive ou Q-intégrable, E Q (X) = E P (LX). De plus, Q est absolument continue par<br />
rapport à P, c’est à dire que pour tout A ∈ F, P(A) = 0 entraîne Q(A) = 0. Si L > 0 P<br />
p.s., alors P est absolument continue par rapport à Q, ce qui entraîne que les probabilités P<br />
et Q sont équivalentes, et <strong>la</strong> probabilité P a pour densité 1 par rapport à Q.<br />
L<br />
Lemme 3.1 Soit (Ω, F, (F t ), P) un espace probabilisé filtré, T > 0. Soit L T une variable<br />
aléatoire F T -mesurable positive ou nulle telle que E P (L T ) = 1. Pour tout t ∈ [0, T], soit<br />
L t = E P (L T | F t ).<br />
(i) Pour tout t < T, si on note dQ| Ft (resp. dP| Ft ) <strong>la</strong> restriction de Q (resp. P) à F t ,<br />
on a<br />
dQ| Ft = L t dP| Ft .<br />
(ii) Soit (M t , t ≥ 0) un processus. C’est une (F t , t ∈ [0, T])-martingale (resp. une (F t , t ∈<br />
[0, T])-martingale locale) sous Q si et seulement si le processus (L t M t , t ∈ [0, T]) est une<br />
(F t , t ∈ [0, T])-martingale (resp. une (F t , t ∈ [0, T])-martingale locale) sous P.<br />
(iii) Si L T > 0 P p.s., les probabilités P et Q sont équivalentes, pour tout t ∈ [0, T],<br />
L t > 0 P (ou Q) presque sûrement, ( 1 L t<br />
, 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T) martingale<br />
sous Q et si Z est F t mesurable et positive ou bien Q-intégrable, pour tout s ∈ [0, t],<br />
E Q (Z | F s ) = E P(ZL t | F s )<br />
L s<br />
= E P(ZL t | F s )<br />
E P (L t | F s ) .<br />
Démonstration. La filtration (F t , t ∈ [0, T]) étant fixée, les martingales considérées (sous les<br />
probabilités P ou Q) le seront toujours par rapport à cette filtration sans que ce soit précisé.<br />
(i) Pour tout t < T et tout A ∈ F t on a<br />
Q(A) = E P (L T 1 A ) = E P (E P [L T | F t ] 1 A ) = E P (L t 1 A ) .<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
3.2 Formule de Cameron Martin 55<br />
(ii) Supposons que (M t , t ∈ [0, T]) est une Q-martingale. Pour tout s ≤ t ≤ T et tout<br />
A ∈ F s on a<br />
E P (L t M t 1 A ) = E Q (M t 1 A ) = E Q (M s 1 A ) = E P (L s M s 1 A )<br />
et l’on en déduit que (L t M t , t ∈ [0, T]) est une P-martingale. La réciproque se démontre de<br />
façon simi<strong>la</strong>ire. Si M est une martingale locale sous Q, <strong>la</strong> suite croissante de temps d’arrêt<br />
τ n → ∞ telle que (M τn∧t, t ∈ [0, T]) est une (F t )-martingale sous Q fait de (M τn∧tL τn∧t, t ∈<br />
[0, T]) une (F t )-martingale sous P.<br />
(iii) Puisque L T > 0, <strong>la</strong> mesure P est absolument continue par rapport à Q de densité<br />
1<br />
L T<br />
sur F T . Pour tout t ∈ [0, T], <strong>la</strong> variable aléatoire 1 L t<br />
: Ω → [0, +∞] est positive telle que<br />
E Q (1/L t ) = E P (L t /L t ) = 1. On a donc 1 L t<br />
< +∞ Q p.s., soit L t > 0 Q (et P) p.s.<br />
Soit Z ∈ L 1 (Q) une variable aléatoire F t -mesurable. Alors, pour s ≤ t, L −1<br />
s E P(ZL t |F s )<br />
est F s -mesurable et pour tout A ∈ F s ,<br />
E Q (Z1 A ) = E P (Z1 A L t ) = E P (1 A E P (ZL t | F s )) = E Q (1 A L −1<br />
s E P (ZL t | F s )),<br />
donc E Q (Z|F s ) = L −1<br />
s E P(ZL t |F s ) Q p.s. (ou P p.s.). Le raisonnement est simi<strong>la</strong>ire si Z ≥ 0<br />
est F t mesurable.<br />
Montrons que pour tout t ∈ [0, T], L −1<br />
t<br />
F t -mesurable et bornée; alors Z L −1<br />
t<br />
E Q (ZL −1<br />
t<br />
= E Q (L −1<br />
T<br />
est F t mesurable et<br />
) = E P (ZL −1<br />
t L t ) = E P (Z) = E Q (ZL −1<br />
T ).<br />
| F t) Q p.s. Soit Z une variable aléatoire<br />
Puisque L −1<br />
t<br />
est F t -mesurable, L −1<br />
t<br />
= E Q (L −1<br />
T |F t) Q p.s.<br />
✷<br />
3.2 Formule de Cameron Martin<br />
Présentons tout d’abord l’idée principale en dimension finie. Soit X 1 , . . .,X n des variables<br />
gaussiennes centrées réduites indépendantes, construites sur un même espace probabilisé<br />
(Ω, F, P). Pour tout (µ 1 , . . .,µ n ) ∈ R n on a<br />
E P<br />
[exp<br />
( n∑<br />
i=1<br />
µ i X i<br />
)]<br />
=<br />
n∏<br />
E P [exp (µ i X i )] = exp<br />
i=1<br />
(<br />
1<br />
2<br />
n∑<br />
i=1<br />
µ 2 i<br />
)<br />
,<br />
ce qui entraîne<br />
E P (L) = 1 où L = exp<br />
[ n∑ ( ) ]<br />
µ i X i − µ2 i<br />
.<br />
2<br />
i=1<br />
Ainsi, on peut définir une nouvelle probabilité Q sur (Ω, F) en posant dQ = L dP, c’est à<br />
dire<br />
∫<br />
Q (A) = E P (L1 A ) = L(ω)dP(ω)<br />
pour tout A ∈ F. Le lemme 3.1 montre que Q est bien une probabilité équivalente à P<br />
sur (Ω, F), c’est à dire que P (A) = 0 si et seulement si Q (A) = 0 pour tout A ∈ F. La<br />
variable L désigne <strong>la</strong> densité de Q par rapport à P.<br />
A<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
56 3 Théorème de Girsanov<br />
On cherche maintenant à savoir quelle est <strong>la</strong> loi du n-uple (X 1 , . . ., X n ) sous cette nouvelle<br />
probabilité Q. Pour ce<strong>la</strong> on écrit pour tout borélien A ∈ R n ,<br />
Q ( (X 1 , · · · , X n ) ∈ A ) =<br />
∫<br />
P n<br />
i=1<br />
1 {(X1 ,···,X n)∈A} e<br />
= (2π) −n/2 ∫<br />
= (2π) −n/2 ∫<br />
A<br />
A<br />
P n<br />
i=1<br />
e<br />
„<br />
«<br />
µ i X i − µ2 i<br />
2<br />
dP<br />
„<br />
µ i x i − µ2 i<br />
2<br />
«e − P n x 2 i<br />
i=1 2 dx1 · · ·dx n<br />
e −1 2<br />
P n<br />
i=1 (x i−µ i ) 2 dx 1 · · ·dx n<br />
et l’on en déduit que si µ = (µ 1 , . . .,µ n ) : sous Q, (X 1 , . . .,X n ) est un vecteur gaussien<br />
N(µ, Id), c’est à dire que :<br />
sous Q, (X 1 , · · · , X n ) − (µ 1 , µ 2 , · · · , µ n ) est un vecteur gaussien N(0, Id).<br />
La formule de Cameron-Martin obéit au même principe de changement de probabilité,<br />
sauf que celui-ci a lieu sur l’espace des fonctions continues et donc en dimension infinie.<br />
On se donne un Brownien standard (B t , t ≥ 0) sur (Ω, F, P) et (Ft B , t ≥ 0) sa filtration<br />
naturelle (complétée). Pour tout m ∈ R, on sait que le processus<br />
[ ]<br />
t ↦→ L m t = exp mB t − m2 t<br />
est une (Ft B )-martingale positive.<br />
2<br />
Remarquons déjà l’analogie entre cette martingale L m et <strong>la</strong> variable L définie plus haut.<br />
On fixe alors un horizon T > 0 et on construit une nouvelle probabilité Q m T sur ( )<br />
Ω, FT<br />
B en<br />
posant : Q m T (A) = E P (L m T 1 A). La formule de Cameron-Martin spécifie alors <strong>la</strong> loi de B<br />
sous Q m T .<br />
Théorème 3.2 (Formule de Cameron-Martin) Soit B un Brownien standard et m ∈ R.<br />
Avec les notations précédentes, le processus défini par ( ˜B t = B t − mt, 0 ≤ t ≤ T) est un<br />
(Ft B, 0 ≤ t ≤ T) Brownien sous <strong>la</strong> probabilité Qm T , .<br />
Démonstration. Remarquons d’abord que les tribus Ft B et F ˜B<br />
t ( sont égales pour tout t ∈<br />
[0, T]. Fixons λ ∈ R et considérons le processus Zt λ = exp λ ˜B<br />
)<br />
t − λ 2 t/2 . Pour tout<br />
0 ≤ s ≤ t ≤ T et tout A ∈ Fs B , on a :<br />
[<br />
] )<br />
( ) ( )<br />
E Q Z<br />
λ<br />
t 1 A = EP Z<br />
λ<br />
t L t 1 A = EP<br />
(exp λ ˜B t − λ2 t<br />
2 + mB t − m2 t<br />
1 A<br />
2<br />
[<br />
] )<br />
= E P<br />
(exp λB t − λmt − λ2 t<br />
2 + mB t − m2 t<br />
1 A<br />
2<br />
[<br />
= E P<br />
(exp (λ + m)B t − (λ + ] )<br />
m)2 t<br />
1 A<br />
2<br />
( [<br />
] )<br />
Puisque B est un Brownien sous P, le processus exp (λ + m)B t − (λ+m)2 t<br />
, t ∈ [0, T]<br />
2<br />
est une (Ft B )-martingale sous P. On en déduit que pour tout A ∈ Fs B ,<br />
[<br />
( )<br />
E Q Z<br />
λ<br />
t 1 A = EP<br />
(exp (λ + m)B s − (λ + ] )<br />
m)2 s<br />
1 A<br />
2<br />
= E P<br />
(<br />
Z<br />
λ<br />
s L s 1 A<br />
)<br />
= EQ<br />
(<br />
Z<br />
λ<br />
s 1 A<br />
)<br />
.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
3.3 Théorème de Girsanov 57<br />
( ) ( ) ( )<br />
On en déduit que E Q Z<br />
λ<br />
t 1 A = E Q Z<br />
λ<br />
s 1 A , d’où EQ Z<br />
λ<br />
t | Fs<br />
B = Zs λ Q p.s. pour<br />
tout s ≤ t ≤ T. Pour tout λ ∈ R, le processus Z λ est donc une (Ft B )-martingale sous <strong>la</strong><br />
probabilité Q et le théorème de caractérisation de Paul Lévy 1.33 permet de conclure que<br />
˜B est un (Ft B , 0 ≤ t ≤ T)-Brownien sous Q. ✷<br />
3.3 Théorème de Girsanov<br />
Le but de cette section est d’étendre le théorème de Cameron-Martin en trans<strong>la</strong>tant <strong>la</strong><br />
trajectoire Brownienne à l’instant t par l’intégrale d’un processus non-constant Ce théorème<br />
est d’une très grande importance pratique.<br />
Théorème 3.3 Soit (B t , t ≥ 0) un Brownien standard d-dimensionnel sur (Ω, F, P), et<br />
(Ft B , t ≥ 0) sa filtration naturelle complétée. Soit T > 0, (θ(t), 0 ≤ t ≤ T) un processus<br />
d-dimensionnel appartenant à H2 T et pour tout t ∈ [0, T], soit<br />
( ∫ t d∑<br />
L t = exp θ i (s)dBs i − 1 ∫ )<br />
t<br />
‖θ s ‖ 2 ds . (3.1)<br />
2<br />
0<br />
i=1<br />
Alors, si E P (L T ) = 1, le processus (L t , 0 ≤ t ≤ T) est une (F B t )-martingale, et<br />
Q(dω) = L T (ω)P(dω) est une probabilité équivalente à Q<br />
Le processus W = (Wt,0 i ≤ t ≤ T, i = 1, · · · , d) défini par<br />
W i<br />
t = B i t −<br />
∫ t<br />
0<br />
θ i (s) ds est un (F B t )-mouvement brownien sous Q.<br />
Démonstration. Pour dégager les idées, nous ne ferons <strong>la</strong> démonstration qu’en dimension<br />
d = 1. Soit θ = (θ s ) ∈ H2 2 et (L t , 0 ≤ t ≤ T) le processus défini par (3.1). Alors L t = e Xt > 0<br />
où X t = ∫ t<br />
θ ∫<br />
0 sdB s − 1 t<br />
2 0 θ2 sds est un processus d’Itô. La formule d’Itô montre que sous P,<br />
dL t = L t dX t + 1 2 L tθ 2 t dt = L tθ t dB t .<br />
On en déduit que sous P, (L t , t ∈ [0, T]) est une martingale locale positive, donc une surmartingale<br />
(cf. Exercice 1.4). On a donc pour 0 ≤ t ≤ T, L t ≥ E P (L T |Ft B ). De plus,<br />
E P (L T ) = E P (L 0 ) = 1 = E P (L t ) pour tout t ∈ [0, T] et (L t , 0 ≤ t ≤ T) est donc une<br />
(Ft B )-martingale sous P.<br />
D’après <strong>la</strong> caractérisation de Paul Lévy (Théorème 1.33 (ii)), puisque W 0 = 0, pour<br />
montrer que W est un (Ft B , 0 ≤ t ≤ T)-Brownien sous Q, il suffit de montrer que sous Q<br />
(W t , 0 ≤ t ≤ T) et (Wt 2 − t, 0 ≤ t ≤ T) sont des (Ft B )-martingales locales continues. En<br />
appliquant le Lemme 3.1, ce<strong>la</strong> revient à prouver que les processus (L t W t , 0 ≤ t ≤ T) et<br />
(L t (Wt 2 − t), 0 ≤ t ≤ T) sont des (FB t )-martingales locales continues sous P.<br />
En appliquant <strong>la</strong> formule d’Itô au produit et le fait que sous P,<br />
on obtient sous P,<br />
dW t = dB t − θ t dt,<br />
d(L t W t ) = L t dW t + W t dL t + d〈L, W 〉 t<br />
= L t dB t − L t θ t dt + W t θ t L t dB t + L t θ t dt = (1 + θ t W t )L t dB t .<br />
0<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
58 3 Théorème de Girsanov<br />
On en déduit que (L t W t , 0 ≤ t ≤ T) est bien une (Ft B , 0 ≤ t ≤ T)-martingale locale continue<br />
sous P. De plus, <strong>la</strong> formule d’Itô entraîne que si Y t = Wt 2 − t, sous P,<br />
dY t = 2W t dW t + 1 2 2d〈W, W 〉 t − dt = 2W t dB t − 2W t θ t dt + dt − dt = 2W t dB t − 2W t θ t dt.<br />
En appliquant de nouveau <strong>la</strong> formule d’Itô au produit, on déduit que sous P<br />
d(L t Y t ) = L t dY t + Y t dL t + d〈L, Y 〉 t<br />
= 2L t W t dB t − 2L t W t θ t dt + Y t L t θ t dB t + 2W t L t θ t dt = L t (2W t + Y t θ t )dB t .<br />
(<br />
)<br />
Le processus (Wt 2 − t)L t , 0 ≤ t ≤ T est donc bien une (Ft B )-martingale locale continue<br />
sous P. ✷<br />
Le lemme 3.1 et le théorème 3.3 montrent que P s’écrit en fonction de Q sous <strong>la</strong> forme<br />
dP = L −1<br />
T<br />
dQ. En transformant l’intégrale stochastique par rapport à B en une intégrale<br />
stochastique par rapport à W t = B t − ∫ t<br />
θ 0 sds, on obtient<br />
( ∫ t<br />
L −1<br />
t = exp − θ s dB s + 1 ∫ t<br />
) ( ∫ t<br />
θs 2<br />
0 2<br />
ds = exp − θ s dW s − 1 ∫ t<br />
)<br />
θs 2 2<br />
ds ,<br />
0<br />
où il est c<strong>la</strong>ir que <strong>la</strong> dernière exponentielle d’intégrale stochastique par rapport au processus<br />
W, qui est un Brownien sous Q, est une (Ft B , 0 ≤ t ≤ T)-martingale sous Q.<br />
On utilise souvent le théorème de Girsanov de <strong>la</strong> façon suivante. On dispose d’un processus<br />
θ ∈ H2 T, on pour tout t ∈ [0, T] note Z t = ∫ t<br />
θ 0 sdB s et L t = exp ( Z t − 1〈Z, Z〉 2 t)<br />
. On<br />
suppose que E(L T ) = 1 et on note Q <strong>la</strong> probabilité dont <strong>la</strong> restriction à F t est L t pour tout<br />
t ∈ [0, T]. On a d’autre part un processus H ∈ H2 loc et M t = ∫ t<br />
H 0 sdB s une (F t )-martingale locale<br />
continue sous P, de crochet 〈M, M〉 t = ∫ t<br />
‖H 0 s‖ 2 ds. Alors le processus N t = M t −〈M, Z〉 t<br />
est sous Q une (F t )-martingale locale continue de crochet 〈N, N〉 t = 〈M, M〉 t (sous P ou Q,<br />
puisque les crochets étant <strong>la</strong> variation quadratique des processus et les probabilités P et Q<br />
étant équivalentes, les crochets sont les mêmes sous ces deux probabilités).<br />
En effet, pour montrer cette propriété, d’après le lemme 3.1, il suffit de vérifier que sous<br />
P, le processus L t N t = L t (M t − 〈M, Z〉 t ) est une (F t )-martingale locale, ce qui découle<br />
facilement de <strong>la</strong> formule d’Itô.<br />
3.4 Condition de Novikov et généralisations<br />
Le résultat suivant sera très utile dans le chapitre suivant. Il introduit une martingale<br />
locale de forme exponentielle et donne des conditions suffisantes pour que ce soit une<br />
martingale. Cette martingale exponentielle est à <strong>la</strong> base d’un changement de probabilité<br />
fondamental en finance.<br />
Soit θ ∈ H2 loc(FB<br />
t ) un processus cad<strong>la</strong>g, (FB t )-adapté, tel que ∫ t<br />
0 θ2 s ds < +∞ p.s. pour<br />
tout t > 0 et Z 0 une constante. Par <strong>la</strong> formule d’Itô, on démontre que l’unique solution de<br />
l’EDS<br />
est<br />
Z t = Z 0 +<br />
∫ t<br />
[∫ t<br />
Z t = Z 0 exp θ s dB s − 1<br />
0 2<br />
0<br />
0<br />
θ s Z s dB s (3.2)<br />
∫ t<br />
0<br />
θ 2 s ds ]<br />
.<br />
0<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
3.4 Condition de Novikov et généralisations 59<br />
Le processus Z est appelé l’exponentielle de Doléans-Dade de θ ⋆ B. D’après (3.2), c’est<br />
une martingale locale. Le critère suivant permet de savoir quand l’exponentielle de Doléans-<br />
Dade est une martingale. Il est formulé dans un cadre multidimensionnel et on pourra lire<br />
sa démonstration dans [7], p. 200.<br />
Théorème 3.4 (Condition de Novikov) Supposons que B est un (F t ) Brownien standard<br />
de dimension d, (θ t ) un processus à valeurs dans R d , (F t )-adapté tel que<br />
[ ( ∫ 1 T<br />
)]<br />
E exp ‖θ s ‖ 2 ds < ∞.<br />
2<br />
Si pour tout t ∈ [0, T] on note<br />
Z t (θ) = exp<br />
( d∑<br />
i=1<br />
0<br />
∫ t<br />
0<br />
θ i s dBi s − 1 2<br />
∫ t<br />
0<br />
‖θ s ‖ 2 ds<br />
le processus t ↦→ Z t (θ) est une (F t , 0 ≤ t ≤ T)-martingale uniformément intégrable.<br />
Quand <strong>la</strong> condition de Novikov n’est pas satisfaite, Z t (θ) est une martingale locale positive,<br />
donc une surmartingale, et E(Z t (θ)) ≤ E(Z s (θ)) ≤ Z 0 (θ) pour tout t ≥ s ≥ 0. Il<br />
faut remarquer que, même si <strong>la</strong> martingale locale (Z t (θ)) est uniformément intégrable, ce<br />
n’est pas nécessairement une martingale. Par contre, si <strong>la</strong> famille de variables aléatoires<br />
{Z τ (θ), τ temps d’arrêt} est uniformément intégrable, alors (Z t (θ)) est une martingale uniformément<br />
intégrable.<br />
On dispose de critères alternatifs à <strong>la</strong> condition de Novikov en dimension 1. On pourra<br />
lire <strong>la</strong> démonstration dans [6].<br />
Proposition 3.5 Soit B un Brownien standard à valeurs dans R d , θ ∈ H2 T un processus à<br />
valeurs dans R d tel qu’il existe des instants 0 = t 0 < t 1 < t N = T pour lesquels pour tout<br />
n ∈ {1, · · · , N},<br />
( ∫ 1<br />
tn<br />
)<br />
E P ‖θ s ‖ 2 ds < +∞. (3.3)<br />
2 t n−1<br />
Alors si pour t ∈ [0, T] on pose L t = e R t R t<br />
0 θsdBs−1 2 0 ‖θs‖2ds , on a E P (L T ) = 1 et le processus<br />
(L t , t ∈ [0, T]) est une (F t )-martingale.<br />
Démonstration. Pour tout n ∈ {1, · · · , N}, notons θ(n) t = θ t 1 [tn−1 ,t n[(t). La condition de<br />
Novikov est satisfaite par θ(n) et le Théorème 3.4 montre que si on note<br />
(∫ t<br />
L t (θ(n)) = exp θ(n) s dB s − 1 ∫ t<br />
)<br />
‖θ(n) s ‖ 2 ds ,<br />
2<br />
on a<br />
0<br />
E P<br />
[<br />
Ltn (θ(n))|F tn−1<br />
]<br />
= Ltn−1 (θ(n)) = 1.<br />
On montre par récurrence sur n ≤ N que E P (L tn ) = 1. En effet, pour tout n ∈ {1, · · · , N}<br />
E P (L tn ) = E P<br />
[<br />
Ltn−1 E P<br />
(<br />
Ltn (θ(n))|F tn−1<br />
)]<br />
= EP (L tn−1 ).<br />
Puisque t N = T, on en déduit que E P (L T ) = 1, ce qui entraîne <strong>la</strong> propriété de martingale<br />
de (L t ) comme on l’a vu dans le début de <strong>la</strong> démonstration du Théorème de Girsanov (le<br />
0<br />
)<br />
,<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
60 3 Théorème de Girsanov<br />
processus (L t ) est une martingale locale positive, donc une surmartingale, dont l’espérance<br />
est constante). ✷<br />
Le résultat suivant généralise le théorème de Novikov 3.4 pour des coefficient de dérive<br />
qui sont fonction du Brownien. Il suffit dans ce cas d’imposer une restriction sur <strong>la</strong> croissance<br />
du coefficient b(t, x).<br />
Proposition 3.6 (Beneš) Soit B un Brownien standard de dimension d, T > 0 et b :<br />
[0, T]×Ω → R d une fonction borélienne telle qu’il existe une constante K pour <strong>la</strong>quelle pour<br />
tout x ∈ R d ,<br />
( ∫ t<br />
Alors si L t = exp b(s, B ∫<br />
0 s)dB s − 1 t<br />
2<br />
est une (F t )-martingale.<br />
sup ‖b(t, x)‖ ≤ K(1 + ‖x‖).<br />
t∈[0,T]<br />
)<br />
0 ‖b(s, B s)| 2 ds<br />
, on a E(L T ) = 1 et (L t , 0 ≤ t ≤ T)<br />
Démonstration. Soit N et pour n ∈ {0, · · · , N}, t n = T . Pour tout n ∈ {1, · · · , N},<br />
N<br />
∫ tn<br />
‖b(s, B s )‖ 2 ds ≤ 2K 2 T [<br />
]<br />
1 + sup ‖B s ‖ 2 .<br />
t n−1<br />
N 0≤s≤T<br />
Pour toute constante c > 0, <strong>la</strong> convexité de <strong>la</strong> fonction x → exp[c(1 + ‖x‖ 2 )] entraîne que<br />
Y t = exp [ c(1 + ‖B t ‖ 2 ) ] est une sous martingale et pour C assez petit (tel que CT < 1 2 )<br />
E P<br />
[<br />
e<br />
C(1+‖B T ‖ 2 ) ] < +∞. L’inégalité de Doob montre alors que<br />
[<br />
] [<br />
) ] 2 [ ]<br />
E P e C(1+sup 0≤t≤T ‖Bt‖2 )<br />
= E P sup<br />
(e C 2 (1+‖B‖2 t ) ≤ 4 E P e C(1+‖B T ‖ 2 )<br />
< +∞.<br />
0≤t≤T<br />
La proposition 3.5 permet de conclure en choisissant des instants t n tels que ∆t = t n −t n−1 =<br />
2C < 1 . ✷ T<br />
Exemple 3.7 Le choix b(t, x) = λx et l’égalité B 2 t = 2 ∫ t<br />
0 B sdB s + t (qui découle immédiatement<br />
de <strong>la</strong> formule d’Itô) montrent que d’après <strong>la</strong> Proposition 3.6 le processus<br />
est une (F B t )-martingale.<br />
(<br />
t → exp λ B2 t − t<br />
− λ2<br />
2 2<br />
∫ t<br />
0<br />
B 2 s ds )<br />
Le résultat suivant généralise le précédent à des coefficients de dérive qui sont fonction<br />
d’un processus plus général. Il faut par contrôler <strong>la</strong> restriction sur <strong>la</strong> croissance et les<br />
accroissements.<br />
Proposition 3.8 (Critère de Kazamaki) Si le processus (θ t ) est une martingale locale telle<br />
que le processus t → e 1 2 θt est une sous-martingale [ uniformément intégrable, alors l’exponentielle<br />
de Doléans-Dade Z t (θ) = exp θ ∫ ]<br />
∫ t<br />
0 s dB s − 1 t<br />
2 0 θ2 s ds est une martingale uniformément<br />
intégrable.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
3.5 Existence de solutions faibles 61<br />
Proposition 3.9 (Critère de non explosion) Soit T > 0, θ t = b(t, B s ) où b : [0, +∞[×R →<br />
R est une fonction telle qu’il existe une constante K telle que<br />
{ |b(t, x) − b(t, y)| ≤ K|x − y| , ∀x, y ∈ R , ∀t ≥ 0,<br />
sup t≤T |b(t, 0)| ≤ K.<br />
Alors le processus (Z t , t ∈ [0, T]) défini par<br />
(∫ t<br />
Z t (θ) = exp b(s, B s )dB s − 1 2<br />
0<br />
∫ t<br />
0<br />
)<br />
b(s, B s ) 2 ds<br />
est une (F t )-martingale. De façon plus générale, le processus t ↦→ Z t (θ) est une (F t )-<br />
martingale dès que l’EDS<br />
dX t = dB t + b(t, X t )dt , X 0 = 0<br />
a une unique solution faible sur tout l’intervalle [0, +∞[ (ce qu’on appelle sans explosion).<br />
3.5 Existence de solutions faibles<br />
Le théorème de Girsanov permet de montrer l’existence d’une solution faible à des EDS<br />
qui n’admettent pas forcément de solution forte. C’est une généralisation de <strong>la</strong> condition de<br />
Novikov qui permet de faire le changement de probabilité.<br />
Proposition 3.10 Soit B un Brownien standard à valeurs dans R d , T > 0 et b : [0, T]×Ω →<br />
R d une fonction borélienne telle qu’il existe une constante K pour <strong>la</strong>quelle pour tout x ∈ R d<br />
Alors pour tout x ∈ R d , l’EDS<br />
sup ‖b(t, x)‖ ≤ K(1 + ‖x‖). (3.4)<br />
t∈[0,T]<br />
X t = x + B t +<br />
∫ t<br />
0<br />
b(s, X s )ds , 0 ≤ t ≤ T (3.5)<br />
admet une solution faible sur l’intervalle [0, T]. De ( plus, si (Ω (i) , F (i) , (F (i)<br />
t ), P (i) , B (i) , X (i) ),<br />
∫ )<br />
i = 1, 2 sont deux solutions faibles telles que P (i) T<br />
‖b(t, X(i)<br />
0 t )‖ 2 dt < +∞ = 1, les couples<br />
(B (i) , X (i) ) ont <strong>la</strong> même loi sur leurs espaces respectifs.<br />
Démonstration. Pour prouver l’existence d’une solution faible, soit (Ω, F, (F t ), P) un espace<br />
filtré et un Brownien B pour <strong>la</strong> filtration (F t ). Les conditions de restriction sur <strong>la</strong> croissance<br />
imposées à b et <strong>la</strong> Proposition 3.6 montrent que pour tout x ∈ R d , le processus<br />
( d∑ ∫ t<br />
Z t = exp b i (s, x + B s )dBs i − 1 ∫ )<br />
t<br />
‖b(s, x + B s )‖ 2 ds , 0 ≤ t ≤ T,<br />
i=1 0<br />
2 0<br />
est une vraie martingale sous P. On en déduit que <strong>la</strong> mesure Q de densité Z T par rapport<br />
à P est une probabilité et que le processus<br />
W t = B t −<br />
∫ t<br />
0<br />
b(s, x + B s )ds , 0 ≤ t ≤ T,<br />
est un Brownien sous Q tel que W 0 = 0. Ceci revient à écrire que sous Q, le processus<br />
X t = x + B t satisfait X t = x + W t + ∫ t<br />
b(s, X 0 s)ds, et que (X, W, Q) est une solution faible<br />
de (3.5) avec <strong>la</strong> filtration de départ.<br />
On pourra lire <strong>la</strong> démonstration de l’unicité dans [7], page 304. ✷<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
62 3 Théorème de Girsanov<br />
3.6 Exemples d’application à des calculs d’espérance<br />
Le théorème de Girsanov permet de calculer simplement les espérances de fonctionnelles<br />
du Brownien. Nous traiterons trois exemples.<br />
1) Pour calculer<br />
(∫ T<br />
E P<br />
[B t exp θ s dB s − 1 ∫ T<br />
)]<br />
θs 2<br />
0 2<br />
ds ,<br />
0<br />
pour t < T, et où ( θ est une fonction déterministe qui appartient à L 2 ([0, T]), introduisons <strong>la</strong><br />
∫ T<br />
densité L T = exp θ ∫<br />
0 sdB s − 1 T<br />
2 0 θ2 s<br />
), ds puis <strong>la</strong> probabilité Q de densité L T par rapport<br />
( ∫<br />
à P sur FT B. Alors, sous P, <strong>la</strong> propriété de martingale de L t<br />
t = exp θ ∫ )<br />
0 sdB s − 1 t<br />
2 0 θ2 sds<br />
pour <strong>la</strong> filtration naturelle du Brownien et le théorème de Girsanov montrent que si W t =<br />
B t − ∫ t<br />
θ 0 sds,<br />
∫ t<br />
) ∫ t<br />
E P (B t L T ) = E P (B t L t ) = E Q (B t ) = E Q<br />
(W t + θ s ds = θ s ds.<br />
Dans le cas particulier θ = 1, on en déduit E P<br />
(<br />
Bt e Bt )<br />
= t e<br />
t<br />
2 (ce que l’on peut bien sûr<br />
retrouver en utilisant directement <strong>la</strong> loi de B t ).<br />
avec<br />
2) Reprenons le calcul du call fait dans <strong>la</strong> section 2.6.2. Rappelons qu’il nous faut calculer<br />
[<br />
]<br />
C(t, x) = E e r(t−T) (˜S t,x<br />
T − K)+ ,<br />
˜S<br />
t,x<br />
T<br />
= xeσ(B T −B t)+<br />
(r− σ2<br />
2<br />
C(t, x) = E P<br />
[<br />
)<br />
(T −t) . La loi de B T − B t est égale à celle de B T −t , donc<br />
e r(t−T) (<br />
xe σB T −t+<br />
(r− σ2<br />
2<br />
= E P<br />
[<br />
xe σB T −t− σ2<br />
2 (T −t) 1<br />
{xe<br />
σB T −t +(r− σ2<br />
− Ke r(t−T) P<br />
Introduisons <strong>la</strong> densité de probabilité<br />
L T −t = exp<br />
(∫ T −t<br />
0<br />
σdB s − 1 2<br />
∫ T −t<br />
0<br />
(xe σB T −t+(r− σ2<br />
0<br />
) ) ] +<br />
(T −t) − K<br />
2 )(T −t) >K}<br />
2 )(T −t) > K<br />
)<br />
.<br />
) (<br />
σ 2 ds = exp σB T −t − 1 )<br />
2 σ2 (T − t) .<br />
Alors si Q désigne <strong>la</strong> probabilité de densité L T −t par rapport à P, W s = B s − σs est un<br />
(Fs B )-Brownien sous Q. De plus en écrivant B s = W s + σs, on en déduit<br />
⎛<br />
⎞<br />
(<br />
)<br />
)<br />
E P<br />
⎝xL T −t 1 ( ) ⎠ = xQ σW<br />
xe σB T −t + (r− σ2<br />
2 )(T −t) T −t +<br />
(r + σ2<br />
(T − t) > ln(K/x) .<br />
>K 2<br />
L’autre terme à calculer est simi<strong>la</strong>ire, puisqu’il s’écrit<br />
(<br />
)<br />
)<br />
Ke −r(T −t) P σB T −t +<br />
(r − σ2<br />
(T − t) > ln(K/x) .<br />
2<br />
]<br />
0<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
3.6 Exemples d’application à des calculs d’espérance 63<br />
On en déduit immédiatement l’expression de C(t, x) trouvée dans <strong>la</strong> section 2.6.2 à l’aide<br />
de <strong>la</strong> fonction de répartition F de <strong>la</strong> gaussienne centrée réduite et des réels d 1 et d 2 ,<br />
C(t, x) = xF(d 1 ) − Ke −r(T −t) F(d 2 ),<br />
[ ( )<br />
1 xe<br />
r(T −t)<br />
d 1 =<br />
σ √ ln + 1 ]<br />
T − t K 2 σ2 (T − t) et d 2 = d 1 − σ √ T − t ;<br />
le lien entre d 1 et d 2 est évident.<br />
Remarquons d’ailleurs une formule importante sur <strong>la</strong> dualité call-put. Le put dual de C<br />
est défini pour t ∈ [0, T] par<br />
[<br />
P(t, x) = E e r(t−T)( ) ]<br />
t,x +<br />
K − ˜S<br />
T<br />
.<br />
C<strong>la</strong>irement,<br />
[ ]<br />
C(t, x) − P(t, x) = e r(t−T) t,x<br />
E( ˜S<br />
T ) − K = x − K e −r(T −t) .<br />
Il est souvent plus judicieux de calculer le put (par simu<strong>la</strong>tion en utilisant une méthode de<br />
Monte-Carlo car sa variance est inférieure à celle du call, ce qui améliore <strong>la</strong> précision pour<br />
un nombre de simu<strong>la</strong>tions fixé), puis d’en déduire le call grâce à <strong>la</strong> formule de dualité. On<br />
pourra trouver directement <strong>la</strong> valeur du put en appliquant le théorème de Girsanov par une<br />
technique simi<strong>la</strong>ire à celle utilisée pour évaluer le call.<br />
Dans ce modèle, si on rapporte le prix de l’actif risqué à l’instant t à celui de l’actif sans<br />
risque, c’est à dire si on étudie<br />
¯S t = e −rt S t = e σBt+ “<br />
”<br />
b−r− σ2<br />
2 t ,<br />
le Théorème de Girsanov montre que si λ = b−r , à chaque instant T > 0 en choisissant <strong>la</strong><br />
σ<br />
probabilité Q de densité<br />
)<br />
L T = exp<br />
(−λB T − λ2<br />
2 T<br />
par rapport à P, le processus (W t = B t + λt, 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T)-martingale<br />
sous Q et pour t ≤ T on a ¯S t = exp(σW t − σ2<br />
t). Ceci entraîne que sous Q, (¯S 2 t , 0 ≤ t ≤ T)<br />
est une (F t , 0 ≤ t ≤ T)-martingale. On dit que cette probabilité Q est <strong>la</strong> probabilité risque<br />
neutre.<br />
3) Enfin, pour calculer<br />
[<br />
I = E P Φ(B T )e − λ2 R T<br />
]<br />
2 0 B2 s ds ,<br />
on introduit pour t ∈ [0, T]<br />
L t = exp<br />
(<br />
−λ<br />
∫ t<br />
0<br />
B s dB s − λ2<br />
2<br />
∫ t<br />
0<br />
B 2 s ds )<br />
.<br />
Le critère de de Beneš (Proposition 3.6) ou de non-explosion (Proposition 3.9) appliqué à<br />
<strong>la</strong> fonction b(s, x) = −λx montre que (L t , 0 ≤ t ≤ T) est une (F t )-martingale. De plus, <strong>la</strong><br />
formule d’Itô (Exemple 3.7) montre que ∫ t<br />
B 0 sdB s = 1 2 (B2 t − t), c’est à dire que<br />
(<br />
∫<br />
L t = exp −λ B2 t − t t<br />
)<br />
− λ2<br />
Bs 2 2 2<br />
ds .<br />
0<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
64 3 Théorème de Girsanov<br />
De plus sous Q, W t = B t + λ ∫ t<br />
0 B sds est un Brownien, c’est à dire que sous Q,<br />
B t = W t − λ<br />
∫ t<br />
0<br />
B s ds<br />
est un processus d’Ornstein-Uhlenbeck. D’après l’exercice 2.2, sous Q <strong>la</strong> variable aléatoire<br />
B t = e ∫ −λt t<br />
0 eλs dB s et suit une donc loi gaussienne N ( 0, 1 (1 − 2λ e−2λt ) ) . De plus<br />
(<br />
) ( )<br />
I = E P L T e λ B2 T −T<br />
λ 2 Φ(B T ) = E B2 T −T<br />
Q<br />
2 Φ(B T ) ,<br />
et cette dernière intégrale se calcule de façon explicite à l’aide de <strong>la</strong> densité de <strong>la</strong> gaussienne<br />
B T sous Q.<br />
3.7 Théorème de représentation prévisible<br />
Dans toute cette section, B est un Brownien standard et (Ft B ) est sa filtration naturelle<br />
(complétée). Cette hypothèse est cruciale. Nous ne manipulerons qu’une probabilité P et<br />
noterons E l’espérance sous P. Nous allons vérifier que dans ce cas, toute (Ft B )-martingale<br />
locale continue nulle en 0 peut être écrite comme l’intégrale stochastique d’un processus de<br />
H2 loc .<br />
Montrons tout d’abord une propriété de représentation des variables aléatoires F T -<br />
mesurables de carré intégrable pour P.<br />
Nous commençons par montrer un lemme technique sur une famille de variable aléatoires<br />
dense dans L 2 (FT B), qui explique comment <strong>la</strong> mesurabilité par rapport à <strong>la</strong> tribu FB T<br />
utilisée.<br />
Lemme 3.11 Pour tout T > 0, <strong>la</strong> famille de variables aléatoires {Ψ(B t1 , · · · , B tn ) : 0 <<br />
t 1 < · · ·t n ≤ T, ψ ∈ C ∞ 0 } est dense dans L2 (F B T ).<br />
est<br />
Démonstration. Soit (t k , k ∈ N) <strong>la</strong> suite des éléments de Q∩[0, T] et pour tout n ≥ 1, soit B n<br />
<strong>la</strong> tribu engendrée par les variables aléatoires B tk , 1 ≤ k ≤ n. La suite (B n ) est une filtration<br />
et <strong>la</strong> tribu B ∞ = σ(B ti , i ≥ 1) est égale à FT B. De plus, pour tout X ∈ L2 (FT B ), <strong>la</strong> suite de<br />
variables aléatoires X n = E(X | B n ), n ≥ 1 est une martingale qui converge vers X p.s. et<br />
dans L 2 . Par définition de B n , chaque variable aléatoire X n est de <strong>la</strong> forme g n (B t1 , · · · , B tn ),<br />
avec une fonction g n borélienne. Enfin, pour tout ǫ > 0, <strong>la</strong> variable aléatoire g n (B t1 , · · · , B tn )<br />
peut être approchée dans L 2 (dP) à ǫ près par une variable aléatoire Ψ n (B t1 , · · · , B tn ) avec<br />
une fonction Ψ n de c<strong>la</strong>sse C ∞ à support compact. ✷<br />
Théorème 3.12 Soit Z une variable aléatoire FT B -mesurable de carré intégrable. Il existe<br />
un unique processus (H t , 0 ≤ t ≤ T) appartenant à H2 T et tel que<br />
Z = E(Z) +<br />
∫ T<br />
0<br />
H s dB s . (3.6)<br />
Démonstration. L’unicité de H vient de l’unicité du processus d’Itô Z t = E(Z|F B t ) = E(Z)+<br />
∫ t<br />
0 H sdB s pour 0 ≤ t ≤ T (qui est une martingale si H ∈ H T 2 ).<br />
Pour prouver l’existence, nous procéderons en trois étapes.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
3.7 Théorème de représentation prévisible 65<br />
(i) Notons H = { ∫ T<br />
H 0 sdB s : H ∈ H2 T }. C’est un sous-espace vectoriel de L2 (FT B ), ses<br />
éléments sont d’espérance nulle et il est isométrique à l’ensemble H2 T qui est fermé pour <strong>la</strong><br />
norme L 2 ([0, T] × Ω) et <strong>la</strong> mesure dλ ⊗ dP. H est donc un sous-espace fermé de L 2 (FT B).<br />
Pour tout Z ∈ L 2 (FT B), notons ∫ T<br />
H 0 sdB s <strong>la</strong> projection orthogonale de Z − E(Z) sur H.<br />
Alors,<br />
Z = E(Z) +<br />
∫ T<br />
0<br />
H s dB s + ˜Z,<br />
où ˜Z est une variable aléatoire de carré intégrable, centrée et orthogonale à H.<br />
(ii) Montrons que ˜Z est orthogonale à l’ensemble<br />
{ (∫ T ∫ T<br />
)<br />
1<br />
E = exp f(s)dB s −<br />
2 f(s)2 ds<br />
0<br />
0<br />
}<br />
: f ∈ L 2 ([0, T]) .<br />
Soit f ∈ L 2 ([0, T]); alors ∫ T<br />
f(s)dB 0 s est une variable aléatoire gaussienne N(0, ∫ T<br />
( 0 f(s)2 ds)<br />
∫ T<br />
et <strong>la</strong> variable aléatoire X = exp f(s)dB ∫ )<br />
0 s − 1 T<br />
2 0 f(s)2 ds est une densité de Girsanov<br />
d’espérance égale à 1 (on remarque que <strong>la</strong> condition de Novikov est satisfaite). Il suffit de<br />
montrer que si X ∈ E, X − 1 ∈ H. Soit X ∈ E et pour tout t ∈ [0, T], soit<br />
ξ t =<br />
∫ t<br />
0<br />
f(s)dB s − 1 2<br />
∫ t<br />
0<br />
f(s) 2 ds , et M t = exp(ξ t ).<br />
Alors, X = M T = exp(ξ T ).<br />
La formule d’Itô montre que <strong>la</strong> martingale exponentielle M est solution de l’EDS dM t =<br />
M t dξ t + 1M 2 tf(t) 2 dt = M t f(t)dB t . On en déduit que<br />
X = M T = 1 +<br />
∫ T<br />
0<br />
M t f(t)dB t<br />
et il reste donc à prouver que t → M t f(t) ∈ H2 T . Le théorème de Fubini entraîne<br />
(∫ T<br />
) ∫ T<br />
E Mt 2 f(t)2 dt = E(Mt 2 )f(t)2 dt<br />
0<br />
=<br />
=<br />
0<br />
∫ T<br />
0<br />
∫ T<br />
0<br />
E<br />
[e R t<br />
R t<br />
0 2f(s)dBs−1 2 0<br />
ds]e R 4f(s)2 t<br />
0 f(s)2ds f(t) 2 dt<br />
e R t<br />
0 f(s)2 ds f(t) 2 dt.<br />
Si ‖f‖ 2 2 = ∫ (<br />
T<br />
∫ )<br />
T<br />
0 f(s)2 ds, on en déduit que E<br />
0 M2 t f(t) 2 dt<br />
≤ ‖f‖ 2 2 exp(‖f‖ 2 2) < +∞.<br />
(iii) Il reste à montrer que toute variable aléatoire Y orthogonale à E est nulle p.s., c’est<br />
à dire que l’espace vectoriel engendré par E est dense dans L 2 (FT B).<br />
Soit X ∈[<br />
L 2 (FT B )( tel que pour tout Y ∈ E, E(XY ) = 0. Alors, pour toute fonction f ∈<br />
∫ )]<br />
L 2 T<br />
([0, T]), E X exp f(s)dB 0 s = 0. Considérons une subdivision t 0 = 0 < t 1 < · · · <<br />
t n ≤ T et soit f = ∑ n<br />
j=1 a j1 ]tj−1 ,t j ] une fonction étagée. Pour tout choix de <strong>la</strong> subdivision et<br />
des constantes b j = a j − a j+1 pour j < n et b n = a n , on en déduit que<br />
[ ( n∑<br />
)]<br />
Φ(b) = E X exp b j B tj = 0, ∀b ∈ R n .<br />
j=1<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
66 3 Théorème de Girsanov<br />
Par prolongement analytique, on en déduit que Φ(b) = 0 pour tout b ∈ C n .<br />
Soit Ψ une fonction de c<strong>la</strong>sse C ∞ à support compact et ˆΨ sa transformée de Fourier<br />
définie par ˆΨ(y) = ∫ Ψ(x) exp[i(x, y)]dx. La formule d’inversion de Fourier montre alors<br />
R n<br />
que Ψ(x) = (2π) ∫ −n ˆΨ(y) exp[−i(x, y)]dy. On en déduit en appliquant le théorème de<br />
R n<br />
Fubini<br />
∫ (<br />
E [XΨ(B t1 , · · · , B tn )] = (2π) −n ˆΨ(y)E X(ω)e −i[y 1B t1 (ω)+···+y nB tn (ω)] ) dy<br />
R n<br />
= (2π) −n ∫R n ˆΨ(y)Φ(−iy)dy = 0.<br />
Le lemme 3.11 termine <strong>la</strong> démonstration.<br />
✷<br />
Le théorème suivant est très important en finance. Il permet de trouver des portefeuilles<br />
de couverture.<br />
Théorème 3.13 (Théorème de représentation des martingales Browniennes) Soit B un<br />
Brownien standard, (Ft B ) sa filtration naturelle, M une (Ft B )-martingale locale. Alors il<br />
existe x ∈ R et θ ∈ H2 loc tels que<br />
M t = x +<br />
∫ t<br />
0<br />
θ s dB s .<br />
Si M est une vraie (F B t )-martingale de carré intégrable, alors θ ∈ H 2.<br />
Démonstration. Supposons que M est une martingale de carré intégrable et que M 0 = 0.<br />
Fixons T > 0; d’après le Théorème 3.12, il existe un processus (θ T t , 0 ≤ t ≤ T) ∈ H T 2<br />
tel que M T = ∫ T<br />
0 θT t dB t p.s. L’unicité montre que si T < T ′ , les processus θ T et θ T ′ sont<br />
égaux dt ⊗ dP-p.p. sur [0, T] × Ω. On peut donc définir presque partout un processus θ en<br />
posant H t = H T t pour 0 ≤ t ≤ T. On en déduit que θ . 1 [0,T] (.) appartient à H T 2 et que<br />
M T = ∫ T<br />
0 θ sdB s .<br />
Le résultat sur les (Ft B )-martingales locales est admis; on remarquera que dans ce cas,<br />
ces martingales locales sont automatiquement continues. ✷<br />
Signalons enfin que dans certains cas, <strong>la</strong> formule de C<strong>la</strong>rk-Ocone - voir [9] - donne une<br />
représentation explicite du processus θ.<br />
3.8 Exercices<br />
Exercice 3.1 Soit B un Brownien de dimension 1, α et β des constantes positives. On veut<br />
calculer<br />
∫ t<br />
)<br />
I = E<br />
(−αB t 2 − β2<br />
B 2<br />
2<br />
sds .<br />
1. Montrer que le processus défini par<br />
L β t = exp<br />
(− β 2 (B2 t<br />
est une (F t )-martingale sous P.<br />
0<br />
− t) −<br />
β2<br />
2<br />
∫ t<br />
0<br />
B 2 s ds )<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
3.8 Exercices 67<br />
2. Soit Q <strong>la</strong> probabilité définie par dQ |Ft = L β t dP |Ft . Montrer que sous <strong>la</strong> probabilité Q,<br />
B t = W t − β ∫ t<br />
B 0 sds où W est un Brownien.<br />
3. En déduire que<br />
(<br />
I = E Q exp(−αBt 2 + β )<br />
2 (B2 t − t)) .<br />
En utilisant l’exercice 2.2, en déduire que I =<br />
4. En déduire que pour tout λ ∈ R,<br />
(<br />
E P<br />
[exp −λ<br />
∫ t<br />
0<br />
(cosh(βt) + 2α β sinh(βt) ) −<br />
1<br />
2<br />
.<br />
)] (<br />
Bsds<br />
2 = cosh( √ ) −<br />
1<br />
2<br />
2λt) .<br />
Exercice 3.2 Soit (h t ) et (H t ) des processus (F t )-adaptés de dimension r et B un (F t )-<br />
Brownien de dimension r. Notons M t = ∑ r<br />
∫ t<br />
k=1 0 hk s dBk s et N t = ∑ r<br />
∫ t<br />
k=1 0 Hk s dBk s . On<br />
suppose que h satisfait <strong>la</strong> condition de Novikov et on note Q <strong>la</strong> probabilité de densité<br />
exp ( M t − 1〈M〉 2 t)<br />
sur Ft . Montrer que le processus (N t − 〈M, N〉 t ) est une (F t )-martingale<br />
sous Q.<br />
Exercice 3.3 Soit α, β et γ des constantes réelles.<br />
( ∫ ) (<br />
t<br />
∫ )<br />
t<br />
1. <strong>Calcul</strong>er E ds , puis E e<br />
0 eBs αBt ds .<br />
0 eβBs<br />
2. Soit A(t, γ) = ∫ t<br />
0 eBs+γs ds. En utilisant le théorème de Girsanov, montrer que le calcul<br />
de E(A(t, γ)) se ramène au cas γ = 0. Peut-on calculer directement E(A(t, γ))?<br />
Exercice 3.4 Soit (B t ) un Brownien de dimension 1, α, β et σ des fonctions déterministes<br />
bornées de R dans R. On suppose que σ ne s’annule pas et on note b(t) = ∫ t<br />
β(s)ds. On<br />
0<br />
note enfin (r t ) le processus solution de l’EDS<br />
dr t = σ(t) dB t + [α(t) − β(t) r t ] dt , r 0 ∈ R.<br />
1. Montrer que<br />
r t = e −b(t) (r 0 +<br />
∫ t<br />
0<br />
σ(u)e b(u) dB u +<br />
∫ t<br />
0<br />
)<br />
α(u)e b(u) du .<br />
2. <strong>Calcul</strong>er E(r t ) et Cov(r s , r t ) pour 0 ≤ s ≤ t.<br />
3. Soit θ(s) = − α(s) ; on suppose que θ est bornée et on note<br />
σ(s)<br />
(∫ t<br />
L t = exp θ(s)dB s − 1<br />
0 2<br />
∫ t<br />
0<br />
)<br />
θ(s) 2 ds .<br />
On note Q 1 <strong>la</strong> mesure sur F t de densité L t par rapport à P et W 1<br />
t = B t − ∫ t<br />
0 θ(s)ds.<br />
Montrer que (r t e b(t) , t ≥ 0) est une (F t )- martingale sous Q 1 .<br />
4. Soit (Z t ) <strong>la</strong> solution de l’EDS dZ t = Z t<br />
β(t)<br />
σ(t) L t dW 1<br />
t et Z 0 = 1. Notons Q 2 <strong>la</strong> probabilité<br />
sur F t de densité Z t par rapport à P. Montrer que (r t ) est une (F t )-martingale sous<br />
Q 2 .<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
68 4 Applications à <strong>la</strong> finance<br />
4 Applications à <strong>la</strong> finance<br />
Conventions de notations<br />
Soit (Ω, F, P) un espace probabilisé, (B t , 0 ≤ t ≤ T) un Brownien standard de dimension<br />
k, (F t , 0 ≤ t ≤ T) sa filtration naturelle complétée.<br />
4.1 Modélisation d’un marché financier en temps continu<br />
Reprenons de façon plus générale le modèle décrit dans <strong>la</strong> section 2.6.2.<br />
4.1.1 Modélisation d’un marché à d actifs risqués et k facteurs<br />
On considère un marché financier sur lequel les actifs sont négociés en temps continu.<br />
Certains de ces actifs dits risqués sont aléatoires et décrits à l’aide d’un Brownien standard<br />
k-dimensionnel B.<br />
Le marché comprend d + 1 actifs de base (St i , 0 ≤ i ≤ d, t ≥ 0) et de leurs produits<br />
dérivés. On suppose qu’aucun de ces actifs ne verse de dividende, qu’il n’y a pas de coût<br />
de transaction, que l’on peut acheter et vendre en temps continu et que les actifs sont<br />
indéfiniment divisibles (leur valeur est un nombre réel). On suppose enfin qu’à chaque instant<br />
<strong>la</strong> valeur de l’actif i, soit St, i est un processus d’Itô construit à partir de B et à valeurs<br />
p.s. strictement positives. On note S t = (St 0, · · · , Sd t ) pour tout t ≥ 0. Tous les résultats<br />
s’étendraient au cas de semi-martingales continues presque sûrement positives.<br />
Exemple 4.1 Modèle de B<strong>la</strong>ck & Sholes Par exemple dans le modèle de B<strong>la</strong>ck & Sholes<br />
de <strong>la</strong> section 2.6.2, l’actif S 0 est sans risque tel que dSt 0 = rS0 dt et S0 0 = 1, c’est à dire que<br />
St 0 = e rt . On dispose aussi d’un actif risqué qui est un Brownien géométrique solution de<br />
l’EDS dSt 1 = σS1 t dB t + bSt 1dt. On sait que si S1 0 > 0, S1 t > 0 p.s. pour tout t ≥ 0.<br />
On verra dans <strong>la</strong> suite un modèle de B<strong>la</strong>ck & Sholes généralisé dans lequel l’actif ( sans ∫ )<br />
risque a un taux d’intérêt r t ∈ H1 loc , c’est à dire toujours avec S0 0 = 1, que St 0 t<br />
= exp r 0 sds<br />
et les d actifs risqués S i , 1 ≤ i ≤ d sont des processus d’Itô généraux à valeurs strictement<br />
positives On appelle alors vo<strong>la</strong>tilité stochastique de l’actif S i à l’instant t le quotient<br />
(σj i(t), 1 ≤ j ≤ k) entre le coefficient de diffusion et le cours Si t et on note de même bi (t) le<br />
rapport entre le coefficient de dérive et le cours, c’est à dire que pour tout i = 1, · · · , d,<br />
dS i t =<br />
k∑<br />
σj(s)S i sdB i s j + b i (s)Ssds.<br />
i<br />
j=1<br />
Définition 4.2 Un numéraire est un actif dont le cours est processus d’Itô (S t ) tel que<br />
S t > 0 p.s. pour tout t.<br />
On prend l’actif S 0 du modèle de B<strong>la</strong>ck & Sholes généralisé comme numéraire avec 1<br />
comme unité monétaire( à <strong>la</strong> date 0, c’est à dire S0 0 = 1. A <strong>la</strong> date t > 0, on rapporte <strong>la</strong> valeur<br />
∫ )<br />
des actifs à St 0 t<br />
= exp r 0 sds , ce qui revient à comparer leurs performances à celles de<br />
l’actif sans risque en les comparant à 1. Un autre actif X t vaut, dans cette nouvelle « unité »<br />
˜X t = X ( ∫ t<br />
)<br />
t<br />
= X<br />
St<br />
0 t exp − r s ds .<br />
0<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.1 Modélisation d’un marché financier en temps continu 69<br />
On dispose également d’actifs « contingents » ou « dérivés » dont l’évolution des prix<br />
dépend de celle des actifs de base S i , 0 ≤ i ≤ d. Plus précisément, on se donne à une date<br />
T > 0 appelée « maturité » de l’actif sa valeur ζ qui peut dépendre de toutes les trajectoires<br />
des actifs de base (St i , i = 0, · · · , d, 0 ≤ t ≤ T). La valeur de l’actif à l’instant T est donc<br />
une variable aléatoire F T -mesurable. Pour un call européen dans le cas du modèle de B<strong>la</strong>ck<br />
& Sholes, on a ζ = (ST 1 − K)+ .<br />
On cherche à « dupliquer » l’actif contingent ζ. On dispose d’une somme initiale qui est<br />
à chaque instant répartie entre les divers actifs de base sans adjonction ni retrait d’argent,<br />
de telle sorte qu’à <strong>la</strong> date T, <strong>la</strong> somme des p<strong>la</strong>cements faits sur ces actifs soit égale à ζ. Le<br />
but est de trouver l’investissement initial et <strong>la</strong> façon de répartir à chaque instant <strong>la</strong> somme<br />
dont on dispose entre les divers actifs pour qu’à <strong>la</strong> date T l’investissement global sur les<br />
d + 1 actifs soit ζ.<br />
4.1.2 Description des stratégies<br />
Formalisons cette duplication par <strong>la</strong> définition suivante.<br />
Définition 4.3 Une stratégie est un processus Θ = ( (θs 0, · · · , θd s ), s ∈ [0, T]) tel que chaque<br />
composante θ i soit (F t )-progressivement mesurable et ∫ t<br />
0 θi s dSi s existe pour tout i = 0, · · · , d.<br />
Dans le cas du modèle de B<strong>la</strong>ck & Sholes à deux actifs à coefficients constants, puisque<br />
les processus S 0 et S 1 sont à trajectoires continues, donc p.s. bornées sur [0, T], il suffit<br />
donc d’imposer que les coefficients θ 0 ∈ H1 loc et θ 1 ∈ H2 loc . En effet, dans ce cas les<br />
intégrales déterministes ∫ t<br />
0 θ0 se rs ds, ∫ t<br />
0 θ1 sbSsds 1 et l’intégrale stochastique ∫ t<br />
0 σθ1 sSsdB 1 s seront<br />
bien définies.<br />
Rappelons les hypothèses faites sur le marché (décrites dans <strong>la</strong> section 2.6.2) :<br />
– Il n’y a aucun coût de transaction pour l’achat et <strong>la</strong> vente de titres.<br />
– On permet <strong>la</strong> vente à découvert sans limite, c’est à dire que les θt i peuvent prendre des<br />
valeurs négatives et ne sont pas minorés.<br />
– Les actifs sont indéfiniment divisibles, c’est à dire que l’on peut acheter un vendre<br />
une proportion arbitraire d’un titre; les processus θ i peuvent donc prendre toutes les<br />
valeurs réelles.<br />
– Le « trading » se fait en temps continu, c’est à dire que l’on peut acheter ou vendre à<br />
chaque instant réel t ∈ [0, T].<br />
La valeur du portefeuille V Θ<br />
t<br />
associé à <strong>la</strong> stratégie Θ à l’instant t est<br />
V Θ<br />
t = (θ t , S t ) =<br />
d∑<br />
θtS i t. i (4.1)<br />
Le fait qu’on n’ajoute ni retire de l’argent est modélisé par <strong>la</strong> définition suivante :<br />
Définition 4.4 Une stratégie Θ est autofinancée (ou le portefeuille V Θ associé est autofinancé)<br />
si pour tout t ∈ [0, T], Vt<br />
Θ = V0 Θ + ∑ d<br />
∫ t<br />
i=0 0 θi s dSi s p.s.<br />
Les changements de valeur du portefeuille viennent dont uniquement de <strong>la</strong> répartition des<br />
p<strong>la</strong>cements entre les divers actifs de base et des changements de valeur de ces actifs.<br />
Nous serons amenés dans <strong>la</strong> suite à changer de numéraire afin que les processus qui<br />
modélisent le prix des actifs de base ainsi actualisés aient des propriétés de martingale. Le<br />
résultat suivant montre que le caractère autofinancé n’est pas affecté par un tel changement.<br />
i=0<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
70 4 Applications à <strong>la</strong> finance<br />
Proposition 4.5 Soit (X t , t ∈ [0, T]) un numéraire, Si t<br />
X t<br />
le prix à l’instant t de l’actif actualisé<br />
après changement de numéraire. Si <strong>la</strong> stratégie Θ est autofinancée, le portefeuille<br />
actualisé après changement de numéraire V t<br />
Θ<br />
X t<br />
reste autofinancé.<br />
Démonstration. Puisque X est un processus d’Itô strictement positif, Y = 1 est également<br />
X<br />
un processus d’Itô strictement positif et <strong>la</strong> formule d’Itô entraîne que pour tout i = 0, · · · , d,<br />
( ) S<br />
i<br />
d t<br />
= d(St i X Y t) = St i dY t + Y t dSt i + d〈Si , Y 〉 t .<br />
t<br />
Si le processus V Θ est autofinancé, dVt<br />
Θ<br />
en déduit en appliquant de nouveau <strong>la</strong> formule d’Itô<br />
d<br />
( ) V<br />
Θ<br />
t<br />
X t<br />
= Vt Θ dY t + Y t dVt<br />
Θ + d〈V Θ , Y 〉 t<br />
=<br />
i=0<br />
= ∑ d<br />
i=0 θi tdS i t p.s. et V Θ est un processus d’Itô. On<br />
d∑ [<br />
θ<br />
i<br />
t St i dY t + Y t θt i dSi t + ]<br />
d∑<br />
( ) S θi t d〈Si , Y 〉 t = θt i i d t<br />
. ✷<br />
X t<br />
i=0<br />
La notion suivante est également conservée par un changement de numéraire.<br />
Définition 4.6 Une stratégie Θ est à richesse positive si elle et autofinancée et si pour tout<br />
t ∈ [0, T], Vt<br />
Θ ≥ 0 p.s.<br />
Si on actualise avec comme numéraire l’actif non risqué S 0 , les prix actualisés des actifs<br />
de base sont ˜S t = (1, ˜S t 1, · · · , ˜S t d ). Ce sont de nouveaux processus d’Itô et un portefeuille est<br />
autofinancé si et seulement si après actualisation<br />
dṼ Θ<br />
t =<br />
d∑<br />
θtd i ˜S t, i ∀t ∈ [0, T].<br />
i=1<br />
On en déduit qu’un portefeuille autofinancé est entièrement déterminé par sa valeur initiale<br />
V0 Θ et les quantités investies sur les actifs risqués (θt i , i = 1, · · · , d, t ∈ [0, T]). En effet,<br />
d ˜S t 0 = 0, Ṽ 0 Θ = V0 Θ,<br />
Ṽ Θ<br />
t<br />
= V Θ<br />
0 + d∑<br />
i=1<br />
∫ t<br />
0<br />
θ i s d ˜S i s et θ 0 t<br />
peut être déduit par Ṽ<br />
Θ<br />
t<br />
d∑<br />
= θt 0 + θt i ˜S t i .<br />
Puisque après actualisation l’actif non risqué est constant, c’est une martingale (triviale).<br />
On souhaiterait transformer les autres actifs en martingales. Le chapitre précédent a montré<br />
que ceci était possible au prix d’un changement de probabilité qui peut annuler le terme de<br />
dérive.<br />
4.1.3 Absence d’opportunité d’arbitrage - Mesure martingale équivalente<br />
Ceci amène à <strong>la</strong> définition suivante de stratégie admissible.<br />
Définition 4.7 (i) On appelle mesure martingale équivalente une probabilité Q équivalente<br />
à P telle que sous Q les prix actualisés ˜S i , i = 1, · · · , d sont des (F t )-martingales. Plus<br />
précisément, on suppose qu’il existe un Brownien W sous Q tel que d ˜S t i = ∑ k<br />
j=1 Hi j (t)dW j<br />
t .<br />
(ii) Soit Q une mesure martingale équivalente. On dit que <strong>la</strong> stratégie Θ est Q-admissible<br />
si elle est autofinancée et si (Ṽ t Θ , 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T) martingale sous Q.<br />
i=1<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.1 Modélisation d’un marché financier en temps continu 71<br />
La notion suivante est fondamentale; elle traduit que le marché fonctionne correctement<br />
et qu’il n’y a pas de « free lunch », c’est à dire de moyen de gagner une somme strictement<br />
positive à l’instant T en n’ayant rien investi au départ. C’est <strong>la</strong> notion inverse (possibilité<br />
de « free lunch » ) qui est décrite dans <strong>la</strong> définition suivante :<br />
Définition 4.8 (Opportunité d’arbitrage) Une stratégie autofinancée Θ est appelée possibilité<br />
d’arbitrage si<br />
(i) V0 Θ = 0 et VT<br />
Θ ≥ 0 p.s.<br />
(ii) P(VT Θ > 0) > 0.<br />
Un marché sain doit avoir <strong>la</strong> propriété d’absence d’opportunité d’arbitrage, notée<br />
AOA. Deux probabilités équivalentes ayant les mêmes ensembles négligeables, dans <strong>la</strong> définition<br />
d’opportunité d’arbitrage, on peut remp<strong>la</strong>cer P par une mesure martingale équivalente<br />
Q.<br />
Le résultat suivant montre que l’existence d’une mesure martingale équivalente Q exclut<br />
l’opportunité d’arbitrage quand on se restreint aux stratégies Q-admissibles ou bien à richesse<br />
positive. Dans le cas du modèle de B<strong>la</strong>ck & Sholes nous verrons qu’il y a équivalence<br />
entre cette dernière propriété et AOA.<br />
Théorème 4.9 S’il existe une mesure martingale équivalente Q, alors :<br />
(i) il y a absence d’opportunité d’arbitrage parmi les stratégies Θ qui sont Q-admissibles.<br />
(ii) il y a absence d’opportunité d’arbitrage parmi les stratégies Θ à richesse positive.<br />
Démonstration.<br />
(i) Soit Θ une stratégie admissible. Alors V0 Θ = Ṽ 0 Θ = E Q (Ṽ T Θ | F 0) = E Q (Ṽ T Θ Θ<br />
). Si ṼT ≥ 0,<br />
Q p.s. et si P(VT<br />
Θ<br />
Θ<br />
Θ<br />
> 0) > 0, on en déduit que P(ṼT<br />
> 0) > 0, puis que Q(ṼT > 0) > 0<br />
puisque P et Q sont équivalentes. On a donc E Q (Ṽ T Θ<br />
Θ<br />
) > 0, ce qui exclut V0 = 0.<br />
(ii) Soit Θ une stratégie à richesse positive; si on note d ˜S t i = ∑ k<br />
j=1 Hi j (t)dW j<br />
t pour<br />
t ∈ [0, T], où (W t , 0 ≤ t ≤ T) est un Q Brownien standard de dimension k, alors pour<br />
tout t ∈ [0, T], dṼ t<br />
Θ = ∑ d<br />
∑ k<br />
i=1 j=1 θi t Hi j (t)dW j<br />
t Q p.s. On en déduit que Ṽ Θ est une (F t )-<br />
martingale locale positive sous Q; c’est donc une surmartingale (cf. Exercice 1.4 (i)). On<br />
a donc pour tout t ∈ [0, T], E Q (Ṽ t Θ |F 0 ) ≤ Ṽ 0 Θ = V0 Θ Q p.s. Donc si Θ est une possibilité<br />
d’arbitrage, E Q (Ṽ T Θ<br />
Θ<br />
) ≤ 0. D’autre part, puisque ṼT<br />
≥ 0 P p.s., donc Q p.s puisque P et Q<br />
sont équivalentes, on en déduit Ṽ T<br />
Θ = 0 Q p.s., donc P p.s., ce qui fournit une contradiction.<br />
✷<br />
Il faut prendre garde à une difficulté propre au temps continu : l’existence d’une mesure<br />
martingale équivalente n’entraîne pas l’absence d’opportunité d’arbitrage sans restriction<br />
sur les stratégies. En effet, si Z est une variable aléatoire FT B -mesurable de carré intégrable<br />
centrée (non identiquement nulle), le théorème 3.12 montre qu’il existe H ∈ H2 T (sous Q)<br />
telle que Z = ∫ T<br />
H 0 tdW s . On peut en déduire dans le modèle de B<strong>la</strong>ck & Sholes une stratégie<br />
autofinancée Θ = (θt,θ 0 t 1 ) telle que Ṽ 0 Θ = 0 et Ṽ T Θ = Z.<br />
4.1.4 Probabilité risque neutre<br />
Dans toute cette section, on suppose qu’il existe une mesure martingale Q<br />
équivalente à P.<br />
Définition 4.10 On dit qu’un actif donné par sa valeur à l’instant terminal T par une<br />
variable aléatoire F T -mesurable ζ est Q-duplicable s’il existe une stratégie Θ Q-admissible<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
72 4 Applications à <strong>la</strong> finance<br />
telle que ζ est <strong>la</strong> valeur terminale du portefeuille associé, c’est à dire si ζ = VT<br />
Θ Q presque<br />
sûrement. On dit alors que <strong>la</strong> stratégie Θ duplique l’actif à l’instant T, ou est « duplicante ».<br />
Ceci veut dire intuitivement que le portefeuille duplique l’actif « dans tous les états du<br />
monde » c’est à dire pour P (ou Q) presque tout ω.<br />
On montrera à titre d’exercice que si un actif est duplicable à l’instant T il le reste après<br />
changement de numéraire avec <strong>la</strong> même stratégie.<br />
Le résultat suivant montre que <strong>la</strong> valeur du portefeuille à tout instant t ≤ T est<br />
indépendante de <strong>la</strong> stratégie duplicante (mais peut dépendre de Q).<br />
Théorème 4.11 Soit T > 0, ζ un actif dérivé (une variable aléatoire F T -mesurable) Q-<br />
duplicable. Alors si Θ est une stratégie duplicante et V Θ le portefeuille associé, pour tout<br />
instant t ∈ [0, T], Vt<br />
Θ = St 0 E Q (Ṽ T Θ|F<br />
T) (Q ou P p.s.) est indépendant de <strong>la</strong> stratégie duplicante.<br />
On l’appelle le prix de l’option à l’instant t.<br />
Démonstration. Pour tout t ∈ [0, T], Ṽ Θ<br />
t<br />
V Θ<br />
t<br />
= E Q (Ṽ T Θ|F<br />
t), c’est à dire que Q p.s.<br />
)<br />
∣<br />
∣F t ,<br />
= S 0 t E Q<br />
( ζ<br />
S 0 T<br />
est indépendant de <strong>la</strong> stratégie Θ.<br />
✷<br />
De façon évidente, si une stratégie Q-admissible Θ duplique un actif ζ ≥ 0, elle est à<br />
richesse positive. Cependant, une stratégie à richesse positive ne détermine pas de façon<br />
unique le prix du produit dérivé. En effet Harrison et Pliska ont montré qu’il existe une<br />
stratégie Φ à richesse positive telle que V0 Φ = 1 et VT<br />
Φ = 0; cette stratégie est parfois<br />
appelés stratégie suicide. C<strong>la</strong>irement, si Θ est une stratégie qui duplique ζ, Θ + Φ duplique<br />
également ζ.<br />
En revenant au modèle de B<strong>la</strong>ck & Sholes, nous avons vu à <strong>la</strong> fin du chapitre précédent<br />
que si λ = b−r,<br />
<strong>la</strong> probabilité Q de densité exp(−λB σ T − λ2 T) par rapport à P telle que sous<br />
2<br />
Q ( ˜S t = e −rt S t , t ≥ 0) est une Q-martingale et le calcul précédent montre que sous Q, si ζ<br />
est une variable aléatoire F T -mesurable,<br />
V Θ<br />
t = e −r(T −t) E Q (ζ|F t ) = e rt E Q (e −rT ξ|F t ).<br />
Sous Q, l’actualisation de l’espérance conditionnelle E Q (ζ|F t ) se fait à l’aide du facteur<br />
exponentiel exp(−r(T − t)), c’est à dire avec le coefficient d’actualisation r. Les coefficients<br />
de <strong>la</strong> diffusion S ont disparu de cette formule, comme si les investisseurs étaient neutres par<br />
rapport au risque. On appelle Q <strong>la</strong> probabilité risque neutre. La probabilité P de départ<br />
est appelée probabilité « réelle » , « historique » ou « objective ».<br />
Le problème qui subsiste est <strong>la</strong> possibilité de dupliquer un actif.<br />
Définition 4.12 (i) On dit que le marché est complet si tout actif est duplicable.<br />
(ii) Soit Q une mesure martingale équivalente. On dit que le marché est Q-complet si<br />
pour toute variable aléatoire F T -mesurable ζ telle que ζ ∈ L 1 (Q), l’actif de valeur terminale<br />
ST<br />
0<br />
ζ est Q-duplicable.<br />
Remarquons que par absence d’opportunité d’arbitrage, on a naturellement unicité de<br />
<strong>la</strong> mesure martingale équivalente Q telle que le marché est Q-complet.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 73<br />
Théorème 4.13 Supposons que le marché est complet. Notons Q 1 et Q 2 sont deux martingales<br />
mesures équivalentes telles que le marché soit Q i -complet, i = 1, 2. Alors on a<br />
Q 1 | FT = Q 2 | FT .<br />
Démonstration. Soit A ∈ F T . Alors 1 A ∈ L 1 (Q) et ST 01 A est F T -mesurable; c’est <strong>la</strong> valeur<br />
terminale d’une stratégie Q i -admissible Θ i , i = 1, 2. On en déduit<br />
( ) S<br />
0<br />
V0 Θi<br />
= Ṽ 0 Θi<br />
= E Qi (Ṽ T Θi<br />
) = E T 1 A<br />
Q i<br />
= Q<br />
ST<br />
0 i (A).<br />
D’après le Théorème 4.11, <strong>la</strong> valeur du portefeuille duplicant est indépendante de <strong>la</strong> stratégie;<br />
à l’instant 0 ceci traduit une absence d’opportunité d’arbitrage. On en déduit que V0 Θ1 =<br />
V0 Θ2 , et donc Q 1 (A) = Q 2 (A). ✷<br />
4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé<br />
Nous généralisons tout d’abord le modèle de B<strong>la</strong>ck & Sholes à un seul actif risqué que<br />
nous avons décrit dans les chapitres précédents et montrons que dans ce cas plus général il<br />
existe également une mesure martingale équivalente Q dès qu’il y a absence d’opportunité<br />
d’arbitrage.<br />
De plus, nous donnons des conditions suffisantes pour que le marché soit Q-complet et<br />
calculerons <strong>la</strong> stratégie de couverture d’une option, c’est à dire <strong>la</strong> stratégie duplicante Θ et<br />
<strong>la</strong> valeur de l’option à chaque instant. ( ∫ )<br />
Soit r un processus dans H1 loc et St 0 t<br />
= exp r 0 sds .<br />
On dispose d’autre part de d actifs risqués S i , i = 1, · · · , d qui sont des processus d’Itô de<br />
<strong>la</strong> forme<br />
k∑<br />
∫ t<br />
∫ t<br />
St i = Si 0 + σj i (s)Si s dBk s + b i (s)S i (s)ds , (4.2)<br />
j=1<br />
0<br />
où B est un Brownien standard de dimension k, les processus (σj i(s), 0 ≤ s ≤ T) et (bi (s), 0 ≤<br />
s ≤ T) sont progressivement mesurables et tels qu’il existe une constante M > 0 telle que<br />
sup 0≤t≤T (‖σ(t)‖ + ‖b(t)‖) ≤ M. Alors d’après l’exercice 2.4 pour tout i = 1, · · · , d,<br />
(∫ t ∫ t<br />
St<br />
i = exp σ i (s)dB s + (b i (s) − 1 )<br />
0<br />
0 2 ‖σi (s)‖ 2 )ds<br />
(4.3)<br />
( k∑ ∫ t<br />
∫ [<br />
)<br />
t<br />
:= exp σj i (s)dBj s + b i (s) − 1 k∑<br />
|σj ]ds<br />
i<br />
j=1 0<br />
0 2<br />
(s)|2 .<br />
j=1<br />
De plus, l’équation (4.3) est aussi vérifiée si les S i sont des processus d’Itô (donc continus)<br />
tels que dSt i = ∑ k<br />
j=1 Hi k (s)dBk s +H0(s)ds i et tels que si on note σk i(t) = Hi k (t)<br />
pour i = 1, · · · , d<br />
St<br />
i<br />
et b i (t) = Hi 0 (t) , ∫ T<br />
S i (t) 0 (‖σ(s)‖2 + ‖b(s)‖)ds < +∞ p.s.<br />
4.2.1 Absence d’opportunité d’arbitrage et changement de probabilité - Prime de<br />
risque<br />
Nous avons vu dans <strong>la</strong> section précédente que l’existence d’une mesure martingale équivalente<br />
Q entraîne l’absence d’opportunité d’arbitrage parmi les stratégies à richesse positive.<br />
Montrons <strong>la</strong> réciproque dans ce modèle.<br />
0<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
74 4 Applications à <strong>la</strong> finance<br />
Supposons qu’il y a absence d’opportunité d’arbitrage parmi les stratégies à richesse<br />
positive.<br />
P<strong>la</strong>çons-nous d’abord dans le cas particulier k = 1 et d = 2 afin de dégager <strong>la</strong> notion<br />
de prime de risque attachée à un facteur. Dans ce cas, un portefeuille autofinancé est<br />
entièrement déterminé par sa valeur initiale V0 Θ et les quantités θt i , i ∈ {1, 2}, t ∈ [0, T]<br />
investies à chaque instant sur les deux actifs risqués. Pour tout t ∈ [0, T], notons θt 1 = σt 2 St<br />
2<br />
∫<br />
et θt<br />
2 = −σt 1S1 t . La continuité de Si et les propriétés de σ i montrent que les intégrales<br />
t<br />
0 θi s dSi s sont bien définies et (θ1 t , θ2 t ) est donc une stratégie autofinancée. Pour tout t ∈ [0, T],<br />
St 0 = exp(∫ t<br />
r 0 sds), et<br />
d ˜S<br />
(<br />
t i = d e − R )<br />
t<br />
0 rsds St<br />
i = σt i ˜S t i dB t + (b i t − r t) ˜S t i dt,<br />
ce qui entraîne (grâce à <strong>la</strong> simplification des coefficients de dB t )<br />
dṼ Θ<br />
t<br />
= σ 2 t S2 t d ˜S 1 t − σ1 t S1 t d ˜S 2 t = e− R t<br />
0 rsds S 1 t S2 t [σ2 t (b1 t − r t) − σ 1 t (b2 t − r t)]dt.<br />
Ce portefeuille est donc sans risque et l’absence d’opportunité d’arbitrage montre que son<br />
rendement est égal à r t , c’est à dire nul quand les prix sont actualisés par changement de<br />
numéraire. En effet, notons φ(t) = e − R t<br />
0 rsds St 1S2 t [σ2 t (b1 t −r t) −σt 1(b2 t −r t)], et supposons qu’il<br />
existe un ensemble A ⊂ [0, T] × Ω tel que dλ ⊗ P(A) > 0 et φ(t)(ω) ≠ 0 sur A. Notons s(t)<br />
le signe de φ(t) lorsque φ(t) ≠ 0 et posons pour i = 1, 2,<br />
Alors <strong>la</strong> stratégie Ψ = (ψ 1 , ψ 2 ) est telle que<br />
ψ i (t) = s(t)θ i (t) sur A et ψ i (t) = 0 sur A c .<br />
dṼ Ψ<br />
t = |φ(t)|dt surA, dṼ Ψ<br />
t = 0 surA c .<br />
La stratégie Ψ est une opportunité d’arbitrage et on en déduit donc que b1 t −rt<br />
σ 1 t<br />
= b2 t −rt .<br />
σt<br />
2<br />
Ce quotient noté λ t sera appelé prix du marché du risque B t à <strong>la</strong> date t. Il quantifie<br />
l’arbitrage qui est fait à l’instant t entre de rendement et le risque dans <strong>la</strong> constitution du<br />
portefeuille.<br />
Revenons au modèle général. Pour tout t ∈ [0, T], <strong>la</strong> matrice σ(t) définit une application<br />
linéaire aussi notée σ(t) : R k → R d de matrice σ(t) dans <strong>la</strong> base canonique, c’est à dire<br />
telle que pour tout x = (x 1 , · · · , x k ) ∈ R k et tout i = 1, · · · , d, (σ(t)x) i = ∑ k<br />
j=1 σi j(t)x j . On<br />
cherche un vecteur λ t = (λ 1 t, · · · , λ k t ) tel que pour tout i = 1, · · · , d, b i (t)−r t = ∑ k<br />
j=1 σi j(t)λ k t ,<br />
c’est à dire que λ j t est <strong>la</strong> prime de risque du Brownien B j t à l’instant t. En identifiant un<br />
vecteur de R k à <strong>la</strong> matrice colonne de ses composantes dans <strong>la</strong> base canonique, et en notant<br />
¯1 = (1, · · · , 1) ∈ R d , ceci revient à résoudre l’équation<br />
b(t) − r t¯1 = σ(t)λ t .<br />
Le théorème suivant montre l’existence du vecteur des primes de risque de marché λ.<br />
Théorème 4.14 Supposons qu’il y a absence d’opportunité d’arbitrage parmi les stratégies<br />
à richesse positive. Alors il existe λ : [0, T] × Ω → R k progressivement mesurable tel que<br />
pour tout t ∈ [0, T], b(t) − r t¯1 = σ(t)λ t .<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 75<br />
Démonstration. Montrons que le vecteur b(t) − r t¯1 ∈ Im (σ(t)). Nous admettrons alors que<br />
le choix de λ peut être fait de façon progressivement mesurable.<br />
Ceci revient à prouver que b(t) − r t¯1 est orthogonal à tout vecteur du noyau de l’application<br />
linéaire adjointe de σ(t) : R k → R d notée σ ∗ (t) : R d → R k , définie pour tout<br />
y ∈ R k et tout z ∈ R d , (σ(t)y, z) R d = (y, σ ∗ (t)z) R k et associée à <strong>la</strong> matrice transposée de<br />
σ(t). En effet, Im(σ(t) = Ker (σ ∗ (t)) ⊥ . L’inclusion Im (σ(t)) ⊂ Ker (σ ∗ (t)) ⊥ est évidente<br />
par <strong>la</strong> définition de l’adjoint : pour tout y ∈ R k et tout z ∈ Ker (σ ∗ (t)) ⊂ R d , (σ(t)y, z) R d =<br />
(y, σ ∗ (t)z) R k = 0. De plus les re<strong>la</strong>tions c<strong>la</strong>ssiques entre dimension des noyau, image des applications<br />
linéaires et de l’orthogonal d’un sous-espace vectoriel montrent que dim Im (σ(t)) ≤<br />
k−dim Ker (σ ∗ (t)) = dim Im (σ ∗ (t)). En échangeant les rôles de σ ∗ (t) et de σ(t) = (σ ∗ (t)) ∗ ,<br />
on en déduit que dim Im (σ ∗ (t)) ≤ dim Im σ(t)), d’où dim Im σ(t)) = dim Im σ ∗ (t)) =<br />
dim Ker(σ ∗ (t)) ⊥ , soit Im (σ(t)) = Ker (σ ∗ (t)) ⊥ d’après l’inclusion précédente.<br />
Puisque les prix des actifs de base sont strictement positifs, pour tout vecteur x ∈ R d le<br />
processus Θ : Ω × [0, T] → R d défini pour i = 1, · · · , d par θt i = xi permet de construite une<br />
St<br />
i<br />
stratégie autofinancée. En effet <strong>la</strong> condition d’autofinancement permet d’en déduire θt 0 et<br />
les conditions d’existence des intégrales ∫ t<br />
0 θi s dSi s sont bien satisfaites. On a donc x = (ΘS) t,<br />
où on définit le vecteur (ΘS) t par (ΘS) i t = θtS i t.<br />
i<br />
Supposons qu’il existe un ensemble A ⊂ [0, T] × Ω tel que (dt ⊗dP)(A) > 0 et pour tout<br />
(t, ω) ∈ A,<br />
σ(t) ∗ (ΘS) t = 0 et ( (ΘS) t , b(t) − r ) t¯1 ≠ 0.<br />
On construit alors une nouvelle stratégie autofinancée Φ et posant<br />
Φ t = 0 sur A c , Φ t = s t Θ t où s t = signe [ (ΘS) ∗ t (b(t) − r t¯1) ] sur A.<br />
Pour presque tout (t, ω) ∈ A, pour tout j, ∑ d<br />
i=1 θi t Si t σi j (t) = 0 et<br />
dṼ Φ<br />
t<br />
= e − R t<br />
k∑ ( d∑<br />
0 rsds s t<br />
j=1<br />
i=1<br />
d∑<br />
=<br />
˜S i<br />
∣<br />
tθt(b i i (t) − r t )<br />
∣ dt,<br />
i=1<br />
)<br />
θtS i tσ i j(t)<br />
i dB j (t) +<br />
d∑<br />
i=1<br />
e − R t<br />
0 rsds θ i ts t S i t(b i (t) − r t )dt<br />
tandis que dṼ t<br />
Φ = 0 presque partout sur A c . On en déduit une stratégie non risquée telle<br />
que sur un ensemble de probabilité non nulle, ∫ T<br />
dṼ Φ<br />
0 s ds > 0, ce qui revient à dire que Φ est<br />
une opportunité d’arbitrage.<br />
Puisque il y a absence d’opportunité d’arbitrage, tout vecteur x de R d que l’on peut<br />
écrire x = (ΘS) t , du noyau de σ(t) ∗ est orthogonal à b(t) −r t¯1. On en déduit que le vecteur<br />
b(t) −r t¯1 appartient à l’orthogonal du noyau de σ(t) ∗ , c’est à dire à l’image de σ(t). ✷<br />
Le théorème suivant montre enfin que si le vecteur de primes de risque λ a des propriétés<br />
supplémentaires, il existe une mesure martingale équivalente décrite explicitement à l’aide de<br />
λ. Ceci généralise ce qui a été observé dans le modèle de B<strong>la</strong>ck & Sholes. En effet dans ce cas<br />
<strong>la</strong> prime de risque λ est telle que σλ = b −r, c’est à dire que λ = b−r<br />
σ<br />
neutre Q a été construite à partir de <strong>la</strong> martingale exponentielle L t = exp<br />
et <strong>la</strong> probabilité<br />
(<br />
risque<br />
−λB t −<br />
).<br />
λ2t<br />
2<br />
Théorème 4.15 Supposons qu’il existe un vecteur de prime de risque λ : [0, T] × Ω → R k ,<br />
c’est à dire un processus progressivement mesurable tel que b(t) − r t¯1 = σ(t)λ t et que :<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
76 4 Applications à <strong>la</strong> finance<br />
(i) λ ∈ H2 loc(Rk<br />
).<br />
(<br />
(ii) Pour tout t ∈ [0, T], si on pose L t = exp − ∫ t<br />
λ ∫ )<br />
0 sdB s − 1 t<br />
‖λ 2 0 s‖ 2 ds on a<br />
(<br />
E(L T ) = 1 et pour tout i = 1, · · · , d, E P L T e R T<br />
R T<br />
0 σi s (dBs+λsds)−1 2 0 ‖σi (s)‖ ds)<br />
2 < +∞.<br />
Alors <strong>la</strong> probabilité Q définie par dQ| FT = L T dP| FT est une mesure martingale équivalente<br />
à P, c’est à dire que les prix actualisés ( ˜S t i) sont des (F t)-martingales sous Q.<br />
Remarque 4.16 Les hypothèses de convergence des intégrales de <strong>la</strong> condition (ii) sont<br />
satisfaites dès que les processus λ et σ i sont bornés, ou bien plus généralement si<br />
E P<br />
[e 1 2<br />
R T<br />
0 (‖λ(s)‖ 2 +‖σ i (s)‖ 2 )ds]<br />
< +∞.<br />
En effet, dans ce cas les deux martingales locales sont des martingales exponentielles.<br />
Démonstration. Il suffit d’appliquer le théorème de Girsanov. La probabilité Q est équivalente<br />
à P et le processus défini pour j = 1, · · · , k et t ∈ [0, T] par<br />
est une Q-martingale; de plus sous Q,<br />
W j<br />
t = B j t +<br />
∫ t<br />
0<br />
λ j s ds<br />
d ˜S i t = ˜S i t σi (t)dB t + ˜S i t [bi (t) − r t ]dt = ˜S i t σi (t)dW t .<br />
De plus <strong>la</strong> seconde condition d’intégrabilité montre ( ( que <strong>la</strong> condition de Novikov (Théorème<br />
∫ t<br />
3.4) est satisfaite et assure que le processus exp<br />
0 σi s dW ∫ ) )<br />
s − 1 t<br />
2 0 ‖σi (s)‖ 2 ds , t ∈ [0, T]<br />
est une Q-martingale; ceci termine <strong>la</strong> démonstration grâce à <strong>la</strong> forme explicite de ˜S t i (sous<br />
Q) à l’aide de W montrée dans l’exercice 2.4. ✷<br />
4.2.2 Complétude du marché<br />
On se p<strong>la</strong>ce sous les hypothèses du Théorème 4.15 : on note Q <strong>la</strong> probabilité<br />
de densité L T par rapport à P, telle que sous Q les processus ( ˜S t i , 0 ≤ t ≤ T) sont<br />
des (F t , 0 ≤ t ≤ T)-martingales.<br />
Soit ζ une variable aléatoire F T -mesurable Q intégrable après changement de numéraire.<br />
On veut montrer que l’actif de valeur terminale ζ est duplicable. Ceci nécessite une hypothèse<br />
de « rang » sur <strong>la</strong> matrice de diffusion σ. Rappelons que pour tout t, <strong>la</strong> matrice σ(t) est<br />
associée à une application linéaire de R k dans R d d’adjointe σ(t) ∗ : R d → R k dont <strong>la</strong><br />
matrice dans les bases canoniques est <strong>la</strong> transposée σ(t) ∗ de <strong>la</strong> matrice de diffusion σ(t). L’<br />
application linéaire σ(t) ∗ est surjective si et seulement si le rang de cette matrice (qui est<br />
aussi celui de <strong>la</strong> matrice σ(t)) est égal à k.<br />
Théorème 4.17 Soit Q <strong>la</strong> mesure martingale équivalente du Théorème 4.15. Le marché<br />
est Q-complet si et seulement si pour tout t ∈ [0, T], le rang de σ(t) est Q (ou P) presque<br />
sûrement égal à k.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 77<br />
Démonstration. Soit ζ une variable aléatoire F T -mesurable telle que ζ ∈ L 1 (Q). On veut<br />
ST<br />
0<br />
trouver une stratégie autofinancée Q-admissible Θ telle que VT<br />
Θ = ζ. D’après <strong>la</strong> section<br />
précédente, si une telle stratégie existe, on a sous Q pour tout t ∈ [0, T], d’après <strong>la</strong> propriété<br />
de Q-martingale et d’autofinancement :<br />
Ṽ Θ<br />
t<br />
( ζ<br />
)<br />
∣<br />
= E Q ∣F<br />
ST<br />
0 t = V0 Θ +<br />
d∑<br />
i=1<br />
∫ t<br />
0<br />
θ i s ˜S i sσ i sdW s .<br />
(<br />
Le processus M t = E ζ<br />
)<br />
Q<br />
∣<br />
ST<br />
0 Ft est une (Ft W )-martingale sous Q. Le processus λ n’étant<br />
pas déterministe, <strong>la</strong> filtration (Ft W ) est incluse dans (Ft B ), sans lui être égale.<br />
D’après le Lemme 3.1 le produit (L t M t ) est une (Ft B , 0 ≤ t ≤ T)-martingale locale sous<br />
P. Le théorème de représentation (Théorème 3.13) entraîne l’existence d’un unique processus<br />
H ∈ H2 loc (pour <strong>la</strong> filtration (Ft B)) tel que sous P, M tL t = M 0 + ∫ t<br />
H 0 sdB s , c’est à dire que<br />
Puisque L −1<br />
t<br />
sous Q, d(M t L t ) = H t dW t − H t λ t dt = H t (dW t − λ t dt) .<br />
( ∫ t<br />
= exp λ ∫ )<br />
0 sdW s − 1 t<br />
‖λ 2 0 s‖ 2 ds ,<br />
sous Q,<br />
La formule d’Itô montre alors que sous Q :<br />
dM t = d[(ML) t L −1<br />
t ]<br />
dL −1<br />
t<br />
= λ t L −1<br />
t dW t .<br />
= H t L −1<br />
t (dW t − λ t dt) + M t L t λ t L −1<br />
t dW t + d〈ML, L −1 〉 t =<br />
[<br />
M t λ t + H ]<br />
t<br />
dW t .<br />
L t<br />
Si on note K t = M t λ t + Ht<br />
L t<br />
, on en déduit un processus K progressivement mesurable tel<br />
que sous Q, M t = M 0 + ∫ t<br />
K 0 sdW s . Il reste enfin par identification de <strong>la</strong> décomposition de<br />
M t comme processus d’Itô à trouver θt, i i = 1, · · · , d tels que pour tout t ∈ [0, T] et tout<br />
j = 1, · · · , k, K j t = ∑ d<br />
i=1 θi ˜S t t iσi j (t). Sous forme matricielle, ce<strong>la</strong> revient à trouver le vecteur<br />
(θt i , 1 ≤ i ≤ d) tel que<br />
⎛<br />
θ 1 ˜S<br />
⎞ ⎛<br />
t t<br />
1 σ1 1<br />
σ(t) ∗ ⎜ ⎟ ⎜<br />
(t) · · · σd 1 (t)<br />
⎞⎛<br />
θ 1 ˜S<br />
⎞ ⎛ ⎞<br />
t t<br />
1 Kt<br />
1<br />
⎟⎜<br />
⎟ ⎜ ⎟<br />
⎝ . ⎠ = ⎝ . . . ⎠⎝<br />
. ⎠ = ⎝ . ⎠ .<br />
θt d ˜S t<br />
d σk 1(t) · · · σd k (t) θt d ˜S t<br />
d Kt<br />
k<br />
Si le marché est Q-complet, cette équation doit être résolue Q p.s. pour tous les seconds<br />
membres K (avec assez d’intégrabilité et de mesurabilité), ce qui entraîne que <strong>la</strong> matrice<br />
σ(t) ∗ doit être de rang k p.s., et que σ(t) doit aussi être de rang k Q p.s.<br />
Réciproquement, si σ(t) est Q p.s. de rang k, alors σ(t) ∗ est Q p.s. surjective et l’équation<br />
admet Q p.s. une solution θt i , i = 1, · · · , d. Pour satisfaire l’autofinancement (après actualisation),<br />
on en déduit θt 0 = M t − ∑ d<br />
i=1 θi ˜S t t i Q p.s. La stratégie Θ = (θi , 0 ≤ i ≤ d) est<br />
donc autofinancée, de valeur Ṽ t<br />
Θ égale à M t à l’instant t. Puisque (Ṽ t Θ , 0 ≤ t ≤ T) est une<br />
(Ft B Θ<br />
)-martingale sous Q, <strong>la</strong> stratégie Θ est admissible et puisque Q p.s. VT = M TST 0 =<br />
E Q (ζ|F T ) = ζ, elle duplique ζ. ✷<br />
Remarquons que l’absence d’opportunité d’arbitrage et l’existence de primes de risque λ<br />
donnent l’existence d’une mesure martingale équivalente Q (par le théorème de Girsanov)<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
78 4 Applications à <strong>la</strong> finance<br />
et <strong>la</strong> Q-complétude du marché sous des conditions sur le rang de σ(t). Le théorème 4.13<br />
montre alors l’unicité de <strong>la</strong> mesure martingale équivalente.<br />
La condition imposant à σ(t) d’être de rang k montre qu’on doit avoir d ≥ k, c’est à<br />
dire qu’il y ait assez d’actifs pour dupliquer les k sources d’aléa B j , 1 ≤ j ≤ k. Remarquons<br />
enfin que si k = d et si pour presque tout (t, ω) ∈ [0, T] × Ω σ(t) est inversible, on a,<br />
λ t = σ(t) −1 [b(t)−r t¯1]. Donc, si <strong>la</strong> matrice σ(t, ω) est presque sûrement bornée et si σ(t)σ(t) ∗<br />
est strictement elliptique, c’est à dire qu’il existe des constantes 0 < m < M telles que pour<br />
tout y ∈ R k , m‖y‖ 2 ≤ y ∗ σ(t)σ ∗ (t)y ≤ M‖y‖ 2 , et si les coefficients b i (t) sont bornés presque<br />
partout, les conditions du Théorème 4.15 sont satisfaites.<br />
Dès que le marché est complet et qu’il y a absence d’opportunité d’arbitrage, le prix<br />
de tout actif dérivé est déterminé de façon unique; cet actif est redondant et son prix est<br />
indépendant de l’attitude des investisseurs à l’égard du risque.<br />
4.2.3 <strong>Calcul</strong> du portefeuille de couverture dans le modèle de B<strong>la</strong>ck & Sholes<br />
Rappelons que dans ce modèle on dispose d’un actif sans risque St<br />
0 = exp(rt) de<br />
taux constant r > 0 et d’un actif risqué S t modélisé par un Brownien géométrique S t =<br />
“ ”<br />
S 0 e σBt+ b− σ2<br />
2 t , solution de l’EDS linéaire dS t = S t (σdB t + bdt) où B est un Brownien standard<br />
unidimensionnel et σ > 0. On note (F t ) <strong>la</strong> tribu naturelle de B. En collectant les calculs<br />
faits précédemment et les résultats généraux montrés sur les marchés financiers, nous avons<br />
les propriétés suivantes :<br />
Après changement de numéraire, si ˜S t = S t e −rt (, on a d ˜S t = ) σ ˜S t + ˜S t (b − r)dt. Si on note<br />
et Q <strong>la</strong> probabilité de densité L T = exp −λB T − λ2 par rapport à P sur F<br />
2<br />
T , le<br />
λ = b−r<br />
σ<br />
processus (W t = B t + λt, 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T)-martingale sous Q telle que<br />
d ˜S t = σ ˜S t dW t . La probabilité Q est donc une mesure martingale équivalente, et sous Q, le<br />
processus ˜S est <strong>la</strong> martingale exponentielle<br />
( )<br />
˜S t = S 0 exp σW t − σ2 t<br />
. (4.4)<br />
2<br />
Il y a donc absence d’opportunité d’arbitrage parmi les stratégies à richesse positive. Puisque<br />
σ > 0, le marché est complet et <strong>la</strong> mesure martingale Q est unique. De plus, pour tout ζ ∈ F T<br />
tel que Z ∈ L 1 (Q), le prix actualisé à l’instant t de l’actif versant <strong>la</strong> somme ζ à l’instant<br />
terminal T est e −r(T −t) E Q (ζ|F t ). La probabilité Q est <strong>la</strong> probabilité risque neutre.<br />
On sait qu’il est possible à chaque instant de trouver un portefeuille autofinancé d’actifs<br />
de base (l’actif non risqué S 0 et le sous-jacent S) qui à chaque instant t ∈ [0, T] a le même<br />
prix que l’option. Le vendeur de l’option doit constituer ce portefeuille appelé portefeuille de<br />
couverture de l’option. A l’instant terminal, ce portefeuille vaudra exactement ζ, <strong>la</strong> somme<br />
que le vendeur s’est engagé à payer.<br />
Le portefeuille est théoriquement ajusté à chaque instant, sans tenir compte des variations<br />
du cours du sous-jacent S. Il correspond à des transactions faites en continu et<br />
sans frais, adjonction ni retrait d’argent. La quantité d’actif risqué dans le portefeuille de<br />
couverture est appelé le Delta.<br />
En réalité, les transactions sont discrètes et les coûts de transaction limitent le nombre<br />
d’ajustements (appelés « hedges » ). Le vendeur prend donc concrètement un risque. Plus<br />
il fait de hedges, plus son portefeuille est proche de l’option, mais plus il paye de coûts de<br />
transaction.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 79<br />
Évaluation de couverture versant <strong>la</strong> somme h(S T ) à l’instant T<br />
Cette option ne dépend que de <strong>la</strong> valeur terminale (c’est le cas d’un call ou d’un put)<br />
mais pas de toute <strong>la</strong> trajectoire (S t , t ∈ [0, T]).<br />
Si h(S T ) est Q-intégrable, l’actif est duplicable par une stratégie Q-admissible. Si W t =<br />
B t + λt, (W t , t ∈ [0, T]) est un Brownien sous Q et l’équation (4.4) montre que le prix de<br />
l’option à l’instant t est<br />
E Q<br />
(<br />
e<br />
−r(T −t) h(S T )|F t<br />
)<br />
avec ST = S t exp<br />
[<br />
σ(W T − W t ) +<br />
) ]<br />
(r − σ2<br />
(T − t) .<br />
2<br />
La variable aléatoire S t est F t -mesurable et W T − W t est indépendante de F t . La propriété<br />
de Markov montre que ce prix s’écrit V (t, S t ) où<br />
“<br />
V (t, x) = E Q<br />
[e −r(T −t) h<br />
(xe σY +<br />
r− σ2<br />
2<br />
” )]<br />
(T −t)<br />
où Y ∼ N(0, T − t).<br />
On a montré dans <strong>la</strong> section 2.6.2 que <strong>la</strong> fonction V (t, x) est solution de l’équation de<br />
Feynman-Kac<br />
{ ∂V<br />
(t, x) + L ∂t tV (t, x) = rV (t, x), ∀(t, x) ∈ [0, T] × R<br />
,<br />
V (T, x) = h(x)<br />
où L t f(t, x) = rx ∂f σ2<br />
(t, x) +<br />
∂x 2 x2 ∂2 f<br />
(t, x).<br />
∂x 2<br />
“<br />
Le prix en 0 est V (0, S 0 ) = E Q<br />
[e −rT h<br />
(S 0 e σN(0,T)+<br />
r− σ2<br />
2<br />
” )]<br />
T<br />
.<br />
Il reste à calculer le portefeuille de couverture, c’est à dire les quantités θt 0 d’actif sans<br />
risque et ∆ t = θt 1 d’actif risqué qui constituent à l’instant t <strong>la</strong> stratégie autofinancée Θ qui<br />
duplique l’option. Ce portefeuille est entièrement déterminé par le prix de l’option à l’instant<br />
0 (valeur initiale du portefeuille) et le « ∆ », c’est à dire le processus (∆ t ). Nous avons vu<br />
dans <strong>la</strong> section 2.6.2 que l’unicité de <strong>la</strong> décomposition d’un processus d’Itô et <strong>la</strong> condition<br />
d’autofinancement entraînent que<br />
∆ t = ∂V<br />
∂x (t, S t). (4.5)<br />
On voit que l’EDP parabolique satisfaite par V (t, x) ne dépend pas de b. Le delta ∆ t<br />
mesure <strong>la</strong> sensibilité du prix de l’option aux variations du cours du sous-jacent S t ; c’est <strong>la</strong><br />
part du portefeuille investi sur l’actif risqué. Cette couverture est réajustée en temps discret.<br />
Si ∆ t varie beaucoup, on doit modifier souvent <strong>la</strong> composition du portefeuille et <strong>la</strong> sensibilité<br />
du delta au cours du sous-jacent est mesurée par le « gamma » défini par<br />
Γ t = ∂2 V<br />
∂x 2 (t, S t). (4.6)<br />
<strong>Calcul</strong> du delta Supposons que h ∈ C 2 est à croissance polynomiale ainsi que ses dérivées<br />
d’ordre 1 et 2. Nous ne ferons les calculs explicites qu’à l’instant 0. Les formules à l’instant<br />
t sont simi<strong>la</strong>ires en remp<strong>la</strong>çant T par T − t et S 0 par S t .<br />
Notons<br />
)<br />
f(x, ω) = e −rT h<br />
(xe σW T +(r− σ2<br />
2 )T .<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
80 4 Applications à <strong>la</strong> finance<br />
On a V (0, x) = E Q (f(x, ω)). Pour calculer ∆ 0 , il suffit d’intervertir <strong>la</strong> dérivation par rapport<br />
à x et l’espérance sous Q. D’après les résultats c<strong>la</strong>ssiques de théorie de <strong>la</strong> mesure, il suffit<br />
que pour Q-presque tout ω, l’application x → f(x, ω) soit de c<strong>la</strong>sse C 1 , et qu’il existe une<br />
variable aléatoire g ∈ L 1 (Q) telle que pour tout x 0 et tout x dans un voisinage de x 0 ,<br />
∣ ∂f (x, ω)∣ ∣<br />
∂x ≤ g(ω) pour Q presque tout ω.<br />
Puisque h ′ est à croissance polynomiale, si x reste borné, on majore bien<br />
f ′ x (x, ω) = eσW T − σ2<br />
2 T h ′ (xe σW T +<br />
hr− σ2<br />
2<br />
par une variable aléatoire intégrable indépendante de x dans une boule donnée. On en déduit<br />
donc<br />
∆ 0 = ∂V (<br />
)<br />
∂x (t, S 0) = E Q e σW T − σ2<br />
2 T h ′ (S T ) .<br />
Un calcul simi<strong>la</strong>ire donne<br />
∆ t = ∂V (<br />
)<br />
∂x (t, S t) = E Q e σW T −t− σ2<br />
2 (T −t) h ′ (S T −t ) .<br />
Si h ′ est de signe constant (c’est à dire h est monotone), le signe de ∆ 0 est celui de h ′ .<br />
Un nouveau changement de probabilité permet de trouver une expression légèrement plus<br />
simple du delta.<br />
Soit ˜Q <strong>la</strong> probabilité de densité exp(σW T − σ2 T) par rapport à Q. Alors le processus défini<br />
2<br />
par ˜W t = W t − σt pour 0 ≤ t ≤ T est un (Ft B, 0 ≤ t ≤ T)-Brownien sous ˜Q. De plus<br />
∆ 0 = E˜Q<br />
[<br />
h<br />
′ ( S 0 e σ ˜W T +(r+ σ2<br />
2 )T)] .<br />
i<br />
T<br />
)<br />
<strong>Calcul</strong> du gamma Un raisonnement simi<strong>la</strong>ire permet de dériver de nouveau sous le signe<br />
somme, ce qui donne<br />
Γ 0 = ∂2 V<br />
(<br />
)<br />
∂x (t, S 0) = E 2 Q e σW T −t− σ2<br />
2 (T −t) h ′′ (S T −t ) .<br />
Le second changement de probabilité montre que Γ 0 = E˜Q<br />
Lorsque h est convexe, le gamma est donc positif.<br />
[<br />
h<br />
′′ ( S 0 e σ ˜W T +(r+ σ2<br />
2 )T)] .<br />
Prix d’un call de maturité T et d’exercice K<br />
On applique les résultats précédents au cas où h(x) = (x − K) + . Sous <strong>la</strong> probabilité Q,<br />
˜S est solution de l’EDS d ˜S t = σ ˜S t dW t + ( )<br />
r − σ2<br />
2 dt. Les calculs de <strong>la</strong> valeur du call ont<br />
été faits dans <strong>la</strong> section 2.6.2. La formule (2.38) montre que valeur du call à l’instant t est<br />
∫<br />
donné par (2.38). Pour tout x > 0 <strong>la</strong> formule (2.39) montre que si F(a) = √ 1 a x2<br />
e− 2 2π<br />
dx,<br />
−∞<br />
( )<br />
C(0, x) = E Q e −rT (˜S T − K) + = S 0 F(d 1 ) − Ke −rT F(d 2 ),<br />
où<br />
d 1 = 1<br />
σ √ T<br />
[<br />
ln<br />
( )<br />
S0<br />
+<br />
K<br />
d 2 = d 1 − σ √ T = 1<br />
σ √ T<br />
) (r + σ2<br />
2<br />
[ (<br />
S0<br />
ln<br />
K<br />
]<br />
T<br />
)<br />
+<br />
) ] (r − σ2<br />
T .<br />
2<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 81<br />
En remp<strong>la</strong>çant S 0 par S t et T par T − t, on vérifiera en exercice que l’on peut récrire<br />
l’équation (2.39) sous <strong>la</strong> forme<br />
C(0, x) = S t F(d 1 (t, S t )) − Ke −r(T −t) F(d 2 ),<br />
avec<br />
d 1 (t, y) =<br />
1<br />
σ √ T − t<br />
[ ( y<br />
)<br />
ln +<br />
K<br />
d 2 (t, y) = d 1 (t, y) − σ √ T − t = 1<br />
σ √ T<br />
) ]<br />
(r + σ2<br />
(T − t) ,<br />
2<br />
[ ( y<br />
)<br />
ln +<br />
K<br />
(r − σ2<br />
2<br />
) ]<br />
(T − t) .<br />
La fonction h(y) = (y − K) + est dérivable en tout y ≠ K et l’ensemble des ω tels que<br />
xe σW T +(r− σ2<br />
2 )T (ω) = K est négligeable. De plus, dy-presque partout h ′ (y) = 1 ]K,+∞[ (y). Le<br />
raisonnement précédent de dérivation sous l’intégrale par rapport à Q montre qu’en utilisant<br />
<strong>la</strong> probabilité ˜Q<br />
∆ 0 = E˜Q<br />
[1 ]K,+∞[ (S 0 e σ ˜W T +(r+ σ2 )T)] 2 ,<br />
c’est à dire, puisque ˜W est un Brownien sous ˜Q,<br />
( [ ( )])<br />
∆ 0 = ˜Q σ ˜W<br />
S0<br />
T ≤ ln<br />
K + r + σ2<br />
2 )T = F(d 1 (0, S 0 )).<br />
Un calcul simi<strong>la</strong>ire montre que ∆ t = F(d 1 (t, S t )), c’est à dire que <strong>la</strong> forme du prix fournit<br />
<strong>la</strong> composition du portefeuille de couverture :<br />
4.2.4 Vo<strong>la</strong>tilité<br />
C t = ∆ t S t + θ 0 t e rt , où θ 0 t = −Ke −rT F(d 2 (t, S t )) ≤ 0.<br />
Les formules précédentes du prix et du delta dépendent d’un paramètre du sous-jacent<br />
S qui n’est pas directement observable : sa vo<strong>la</strong>tilité σ. Le coefficient de dérive b a en effet<br />
disparu des formules de C t et ∆ t .<br />
On dispose c<strong>la</strong>ssiquement de deux façons d’estimer σ.<br />
Vo<strong>la</strong>tilité historique On cherche à estimer σ à partir des observations passées du cours.<br />
On regarde les données (S ih , 0 ≤ i ≤ n) à des instants multiples d’un intervalle de temps ( de )<br />
S<br />
base (par exemple un jour). Pour tout i = 1, · · · , n, les variables aléatoires X i = ln ih<br />
S<br />
([ ] )<br />
(i−1)h<br />
sont indépendantes de même loi gaussienne N b − σ2 h, σ 2 h . L’estimateur c<strong>la</strong>ssique de<br />
2<br />
<strong>la</strong> variance d’un n-échantillon dont on ignore<br />
∑<br />
l’espérance donne l’estimateur suivant, qui est<br />
un estimateur sans biais de σ 2 1<br />
(car n<br />
h σ 2 i=1 (X i − ¯X n ) 2 est un χ 2 n−1) :<br />
1<br />
h (n − 1)<br />
n∑<br />
(X i − ¯X n ) 2 où ¯X n = 1 n<br />
i=1<br />
n∑<br />
X i .<br />
i=1<br />
Souvent on prend une taille d’échantillon qui correspond au temps de vie qui reste pour<br />
l’option.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
82 4 Applications à <strong>la</strong> finance<br />
Vo<strong>la</strong>tilité implicite<br />
On observe que le prix du call est une fonction continue strictement croissante de σ. En<br />
observant les prix de puts et calls sur le marché avec diverses dates de maturité et diverses<br />
valeurs de l’exercice K, on recherche σ en inversant <strong>la</strong> formule.<br />
Concrètement, il y a de nombreux actifs qui donnent des vo<strong>la</strong>tilités différentes. La variation<br />
de K donne une forme de « smile » , c’est à dire que les options sur de « petites »<br />
ou « grandes » valeurs de K sont plus chères et ont une vo<strong>la</strong>tilité implicite plus élevée.<br />
Deux facteurs expliquent en partie ce phénomène : d’une part le modèle n’est pas pertinent<br />
(surtout dans l’aspect d’une vo<strong>la</strong>tilité constante) et il n’y a que peu de transactions sur des<br />
options dont les prix d’exercice sont extrêmes.<br />
Les traders raisonnent plus en termes de vo<strong>la</strong>tilité et de smile de vo<strong>la</strong>tilité, et se servent<br />
du modèle de B<strong>la</strong>ck & Sholes comme d’une traduction entre prix et vo<strong>la</strong>tilité implicite.<br />
Les modèles qui permettent de prendre en compte les smile de vo<strong>la</strong>tilité sont ceux où <strong>la</strong><br />
vo<strong>la</strong>tilité σ t est stochastique et dépend du temps. Un modèle à vo<strong>la</strong>tilité non constante mais<br />
déterministe ne suffit pas.<br />
Divers modèles sont utilisés :<br />
Modèle de Hull & White On dispose de deux Browniens indépendants B et W. Le cours<br />
du sous-jacent S t est modélisé par l’EDS dirigée par B de coefficient de diffusion σ t S t et de<br />
coefficient de dérive b t S t . La vo<strong>la</strong>tilité σ t est aléatoire et son carré V t est solution d’une EDS<br />
linéaire dirigée par W de coefficient de diffusion s t V t et de dérive m t V t , ce qui conduit au<br />
système<br />
{<br />
dSt = S t (σ t dB t + b t dt),<br />
dV t = V t (s t dW t + m t dt), où V t = σ 2 t .<br />
Dans ce cas, le prix du call peut être exprimé en fonction de celui du modèle de B<strong>la</strong>ck &<br />
Sholes.<br />
Modèle de Dupire La vo<strong>la</strong>tilité est une fonction σ(t, S t ) avec 0 < α ≤ σ(t, S t ) ≤ β. Il y a<br />
existence et unicité de <strong>la</strong> solution de l’EDS, mais pas de formule explicite.<br />
Modèles à sauts De nombreux modèles récents font appel à des équations différentielles<br />
stochastiques dirigées par un processus de Lévy (à <strong>la</strong> p<strong>la</strong>ce du Brownien B) afin de rendre<br />
compte des discontinuités des trajectoires du prix des actifs en fonction du temps. Ces<br />
modèles ne seront pas abordés ici.<br />
4.3 Modèle de Cox-Ingersoll-Ross<br />
Une c<strong>la</strong>sse importante de modèles stochastiques (plus récents que le modèle de B<strong>la</strong>ck &<br />
Sholes) utilisés en finance est liée au processus de Bessel.<br />
4.3.1 Processus de Bessel généraux<br />
Nous avons introduit des processus de Bessel dans le Chapitre 2. Nous allons maintenant<br />
définir les processus de Bessel généraux.<br />
Soit B un mouvement Brownien. En utilisant l’inégalité | √ x − √ y| ≤ √ |x − y|, le<br />
théorème de Yamada-Watanabe 2.20 montre que pour δ ≥ 0 et α ≥ 0, l’équation<br />
dZ t = δ dt + 2 √ |Z t |dB t , Z 0 = α ,<br />
a une unique solution forte. Cette solution est un processus de Bessel carré de dimension δ,<br />
que l’on désigne par BESQ δ . En particulier, si α = 0 et δ = 0, <strong>la</strong> solution Z ≡ 0 est l’unique<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.3 Modèle de Cox-Ingersoll-Ross 83<br />
solution. En utilisant le théorème de comparaison 2.19, si 0 ≤ δ ≤ δ ′ et si ρ et ρ ′ sont des<br />
processus de Bessel carré de dimension δ et δ ′ partant du même point, alors 0 ≤ ρ t ≤ ρ ′ t p.s.<br />
Dans le cas δ > 2, le processus de Bessel carré BESQ δ partant de α n’atteint jamais 0.<br />
Si 0 < δ < 2, le processus ρ atteint 0 en un temps fini. Si δ = 0 le processus reste en 0 dès<br />
qu’il atteint ce point.<br />
Définition 4.18 (BESQ δ ) Pour tout δ ≥ 0 et α ≥ 0, l’unique solution forte de l’EDS<br />
ρ t = α + δt + 2<br />
∫ t<br />
0<br />
√<br />
ρs dB s<br />
est un processus de Bessel carré de dimension δ, partant de α et est noté BESQ δ .<br />
Définition 4.19 (BES δ ) Soit ρ un BESQ δ partant de α. Le processus R = √ ρ est un<br />
processus de Bessel de dimension δ, partant de a = √ α et est noté BES δ .<br />
Définition 4.20 Le nombre ν = (δ/2) − 1 (soit δ = 2(ν + 1)) est l’indice du processus de<br />
Bessel et un processus de Bessel d’indice ν est noté BES (ν) .<br />
En appliquant <strong>la</strong> formule d’Itô, on voit que pour α > 0 et δ > 2, un BES δ est solution de<br />
R t = α + B t + δ − 1<br />
2<br />
∫ t<br />
Les fonctions de Bessel modifiées I ν et K ν solutions de<br />
sont données par :<br />
x 2 u ′′ (x) + xu ′ (x) − (x 2 + ν 2 )u(x) = 0<br />
I ν (z) =<br />
( z<br />
2) ν ∞<br />
∑<br />
n=0<br />
K ν (z) = π(I −ν(z) − I ν (z))<br />
.<br />
2 sin πz<br />
0<br />
1<br />
R s<br />
ds . (4.7)<br />
z 2n<br />
2 2n n! Γ(ν + n + 1)<br />
Les probabilités de transition q (ν)<br />
t d’un BESQ (ν) sont<br />
q (ν)<br />
t (x, y) = 1 ( ( y ν/2<br />
exp −<br />
2t x) x + y )<br />
2t<br />
√ xy<br />
I ν ( ) (4.8)<br />
t<br />
et le processus de Bessel d’indice ν a une probabilité de transition p (ν)<br />
t<br />
p (ν)<br />
t (x, y) = y t<br />
( y<br />
x) ν<br />
exp(−<br />
x 2 + y 2<br />
2t<br />
donnée par<br />
( xy<br />
)<br />
)I ν , (4.9)<br />
t<br />
Les processus de Bessel sont utilisés dans le modèle suivant de Cox-Ingersoll-Ross.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
84 4 Applications à <strong>la</strong> finance<br />
4.3.2 Modèle de Cox-Ingersoll-Ross<br />
Pour modéliser des taux, Cox-Ingersoll-Ross étudient l’équation suivante<br />
dr t = k(θ − r t )dt + σ √ r t dB t (4.10)<br />
Le théorème d’existence de Yamada-Watanabe (Théorème 2.20) montre que (4.10) a une<br />
unique solution; c’est un processus positif pour kθ ≥ 0, mais il n’est pas possible d’en<br />
obtenir une formule explicite. Soit r x le processus solution de (4.10) avec r x 0 = x.<br />
Le changement de temps A(t) = σ 2 t/4 réduit l’étude de (4.10) au cas σ = 2. En effet, si<br />
Z t = r σ 2 t/4, alors<br />
dZ t = k ′ (θ − Z t ) dt + 2 √ Z t dB t ,<br />
avec k ′ = kσ 2 /4 et où B est un mouvement Brownien.<br />
Le processus de CIR solution de l’équation (4.10) est un BESQ changé de temps : en effet,<br />
( ) σ<br />
r t = e −kt 2<br />
ρ<br />
4k (ekt − 1) ,<br />
où (ρ(s), s ≥ 0) est un BESQ δ (α), avec δ = 4kθ .<br />
σ 2<br />
On peut montrer que, si T0 x := inf{t ≥ 0 : rx t = 0} et 2kθ ≥ σ 2 alors P(T0 x = ∞) = 1. Si<br />
0 ≤ 2kθ < σ 2 et k > 0 alors P(T0 x < ∞) = 1 et si k < 0 on a P(T 0 x < ∞) ∈]0, 1[. (Ce<strong>la</strong> se<br />
fait au moyen du théorème de comparaison)<br />
Cependant, on peut calculer l’espérance de <strong>la</strong> v.a. r t au moyen de l’égalité<br />
E(r t ) = r 0 + k(θt −<br />
∫ t<br />
0<br />
E(r s )ds),<br />
en admettant que l’intégrale stochastique est une martingale, ce qui est le cas. On calcule<br />
sans difficultés supplémentaires l’espérance conditionnelle, en utilisant le caractère Markovien<br />
:<br />
Théorème 4.21 Soit r le processus vérifiant<br />
dr t = k(θ − r t )dt + σ √ r t dB t .<br />
L’espérance conditionnelle et <strong>la</strong> variance conditionnelle sont données par<br />
E(r t |F s ) = r s e −k(t−s) + θ(1 − e −k(t−s) ),<br />
Var(r t |F s ) = r s<br />
σ 2 (e −k(t−s) − e −2k(t−s) )<br />
k<br />
Démonstration. Par définition, on a pour s ≤ t<br />
r t = r s + k<br />
et en appliquant <strong>la</strong> formule d’Itô<br />
∫ t<br />
s<br />
(θ − r u )du + σ<br />
∫ t<br />
rt 2 = rs 2 + 2k (θ − r u )r u du + 2σ<br />
= r 2 s + (2kθ + σ 2 )<br />
s<br />
∫ t<br />
s<br />
r u du − 2k<br />
∫ t<br />
s<br />
∫ t<br />
s<br />
+ θσ2 (1 − e −k(t−s) ) 2<br />
.<br />
2k<br />
∫ t<br />
s<br />
√<br />
ru dB u ,<br />
∫ t<br />
(r u ) 3/2 dB u + σ 2 r u du<br />
r 2 udu + 2σ<br />
∫ t<br />
s<br />
s<br />
(r u ) 3/2 dB u .<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.3 Modèle de Cox-Ingersoll-Ross 85<br />
En admettant que les intégrales stochastiques qui interviennent dans les égalités ci-dessus<br />
sont d’espérance nulle, on obtient, pour s = 0<br />
( ∫ t<br />
)<br />
E(r t ) = r 0 + k θt − E(r u )du ,<br />
et<br />
E(r 2 t ) = r 2 0 + (2kθ + σ 2 )<br />
∫ t<br />
0<br />
0<br />
∫ t<br />
E(r u )du − 2k E(ru)du.<br />
2<br />
0<br />
Soit Φ(t) = E(r t ). En résolvant l’équation Φ(t) = r 0 + k(θt − ∫ t<br />
Φ(u)du), c’est à dire<br />
0<br />
l’équation différentielle Φ ′ (t) = k(θ − Φ(t)) et Φ(0) = r 0 , on obtient<br />
Φ(t) = E[r t ] = θ + (r 0 − θ)e −kt .<br />
De <strong>la</strong> même façon, on introduit Ψ(t) = E(rt 2) et en résolvant Ψ′ (t) = (2kθ+σ 2 )Φ(t)−2kΨ(t),<br />
on calcule<br />
[<br />
Var[r t ] = σ2<br />
k (1 − e−kt ) r 0 e −kt + θ ]<br />
2 (1 − e−kt ) .<br />
L’espérance et <strong>la</strong> variance conditionnelle de r s’obtiennent grâce à <strong>la</strong> propriété de Markov :<br />
E(r t |F s ) = θ + (r s − θ)e −k(t−s) = r s e −k(t−s) + θ(1 − e −k(t−s) ),<br />
σ 2 (e −k(t−s) − e −2k(t−s) )<br />
Var(r t |F s ) = r s<br />
k<br />
(<br />
e − R )<br />
T<br />
r t u du<br />
∣ F t .<br />
Nous allons calculer E<br />
+ θσ2 (1 − e −k(t−s) ) 2<br />
.<br />
2k<br />
✷<br />
4.3.3 <strong>Calcul</strong> du prix d’un zéro-coupon<br />
Proposition 4.22 Soit<br />
Alors<br />
dr t = a(b − r t )dt + σ √ r t dB t .<br />
E<br />
(e − R T<br />
t<br />
r u du<br />
∣ F t<br />
)<br />
= G(t, r t ),<br />
avec<br />
G(t, x) = Φ(T − t) exp[−xΨ(T − t)],<br />
(<br />
)<br />
2(e γs − 1)<br />
Ψ(s) =<br />
(γ + a)(e γs − 1) + 2γ , Φ(s) = 2γe (γ+a) s 2ab<br />
2<br />
σ 2 , γ 2 = a 2 + 2σ 2 .<br />
(γ + a)(e γs − 1) + 2γ<br />
Démonstration. Soit (rs<br />
x,t , s ≥ t) <strong>la</strong> solution de<br />
et pour tout s ≥ t soit<br />
dr x,t<br />
s<br />
√<br />
= a(b − rs x,t )ds + σ rs x,t dB s , r x,t<br />
t = x<br />
R t s = exp (−<br />
∫ s<br />
t<br />
r x,t<br />
u du )<br />
.<br />
La propriété de Markov implique qu’il existe G telle que<br />
( ∫ s ∣ )<br />
exp − ru x,t du ∣∣Ft<br />
= G(t, r t ).<br />
t<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
86 4 Applications à <strong>la</strong> finance<br />
Nous admettrons que G est de c<strong>la</strong>sse C 1,2 . La formule d’Itô appliquée à G(s, rs x,t)Rt<br />
s , qui est<br />
une martingale, montre que<br />
G(T, r x,t<br />
T )Rt T = G(t, x) + M T − M t<br />
∫ T<br />
[<br />
+ Rs<br />
t −rs x,t G(s, rx,t s ) + ∂G (s, rx,t s ) + a(b − rx,t s<br />
∂t )∂G ∂x<br />
t<br />
(s, rx,t<br />
s ) + 1 2 σ2 rs<br />
x,t ∂ 2 G<br />
(s, rx,t<br />
∂x2 s<br />
]ds, )<br />
où M t est une intégrale stochastique. Par analogie avec <strong>la</strong> formule de Feynman-Kac, en<br />
choisissant G telle que<br />
−yG(s, y) + ∂G (s, y) + a(b − y)∂G<br />
∂s ∂y (s, y) + 1 2 σ2 y ∂2 G<br />
(s, y) = 0 (4.11)<br />
∂y2 et G(T, y) = 1 pour tout y, on obtient<br />
R t T = G(t, x) + M T − M t ,<br />
où M est une martingale. En particulier, lorsque t = 0 on obtient E<br />
E(R T ) = G(0, x). En se p<strong>la</strong>çant entre t et T, on obtient<br />
E<br />
(e − R T<br />
t<br />
)<br />
ru<br />
x,t du<br />
= G(t, x).<br />
( (<br />
exp − ∫ ))<br />
T<br />
r 0 sds =<br />
Il reste à calculer <strong>la</strong> solution de l’équation aux dérivées partielles (4.11). Un calcul assez<br />
long montre que<br />
G(t, x) = Φ(T − t) exp[−xΨ(T − t)],<br />
avec<br />
Ψ(s) =<br />
(<br />
2(e γs −1)<br />
, Φ(s) = 2γe (γ+a) 2<br />
s<br />
(γ+a)(e γs −1)+2γ (γ+a)(e γs −1)+2γ<br />
γ 2 = a 2 + 2σ 2 .<br />
Si l’on note P(t, T) le prix du zéro-coupon associé,<br />
on montre que<br />
avec σ(u, r) = σΨ(u) √ r.<br />
4.4 Exercices<br />
P(t, T) = Φ(T − t) exp[−r t Ψ(T − t)],<br />
P(t, T) = B(t, T) (r t dt + σ(T − t, r t )dB t ),<br />
) 2ab<br />
σ 2 ,<br />
Exercice 4.1 Soit σ et b des constantes, r > 0, x ∈ R, et (S t ) le Brownien géométrique<br />
solution de l’EDS<br />
dS t = S t<br />
[<br />
σdBt + bdt ] , S 0 = x.<br />
1. Écrire S t sous forme exponentielle.<br />
2. On note θ = − b−r<br />
σ . Soit Q <strong>la</strong> probabilité définie sur F t par dQ = L t dP où<br />
L t = e θBt−1 2 θ2t . Montrer que sous Q, W t = B t − θt est un Brownien.<br />
✷<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
4.4 Exercices 87<br />
3. Soit ˜P<br />
σ2<br />
σWt−<br />
<strong>la</strong> probabilité définie sur F t par d˜P = Z t dQ où Z t = e 2 t . Montrer que<br />
dS t = S t<br />
[<br />
σd ˜Bt + (r + σ 2 )dt ] ,<br />
où ˜B est un Brownien sous ˜P.<br />
( )<br />
4. Soit P 0 > 0 et pour tout t ≥ 0, P t = P 0 e rt S<br />
. Montrer que t<br />
P t<br />
, t ≥ 0 est une martingale<br />
( )<br />
P<br />
sous Q. Montrer que t<br />
S t<br />
, t ≥ 0 est une martingale sous ˜P.<br />
( ∫ )<br />
5. Soit A et λ des constantes réelles, F t = e −λt t<br />
S 0 udu + xA et Ψ t = Ftert<br />
S t<br />
. Écrire<br />
l’EDS satisfaite par Ψ t en utilisant le Brownien ˜B sous ˜P.<br />
Exercice 4.2 Vo<strong>la</strong>tilité stochastique Soit B 1 et B 2 deux Browniens indépendants, F t =<br />
σ(B 1 s , B2 s , s ≤ t) <strong>la</strong> filtration engendrée par B1 et B 2 . Soit µ et η des fonctions (déterministes)<br />
bornées de [0, +∞[ dans R, σ et γ des fonctions (déterministes) bornées de R dans [m, +∞[<br />
avec m > 0. On note S <strong>la</strong> solution de<br />
où (Y t ) est solution de l’EDS<br />
dS t = S t<br />
[<br />
σ(Yt )dB 1 t + µ(t)dt ] , S 0 = x ∈ R,<br />
dY t = γ(Y t )dB 2 t + η(t)dt , Y 0 = 1.<br />
1. Soit θ un processus (F t ) adapté borné et (Z t ) <strong>la</strong> solution de l’EDS<br />
dZ t = Z t θ t dB 1 t , Z 0 = 1.<br />
Écrire explicitement Z t sous forme exponentielle.<br />
2. Soit λ et ν des processus (F t )-adaptés, bornés et (L t ) le processus défini par<br />
(∫ t<br />
L t = exp λ s dBs 1 − 1<br />
0 2<br />
∫ t<br />
0<br />
∫ t<br />
λ 2 s ds + ν s dBs 2 − 1 2<br />
0<br />
∫ t<br />
0<br />
ν 2 s ds )<br />
. (4.12)<br />
Écrire l’EDS satisfaite par (L t ). On note Q <strong>la</strong> probabilité définie par dQ = L t dP sur<br />
F t .<br />
3. Soit ˜B t 1 = Bt 1 − ∫ t<br />
λ 0 sds et ( ˜Z t ) <strong>la</strong> solution de l’EDS d ˜Z t = ˜Z t αd ˜B t 1 et ˜Z 0 = 1, où α est<br />
une constante. Montrer que (L t ˜Zt ) est une (F t )-martingale sous P.<br />
4. Montrer que ˜B t 2 = B2 t − ∫ t<br />
ν 0 sds est un (F t )-Brownien sous Q.<br />
5. On admettra que si Q est une probabilité équivalente à P il existe λ et ν tels que <strong>la</strong><br />
densité de Q par rapport à P soit de <strong>la</strong> forme (4.12). Décrire l’ensemble des couples<br />
(λ, ν) correspondant à des probabilités Q telles que le processus (S t e −rt , t ≥ 0) soit<br />
une martingale sous Q. On notera Q cet ensemble de probabilités<br />
6. Le marché financier est-il complet?<br />
7. Soit X un actif duplicable au sens suivant : il existe un processus (F t )-adapté (V t ) tel<br />
qu’il existe un processus (φ t ) borné (F t )-adapté pour lequel :<br />
dV t = rV t dt + φ t<br />
[<br />
dSt − rS t dt ] , et V T = X.<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet
88 4 Applications à <strong>la</strong> finance<br />
(a) Montrer que (V t e −rt ) est une (F t )-martingale sous Q pour toute probabilité Q ∈<br />
Q.<br />
(b) On suppose que V t = v(t, S t , Y t ). Montrer que v satisfait une EDP que l’on<br />
explicitera.<br />
Exercice 4.3 Options power Soit r, δ, σ des constantes positives, x > 0. On modélise <strong>la</strong><br />
dynamique d’un actif versant des dividendes au taux δ alors que le taux spot est r sous <strong>la</strong><br />
probabilité risque neutre par<br />
dS t = S t<br />
[<br />
σdBt + (r − δ)dt ] , S 0 = x.<br />
1. On souhaite évaluer un actif contingent sur S versant des dividendes, c’est à dire<br />
calculer E P<br />
[<br />
h(ST )e −r(T −t)∣ ∣ Ft<br />
]<br />
. En s’inspirant des formules permettant de faire le calcul<br />
dans le cas c<strong>la</strong>ssique, quelle est <strong>la</strong> valeur de cet actif lorsque h(x) = (x α − K) + où<br />
α > 0?<br />
2. On suppose que δ = r. On note Q <strong>la</strong> probabilité qui sur F t a pour densité St par x<br />
rapport à P. Justifier que Q est bien une probabilité. On note Z t = x2<br />
S t<br />
. Quelle est<br />
<strong>la</strong> dynamique de (Z t , t ≥ 0) sous Q. Montrer que pour toute fonction f borélienne<br />
bornée,<br />
[ ( )]<br />
1 x<br />
2<br />
x E P S T f = E P (f(S T )).<br />
S T<br />
3. On revient au cas général. Montrer que (St a , t ≥ 0) est une martingale pour une valeur<br />
de a que l’on précisera. Monter que pour toute fonction f borélienne bornée,<br />
E P [f(S T )] = 1 ( )] x<br />
x αE P<br />
[ST a 2<br />
f .<br />
S T<br />
4. On suppose que h(x) = x β (x − K) + . Montrer que h(S T ) est <strong>la</strong> différence de deux<br />
payoffs correspondant à des options d’achat européennes portant sur S β+1 et S β et sur<br />
des strikes que l’on déterminera.<br />
Remerciements Ce cours remp<strong>la</strong>ce celui de <strong>Calcul</strong> <strong>Stochastique</strong> et <strong>Finance</strong>, Temps continu,<br />
fait par Isabelle Nagot dans l’ex DEA MME de l’Université <strong>Paris</strong> 1. Il fait suite au cours<br />
de <strong>Calcul</strong> <strong>Stochastique</strong> fait Bernard de Meyer puis par Ciprian Tudor. Je remercie ces trois<br />
collègues de <strong>Paris</strong> 1 de m’avoir fourni leurs polycopiés.<br />
Je tiens aussi à exprimer ma gratitude à Monique Jeanb<strong>la</strong>nc et à Thomas Simon, qui<br />
m’ont donné <strong>la</strong> toute dernière version des notes de deux cours de calcul stochastique appliqué<br />
à <strong>la</strong> finance qu’ils ont mis au point dans des formations de M2 à l’Université d’Évry.<br />
<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009
Références 89<br />
Références<br />
[1] Comets, F., Meyre, T., <strong>Calcul</strong> stochastique et modèles de diffusions, Dunod 2006.<br />
[2] De Meyer, B., <strong>Calcul</strong> <strong>Stochastique</strong>, Polycopié du cours de l’ex DEA MME de l’Université<br />
<strong>Paris</strong> 1, année 2004-2005.<br />
[3] Friedman, A., Stochastic Differential Equations and Applications, Volume 1, Academic<br />
Press, 1975.<br />
[4] Jeanb<strong>la</strong>nc; M., Cours de calcul stochastique, DESS IM Evry, Septembre 2005,<br />
http ://www.maths.univ-evry.fr/pages perso/jeanb<strong>la</strong>nc/<br />
[5] Jeanb<strong>la</strong>nc, M., Simon, T., Eléments de calcul stochastique, IRBID, Septembre 2005.<br />
[6] Jeanb<strong>la</strong>nc, M., Yor, M. et Chesney, M., Mathematical Methods for financial Markets,<br />
Springer Ver<strong>la</strong>g, à paraître.<br />
[7] Karatzas, I., Shreve, S.E., Brownian motion and Stochastic <strong>Calcul</strong>us, Springer Ver<strong>la</strong>g,<br />
1991.<br />
[8] Lamberton, D., Lapeyre., B, Introduction au calcul stochastique appliqué à <strong>la</strong> finance.,<br />
Ellipses, <strong>Paris</strong>, 1991.<br />
[9] Malliavin P., Stochastic Analysis, Springer, Berlin, 1997.<br />
[10] Nagot, I., <strong>Calcul</strong> <strong>Stochastique</strong> et <strong>Finance</strong>, Temps continu, Polycopié du cours de l’ex<br />
DEA MME de l’Université <strong>Paris</strong> 1, année 2004-2005.<br />
[11] Revuz, A., Yor, M., Continuous Martingales and Brownian Motion, Springer, Berlin,<br />
3th edition 1999.<br />
[12] Rogers L. C. G. et Williams, D., Diffusions, Markov Processes, and Martingales. Volume<br />
1 : Foundations, Wiley, Chichester, 1994.<br />
[13] Rogers L. C. G., Williams, D., Diffusions, Markov Processes, and Martingales. Volume<br />
2 : Itô <strong>Calcul</strong>us, Wiley, Chichester, 1987.<br />
[14] Tudor, C., <strong>Calcul</strong> <strong>Stochastique</strong> 1, Cours polycopié du Master M2 MMEF de l’Université<br />
<strong>Paris</strong> 1, année 2005-2006, http ://pagesperso.aol.fr/cipriantudor/<br />
26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet