03.07.2015 Views

a la Finance Université Paris 1 Calcul Stochastique ... - samos-matisse

a la Finance Université Paris 1 Calcul Stochastique ... - samos-matisse

a la Finance Université Paris 1 Calcul Stochastique ... - samos-matisse

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

M2 - Mathématiques Appliquées<br />

à l’Économie et à <strong>la</strong> <strong>Finance</strong><br />

Université <strong>Paris</strong> 1<br />

Spécialité : Modélisation et Méthodes Mathématiques<br />

en Économie et <strong>Finance</strong><br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2<br />

Annie Millet<br />

15<br />

14<br />

13<br />

12<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0


Table des matières<br />

1. Processus d’Itô de dimension quelconque . . . . . . . . . . . . . . 1<br />

1.1. Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1.2. Variation quadratique - Crochet d’une martingale locale. . . . . . 4<br />

1.3. Processus d’Itô réel. . . . . . . . . . . . . . . . . . . . . . . . 12<br />

1.4. Processus d’Itô de dimension d - Formule d’Itô générale . . . . . . 13<br />

1.4.1. Processus d’Itô de dimension d . . . . . . . . . . . . . . . . . 13<br />

1.4.2. Formule d’Itô générale . . . . . . . . . . . . . . . . . . . . 15<br />

1.5. Propriétés du Brownien. . . . . . . . . . . . . . . . . . . . . . 17<br />

1.5.1. Caractérisations de Lévy . . . . . . . . . . . . . . . . . . . 17<br />

1.5.2. Propriétés de Markov . . . . . . . . . . . . . . . . . . . . . 19<br />

1.6. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

2. Équations différentielles stochastiques . . . . . . . . . . . . . . 24<br />

2.1. Solution forte - Diffusion. . . . . . . . . . . . . . . . . . . . . 25<br />

2.2. Solution faible.. . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

2.3. Quelques propriétés des diffusions. . . . . . . . . . . . . . . . . 33<br />

2.3.1. Flot stochastique et Propriété de Markov . . . . . . . . . . . . 33<br />

2.3.2. Générateur infinitésimal . . . . . . . . . . . . . . . . . . . . 35<br />

2.3.3. Théorème de comparaison . . . . . . . . . . . . . . . . . . . 38<br />

2.4. Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

2.5. Lien avec les EDP. . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

2.5.1. Problème parabolique . . . . . . . . . . . . . . . . . . . . . 40<br />

2.5.2. Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . 41<br />

2.6. Exemples en finance. . . . . . . . . . . . . . . . . . . . . . . . 44<br />

2.6.1. Problème de Sturm-Liouville - Temps d’occupation . . . . . . . . 44<br />

2.6.2. Introduction à <strong>la</strong> formule de B<strong>la</strong>ck & Sholes . . . . . . . . . . . 46<br />

2.7. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

3. Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . 54<br />

3.1. Changement de probabilité . . . . . . . . . . . . . . . . . . . . 54<br />

3.2. Formule de Cameron Martin. . . . . . . . . . . . . . . . . . . . 55<br />

3.3. Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . 57<br />

3.4. Condition de Novikov et généralisations . . . . . . . . . . . . . . 58<br />

3.5. Existence de solutions faibles . . . . . . . . . . . . . . . . . . . 61<br />

3.6. Exemples d’application à des calculs d’espérance . . . . . . . . . . 62<br />

3.7. Théorème de représentation prévisible . . . . . . . . . . . . . . 64<br />

3.8. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

4. Applications à <strong>la</strong> finance . . . . . . . . . . . . . . . . . . . . . . 68<br />

4.1. Modélisation d’un marché financier en temps continu . . . . . . . . 68<br />

4.1.1. Modélisation d’un marché à d actifs risqués et k facteurs . . . . . . 68<br />

4.1.2. Description des stratégies . . . . . . . . . . . . . . . . . . . 69


4.1.3. Absence d’opportunité d’arbitrage - Mesure martingale équivalente . . 70<br />

4.1.4. Probabilité risque neutre . . . . . . . . . . . . . . . . . . . . 71<br />

4.2. Modèle de B<strong>la</strong>ck & Sholes généralisé . . . . . . . . . . . . . . . 73<br />

4.2.1. Absence d’opportunité d’arbitrage et changement de probabilité -<br />

Prime de risque . . . . . . . . . . . . . . . . . . . . . . . 73<br />

4.2.2. Complétude du marché . . . . . . . . . . . . . . . . . . . . 76<br />

4.2.3. <strong>Calcul</strong> du portefeuille de couverture dans le modèle de B<strong>la</strong>ck & Sholes 78<br />

4.2.4. Vo<strong>la</strong>tilité . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />

4.3. Modèle de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . 82<br />

4.3.1. Processus de Bessel généraux . . . . . . . . . . . . . . . . . . 82<br />

4.3.2. Modèle de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . 84<br />

4.3.3. <strong>Calcul</strong> du prix d’un zéro-coupon . . . . . . . . . . . . . . . . 85<br />

4.4. Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86


1<br />

1 Processus d’Itô de dimension quelconque<br />

Le but de ce chapitre est d’étendre les notions de mouvement Brownien, de processus<br />

d’Itô et <strong>la</strong> formule d’Itô de <strong>la</strong> dimension 1 à une dimension d arbitraire.<br />

1.1 Rappels<br />

Nous rappelons tout d’abord quelques définitions et notations du cours de <strong>Calcul</strong> <strong>Stochastique</strong><br />

1. La filtration donne « l’information » dont on dispose à chaque instant t.<br />

Définition 1.1 Soit (Ω, F, P) un espace probabilisé.<br />

(i) Une filtration est une famille croissante (F t , t ≥ 0) de sous-tribus de F, c’est à dire<br />

telle que F s ⊂ F t ⊂ F si s ≤ t.<br />

(ii) On dit que <strong>la</strong> filtration (F t ) satisfait les conditions usuelles si elle est :<br />

• continue à droite, i.e., F t = F t+ := ⋂ s>t F s.<br />

• complète, i.e., toutes les tribus F t contiennent les ensembles négligeables, ce qui revient<br />

à demander que P(A) = 0 entraîne A ∈ F 0 .<br />

Convention. Dans toute <strong>la</strong> suite on se donne un espace probabilisé filtré (Ω, F, (F t , t ≥<br />

0), P) et on suppose que sa filtration (F t ) satisfait les conditions habituelles. On supposera<br />

de plus que <strong>la</strong> tribu F 0 est <strong>la</strong> complétée de <strong>la</strong> tribu triviale {∅, Ω}, ce qui entraîne que les v.a.<br />

F 0 mesurables sont presque sûrement constantes. Ceci ne sera pas rappelé dans les énoncés.<br />

Définition 1.2 Un processus stochastique (à valeurs dans R d ) est une famille (X t , t ≥ 0)<br />

de variables aléatoires X t : (Ω, F) → (R d , R d ).<br />

(i) Le processus stochastique (X t ) est (F t )-adapté si X t est mesurable de (Ω, F t ) dans<br />

(R d , R d ) pour tout instant t ≥ 0.<br />

(ii) Le processus stochastique (X t ) est progressivement mesurable (ou progressif) si pour<br />

tout instant t ≥ 0, l’application (s, ω) ↦→ X s (ω) est mesurable de B([0, t])⊗F t dans (R d , R d ).<br />

(iii) Soit (X t ) un processus stochastique. Sa filtration naturelle est (F X t , t ≥ 0) où F X t =<br />

σ(σ(X s , s ∈ [0, t]), N) où N désigne les ensembles négligeables. Si le processus (X t ) est<br />

continu à droite, sa filtration naturelle (F X t ) satisfait les conditions habituelles.<br />

Théorème 1.3 Soit (X t ) un processus stochastique à valeurs dans R d , adapté et continu à<br />

droite. Alors (X t ) est progressif.<br />

La notion de temps d’arrêt joue un rôle crucial dans <strong>la</strong> théorie.<br />

Définition 1.4 Une variable aléatoire τ : Ω → [0, +∞] est un temps d’arrêt (re<strong>la</strong>tivement<br />

à <strong>la</strong> filtration (F t )), ou (F t )-temps d’arrêt, si {τ ≤ t} ∈ F t pour tout t ≥ 0. Si τ est un<br />

temps d’arrêt re<strong>la</strong>tivement à (F t ), on note<br />

F τ = {A ∈ F : A ∩ {τ ≤ t} ∈ F t , ∀t ∈ [0, +∞[}.<br />

Enfin si (X t ) est un processus (F t )-adapté, on note X τ (ω) = X τ(ω) (ω); si le processus (X t )<br />

est continu à droite et adapté, X τ 1 {τ


2 1 Processus d’Itô de dimension quelconque<br />

Proposition 1.5 Soit (X t , t ≥ 0) un processus à valeurs dans R d , (F t )-adapté et A ∈ R d .<br />

Rappelons <strong>la</strong> convention inf ∅ = +∞.<br />

(i) Si A est fermé et (X t ) est continu, D A = inf{t ≥ 0 : X t ∈ A} est un (F t )-temps<br />

d’arrêt.<br />

(ii) Si A est un ensemble ouvert et (X t ) est continu à droite, alors le temps d’atteinte<br />

de A noté T A = inf{t > 0 : X t ∈ A} est un (F t +)-temps d’arrêt.<br />

Démonstration. (i) De façon évidente, <strong>la</strong> continuité de X . et le fait que A est fermé entraînent<br />

{D A ≤ t} = {ω : inf s∈Q,s≤t d(X s (ω), A) = 0} ∈ F t , où d(x, A) = inf y∈A d(x, y).<br />

(ii) Pour vérifier {T A ≤ t} ∈ F + t , il suffit de vérifier que {T A < t} ∈ F t pour tout t.<br />

De plus, si s < t et X s (ω) ∈ A, <strong>la</strong> continuité à droite de X . (ω) et le fait que A est ouvert<br />

entraînent qu’il existe ε ∈]0, t − s[ tel que pour tout r ∈ [s, s + ε[, X r (ω) ∈ A, d’où<br />

{T A < t} = ∪ s


1.1 Rappels 3<br />

Démonstration. (i) Pour tout n ≥ 1, soit S n (ω) = k2 −n sur {S ∈ [(k − 1)2 −n , k2 −n [},<br />

k ≤ K2 n + 1 et T n défini de façon simi<strong>la</strong>ire. Alors S n et T n sont des (F t )-temps d’arrêt<br />

qui ne prennent qu’un nombre fini de valeurs et tels que S ≤ S n ≤ T n , lim n S n = S et<br />

lim n T n = T. Si A ∈ F Sn , en découpant l’ensemble A suivant les valeurs prises par S n et en<br />

utilisant <strong>la</strong> propriété de martingale, on voit que ∫ M A S n<br />

dP = ∑ ∫<br />

k<br />

M A∩{S n=k} KdP, c’est à<br />

dire que M Sn = E(M K |F Sn ). Puisque F Sn ⊂ F Tn , on a donc<br />

E(M Tn |F Sn ) = E(E(M K |F Tn )|F Sn ) = M Sn .<br />

On en déduit que pour A ∈ F S ⊂ F Sn , ∫ M A S n<br />

dP = ∫ M A T n<br />

dP. De plus, les suites de<br />

temps d’arrêt (S n , n ≥ 1) et (T n , n ≥ 1) étant décroissantes, le calcul précédent montre que<br />

les suites (M Sn , F Sn ) et (M Tn , F Tn ) sont des martingales descendantes, donc uniformément<br />

intégrables. Puisque <strong>la</strong> martingale M est continue à droite, M T = lim n M Tn et M S =<br />

lim n M Sn p.s. et dans L 1 . On en déduit que pour tout A ∈ F S , ∫ M A SdP = ∫ M A TdP,<br />

ce qui termine <strong>la</strong> démonstration. On remarque que cette démonstration s’étend aisément au<br />

cas où S et T sont des temps d’arrêt non bornés tels que S ≤ T si <strong>la</strong> martingale M est<br />

uniformément intégrable, donc fermée.<br />

(ii) Si s ≤ t, il suffit d’appliquer <strong>la</strong> partie (i) aux temps d’arrêt s ∧ T ≤ t ∧ T ≤ t,<br />

pour déduire que M t∧T est une (F t∧T )-martingale. Montrons que ce processus (F t )-adapté<br />

intégrable est encore une (F t )-martingale.<br />

Soit A ∈ F s . De façon évidente, A ∩ {T > s} ∈ F s∧T , et puisque E(M t∧T |F s∧T ) = M s∧T ,<br />

∫<br />

∫<br />

M t∧T dP = M s∧T dP.<br />

A∩{T>s}<br />

A∩{T>s}<br />

De plus, sur {T ≤ s}, M t∧T = M T = M s∧T ; on en déduit ∫ M A t∧TdP = ∫ M A s∧TdP, ce qui<br />

termine <strong>la</strong> démonstration. ✷<br />

Cette proposition justifie <strong>la</strong> définition suivante qui permet de « localiser » <strong>la</strong> notion de<br />

martingale en introduisant une suite croissante de temps d’arrêt.<br />

Définition 1.8 Un processus (F t )-adapté et continu à droite M est une (F t )-martingale<br />

locale s’il existe une suite croissante (τ n ) de (F t )-temps d’arrêt telle que τ n → ∞ et M τn :=<br />

(M t∧τn , t ≥ 0) est une (F t )-martingale pour tout n.<br />

Remarque 1.9 (1) Soit M une martingale locale. En remp<strong>la</strong>çant <strong>la</strong> suite de temps d’arrêt<br />

(τ n ) par (τ n ∧ n) on voit que l’on peut demander que chaque martingale M τn soit uniformément<br />

intégrable. Pour tout n ≥ 1, soit S n = inf{t ≥ 0 : |M t | ≥ n}. Alors S n est<br />

un temps d’arrêt et si <strong>la</strong> martingale locale M est continue, on peut, en remp<strong>la</strong>çant τ n par<br />

τ n ∧ n ∧ S n , demander que <strong>la</strong> martingale M τn soit bornée.<br />

(2) Même si M est une martingale locale intégrable, ce n’est pas nécessairement une<br />

martingale. On pourra voir un contre-exemple dans [11], page 182.<br />

Définition 1.10 Le processus (B t , t ≥ 0) est un mouvement Brownien (standard) réel - ou<br />

unidimensionnel si les propriétés (a)-(c) sont vérifiées :<br />

a) P(B 0 = 0) = 1 (le mouvement Brownien est issu de l’origine).<br />

b) Pour 0 ≤ s ≤ t, B t − B s est une variable réelle de loi gaussienne, centrée de variance<br />

(t − s), notée N(0, t − s).<br />

c) Pour tout n et 0 ≤ t 0 ≤ t 1 · · · ≤ t n , les variables aléatoires B t0 , B t1 − B t0 , · · · ,<br />

B tn − B tn−1 sont indépendantes.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


4 1 Processus d’Itô de dimension quelconque<br />

Rappelons que les trajectoires du Brownien B sont p.s. continues, et même Höldériennes<br />

d’ordre α < 1 , mais p.s. qu’elles ne sont pas dérivables (ni même des fonctions de c<strong>la</strong>sse<br />

2<br />

C 2).<br />

1 On supposera souvent que <strong>la</strong> tribu (F t ) considérée est <strong>la</strong> tribu naturelle de B, notée (Ft B ),<br />

et satisfait donc le théorème d’arrêt 1.7. La propriété c) montre que pour tout 0 ≤ s < t,<br />

l’accroissement B t − B s est indépendant de <strong>la</strong> tribu Fs<br />

B = σ(σ(B u , 0 ≤ u ≤ s), N). Le<br />

mouvement Brownien est donc une (Ft B )-martingale. Rappelons des propriétés du Brownien<br />

qui seront d’un usage constant, et pourront être montrées à titre d’exercice.<br />

Proposition 1.11 Soit (B t ) un Brownien. Alors<br />

(i) (Scaling) Pour toute constante c > 0, le processus cB t/c 2 est un mouvement Brownien<br />

et (−B t ) est un mouvement Brownien.<br />

(ii) (Bt 2 − t, t ≥ 0) est (FB t )-martingale.<br />

(iii) Pour tout θ ∈ R, le processus<br />

(<br />

exp<br />

(<br />

θB t − θ2 t<br />

2<br />

) )<br />

, t ≥ 0 est une (Ft B)-martingale.<br />

La figure suivante montre trois exemples de trajectoires de B (obtenues par simu<strong>la</strong>tion).<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−4<br />

−5<br />

0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0<br />

1.2 Variation quadratique - Crochet d’une martingale locale<br />

Rappelons les notations suivantes.<br />

Définition 1.12 Soit (Ω, F, (F t , t ≥ 0), P) un espace filtré. Pour a = 1, 2 et T ∈]0, +∞]<br />

on note :<br />

{<br />

(∫ t<br />

) }<br />

H a (F t ) = h progressivement mesurable tel que pour tout t ≥ 0, E |h s | a ds < ∞ ,<br />

{<br />

∫ t<br />

0<br />

}<br />

Ha loc (F t ) = h progressivement mesurable tel que pour tout t ≥ 0, |h s | a ds < ∞ p.s. ,<br />

0<br />

{<br />

(∫ T<br />

) }<br />

Ha T (F t) = h progressivement mesurable tel que E |h s | a ds < +∞ .<br />

0<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.2 Variation quadratique - Crochet d’une martingale locale 5<br />

En particulier soit h un processus cad<strong>la</strong>g (F t )-adapté; si pour tout t > 0 on a ∫ t<br />

( 0 h2 s ds <<br />

∫ )<br />

+∞ p.s., alors h ∈ H2 loc t<br />

, si E<br />

0 h2 sds < ∞ pour tout t, alors h ∈ H 2 (F t ), ... Lorsque<br />

<strong>la</strong> filtration (F t ) est <strong>la</strong> filtration naturelle (Ft B ) d’un mouvement Brownien B, on notera<br />

simplement H1 loc := H1 loc (Ft B ), H2 loc := H2 loc (Ft B ), ...<br />

La propriété suivante des intégrales stochastiques par rapport au mouvement Brownien<br />

est fondamentale.<br />

Théorème 1.13 Soit B un mouvement Brownien et (Ft B ) sa filtration naturelle. Soit h ∈<br />

H 2 ; alors le processus t → I t = ∫ t<br />

h 0 sdB s est une (Ft B )-martingale de carré intégrable et à<br />

trajectoires p.s. continues.<br />

Soit h ∈ H2 loc (par exemple un processus cad<strong>la</strong>g, (Ft B)-adapté tel que ∫ t<br />

0 h2 sds < +∞<br />

p.s.) Alors l’intégrale stochastique I t = ∫ t<br />

h 0 sdB s peut être construite comme une martingale<br />

locale continue.<br />

Rappelons <strong>la</strong> notion de variation satisfaite par les intégrales de <strong>la</strong> borne supérieure déterministes.<br />

Définition 1.14 (i) Soit s < t et f : [s, t] → R. La fonction f est à variation bornée sur<br />

[s, t] si V [s,t] (f) < +∞, où<br />

{ }<br />

∑<br />

V [s,t] (f) := sup |f(t i+1 ) − f(t i )| : {s = t 0 < t 1 < · · · < t n ≤ t} subdivision de [s, t] .<br />

i<br />

La fonction f : [0, +∞[ est à variation finie sur [0, +∞[ si elle est à variation bornée sur<br />

tout intervalle [0, T].<br />

(ii) Le processus (X t ) est à variation bornée sur [s, t] (resp. à variation finie) si ses<br />

trajectoires sont p.s. à variation bornée sur [s, t] (resp. p.s. à variation finie).<br />

De façon évidente, si b ∈ H1 loc (F t ), le processus t → I t = ∫ t<br />

b 0 sds est à variation finie; en<br />

effet pour tout T ≥ 0, V [0,T] (I) ≤ ∫ T<br />

|b(t)| dt. Le comportement des intégrales stochastiques<br />

0<br />

est tout autre.<br />

Proposition 1.15 Soit (M t ) une (F t )-martingale locale p.s. continue à variation finie.<br />

Alors pour tout t <strong>la</strong> variable aléatoire M t est presque sûrement constante (égale à M 0 ).<br />

Démonstration. Puisque M 0 est p.s. constante, en remp<strong>la</strong>çant M t par M t − M 0 , on peut<br />

supposer M 0 = 0.<br />

(i) Fixons T et supposons que (M t ) est une martingale continue et que sa variation<br />

V [0,T] (M) est (p.s.) bornée par C. Soit ∆ = {t 0 = 0 < t 1 < · · · < t n = T } une subdivision de<br />

[0, T], |∆| = sup n−1<br />

i=0 |t i+1 − t i | son pas et pour 0 ≤ k ≤ n − 1 soit X k = M tk+1 − M tk . Alors<br />

∑n−1<br />

E(|M T | 2 ) = E(|M T − M 0 | 2 ) = E(Xk) 2 + 2<br />

k=0<br />

∑<br />

1≤i


6 1 Processus d’Itô de dimension quelconque<br />

appliquant le Théorème de convergence dominée, on en déduit E ( sup k |M tk+1 − M tk | ) → 0<br />

quand |∆| → 0. On en déduit E(|M T | 2 ) = 0 ce qui entraîne M T = 0 p.s.<br />

(ii) Supposons que (M t ) est une martingale p.s. continue. Pour tout n, soit<br />

τ n = inf{t ∈ [0, T] : V [0,t] (M) ≥ n} ∧ T<br />

(avec <strong>la</strong> convention inf ∅ = +∞). La définition de V [0,t] montre que c’est un processus (F t )-<br />

adapté, continu. La Proposition 1.5 (i) montre que (τ n ) est une suite de (F t )-temps d’arrêt;<br />

de façon évidente, (τ n ) est croissante et converge vers T. Le théorème d’arrêt 1.7 montre<br />

que le processus (Mt τn<br />

) = (M t∧τn , t ≥ 0) est une (F t )-martingale. De plus, par construction,<br />

V [0,T] (M τn ) ≤ n p.s. Soit t ∈ [0, T]; <strong>la</strong> partie (i) montre donc que M t∧τn = 0 p.s. puis <strong>la</strong><br />

continuité p.s. de M permet, en faisant tendre n vers l’infini, d’en déduire que M t = 0 p.s.<br />

(iii) Soit maintenant M une martingale locale continue et soit (τ n ) une suite de temps<br />

d’arrêt qui croit vers T telle que (M t∧τn , t ≥ 0) est une martingale continue. Pour tout<br />

n cette martingale est à variation bornée sur [0, T] et est donc nulle p.s. d’après (ii). On<br />

conclut de nouveau par passage à <strong>la</strong> limite en n en utilisant <strong>la</strong> continuité p.s. de M. ✷<br />

La proposition précédente montre que le mouvement Brownien n’est p.s. pas à variation<br />

bornée sur [0, T] et que l’intégrale stochastique t → ∫ t<br />

σ 0 sdB s ne peut pas être définie<br />

ω par ω et n’est pas à variation finie, sauf si elle est nulle.<br />

La « bonne notion » pour les intégrales stochastiques, tout comme pour le Brownien, est<br />

celle de variation quadratique. Pour tout processus X défini sur [0, T], 0 ≤ t ≤ T et toute<br />

subdivision ∆ = {t 0 = 0 < t 1 < · · · < t k = T },<br />

∑k−1<br />

Tt ∆ (X) = |X ti+1 ∧t − X ti ∧t| 2 .<br />

i=0<br />

Définition 1.16 Soit X : [0, T]×Ω → R un processus stochastique défini sur [0, T]. On dit<br />

que X est de variation quadratique finie si pour tout t ∈ [0, T],<br />

〈X, X〉 t = lim T t<br />

∆ existe en probabilité,<br />

|∆|→0<br />

c’est à dire que pour toute suite (∆ n ) de subdivisions de [0, T] dont le pas tend vers 0, <strong>la</strong><br />

suite T ∆n<br />

t converge en probabilité vers une limite notée 〈X, X〉 t .<br />

Les deux résultats suivants donnent les rapports entre processus à variation bornée et à<br />

variation quadratique finie.<br />

Proposition 1.17 Soit X un processus continu à variation bornée sur [0, T]. Alors X est<br />

de variation quadratique nulle sur [0, T].<br />

Démonstration. Soit ∆ = {0 = t 0 < t 1 < · · · < t k = T } une subdivision de [0, T]. Alors<br />

∑k−1<br />

∑k−1<br />

|X ti+1 − X ti | 2 ≤ |X ti+1 − X ti | sup |X ti+1 − X ti |.<br />

0≤i


1.2 Variation quadratique - Crochet d’une martingale locale 7<br />

On remarque d’ailleurs que <strong>la</strong> démonstration précédente et le Théorème de convergence<br />

dominée entraînent que si V [0,t] (X) ≤ C p.s. où C est constante, Tt<br />

∆ converge vers 0 dans<br />

L 1 . ✷<br />

Le résultat suivant a été montré dans le cours de <strong>Calcul</strong> <strong>Stochastique</strong> 1.<br />

Théorème 1.18 Le mouvement Brownien (B t ) est de variation quadratique finie sur tout<br />

intervalle [0, T] et 〈B, B〉 t = t. Plus précisément, lorsque |∆| → 0, E(|Tt ∆ (B) − t| 2 ) → 0,<br />

c’est à dire que <strong>la</strong> convergence a lieu dans L 2 .<br />

De plus, si σ ∈ H2 loc,<br />

le processus (∫ t<br />

σ 0 sdB s , t ≥ 0) est de variation quadratique ∫ t<br />

0 σ2 s ds<br />

sur chaque intervalle [0, t].<br />

Nous allons tout d’abord le généraliser à des martingales locales continues.<br />

Notation Soit ∆ = {t 0 = 0 < t 1 < t 2 < · · · } une subdivision de [0, +∞[ telle que pour tout<br />

t > 0, ∆ ∩ [0, t] ne comprend qu’un nombre fini de points. Par analogie avec les notations<br />

précédentes, pour tout t > 0 (en ajoutant t à <strong>la</strong> subdivision) et pour tout processus X<br />

notons<br />

Tt ∆ (X) = ∑ ti+1 ∧t − X ti ∧t)<br />

i≥0(X 2 . (1.2)<br />

Le processus X est à variation quadratique finie si pour tout t <strong>la</strong> famille de processus T ∆<br />

t (X)<br />

converge en probabilité vers 〈X, X〉 t quand le pas |∆| de <strong>la</strong> subdivision sur [0, t] tend vers<br />

0.<br />

Le résultat suivant est fondamental. Il relie <strong>la</strong> variation quadratique à une martingale<br />

associée au carré du processus.<br />

Théorème 1.19 Soit M une (F t )-martingale locale continue. Alors M est de variation quadratique<br />

finie et sa variation quadratique 〈M, M〉 t est l’unique processus croissant, adapté,<br />

continu, nul en zéro tel que<br />

(<br />

M<br />

2<br />

t − 〈M, M〉 t , t ≥ 0 ) est une (F t ) martingale locale .<br />

De plus, ∣ pour s < t et toute∣ suite (∆ n ) de subdivisions dont le pas |∆ n | tend vers 0, <strong>la</strong> suite<br />

sup s≤t Ts<br />

∆n (M) − 〈M, M〉 s converge vers 0 en probabilité.<br />

Si de plus, M est une martingale de carré intégrable (c’est à dire que E(Mt 2 ) < +∞<br />

pour tout t), alors (Mt 2 − 〈M, M〉 t, t ≥ 0) est une (F t ) martingale continue telle que pour<br />

tout couple de temps d’arrêt bornés S ≤ T ≤ C,<br />

E(M 2 T − M 2 S|F S ) = E(|M T − M S | 2 |F S ) = E(〈M, M〉 T − 〈M, M〉 S |F S ).<br />

Démonstration. L’unicité de <strong>la</strong> décomposition découle de <strong>la</strong> Proposition 1.15. En effet,<br />

soit Mt 2 = Y t + A t = Z t + B t où A, B sont des processus continus à variation finie et nuls<br />

en 0, Y, Z sont des martingales locales, continues puisque M. 2 , A . et B . le sont. Alors <strong>la</strong><br />

différence Y − Z = B − A est une martingale locale continue à variation finie nulle en 0,<br />

donc est nulle d’après <strong>la</strong> Proposition 1.15.<br />

Pour prouver l’existence, nous distinguerons plusieurs étapes. Pour alléger les notations,<br />

nous ne ferons pas référence à <strong>la</strong> filtration pour les temps d’arrêt, martingales, ... En remp<strong>la</strong>çant<br />

(M t ) par (M t − M 0 , t ≥ 0) qui est aussi une martingale (ou une martingale locale),<br />

nous supposerons que M 0 = 0.<br />

(1) On suppose que M est une martingale bornée par C. Pour toute subdivision ∆,<br />

s < t, notons i et k les entiers tels que t i ≤ s < t i+1 et t k ≤ t < t k+1 .<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


8 1 Processus d’Itô de dimension quelconque<br />

Alors si i = k, <strong>la</strong> propriété de martingale de M entraîne que<br />

Si i < k,<br />

E ( T ∆<br />

t (M) − T ∆ s (M) ∣ ∣ Fs<br />

)<br />

= E(|Mt − M ti | 2 − |M s − M ti | 2 |F s )<br />

= E(|M t − M s | 2 |F s ) = E(M 2 t − M2 s |F s).<br />

E ( |M ti+1 − M ti | 2 |F s<br />

)<br />

= E<br />

(<br />

|Mti+1 − M s | 2 |F s<br />

)<br />

+ |Ms − M ti | 2 .<br />

Avec <strong>la</strong> convention ∑ n 2<br />

j=n 1<br />

x j = 0 si n 1 > n 2 , on en déduit<br />

E ( T ∆<br />

t (M) − T ∆ s (M) ∣ ∣ Fs<br />

)<br />

= E<br />

(|M ti+1 − M s | 2 +<br />

D’autre part, pour tout s ≤ a < b ≤ c < d ≤ t,<br />

∑k−1<br />

j=i+1<br />

|M tj+1 − M tj | 2 + |M t − M tk | 2 ∣ ∣∣Fs<br />

).<br />

E[(M b − M a )(M d − M c )|F s ] = E[(M b − M a )E[M d − M c |F c ]|F s ] = 0.<br />

En décomposant M t − M s comme somme d’accroissements sur les points {s, t i+1 , · · · , t k , t}<br />

on obtient donc<br />

E ( |M t − M s | 2 |F s<br />

)<br />

= E<br />

(|M ti+1 − M s | 2 +<br />

∑k−1<br />

j=i+1<br />

|M tj+1 − M tj | 2 + |M t − M tk | 2 ∣ ∣∣Fs<br />

),<br />

On en déduit que<br />

E [ Mt 2 − M2 s |F ] [ ] [<br />

s = E (Mt − M s ) 2 |F s = E T<br />

∆<br />

t (M) − Ts ∆ (M)|F s]<br />

. (1.3)<br />

Le processus (Mt 2 −T t ∆ (M), t ≥ 0) est donc une martingale de carré intégrable et E(Mt 2) =<br />

E(Tt ∆ (M)) pour tout t ≥ 0.<br />

(2) Soit M une martingale continue bornée par C. Fixons a en notons (∆ n ) une suite<br />

de subdivisions de [0, a] dont le pas tend vers 0. Montrons que <strong>la</strong> suite (Ta ∆n (M), n ≥ 0)<br />

converge dans L 2 , c’est à dire est de Cauchy dans L 2 .<br />

Soit ∆ et ∆ ′ deux subdivisions; notons ˜∆ <strong>la</strong> subdivision obtenue en prenant l’union des<br />

points de ∆ et ∆ ′ . Notons<br />

X = T ∆ (M) − T ∆′ (M).<br />

Puisque (Mt 2 − T t ∆ (M) , t ≥ 0) est une martingale, X est également une martingale nulle<br />

en 0 telle que (X t , 0 ≤ t ≤ a) est bornée. Le calcul précédent appliqué à X au lieu de M<br />

montre que<br />

[<br />

] [ ]<br />

E(Xa 2 ) = E |Ta ∆ ∆′<br />

(M) − Ta (M)|2 = E T ˜∆<br />

a (X) .<br />

[<br />

De plus, T ˜∆<br />

a (X) ≤ 2 T ˜∆ (<br />

a T ∆ (M) ) + T ˜∆ (<br />

a T<br />

∆ ′ (M) )] .<br />

Pour vérifier que <strong>la</strong> suite Ta<br />

∆n (M) est de Cauchy, il suffit donc de vérifier que<br />

[<br />

E T ˜∆ (<br />

a T ∆ (M)) )] converge vers 0 quand |∆| + |∆ ′ | → 0.<br />

Soit s k ∈ ˜∆ et t l l’unique élément de ∆ tel que t l ≤ s k < s k+1 ≤ t l+1 . Alors<br />

T ∆ s k+1<br />

(M) −T ∆ s k<br />

(M) = (M sk+1 −M tl ) 2 −(M sk −M tl ) 2 = (M sk+1 −M sk )(M sk+1 +M sk −2M tl ).<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.2 Variation quadratique - Crochet d’une martingale locale 9<br />

On en déduit<br />

T ˜∆<br />

a<br />

(<br />

T ∆ (M) ) ≤ T ˜∆<br />

a (M)<br />

(<br />

)<br />

sup |M sk+1 + M sk − 2M tl | 2 .<br />

k<br />

Puisque M est continue bornée, le théorème de convergence dominée entraîne que<br />

(<br />

)<br />

E sup |M sk+1 + M sk − 2M tl | 4 → 0 quand |∆| + |∆ ′ | → 0.<br />

k<br />

Il suffit d’après l’inégalité de Schwarz de prouver que E(|T ˜∆<br />

a (M)| 2 ) reste bornée par une<br />

constante, c’est à dire que<br />

sup E(|Ta ∆ (M)|2 ) < +∞.<br />

∆<br />

Soit ∆ une subdivision qui contient a = t n . Alors<br />

( n−1<br />

) 2<br />

∑<br />

|Ta ∆ (M)|2 = |M ti+1 − M ti | 2<br />

i=0<br />

∑n−1<br />

∑n−2<br />

∑n−1<br />

= |M ti+1 − M ti | 4 + 2 |M ti+1 − M ti | 2<br />

i=0<br />

i=0<br />

i=0<br />

i=0<br />

j=i+1<br />

|M tj+1 − M tj | 2<br />

∑n−1<br />

∑n−2<br />

( )<br />

= |M ti+1 − M ti | 4 2 (<br />

+ 2 Mti+1 − M ti T<br />

∆<br />

a (M) − Tt ∆<br />

i+1<br />

(M) ) .<br />

L’équation (1.3) montre que E [ T ∆ a (M)−T ∆<br />

t i+1<br />

(M)|F ti+1<br />

]<br />

= E<br />

[<br />

(Ma −M ti+1 ) 2 |F ti+1<br />

]<br />

. Puisque<br />

(M ti+1 − M ti ) 2 est F ti+1 -mesurable, on en déduit<br />

∑n−1<br />

E(|Ta ∆ (M)|2 ) = E(|M ti+1 − M ti | 4 )<br />

i=0<br />

n−1<br />

∑<br />

+ 2<br />

i=0<br />

n−1<br />

E [ |M ti+1 − M ti | 2 E ( T ∆ a (M) − T ∆<br />

t i+1<br />

(M)|F ti+1<br />

)]<br />

∑<br />

∑n−1<br />

= E(|M ti+1 − M ti | 4 ) + 2 E [ |M ti+1 − M ti | 2 (M a − M ti+1 ) 2]<br />

i=0<br />

[(<br />

≤ E<br />

sup<br />

k<br />

i=0<br />

) ]<br />

|M tk+1 − M tk | 2 + 2 sup |M a − M tk | 2 Ta ∆ (M) .<br />

k<br />

Puisque sup t |M t | ≤ C et M 0 = 0, l’équation (1.3) pour 0 et a entraîne que E(T ∆ a (M)) ≤ C 2<br />

et donc<br />

E(|T ∆ a (M)|2 ) ≤ 12C 2 E(T ∆ a (M)) ≤ 12C4 . (1.4)<br />

La suite (Ta<br />

∆n (M), n ≥ 1) est donc de Cauchy dans L 2 ; elle converge dans L 2 (donc aussi<br />

en probabilité) vers une limite notée 〈M, M〉 a .<br />

(3) Soit M une martingale continue bornée par C. Il reste à vérifier que le processus<br />

〈M, M〉 a les propriétés annoncées. Soit (∆ n ) une suite de subdivisions dont le pas |∆ n | tend<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


10 1 Processus d’Itô de dimension quelconque<br />

vers 0. Pour tout m < n, le processus T ∆n (M) − T ∆m (M) est une martingale et l’inégalité<br />

de Doob entraîne que<br />

(<br />

) [<br />

E |Ts<br />

∆n<br />

(M) − Ts ∆m<br />

(M)| 2 ≤ 4E |Ta<br />

∆n<br />

(M) − Ta ∆m<br />

(M)| 2] .<br />

sup<br />

0≤s≤a<br />

Soit m(k) un entier tel que pour tout m ≥ m(k), E(|Ts<br />

∆m (M)−T ∆ m(k)<br />

s (M)| 2 ) ≤ 2 −k . On peut<br />

supposer que <strong>la</strong> suite m(k) est strictement croissante et, d’après le lemme de Borel Cantelli,<br />

de <strong>la</strong> suite (T. ∆n (M), n ≥ 1) on peut donc extraire une sous-suite (T ∆ m(k)<br />

. (M), k ≥ 1) qui<br />

converge p.s. uniformément sur l’intervalle [0, a].<br />

Par un procédé diagonal, on peut faire en sorte d’extraire une nouvelle sous-suite qui<br />

converge uniformément sur tout intervalle [0, N] pour tout entier N. La limite 〈M, M〉 est<br />

donc p.s. continue. De plus, <strong>la</strong> limite étant indépendante de <strong>la</strong> suite de subdivisions choisie,<br />

on peut faire en sorte que <strong>la</strong> suite de subdivisions soit telle que ∆ n ⊂ ∆ n+1 et que ∪ n ∆ n<br />

soit dense dans [0, +∞[.<br />

Alors, si s < t sont des points de ∪ n ∆ n , il existe n 0 tel que s, t ∈ ∆ n pour tout n ≥ n 0 . On<br />

en déduit alors de façon évidente que Ts<br />

∆n ≤ Tt<br />

∆n<br />

pour n ≥ n 0 , d’où 〈M, M〉 s ≤ 〈M, M〉 t et<br />

que le processus 〈M, M〉 est croissant par continuité. Enfin, en faisant tendre n vers l’infini<br />

dans l’équation (1.3) écrite pour <strong>la</strong> subdivision ∆ n et en utilisant l’intégrabilité uniforme<br />

de <strong>la</strong> suite (Tt<br />

∆n<br />

(M), n ≥ 1) qui découle du fait que cette suite est bornée dans L 2 d’après<br />

(1.4), on déduit que M 2 − 〈M, M〉 est une martingale.<br />

(4) Soit M une martingale locale continue et (T n ) une suite de temps d’arrêt qui croît<br />

p.s. vers +∞ et telle que pour tout n le processus X(n) = M Tn défini par (1.1) est une<br />

martingale continue bornée. La démonstration précédente montre qu’il existe un processus<br />

croissant A(n) nul en 0 tel que pour tout n, (X(n) 2 t − A(n) t , t ≥ 0) est une martingale. De<br />

plus <strong>la</strong> martingale arrêtée<br />

(X(n + 1) 2 − A(n + 1)) Tn = X(n) 2 − A(n + 1) Tn<br />

est une martingale et A(n + 1) Tn est un processus croissant nul en 0. L’unicité montrée en<br />

(1) permet de déduire que A(n + 1) Tn = A(n) Tn p.s. Ceci permet de définir sans ambiguïté<br />

un processus croissant 〈M, M〉 t = A(n) t pour tout t ≤ T n . L’unicité vient de l’unicité sur<br />

tout intervalle [0, T n ].<br />

Fixons t > 0, ε > 0 et δ > 0. La suite de temps d’arrêt (T n ) tend vers +∞, donc pour n<br />

assez grand S = T n est tel que P(S ≤ t) < δ et <strong>la</strong> martingale M S est bornée. La première<br />

partie montre que lorsque le pas de <strong>la</strong> subdivision |∆| tend vers 0, Tt ∆(MS<br />

) converge vers<br />

〈M S , M S 〉 t en probabilité. Puisque Ts ∆ (M S ) = Ts ∆ (M) et 〈M S , M S 〉 s = 〈M, M〉 s pour<br />

s ∈ [0, S], on en déduit que pour |∆| assez petit<br />

(<br />

) (<br />

)<br />

P sup |Ts ∆ (M) − 〈M, M〉 s| ≥ ε ≤ δ + P sup |Ts ∆ (MS ) − 〈M S , M S 〉 s | ≥ ε ≤ 2δ.<br />

s≤t<br />

s≤t<br />

(5) Supposons enfin que M est une martingale est de carré intégrable. D’après l’inégalité<br />

de Doob,<br />

E( sup |M s | 2 ) ≤ 2E(|M t | 2 ).<br />

0≤s≤t<br />

D’autre part, soit (T n ) une suite de temps d’arrêt qui croît p.s. vers +∞ et telle que pour tout<br />

n le processus X n = M Tn est une martingale continue bornée. Pour tout t, E(〈M, M〉 t∧Tn ) =<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.2 Variation quadratique - Crochet d’une martingale locale 11<br />

E(|M t∧Tn | 2 ) et <strong>la</strong> suite (M t∧Tn , n ≥ 0) est une (F t∧Tn , n ≥ 0) martingale bornée dans L 2 qui<br />

converge dans L 2 vers M 2 t . De plus, le théorème de convergence monotone montre que<br />

E(〈M, M〉 t ) = lim<br />

n<br />

E(〈M, M〉 t∧Tn ) = lim<br />

n<br />

E(|M t∧Tn | 2 ).<br />

Enfin <strong>la</strong> martingale discrète (M t∧Tn , n ≥ 1) est fermée par M t ∈ L 2 et converge dans L 2 vers<br />

M t puisque ∨ n F t∧Tn = F t ; on a donc E(〈M, M〉 t ) = E(Mt 2 ) < +∞. L’inégalité de Doob<br />

montre alors que pour tout s ≤ t,<br />

Ms 2 − 〈M, M〉 s ≤ sup Mr 2 + 〈M, M〉 r ∈ L 1 .<br />

r≤t<br />

L’exercice 1.4 (ii) montre que cette martingale locale continue uniformément intégrable est<br />

une martingale. Il suffit d’appliquer le Théorème d’arrêt 1.7 pour conclure <strong>la</strong> démonstration.<br />

✷<br />

Le crochet de deux martingales locales continues M et N est défini par po<strong>la</strong>risation.<br />

Théorème 1.20 Soit M et N des (F t )-martingales locales continues. Il existe un unique<br />

processus continu, adapté, à variation finie 〈M, N〉 nul en 0 tel que (M t N t − 〈M, N〉 t , t ≥ 0)<br />

soit une martingale locale continue. De plus pour toute suite ∆ n de subdivisions de [0, t] dont<br />

le pas tend vers 0, <strong>la</strong> suite<br />

∣<br />

sup<br />

s≤t<br />

∣ ∑<br />

∣∣∣∣ (M ti+1 ∧s − M ti ∧s)(N ti+1 ∧s − N ti ∧s) − 〈M, N〉 s converge vers 0 en probabilité.<br />

∣<br />

t i ∈∆ n<br />

Démonstration. L’unicité découle de <strong>la</strong> proposition 1.15. Pour l’existence, il suffit de vérifier<br />

que<br />

〈M, N〉 = 1 [<br />

]<br />

〈M + N , M + N〉 − 〈M − N , M − N〉 .<br />

4<br />

a les propriétés annoncées. C’est <strong>la</strong> différence de deux processus croissants et c’est donc un<br />

processus à variation finie. ✷<br />

Définition 1.21 On dit que le processus 〈M, N〉 est le crochet de M et N et que le processus<br />

〈M, M〉 aussi noté 〈M〉 est le processus croissant associé à M.<br />

Définition 1.22 Un processus X est une semi-martingale continue s’il admet <strong>la</strong> décomposition<br />

X t = X 0 +M t +A t pour tout t, où (M t ) est une (F t )-martingale locale continue, (A t )<br />

est un processus continu à variation finie, M 0 = A 0 = 0.<br />

On déduit aisément <strong>la</strong><br />

Proposition 1.23 La variation quadratique d’une semi-martingale continue X = X 0 +M+<br />

A est finie et égale 〈M, M〉. La décomposition de X est unique (à indistinguabilité près).<br />

On note donc 〈X, X〉 = 〈M, M〉 et on dit que ce processus croissant est le crochet de X. De<br />

même, si X = X 0 + M + A et Y = Y 0 + N + B sont des semi-martingales continues (avec<br />

les martingales locales continues M, N et les processus à variation finie A et B) on définit<br />

le crochet de X et Y comme<br />

〈X, Y 〉 = 〈M, N〉 = 1 [<br />

]<br />

〈X + Y , X + Y 〉 − 〈X − Y , X − Y 〉 .<br />

4<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


12 1 Processus d’Itô de dimension quelconque<br />

Démonstration. Soit X = X 0 + M + A une semi-martingale continue. Si X admet une<br />

autre décomposition X = ¯X 0 + ¯M + Ā où Ā est un processus à variation finie, ¯M est une<br />

martingale locale continue, ¯M0 = Ā0 = 0, on a ¯X 0 = X 0 , le processus M − ¯M = Ā − A est<br />

une martingale locale continue à variation finie, est est donc nulle p.s. d’après <strong>la</strong> Proposition<br />

1.15.<br />

Soit ∆ une subdivision de [0, t]. D’après <strong>la</strong> Proposition 1.17 le processus A est à variation<br />

quadratique nulle et pour prouver que <strong>la</strong> variation quadratique de X est celle de M, il suffit<br />

de vérifier que<br />

∑<br />

(<br />

)<br />

(M<br />

∣<br />

ti+1 − M ti )(A ti+1 − A ti )<br />

∣ ≤ sup |M ti+1 − M ti | V ar [0,t] (A).<br />

i<br />

Puisque les trajectoires de M sont p. s. continues (donc uniformément continues sur [0, t])<br />

et que V ar [0,t] (A) < +∞ on déduit que p.s., le majorant tend vers 0 quand |∆| → 0. ✷<br />

1.3 Processus d’Itô réel.<br />

Définition 1.24 Soit (B t ) un mouvement Brownien, (Ft B ) sa filtration naturelle, x ∈ R,<br />

b ∈ H1 loc(FB<br />

t ) et σ ∈ Hloc 2 (FB t ). Le processus X défini par<br />

X t = x +<br />

∫ t<br />

0<br />

i<br />

σ s dB s +<br />

∫ t<br />

0<br />

b s ds (1.5)<br />

est un processus d’Itô; il est à trajectoires continues. Le processus b est sa dérive, le processus<br />

σ est le coefficient de diffusion et x est <strong>la</strong> condition initiale. L’équation (1.5) est souvent<br />

également notée { dXt = b t dt + σ t dB t ,<br />

(1.6)<br />

X 0 = x.<br />

Le Théorème 1.13 montre que M t = ∫ t<br />

σ 0 sdB s est une (Ft B )-martingale locale continue.<br />

Un processus d’Itô X t = x + ∫ t<br />

σ 0 sdB s + ∫ t<br />

b 0 sds est donc une semi-martingale locale continue.<br />

On dit que t → ∫ t<br />

σ 0 sdB s est sa « partie martingale » (même si c’est seulement une<br />

martingale locale) et que t → x + ∫ t<br />

b 0 sds est sa « partie à variation finie ». La partie martingale(<br />

de X est une « vraie » (Ft B )-martingale si le coefficient de diffusion σ est cad<strong>la</strong>g tel<br />

∫ )<br />

t<br />

que E < +∞ pour tout t > 0, ou plus généralement si σ ∈ H 2 (Ft B ). C’est une<br />

0 σ2 sds<br />

martingale bornée dans L 2 si σ ∈ H ∞ 2 (F 2 t ).<br />

Les résultats de <strong>la</strong> section précédente donnent donc immédiatement quelques propriétés<br />

importantes des processus d’Itô.<br />

Corol<strong>la</strong>ire 1.25 (i) Le crochet d’un processus d’Itô X t = x + ∫ t<br />

σ 0 sdB s + ∫ t<br />

b 0 sds est défini<br />

par 〈X, X〉 t = ∫ t<br />

0 σ2 sds pour tout t ≥ 0.<br />

(ii) Plus généralement, le crochet croisé de deux processus d’Itô X t = x + ∫ t<br />

σ 0 sdB s +<br />

∫ t<br />

b 0 sds et Y t = y + ∫ t<br />

¯σ 0 sdB s + ∫ t ¯b 0 s ds est celui de leurs parties martingales, soit 〈X, Y 〉 t =<br />

∫ t<br />

σ 0 s¯σ s ds.<br />

(iii) Soit (X t = x + ∫ t<br />

σ 0 sdB s + ∫ t<br />

b 0 sds = ˜x + ∫ t<br />

˜σ 0 sdB s + ∫ t ˜b 0 s ds, t ≥ 0) un processus<br />

d’Itô, où b,˜b ∈ H1 loc (Ft B ), σ, ˜σ ∈ H2 loc (Ft B ), x, ˜x ∈ R. Alors, x = ˜x, b = ˜b ds ⊗ dP p.p. et<br />

σ = ˜σ ds ⊗ dP p.p., c’est à dire que <strong>la</strong> décomposition de X est unique.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.4 Processus d’Itô de dimension d - Formule d’Itô générale 13<br />

(iv) Soit (X t ) un processus d’Itô qui est une (Ft B<br />

est nulle ds ⊗ dP p.p.<br />

)-martingale locale. Alors sa dérive b<br />

Démonstration. (i) et (ii) sont des conséquences immédiates de <strong>la</strong> Proposition 1.17, du<br />

Théorème 1.18 et de <strong>la</strong> po<strong>la</strong>risation.<br />

(iii) La différence D t = ∫ t<br />

(˜b 0 s − b s )ds = ∫ t<br />

(σ 0 s − ˜σ s )dB s est dont un processus à variation<br />

bornée sur [0, T] (à cause de l’intégrale déterministe) et une martingale locale continue (à<br />

cause de l’intégrale stochastique et du Théorème 1.13). La Proposition 1.17 montre que <strong>la</strong><br />

variation quadratique de l’intégrale stochastique de σ − ˜σ est nulle p.s. sur tout intervalle<br />

[0, t], soit ∫ t<br />

|σ 0 s − ˜σ s | 2 ds = 0, et σ = ˜σ ds ⊗ dP p.p. sur [0, t] × Ω. On en déduit que<br />

∫ t<br />

(b 0 s − ˜b s )ds = 0 pour tout t, ce qui termine <strong>la</strong> démonstration puisque X 0 = x = ˜x.<br />

(iv) Le processus d’Itô X t = x+ ∫ t<br />

σ 0 sdB s + ∫ t<br />

b 0 sds est continu. Puisque t → x+ ∫ t<br />

σ 0 sdB s<br />

est une (Ft B )-martingale locale continue, par différence le processus t → ∫ t<br />

b 0 sds est une<br />

martingale locale continue et est à variation finie sur tout intervalle [0, t]. Il est donc constant<br />

(et égal à 0) p.s. d’après <strong>la</strong> Proposition 1.15 ✷<br />

1.4 Processus d’Itô de dimension d - Formule d’Itô générale<br />

1.4.1 Processus d’Itô de dimension d<br />

Nous étendons tout d’abord <strong>la</strong> définition du mouvement Brownien réel au cas d’un<br />

processus de dimension quelconque.<br />

Définition 1.26 Soit ( B t = (B 1 t , B 2 t , . . .,B r t ), t ≥ 0 ) un processus r-dimensionnel et (F t )<br />

une filtration. On dit que B est un (F t )-Brownien standard r-dimensionnel si les processus<br />

(B i ), 1 ≤ i ≤ r sont des (F t )-Browniens réels indépendants, c’est à dire : B 0 = 0 et pour<br />

0 ≤ s ≤ t<br />

(i) B t − B s suit une loi normale N(0, (t − s)Id r ).<br />

(ii) l’accroissement B t − B s est indépendant de <strong>la</strong> tribu F s .<br />

Quand <strong>la</strong> filtration n’est pas précisée, on dit que B est un Brownien standard d-dimensionnel<br />

si c’est un mouvement Brownien pour sa filtration naturelle (F B t ). Si B est un Brownien<br />

standard pour <strong>la</strong> filtration (F t ), c’est aussi un Brownien standard pour sa filtration naturelle<br />

(F B t ). Le Brownien est un processus gaussien à accroissements indépendants.<br />

Nous commettrons l’abus de notation consistant à identifier un vecteur (x 1 , · · · , x r ) ∈ R r et<br />

<strong>la</strong> matrice colonne de ses composantes dans <strong>la</strong> base canonique. Nous noterons donc<br />

⎛ ⎞<br />

B t =<br />

⎜<br />

⎝<br />

B 1 t<br />

.<br />

B r t<br />

⎟<br />

⎠ .<br />

Nous généralisons de même <strong>la</strong> notion de processus d’Itô. Notons M(d, r) l’ensemble des<br />

matrices d × r à d lignes et r colonnes. On dit qu’un processus X = (Xj(t) i : 1 ≤ i ≤ d, 1 ≤<br />

j ≤ r, t ≥ 0) à valeurs dans M(d, k) appartient à H1 loc(F<br />

t) (resp. H2 loc(F<br />

t), H2 2(F t), H2 ∞(F t))<br />

si chaque composante Xk i est un processus réel qui appartient à Hloc 1 (F t ) (resp. H2 loc (F t ),<br />

H2 2(F t), H2 ∞(F t)).<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


14 1 Processus d’Itô de dimension quelconque<br />

Définition 1.27 Soit B un (F t )-Brownien standard de dimension r, σ = (σk i : 1 ≤ i ≤<br />

d, 1 ≤ k ≤ r) : Ω × [0, +∞[→ M(d, r) ∈ H2 loc , b = (b 1 , · · · , b d ) : Ω × [0, +∞[→ R d ∈ H1 loc ,<br />

et x = (x 1 , · · · , x d ) ∈ R d . Le processus (X t ) à valeurs dans R d est un processus d’Itô de<br />

condition initiale x, de coefficient de diffusion σ et de coefficient de dérive b si pour tout<br />

i = 1, · · · , d,<br />

r∑<br />

∫ t ∫ t<br />

Xt i = xi + σk i (s)dBk s + b i (s)ds. (1.7)<br />

k=1<br />

0<br />

En notation matricielle, si on commet l’abus de notation qui consiste à identifier un vecteur<br />

x = (x 1 , · · · , x d ) de R d et <strong>la</strong> matrice colonne de ses coefficients dans <strong>la</strong> base canonique,<br />

l’équation (1.7) peut s’écrire<br />

0<br />

où on note<br />

⎛<br />

X t =<br />

⎜<br />

⎝<br />

X 1 t<br />

.<br />

X d t<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ , x = ⎝<br />

X t = x +<br />

∫ t<br />

0<br />

σ(s)dB s +<br />

∫ t<br />

⎞ ⎛<br />

x 1<br />

σ1(s) 1 · · ·<br />

⎟ ⎜<br />

. ⎠ , σ(s) = ⎝ . .<br />

x d σ1 d(d) · · ·<br />

0<br />

b(s)ds,<br />

⎞ ⎛ ⎞<br />

σr(s)<br />

1 b 1 (s)<br />

⎟ ⎜ ⎟<br />

. ⎠ , b(s) = ⎝ . ⎠ .<br />

σd r (s) b d (s)<br />

Considérons les processus d’Itô unidimensionnels<br />

ξ t = x +<br />

r∑<br />

k=1<br />

∫ t<br />

0<br />

σ k (s)dB k s +<br />

∫ t<br />

0<br />

b(s)ds et ¯ξt = ¯x +<br />

r∑<br />

¯σ j (s)dBs k +<br />

k=1<br />

∫ t<br />

0<br />

¯b(s)ds,<br />

pour b,¯b ∈ H1 loc et σ k , ¯σ k ∈ H2 loc.<br />

Alors le processus ∫ t<br />

b(s)ds est continu à variation finie,<br />

0<br />

tandis que le processus ∑ r<br />

∫ t<br />

k=1<br />

σ 0 k(s)dBs k est une martingale locale continue comme somme<br />

de martingales locales continues. Les processus ξ et ¯ξ sont donc des semi-martingales. Pour<br />

trouver leurs ( crochets, on remarque tout d’abord que pour chaque indice k = 1, · · · , r, le<br />

∣∣∣ ∫ t<br />

processus σ 0 k(s)dBs<br />

k ∣ 2 − ∫ )<br />

t<br />

|σ 0 k(s)| 2 ds , t ≥ 0 est une (F t )-martingale locale.<br />

Soit k ≠ l ; supposons d’abord que les processus σ k et σ l sont étagés, c’est à dire<br />

∑n−1<br />

σ k = ξk i 1 ]t i ,t i+1 ] et σ l =<br />

i=0<br />

n∑<br />

ξl i 1 ]t i ,t i+1 ], t 0 = 0 < t 1 < · · · et ξk i , ξj l<br />

F ti -mesurables.<br />

i=1<br />

Soit s < t; sans perte de généralité, on peut supposer que les instants s et t sont ajoutés à<br />

<strong>la</strong> liste des t i , avec s = t I et t = t n . Alors,<br />

(∫ t<br />

E σ k (u)dBu<br />

k<br />

0<br />

∫ t<br />

0<br />

)<br />

σ l (u)dBu<br />

l ∣<br />

∑n−1<br />

∑n−1<br />

(<br />

)<br />

∣F s = E ξk i ξ j l [Bk t i+1<br />

− Bt k i<br />

][Bt l j+1<br />

− Bt l ∣<br />

j<br />

] ∣F s<br />

=<br />

i=0 j=0<br />

∫ s<br />

0<br />

σ k (u)dB k u<br />

∫ s<br />

0<br />

σ l (u)dB l u.<br />

En effet l’indépendance de F ti , B k t i+1<br />

− B k t i<br />

et B l t i+1<br />

− B l t i<br />

, entraîne par exemple que :<br />

si I ≤ i = j, puisque E[(B k t i+1<br />

−B k t i<br />

)(B l t i+1<br />

−B l t i<br />

)|F ti ) = E[(B k t i+1<br />

−B k t i<br />

)(B l t i+1<br />

−B l t i<br />

)] = 0,<br />

on en déduit E(ξ i k ξi l E[(Bk t i+1<br />

− B k t i<br />

)(B l t i+1<br />

− B l t i<br />

)|F ti ) ∣ ∣ FtI ) = 0.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.4 Processus d’Itô de dimension d - Formule d’Itô générale 15<br />

L’indépendance de (B l t j+1<br />

− B l t j<br />

et de F tj entraîne :<br />

si i < I ≤ j, ξ i k (Bk t i+1<br />

− B k t i<br />

)E(ξ j l E(Bl t j+1<br />

− B l t j<br />

|F tj )|F tI ) = 0,<br />

si I ≤ i < j, E(ξk i(Bk t i+1<br />

− Bt k i<br />

)ξ j l E(Bl t j+1<br />

− Bt l j<br />

|F tj ) ∣ FtI ) = 0,<br />

Cette propriété s’étend ensuite à des processus σ k et σ l de H2(F 2 t ) pour lesquels on déduit<br />

que<br />

(∣ ∣∣<br />

r∑<br />

∫ t<br />

σ k (s)dBs<br />

k r∑<br />

∫<br />

∣ 2 t<br />

)<br />

− |σ k (s)| 2 ds , t ≥ 0<br />

k=1<br />

0<br />

k=1<br />

est une (F t )-martingale. Par localisation, on montre enfin que ce processus est une (F t )-<br />

martingale locale si on sait seulement que les processus σ k , 1 ≤ k ≤ r appartiennent à<br />

H2 loc (F t ).<br />

Le crochet des processus ξ et ¯ξ est donc celui de leurs parties martingales<br />

m t = ∑ r<br />

∫ t<br />

k=1<br />

σ 0 k(s)dBs k, et ¯m t = ∑ r<br />

∫ t<br />

k=1 ¯σ 0 k(s)dBs k soit<br />

∫<br />

〈ξ , ¯ξ〉<br />

t r∑<br />

t = 〈m, ¯m〉 t = σ k (s)¯σ k (s)ds.<br />

Le crochet de <strong>la</strong> martingale locale m est égal à celui de ξ, soit<br />

〈ξ , ξ〉 t = 〈m, m〉 t =<br />

∫ t<br />

0<br />

0<br />

0<br />

k=1<br />

r∑<br />

|σ k (s)| 2 ds =<br />

k=1<br />

∫ t<br />

0<br />

‖σ(s)‖ 2 ds,<br />

où ‖σ(s)‖ désigne <strong>la</strong> norme euclidienne dans R r du vecteur (σ 1 (s), · · · , σ r (s)).<br />

1.4.2 Formule d’Itô générale<br />

Les résultats de <strong>la</strong> section précédente sont résumés dans <strong>la</strong><br />

Proposition 1.28 Soit (B t ) un (F t )-Brownien standard à valeurs dans R r , (X t ) un processus<br />

d’Itô à valeurs dans R d de <strong>la</strong> forme (1.7). Alors X est à trajectoires continues. Pour<br />

chaque i = 1, · · · , d, le processus ( ∫ t<br />

0 bi (s)ds, t ≥ 0) est continu à variation finie (c’est à dire<br />

que chacune de ses composantes est à variation finie), nul en 0. Le processus ∫ t<br />

σ(s)dB 0 s est<br />

une martingale locale continue (c’est à dire que chacune de ses composantes est une martingale<br />

locale continue) nulle en 0. La décomposition est unique. Le crochet des composantes<br />

X i et X j , 1 ≤ i, j ≤ d est<br />

〈X i , X j 〉 t =<br />

∫ t<br />

0<br />

r∑<br />

σk i (s)σj k (s)ds.<br />

k=1<br />

La formule d’Itô, montrée pour un processus d’Itô réel dans le cours de <strong>Calcul</strong> <strong>Stochastique</strong><br />

1, se généralise immédiatement à des processus d’Itô multidimensionnels. Rappelons<br />

<strong>la</strong> tout d’abord en dimension 1 sous sa forme <strong>la</strong> plus simple.<br />

Théorème 1.29 Soit X t = x+ ∫ t<br />

σ(s)dB 0 s+ ∫ t<br />

b(s)ds, où x ∈ R, (B 0 t) est un (F t )-Brownien,<br />

b ∈ H1 loc , σ ∈ H2 loc . Soit f : R → R une fonction de c<strong>la</strong>sse C 2 . Alors pour tout t ≥ 0,<br />

f(X t ) = f(x) +<br />

= f(x) +<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

f ′ (X s )dX s + 1 2 f ′′ (X s )d〈X, X〉 s (1.8)<br />

∫ t<br />

[<br />

f ′ (X s )σ(s)dB s + f ′ (X s )b(X s ) + 1 ]<br />

2 f ′′ (X s )σ 2 (s) ds.<br />

0<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


16 1 Processus d’Itô de dimension quelconque<br />

On peut donc formellement poser<br />

df(X t ) = f ′ (X t )dX t + 1 2 f ′′ (X t )d〈X, X〉 t où 〈X, X〉 t =<br />

∫ t<br />

0<br />

σ 2 (s)ds.<br />

La formule d’Itô admet <strong>la</strong> version suivante en dimension quelconque, dont <strong>la</strong> démonstration<br />

simi<strong>la</strong>ire à celle en dimension 1, est omise. Notons A ∗ <strong>la</strong> transposée de <strong>la</strong> matrice<br />

A.<br />

Théorème 1.30 Soit B un (F t )-Brownien standard de dimension r, σ un processus à valeurs<br />

dans M(d, r) qui appartient à H2 loc (F t ), b un processus à valeurs dans R d qui appartient<br />

à H1 loc(F<br />

t) et x ∈ R d . Notons X t = x + ∫ t<br />

σ(s)dB 0 s + ∫ t<br />

b 0 sds le processus d’Itô défini par<br />

les équations (1.7) pour tout i = 1, · · · , d et soit f : R d → R une fonction de c<strong>la</strong>sse C 2 .<br />

Alors si on note a(s) = σ(s)σ(s) ∗ <strong>la</strong> matrice d × d définie par a i,j (s) = ∑ r<br />

k=1 σi k (s)σj k (s)<br />

pour i, j ∈ {1, · · · , d}, on a :<br />

∫ t d∑ ∂f<br />

f(X t ) = f(x) + (X s )dXs i + 1 ∫ t d∑ ∂ 2 f<br />

(X s )d〈X i , X j 〉 s (1.9)<br />

∂x i 2 ∂x i ∂x j<br />

= f(x) +<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

i=1<br />

k∑<br />

j=1<br />

d∑<br />

i=1<br />

0<br />

i,j=1<br />

∫<br />

∂f<br />

t<br />

(X s )σ i<br />

∂x<br />

jdBs j +<br />

i 0<br />

d∑<br />

i=1<br />

∂f<br />

∂x i<br />

(X s )b i (s)ds<br />

+ 1 d∑ ∂ 2 f<br />

(X s )a i,j (s)ds. (1.10)<br />

2 0 ∂x<br />

i,j=1 i ∂x j<br />

(<br />

)<br />

Notons ∂2 f<br />

∂<br />

<strong>la</strong> matrice carrée symétrique<br />

2 f<br />

∂x 2 ∂x i ∂x j<br />

, 1 ≤ i, j ≤ d , (, ) le produit sca<strong>la</strong>ire<br />

dans R d et ∂f<br />

∂f<br />

<strong>la</strong> matrice colonne dont les composantes sont les dérivées partielles<br />

∂x ∂x i<br />

. On<br />

peut alors écrire formellement <strong>la</strong> formule d’Itô<br />

( ) ∂f<br />

df(X t ) =<br />

∂x (X t), dX t + 1 (<br />

)<br />

2 Trace σ(t)σ ∗ (t) ∂2 f<br />

∂x (X t) dt.<br />

2<br />

Si <strong>la</strong> fonction f dépend aussi du temps, on a <strong>la</strong> seconde version de <strong>la</strong> formule d’Itô.<br />

Théorème 1.31 Soit B un (F t )-Brownien standard de dimension r, σ un processus à valeurs<br />

dans M(d, r) qui appartient à H2 loc(F<br />

t), b un processus à valeurs dans R d qui appartient<br />

à H1 loc (F t ) et x ∈ R d . Notons X t = x + ∫ t<br />

σ(s)dB 0 s + ∫ t<br />

b 0 sds le processus d’Itô défini par les<br />

équations (1.7) pour tout i = 1, · · · , d et soit f : [0, +∞[×R d → R une fonction de c<strong>la</strong>sse<br />

C 1,2 , c’est à dire de c<strong>la</strong>sse C 1 par rapport à <strong>la</strong> première variable t et de c<strong>la</strong>sse C 2 par rapport<br />

à <strong>la</strong> seconde variable x. Alors si a(s) = σ(s)σ(s) ∗ , on a :<br />

∫ t ∫<br />

∂f<br />

t d∑<br />

f(t, X t ) = f(0, x) +<br />

∂t (s, X ∂f<br />

s)ds + (s, X s )dXs<br />

i ∂x i<br />

+ 1 2<br />

∫ t<br />

0<br />

= f(0, x) +<br />

+<br />

∫ t<br />

0<br />

d∑<br />

0<br />

i,j=1<br />

∫ t<br />

0<br />

0<br />

i=1<br />

∂ 2 f<br />

∂x i ∂x j<br />

(s, X s )d〈X i , X j 〉 s ds (1.11)<br />

r∑<br />

k=1<br />

d∑<br />

i=1<br />

[<br />

∂f<br />

∂t (s, X s) +<br />

∂f<br />

∂x i<br />

(s, X s )σ i k (s)dBk s<br />

d∑<br />

i=1<br />

∂f<br />

∂x i<br />

(s, X s )b i (s) + 1 2<br />

d∑<br />

i,j=1<br />

]<br />

∂ 2 f<br />

(s, X s )a i,j (s) ds.<br />

∂x i ∂x j<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.5 Propriétés du Brownien. 17<br />

De nouveau, l’équation (1.11) peut s’écrire de façon compacte sous <strong>la</strong> forme<br />

df(t, X t ) = ∂f ( )<br />

∂f<br />

∂t (t, X t)dt +<br />

∂x (t, X t), dX t + 1 (<br />

)<br />

2 Trace σ(t)σ ∗ (t) ∂2 f<br />

∂x (t, X t)<br />

2<br />

dt.<br />

Un cas particulier très simple de cette formule est le résultat suivant qui est une « formule<br />

d’intégration par parties » . On <strong>la</strong> montrera comme exercice.<br />

Si f : [0, +∞[→ R est de c<strong>la</strong>sse C 1 et (B t ) est un Brownien standard unidimensionnel,<br />

∫ t<br />

0<br />

f(s)dB s = f(t)B t −<br />

∫ t<br />

0<br />

B s f ′ (s)ds.<br />

La formule d’Itô permet de montrer que si B est un Brownien standard( unidimensionnel ∫ )<br />

et si X est un processus (Ft B)-adapté, p ∈ [1+∞[ et T > 0 sont tels que E T<br />

|X 0 s| 2p ds <<br />

+∞, alors ( ∣∣∣∣ ∫ T<br />

∣ ) ∣∣∣<br />

2p (∫ T<br />

)<br />

E X s dB s ≤ [p(2p − 1)] p T p−1 E |X s | 2p ds (1.12)<br />

0<br />

On pourra montrer cette inégalité très utile dans l’exercice 1.8. Le résultat suivant renforce<br />

<strong>la</strong> conclusion. L’une des inégalités est montrée dans l’exercice 1.8.<br />

Théorème 1.32 (Théorème de Burkholder-Davies-Gundy) Pour tout p ∈ [1, +∞[ il existe<br />

des constantes universelles k p > 0 et K p > 0 (qui ne dépendent que de p) telles que toute<br />

(F t )- martingale continue M de carré intégrable et pour tout T > 0,<br />

( )<br />

k p E (〈M〉 p T ) ≤ E sup |M s | 2p ≤ K p E (〈M〉 p T ) . (1.13)<br />

1.5 Propriétés du Brownien.<br />

1.5.1 Caractérisations de Lévy<br />

0≤s≤T<br />

Remarquons que si B est un Brownien standard d-dimensionnel, pour tout i, j = 1, · · · , d<br />

les processus (B i t , t ≥ 0) et (Bi t Bj t − δ i,j t , t ≥ 0) sont des (F B t )-martingales (avec δ i,j = 0<br />

pour i ≠ j et δ i,i = 1). La démonstration est faite dans l’exercice 1.7 Nous allons montrer<br />

que ces propriétés caractérisent le Brownien, ce qui sera fondamental pour traiter des changements<br />

de probabilité. Notons (u, v) le produit sca<strong>la</strong>ire des vecteurs u, v ∈ R d et ‖u‖ <strong>la</strong><br />

norme euclidienne de u,<br />

Théorème 1.33 (Caractérisation de Paul Lévy) Soit X = (X t = (Xt 1, · · · , Xd t ), t ≥ 0) un<br />

processus (F t )-adapté à valeurs dans R d .<br />

(i) On suppose pour tout u ∈ R d , les processus X et t ↦→ exp [(u, X t ) − ‖u‖ 2 t/2] sont des<br />

(F t )-martingales. Alors, X est un (F t )-Brownien standard de dimension d.<br />

(ii) On suppose que le processus défini pour j = 1, · · · , d par M j t = X j t − X j 0 est une<br />

(F t )-martingale locale continue nulle en 0 (M0 i = 0 pour tout i) et que les crochets de M i<br />

et M j sont<br />

〈M i M j 〉 t = δ i,j t. (1.14)<br />

Alors M est un (F t )-Brownien standard de dimension d.<br />

0<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


18 1 Processus d’Itô de dimension quelconque<br />

Démonstration. (i) Il faut montrer que pour 0 ≤ s < t, le vecteur aléatoire X t − X s suit<br />

une loi N(0, (t − s)Id) et est indépendant de F s .<br />

Soit Z un vecteur gaussien de loi N(0, (t − s)Id). Puisque <strong>la</strong> fonction caractéristique<br />

caractérise <strong>la</strong> loi, il suffit de vérifier que pour tout u ∈ R d<br />

) )<br />

E<br />

(e i(u,Xt−Xs) |F s = E<br />

(e i(u,Z) = e − ‖u‖2 (t−s)<br />

2 . (1.15)<br />

En effet, supposons que (1.15) est vraie et notons Φ(x) = e i(u,x) ; pour tout A ∈ F s<br />

on a E[1 A Φ(X t − X s )] = P(A)E[Φ(Z)]. On en déduit que pour toute fonction borélienne<br />

bornée f : R d → R et tout A ∈ F s , on a E [ 1 A f(X t − X s ) ] = P(A)E[f(Z)]. Ceci prouve<br />

l’indépendance de X t − X s de <strong>la</strong> tribu F s et montre également que <strong>la</strong> loi de X t − X s est<br />

égale à celle de Z.<br />

Pour prouver (1.15), fixons tout d’abord v ∈ R d . Par hypothèse, si 0 ≤ s < t,<br />

E [ exp ( (X t − X s , v) ) (<br />

]<br />

| F s = exp −(X s , v) + ‖v‖2 t<br />

2<br />

( ‖v‖ 2 (t − s)<br />

= exp<br />

2<br />

)<br />

.<br />

)<br />

E<br />

[<br />

exp<br />

(<br />

(X t , v) − ‖v‖2 t<br />

2<br />

) ∣∣∣<br />

Fs<br />

]<br />

Un argument de récurrence finie (reposant sur le caractère analytique des deux membres de<br />

(1.15) comme fonction de l’une de variables v k ∈ C, les autres composantes de v étant fixées<br />

dans R ou C) montre que l’équation précédente s’étend du cas v ∈ R d au cas v ∈ C d . Cette<br />

égalité appliquée au vecteur v dont les composantes sont v k = iu k montre (1.15).<br />

(ii) Nous ne montrerons cette caractérisation que dans le cas où (X t ) est un processus<br />

d’Itô, c’est à dire X t = X 0 + ∫ t<br />

H(s)dB 0 s avec H ∈ H2 loc . Le cas général nécessite une notion<br />

d’intégrale stochastique plus générale que celle par rapport au Brownien présentée en <strong>Calcul</strong><br />

<strong>Stochastique</strong> 1. Pour tout j = 1, · · · , d et t > 0, le crochet de X j à l’instant t est donné par<br />

〈X j , X j 〉 t = t = ∑ r<br />

∫ t<br />

k=1 0 |Hj k (s)|2 ds, ce qui entraîne que ∑ r<br />

k=1 |Hj k (s)|2 = 1 p.s. pour presque<br />

tout s. De plus, si j ≠ l, pour tout t > 0, le crochet 〈X j , X l 〉 t = ∫ t ∑ r<br />

0 k=1 Hj k (s)Hl k (s) ds = 0,<br />

ce qui entraîne que ∑ r<br />

k=1 Hj k (s)Hl k (s) = 0 p.s. pour presque tout s. On en déduit que H ∈ H2 2<br />

et que (X t , 0 ≤ t ≤ T) est une martingale. De plus, les égalités précédentes montrent que<br />

les vecteurs (H j (s), 1 ≤ j ≤ d) forment une famille orthonormée (donc libre) de R r , ce<br />

qui entraîne d ≤ r. Pour tout A ∈ F s et λ ∈ R d , soit f(t) = E<br />

(<br />

1 A exp [i(λ, M t − M s )]<br />

D’après <strong>la</strong> partie (i), il suffit de montrer que f(t) = P(A) exp [ − ‖λ2 ‖<br />

(t −s)] . En appliquant<br />

2<br />

<strong>la</strong> formule d’Itô séparément ( à <strong>la</strong> partie réelle et à <strong>la</strong> partie imaginaire de <strong>la</strong> fonction x =<br />

(x 1 , · · ·x d ) → exp i ∑ d<br />

j=1 λj x<br />

), j on déduit que pour s < t,<br />

ce qui entraîne<br />

e i(λ,Mt)<br />

e i(λ,Mt−Ms) = 1 + i<br />

d∑<br />

j=1 k=1<br />

= e i(λ,Ms) + i<br />

−<br />

d∑<br />

j,l=1 k=1<br />

d∑<br />

j=1 k=1<br />

∫ t<br />

r∑ λ j λ l<br />

2<br />

r∑<br />

∫ t<br />

λ j e i(λ,Mu) H j k (u)dBk u<br />

r∑<br />

∫ t<br />

λ j e i(λ,Mu−Ms) H j k (u)dBk u −<br />

s<br />

s<br />

s<br />

e i(λ,Mu) H j k (s)Hl k (u)du,<br />

d∑ |λ j | 2<br />

j=1<br />

2<br />

∫ t<br />

s<br />

e i(λ,Mu−Ms) du.<br />

)<br />

.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.5 Propriétés du Brownien. 19<br />

Les intégrales stochastiques ( ∫ t<br />

s ei(λ,Mu−Ms) H j k (u)dBk u , t ≥ s) sont des martingales pour tout<br />

j = 1, · · · , d et k = 1, · · · , r, et sont indépendantes de F s . En utilisant le théorème de Fubini,<br />

on en déduit<br />

( ∫ t<br />

) ∫ t<br />

f(t) = P(A) − ‖λ‖2<br />

2 E 1 A e i(λ,Mu−Ms) du = P(A) − ‖λ‖2 f(u)du.<br />

2<br />

s<br />

Puisque f ′ (t) = − ‖λ‖2 f(t) pour t ≥ s et que f(s) = P(A), nous avons établi que pour tout<br />

2<br />

t ≥ s, f(t) = P(A) exp(− ‖λ2 ‖<br />

(t − s)). ✷<br />

2<br />

1.5.2 Propriétés de Markov<br />

Une propriété fondamentale du Brownien est <strong>la</strong> propriété de Markov, qui traduit le fait<br />

que ce qui se passe après l’instant t (c’est à dire dans le futur à l’instant t) ne dépend pas<br />

de toute <strong>la</strong> tribu F t des évènements du « passé » , mais seulement de l’état B t à l’instant t.<br />

Décrivons tout d’abord le passage d’un instant s à un instant t ≥ s.<br />

Définition 1.34 Une probabilité de transition sur R d est une application Π : R d × R d →<br />

[0, 1] telle que<br />

(i) pour tout x ∈ R d , l’application A ∈ R d → Π(x, A) est une probabilité.<br />

(ii) pour tout A ∈ R d , x ∈ R d → Π(x, A) est mesurable de (R d , R d ) dans ([0, 1], B([0, 1]).<br />

Une fonction de transition sur R d est une famille (P s,t , 0 ≤ s < t) de probabilités de transition<br />

telle que si s < t < v l’équation de Chapman-Kolmogorov soit satisfaite :<br />

∫<br />

P s,t (x, dy)P t,v (y, A) = P s,v (x, A) , ∀A ∈ R d , ∀x ∈ R d . (1.16)<br />

Pour toute fonction f : R d → R borélienne positive (ou bornée) on note<br />

∫<br />

P s,t f(x) = f(y) P s,t (x, dy).<br />

R d<br />

Si <strong>la</strong> fonction de transition P s,t ne dépend que de t − s, on dit qu’elle homogène et dans ce<br />

cas, si on note P t = P 0,t , l’équation (1.16) s’écrit<br />

∫<br />

P s+t (x, A) = P s (x, dy)P t (y, A).<br />

Pour toute fonction f : R d → R borélienne positive (ou bornée), on a P s+t f(x) = P t<br />

(<br />

Ps f(x) )<br />

et on dit que (P t ) est un semi-groupe.<br />

L’équation (1.16) est naturelle. En effet, si X est un processus et (x, A) ∈ R d × R d →<br />

P s,t (x, A) est une probabilité de transition tels que pour tout A ∈ R d et s < t,<br />

∫<br />

P(X t ∈ A|σ(X u , u ≤ s)) = P s,t (X s , A) = 1 A (y) P s,t (x, dy) p.s.,<br />

on en déduit E(f(X t )|σ(X u , u ≤ s)) = ∫ R d f(y)P s,t (X s , dy) pour toute fonction borélienne<br />

f : R d → R positive (ou bornée). Pour s < t < v, A ∈ R d et f(y) = P t,v (y, A), on en déduit<br />

P s,v (X s , A) = P(X v ∈ A|σ(X u , u ≤ s))<br />

= E [ P(X v ∈ A|σ(X u , u ≤ t) | σ(X u , u ≤ s) ]<br />

= E [ f(X t )|σ(X u , u ≤ s) ] ∫<br />

= P s,t (X s , dy)P t,v (y, A).<br />

Ces notions permettent de formuler précisément <strong>la</strong> propriété de Markov « faible ».<br />

s<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


20 1 Processus d’Itô de dimension quelconque<br />

Définition 1.35 (1) Un processus (X t , t ≥ 0) à valeurs dans R d et adapté à <strong>la</strong> filtration<br />

(F t ) est un processus de Markov pour cette filtration si pour toute fonction borélienne bornée<br />

f : R d → R,<br />

E ( f(X t ) | F s ) = E ( f(X t ) | X s ) pour tout s ≤ t. (1.17)<br />

(2) Un processus (X t , t ≥ 0) à valeurs dans R d et adapté à <strong>la</strong> filtration (F t ) est un processus<br />

de Markov pour cette filtration de fonction de transition P s,t si pour toute fonction borélienne<br />

bornée f : R d → R,<br />

E [ ∫<br />

]<br />

f(X t ) | F s = Ps,t f(X s ) := P s,t (X s , dy)f(y). (1.18)<br />

R d<br />

On dit que le processus de Markov est homogène si sa fonction de transition est homogène.<br />

Nous allons montrer que le mouvement Brownien est un processus de Markov homogène<br />

de semi-groupe de transition P h défini pour s ≥ 0, h > 0, x ∈ R d et A ∈ R d par :<br />

∫<br />

)<br />

1<br />

‖y − x‖2<br />

P h (x, A) = P(B s+h ∈ A|B s = x) = exp<br />

(− dy,<br />

(2πh) d 2 A 2h<br />

c’est à dire que P h (x, dy) est <strong>la</strong> loi d’un vecteur gaussien N(x, hId).<br />

Théorème 1.36 (Propriété de Markov simple) Soit (B t ) un mouvement Brownien standard<br />

d-dimensionnel et f : R d → R une fonction borélienne bornée. Alors pour tout s ≤ t,<br />

∫<br />

E[f(B t ) | Fs B ] = E[f(B 1<br />

t) | B s ] =<br />

f(y) exp<br />

(− ‖y − B )<br />

s‖ 2<br />

dy.<br />

(2π(t − s)) d 2 R 2(t − s)<br />

d<br />

Démonstration. La démonstration repose sur le lemme suivant :<br />

Lemme 1.37 Soit F une tribu et G une sous-tribu de F, X : (Ω, G) → (E 1 , E 1 ) une<br />

application G-mesurable et Y : (Ω, F) → (E 2 , E 2 ) une application F-mesurable indépendante<br />

de G. Alors, pour toute fonction Φ : (E 1 × E 2 , E 1 ⊗ E 2 ) → (R, R) bornée,<br />

E(Φ(X, Y )|G) = ϕ(X), où ϕ : (E 1 , E 1 ) → (R, R) est définie par ϕ(x) = E[Φ(x, Y )].<br />

Démonstration du Lemme Pour toute application mesurable V : (Ω, F) → (E, E),<br />

notons P (V ) <strong>la</strong> mesure image de P par V . D’après <strong>la</strong> définition de P (Y ) et le Théorème de<br />

Fubini, ϕ est telle que ϕ(x) = ∫ E 2<br />

Φ(x, y)dP (Y ) (y) et est bornée, mesurable de (E 1 , E 1 ) dans<br />

(R, R). De plus, si Z : (Ω, G) → (R, R) est G-mesurable bornée, l’indépendance de Y et<br />

(X, Z) et le théorème de Fubini entraînent<br />

E [ Φ(X, Y )Z ] ∫ ∫<br />

= Φ(x, y) z dP (X,Z) (x, z) dP (Y ) (y)<br />

∫ (∫<br />

)<br />

= Φ(x, y)dP (Y ) (dy) z dP (X,Z) (x, z)<br />

∫<br />

= ϕ(x) zdP (X,Z) (x, z) = E [ ϕ(X)Z ] ,<br />

ce qui termine <strong>la</strong> démonstration.<br />

✷<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.5 Propriétés du Brownien. 21<br />

Soit s < t; appliquons le lemme précédent avec E 1 = E 2 = R d , G = F s , F = F t , X = B s<br />

et Y = B t − B s . Nous en déduisons que pour toute fonction borélienne bornée f : R d → R,<br />

E [ ]<br />

f(B t )|F s = ϕ(Bs ) où ϕ(x) = E [ f(x + B t − B s ) ] . Un calcul simi<strong>la</strong>ire avec G = σ(B s ) et<br />

F = F t pour les mêmes variables aléatoires X = B s et Y = B t − B s permet de conclure<br />

E [ ]<br />

f(B t )|B s = ϕ(Bs ). La loi de B t − B s étant gaussienne N(0, (t − s)Id), ceci termine <strong>la</strong><br />

démonstration. ✷<br />

Corol<strong>la</strong>ire 1.38 Soit τ un (F t )-temps d’arrêt fini presque sûrement et B un (F t )-Brownien<br />

standard de dimension d. Alors le processus (M t = B τ+t − B τ , t ≥ 0) est un (F τ+t , t ≥ 0)-<br />

Brownien standard indépendant de F τ .<br />

Démonstration. Supposons tout d’abord que τ ≤ C p.s. et notons G t = F τ+t pour tout<br />

t ≥ 0. Alors (G t ) est une filtration et le Théorème d’arrêt 1.7 montre que si (X t ) est une<br />

(F t )-martingale et si on note Y t = X τ+t , Y t est intégrable et pour s < t, E(Y t |G s ) =<br />

E(X τ+t |F τ+s ) = X τ+s = Y s , c’est à dire que (Y t ) est une (G t )-martingale.<br />

Il faut montrer que si 0 ≤ s < t, le vecteur aléatoire M t − M s suit une loi N(0, (t −<br />

s)Id) et est indépendant de G s . Un argument utilisé dans <strong>la</strong> démonstration du théorème<br />

de caractérisation du Brownien de Paul Lévy montre qu’il suffit de vérifier que pour tout<br />

u ∈ R d l’équation (1.15) est satisfaite.<br />

Fixons u ∈ R d et notons f(x) = e i(u,x) pour tout x ∈ R d . Alors |f| = 1 et en décomposant<br />

f en partie réelle et partie imaginaire, <strong>la</strong> propriété de Markov et <strong>la</strong> définition du Brownien<br />

montrent<br />

)<br />

(t − s)‖u‖2<br />

E(exp(i(u, B t )|F s ) = E(exp(i(u, B t )|B s ) = exp(i(u, B s )) exp<br />

(− .<br />

2<br />

On en déduit que le processus X t = exp ( i(u, B t ) + t‖u‖ 2 /2) est une (F t )-martingale, et<br />

d’après <strong>la</strong> remarque précédente, que (Y t = X τ+t , t ≥ 0) est une (G t )-martingale. Pour tout<br />

s ≤ t, on a donc<br />

(<br />

Yt<br />

∣ )<br />

∣∣Gs<br />

E = E(Y t|G s )<br />

= Y s<br />

,<br />

Y 0 Y 0 Y 0<br />

ce qui prouve que ( Y t<br />

Y 0<br />

= exp(i(u, M t ) + t‖u‖ 2 /2), t ≥ 0 ) est une (G t )-martingale. Donc pour<br />

s ≤ t,<br />

∣ ) (<br />

)<br />

E<br />

(e i(u,Mt−Ms) ∣∣Gs<br />

t‖u‖2<br />

i(u,Mt)+ ∣<br />

t‖u‖2<br />

−i(u,Ms)−<br />

= E e 2<br />

∣G s e 2 = e −(t−s)‖u‖2 2 ,<br />

ce qui termine <strong>la</strong> démonstration de (1.15) lorsque τ est borné p.s.<br />

Soit τ un temps d’arrêt presque sûrement fini; pour conclure, il suffit d’écrire (1.15) pour<br />

<strong>la</strong> suite de temps d’arrêt τ ∧ n et de faire tendre n vers +∞. ✷.<br />

On en déduit une propriété simi<strong>la</strong>ire à <strong>la</strong> propriété de Markov simple (Théorème 1.36)<br />

en remp<strong>la</strong>çant les temps fixes par des temps d’arrêt.<br />

Théorème 1.39 (Propriété de Markov forte) Soit B un (F t )-Brownien standard à valeurs<br />

dans R d et τ un (Ft B )-temps d’arrêt fini presque sûrement; alors pour tout t > 0,<br />

∫<br />

1<br />

E[f(B τ+t ) | F τ ] = E[f(B τ+t ) | B τ ] = f(y) exp<br />

(− ‖y − B )<br />

τ‖ 2<br />

dy. (1.19)<br />

(2πt) d 2 R 2t<br />

d<br />

Démonstration. Le lemme 1.37 appliqué à X = B τ , Y = B τ+t − B τ , G = F τ (ou bien<br />

G = σ(X τ )), F = F t+τ et le Corol<strong>la</strong>ire 1.38 montrent que, puisque (B τ+t −B τ , t ≥ 0) est un<br />

Brownien indépendant de F τ , <strong>la</strong> propriété de Markov forte (1.19) est satisfaite. ✷<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


22 1 Processus d’Itô de dimension quelconque<br />

1.6 Exercices<br />

Exercice 1.1 Montrer qu’une martingale locale M arrêtée est encore une martingale locale.<br />

Exercice 1.2 Soit (M t ) un processus cad<strong>la</strong>g (F t )-adapté. Montrer que c’est une (F t )-<br />

martingale si et seulement si pour tout temps d’arrêt borné T, M T ∈ L 1 et E(M T ) = E(M 0 ).<br />

Exercice 1.3 Soit (X t , 0 ≤ t ≤ T) une (F t )-surmartingale, c’est à dire que si 0 ≤ s ≤ t ≤ T,<br />

X s ≥ E(X t |F s ), telle que E(X T ) = E(X 0 ). Montrer que (X t ) est une martingale.<br />

Exercice 1.4 Soit (M t ) une (F t )-martingale locale. Monter que<br />

(i) Si M t est positive, c’est une surmartingale.<br />

(ii) S’il existe Y ∈ L 1 telle que |M t | ≤ Y p.s., alors (M t ) est une martingale.<br />

Exercice 1.5 Soit B un mouvement Brownien réel et (Ft B ) sa filtration naturelle.<br />

(i) Caractériser les valeurs de α ∈ R telles que le processus défini par I t = ∫ t<br />

|B 0 s| α dB s<br />

est une (Ft B)-martingale.<br />

(ii) En admettant que, si on note ψ(t) = √ 2 ln(ln(1/t)) pour 0 < t < 1 , lim sup e t→0 Bt<br />

= ψ(t)<br />

B<br />

+1 et lim inf t t→0 = −1, caractériser les valeurs de α telles que le processus I précédent<br />

ψ(t)<br />

est une (Ft B )-martingale locale.<br />

Exercice 1.6 Soit B un (F t )-Brownien, X t = x+ ∫ t<br />

σ 0 sdB s + ∫ t<br />

b 0 sds et ¯X t = ¯x+ ∫ t<br />

∫ ¯σ(s)dB 0 s+<br />

t ¯b 0 s ds des processus d’Itô. Récrire X t Y t comme une semi-martingale.<br />

Exercice 1.7 Soit (Bt 1, · · · , Br t ) un Brownien standard de dimension r.<br />

1. Soit X et Y des variables aléatoires réelles, G une sous-tribu de F telle que les tribus<br />

σ(X), σ(Y ) et G sont indépendantes. Montrer que E(XY |G) = E(X)E(Y ) p.s.<br />

2. En déduire que pour s < t, lorsque i ≠ j on a E(BtB i j ∣<br />

t Fs ) = BsB i s.<br />

j<br />

3. En déduire que 〈B i , B j 〉 t = δ i,j t.<br />

4. Montrer que pour tout u = (u 1 , · · · , u r ) ∈ R r ,<br />

(<br />

)<br />

E e (u,Bt)−1 2 ‖u‖2 t∣<br />

∣F s = e (u,Bs)−1 2 ‖u‖2s .<br />

Exercice 1.8 Soit (X t ) un processus (F t )-adapté et T > 0 tel que E<br />

pour p ∈ [1, +∞[.<br />

( ∫ )<br />

T<br />

|X 0 s| 2p ds < +∞<br />

1. En appliquant <strong>la</strong> formule d’Itô à M t = ∫ t<br />

X 0 sdB s , montrer qu’il existe une suite croissante<br />

(T n ) de temps d’arrêt qui tendent vers +∞ tels que<br />

(∫ T<br />

)<br />

E(M 2p<br />

T ∧T n<br />

) = p(2p − 1)E |M t∧Tn | 2(p−1) Xt∧T 2 n<br />

dt .<br />

2. La fonction t → E(|M t∧Tn | 2p ) est-elle monotone? En déduire que<br />

(∫ T ∧Tn<br />

)<br />

E(|M T ∧Tn | 2p ) ≤ [p(2p − 1)] p T p−1 E |X s | 2p ds<br />

puis que<br />

(∫ T<br />

E(|M T | 2p ) ≤ [p(2p − 1)] p T p−1 E<br />

0<br />

0<br />

0<br />

)<br />

|X s | 2p ds .<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


1.6 Exercices 23<br />

3. En appliquant l’inégalité de Doob, montrer qu’il existe une constante K p que l’on<br />

explicitera telle que<br />

( ) (∫ T<br />

E sup |M t | 2p ≤ K p E<br />

0≤s≤T<br />

0<br />

)<br />

|X s | 2p ds .<br />

Exercice 1.9 Soit (X t ) un processus (F t )-adapté continu, positif tel que X 0 = 0, (A t ) un<br />

processus croissant continu (F t )-adapté tel que pour tout temps d’arrêt T, E(X T ) ≤ E(A T ).<br />

Pour tout t ≥ 0, on note V t = sup 0≤s≤t X s .<br />

1. Montrer que pour tout temps d’arrêt T et tout ǫ > 0, P(V T ≥ ǫ) ≤ 1 ǫ E(A T). (On<br />

pourra utiliser τ ε = inf{t ≥ 0 : X t ≥ ε} et T n = T ∧ n ∧ τ ε .)<br />

2. Montrer que pour tout temps d’arrêt T, et tout δ > 0, ǫ > 0, si S = inf{t ≥ 0 : A t ≥<br />

δ}, P(V T ≥ ǫ, A T ≤ δ) ≤ P(V T ∧S ≥ ε) ≤ 1 ǫ E(δ ∧ A T).<br />

3. Soit F : [0, +∞[→ [0, ∞[ une fonction dérivable, strictement croissante telle que<br />

F(0) = 0 et pour tout x > 0, u → F ′ (u)<br />

1 u [x,+∞[(u) ∈ L 1 (λ), où λ désigne <strong>la</strong> mesure de<br />

Lebesgue. Notons G :]0, +∞[→]0, +∞[ <strong>la</strong> fonction définie par<br />

(a) Montrer que G ′ (x) = F ′ (x) + ∫ +∞<br />

x<br />

(b) Montrer que<br />

E(F(V T )) =<br />

≤<br />

∫ +∞<br />

0<br />

∫ +∞<br />

0<br />

∫ +∞<br />

F ′ (u)<br />

G(x) = 2F(x) + x du.<br />

x u<br />

≤ E(G(A T )).<br />

F ′ (u)<br />

u<br />

P(V T ≥ u)F ′ (u)du<br />

du.<br />

2P(A T ≥ u)F ′ (u)du +<br />

∫ +∞<br />

0<br />

1<br />

u E( )<br />

A T 1 {AT ≤u} F ′ (u)du<br />

En déduire que si p ∈]0, 1[, pour tout temps d’arrêt T, E(V p<br />

T ) ≤ 2−p<br />

1−p E(Ap T ).<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


24 2 Équations différentielles stochastiques<br />

2<br />

Équations différentielles stochastiques<br />

Ces processus, qui généralisent les équations différentielles ordinaires, sont fondamentaux<br />

en finance. Ils modélisent le prix d’actifs financiers.<br />

Rappelons qu’une équation différentielle ordinaire (EDO) sur [0, +∞[×R est du type<br />

y ′ t = f(t, y t ) et y 0 = y, (2.1)<br />

où y : [0, +∞[→ R est <strong>la</strong> fonction inconnue et f : [0, +∞[×R → R est une fonction<br />

donnée. L’étude mathématique des équations différentielles ordinaires est d’une importance<br />

considérable pour les applications notamment en physique. En général, il est impossible de<br />

donner une solution explicite à une EDO. On peut cependant chercher à savoir s’il existe<br />

une solution et si elle est unique. Un critère est le :<br />

Théorème 2.1 (Théorème de Cauchy-Lipschitz) Supposons qu’il existe une constante K ><br />

0 telle que pour tout t ∈ [0, +∞[, x, y ∈ R :<br />

{ |f(t, x) − f(t, y)| ≤ K|x − y| (condition de Lipschitz globale),<br />

|f(t, x)| ≤ K(1 + |x|) (condition de croissance linéaire).<br />

Alors l’EDO (2.1) a une solution unique définie sur [0, +∞[.<br />

La condition de Lipschitz globale est assez naturelle pour que <strong>la</strong> solution soit définie sur<br />

tout [0, +∞[. Si on considère par exemple y 0 = 1 et f(t, y) = y 2 , alors on voit facilement que<br />

l’unique solution de l’équation (2.1) correspondante est y t = 1/(1 − t), et que cette solution<br />

« explose » en t = 1.<br />

Une équation différentielle stochastique (EDS) est une perturbation de (2.1) avec un<br />

terme aléatoire modélisant un « bruit » autour du phénomène déterministe décrit par (2.1).<br />

La perturbation <strong>la</strong> plus simple est l’ajout d’un Brownien. Ceci modélise le fait que sur des<br />

intervalles de temps disjoints, les perturbations sont <strong>la</strong> somme de très nombreuses « petites »<br />

variables aléatoires indépendantes de même loi (qui, d’après le théorème central limite,<br />

convenablement renormalisée suit une loi « proche » d’une loi gaussienne). 0n considère<br />

donc l’équation dY t = f(t, Y t )dt+σdB t et Y 0 = y, soit, sous forme intégrale (<strong>la</strong> seule qui ait<br />

un sens mathématique, puisque le Brownien n’est pas dérivable) :<br />

Y t = y +<br />

∫ t<br />

0<br />

f(s, Y s )ds + σB t<br />

pour tout t ≥ 0. On a coutume d’utiliser des majuscules pour les solutions d’EDS et des<br />

minuscules pour les solutions d’EDO.<br />

La trajectoire y de l’EDO (2.1) est régulière et déterministe. La présence du Brownien<br />

entraîne que pour « σ petit », <strong>la</strong> trajectoire de l’EDS précédente, non dérivable, est proche<br />

de celle de (2.1), en oscil<strong>la</strong>nt aléatoirement autour. Mais quand σ est grand, cette trajectoire<br />

n’a plus rien à voir avec celle de (2.1).<br />

La figure suivante montre les trajectoires sur [0, 2] de <strong>la</strong> solution de l’EDO<br />

y ′ t = −y t, et y 0 = 5<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.1 Solution forte - Diffusion. 25<br />

(c’est à dire y t = 5e −t ) et des EDS<br />

Y t = 5 −<br />

∫ t<br />

avec σ = 0.4 et σ = 2 obtenues par simu<strong>la</strong>tion.<br />

0<br />

Y s ds + σB t<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0<br />

2.1 Solution forte - Diffusion.<br />

Dans <strong>la</strong> suite, nous étudierons donc des Équations Différentielles <strong>Stochastique</strong>s (EDS),<br />

dont <strong>la</strong> définition précise est <strong>la</strong> suivante.<br />

On se donne de nouveau une filtration (F t ) continue à droite et formée de tribus<br />

complètes (mais on ne suppose pas nécessairement que F 0 est <strong>la</strong> tribu des ensembles négligeables),<br />

un (F t )-Brownien B à valeurs dans R r , une variable aléatoire ξ à valeurs dans R d indépendante<br />

de Fs B = σ(B s , s ≥ 0), des fonctions boréliennes<br />

σ : [0, +∞[×R d → M(d, r) ∼ R dr et b : [0, +∞[→ R d .<br />

On appelle Équation Différentielle <strong>Stochastique</strong> (EDS) de condition initiale ξ, de coefficient<br />

de diffusion σ et de coefficient de dérive b un processus X tel que pour tout t ≥ 0,<br />

X t = ξ +<br />

∫ t<br />

0<br />

σ(s, X s )dB s +<br />

L’équation (2.2) sera aussi notée<br />

{ dXt = σ(t, X t )dB t + b(s, X s )ds,<br />

X 0 = ξ.<br />

∫ t<br />

0<br />

b(s, X s )ds. (2.2)<br />

On s’intéresse tout d’abord à l’existence et l’unicité de solutions au sens fort.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


26 2 Équations différentielles stochastiques<br />

Définition 2.2 Soit B un Brownien donné, ξ une variable aléatoire indépendante de <strong>la</strong><br />

tribu σ(B s , s ≥ 0) et soit (F t ) <strong>la</strong> filtration définie par les tribus F t qui sont pour tout t ≥ 0<br />

les complétées de σ(σ(B s , 0 ≤ s ≤ t), σ(ξ)). Une solution forte de (2.2) est un processus<br />

(X t ) à trajectoires presque sûrement continues tel que<br />

(i) (X t ) est adapté à <strong>la</strong> filtration (F t ),<br />

(ii) X 0 = ξ p.s.<br />

(iii) Pour tout i = 1, · · · , d, ∫ t<br />

0<br />

(iv) Pour tout t ≥ 0, et tout i = 1, · · · , d,<br />

X i t = Xi 0 + r∑<br />

k=1<br />

[<br />

|b i (s, X s )| + ∑ r<br />

k=1 |σi k (s, X s)| 2] ds < +∞ p.s.<br />

∫ t<br />

0<br />

∫ t<br />

σk i (s, X s)dBs k + b i (s, X s )ds.<br />

Le théorème suivant est fondamental; il donne des conditions suffisantes d’existence<br />

et d’unicité d’une solution forte de (2.2), calquées sur celles de l’existence de <strong>la</strong> solution<br />

d’EDO (2.1). On note |.| <strong>la</strong> norme euclidienne sur R d ou R d×r . Les conditions suivantes sur<br />

les coefficients répliquent celles imposées pour résoudre une EDO.<br />

0<br />

Définition 2.3 Soit T > 0. Une fonction ϕ : [0, T] × R d → R N satisfait<br />

(i) La condition de Lipschitz globale sur [0, T] s’il existe une constante C > 0 telle que<br />

|ϕ(t, x) − ϕ(t, y)| ≤ C|x − y| , ∀t ∈ [0, T], ∀x, y ∈ R d . (2.3)<br />

(ii) La condition globale de restriction sur <strong>la</strong> croissance sur [0, T] s’il existe C > 0 telle<br />

que<br />

|ϕ(t, x)| ≤ C(1 + |x|) , ∀t ∈ [0, T], ∀x, y ∈ R d . (2.4)<br />

Lorsque <strong>la</strong> fonction ϕ est définie sur [0, +∞[×R d et que les conditions (2.3) et (2.4) sont<br />

vérifiées sur chaque intervalle [0, T], on dit que ϕ vérifie les conditions globales de Lipschitz<br />

et de restriction sur <strong>la</strong> croissance.<br />

On remarque immédiatement, que si ϕ est globalement Lipschitzienne, <strong>la</strong> condition (2.4)<br />

de restriction sur <strong>la</strong> croissance est une conséquence immédiate de<br />

sup |ϕ(t, 0)| < +∞.<br />

t≥0<br />

La démonstration du théorème suivant d’existence et d’unicité repose sur le lemme de Gronwall.<br />

Lemme 2.4 (Lemme de Gronwall) Soit f : [0, T] → [0, M] une fonction borélienne positive<br />

bornée, a et b ≥ 0 des constantes réelles telles que pour tout t ∈ [0, T]<br />

Alors pour tout t ∈ [0, T], f(t) ≤ a e bt .<br />

f(t) ≤ a +<br />

∫ t<br />

0<br />

bf(s)ds.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.1 Solution forte - Diffusion. 27<br />

Démonstration. Il suffit d’itérer <strong>la</strong> majoration sous l’intégrale. On en déduit pour tout n ≥ 1<br />

∫ t<br />

( ∫ s<br />

)<br />

f(t) ≤ a + b a + b f(u) du ds<br />

0 0<br />

∫<br />

≤ a + abt + b 2 f(u) du ds<br />

0≤u≤s≤t<br />

∫ ( ∫ u<br />

)<br />

≤ a + abt + b 2 a + b f(v) dv du ds<br />

0≤u≤s≤t 0<br />

∫<br />

∫ t ∫ s ∫ u<br />

≤ a + abt + ab 2 du ds + b 3 f(v) dv du ds<br />

0≤u≤s≤t<br />

≤ a + abt + a b2 t 2<br />

+ · · · + a bn t n<br />

2! n!<br />

0<br />

0<br />

0<br />

+ M bn+1 t n+1<br />

(n + 1)! ,<br />

où dans <strong>la</strong> dernière intégrale on a majoré <strong>la</strong> fonction f par M. La dernière majoration de f<br />

donne f(t) ≤ a e bt par passage à <strong>la</strong> limite en n. ✷<br />

On peut cependant affaiblir les hypothèses en ne demandant qu’une hypothèse de Lipschitz<br />

« locale » de ceux-ci, mais en gardant une restriction sur <strong>la</strong> croissance globale.<br />

Définition 2.5 La fonction ϕ satisfait <strong>la</strong> condition de Lipschitz locale sur [0, T] par rapport<br />

à <strong>la</strong> variable spatiale x si pour tout n ≥ 1 il existe K n > 0 tel que pour tout t ∈ [0, T] et<br />

x, y ∈ R d :<br />

|ϕ(t, x) − ϕ(t, y)| ≤ K n |x − y| pour |x| ≤ n et |y| ≤ n. (2.5)<br />

Si ϕ est définie sur [0, +∞[ et satisfait <strong>la</strong> condition de Lipschitz locale (2.5) sur chaque<br />

intervalle [0, T] avec une suite de constantes K n qui ne dépend pas de T, on dit qu’elle est<br />

localement Lipschitzienne.<br />

Théorème 2.6 (Théorème d’existence et d’unicité forte) Soit σ et b des coefficients qui satisfont<br />

sur [0, +∞[ les conditions globales de Lipschitz (2.3) et de restriction sur <strong>la</strong> croissance<br />

(2.4). Alors, si B est un Brownien standard de dimension r, pour toute variable aléatoire<br />

X 0 de carré intégrable et indépendante de σ(B s , s ≥ 0) il existe une unique solution forte de<br />

l’EDS<br />

X t = X 0 +<br />

∫ t<br />

0<br />

σ(s, X s )dB s +<br />

∫ t<br />

0<br />

b(s, X s )ds p.s. , ∀t ≥ 0. (2.6)<br />

Cette solution forte X de (2.6), adaptée à <strong>la</strong> filtration (F t ) où F t est <strong>la</strong> tribu complétée de<br />

σ(X 0 , σ(B s , 0 ≤ s ≤ t)), est continue. De plus, il existe une constante ˜C(C, T) telle que pour<br />

tout t ≥ 0 : ( )<br />

E sup |X s | 2 ≤ ˜C(C, T)e ˜C(C,T)t [1 + E(|X 0 | 2 )]. (2.7)<br />

0≤s≤t<br />

Si <strong>la</strong> condition initiale X 0 ∈ L p , 2 ≤ p < +∞, il existe une constante ¯C(C, T, p) telle que<br />

( )<br />

E sup |X t | p < ¯C(C, T, p)[1 + E(|X 0 | p )]. (2.8)<br />

0≤t≤T<br />

Démonstration. Fixons un instant T > 0 quelconque et prouvons l’existence et l’unicité de<br />

<strong>la</strong> solution forte sur l’intervalle [0, T].<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


28 2 Équations différentielles stochastiques<br />

Unicité Nous supposons ici seulement <strong>la</strong> condition (2.5). Soit X et ¯X des solutions fortes<br />

(donc continues) de (2.6). Pour tout n ≥ 0, soit τ n = inf{t ≥ 0 : |X t | ≥ n}, ¯τ n = inf{t ≥<br />

0 : | ¯X t | ≥ n} et T n = τ n ∧ ¯τ n . Alors, T n → ∞ p.s. De plus,<br />

X t∧Tn − ¯X t∧Tn =<br />

∫ t∧Tn<br />

0<br />

[<br />

σ(s, Xs ) − σ(s, ¯X s ) ] ∫ t∧Tn<br />

[<br />

dB s + b(s, Xs ) − b(s, ¯X<br />

]<br />

s ds.<br />

L’isométrie des intégrales stochastiques et l’inégalité de Schwarz entraînent que si pour toute<br />

matrice σ de type d × r on note ‖σ‖ 2 = ∑ d ∑ r<br />

i=1 k=1 |σi k |2 , on a tout t ∈ [0, T n ],<br />

⎛<br />

d∑<br />

E(|X t∧Tn − ¯X t∧Tn | 2 ) ≤ 2E ⎝<br />

r∑<br />

∫ t∧Tn<br />

[σk i ∣<br />

(s, X s) − σk i (s, ¯X ⎞ 2<br />

s )] dBs<br />

k ⎠<br />

i=1 k=1<br />

0<br />

∣<br />

( ∣∣∣∣ ∫ t∧Tn<br />

+ 2E [b(s, X s ) − b(s, ¯X ) 2<br />

s )] ds<br />

∣<br />

≤ 2E<br />

∫ t∧Tn<br />

0<br />

≤ 2(T + 1)K 2 n<br />

0<br />

‖σ(s, X s ) − σ(s, ¯X s )‖ 2 ds + 2tE<br />

∫ t<br />

0<br />

E ( |X s∧Tn − ¯X s∧Tn | 2) ds.<br />

0<br />

∫ t∧Tn<br />

0<br />

|b(s, X s ) − b(s, ¯X s )| 2 ds<br />

Le Lemme de Gronwall appliqué à <strong>la</strong> fonction continue f(t) = E(|X t∧Tn − ¯X t∧Tn | 2 ) permet<br />

de conclure que les processus X t∧Tn et ¯X t∧Tn sont indistinguables. En faisant tendre n vers<br />

l’infini, on en déduit que X et ¯X sont également indistinguables.<br />

Existence Afin de mettre les idées en évidence et de simplifier les notations, nous supposerons<br />

r = d = 1.<br />

On construit une solution comme pour les EDO par itération de Picard. Soit X (n) une<br />

suite de processus définis par :<br />

X (0)<br />

t<br />

= X 0 , ∀t ∈ [0, T],<br />

X (n+1)<br />

t = X 0 +<br />

∫ t<br />

0<br />

σ(X (n)<br />

s )dB s +<br />

∫ t<br />

(i) Montrons par récurrence que pour tout entier n ≥ 0,<br />

0<br />

b(X (n)<br />

s )ds, ∀n ≥ 0, ∀t ∈ [0, T]. (2.9)<br />

sup E(|X (n)<br />

t | 2 ) < +∞. (2.10)<br />

0≤t≤T<br />

En utilisant <strong>la</strong> restriction sur <strong>la</strong> croissance (2.4), on en déduira que les processus X (n) sont<br />

bien définis puisque b(t, X (n)<br />

t<br />

) ∈ H T 1 (F t) et σ(t, X (n)<br />

t ) ∈ H T 2 (F t). Puisque X 0 ∈ L 2 , (2.10)<br />

est vraie pour n = 0. Supposons que (2.10) est vraie pour n et montrons que cette propriété<br />

est vraie pour n + 1. Pour tout t ∈ [0, T], l’inégalité de Schwarz, l’isométrie dans L 2 des<br />

intégrales stochastiques, <strong>la</strong> condition (2.4) et le théorème de Fubini entraînent<br />

(<br />

E(|X (n+1)<br />

t | 2 ) ≤ 3 E(|X 0 | 2 ) + T<br />

∫ t<br />

∫ t<br />

≤ 3<br />

(E(|X 0 | 2 ) + 3(T + 1) C 2<br />

0<br />

E(|b(s, X (n)<br />

s )| 2 )ds +<br />

0<br />

∫ t<br />

[<br />

1 + E(|X<br />

(n)<br />

s | 2] ds<br />

0<br />

)<br />

E(|σ(s, X s<br />

(n) )| 2 )ds<br />

)<br />

,<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.1 Solution forte - Diffusion. 29<br />

ce qui prouve (2.10).<br />

(ii) Pour tout n ≥ 1,<br />

sup<br />

n≥1<br />

sup<br />

t∈[0,T]<br />

E(|X (n)<br />

t | 2 ) ≤ K[1 + E(|X 0 | 2 )]e Ct . (2.11)<br />

En effet, pour tout t ∈ [0, T], <strong>la</strong> partie (i) montre que E(|X (1)<br />

t | 2 ) ≤ C[1 + E(|X 0 | 2 )], tandis<br />

que pour tout n ≥ 1,<br />

E(|X (n+1)<br />

t | 2 ) ≤ C[1 + E(|X 0 | 2 )] + C<br />

∫ t<br />

0<br />

E(|X s<br />

(n) | 2 )ds.<br />

En itérant cette inégalité, on en déduit par récurrence sur n que pour tout n ≥ 1 et t ∈ [0, T],<br />

E(|X (n+1)<br />

t | 2 ) ≤ C[1 + E(|X 0 | 2 )]<br />

[1 + Ct + (Ct)2<br />

2!<br />

ce qui termine <strong>la</strong> démonstration de (2.11).<br />

]<br />

+ · · · + (Ct)n ,<br />

n!<br />

(iii) Montrons que <strong>la</strong> suite (X (n) ) converge p.s. uniformément sur [0, T] vers un processus<br />

X continu, (F t )-adapté X tel que (2.7) soit vraie. Pour tout n ≥ 1, notons<br />

où<br />

A n t = ∫ t<br />

0<br />

X (n+1)<br />

t<br />

− X (n)<br />

t = A n t + M n t ,<br />

[<br />

b(s, X<br />

(n)<br />

s ) − b(s, X s (n−1) ) ] ∫ t<br />

ds , Mt n =<br />

0<br />

[<br />

σ(s, X<br />

(n)<br />

s ) − σ(s, X s (n−1) ) ] dB s .<br />

Alors, E(sup 0≤s≤t |X s<br />

(n+1) − X s (n) | 2 ) ≤ 2E ( sup 0≤s≤t |A n s |2) + 2E ( sup 0≤s≤t |Ms n|2) .<br />

L’inégalité de Schwarz et (2.3) entraînent pour tout r ∈ [0, t],<br />

|A n t |2 ≤ t<br />

∫ t<br />

0<br />

|b(s, X (n)<br />

s<br />

) − b(s, X s<br />

(n−1) )| 2 ds ≤ CT<br />

∫ t<br />

0<br />

|X (n)<br />

s<br />

− X s<br />

(n−1) | 2 ds<br />

De plus, l’inégalité (2.11) montre que le processus s → σ(s, X s<br />

(n) ) − σ(s, X s<br />

(n−1) ) appartient<br />

à H2 T (F t ). En effet, (2.3) montre que<br />

(∫ t<br />

E ∣ σ(s, X<br />

(n)<br />

s ) − σ(s, X s<br />

(n−1) ) ∣ ) ∫ t<br />

2 ds ≤ C 2 E(|X s<br />

(n) − X s<br />

(n−1) | 2 )ds<br />

0<br />

0<br />

≤ 2C 2 ∫ t<br />

0<br />

0<br />

[<br />

E(|X<br />

(n)<br />

s<br />

| 2 ) + E(|X s<br />

(n−1) | 2] ds < +∞.<br />

L’inégalité de Doob appliquée à <strong>la</strong> martingale continue (Mt n , t ≥ 0), puis (2.3) montrent que<br />

( ) ∫ t<br />

E sup |Ms n |2 ≤ 4 E(|σ(s, X s<br />

(n) ) − σ(s, X s<br />

(n−1) )| 2 )ds<br />

0≤s≤t<br />

0<br />

∫ t<br />

≤ 4C 2 E(|X s<br />

(n) ) − X s<br />

(n−1) )| 2 )ds.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


30 2 Équations différentielles stochastiques<br />

Les deux inégalités précédentes entraînent pour L := L(T) = 2C(T + 4C),<br />

(<br />

) ∫ t<br />

E sup |X s<br />

(n+1) − X s (n) | 2 ≤ L E(|X s<br />

(n) ) − X s<br />

(n−1) )| 2 ds,<br />

0≤s≤t<br />

et en itérant cette inégalité, on montre par récurrence sur n que<br />

(<br />

)<br />

E sup |X s<br />

(n+1) − X s (n) | 2 (Lt)n<br />

≤ ¯C où<br />

0≤s≤t<br />

n!<br />

L’inégalité de Markov montre alors que si A n =<br />

(<br />

P (A n ) ≤ 2 2n E<br />

0<br />

¯C = sup E(|X (1)<br />

t − X 0 | 2 ) < +∞.<br />

0≤t≤T<br />

{<br />

sup 0≤s≤T |X s<br />

(n+1) − X s (n) | ≥<br />

},<br />

1<br />

2 n<br />

)<br />

sup |X s<br />

(n+1) − X s (n) | 2 ≤<br />

0≤s≤T<br />

(4Lt)n ¯C .<br />

n!<br />

Le Lemme de Borel Cantelli permet de conclure que P(lim sup A n ) = 0, c’est à dire que<br />

pour presque tout ω, il existe un entier N(ω) tel que sup 0≤s≤T |X s<br />

(n+1) (ω) − X s (n) (ω)| 2 ≤ 1<br />

2 n<br />

pour tout n ≥ N(ω). La suite X (n)<br />

t (ω) = X (0)<br />

t (ω) + ∑ n−1<br />

[<br />

(k+1)<br />

k=0 X t (ω) − X (k)<br />

t (ω) ] est donc<br />

uniformément convergente vers <strong>la</strong> limite X t (ω). En posant X = 0 sur l’ensemble négligeable<br />

hors duquel <strong>la</strong> convergence est vraie, on a ainsi construit un processus X qui est (p.s.)<br />

continu, (F t ) adapté comme limite p.s. d’une suite de processus (F t )-adaptés (on rappelle<br />

que les tribus F t sont complètes). Enfin,<br />

( )<br />

∑n−1<br />

(<br />

)<br />

E sup |X (n)<br />

t | 2 ≤ 2E(|X 0 | 2 ) + 2 E sup |X (k+1)<br />

t − X (k)<br />

t | 2<br />

0≤t≤T<br />

0≤t≤T<br />

k=0<br />

n−1<br />

≤ 2E(|X 0 | 2 ) + 2 ¯C<br />

∑ (4Lt) k<br />

≤ 2E(|X 0 | 2 ) + 2<br />

k!<br />

¯Ce 4LT .<br />

Le lemme de Fatou permet d’en déduire que E ( sup 0≤t≤T |X t | 2) ≤ 2E(|X 0 | 2 ) + 2 ¯Ce 4LT , ce<br />

qui prouve (2.7).<br />

(iv) Montrons enfin que pour tout t ∈ [0, T], <strong>la</strong> suite X (n)<br />

t converge dans L 2 vers X t , et<br />

que le processus X satisfait (2.6). pour tout x > 0, <strong>la</strong> formule de Stirling n! ∼ √ 2πn n+1 2e −n<br />

montre que pour m assez grand, ∑ ∞<br />

k=m<br />

‖X (n)<br />

t<br />

− X (m)<br />

t ‖ 2 ≤<br />

∑n−1<br />

k=m<br />

(<br />

x k<br />

k!<br />

‖X (k+1)<br />

t<br />

) 1<br />

2<br />

k=0<br />

≤ C(x)m −1 . Pour tout t ∈ [0, T] et n > m,<br />

− X (k)<br />

t ‖ 2 ≤<br />

+∞∑<br />

k=m<br />

(<br />

¯C (4Lt)k<br />

k!<br />

) 1<br />

2<br />

→ 0<br />

quand m → +∞. La suite X (n)<br />

t est donc de Cauchy dans L 2 ; elle converge dans L 2 vers une<br />

variable aléatoire Y t de carré intégrable. Elle admet une sous-suite qui converge p.s. vers Y t<br />

et on a donc Y t = X t p.s.<br />

De plus, (2.7) et <strong>la</strong> restriction sur <strong>la</strong> croissance montrent que les processus s → b(s, X s )<br />

et s → σ(s, X s ) appartiennent respectivement à H1 T(F s) et H2 T(F s). Le théorème de Fubini<br />

montre que<br />

E<br />

∫ T<br />

0<br />

|X (n)<br />

t<br />

∫ (<br />

T<br />

− X (m)<br />

t | 2 dt ≤ ¯C<br />

∑ +∞<br />

0<br />

k=m<br />

( (4Lt)<br />

k<br />

k!<br />

)<br />

)1 2<br />

2<br />

dt → 0 quand m → +∞.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.1 Solution forte - Diffusion. 31<br />

Le lemme de Fatou et <strong>la</strong> condition de Lipschitz (2.3) montrent que pour tout m,<br />

(∫ T<br />

E<br />

0<br />

) (∫ T<br />

|X t − X (m)<br />

t | 2 dt ≤ lim inf E |X (n)<br />

t<br />

n<br />

0<br />

)<br />

− X (m)<br />

t | 2 dt → 0<br />

quand m → ∞. L’inégalité de Schwarz et <strong>la</strong> condition de Lipschitz (2.3) montrent alors<br />

que ∫ t<br />

b(s, X(n)<br />

0 s )ds converge dans L 2 vers ∫ t<br />

b(s, X 0 s)ds, tandis que l’isométrie des intégrales<br />

stochastiques prouve que ∫ t<br />

σ(s, X(n)<br />

0 s )dB s converge dans L 2 vers ∫ t<br />

σ(s, X 0 s)dB s . On en<br />

déduit que X satisfait (2.6) en prenant <strong>la</strong> limite dans L 2 de l’équation (2.9).<br />

Enfin, si l’on renforce l’intégrabilité de <strong>la</strong> condition initiale, <strong>la</strong> démonstration précédente<br />

dans <strong>la</strong>quelle on remp<strong>la</strong>ce l’isométrie de l’intégrale dans L 2 par l’inégalité de Burkholder-<br />

Davies-Gundy (1.13) permet de montrer (2.8). ✷<br />

Exemple 2.7 (Brownien géométrique) Soit σ et b des nombres réels, S 0 un nombre réel<br />

strictement positif. Le Brownien géométrique est <strong>la</strong> solution de l’EDS<br />

S t = S 0 +<br />

∫ t<br />

0<br />

σS s dB s +<br />

∫ t<br />

0<br />

bS s ds.<br />

Le Théorème 2.6 montre que cette EDS a une unique solution forte, puisque les coefficients<br />

σ(t, x) = σx et b(t, x) = bx satisfont c<strong>la</strong>irement les conditions globales de Lipschitz et de<br />

restriction sur <strong>la</strong> croissance. Pour tout t ≥ 0, notons<br />

X t = S 0 exp<br />

[<br />

σB t +<br />

(b − σ2<br />

2<br />

) ]<br />

t . (2.12)<br />

En appliquant <strong>la</strong> formule d’Itô à <strong>la</strong> fonction f(t, x) = S 0 exp[σx + (b − σ2 )t] et au Brownien<br />

2<br />

B, puisque ∂f<br />

σ2 ∂f<br />

(t, x) = (b − )f(t, x), (t, x) = σf(t, x), ∂2 f<br />

(t, x) = σ 2 f(t, x), f(t, B<br />

∂t 2 ∂x ∂x 2 t ) = X t<br />

et f(0, B 0 ) = S 0 , on déduit que<br />

∫ t<br />

X t = S 0 +<br />

0<br />

) (b − σ2<br />

X s ds +<br />

2<br />

∫ t<br />

0<br />

σX s dB s + 1 2<br />

∫ t<br />

0<br />

σ 2 X s ds = S 0 +<br />

∫ t<br />

0<br />

∫ t<br />

σX s dB s + bX s ds,<br />

0<br />

c’est à dire que X est solution de (2.12). L’unicité de <strong>la</strong> solution forte entraîne que X = S.<br />

On en déduit que S t > 0 pour tout t ≥ 0 p.s. En appliquant de nouveau <strong>la</strong> formule d’Itô<br />

à <strong>la</strong> fonction g(x) = ln(x) et à S t , on voit que si on avait postulé que le processus S ne<br />

prenait p.s. que des valeurs positives (ce que nous venons de vérifier) on aurait trouvé pour<br />

Y t = ln(S t ),<br />

Y t = Y 0 +<br />

∫ t<br />

0<br />

σ S s<br />

S s<br />

dB s +<br />

∫ t<br />

0<br />

b S s<br />

ds − 1 ∫ t<br />

σ 2 Ss<br />

2 ds = Y<br />

S s 2 0 Ss<br />

2 0 + σB t +<br />

) (b − σ2<br />

t,<br />

2<br />

c’est à dire que <strong>la</strong> forme (2.12) de <strong>la</strong> solution était « naturelle ». L’exercice 2.4 généralisera<br />

cette observation à une EDS linéaire plus générale. De plus, <strong>la</strong> loi de ln(S t ) − ln(S 0 ) est<br />

gaussienne N((b − σ2)t,<br />

2 σ2 t), c’est à dire que S t suit une loi log-normale. La figure suivante<br />

montre <strong>la</strong> simu<strong>la</strong>tion de trajectoires du Brownien géométrique sur [0, 1] avec σ = 0.5 (resp.<br />

σ = 2), b = 2 et S 0 = 1.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


32 2 Équations différentielles stochastiques<br />

15<br />

14<br />

13<br />

12<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0<br />

15<br />

14<br />

13<br />

12<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0<br />

2.2 Solution faible.<br />

Dans de nombreuses applications, il est plus naturel lors de <strong>la</strong> modélisation de se donner<br />

uniquement les coefficients b(t, x) et σ(t, x), ainsi que <strong>la</strong> loi de X 0 , mais pas l’espace probabilisé<br />

ni le mouvement brownien B. On cherche alors le couple (B, X) qui satisfait (2.6), ce<br />

qui donne <strong>la</strong> notion suivante.<br />

Définition 2.8 Une solution faible de l’équation<br />

dX t = σ(t, X t )dB t + b(t, X t )dt (2.13)<br />

est un triplet ( (Ω, F, (F t ), P), B, X ) où<br />

(i) (Ω, F, P) est un espace probabilisé muni d’une filtration (F t ) continue à droite et<br />

complète.<br />

(ii) (B t ) est un (F t )-Brownien de dimension r et (X t ) est un processus (F t )-adapté,<br />

continu, de dimension d tels que les propriétés (iii) et (iv) de <strong>la</strong> définition 2.2 soient satisfaites.<br />

La loi de X 0 est appelée <strong>la</strong> loi initiale. On n’exige plus que <strong>la</strong> filtration (F t ) soit <strong>la</strong> plus<br />

petite filtration qui rend mesurable B et X 0 , et <strong>la</strong> solution X t à l’instant t n’est donc plus<br />

une fonction mesurable de <strong>la</strong> trajectoire (B s , s ≤ t) et de X 0 . Cependant, puisque B est un<br />

(F t )-Brownien et que X est (F t )-adapté, X t est indépendant de <strong>la</strong> trajectoire de B après<br />

l’instant t, c’est à dire des accroissements (B r − B t , r ≥ t).<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.3 Quelques propriétés des diffusions. 33<br />

Une solution forte est c<strong>la</strong>irement une solution faible, mais <strong>la</strong> réciproque est fausse, comme<br />

le montre l’exemple suivant. L’existence d’une solution faible peut en effet être montrée sous<br />

des conditions plus générales sur les coefficients.<br />

Exemple 2.9 (Équation de Tanaka) Notons sign(x) = 1 si x ≥ 0 et sign(x) = −1 si<br />

x < 0. Alors l’EDS<br />

X t =<br />

∫ t<br />

admet une solution faible, mais pas de solution forte.<br />

0<br />

sign(X s )dB s (2.14)<br />

Si ( Ω, F, (F t ), B, X ) est une solution faible, le processus X est une martingale continue<br />

de variation quadratique 〈X, X〉 t = ∫ t<br />

sign(X 0 s) 2 ds = t et d’après <strong>la</strong> caractérisation du<br />

Brownien de P. Lévy (Théorème 1.33), X est un (F t )-Brownien. On en déduit immédiatement<br />

<strong>la</strong> « construction » d’une solution faible.<br />

∫<br />

Soit (X t ) un Brownien et (F t ) sa filtration naturelle. Pour tout t ≥ 0 soit B t =<br />

t<br />

sign(X 0 s)dX s . Le processus (B t ) est une (F t )-martingale continue, de variation quadratique<br />

〈B, B〉 t = t. La caractérisation du Brownien de P. Lévy montre donc que B est un<br />

(F t )-Brownien. De plus, dB t = sign(X t )dX t , c’est à dire que dX t = sign(X t )dB t .<br />

Sur l’espace probabilisé (Ω, F, (F t ), P), le couple (B, X) est donc une solution faible de<br />

(2.14). On voit d’ailleurs que sur le même espace probabilisé, (B, −X) est également une<br />

solution faible de (2.14), qui ne peut donc avoir une unique solution « trajectorielle » mais<br />

au mieux une unique solution « en loi ».<br />

L’absence de solution forte sera admise.<br />

Définition 2.10 On dit qu’il y a unicité en loi de <strong>la</strong> solution de (2.13) si deux solutions<br />

faibles ( (Ω, F, (F t ), P), B, X ) et ( (˜Ω, ˜F, ( ˜F t ), ˜P), ˜B, ˜X ) ont <strong>la</strong> même loi, c’est à dire que<br />

pour tout n ≥ 1 et tout 0 ≤ t 1 < t 2 < · · · < t n , les lois des vecteurs (X t1 , · · · , X tn ) et<br />

( ˜X t1 , · · · , ˜X tn ) sont égales.<br />

Le raisonnement précédent montre que pour l’équation de Tanaka (2.14), il y a unicité en<br />

loi puisque nous avons montré que toute solution faible est un Brownien.<br />

On remarque par ailleurs que si les coefficients σ et b satisfont les conditions (2.3)<br />

et (2.4), le Théorème 2.6 montre l’existence et l’unicité forte de <strong>la</strong> solution de (2.6). Il<br />

y a aussi unicité en loi de <strong>la</strong> solution forte ou de <strong>la</strong> solution faible de (2.13). En effet,<br />

soit ( (Ω, F, (F t ), P), B, X ) et ( (˜Ω, ˜F, ( ˜F t ), ˜P), ˜B, ˜X ) deux solutions faibles et soit Y et Ỹ<br />

deux ( solutions fortes continues de (2.6) définies respectivement sur les espaces probabilisés<br />

Ω, F, (Ft ), P), B ) et (˜Ω, ˜F, ( ˜Ft ), ˜P), ˜B ) . Le Théorème 2.6 permet de conclure que l’on a<br />

X t = Y t pour tout t ≥ 0 P p.s. (c’est à dire, qu’en utilisant <strong>la</strong> continuité des trajectoires<br />

on a un ensemble négligeable construit à partir des instants rationnels en dehors duquel les<br />

trajectoires coïncident). De même ˜X t = Ỹt pour tout t ≥ 0 ˜P p.s. Pour prouver l’unicité<br />

faible, il suffit donc de prouver que les lois de X et ˜X sont égales. En reprenant les schémas<br />

d’itération de Picard (2.9) pour X et ˜X, on vérifie que pour tout n ≥ 0, les lois des processus<br />

continus (B t , X (n)<br />

t<br />

) et ( ˜B t ,<br />

˜X<br />

(n)<br />

t<br />

) sont égales.<br />

2.3 Quelques propriétés des diffusions.<br />

2.3.1 Flot stochastique et Propriété de Markov<br />

Soit σ et b des coefficients qui satisfont les conditions globales de Lipschitz (2.3) et<br />

de restriction sur <strong>la</strong> croissance (2.4). En reprenant <strong>la</strong> démonstration du Théorème 2.6, on<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


34 2 Équations différentielles stochastiques<br />

montre que pour tout s ≥ 0 et pour tout x ∈ R d , il existe une unique solution trajectorielle<br />

, t ≥ s) de l’EDS (2.6) qui part de x en l’instant s, c’est à dire définie pour t ≥ s par<br />

(X s,x<br />

t<br />

X s,x<br />

t = x +<br />

∫ t<br />

s<br />

σ(u, X s,x<br />

u )dB u +<br />

Alors X 0,x = X(x) est <strong>la</strong> solution forte de (2.6) avec X 0 = x, c’est à dire<br />

X t (x) = x +<br />

∫ t<br />

0<br />

σ(s, X s (x))dB s +<br />

et on a montré E(sup 0≤t≤T |X t (x)| 2 ) < +∞.<br />

On a tout d’abord le résultat suivant de flot.<br />

∫ t<br />

s<br />

∫ t<br />

0<br />

b(u, X u )du. (2.15)<br />

b(s, X s (x))ds (2.16)<br />

Théorème 2.11 (Propriété de flot stochastique) Pour tout 0 ≤ s ≤ t, X t (x) = X s,Xs(x)<br />

t<br />

p.s.<br />

Démonstration. Soit t ≥ s; alors par (2.16) on a :<br />

X t (x) = X s (x) +<br />

tandis que par (2.15) on a :<br />

X s,Xs(x)<br />

t = X s (x) +<br />

∫ t<br />

s<br />

∫ t<br />

s<br />

σ(u, X u (x))dB u +<br />

σ(u, X s,Xs(x)<br />

u )dB u +<br />

∫ t<br />

s<br />

∫ t<br />

s<br />

b(u, X u (x))du,<br />

b(u, Xu<br />

s,Xs(x) )du.<br />

Ceci montre que les processus (X t (x), t ≥ s) et (X s,Xs(x)<br />

t , t ≥ s) sont indistinguables par<br />

unicité forte de l’EDS dont ils sont solution. ✷<br />

Cette propriété de flot stochastique permet de montrer <strong>la</strong> propriété de Markov « faible ».<br />

Théorème 2.12 (Propriété de Markov) Soit (X t (x), t ≥ 0) <strong>la</strong> solution forte de l’EDS (2.6)<br />

avec X 0 = x. Alors (X t (x), t ≥ 0) est un processus de Markov pour <strong>la</strong> filtration naturelle<br />

(F B t ) du Brownien. Plus précisément, pour toute fonction f : Rd → R borélienne positive<br />

(ou bornée), 0 ≤ s, t,<br />

où Φ t (y) = E[f(X s,y<br />

s+t)].<br />

E[f(X s+t (x))|F B s ] = E[f(X s+t(x))|X s (x)] = Φ t (X s (x)),<br />

Démonstration. Le processus (Xs+t, s,y t ≥ 0) est l’unique solution forte de l’EDS (2.6) avec<br />

comme condition initiale y, comme coefficients (t, x) → σ(s+t, x) et (t, x) → b(s+t, x) et le<br />

Brownien ˜B défini par ˜B t = B s+t − B s . C’est une fonction mesurable Ψ(y, ˜B) et il est donc<br />

indépendant de (F u , 0 ≤ u ≤ s). On en déduit que X s+t (x) = X s,Xs(x)<br />

s+t est égal à Ψ(X s (x), ˜B).<br />

Puisque X s (x) et ˜B sont indépendants, le Lemme 1.37 montre alors que pour toute fonction<br />

f mesurable bornée, E(f(X s+t (x)|Fs B) = Φ t(X s (x)) où Φ t (y) = E[f ◦Ψ(y, ˜B)] = E[f(Xs+t)].<br />

s,y<br />

Lorsqu’on conditionne par X s (x), un raisonnement simi<strong>la</strong>ire basé sur l’indépendance de ˜B<br />

et de X s (x) montre aussi que E(f(X s+t (x))|X s (x)) = Φ t (X s (x)); ✷<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.3 Quelques propriétés des diffusions. 35<br />

Lorsque les coefficients sont homogènes, c’est à dire ne dépendent pas du temps, on peut<br />

écrire <strong>la</strong> propriété de Markov sous une forme plus précise (homogène) et on a <strong>la</strong> propriété<br />

de Markov forte. En effet, dans ce cas, puisque le processus défini par ˜B t = B s+t − B s<br />

est un (F s+t , t ≥ 0)-Brownien, on en déduit que les variables aléatoires X s,y<br />

s+t et X t (y)<br />

ont <strong>la</strong> même loi et <strong>la</strong> fonction Φ t (y) utilisée dans <strong>la</strong> propriété de Markov peut s’écrire<br />

Φ t (y) = E[f(Xs+t)] s,y = E[f(X t (y))] = P t f(y). De plus, on a le<br />

Théorème 2.13 (Propriété de Markov homogène - Propriété de Markov forte)<br />

Soit σ i k : Rd → R et b i : R d → R, 1 ≤ i ≤ d, 1 ≤ k ≤ r des coefficients indépendants du<br />

temps tels qu’il existe C > 0 pour lequel pour tout i = 1, · · · , d et k = 1, · · · , r :<br />

|σ i k (x) − σi k (y)| + |bi (x) − b i (y)| ≤ C|x − y|, (2.17)<br />

Notons X(x) <strong>la</strong> solution forte de l’EDS homogène<br />

X t = X 0 +<br />

∫ t<br />

0<br />

σ(X s )dB s +<br />

∫ t<br />

0<br />

b(X s )ds (2.18)<br />

qui correspond au cas X 0 = x. C’est un processus de Markov fort homogène, c’est à dire<br />

que pour tout (Ft B )-temps d’arrêt τ fini presque sûrement et pour toute fonction borélienne<br />

positive (ou bornée) f : R d → R,<br />

où P t (x) = E[f(X t (x))].<br />

E[f(X τ+t (x))|F τ ] = E[f(X τ+t (x))|X τ (x)] = P t f(X τ (x)),<br />

Remarquons que dans le cas homogène, <strong>la</strong> condition de Lipschitz (2.17) entraîne immédiatement<br />

un analogue de <strong>la</strong> restriction sur <strong>la</strong> croissance<br />

|σ i k (x)| + |bi (x)| ≤ C(1 + |x|). (2.19)<br />

Dans le cas général (in-homogène), on montre de façon simi<strong>la</strong>ire que le processus espacetemps<br />

est fortement Markovien, c’est à dire que si f : [0, +∞[×R d → R est borélienne<br />

positive, alors pour tout temps d’arrêt τ fini presque sûrement, si<br />

on a :<br />

Φ t (s, x) = E[f(s + t, X s,x<br />

t )]<br />

E[f(τ + t, X τ+t (x))|F τ ] = E[f(τ + t, X τ+t (x))|X τ (x)] = Φ t (τ, X τ (x)).<br />

2.3.2 Générateur infinitésimal<br />

Convention : Dans toute cette section, nous considérons des coefficients σ et b qui satisfont<br />

les conditions (2.3) et (2.4) dans le cas général, ou bien les conditions du Théorème 2.13<br />

dans le cas homogène et que <strong>la</strong> condition initiale X 0 est constante.<br />

Notons C n,p ([0, +∞[×R d ) l’ensemble des fonctions u : [0, +∞[×R d → R de c<strong>la</strong>sse C n par<br />

rapport à <strong>la</strong> variable t ∈ [0, ∞[ et de c<strong>la</strong>sse C p par rapport à <strong>la</strong> variable x ∈ R d .<br />

Définition 2.14 Lorsque X est <strong>la</strong> solution de l’EDS homogène (2.18), si on note a = σσ ∗ ,<br />

le générateur infinitésimal de X est l’opérateur différentiel A défini pour u ∈ C 2 (R d ) par<br />

Au(x) =<br />

d∑<br />

i=1<br />

b i (x) ∂u<br />

∂x i<br />

(x) + 1 2<br />

d∑<br />

a i,j ∂ 2 u<br />

(x) (x) . (2.20)<br />

∂x i ∂x j<br />

i,j=1<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


36 2 Équations différentielles stochastiques<br />

Ainsi, le générateur du mouvement Brownien sur R r (qui correspond au cas d = r,<br />

σk i(x) = δ i,k d’où a(x) = Id r ) est 1∆, où ∆ est le Lap<strong>la</strong>cien défini sur 2 C2 (R r ). Le générateur<br />

d’un Brownien géométrique (réel) X t = x + ∫ t<br />

σX 0 sdB s + ∫ t<br />

bX 0 sds est l’opérateur défini sur<br />

C 2 (R) par A = bx ∂ + 1 ∂x 2 σ2 x 2 ∂2<br />

.<br />

∂x 2<br />

Lorsque <strong>la</strong> diffusion n’est pas homogène, le générateur infinitésimal dépend du temps.<br />

Définition 2.15 Si a(t, x) = σ(t, x) σ ∗ (t, x) désigne <strong>la</strong> matrice carrée symétrique d × d de<br />

type positif définie par a i,j (t, x) = ∑ r<br />

k=1 σi k (t, x) σj k<br />

(t, x), le générateur infinitésimal de <strong>la</strong><br />

diffusion (X t , t ≥ 0) définie par (2.6) est l’opérateur différentiel défini sur C 1,2 ([0, +∞[×R d )<br />

par :<br />

d∑<br />

A t u(x) = b i (t, x) ∂u (t, x) + 1 d∑<br />

a i,j ∂ 2 u<br />

(t, x) (t, x) . (2.21)<br />

∂x i 2 ∂x i ∂x j<br />

i=1<br />

La formule d’Itô montre donc que si f : [0, +∞[×R d → R est de c<strong>la</strong>sse C 1,2 et si X est<br />

solution de (2.6), alors<br />

df(t, X t ) = σ(t, X t ) ∂f [ ]<br />

∂f<br />

∂x (t, X t)dB t +<br />

∂t (t, X t) + A t f(t, X t ) dt. (2.22)<br />

On en déduit le<br />

Théorème 2.16 Soit σ et b des coefficients qui satisfont les conditions globales de Lipschitz<br />

(2.3) et de restriction sur <strong>la</strong> croissance (2.4), X 0 ∈ R d et X <strong>la</strong> solution forte de (2.6).<br />

Pour toute fonction f : [0, +∞[×R d → R appartenant à C 1,2 et telle que ∂f<br />

∂x i<br />

est bornée<br />

pour tout i = 1, · · · , d, le processus (M t ) défini par<br />

∫ t<br />

( ) ∂f<br />

M t = f(t, X t ) −<br />

∂s + A s (s, X s ) ds (2.23)<br />

0<br />

est une (Ft B )-martingale et pour tout temps d’arrêt τ p.s. borné, <strong>la</strong> formule de Dynkin est<br />

vraie :<br />

[∫ τ<br />

( ) ]<br />

∂f<br />

E[f(τ, X τ )] = f(0, X 0 ) + E<br />

∂s + A s (s, X s )ds .<br />

Démonstration. La propriété de martingale de M est une conséquence immédiate de (2.22),<br />

du Théorème 1.13, de <strong>la</strong> propriété (2.7) et de <strong>la</strong> restriction sur <strong>la</strong> croissance de σ, qui<br />

montrent que le processus s → σ(s, X s ) ∂f (s, X ∂x s) ∈ H 2 .<br />

Le Théorème d’arrêt 1.7 montre alors que si τ est p.s. borné, M 0 = E(M τ ) puisque<br />

<strong>la</strong> tribu F0<br />

B est <strong>la</strong> tribu complétée de <strong>la</strong> tribu triviale. Les dérivées partielles de f par<br />

rapport à x étant bornées, on en déduit que |f(s, X s ) − f(s, X 0 )| est majorée par une<br />

combinaison linéaire des composantes Xs, i et d’après (2.7), pour tout K > 0, <strong>la</strong> variable<br />

aléatoire sup s≤K |f(s, X s ) − f(s, X 0 )| est de carré intégrable. De plus, par continuité de f,<br />

sup s≤K |f(s, X 0 )| < +∞. Pour tout temps d’arrêt borné, <strong>la</strong> variable aléatoire f(τ, X τ ) est<br />

donc intégrable, ce qui termine <strong>la</strong> démonstration. ✷<br />

Grâce à <strong>la</strong> propriété (2.8), on peut affaiblir les hypothèses sur le contrôle des dérivées partielles<br />

de f dans les théorèmes précédents. En effet, si ∂f<br />

∂x i<br />

(t, x) est à croissance polynomiale<br />

en x uniformément en t, c’est à dire s’il existe un exposant a i > 0 tel que<br />

sup<br />

∂f<br />

∣ (t, x)<br />

t ∂x i<br />

∣ ≤ C(1 + |x|a i<br />

),<br />

0<br />

i,j=1<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.3 Quelques propriétés des diffusions. 37<br />

alors <strong>la</strong> restriction sur <strong>la</strong> croissance des coefficients σk i (t, x) et le fait que <strong>la</strong> condition initiale<br />

soit constante (donc dans tous les espaces L p , 1 ≤ p < +∞) entraînent que pour tout k, il<br />

existe une constante C et un exposant b i,k > 0 tels que pour tout t > 0<br />

E<br />

∫ t<br />

0<br />

∂f<br />

∣ (s, X s ) ∣<br />

∣2 ∣ σk i ∂x (s, X s) ∣ 2 ds ≤ C<br />

i<br />

(<br />

)<br />

1 + sup E(|X s | b i,k<br />

) < +∞.<br />

0≤s≤t<br />

Une croissance polynomiale de toutes les dérivées partielles ∂f<br />

∂x i<br />

(t, x) permet donc de conclure<br />

que les intégrales stochastiques dans <strong>la</strong> formule d’Itô de f(t, X t ) sont des martingales continues<br />

(de carré intégrable).<br />

En appliquant le théorème 2.16 avec d = r = 1, on déduit immédiatement que si f ∈ C 1,2<br />

a une dérivée partielle ∂f bornée (ou à croissance polynomiale) et si<br />

∂x<br />

∂f<br />

∂t (t, x) + A tf(t, x) = ∂f (t, x) + b(t, x)∂f<br />

∂t ∂x (t, x) + 1 2 σ(t, f<br />

x)2∂2 (t, x) = 0,<br />

∂x2 alors f(t, X t ) est une vraie (F B t )- martingale<br />

De même, si<br />

∂f<br />

∂t (t, x) + A tf(t, x) = rf(t, x),<br />

alors le processus e −rt f(t, X t ) est une (Ft B )-martingale. Le coefficient r est appelé coefficient<br />

d’actualisation. En particulier, si f(T, x) = h(x), on a f(t, X t ) = e r(t−T) E[h(X T )|Ft B ]. Ceci<br />

sera fort utile en finance, comme on le verra dans les chapitres suivants. On peut généraliser<br />

cette propriété de martingale pour un coefficient d’actualisation non constant.<br />

Théorème 2.17 Soit σ et b des fonctions qui satisfont les conditions globales de Lipschitz<br />

et de restriction sur <strong>la</strong> croissance (2.3) et (2.4), B un mouvement Brownien standard de<br />

dimension r, X t <strong>la</strong> solution de l’équation différentielle stochastique :<br />

X t = x +<br />

∫ t<br />

0<br />

σ(s, X s ) dB s +<br />

∫ t<br />

0<br />

b(s, X s ) ds (2.24)<br />

et A t son générateur infinitésimal. Alors pour toute fonction continue minorée ρ : [0, T] ×<br />

R d → [m, +∞[ et toute fonction f : [0, T] × R d → R d de c<strong>la</strong>sse C 1 et t et de c<strong>la</strong>sse C 2 en x<br />

telle que les dérivées partielles ∂f<br />

∂x i<br />

de f sont à croissance polynomiale, le processus<br />

M ρ t (f) = e − R t<br />

0 ρ(s,Xs) ds f(t, X t ) − f(0, X 0 )<br />

−<br />

∫ t<br />

est une martingale pour <strong>la</strong> filtration ( F B t ).<br />

0<br />

e − R s<br />

0 ρ(u,Xu) du ( ∂f<br />

∂s + A sf − ρ f<br />

)<br />

(s, X s ) ds<br />

Démonstration : La formule d’Itô pour un produit entraîne que<br />

d<br />

(e − R )<br />

t<br />

0 ρ(s,Xs) ds f(t, X t ) = −ρ(t, X t ) e − R t<br />

0 ρ(s,Xs) ds f(t, X t ) dt<br />

+e − R t<br />

0 ρ(s,Xs) ds d ( f(t, X t ) ) .<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


38 2 Équations différentielles stochastiques<br />

La formule d’Itô pour f(t, X t ) permet alors d’écrire :<br />

e − R t<br />

0 ρ(s,Xs) ds f(t, X t ) = f(0, X 0 )<br />

+<br />

+<br />

∫ t<br />

0<br />

d∑<br />

i=1<br />

e − R s<br />

0 ρ(u,Xu) du ( ∂f<br />

r∑<br />

k=1<br />

∫ t<br />

0<br />

∂s + A sf − ρ f<br />

)<br />

(s, X s ) ds<br />

e − R s<br />

ρ(u,Xu) du ∂f<br />

0 (s, X s ) σk i ∂x (s, X s) dBs k .<br />

i<br />

La fonction ρ étant minorée, on montre alors comme dans le théorème précédent que les processus<br />

∫ t<br />

exp ( − ∫ s<br />

ρ(u, X 0 0 u) du ) ∂f<br />

∂x i<br />

(s, X s ) σk i(s, X s) dBs k sont des martingales, ce qui conclut<br />

<strong>la</strong> démonstration. ✷<br />

Dans le cas de diffusions homogènes, l’opérateur différentiel défini par (2.20) est bien le<br />

générateur infinitésimal du processus de Markov homogène.<br />

Théorème 2.18 Le générateur infinitésimal A de <strong>la</strong> diffusion homogène X(x) solution de<br />

(2.18) avec <strong>la</strong> condition initiale x est bien son générateur en tant que processus de Markov<br />

homogène, c’est à dire que pour toute fonction f de c<strong>la</strong>sse C 2 dont les dérivées partielles<br />

d’ordre 1 et 2 sont bornées,<br />

1<br />

Af(x) = lim<br />

t→0 t [P 1<br />

tf(x) − f(x)] = lim<br />

t→0 t [E(f(X t(x)) − f(x)].<br />

Démonstration. D’après le Théorème 2.16, pour tout t ≥ 0,<br />

E[f(X t (x))] = f(x) +<br />

∫ t<br />

0<br />

E ( Af(X s (x) ) ds.<br />

Les trajectoires de X étant presque sûrement continues, celles de Af(X s ) le sont également.<br />

On en déduit que t → ∫ t<br />

Af(X 0 s(x))ds est P presque sûrement dérivable en 0 et que sa<br />

dérivée vaut Af(X 0 (x)) = Af(x).<br />

De plus, les dérivées partielles de f étant bornées par K > 0, <strong>la</strong> restriction sur <strong>la</strong><br />

croissance des coefficients montre que<br />

|Af(x)| ≤ K ∑ i<br />

|b i (x)| + ∑ i,j,k<br />

K|σ i k (x)σj k (x)| ≤ C(1 + |x|2 ).<br />

La propriété (2.7) montre alors que pour tout t > 0,<br />

sup |Af(X s )| ≤ C<br />

0≤s≤t<br />

( )<br />

1 + sup |X s | 2 ∈ L 1 .<br />

0≤s≤t<br />

Le théorème de convergence dominée permet de conclure.<br />

✷<br />

2.3.3 Théorème de comparaison<br />

Le théorème suivant permet de comparer presque sûrement des solutions d’EDS unidimensionnelles<br />

avec le même coefficient de diffusion, mais des conditions initiales et coefficients<br />

de dérive qui satisfont des inégalités simi<strong>la</strong>ires. Il s’avère souvent extrêmement utile<br />

en pratique. La preuve, qui utilise des arguments semb<strong>la</strong>bles à ceux de l’unicité trajectorielle<br />

vus précédemment, peut être trouvée dans [7].<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.4 Processus de Bessel 39<br />

Théorème 2.19 (Théorème de comparaison) Soit (B t , t ≥ 0) un mouvement brownien<br />

réel, b 1 , b 2 et σ des fonctions globalement lipschitziennes de R dans R, x 1 ≥ x 2 des nombres<br />

réels. Pour i = 1, 2, on considère les EDS<br />

X i t = x i +<br />

∫ t<br />

0<br />

b i (X i s) ds +<br />

∫ t<br />

0<br />

σ(X i s) dB s<br />

Supposons que b 1 (x) ≥ b 2 (x) pour tout x ∈ R. Alors X 1 t ≥ X2 t p.s. pour tout t ≥ 0.<br />

2.4 Processus de Bessel<br />

Dans <strong>la</strong> pratique, le théorème d’existence et d’unicité de solutions d’EDS sous les conditions<br />

usuelles sur les coefficients (conditions globales de Lipschitz et de restriction sur <strong>la</strong><br />

croissance) est parfois insuffisant pour ce qui concerne le coefficient de diffusion. On peut<br />

notablement améliorer ce théorème dans le cas réel.<br />

Théorème 2.20 (Yamada-Watanabe) Soit d = r = 1. Supposons que b et σ sont à croissance<br />

linéaire, c’est à dire satisfont <strong>la</strong> condition de restriction sur <strong>la</strong> croissance globale (2.4),<br />

que b vérifie <strong>la</strong> condition de Lipschitz globale (2.3) et que<br />

|σ(t, x) − σ(t, y)| ≤ ρ(|x − y|) , ∀t ≥ 0, ∀x, y ∈ R,<br />

où ρ :]0, +∞[→]0, +∞[ est une fonction borélienne strictement croissante telle que ρ(0) = 0<br />

et<br />

∫ ε<br />

dz<br />

ρ 2 (z) = +∞<br />

0<br />

pour tout ε > 0. Alors si X 0 = x ∈ R, il y a unicité forte pour l’équation (2.6).<br />

Une c<strong>la</strong>sse très importante d’EDS dont l’unicité forte est montrée en appliquant le<br />

théorème précédent est <strong>la</strong> suivante :<br />

X t = x + 2<br />

∫ t<br />

0<br />

√<br />

Xs dB s + δ t (2.25)<br />

où B est un Brownien réel et x, δ > 0. En effet, | √ x − √ y| ≤ √ |x − y| et le théorème<br />

de Yamada-Watanabe appliqué avec <strong>la</strong> fonction ρ(x) = √ x montre que (2.25) admet une<br />

unique solution forte. De plus, on peut montrer que cette solution est toujours positive et<br />

définie sur [0, +∞[. Cependant, le théorème 2.6 n’aurait pas permis d’obtenir ce résultat,<br />

car σ(x) = √ x n’est pas lipschitzienne en zéro. Le processus X est un processus de Bessel<br />

carré de dimension δ.<br />

Nous allons relier le processus de Bessel au Brownien. Soit n > 1 et B = (B 1 , B 2 , . . .,B n )<br />

un mouvement Brownien n-dimensionnel. Soit X le processus défini par X t = ||B t || ; alors<br />

Xt 2 = ∑ n<br />

i=1 (Bi t) 2 et <strong>la</strong> formule d’Itô montre que dXt 2 = ∑ n<br />

i=1 2Bi tdBt i + n dt.<br />

En notant (x, y) le produit sca<strong>la</strong>ire des vecteurs x et y, on voit que le processus β défini par<br />

dβ t = 1 X t<br />

(B t , dB t ) = 1<br />

||B t ||<br />

n∑<br />

Bt i dBi t , β 0 = 0,<br />

i=1<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


40 2 Équations différentielles stochastiques<br />

est une martingale continue de carré intégrable et <strong>la</strong> formule d’Itô montre que (βt 2 −t, t ≥ 0)<br />

est une martingale. La caractérisation de Paul Lévy entraîne que β est un mouvement<br />

brownien. L’égalité d(Xt 2 ) = 2(B t , dB t ) + ndt s’écrit<br />

d(X 2 t ) = 2X tdβ t + n dt .<br />

Ainsi, en posant V t = X 2 t on obtient que V est solution d’une EDS du type (2.25)<br />

dV t = 2 √ V t dβ t + n dt ,<br />

où β est un mouvement brownien. Puisque X t > 0 p.s., une nouvelle application de <strong>la</strong><br />

formule d’Itô montre que<br />

dX t = dβ t + n − 1 dt<br />

2 X t<br />

où β est un mouvement Brownien.<br />

On dit que X est un processus de Bessel (BES) de dimension n, et que V est un processus<br />

de Bessel carré (BESQ). Les processus de Bessel seront généralisés et utilisés en <strong>Finance</strong><br />

dans le modèle de Cox-Ingersoll-Ross décrit dans le dernier chapitre.<br />

2.5 Lien avec les EDP<br />

2.5.1 Problème parabolique<br />

Notons K n,p ([0, T] × R d ) l’ensemble des fonctions u : [0, T] × R d → R qui sont de c<strong>la</strong>sse<br />

C n par rapport à <strong>la</strong> variable t ∈ [0, T], de c<strong>la</strong>sse C p par rapport à <strong>la</strong> variable x ∈ R d et<br />

dont les dérivées partielles sont à croissance polynomiale, c’est à dire telles qu’il existe des<br />

constantes C > 0 et des entiers k tels que chaque dérivée partielle v de u satisfasse l’inégalité<br />

|v(t, x)| ≤ C (1 + |x| k ). On note K p (R d ) l’ensemble des fonctions u : R d → R de c<strong>la</strong>sse C p<br />

par rapport à <strong>la</strong> variable x ∈ R d dont les dérivées partielles sont à croissance polynomiale.<br />

L’exemple le plus simple d’EDP parabolique liée à un processus stochastique est l’équation<br />

de <strong>la</strong> chaleur en dimension 1, c’est à dire<br />

∂u σ2<br />

(t, x) =<br />

∂t 2<br />

∂ 2 u<br />

∂x2(t, x) , (t, x) ∈]0, +∞[×R , (2.26)<br />

où σ > 0 et où <strong>la</strong> condition initiale u(0, x) = f(x) est donnée par une fonction f : R → R<br />

borélienne à croissance polynomiale. Pour t > 0, notons p(t; x, .) <strong>la</strong> densité de x + σ B t où<br />

(B t , t ≥ 0) est un mouvement Brownien standard à valeurs réelles, c’est à dire <strong>la</strong> fonction<br />

Un calcul facile montre que ∂p = σ2<br />

∂t 2<br />

p(t; x, y) =<br />

∂ 2 p<br />

∂x 2 . Notons<br />

1<br />

σ √ 2 π t e−(x−y)2 2 σ 2 t .<br />

u(t, x) = E ( f(x + σ B t ) )<br />

pour tout t ≥ 0; alors u(0, x) = f(x). De plus, pour t > 0, u(t, x) = ∫ +∞<br />

p(t; x, y) f(y) dy<br />

−∞<br />

et <strong>la</strong> croissance polynomiale de f entraîne que l’on peut appliquer le théorème de dérivation<br />

sous le signe intégral. Pour tout couple d’entiers positifs m et n on a donc<br />

∂ n+m ∫ +∞<br />

∂t m ∂x nu(t, x) = ∂ n+m<br />

∂t m ∂xnp(t; x, y) f(y) dy ;<br />

−∞<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.5 Lien avec les EDP 41<br />

<strong>la</strong> fonction définie par u(t, x) = E[f(x+σ B t )] satisfait donc l’EDP ∂u σ2 ∂<br />

(t, x) = 2 u(t, x) sur<br />

∂t 2 ∂x 2<br />

]0, +∞[×R et appartient à K 1,2 ([ε, +∞[×R) pour tout ε > 0. Reste à vérifier le comportement<br />

asymptotique de u(t, y) quand (t, y) → (0, x). De nouveau, puisque f est à croissance<br />

polynomiale, si cette fonction est de plus continue, le théorème de convergence dominée<br />

entraîne que pour tout x ∈ R,<br />

lim u(t, y) = f(x) .<br />

(t,y)→(0,x)<br />

On a ainsi prouvé que l’équation (2.26) de condition initiale f continue à croissance<br />

polynomiale a une solution; reste à prouver l’unicité de <strong>la</strong> solution de (2.26) pour <strong>la</strong> condition<br />

initiale, ce qui donnera une interprétation probabiliste à <strong>la</strong> solution de cette EDP. De<br />

nouveau, on peut montrer l’unicité de <strong>la</strong> solution de (2.26) de façon probabiliste.<br />

Théorème 2.21 Soit u une fonction de c<strong>la</strong>sse C 1,2 sur ]0, T] × R qui satisfait l’équation<br />

de <strong>la</strong> chaleur (2.26), telle que sup |u(t, x)| soit à croissance polynomiale en x et telle pour<br />

0


42 2 Équations différentielles stochastiques<br />

Définition 2.23 Soit A t le générateur infinitésimal défini sur K 1,2 ([0, T] × R d ) par (2.21).<br />

Soit m un nombre réel, f : R d → R, g : [0, T] × R d → R d et ρ : [0, T] × R d → [m, +∞[<br />

des fonctions continues. La fonction v ∈ K 1,2 ([0, T[×R d ) satisfait le problème de Cauchy<br />

d’opérateur A t , de potentiel ρ, de Lagrangien g et de condition terminale f si c’est une<br />

fonction continue sur [0, T] × R d et si<br />

{ ∂v<br />

∂t (t, x) + A t v(t, x) − ρ(t, x) v(t, x) + g(t, x) = 0 pour (t, x) ∈ [0, T[×R d ,<br />

v(T, x) = f(x) pour x ∈ R d .<br />

(2.31)<br />

Étudions d’abord le cas g = 0, c’est à dire seulement l’existence d’un coefficient d’actualisation<br />

aléatoire ρ.<br />

Théorème 2.24 (Théorème de Feynman-Kac) Soit σ et b des fonctions satisfaisant les<br />

conditions globales de Lipschitz et de restriction sur <strong>la</strong> croissance (2.3) et (2.4), f, ρ des<br />

fonctions satisfaisant les conditions de <strong>la</strong> définition 2.23. Supposons que f ∈ K 0 (R d ). Pour<br />

tout t ∈ [0, T[ et x ∈ R d , notons (Xs t,x,<br />

s ∈ [t, T]) le processus solution de (2.30) et (F t = Ft B)<br />

<strong>la</strong> filtration naturelle du Brownien B. Alors une solution v du problème de Cauchy<br />

{ ∂v<br />

(t, x) + A ∂t t v(t, x) − ρ(t, x) v(t, x) = 0 pour (t, x) ∈ [0, T[×R d ,<br />

v(T, x) = f(x) pour x ∈ R d .<br />

admet <strong>la</strong> représentation stochastique :<br />

De plus, si (X t = X 0,x<br />

t<br />

v(t, x) = E<br />

[<br />

f(X t,x R T<br />

T )e− t<br />

]<br />

ρ(s,Xs<br />

t,x ) ds<br />

. (2.32)<br />

, t ∈ [0, T]) est <strong>la</strong> diffusion solution de (2.2), alors pour tout t ∈ [0, T],<br />

v(t, X t ) = E<br />

[e − R ]<br />

T<br />

t ρ(s,X s) ds ∣<br />

f(X T ) ∣F t . (2.33)<br />

Démonstration. La formule d’Itô montre que si v résout le problème de Cauchy (2.31) avec<br />

g = 0, le processus :<br />

M t,x<br />

s<br />

= e − R s<br />

t ρ(u,Xt,x u<br />

) du v(s, Xs t,x ) , s ∈ [t, T]<br />

est une (F t )-martingale, ce qui entraîne que M t,x<br />

t = E ( M t,x<br />

T | F t)<br />

. La propriété de martingale<br />

de (Ms 0,x , s ∈ [0, T]) et <strong>la</strong> condition terminale v(T, x) = f(x) montrent alors (2.33).<br />

Remarquons que de même, <strong>la</strong> condition terminale entraîne que<br />

v(t, x) = v(t, X t,x<br />

t ) = E<br />

[e − R T<br />

t<br />

∣ ]<br />

ρ(u,Xu<br />

t,x ) du f(X t,x ∣∣<br />

T ) Ft .<br />

Pour prouver (2.32), fixons (t, x) ∈ [0, T[×R d et notons τ n = inf{s ≥ t , |Xs t,x | ≥ n}. La formule<br />

d’Itô et le théorème d’arrêt pour les martingales entraînent que v(t, x) = E(M t,x<br />

T ∧τ n<br />

) =<br />

∑ 2<br />

i=1 T n, i avec :<br />

[<br />

Tn 1 (t, x) = E v(τ n , Xτ t,x<br />

n<br />

) e − R τn<br />

t<br />

T 2 n(t, x) = E<br />

]<br />

ρ(s,Xs t,x ) ds 1 {τn≤T }<br />

]<br />

[<br />

v(T, X t,x<br />

T ) e− R T<br />

0 ρ(s,Xt,x s ) ds 1 {τn>T }<br />

.<br />

,<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.5 Lien avec les EDP 43<br />

Une généralisation immédiate de (2.8) basée sur le lemme de Gronwall et l’inégalité de<br />

Burkholder montre que pour tout p ∈ [1, +∞[, E(sup t≤s≤T |Xs t,x|p<br />

) ≤ C p (1 + |x| p ). Il existe<br />

K > 0 tel que le terme |Tn(t, 1 x)| est dominé par Cn K P(τ n ≤ T). Pour tout p ∈ [1, +∞[,<br />

P(τ n ≤ T) ≤ C p n −p E ( sup |Xs t,x | p) ≤ C p n −p .<br />

t≤s≤T<br />

Choisissant p > K nous obtenons Tn 1 (t, x) → 0 quand n → +∞. Le théorème de convergence<br />

dominée entraîne que lorsque n → +∞,<br />

[<br />

Tn(t, 2 x) → E f(X t,x<br />

T ) R ]<br />

T<br />

e− 0 ρ(s,Xt,x s ) ds<br />

,<br />

ce qui termine <strong>la</strong> démonstration.<br />

✷<br />

Nous verrons dans l’exercice 2.6 que le problème de Cauchy (2.31) admet comme solution<br />

[<br />

]<br />

v(t, x) = E<br />

f(X t,x R T<br />

T )e− t ρ(s,Xs t,x ) ds +<br />

∫ T<br />

t<br />

g(s, X t,x<br />

s ) e − R s<br />

t ρ(u,Xt,x u ) du ds<br />

. (2.34)<br />

On déduit immédiatement du Théorème de Feynman Kac le résultat suivant. Soit r > 0<br />

et f : R d → R une fonction continue à croissance polynomiale. Alors si v continue sur<br />

[0, T] × R d et v ∈ K 1,2 ([0, T[×R d ) est solution du problème de Cauchy<br />

{ ∂v<br />

∂t (t, x) + A t v(t, x) = r v(t, x) pour (t, x) ∈ [0, T[×R d ,<br />

v(T, x) = f(x) pour x ∈ R d ,<br />

alors v(t, x) = E ( e −r(T −t) f(X t,x<br />

T )) .<br />

Ces liens entre diffusions et EDP peuvent être vus de deux façons.<br />

D’une part en « petite dimension » on peut utiliser des méthodes numériques d’EDP (différences<br />

finies ou éléments finis) afin de résoudre numériquement l’EDP (il faut encore des<br />

conditions pour qu’elle ait une solution unique) et en déduire une information sur l’espérance<br />

d’une fonction du processus.<br />

Mais les méthodes numériques, efficaces en petite dimension, deviennent très difficiles<br />

à implémenter en grande dimension. Par contre, les méthodes de Monte-Carlo ou de quasi<br />

Monte Carlo permettent d’approximer l’espérance d’une variable aléatoire ou d’un processus<br />

en une famille finie d’instants t et d’états x. On peut se servir de l’interprétation de <strong>la</strong> solution<br />

v(t, x) de l’EDP (sous réserve qu’elle soit unique) comme une espérance pour écrire cette<br />

fonction au point (t, x) à l’aide de l’espérance d’une diffusion. Par un schéma d’Euler de pas<br />

T/n, on sait approximer <strong>la</strong> trajectoire de <strong>la</strong> diffusion par celle d’un processus très simple et<br />

très rapide à simuler. La vitesse de convergence « forte » , qui donne une majoration de <strong>la</strong><br />

norme uniforme de <strong>la</strong> différence des trajectoires, est en 1/ √ n. Si on s’intéresse seulement à<br />

l’espérance d’une fonction de <strong>la</strong> diffusion en un instant T, <strong>la</strong> vitesse de convergence « faible »<br />

du schéma est en 1/n. L’espérance de <strong>la</strong> fonction du processus approximant à l’instant T<br />

est elle-même approximée par une moyenne d’après <strong>la</strong> loi forte des grands nombres. Le<br />

théorème de <strong>la</strong> limite centrale montre alors que si on dispose de N réalisations, <strong>la</strong> vitesse<br />

de convergence de <strong>la</strong> moyenne vers l’espérance est en √ 1<br />

N<br />

. Simuler une approximation de<br />

<strong>la</strong> diffusion par un schéma d’Euler est très simple et l’inconvénient est plutôt le nombre de<br />

simu<strong>la</strong>tions qu’il faut utiliser pour avoir une approximation « raisonnable ». Cette méthode<br />

est donc « lente », mais « insensible à <strong>la</strong> dimension ».<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


44 2 Équations différentielles stochastiques<br />

2.6 Exemples en finance<br />

Nous présentons ici deux exemples d’EDS importants en finance. Le modèle de B<strong>la</strong>ck &<br />

Sholes sera présenté de façon beaucoup plus approfondie dans le dernier chapitre.<br />

2.6.1 Problème de Sturm-Liouville - Temps d’occupation<br />

Nous venons de voir comment les diffusions permettent de résoudre explicitement certaines<br />

EDP. Les mêmes techniques peuvent être aussi employées pour l’étude de certaines<br />

EDO du deuxième ordre. On s’intéresse par exemple au problème suivant, dit de Sturm-<br />

Liouville :<br />

(α + k)f = f ′′<br />

2 + g (2.35)<br />

où α > 0, k : R → R + est une fonction continue et g : R → R une fonction continue telle<br />

que :<br />

∫<br />

|g(x + y)|e −|y|√2α dy < +∞<br />

R<br />

pour tout x ∈ R. Alors, si B est un Brownien standard issu de 0 et f ∈ K 2 , pour tout<br />

t > 0, le lien entre générateur infinitésimal et martingale décrit dans le théorème 2.17 avec<br />

ρ(t, y) = α + k(x + y) montre que le processus<br />

f(x+B t ) e − R t<br />

0 α+k(x+Bs)ds −f(x)−<br />

∫ t<br />

0<br />

[<br />

e − R s 1<br />

0 α+k(x+Bu)du 2 f ′′ (x + B s ) − ( α + k(x + B s ) ) ]<br />

f(x + B s ) ds<br />

est une (Ft B )-martingale. On en déduit que si f est une solution bornée de (2.35),<br />

E<br />

[f(x + B t ) e − R ] [∫ t<br />

]<br />

t<br />

0 α+k(x+Bs)ds − f(x) = −E e − R s<br />

0 α+k(x+Bu)du g(x + B s )ds .<br />

0<br />

Lorsque t → +∞, ceci entraîne :<br />

[∫ ∞<br />

f(x) = E<br />

0<br />

(<br />

g(x + B t ) exp −αt −<br />

∫ t<br />

0<br />

) ]<br />

k(x + B s )ds dt .<br />

Cette fonction est l’unique solution bornée de c<strong>la</strong>sse C 2 de (2.35).<br />

Ce résultat donne en particulier <strong>la</strong> transformée de Lap<strong>la</strong>ce de <strong>la</strong> variable aléatoire<br />

(<br />

g(B t ) exp −<br />

∫ t<br />

0<br />

)<br />

k(B s )ds<br />

(<br />

pour toute fonction g et donc par inversion <strong>la</strong> loi du couple B t , ∫ )<br />

t<br />

k(B 0 s)ds .<br />

Ce couple est très important en <strong>Finance</strong>, puisqu’il permet de « pricer » certaines options<br />

exotiques avec temps d’occupation. La formule de Feynman-Kac permet aussi de calculer <strong>la</strong><br />

densité de <strong>la</strong> variable aléatoire<br />

A + t =<br />

∫ t<br />

0<br />

1 [0,∞[ (B s ) ds<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.6 Exemples en finance 45<br />

qui représente le temps d’occupation de [0, +∞[ par le Brownien. En effet, si on pose k(x) =<br />

β1 [0,+∞[ (x) et g(x) = 1, en approximant k par une suite de fonctions continues on en déduit<br />

que pour α, β > 0 <strong>la</strong> fonction<br />

est solution de l’EDO<br />

[∫ ∞<br />

f(x) = E<br />

{<br />

0<br />

(<br />

exp −αt − β<br />

∫ t<br />

0<br />

) ]<br />

1 [0,∞) (x + B s )ds dt<br />

αf(x) = 1 − βf(x) + f ′′ (x)<br />

si x > 0,<br />

2<br />

αf(x) = 1 + f ′′ (x)<br />

si x < 0.<br />

2<br />

L’unique solution bornée et continue de cette EDO est donnée par :<br />

{<br />

Ae<br />

f(x) =<br />

−x√2(α+β) + 1 si x > 0,<br />

α+β<br />

Be x√2α + 1 si x < 0.<br />

α<br />

En imposant <strong>la</strong> continuité de f et f ′ en zéro, on trouve<br />

A =<br />

1 1<br />

√ −<br />

α(α + β) (α + β)<br />

et B =<br />

1<br />

√<br />

α(α + β)<br />

− 1 α ,<br />

ce qui entraîne<br />

∫ ∞<br />

0<br />

e −αt E<br />

[ ]<br />

e −βA+ t<br />

dt = f(0) =<br />

1<br />

√<br />

α(α + β)<br />

.<br />

Puisque Γ( 1 2 ) = √ π, le théorème de Fubini et un changement de variables montrent que<br />

∫ ∞<br />

0<br />

(∫ t<br />

e −αt du<br />

0<br />

e−βu<br />

π √ u(t−u)<br />

)<br />

dt = 1 √ π<br />

∫ +∞<br />

=<br />

0<br />

1 1<br />

√ √ . α + β α<br />

e −(α+β)u<br />

√ u<br />

du 1 √ π<br />

∫ +∞<br />

u<br />

e −α(t−u)<br />

√ t − u<br />

dt<br />

Puisque <strong>la</strong> transformée<br />

∫<br />

de Lap<strong>la</strong>ce caractérise <strong>la</strong> loi, on en déduit que pour tout β > 0,<br />

t<br />

E[e −βA+ t ] =<br />

0 e−βu √ 1 du, puis que <strong>la</strong> densité de π u(t−u) A+ t est <strong>la</strong> fonction h définie par<br />

h(u) =<br />

1<br />

π √ u(t − u) 1 ]0,t[(u).<br />

La fonction de répartition de cette loi est définie pour tout θ ∈]0, t[ par :<br />

P ( A + t ≤ θ ) =<br />

∫ θ<br />

0<br />

∫<br />

du<br />

θ/t<br />

π √ u(t − u) = ds<br />

π √ s(1 − s) = 2 √<br />

θ<br />

π Arcsin t .<br />

0<br />

La loi de A + t est appelée loi de l’arcsinus. On remarque enfin que pour θ ∈]0, t[,<br />

P ( A + t ≤ θ ) = P ( tA + 1 ≤ θ ) ,<br />

ce qui montre que les variables A + t et tA + 1 ont même loi. On aurait pu aussi obtenir ce<br />

résultat directement par « scaling » du Brownien.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


46 2 Équations différentielles stochastiques<br />

2.6.2 Introduction à <strong>la</strong> formule de B<strong>la</strong>ck & Sholes<br />

Nous présentons sommairement cet exemple fondamental, qui sera repris de façon plus<br />

systématique dans le dernier chapitre. On considère un marché financier comportant un<br />

actif dit sans risque de taux constant r, tel que S0 0 = 1, donc de prix à l’instant t donné par<br />

St 0 = ert (soit dSt 0 = rS0 t dt) et un actif risqué dont le prix S t à l’instant t vérifie<br />

S t = S 0 exp ( σB t + (b − σ 2 /2)t ) . (2.36)<br />

C’est le Brownien géométrique vu dans l’exemple 2.7, solution de l’EDS linéaire<br />

dS t = σ S t dB t + bS t dt ,<br />

où S 0 > 0, B est un mouvement brownien et b, σ ∈ R. On remarque que ce processus garde<br />

des valeurs strictement positives et qu’à chaque instant t > 0, E(S t ) = S 0 e bt . Le processus<br />

S t croit donc en moyenne comme un actif sans risque de rendement constant b. De plus,<br />

( )<br />

E(St 2 ) = S2 0 e2bt+σ2t E e 2σBt−(2σ)2 t 2 = S0 2 e2bt+σ2t ,<br />

)<br />

ce qui entraîne que V ar(S t ) = S0 (e 2e2bt σ2t − 1 . Le coefficient σ est appelé <strong>la</strong> vo<strong>la</strong>tilité et<br />

mesure <strong>la</strong> sensibilité à l’aléa, c’est à dire le risque de l’actif. C’est lui qui permet de quantifier<br />

les écarts entre S t et son espérance. On remarque facilement en utilisant l’expression explicite<br />

de S t ( que( pour tout ) δ > ) 0 qui modélise un intervalle de temps (par exemple un jour), <strong>la</strong><br />

S(j+1)δ<br />

suite ln<br />

S jδ<br />

, j ≥ 0 est une suite indépendante équidistribuée de variables aléatoires<br />

( )<br />

gaussiennes N (b − σ2)δ<br />

, 2 , σ 2 δ et il est donc facile de tester <strong>la</strong> validité du modèle sur des<br />

données réelles. On constate d’ailleurs que ce modèle rend( mal compte ) de <strong>la</strong> réalité. Un<br />

S(j+1)δ<br />

développement limité de ln(1 + u) permet d’approximer ln<br />

S jδ<br />

, par S (j+1)δ−S jδ<br />

S jδ<br />

afin de<br />

tester le caractère i.i.d. gaussien des rendements successifs observés.<br />

Pour qu’un investisseur ayant une aversion au risque préfère un actif risqué à un actif<br />

sans risque, il faut bien sûr que son rendement espéré b soit supérieur à r et <strong>la</strong> différence<br />

b − r est une « prime de risque ». Plus <strong>la</strong> vo<strong>la</strong>tilité σ est grande, plus l’actif est risqué et<br />

dans ce cas, plus <strong>la</strong> valeur de b doit être grande pour que l’investisseur préfère S t à l’actif<br />

sans risque St 0.<br />

On fixe un horizon T > 0 et on souhaite donner le prix d’un actif financier qui versera<br />

h(S T ) à <strong>la</strong> date T. Le cas d’un call Européen de maturité T et de strike K correspond au<br />

cas h(x) = (x − K) + .<br />

On procède par duplication (hedging) : on forme un portefeuille qui comprend α t parts<br />

de l’actif sans risque S 0 t (le montant de <strong>la</strong> richesse investie dans cet actif à <strong>la</strong> date t est donc<br />

α t e rt ) et de ∆ t parts de l’actif risqué S t .<br />

On suppose que le marché est sans friction, c’est à dire qu’il n’y a pas de coût de<br />

transaction (d’achat ou de vente des actifs), que l’on peut vendre à découvert (c’est à dire<br />

que les coefficients α t et ∆ t peuvent être négatifs), que les actifs sont indéfiniment divisibles<br />

(α t et ∆ t sont à valeurs réelles) et que le trading se fait en continu (c’est à dire que α t et<br />

∆ t peuvent varier à chaque instant t).<br />

On veut trouver un portefeuille « auto-finançant » (c’est à dire ne nécessitant pas de<br />

mise de fonds autre qu’à <strong>la</strong> date 0), qui ne verse pas de dividende (duquel on ne retire pas<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.6 Exemples en finance 47<br />

de l’argent avant <strong>la</strong> date T) et de valeur terminale h(S T ). La valeur de ce portefeuille à <strong>la</strong><br />

date t est<br />

V t = α t S 0 t + ∆ t S t .<br />

La condition d’autofinancement se formalise par<br />

dV t = α t dS 0 t + ∆ t dS t ,<br />

soit<br />

dV t = α t rS 0 t dt + ∆ t[bS t dt + σS t dB t ] = σ∆ t S t dB t + [ rV t + ∆ t S t (b − r) ] dt.<br />

La valeur initiale du portefeuille sera <strong>la</strong> valeur de l’actif financier. On suppose que <strong>la</strong><br />

valeur V t du portefeuille à <strong>la</strong> date t est une fonction déterministe du temps et de <strong>la</strong> valeur<br />

de l’actif risqué, soit V t = V (t, S t ). En utilisant <strong>la</strong> formule d’Itô, on calcule<br />

dV t =<br />

( ∂V<br />

∂t (t, S ∂V<br />

t) + bS t<br />

∂x (t, S t) + σ2 St<br />

2<br />

2<br />

) ( )<br />

∂ 2 V<br />

∂x (t, S ∂V<br />

t) dt + σS 2 t<br />

∂x (t, S t) dB t .<br />

En utilisant <strong>la</strong> condition d’autofinancement et en identifiant les parties martingales on obtient<br />

(parce que S t > 0 pour tout t)<br />

σ∆ t S t = σS t<br />

∂V<br />

∂x (t, S t) soit<br />

∆ t = ∂V<br />

∂x (t, S t) ,<br />

ce qui entraîne alors en identifiant les parties à variation finie<br />

∂V<br />

rS t<br />

∂x (t, S t) + ∂V<br />

∂t (t, S t) + σ2 St<br />

2<br />

2<br />

∂ 2 V<br />

∂x 2 (t, S t) − rV (t, S t ) = 0 ,<br />

avec pour condition terminale V (T, S T ) = h(S T ). Comme S t est une variable aléatoire<br />

qui peut prendre toutes les valeurs de ]0, +∞[, on en déduit que V satisfait l’EDP sur<br />

[0, +∞[×[0, +∞[ :<br />

rx ∂V ∂V<br />

(t, x) +<br />

∂x ∂t (t, x) + σ2 x 2<br />

2<br />

∂ 2 V<br />

(t, x) − rV (t, x) = 0 , (2.37)<br />

∂x2 avec pour condition terminale V (T, x) = h(x). On notera que le coefficient b a disparu.<br />

Nous allons résoudre cette EDP dans le cas d’un call européen, c’est à dire pour une<br />

condition terminale h(x) = (x − K) + , avec σ > 0. On note C <strong>la</strong> valeur du portefeuille dans<br />

ce cas particulier, Les détails des calculs sont <strong>la</strong>issés en exercice (cf. Exercice 2.5). Nous<br />

verrons au chapitre suivant une façon plus rapide et moins technique de les retrouver.<br />

Les résultats précédents entraînent que C satisfait l’équation (2.37)<br />

∂C<br />

(t, x) + rx∂C<br />

∂t ∂x (t, x) + σ2 x 2<br />

2<br />

∂ 2 C<br />

(t, x) = rC(t, x) ,<br />

∂x2 avec C(T, x) = (x−K) + . La formule de Feynman-Kac (2.32) appliquée à <strong>la</strong> fonction f(x) =<br />

(x −K) + et à ρ(s, x) = r montre que <strong>la</strong> valeur du call européen à l’instant t, est donnée par<br />

[<br />

]<br />

C(t, x) = E e r(t−T) (˜S t,x<br />

T − K)+ , (2.38)<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


48 2 Équations différentielles stochastiques<br />

avec<br />

˜S t,x<br />

T<br />

= xeσ(B T −B t)+<br />

(r− σ2<br />

2<br />

)<br />

(T −t)<br />

t,x t,x<br />

solution de l’EDS d ˜S s = σ ˜S s dW t,x<br />

t,x<br />

s + b ˜S s ds pour s ≥ t et ˜S t = x.<br />

Puisque B T − B t suit une loi gaussienne N(0, T − t), on peut calculer explicitement<br />

C(t, x). Pour tout a ∈ R, notons<br />

F(a) = 1 √<br />

2π<br />

∫ a<br />

−∞<br />

e − x2<br />

2 dx<br />

<strong>la</strong> fonction de répartition d’une loi gaussienne N(0, 1). La solution de l’équation (2.38) est<br />

donnée par <strong>la</strong> formule suivante de B<strong>la</strong>ck & Sholes<br />

C(t, x) = xF(d 1 ) − Ke −r(T −t) F(d 2 ),<br />

avec les notations<br />

d 1 =<br />

1<br />

σ √ T − t<br />

(<br />

ln ( xe r(T −t) /K ) + 1 )<br />

2 σ2 (T − t)<br />

et d 2 = d 1 − σ √ T − t. (2.39)<br />

La quantité<br />

∆ t = ∂C<br />

∂x (t, ˜S t ) = F(d 1 ),<br />

qui représente le nombre de parts de l’actif sous-jacent utilisées pour répliquer l’option s’appelle<br />

le Delta de l’option et représente aussi <strong>la</strong> sensibilité du prix de l’option par rapport au<br />

prix du sous-jacent. Le couple (C(t, S t ) −∆ t S t , ∆ t ) représente le portefeuille de couverture.<br />

D’autre part, le théorème de Feynman-Kac 2.24 appliqué au cas ρ(s, x) = r et f(x) =<br />

(x − K) + montre en appliquant l’équation (2.33) que si ˜S s = Ss 0,x est <strong>la</strong> solution de d˜S t =<br />

σ˜S t dB t + r˜S t dt,<br />

C(t, ˜S<br />

]<br />

t ) = e −(T −t) E<br />

[(˜S T − K) + |F t (2.40)<br />

L’expression (2.38) permet également de retrouver le Delta de l’option de façon différente.<br />

Dans le cas t = 0, on a<br />

C(0, x) = E [ e −rT (xM T e rT − K) + ) ] ,<br />

avec <strong>la</strong> notation ˜S t = xM t e rt S<br />

et où M t = e σ2<br />

t σBt−<br />

= xe<br />

St<br />

0 2 t pour t ≥ 0 est une martingale. En<br />

dérivant par rapport à x sous l’espérance, on retrouve<br />

où d 1 est <strong>la</strong> constante précédente.<br />

∂C<br />

∂x (0, x) = E [ ]<br />

M T 1 {xMT e rT ≥K} = F(d1 ),<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.7 Exercices 49<br />

2.7 Exercices<br />

Exercice 2.1 Le but de cet exercice est de proposer deux généralisations du Lemme de<br />

Gronwall.<br />

(i) Soit f : [0, T] → R une fonction continue. Supposons qu’il existe une constante b > 0<br />

et une fonction a : [0, T] → R positive intégrable telle que pour tout t ∈ [0, T],<br />

0 ≤ f(t) ≤ a(t) + b<br />

∫ t<br />

0<br />

f(s)ds. (2.41)<br />

Alors f(t) ≤ a(t) + b ∫ t<br />

0 a(s)eb(t−s) ds pour tout t ∈ [0, T].<br />

(ii) Soit f : [0, T] → R une fonction borélienne bornée. Supposons qu’il existe une<br />

constante a > 0 et une fonction intégrable positive b : [0, T] → R telle que 0 ≤ f(t) ≤<br />

a + ∫ t<br />

b(s)f(s)ds. Montrer que si H(t) = ∫ t<br />

b(s)ds, f(t) ≤ 0 0 aeH(t) pour tout t ∈ [0, T].<br />

Exercice 2.2 Processus d’Ornstein-Uhlenbeck Soit X 0 , σ et b des constantes réelles,<br />

(B t ) un Brownien standard de dimension 1, X le processus solution de l’équation de Langevin<br />

∫ t<br />

X t = X 0 + σB t − b X s ds.<br />

0<br />

1. Montrer que si X 1 et X 2 sont solutions de l’équation de Langevin, X 1 = X 2 .<br />

(<br />

2. Soit Y t = e −bt X 0 + σ ∫ t<br />

0 ebs dB s<br />

). Montrer que<br />

Y t = e −bt (X 0 − bσ<br />

∫ t<br />

En appliquant le théorème de Fubini, en déduire que<br />

b<br />

∫ t<br />

0<br />

Y s ds = X 0<br />

(<br />

1 − e<br />

−bt ) + bσ<br />

∫ t<br />

0<br />

0<br />

)<br />

e bs B s ds + σB t .<br />

e −b(t−u) B u du = X 0 − Y t + σB t .<br />

En déduire que l’unique solution de l’équation de Langevin est<br />

∫ t<br />

)<br />

X t = e<br />

(X −bt 0 + σ e bs dB s .<br />

3. Montrer que pour tout t, <strong>la</strong> loi de X t est gaussienne N<br />

tout s < t, calculer Cov(X s , X t ).<br />

0<br />

(<br />

)<br />

X 0 e −bt , σ2<br />

(1 − 2b e−2bt ) . Pour<br />

Exercice 2.3 Processus de Vasicek On généralise le processus précédent en ajoutant<br />

une constante dans le terme de dérive<br />

dY t = σdB t + a(b − Y t )dt.<br />

Cette EDS a été étudiée pour modéliser l’évolution des taux d’intérêt d’un marché financier<br />

et est appelée « mean-reversing » car si a et b sont positifs, le processus Y t tend vers b (en<br />

un sens à préciser).<br />

1. Montrer que X t = Y t − b est solution de l’équation de Langevin.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


50 2 Équations différentielles stochastiques<br />

2. On suppose que X 0 est une constante. En déduire une expression explicite de Y t , puis<br />

<strong>la</strong> loi de E(Y t ) et Cov(Y s , Y t ) pour 0 ≤ s ≤ t.<br />

3. On suppose que X 0 suit une loi gaussienne N(m, σ0) 2 et est indépendante de (B t ). Reprendre<br />

<strong>la</strong> question précédente et calculer <strong>la</strong> loi du vecteur (Y s , Y t ) pour<br />

0 ≤ s < t, l’espérance de Y t et <strong>la</strong> covariance de Y s et Y t . Si Y 0 > 0, Le processus<br />

Y t garde-t-il des valeurs positives?<br />

Pour 0 ≤ t ≤ T, calculer E<br />

(<br />

exp<br />

( ∫ T<br />

t<br />

Y u du<br />

)∣ ) ∣∣F B<br />

t .<br />

Exercice 2.4 Soit (B t ) un (F t )-Brownien standard de dimension r, (σ k (s), s ≥ 0) et<br />

(b(s), s ≥ 0) des processus réels progressivement mesurables définis pour k = 1, · · · , r,<br />

et M une constante réelle telle que sup 0≤t≤T (‖σ(s)‖ 2 + |b(s)|) ≤ M p.s. Pour tout X 0 ∈ R<br />

on veut résoudre explicitement l’EDS linéaire suivante (à coefficients non constants)<br />

X t = X 0 +<br />

∫ t<br />

0<br />

σ(s)X s dB s +<br />

∫ t<br />

0<br />

b(s)X s ds. (2.42)<br />

1. On suppose qu’il existe une constante réelle M telle que sup (‖σ(s)‖ 2 + |b(s)|) ≤ M<br />

0≤t≤T<br />

p.s. En reprenant <strong>la</strong> démonstration du Théorème 2.6 montrer que (2.42) a une unique<br />

solution telle que sup 0≤t≤T E(|X t | 2 ) < +∞. Sous quelles conditions supplémentaires<br />

ce processus satisfait-il <strong>la</strong> propriété de Markov?<br />

2. On suppose que (S t ) est un processus d’Itô (continu) à valeurs strictement positives<br />

tels que si dS t = ∑ k<br />

j=1 H k(s)dBs k+H 0(s)ds et si on note σ j (t) = H j(t)<br />

pour j = 1, · · · , k<br />

St<br />

i<br />

et b(t) = H 0(t)<br />

, on a ∫ T<br />

S i (t) 0 (‖σ(s)‖2 + |b(s)|)ds < +∞ p.s. Comparer ces hypothèses à<br />

celles de <strong>la</strong> question précédente.<br />

3. On suppose que les hypothèses de l’une des questions précédentes sont satisfaites. Soit<br />

( ∫ t ∫ t<br />

Y t = exp − σ(s)dB s +<br />

(−b(s) + 1 ) )<br />

2 ‖σ(s)‖2 ds .<br />

<strong>Calcul</strong>er dY t puis d(X t Y t ) et en déduire que<br />

(∫ t<br />

X t = X 0 exp σ(s)dB s +<br />

0<br />

0<br />

0<br />

∫ t<br />

0<br />

(b(s) − 1 ) )<br />

2 ‖σ(s)‖2 ds . (2.43)<br />

Exercice 2.5 Le but de cet exercice est de donner une première méthode pour trouver<br />

l’équation (2.39) du modèle de B<strong>la</strong>ck & Sholes.<br />

1. Montrer que <strong>la</strong> solution de l’équation de B<strong>la</strong>ck & Sholes (2.37) est<br />

avec C(T, x) = (x − K) + .<br />

où<br />

˜S<br />

t,x<br />

T<br />

∂C<br />

(t, x) + rx∂C<br />

∂t ∂x (t, x) + σ2 x 2<br />

2<br />

= xeσ(B T −B t)+<br />

(r− σ2<br />

2<br />

∂ 2 C<br />

(t, x) = rC(t, x)<br />

∂x2 2. Montrer que <strong>la</strong> valeur du call européen à l’instant t, est donnée par (2.38)<br />

[<br />

]<br />

C(t, x) = E e r(t−T) (˜S t,x<br />

T − K)+ ,<br />

)<br />

(T −t) .<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.7 Exercices 51<br />

3. Montrer que que si G ∼ N(0, 1), α = σ √ T − t > 0 et β = ( )<br />

r − σ2<br />

2 (T − t),<br />

[<br />

]<br />

E e −r(T −t) (˜S t,x<br />

T − K)+ = xe −r(T −t) E [ ]<br />

e α G+β 1 {α G+β≥ln(K/x)}<br />

−Ke −r(T −t) P (α G + β ≥ ln(K/x)) .<br />

∫<br />

4. Notons F(x) = √ 1 x /2<br />

2π<br />

du <strong>la</strong> fonction de répartition d’une variable aléatoire<br />

−∞ e−u2<br />

G gaussienne N(0, 1). Montrer que pour tout α > 0, β ∈ R, K > 0 et x > 0,<br />

P ( α G + β ≥ ln(K/x) ) ( ) ln(x/K) + β<br />

= F<br />

α<br />

et<br />

5. Montrer <strong>la</strong> formule (2.39).<br />

E ( (<br />

)<br />

e αG+β 1 {αG+β>ln(K/x)} = e<br />

β+ α2<br />

2 F α + ln(x/K) + β )<br />

α<br />

Exercice 2.6 Le but de l’exercice est de généraliser <strong>la</strong> formule de Feynman-Kac montrée<br />

dans le Théorème 2.24 en prouvant (2.34).<br />

Soit σ et b des fonctions satisfaisant les conditions (2.3) et (2.4), f, g, ρ des fonctions satisfaisant<br />

les conditions de <strong>la</strong> définition 2.23. Supposons que f ∈ K 0 (R d ) et que sup 0≤t≤T |g(t, x)|<br />

est à croissance polynomiale. Pour tout t ∈ [0, T[ et x ∈ R d , notons (Xs t,x , s ∈ [t, T]) le processus<br />

solution de (2.30) et (F t = Ft B ) <strong>la</strong> filtration naturelle du Brownien B. Alors une<br />

solution v du problème de Cauchy (2.31)<br />

{ ∂v<br />

(t, x) + A ∂t t v(t, x) − ρ(t, x) v(t, x) + g(t, x) = 0 pour (t, x) ∈ [0, T[×R d ,<br />

v(T, x) = f(x) pour x ∈ R d .<br />

admet <strong>la</strong> représentation stochastique :<br />

[<br />

v(t, x) = E<br />

f(X t,x R T<br />

T )e− ρ(s,X t,x<br />

t s ) ds +<br />

∫ T<br />

t<br />

g(s, X t,x<br />

s ) e − R s<br />

t ρ(u,Xt,x u ) du ds<br />

Les cinq exercices suivants étudient de façon systématique <strong>la</strong> solution de l’EDS<br />

dX t = (αX t + a)dB t + (βX t + b)dt , X 0 = x.<br />

Exercice 2.7 Préliminaire<br />

Soit a, α, b, β des constantes réelles positives et x ∈ R. On considère l’EDS<br />

dX t = (αX t + a)dB t + (βX t + b)dt , X 0 = x. (2.44)<br />

1. Montrer que (2.44) admet une unique solution forte.<br />

2. On note m(t) = E(X t ) et M(t) = E(X 2 t ).<br />

(a) Montrer que m(t) est <strong>la</strong> solution de d’EDO<br />

Résoudre cette EDO.<br />

y ′ − βy = b , y(0) = x. (2.45)<br />

]<br />

.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


52 2 Équations différentielles stochastiques<br />

(b) Écrire X2 t comme processus d’Itô en utilisant <strong>la</strong> formule d’Itô pour <strong>la</strong> solution<br />

X t de (2.44). Montrer que l’intégrale stochastique est une martingale de carré<br />

intégrable.<br />

(c) En déduire que si on note m(t) <strong>la</strong> solution de (2.45), M(t) est <strong>la</strong> solution de<br />

l’EDO<br />

y ′ − (2β + α 2 )y = 2(b + aα)m + a 2 , y(0) = x 2 .<br />

Résoudre cette EDO.<br />

Exercice 2.8 Premier cas particulier a = b = 0<br />

Soit (Y t ) <strong>la</strong> solution de (2.44) avec a = b = 0 et x = 1.<br />

“<br />

1. Montrer que Y t = e αBt+ β− α2<br />

2<br />

”<br />

t .<br />

2. Montrer que si β ≥ 0, (Y t ) est une (F t )-sous-martingale. A quelle condition sur β le<br />

processus (Y t ) est-il une martingale?<br />

3. Soit (Z t ) le processus d’Itô défini par<br />

Z t = x + a<br />

∫ t<br />

0<br />

∫ t<br />

Ys<br />

−1 dB s + (b − aα)<br />

0<br />

Ys<br />

−1 ds.<br />

Montrer que ce processus est bien défini et calculer 〈Y, Z〉 t . En déduire que <strong>la</strong> solution<br />

(X t ) de (2.44) peut s’écrire X t = Y t Z t .<br />

Exercice 2.9 Second cas particulier α = b = 0<br />

On note (X t ) <strong>la</strong> solution de l’EDS<br />

1. Montrer que l’unique solution de (2.46) est<br />

dX t = adB t + βX t dt , X 0 = x. (2.46)<br />

∫ t<br />

)<br />

X t = e<br />

(x βt + a e −βs dB s .<br />

0<br />

(On pourra soit utiliser l’exercice précédent, soit poser Y t = e −βt X t et résoudre<br />

l’équation vérifiée par Y .)<br />

2. Montrer que pour tout choix d’instants t 1 < t 2 < · · · < t d , le vecteur ξ = (X t1 , · · ·X td )<br />

est gaussien. <strong>Calcul</strong>er E(ξ) et <strong>la</strong> matrice de covariance de ξ.<br />

3. Pour tout t ≥ 0, on note I t = ∫ t<br />

X 0 sds. Montrer que pour tout choix d’instants<br />

t 1 < t 2 < · · · < t d , le vecteur (I t1 , · · ·I td ) est gaussien. <strong>Calcul</strong>er E(e It ) pour tout t ≥ 0.<br />

4. <strong>Calcul</strong>er E(X t |F s ) et V ar(X t |F s ) pour tout 0 < s < t.<br />

5. Soit (X t ) <strong>la</strong> solution de (2.46) et φ une fonction de c<strong>la</strong>sse C 2 . Écrire <strong>la</strong> formule d’Itô<br />

pour Z t = φ(X t ). En déduire que si φ(x) = ∫ (<br />

x<br />

exp −β<br />

)dy,<br />

y2<br />

0 a 2<br />

Z t = a<br />

∫ t<br />

0<br />

( )<br />

exp −β B2 s<br />

dB<br />

a 2 s .<br />

Le processus (Z t ) est-il une martingale de carré intégrable?<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


2.7 Exercices 53<br />

6. Fixons λ ∈ R. <strong>Calcul</strong>er<br />

Φ(t, y) = E<br />

( )<br />

e λX2 t<br />

.<br />

Pour t > 0 fixé, étudier <strong>la</strong> (F t )-martingale ( E(e λX2 t |Fs ), 0 ≤ s ≤ t ) . Montrer que Φ<br />

est solution d’une équation aux dérivées partielles que l’on explicitera. Soit Ψ(t, x) =<br />

ln(Φ(t, x)). Montrer que<br />

Ψ(t, x) = x 2 a(t) + b(t) avec a ′ (t) = −a(t)(2β + a 2 a(t)), et b ′ (t) = −a 2 a(t).<br />

Exercice 2.10 Troisième cas particulier b = β = 0<br />

Soit (X t ) <strong>la</strong> solution de l’EDS<br />

dX t = (αX t + a)dB t , X 0 = x ≠ − a α . (2.47)<br />

Soit h <strong>la</strong> fonction définie par<br />

h(y) = 1 ∣ ∣∣∣<br />

α ln a + αy<br />

a + αx∣ pour y ≠ −a α .<br />

1. Soit Y t = h(X t ). Quelle est l’équation vérifiée par Y t ?<br />

2. En déduire que <strong>la</strong> solution de (2.47) est<br />

X t =<br />

(<br />

x + a )<br />

exp<br />

α<br />

)<br />

(− α2<br />

2 t + αB t − a α .<br />

Exercice 2.11 Quatrième cas particulier b = 1 et a = 0<br />

Soit (X t ) <strong>la</strong> solution de (2.44) dans le cas b = 1 et a = 0. On note Y t = e −βt X t .<br />

Quelle est l’équation satisfaite par Y t ? <strong>Calcul</strong>er E(X t ) et V ar(X t ).<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


54 3 Théorème de Girsanov<br />

3 Théorème de Girsanov<br />

Avec <strong>la</strong> formule d’Itô, le théorème de Girsanov est l’outil fondamental du calcul stochastique.<br />

Il décrit comment changer de façon absolument continue <strong>la</strong> loi de certains processus.<br />

Plus précisément, on considère un processus (X t , t ≥ 0) défini sur un espace probabilisé<br />

filtré (Ω, F, (F t ), P), dont <strong>la</strong> loi sous P peut être délicate à étudier. On « perturbe » <strong>la</strong><br />

probabilité P en <strong>la</strong> multipliant par une (F t )-martingale exponentielle. On obtient alors une<br />

nouvelle probabilité Q, sous <strong>la</strong>quelle le processus X suit une autre loi, plus simple à étudier.<br />

On étudie cette loi sous <strong>la</strong> probabilité Q et on revient à <strong>la</strong> probabilité P avec <strong>la</strong> martingale<br />

exponentielle. Les applications de cette méthode sont multiples, aussi bien en finance que<br />

pour l’étude du mouvement brownien.<br />

Convention Dans tout ce chapitre, nous serons amenés à utiliser simultanément plusieurs<br />

probabilités sur un espace mesurable (Ω, F). Si P désigne une telle probabilité, nous noterons<br />

E P (X) = ∫ XdP l’espérance d’une variable aléatoire positive ou P-intégrable X, et de<br />

même E P (X | G) l’espérance conditionnelle de X par rapport à <strong>la</strong> sous-tribu G de F sous <strong>la</strong><br />

probabilité P.<br />

3.1 Changement de probabilité<br />

Soit (Ω, F, P) un espace probabilisé et L une v.a. F-mesurable positive telle que E P (L) =<br />

1, c’est à dire d’espérance 1 sous P. On définit une nouvelle probabilité Q sur F de densité<br />

L par rapport à P en posant Q(A) = E P (L1 A ) pour tout A ∈ F ; on note dQ = L dP.<br />

Alors une variable aléatoire X est Q intégrable si et seulement si LX est P-intégrable; si<br />

X est positive ou Q-intégrable, E Q (X) = E P (LX). De plus, Q est absolument continue par<br />

rapport à P, c’est à dire que pour tout A ∈ F, P(A) = 0 entraîne Q(A) = 0. Si L > 0 P<br />

p.s., alors P est absolument continue par rapport à Q, ce qui entraîne que les probabilités P<br />

et Q sont équivalentes, et <strong>la</strong> probabilité P a pour densité 1 par rapport à Q.<br />

L<br />

Lemme 3.1 Soit (Ω, F, (F t ), P) un espace probabilisé filtré, T > 0. Soit L T une variable<br />

aléatoire F T -mesurable positive ou nulle telle que E P (L T ) = 1. Pour tout t ∈ [0, T], soit<br />

L t = E P (L T | F t ).<br />

(i) Pour tout t < T, si on note dQ| Ft (resp. dP| Ft ) <strong>la</strong> restriction de Q (resp. P) à F t ,<br />

on a<br />

dQ| Ft = L t dP| Ft .<br />

(ii) Soit (M t , t ≥ 0) un processus. C’est une (F t , t ∈ [0, T])-martingale (resp. une (F t , t ∈<br />

[0, T])-martingale locale) sous Q si et seulement si le processus (L t M t , t ∈ [0, T]) est une<br />

(F t , t ∈ [0, T])-martingale (resp. une (F t , t ∈ [0, T])-martingale locale) sous P.<br />

(iii) Si L T > 0 P p.s., les probabilités P et Q sont équivalentes, pour tout t ∈ [0, T],<br />

L t > 0 P (ou Q) presque sûrement, ( 1 L t<br />

, 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T) martingale<br />

sous Q et si Z est F t mesurable et positive ou bien Q-intégrable, pour tout s ∈ [0, t],<br />

E Q (Z | F s ) = E P(ZL t | F s )<br />

L s<br />

= E P(ZL t | F s )<br />

E P (L t | F s ) .<br />

Démonstration. La filtration (F t , t ∈ [0, T]) étant fixée, les martingales considérées (sous les<br />

probabilités P ou Q) le seront toujours par rapport à cette filtration sans que ce soit précisé.<br />

(i) Pour tout t < T et tout A ∈ F t on a<br />

Q(A) = E P (L T 1 A ) = E P (E P [L T | F t ] 1 A ) = E P (L t 1 A ) .<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


3.2 Formule de Cameron Martin 55<br />

(ii) Supposons que (M t , t ∈ [0, T]) est une Q-martingale. Pour tout s ≤ t ≤ T et tout<br />

A ∈ F s on a<br />

E P (L t M t 1 A ) = E Q (M t 1 A ) = E Q (M s 1 A ) = E P (L s M s 1 A )<br />

et l’on en déduit que (L t M t , t ∈ [0, T]) est une P-martingale. La réciproque se démontre de<br />

façon simi<strong>la</strong>ire. Si M est une martingale locale sous Q, <strong>la</strong> suite croissante de temps d’arrêt<br />

τ n → ∞ telle que (M τn∧t, t ∈ [0, T]) est une (F t )-martingale sous Q fait de (M τn∧tL τn∧t, t ∈<br />

[0, T]) une (F t )-martingale sous P.<br />

(iii) Puisque L T > 0, <strong>la</strong> mesure P est absolument continue par rapport à Q de densité<br />

1<br />

L T<br />

sur F T . Pour tout t ∈ [0, T], <strong>la</strong> variable aléatoire 1 L t<br />

: Ω → [0, +∞] est positive telle que<br />

E Q (1/L t ) = E P (L t /L t ) = 1. On a donc 1 L t<br />

< +∞ Q p.s., soit L t > 0 Q (et P) p.s.<br />

Soit Z ∈ L 1 (Q) une variable aléatoire F t -mesurable. Alors, pour s ≤ t, L −1<br />

s E P(ZL t |F s )<br />

est F s -mesurable et pour tout A ∈ F s ,<br />

E Q (Z1 A ) = E P (Z1 A L t ) = E P (1 A E P (ZL t | F s )) = E Q (1 A L −1<br />

s E P (ZL t | F s )),<br />

donc E Q (Z|F s ) = L −1<br />

s E P(ZL t |F s ) Q p.s. (ou P p.s.). Le raisonnement est simi<strong>la</strong>ire si Z ≥ 0<br />

est F t mesurable.<br />

Montrons que pour tout t ∈ [0, T], L −1<br />

t<br />

F t -mesurable et bornée; alors Z L −1<br />

t<br />

E Q (ZL −1<br />

t<br />

= E Q (L −1<br />

T<br />

est F t mesurable et<br />

) = E P (ZL −1<br />

t L t ) = E P (Z) = E Q (ZL −1<br />

T ).<br />

| F t) Q p.s. Soit Z une variable aléatoire<br />

Puisque L −1<br />

t<br />

est F t -mesurable, L −1<br />

t<br />

= E Q (L −1<br />

T |F t) Q p.s.<br />

✷<br />

3.2 Formule de Cameron Martin<br />

Présentons tout d’abord l’idée principale en dimension finie. Soit X 1 , . . .,X n des variables<br />

gaussiennes centrées réduites indépendantes, construites sur un même espace probabilisé<br />

(Ω, F, P). Pour tout (µ 1 , . . .,µ n ) ∈ R n on a<br />

E P<br />

[exp<br />

( n∑<br />

i=1<br />

µ i X i<br />

)]<br />

=<br />

n∏<br />

E P [exp (µ i X i )] = exp<br />

i=1<br />

(<br />

1<br />

2<br />

n∑<br />

i=1<br />

µ 2 i<br />

)<br />

,<br />

ce qui entraîne<br />

E P (L) = 1 où L = exp<br />

[ n∑ ( ) ]<br />

µ i X i − µ2 i<br />

.<br />

2<br />

i=1<br />

Ainsi, on peut définir une nouvelle probabilité Q sur (Ω, F) en posant dQ = L dP, c’est à<br />

dire<br />

∫<br />

Q (A) = E P (L1 A ) = L(ω)dP(ω)<br />

pour tout A ∈ F. Le lemme 3.1 montre que Q est bien une probabilité équivalente à P<br />

sur (Ω, F), c’est à dire que P (A) = 0 si et seulement si Q (A) = 0 pour tout A ∈ F. La<br />

variable L désigne <strong>la</strong> densité de Q par rapport à P.<br />

A<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


56 3 Théorème de Girsanov<br />

On cherche maintenant à savoir quelle est <strong>la</strong> loi du n-uple (X 1 , . . ., X n ) sous cette nouvelle<br />

probabilité Q. Pour ce<strong>la</strong> on écrit pour tout borélien A ∈ R n ,<br />

Q ( (X 1 , · · · , X n ) ∈ A ) =<br />

∫<br />

P n<br />

i=1<br />

1 {(X1 ,···,X n)∈A} e<br />

= (2π) −n/2 ∫<br />

= (2π) −n/2 ∫<br />

A<br />

A<br />

P n<br />

i=1<br />

e<br />

„<br />

«<br />

µ i X i − µ2 i<br />

2<br />

dP<br />

„<br />

µ i x i − µ2 i<br />

2<br />

«e − P n x 2 i<br />

i=1 2 dx1 · · ·dx n<br />

e −1 2<br />

P n<br />

i=1 (x i−µ i ) 2 dx 1 · · ·dx n<br />

et l’on en déduit que si µ = (µ 1 , . . .,µ n ) : sous Q, (X 1 , . . .,X n ) est un vecteur gaussien<br />

N(µ, Id), c’est à dire que :<br />

sous Q, (X 1 , · · · , X n ) − (µ 1 , µ 2 , · · · , µ n ) est un vecteur gaussien N(0, Id).<br />

La formule de Cameron-Martin obéit au même principe de changement de probabilité,<br />

sauf que celui-ci a lieu sur l’espace des fonctions continues et donc en dimension infinie.<br />

On se donne un Brownien standard (B t , t ≥ 0) sur (Ω, F, P) et (Ft B , t ≥ 0) sa filtration<br />

naturelle (complétée). Pour tout m ∈ R, on sait que le processus<br />

[ ]<br />

t ↦→ L m t = exp mB t − m2 t<br />

est une (Ft B )-martingale positive.<br />

2<br />

Remarquons déjà l’analogie entre cette martingale L m et <strong>la</strong> variable L définie plus haut.<br />

On fixe alors un horizon T > 0 et on construit une nouvelle probabilité Q m T sur ( )<br />

Ω, FT<br />

B en<br />

posant : Q m T (A) = E P (L m T 1 A). La formule de Cameron-Martin spécifie alors <strong>la</strong> loi de B<br />

sous Q m T .<br />

Théorème 3.2 (Formule de Cameron-Martin) Soit B un Brownien standard et m ∈ R.<br />

Avec les notations précédentes, le processus défini par ( ˜B t = B t − mt, 0 ≤ t ≤ T) est un<br />

(Ft B, 0 ≤ t ≤ T) Brownien sous <strong>la</strong> probabilité Qm T , .<br />

Démonstration. Remarquons d’abord que les tribus Ft B et F ˜B<br />

t ( sont égales pour tout t ∈<br />

[0, T]. Fixons λ ∈ R et considérons le processus Zt λ = exp λ ˜B<br />

)<br />

t − λ 2 t/2 . Pour tout<br />

0 ≤ s ≤ t ≤ T et tout A ∈ Fs B , on a :<br />

[<br />

] )<br />

( ) ( )<br />

E Q Z<br />

λ<br />

t 1 A = EP Z<br />

λ<br />

t L t 1 A = EP<br />

(exp λ ˜B t − λ2 t<br />

2 + mB t − m2 t<br />

1 A<br />

2<br />

[<br />

] )<br />

= E P<br />

(exp λB t − λmt − λ2 t<br />

2 + mB t − m2 t<br />

1 A<br />

2<br />

[<br />

= E P<br />

(exp (λ + m)B t − (λ + ] )<br />

m)2 t<br />

1 A<br />

2<br />

( [<br />

] )<br />

Puisque B est un Brownien sous P, le processus exp (λ + m)B t − (λ+m)2 t<br />

, t ∈ [0, T]<br />

2<br />

est une (Ft B )-martingale sous P. On en déduit que pour tout A ∈ Fs B ,<br />

[<br />

( )<br />

E Q Z<br />

λ<br />

t 1 A = EP<br />

(exp (λ + m)B s − (λ + ] )<br />

m)2 s<br />

1 A<br />

2<br />

= E P<br />

(<br />

Z<br />

λ<br />

s L s 1 A<br />

)<br />

= EQ<br />

(<br />

Z<br />

λ<br />

s 1 A<br />

)<br />

.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


3.3 Théorème de Girsanov 57<br />

( ) ( ) ( )<br />

On en déduit que E Q Z<br />

λ<br />

t 1 A = E Q Z<br />

λ<br />

s 1 A , d’où EQ Z<br />

λ<br />

t | Fs<br />

B = Zs λ Q p.s. pour<br />

tout s ≤ t ≤ T. Pour tout λ ∈ R, le processus Z λ est donc une (Ft B )-martingale sous <strong>la</strong><br />

probabilité Q et le théorème de caractérisation de Paul Lévy 1.33 permet de conclure que<br />

˜B est un (Ft B , 0 ≤ t ≤ T)-Brownien sous Q. ✷<br />

3.3 Théorème de Girsanov<br />

Le but de cette section est d’étendre le théorème de Cameron-Martin en trans<strong>la</strong>tant <strong>la</strong><br />

trajectoire Brownienne à l’instant t par l’intégrale d’un processus non-constant Ce théorème<br />

est d’une très grande importance pratique.<br />

Théorème 3.3 Soit (B t , t ≥ 0) un Brownien standard d-dimensionnel sur (Ω, F, P), et<br />

(Ft B , t ≥ 0) sa filtration naturelle complétée. Soit T > 0, (θ(t), 0 ≤ t ≤ T) un processus<br />

d-dimensionnel appartenant à H2 T et pour tout t ∈ [0, T], soit<br />

( ∫ t d∑<br />

L t = exp θ i (s)dBs i − 1 ∫ )<br />

t<br />

‖θ s ‖ 2 ds . (3.1)<br />

2<br />

0<br />

i=1<br />

Alors, si E P (L T ) = 1, le processus (L t , 0 ≤ t ≤ T) est une (F B t )-martingale, et<br />

Q(dω) = L T (ω)P(dω) est une probabilité équivalente à Q<br />

Le processus W = (Wt,0 i ≤ t ≤ T, i = 1, · · · , d) défini par<br />

W i<br />

t = B i t −<br />

∫ t<br />

0<br />

θ i (s) ds est un (F B t )-mouvement brownien sous Q.<br />

Démonstration. Pour dégager les idées, nous ne ferons <strong>la</strong> démonstration qu’en dimension<br />

d = 1. Soit θ = (θ s ) ∈ H2 2 et (L t , 0 ≤ t ≤ T) le processus défini par (3.1). Alors L t = e Xt > 0<br />

où X t = ∫ t<br />

θ ∫<br />

0 sdB s − 1 t<br />

2 0 θ2 sds est un processus d’Itô. La formule d’Itô montre que sous P,<br />

dL t = L t dX t + 1 2 L tθ 2 t dt = L tθ t dB t .<br />

On en déduit que sous P, (L t , t ∈ [0, T]) est une martingale locale positive, donc une surmartingale<br />

(cf. Exercice 1.4). On a donc pour 0 ≤ t ≤ T, L t ≥ E P (L T |Ft B ). De plus,<br />

E P (L T ) = E P (L 0 ) = 1 = E P (L t ) pour tout t ∈ [0, T] et (L t , 0 ≤ t ≤ T) est donc une<br />

(Ft B )-martingale sous P.<br />

D’après <strong>la</strong> caractérisation de Paul Lévy (Théorème 1.33 (ii)), puisque W 0 = 0, pour<br />

montrer que W est un (Ft B , 0 ≤ t ≤ T)-Brownien sous Q, il suffit de montrer que sous Q<br />

(W t , 0 ≤ t ≤ T) et (Wt 2 − t, 0 ≤ t ≤ T) sont des (Ft B )-martingales locales continues. En<br />

appliquant le Lemme 3.1, ce<strong>la</strong> revient à prouver que les processus (L t W t , 0 ≤ t ≤ T) et<br />

(L t (Wt 2 − t), 0 ≤ t ≤ T) sont des (FB t )-martingales locales continues sous P.<br />

En appliquant <strong>la</strong> formule d’Itô au produit et le fait que sous P,<br />

on obtient sous P,<br />

dW t = dB t − θ t dt,<br />

d(L t W t ) = L t dW t + W t dL t + d〈L, W 〉 t<br />

= L t dB t − L t θ t dt + W t θ t L t dB t + L t θ t dt = (1 + θ t W t )L t dB t .<br />

0<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


58 3 Théorème de Girsanov<br />

On en déduit que (L t W t , 0 ≤ t ≤ T) est bien une (Ft B , 0 ≤ t ≤ T)-martingale locale continue<br />

sous P. De plus, <strong>la</strong> formule d’Itô entraîne que si Y t = Wt 2 − t, sous P,<br />

dY t = 2W t dW t + 1 2 2d〈W, W 〉 t − dt = 2W t dB t − 2W t θ t dt + dt − dt = 2W t dB t − 2W t θ t dt.<br />

En appliquant de nouveau <strong>la</strong> formule d’Itô au produit, on déduit que sous P<br />

d(L t Y t ) = L t dY t + Y t dL t + d〈L, Y 〉 t<br />

= 2L t W t dB t − 2L t W t θ t dt + Y t L t θ t dB t + 2W t L t θ t dt = L t (2W t + Y t θ t )dB t .<br />

(<br />

)<br />

Le processus (Wt 2 − t)L t , 0 ≤ t ≤ T est donc bien une (Ft B )-martingale locale continue<br />

sous P. ✷<br />

Le lemme 3.1 et le théorème 3.3 montrent que P s’écrit en fonction de Q sous <strong>la</strong> forme<br />

dP = L −1<br />

T<br />

dQ. En transformant l’intégrale stochastique par rapport à B en une intégrale<br />

stochastique par rapport à W t = B t − ∫ t<br />

θ 0 sds, on obtient<br />

( ∫ t<br />

L −1<br />

t = exp − θ s dB s + 1 ∫ t<br />

) ( ∫ t<br />

θs 2<br />

0 2<br />

ds = exp − θ s dW s − 1 ∫ t<br />

)<br />

θs 2 2<br />

ds ,<br />

0<br />

où il est c<strong>la</strong>ir que <strong>la</strong> dernière exponentielle d’intégrale stochastique par rapport au processus<br />

W, qui est un Brownien sous Q, est une (Ft B , 0 ≤ t ≤ T)-martingale sous Q.<br />

On utilise souvent le théorème de Girsanov de <strong>la</strong> façon suivante. On dispose d’un processus<br />

θ ∈ H2 T, on pour tout t ∈ [0, T] note Z t = ∫ t<br />

θ 0 sdB s et L t = exp ( Z t − 1〈Z, Z〉 2 t)<br />

. On<br />

suppose que E(L T ) = 1 et on note Q <strong>la</strong> probabilité dont <strong>la</strong> restriction à F t est L t pour tout<br />

t ∈ [0, T]. On a d’autre part un processus H ∈ H2 loc et M t = ∫ t<br />

H 0 sdB s une (F t )-martingale locale<br />

continue sous P, de crochet 〈M, M〉 t = ∫ t<br />

‖H 0 s‖ 2 ds. Alors le processus N t = M t −〈M, Z〉 t<br />

est sous Q une (F t )-martingale locale continue de crochet 〈N, N〉 t = 〈M, M〉 t (sous P ou Q,<br />

puisque les crochets étant <strong>la</strong> variation quadratique des processus et les probabilités P et Q<br />

étant équivalentes, les crochets sont les mêmes sous ces deux probabilités).<br />

En effet, pour montrer cette propriété, d’après le lemme 3.1, il suffit de vérifier que sous<br />

P, le processus L t N t = L t (M t − 〈M, Z〉 t ) est une (F t )-martingale locale, ce qui découle<br />

facilement de <strong>la</strong> formule d’Itô.<br />

3.4 Condition de Novikov et généralisations<br />

Le résultat suivant sera très utile dans le chapitre suivant. Il introduit une martingale<br />

locale de forme exponentielle et donne des conditions suffisantes pour que ce soit une<br />

martingale. Cette martingale exponentielle est à <strong>la</strong> base d’un changement de probabilité<br />

fondamental en finance.<br />

Soit θ ∈ H2 loc(FB<br />

t ) un processus cad<strong>la</strong>g, (FB t )-adapté, tel que ∫ t<br />

0 θ2 s ds < +∞ p.s. pour<br />

tout t > 0 et Z 0 une constante. Par <strong>la</strong> formule d’Itô, on démontre que l’unique solution de<br />

l’EDS<br />

est<br />

Z t = Z 0 +<br />

∫ t<br />

[∫ t<br />

Z t = Z 0 exp θ s dB s − 1<br />

0 2<br />

0<br />

0<br />

θ s Z s dB s (3.2)<br />

∫ t<br />

0<br />

θ 2 s ds ]<br />

.<br />

0<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


3.4 Condition de Novikov et généralisations 59<br />

Le processus Z est appelé l’exponentielle de Doléans-Dade de θ ⋆ B. D’après (3.2), c’est<br />

une martingale locale. Le critère suivant permet de savoir quand l’exponentielle de Doléans-<br />

Dade est une martingale. Il est formulé dans un cadre multidimensionnel et on pourra lire<br />

sa démonstration dans [7], p. 200.<br />

Théorème 3.4 (Condition de Novikov) Supposons que B est un (F t ) Brownien standard<br />

de dimension d, (θ t ) un processus à valeurs dans R d , (F t )-adapté tel que<br />

[ ( ∫ 1 T<br />

)]<br />

E exp ‖θ s ‖ 2 ds < ∞.<br />

2<br />

Si pour tout t ∈ [0, T] on note<br />

Z t (θ) = exp<br />

( d∑<br />

i=1<br />

0<br />

∫ t<br />

0<br />

θ i s dBi s − 1 2<br />

∫ t<br />

0<br />

‖θ s ‖ 2 ds<br />

le processus t ↦→ Z t (θ) est une (F t , 0 ≤ t ≤ T)-martingale uniformément intégrable.<br />

Quand <strong>la</strong> condition de Novikov n’est pas satisfaite, Z t (θ) est une martingale locale positive,<br />

donc une surmartingale, et E(Z t (θ)) ≤ E(Z s (θ)) ≤ Z 0 (θ) pour tout t ≥ s ≥ 0. Il<br />

faut remarquer que, même si <strong>la</strong> martingale locale (Z t (θ)) est uniformément intégrable, ce<br />

n’est pas nécessairement une martingale. Par contre, si <strong>la</strong> famille de variables aléatoires<br />

{Z τ (θ), τ temps d’arrêt} est uniformément intégrable, alors (Z t (θ)) est une martingale uniformément<br />

intégrable.<br />

On dispose de critères alternatifs à <strong>la</strong> condition de Novikov en dimension 1. On pourra<br />

lire <strong>la</strong> démonstration dans [6].<br />

Proposition 3.5 Soit B un Brownien standard à valeurs dans R d , θ ∈ H2 T un processus à<br />

valeurs dans R d tel qu’il existe des instants 0 = t 0 < t 1 < t N = T pour lesquels pour tout<br />

n ∈ {1, · · · , N},<br />

( ∫ 1<br />

tn<br />

)<br />

E P ‖θ s ‖ 2 ds < +∞. (3.3)<br />

2 t n−1<br />

Alors si pour t ∈ [0, T] on pose L t = e R t R t<br />

0 θsdBs−1 2 0 ‖θs‖2ds , on a E P (L T ) = 1 et le processus<br />

(L t , t ∈ [0, T]) est une (F t )-martingale.<br />

Démonstration. Pour tout n ∈ {1, · · · , N}, notons θ(n) t = θ t 1 [tn−1 ,t n[(t). La condition de<br />

Novikov est satisfaite par θ(n) et le Théorème 3.4 montre que si on note<br />

(∫ t<br />

L t (θ(n)) = exp θ(n) s dB s − 1 ∫ t<br />

)<br />

‖θ(n) s ‖ 2 ds ,<br />

2<br />

on a<br />

0<br />

E P<br />

[<br />

Ltn (θ(n))|F tn−1<br />

]<br />

= Ltn−1 (θ(n)) = 1.<br />

On montre par récurrence sur n ≤ N que E P (L tn ) = 1. En effet, pour tout n ∈ {1, · · · , N}<br />

E P (L tn ) = E P<br />

[<br />

Ltn−1 E P<br />

(<br />

Ltn (θ(n))|F tn−1<br />

)]<br />

= EP (L tn−1 ).<br />

Puisque t N = T, on en déduit que E P (L T ) = 1, ce qui entraîne <strong>la</strong> propriété de martingale<br />

de (L t ) comme on l’a vu dans le début de <strong>la</strong> démonstration du Théorème de Girsanov (le<br />

0<br />

)<br />

,<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


60 3 Théorème de Girsanov<br />

processus (L t ) est une martingale locale positive, donc une surmartingale, dont l’espérance<br />

est constante). ✷<br />

Le résultat suivant généralise le théorème de Novikov 3.4 pour des coefficient de dérive<br />

qui sont fonction du Brownien. Il suffit dans ce cas d’imposer une restriction sur <strong>la</strong> croissance<br />

du coefficient b(t, x).<br />

Proposition 3.6 (Beneš) Soit B un Brownien standard de dimension d, T > 0 et b :<br />

[0, T]×Ω → R d une fonction borélienne telle qu’il existe une constante K pour <strong>la</strong>quelle pour<br />

tout x ∈ R d ,<br />

( ∫ t<br />

Alors si L t = exp b(s, B ∫<br />

0 s)dB s − 1 t<br />

2<br />

est une (F t )-martingale.<br />

sup ‖b(t, x)‖ ≤ K(1 + ‖x‖).<br />

t∈[0,T]<br />

)<br />

0 ‖b(s, B s)| 2 ds<br />

, on a E(L T ) = 1 et (L t , 0 ≤ t ≤ T)<br />

Démonstration. Soit N et pour n ∈ {0, · · · , N}, t n = T . Pour tout n ∈ {1, · · · , N},<br />

N<br />

∫ tn<br />

‖b(s, B s )‖ 2 ds ≤ 2K 2 T [<br />

]<br />

1 + sup ‖B s ‖ 2 .<br />

t n−1<br />

N 0≤s≤T<br />

Pour toute constante c > 0, <strong>la</strong> convexité de <strong>la</strong> fonction x → exp[c(1 + ‖x‖ 2 )] entraîne que<br />

Y t = exp [ c(1 + ‖B t ‖ 2 ) ] est une sous martingale et pour C assez petit (tel que CT < 1 2 )<br />

E P<br />

[<br />

e<br />

C(1+‖B T ‖ 2 ) ] < +∞. L’inégalité de Doob montre alors que<br />

[<br />

] [<br />

) ] 2 [ ]<br />

E P e C(1+sup 0≤t≤T ‖Bt‖2 )<br />

= E P sup<br />

(e C 2 (1+‖B‖2 t ) ≤ 4 E P e C(1+‖B T ‖ 2 )<br />

< +∞.<br />

0≤t≤T<br />

La proposition 3.5 permet de conclure en choisissant des instants t n tels que ∆t = t n −t n−1 =<br />

2C < 1 . ✷ T<br />

Exemple 3.7 Le choix b(t, x) = λx et l’égalité B 2 t = 2 ∫ t<br />

0 B sdB s + t (qui découle immédiatement<br />

de <strong>la</strong> formule d’Itô) montrent que d’après <strong>la</strong> Proposition 3.6 le processus<br />

est une (F B t )-martingale.<br />

(<br />

t → exp λ B2 t − t<br />

− λ2<br />

2 2<br />

∫ t<br />

0<br />

B 2 s ds )<br />

Le résultat suivant généralise le précédent à des coefficients de dérive qui sont fonction<br />

d’un processus plus général. Il faut par contrôler <strong>la</strong> restriction sur <strong>la</strong> croissance et les<br />

accroissements.<br />

Proposition 3.8 (Critère de Kazamaki) Si le processus (θ t ) est une martingale locale telle<br />

que le processus t → e 1 2 θt est une sous-martingale [ uniformément intégrable, alors l’exponentielle<br />

de Doléans-Dade Z t (θ) = exp θ ∫ ]<br />

∫ t<br />

0 s dB s − 1 t<br />

2 0 θ2 s ds est une martingale uniformément<br />

intégrable.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


3.5 Existence de solutions faibles 61<br />

Proposition 3.9 (Critère de non explosion) Soit T > 0, θ t = b(t, B s ) où b : [0, +∞[×R →<br />

R est une fonction telle qu’il existe une constante K telle que<br />

{ |b(t, x) − b(t, y)| ≤ K|x − y| , ∀x, y ∈ R , ∀t ≥ 0,<br />

sup t≤T |b(t, 0)| ≤ K.<br />

Alors le processus (Z t , t ∈ [0, T]) défini par<br />

(∫ t<br />

Z t (θ) = exp b(s, B s )dB s − 1 2<br />

0<br />

∫ t<br />

0<br />

)<br />

b(s, B s ) 2 ds<br />

est une (F t )-martingale. De façon plus générale, le processus t ↦→ Z t (θ) est une (F t )-<br />

martingale dès que l’EDS<br />

dX t = dB t + b(t, X t )dt , X 0 = 0<br />

a une unique solution faible sur tout l’intervalle [0, +∞[ (ce qu’on appelle sans explosion).<br />

3.5 Existence de solutions faibles<br />

Le théorème de Girsanov permet de montrer l’existence d’une solution faible à des EDS<br />

qui n’admettent pas forcément de solution forte. C’est une généralisation de <strong>la</strong> condition de<br />

Novikov qui permet de faire le changement de probabilité.<br />

Proposition 3.10 Soit B un Brownien standard à valeurs dans R d , T > 0 et b : [0, T]×Ω →<br />

R d une fonction borélienne telle qu’il existe une constante K pour <strong>la</strong>quelle pour tout x ∈ R d<br />

Alors pour tout x ∈ R d , l’EDS<br />

sup ‖b(t, x)‖ ≤ K(1 + ‖x‖). (3.4)<br />

t∈[0,T]<br />

X t = x + B t +<br />

∫ t<br />

0<br />

b(s, X s )ds , 0 ≤ t ≤ T (3.5)<br />

admet une solution faible sur l’intervalle [0, T]. De ( plus, si (Ω (i) , F (i) , (F (i)<br />

t ), P (i) , B (i) , X (i) ),<br />

∫ )<br />

i = 1, 2 sont deux solutions faibles telles que P (i) T<br />

‖b(t, X(i)<br />

0 t )‖ 2 dt < +∞ = 1, les couples<br />

(B (i) , X (i) ) ont <strong>la</strong> même loi sur leurs espaces respectifs.<br />

Démonstration. Pour prouver l’existence d’une solution faible, soit (Ω, F, (F t ), P) un espace<br />

filtré et un Brownien B pour <strong>la</strong> filtration (F t ). Les conditions de restriction sur <strong>la</strong> croissance<br />

imposées à b et <strong>la</strong> Proposition 3.6 montrent que pour tout x ∈ R d , le processus<br />

( d∑ ∫ t<br />

Z t = exp b i (s, x + B s )dBs i − 1 ∫ )<br />

t<br />

‖b(s, x + B s )‖ 2 ds , 0 ≤ t ≤ T,<br />

i=1 0<br />

2 0<br />

est une vraie martingale sous P. On en déduit que <strong>la</strong> mesure Q de densité Z T par rapport<br />

à P est une probabilité et que le processus<br />

W t = B t −<br />

∫ t<br />

0<br />

b(s, x + B s )ds , 0 ≤ t ≤ T,<br />

est un Brownien sous Q tel que W 0 = 0. Ceci revient à écrire que sous Q, le processus<br />

X t = x + B t satisfait X t = x + W t + ∫ t<br />

b(s, X 0 s)ds, et que (X, W, Q) est une solution faible<br />

de (3.5) avec <strong>la</strong> filtration de départ.<br />

On pourra lire <strong>la</strong> démonstration de l’unicité dans [7], page 304. ✷<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


62 3 Théorème de Girsanov<br />

3.6 Exemples d’application à des calculs d’espérance<br />

Le théorème de Girsanov permet de calculer simplement les espérances de fonctionnelles<br />

du Brownien. Nous traiterons trois exemples.<br />

1) Pour calculer<br />

(∫ T<br />

E P<br />

[B t exp θ s dB s − 1 ∫ T<br />

)]<br />

θs 2<br />

0 2<br />

ds ,<br />

0<br />

pour t < T, et où ( θ est une fonction déterministe qui appartient à L 2 ([0, T]), introduisons <strong>la</strong><br />

∫ T<br />

densité L T = exp θ ∫<br />

0 sdB s − 1 T<br />

2 0 θ2 s<br />

), ds puis <strong>la</strong> probabilité Q de densité L T par rapport<br />

( ∫<br />

à P sur FT B. Alors, sous P, <strong>la</strong> propriété de martingale de L t<br />

t = exp θ ∫ )<br />

0 sdB s − 1 t<br />

2 0 θ2 sds<br />

pour <strong>la</strong> filtration naturelle du Brownien et le théorème de Girsanov montrent que si W t =<br />

B t − ∫ t<br />

θ 0 sds,<br />

∫ t<br />

) ∫ t<br />

E P (B t L T ) = E P (B t L t ) = E Q (B t ) = E Q<br />

(W t + θ s ds = θ s ds.<br />

Dans le cas particulier θ = 1, on en déduit E P<br />

(<br />

Bt e Bt )<br />

= t e<br />

t<br />

2 (ce que l’on peut bien sûr<br />

retrouver en utilisant directement <strong>la</strong> loi de B t ).<br />

avec<br />

2) Reprenons le calcul du call fait dans <strong>la</strong> section 2.6.2. Rappelons qu’il nous faut calculer<br />

[<br />

]<br />

C(t, x) = E e r(t−T) (˜S t,x<br />

T − K)+ ,<br />

˜S<br />

t,x<br />

T<br />

= xeσ(B T −B t)+<br />

(r− σ2<br />

2<br />

C(t, x) = E P<br />

[<br />

)<br />

(T −t) . La loi de B T − B t est égale à celle de B T −t , donc<br />

e r(t−T) (<br />

xe σB T −t+<br />

(r− σ2<br />

2<br />

= E P<br />

[<br />

xe σB T −t− σ2<br />

2 (T −t) 1<br />

{xe<br />

σB T −t +(r− σ2<br />

− Ke r(t−T) P<br />

Introduisons <strong>la</strong> densité de probabilité<br />

L T −t = exp<br />

(∫ T −t<br />

0<br />

σdB s − 1 2<br />

∫ T −t<br />

0<br />

(xe σB T −t+(r− σ2<br />

0<br />

) ) ] +<br />

(T −t) − K<br />

2 )(T −t) >K}<br />

2 )(T −t) > K<br />

)<br />

.<br />

) (<br />

σ 2 ds = exp σB T −t − 1 )<br />

2 σ2 (T − t) .<br />

Alors si Q désigne <strong>la</strong> probabilité de densité L T −t par rapport à P, W s = B s − σs est un<br />

(Fs B )-Brownien sous Q. De plus en écrivant B s = W s + σs, on en déduit<br />

⎛<br />

⎞<br />

(<br />

)<br />

)<br />

E P<br />

⎝xL T −t 1 ( ) ⎠ = xQ σW<br />

xe σB T −t + (r− σ2<br />

2 )(T −t) T −t +<br />

(r + σ2<br />

(T − t) > ln(K/x) .<br />

>K 2<br />

L’autre terme à calculer est simi<strong>la</strong>ire, puisqu’il s’écrit<br />

(<br />

)<br />

)<br />

Ke −r(T −t) P σB T −t +<br />

(r − σ2<br />

(T − t) > ln(K/x) .<br />

2<br />

]<br />

0<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


3.6 Exemples d’application à des calculs d’espérance 63<br />

On en déduit immédiatement l’expression de C(t, x) trouvée dans <strong>la</strong> section 2.6.2 à l’aide<br />

de <strong>la</strong> fonction de répartition F de <strong>la</strong> gaussienne centrée réduite et des réels d 1 et d 2 ,<br />

C(t, x) = xF(d 1 ) − Ke −r(T −t) F(d 2 ),<br />

[ ( )<br />

1 xe<br />

r(T −t)<br />

d 1 =<br />

σ √ ln + 1 ]<br />

T − t K 2 σ2 (T − t) et d 2 = d 1 − σ √ T − t ;<br />

le lien entre d 1 et d 2 est évident.<br />

Remarquons d’ailleurs une formule importante sur <strong>la</strong> dualité call-put. Le put dual de C<br />

est défini pour t ∈ [0, T] par<br />

[<br />

P(t, x) = E e r(t−T)( ) ]<br />

t,x +<br />

K − ˜S<br />

T<br />

.<br />

C<strong>la</strong>irement,<br />

[ ]<br />

C(t, x) − P(t, x) = e r(t−T) t,x<br />

E( ˜S<br />

T ) − K = x − K e −r(T −t) .<br />

Il est souvent plus judicieux de calculer le put (par simu<strong>la</strong>tion en utilisant une méthode de<br />

Monte-Carlo car sa variance est inférieure à celle du call, ce qui améliore <strong>la</strong> précision pour<br />

un nombre de simu<strong>la</strong>tions fixé), puis d’en déduire le call grâce à <strong>la</strong> formule de dualité. On<br />

pourra trouver directement <strong>la</strong> valeur du put en appliquant le théorème de Girsanov par une<br />

technique simi<strong>la</strong>ire à celle utilisée pour évaluer le call.<br />

Dans ce modèle, si on rapporte le prix de l’actif risqué à l’instant t à celui de l’actif sans<br />

risque, c’est à dire si on étudie<br />

¯S t = e −rt S t = e σBt+ “<br />

”<br />

b−r− σ2<br />

2 t ,<br />

le Théorème de Girsanov montre que si λ = b−r , à chaque instant T > 0 en choisissant <strong>la</strong><br />

σ<br />

probabilité Q de densité<br />

)<br />

L T = exp<br />

(−λB T − λ2<br />

2 T<br />

par rapport à P, le processus (W t = B t + λt, 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T)-martingale<br />

sous Q et pour t ≤ T on a ¯S t = exp(σW t − σ2<br />

t). Ceci entraîne que sous Q, (¯S 2 t , 0 ≤ t ≤ T)<br />

est une (F t , 0 ≤ t ≤ T)-martingale. On dit que cette probabilité Q est <strong>la</strong> probabilité risque<br />

neutre.<br />

3) Enfin, pour calculer<br />

[<br />

I = E P Φ(B T )e − λ2 R T<br />

]<br />

2 0 B2 s ds ,<br />

on introduit pour t ∈ [0, T]<br />

L t = exp<br />

(<br />

−λ<br />

∫ t<br />

0<br />

B s dB s − λ2<br />

2<br />

∫ t<br />

0<br />

B 2 s ds )<br />

.<br />

Le critère de de Beneš (Proposition 3.6) ou de non-explosion (Proposition 3.9) appliqué à<br />

<strong>la</strong> fonction b(s, x) = −λx montre que (L t , 0 ≤ t ≤ T) est une (F t )-martingale. De plus, <strong>la</strong><br />

formule d’Itô (Exemple 3.7) montre que ∫ t<br />

B 0 sdB s = 1 2 (B2 t − t), c’est à dire que<br />

(<br />

∫<br />

L t = exp −λ B2 t − t t<br />

)<br />

− λ2<br />

Bs 2 2 2<br />

ds .<br />

0<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


64 3 Théorème de Girsanov<br />

De plus sous Q, W t = B t + λ ∫ t<br />

0 B sds est un Brownien, c’est à dire que sous Q,<br />

B t = W t − λ<br />

∫ t<br />

0<br />

B s ds<br />

est un processus d’Ornstein-Uhlenbeck. D’après l’exercice 2.2, sous Q <strong>la</strong> variable aléatoire<br />

B t = e ∫ −λt t<br />

0 eλs dB s et suit une donc loi gaussienne N ( 0, 1 (1 − 2λ e−2λt ) ) . De plus<br />

(<br />

) ( )<br />

I = E P L T e λ B2 T −T<br />

λ 2 Φ(B T ) = E B2 T −T<br />

Q<br />

2 Φ(B T ) ,<br />

et cette dernière intégrale se calcule de façon explicite à l’aide de <strong>la</strong> densité de <strong>la</strong> gaussienne<br />

B T sous Q.<br />

3.7 Théorème de représentation prévisible<br />

Dans toute cette section, B est un Brownien standard et (Ft B ) est sa filtration naturelle<br />

(complétée). Cette hypothèse est cruciale. Nous ne manipulerons qu’une probabilité P et<br />

noterons E l’espérance sous P. Nous allons vérifier que dans ce cas, toute (Ft B )-martingale<br />

locale continue nulle en 0 peut être écrite comme l’intégrale stochastique d’un processus de<br />

H2 loc .<br />

Montrons tout d’abord une propriété de représentation des variables aléatoires F T -<br />

mesurables de carré intégrable pour P.<br />

Nous commençons par montrer un lemme technique sur une famille de variable aléatoires<br />

dense dans L 2 (FT B), qui explique comment <strong>la</strong> mesurabilité par rapport à <strong>la</strong> tribu FB T<br />

utilisée.<br />

Lemme 3.11 Pour tout T > 0, <strong>la</strong> famille de variables aléatoires {Ψ(B t1 , · · · , B tn ) : 0 <<br />

t 1 < · · ·t n ≤ T, ψ ∈ C ∞ 0 } est dense dans L2 (F B T ).<br />

est<br />

Démonstration. Soit (t k , k ∈ N) <strong>la</strong> suite des éléments de Q∩[0, T] et pour tout n ≥ 1, soit B n<br />

<strong>la</strong> tribu engendrée par les variables aléatoires B tk , 1 ≤ k ≤ n. La suite (B n ) est une filtration<br />

et <strong>la</strong> tribu B ∞ = σ(B ti , i ≥ 1) est égale à FT B. De plus, pour tout X ∈ L2 (FT B ), <strong>la</strong> suite de<br />

variables aléatoires X n = E(X | B n ), n ≥ 1 est une martingale qui converge vers X p.s. et<br />

dans L 2 . Par définition de B n , chaque variable aléatoire X n est de <strong>la</strong> forme g n (B t1 , · · · , B tn ),<br />

avec une fonction g n borélienne. Enfin, pour tout ǫ > 0, <strong>la</strong> variable aléatoire g n (B t1 , · · · , B tn )<br />

peut être approchée dans L 2 (dP) à ǫ près par une variable aléatoire Ψ n (B t1 , · · · , B tn ) avec<br />

une fonction Ψ n de c<strong>la</strong>sse C ∞ à support compact. ✷<br />

Théorème 3.12 Soit Z une variable aléatoire FT B -mesurable de carré intégrable. Il existe<br />

un unique processus (H t , 0 ≤ t ≤ T) appartenant à H2 T et tel que<br />

Z = E(Z) +<br />

∫ T<br />

0<br />

H s dB s . (3.6)<br />

Démonstration. L’unicité de H vient de l’unicité du processus d’Itô Z t = E(Z|F B t ) = E(Z)+<br />

∫ t<br />

0 H sdB s pour 0 ≤ t ≤ T (qui est une martingale si H ∈ H T 2 ).<br />

Pour prouver l’existence, nous procéderons en trois étapes.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


3.7 Théorème de représentation prévisible 65<br />

(i) Notons H = { ∫ T<br />

H 0 sdB s : H ∈ H2 T }. C’est un sous-espace vectoriel de L2 (FT B ), ses<br />

éléments sont d’espérance nulle et il est isométrique à l’ensemble H2 T qui est fermé pour <strong>la</strong><br />

norme L 2 ([0, T] × Ω) et <strong>la</strong> mesure dλ ⊗ dP. H est donc un sous-espace fermé de L 2 (FT B).<br />

Pour tout Z ∈ L 2 (FT B), notons ∫ T<br />

H 0 sdB s <strong>la</strong> projection orthogonale de Z − E(Z) sur H.<br />

Alors,<br />

Z = E(Z) +<br />

∫ T<br />

0<br />

H s dB s + ˜Z,<br />

où ˜Z est une variable aléatoire de carré intégrable, centrée et orthogonale à H.<br />

(ii) Montrons que ˜Z est orthogonale à l’ensemble<br />

{ (∫ T ∫ T<br />

)<br />

1<br />

E = exp f(s)dB s −<br />

2 f(s)2 ds<br />

0<br />

0<br />

}<br />

: f ∈ L 2 ([0, T]) .<br />

Soit f ∈ L 2 ([0, T]); alors ∫ T<br />

f(s)dB 0 s est une variable aléatoire gaussienne N(0, ∫ T<br />

( 0 f(s)2 ds)<br />

∫ T<br />

et <strong>la</strong> variable aléatoire X = exp f(s)dB ∫ )<br />

0 s − 1 T<br />

2 0 f(s)2 ds est une densité de Girsanov<br />

d’espérance égale à 1 (on remarque que <strong>la</strong> condition de Novikov est satisfaite). Il suffit de<br />

montrer que si X ∈ E, X − 1 ∈ H. Soit X ∈ E et pour tout t ∈ [0, T], soit<br />

ξ t =<br />

∫ t<br />

0<br />

f(s)dB s − 1 2<br />

∫ t<br />

0<br />

f(s) 2 ds , et M t = exp(ξ t ).<br />

Alors, X = M T = exp(ξ T ).<br />

La formule d’Itô montre que <strong>la</strong> martingale exponentielle M est solution de l’EDS dM t =<br />

M t dξ t + 1M 2 tf(t) 2 dt = M t f(t)dB t . On en déduit que<br />

X = M T = 1 +<br />

∫ T<br />

0<br />

M t f(t)dB t<br />

et il reste donc à prouver que t → M t f(t) ∈ H2 T . Le théorème de Fubini entraîne<br />

(∫ T<br />

) ∫ T<br />

E Mt 2 f(t)2 dt = E(Mt 2 )f(t)2 dt<br />

0<br />

=<br />

=<br />

0<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

E<br />

[e R t<br />

R t<br />

0 2f(s)dBs−1 2 0<br />

ds]e R 4f(s)2 t<br />

0 f(s)2ds f(t) 2 dt<br />

e R t<br />

0 f(s)2 ds f(t) 2 dt.<br />

Si ‖f‖ 2 2 = ∫ (<br />

T<br />

∫ )<br />

T<br />

0 f(s)2 ds, on en déduit que E<br />

0 M2 t f(t) 2 dt<br />

≤ ‖f‖ 2 2 exp(‖f‖ 2 2) < +∞.<br />

(iii) Il reste à montrer que toute variable aléatoire Y orthogonale à E est nulle p.s., c’est<br />

à dire que l’espace vectoriel engendré par E est dense dans L 2 (FT B).<br />

Soit X ∈[<br />

L 2 (FT B )( tel que pour tout Y ∈ E, E(XY ) = 0. Alors, pour toute fonction f ∈<br />

∫ )]<br />

L 2 T<br />

([0, T]), E X exp f(s)dB 0 s = 0. Considérons une subdivision t 0 = 0 < t 1 < · · · <<br />

t n ≤ T et soit f = ∑ n<br />

j=1 a j1 ]tj−1 ,t j ] une fonction étagée. Pour tout choix de <strong>la</strong> subdivision et<br />

des constantes b j = a j − a j+1 pour j < n et b n = a n , on en déduit que<br />

[ ( n∑<br />

)]<br />

Φ(b) = E X exp b j B tj = 0, ∀b ∈ R n .<br />

j=1<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


66 3 Théorème de Girsanov<br />

Par prolongement analytique, on en déduit que Φ(b) = 0 pour tout b ∈ C n .<br />

Soit Ψ une fonction de c<strong>la</strong>sse C ∞ à support compact et ˆΨ sa transformée de Fourier<br />

définie par ˆΨ(y) = ∫ Ψ(x) exp[i(x, y)]dx. La formule d’inversion de Fourier montre alors<br />

R n<br />

que Ψ(x) = (2π) ∫ −n ˆΨ(y) exp[−i(x, y)]dy. On en déduit en appliquant le théorème de<br />

R n<br />

Fubini<br />

∫ (<br />

E [XΨ(B t1 , · · · , B tn )] = (2π) −n ˆΨ(y)E X(ω)e −i[y 1B t1 (ω)+···+y nB tn (ω)] ) dy<br />

R n<br />

= (2π) −n ∫R n ˆΨ(y)Φ(−iy)dy = 0.<br />

Le lemme 3.11 termine <strong>la</strong> démonstration.<br />

✷<br />

Le théorème suivant est très important en finance. Il permet de trouver des portefeuilles<br />

de couverture.<br />

Théorème 3.13 (Théorème de représentation des martingales Browniennes) Soit B un<br />

Brownien standard, (Ft B ) sa filtration naturelle, M une (Ft B )-martingale locale. Alors il<br />

existe x ∈ R et θ ∈ H2 loc tels que<br />

M t = x +<br />

∫ t<br />

0<br />

θ s dB s .<br />

Si M est une vraie (F B t )-martingale de carré intégrable, alors θ ∈ H 2.<br />

Démonstration. Supposons que M est une martingale de carré intégrable et que M 0 = 0.<br />

Fixons T > 0; d’après le Théorème 3.12, il existe un processus (θ T t , 0 ≤ t ≤ T) ∈ H T 2<br />

tel que M T = ∫ T<br />

0 θT t dB t p.s. L’unicité montre que si T < T ′ , les processus θ T et θ T ′ sont<br />

égaux dt ⊗ dP-p.p. sur [0, T] × Ω. On peut donc définir presque partout un processus θ en<br />

posant H t = H T t pour 0 ≤ t ≤ T. On en déduit que θ . 1 [0,T] (.) appartient à H T 2 et que<br />

M T = ∫ T<br />

0 θ sdB s .<br />

Le résultat sur les (Ft B )-martingales locales est admis; on remarquera que dans ce cas,<br />

ces martingales locales sont automatiquement continues. ✷<br />

Signalons enfin que dans certains cas, <strong>la</strong> formule de C<strong>la</strong>rk-Ocone - voir [9] - donne une<br />

représentation explicite du processus θ.<br />

3.8 Exercices<br />

Exercice 3.1 Soit B un Brownien de dimension 1, α et β des constantes positives. On veut<br />

calculer<br />

∫ t<br />

)<br />

I = E<br />

(−αB t 2 − β2<br />

B 2<br />

2<br />

sds .<br />

1. Montrer que le processus défini par<br />

L β t = exp<br />

(− β 2 (B2 t<br />

est une (F t )-martingale sous P.<br />

0<br />

− t) −<br />

β2<br />

2<br />

∫ t<br />

0<br />

B 2 s ds )<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


3.8 Exercices 67<br />

2. Soit Q <strong>la</strong> probabilité définie par dQ |Ft = L β t dP |Ft . Montrer que sous <strong>la</strong> probabilité Q,<br />

B t = W t − β ∫ t<br />

B 0 sds où W est un Brownien.<br />

3. En déduire que<br />

(<br />

I = E Q exp(−αBt 2 + β )<br />

2 (B2 t − t)) .<br />

En utilisant l’exercice 2.2, en déduire que I =<br />

4. En déduire que pour tout λ ∈ R,<br />

(<br />

E P<br />

[exp −λ<br />

∫ t<br />

0<br />

(cosh(βt) + 2α β sinh(βt) ) −<br />

1<br />

2<br />

.<br />

)] (<br />

Bsds<br />

2 = cosh( √ ) −<br />

1<br />

2<br />

2λt) .<br />

Exercice 3.2 Soit (h t ) et (H t ) des processus (F t )-adaptés de dimension r et B un (F t )-<br />

Brownien de dimension r. Notons M t = ∑ r<br />

∫ t<br />

k=1 0 hk s dBk s et N t = ∑ r<br />

∫ t<br />

k=1 0 Hk s dBk s . On<br />

suppose que h satisfait <strong>la</strong> condition de Novikov et on note Q <strong>la</strong> probabilité de densité<br />

exp ( M t − 1〈M〉 2 t)<br />

sur Ft . Montrer que le processus (N t − 〈M, N〉 t ) est une (F t )-martingale<br />

sous Q.<br />

Exercice 3.3 Soit α, β et γ des constantes réelles.<br />

( ∫ ) (<br />

t<br />

∫ )<br />

t<br />

1. <strong>Calcul</strong>er E ds , puis E e<br />

0 eBs αBt ds .<br />

0 eβBs<br />

2. Soit A(t, γ) = ∫ t<br />

0 eBs+γs ds. En utilisant le théorème de Girsanov, montrer que le calcul<br />

de E(A(t, γ)) se ramène au cas γ = 0. Peut-on calculer directement E(A(t, γ))?<br />

Exercice 3.4 Soit (B t ) un Brownien de dimension 1, α, β et σ des fonctions déterministes<br />

bornées de R dans R. On suppose que σ ne s’annule pas et on note b(t) = ∫ t<br />

β(s)ds. On<br />

0<br />

note enfin (r t ) le processus solution de l’EDS<br />

dr t = σ(t) dB t + [α(t) − β(t) r t ] dt , r 0 ∈ R.<br />

1. Montrer que<br />

r t = e −b(t) (r 0 +<br />

∫ t<br />

0<br />

σ(u)e b(u) dB u +<br />

∫ t<br />

0<br />

)<br />

α(u)e b(u) du .<br />

2. <strong>Calcul</strong>er E(r t ) et Cov(r s , r t ) pour 0 ≤ s ≤ t.<br />

3. Soit θ(s) = − α(s) ; on suppose que θ est bornée et on note<br />

σ(s)<br />

(∫ t<br />

L t = exp θ(s)dB s − 1<br />

0 2<br />

∫ t<br />

0<br />

)<br />

θ(s) 2 ds .<br />

On note Q 1 <strong>la</strong> mesure sur F t de densité L t par rapport à P et W 1<br />

t = B t − ∫ t<br />

0 θ(s)ds.<br />

Montrer que (r t e b(t) , t ≥ 0) est une (F t )- martingale sous Q 1 .<br />

4. Soit (Z t ) <strong>la</strong> solution de l’EDS dZ t = Z t<br />

β(t)<br />

σ(t) L t dW 1<br />

t et Z 0 = 1. Notons Q 2 <strong>la</strong> probabilité<br />

sur F t de densité Z t par rapport à P. Montrer que (r t ) est une (F t )-martingale sous<br />

Q 2 .<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


68 4 Applications à <strong>la</strong> finance<br />

4 Applications à <strong>la</strong> finance<br />

Conventions de notations<br />

Soit (Ω, F, P) un espace probabilisé, (B t , 0 ≤ t ≤ T) un Brownien standard de dimension<br />

k, (F t , 0 ≤ t ≤ T) sa filtration naturelle complétée.<br />

4.1 Modélisation d’un marché financier en temps continu<br />

Reprenons de façon plus générale le modèle décrit dans <strong>la</strong> section 2.6.2.<br />

4.1.1 Modélisation d’un marché à d actifs risqués et k facteurs<br />

On considère un marché financier sur lequel les actifs sont négociés en temps continu.<br />

Certains de ces actifs dits risqués sont aléatoires et décrits à l’aide d’un Brownien standard<br />

k-dimensionnel B.<br />

Le marché comprend d + 1 actifs de base (St i , 0 ≤ i ≤ d, t ≥ 0) et de leurs produits<br />

dérivés. On suppose qu’aucun de ces actifs ne verse de dividende, qu’il n’y a pas de coût<br />

de transaction, que l’on peut acheter et vendre en temps continu et que les actifs sont<br />

indéfiniment divisibles (leur valeur est un nombre réel). On suppose enfin qu’à chaque instant<br />

<strong>la</strong> valeur de l’actif i, soit St, i est un processus d’Itô construit à partir de B et à valeurs<br />

p.s. strictement positives. On note S t = (St 0, · · · , Sd t ) pour tout t ≥ 0. Tous les résultats<br />

s’étendraient au cas de semi-martingales continues presque sûrement positives.<br />

Exemple 4.1 Modèle de B<strong>la</strong>ck & Sholes Par exemple dans le modèle de B<strong>la</strong>ck & Sholes<br />

de <strong>la</strong> section 2.6.2, l’actif S 0 est sans risque tel que dSt 0 = rS0 dt et S0 0 = 1, c’est à dire que<br />

St 0 = e rt . On dispose aussi d’un actif risqué qui est un Brownien géométrique solution de<br />

l’EDS dSt 1 = σS1 t dB t + bSt 1dt. On sait que si S1 0 > 0, S1 t > 0 p.s. pour tout t ≥ 0.<br />

On verra dans <strong>la</strong> suite un modèle de B<strong>la</strong>ck & Sholes généralisé dans lequel l’actif ( sans ∫ )<br />

risque a un taux d’intérêt r t ∈ H1 loc , c’est à dire toujours avec S0 0 = 1, que St 0 t<br />

= exp r 0 sds<br />

et les d actifs risqués S i , 1 ≤ i ≤ d sont des processus d’Itô généraux à valeurs strictement<br />

positives On appelle alors vo<strong>la</strong>tilité stochastique de l’actif S i à l’instant t le quotient<br />

(σj i(t), 1 ≤ j ≤ k) entre le coefficient de diffusion et le cours Si t et on note de même bi (t) le<br />

rapport entre le coefficient de dérive et le cours, c’est à dire que pour tout i = 1, · · · , d,<br />

dS i t =<br />

k∑<br />

σj(s)S i sdB i s j + b i (s)Ssds.<br />

i<br />

j=1<br />

Définition 4.2 Un numéraire est un actif dont le cours est processus d’Itô (S t ) tel que<br />

S t > 0 p.s. pour tout t.<br />

On prend l’actif S 0 du modèle de B<strong>la</strong>ck & Sholes généralisé comme numéraire avec 1<br />

comme unité monétaire( à <strong>la</strong> date 0, c’est à dire S0 0 = 1. A <strong>la</strong> date t > 0, on rapporte <strong>la</strong> valeur<br />

∫ )<br />

des actifs à St 0 t<br />

= exp r 0 sds , ce qui revient à comparer leurs performances à celles de<br />

l’actif sans risque en les comparant à 1. Un autre actif X t vaut, dans cette nouvelle « unité »<br />

˜X t = X ( ∫ t<br />

)<br />

t<br />

= X<br />

St<br />

0 t exp − r s ds .<br />

0<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.1 Modélisation d’un marché financier en temps continu 69<br />

On dispose également d’actifs « contingents » ou « dérivés » dont l’évolution des prix<br />

dépend de celle des actifs de base S i , 0 ≤ i ≤ d. Plus précisément, on se donne à une date<br />

T > 0 appelée « maturité » de l’actif sa valeur ζ qui peut dépendre de toutes les trajectoires<br />

des actifs de base (St i , i = 0, · · · , d, 0 ≤ t ≤ T). La valeur de l’actif à l’instant T est donc<br />

une variable aléatoire F T -mesurable. Pour un call européen dans le cas du modèle de B<strong>la</strong>ck<br />

& Sholes, on a ζ = (ST 1 − K)+ .<br />

On cherche à « dupliquer » l’actif contingent ζ. On dispose d’une somme initiale qui est<br />

à chaque instant répartie entre les divers actifs de base sans adjonction ni retrait d’argent,<br />

de telle sorte qu’à <strong>la</strong> date T, <strong>la</strong> somme des p<strong>la</strong>cements faits sur ces actifs soit égale à ζ. Le<br />

but est de trouver l’investissement initial et <strong>la</strong> façon de répartir à chaque instant <strong>la</strong> somme<br />

dont on dispose entre les divers actifs pour qu’à <strong>la</strong> date T l’investissement global sur les<br />

d + 1 actifs soit ζ.<br />

4.1.2 Description des stratégies<br />

Formalisons cette duplication par <strong>la</strong> définition suivante.<br />

Définition 4.3 Une stratégie est un processus Θ = ( (θs 0, · · · , θd s ), s ∈ [0, T]) tel que chaque<br />

composante θ i soit (F t )-progressivement mesurable et ∫ t<br />

0 θi s dSi s existe pour tout i = 0, · · · , d.<br />

Dans le cas du modèle de B<strong>la</strong>ck & Sholes à deux actifs à coefficients constants, puisque<br />

les processus S 0 et S 1 sont à trajectoires continues, donc p.s. bornées sur [0, T], il suffit<br />

donc d’imposer que les coefficients θ 0 ∈ H1 loc et θ 1 ∈ H2 loc . En effet, dans ce cas les<br />

intégrales déterministes ∫ t<br />

0 θ0 se rs ds, ∫ t<br />

0 θ1 sbSsds 1 et l’intégrale stochastique ∫ t<br />

0 σθ1 sSsdB 1 s seront<br />

bien définies.<br />

Rappelons les hypothèses faites sur le marché (décrites dans <strong>la</strong> section 2.6.2) :<br />

– Il n’y a aucun coût de transaction pour l’achat et <strong>la</strong> vente de titres.<br />

– On permet <strong>la</strong> vente à découvert sans limite, c’est à dire que les θt i peuvent prendre des<br />

valeurs négatives et ne sont pas minorés.<br />

– Les actifs sont indéfiniment divisibles, c’est à dire que l’on peut acheter un vendre<br />

une proportion arbitraire d’un titre; les processus θ i peuvent donc prendre toutes les<br />

valeurs réelles.<br />

– Le « trading » se fait en temps continu, c’est à dire que l’on peut acheter ou vendre à<br />

chaque instant réel t ∈ [0, T].<br />

La valeur du portefeuille V Θ<br />

t<br />

associé à <strong>la</strong> stratégie Θ à l’instant t est<br />

V Θ<br />

t = (θ t , S t ) =<br />

d∑<br />

θtS i t. i (4.1)<br />

Le fait qu’on n’ajoute ni retire de l’argent est modélisé par <strong>la</strong> définition suivante :<br />

Définition 4.4 Une stratégie Θ est autofinancée (ou le portefeuille V Θ associé est autofinancé)<br />

si pour tout t ∈ [0, T], Vt<br />

Θ = V0 Θ + ∑ d<br />

∫ t<br />

i=0 0 θi s dSi s p.s.<br />

Les changements de valeur du portefeuille viennent dont uniquement de <strong>la</strong> répartition des<br />

p<strong>la</strong>cements entre les divers actifs de base et des changements de valeur de ces actifs.<br />

Nous serons amenés dans <strong>la</strong> suite à changer de numéraire afin que les processus qui<br />

modélisent le prix des actifs de base ainsi actualisés aient des propriétés de martingale. Le<br />

résultat suivant montre que le caractère autofinancé n’est pas affecté par un tel changement.<br />

i=0<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


70 4 Applications à <strong>la</strong> finance<br />

Proposition 4.5 Soit (X t , t ∈ [0, T]) un numéraire, Si t<br />

X t<br />

le prix à l’instant t de l’actif actualisé<br />

après changement de numéraire. Si <strong>la</strong> stratégie Θ est autofinancée, le portefeuille<br />

actualisé après changement de numéraire V t<br />

Θ<br />

X t<br />

reste autofinancé.<br />

Démonstration. Puisque X est un processus d’Itô strictement positif, Y = 1 est également<br />

X<br />

un processus d’Itô strictement positif et <strong>la</strong> formule d’Itô entraîne que pour tout i = 0, · · · , d,<br />

( ) S<br />

i<br />

d t<br />

= d(St i X Y t) = St i dY t + Y t dSt i + d〈Si , Y 〉 t .<br />

t<br />

Si le processus V Θ est autofinancé, dVt<br />

Θ<br />

en déduit en appliquant de nouveau <strong>la</strong> formule d’Itô<br />

d<br />

( ) V<br />

Θ<br />

t<br />

X t<br />

= Vt Θ dY t + Y t dVt<br />

Θ + d〈V Θ , Y 〉 t<br />

=<br />

i=0<br />

= ∑ d<br />

i=0 θi tdS i t p.s. et V Θ est un processus d’Itô. On<br />

d∑ [<br />

θ<br />

i<br />

t St i dY t + Y t θt i dSi t + ]<br />

d∑<br />

( ) S θi t d〈Si , Y 〉 t = θt i i d t<br />

. ✷<br />

X t<br />

i=0<br />

La notion suivante est également conservée par un changement de numéraire.<br />

Définition 4.6 Une stratégie Θ est à richesse positive si elle et autofinancée et si pour tout<br />

t ∈ [0, T], Vt<br />

Θ ≥ 0 p.s.<br />

Si on actualise avec comme numéraire l’actif non risqué S 0 , les prix actualisés des actifs<br />

de base sont ˜S t = (1, ˜S t 1, · · · , ˜S t d ). Ce sont de nouveaux processus d’Itô et un portefeuille est<br />

autofinancé si et seulement si après actualisation<br />

dṼ Θ<br />

t =<br />

d∑<br />

θtd i ˜S t, i ∀t ∈ [0, T].<br />

i=1<br />

On en déduit qu’un portefeuille autofinancé est entièrement déterminé par sa valeur initiale<br />

V0 Θ et les quantités investies sur les actifs risqués (θt i , i = 1, · · · , d, t ∈ [0, T]). En effet,<br />

d ˜S t 0 = 0, Ṽ 0 Θ = V0 Θ,<br />

Ṽ Θ<br />

t<br />

= V Θ<br />

0 + d∑<br />

i=1<br />

∫ t<br />

0<br />

θ i s d ˜S i s et θ 0 t<br />

peut être déduit par Ṽ<br />

Θ<br />

t<br />

d∑<br />

= θt 0 + θt i ˜S t i .<br />

Puisque après actualisation l’actif non risqué est constant, c’est une martingale (triviale).<br />

On souhaiterait transformer les autres actifs en martingales. Le chapitre précédent a montré<br />

que ceci était possible au prix d’un changement de probabilité qui peut annuler le terme de<br />

dérive.<br />

4.1.3 Absence d’opportunité d’arbitrage - Mesure martingale équivalente<br />

Ceci amène à <strong>la</strong> définition suivante de stratégie admissible.<br />

Définition 4.7 (i) On appelle mesure martingale équivalente une probabilité Q équivalente<br />

à P telle que sous Q les prix actualisés ˜S i , i = 1, · · · , d sont des (F t )-martingales. Plus<br />

précisément, on suppose qu’il existe un Brownien W sous Q tel que d ˜S t i = ∑ k<br />

j=1 Hi j (t)dW j<br />

t .<br />

(ii) Soit Q une mesure martingale équivalente. On dit que <strong>la</strong> stratégie Θ est Q-admissible<br />

si elle est autofinancée et si (Ṽ t Θ , 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T) martingale sous Q.<br />

i=1<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.1 Modélisation d’un marché financier en temps continu 71<br />

La notion suivante est fondamentale; elle traduit que le marché fonctionne correctement<br />

et qu’il n’y a pas de « free lunch », c’est à dire de moyen de gagner une somme strictement<br />

positive à l’instant T en n’ayant rien investi au départ. C’est <strong>la</strong> notion inverse (possibilité<br />

de « free lunch » ) qui est décrite dans <strong>la</strong> définition suivante :<br />

Définition 4.8 (Opportunité d’arbitrage) Une stratégie autofinancée Θ est appelée possibilité<br />

d’arbitrage si<br />

(i) V0 Θ = 0 et VT<br />

Θ ≥ 0 p.s.<br />

(ii) P(VT Θ > 0) > 0.<br />

Un marché sain doit avoir <strong>la</strong> propriété d’absence d’opportunité d’arbitrage, notée<br />

AOA. Deux probabilités équivalentes ayant les mêmes ensembles négligeables, dans <strong>la</strong> définition<br />

d’opportunité d’arbitrage, on peut remp<strong>la</strong>cer P par une mesure martingale équivalente<br />

Q.<br />

Le résultat suivant montre que l’existence d’une mesure martingale équivalente Q exclut<br />

l’opportunité d’arbitrage quand on se restreint aux stratégies Q-admissibles ou bien à richesse<br />

positive. Dans le cas du modèle de B<strong>la</strong>ck & Sholes nous verrons qu’il y a équivalence<br />

entre cette dernière propriété et AOA.<br />

Théorème 4.9 S’il existe une mesure martingale équivalente Q, alors :<br />

(i) il y a absence d’opportunité d’arbitrage parmi les stratégies Θ qui sont Q-admissibles.<br />

(ii) il y a absence d’opportunité d’arbitrage parmi les stratégies Θ à richesse positive.<br />

Démonstration.<br />

(i) Soit Θ une stratégie admissible. Alors V0 Θ = Ṽ 0 Θ = E Q (Ṽ T Θ | F 0) = E Q (Ṽ T Θ Θ<br />

). Si ṼT ≥ 0,<br />

Q p.s. et si P(VT<br />

Θ<br />

Θ<br />

Θ<br />

> 0) > 0, on en déduit que P(ṼT<br />

> 0) > 0, puis que Q(ṼT > 0) > 0<br />

puisque P et Q sont équivalentes. On a donc E Q (Ṽ T Θ<br />

Θ<br />

) > 0, ce qui exclut V0 = 0.<br />

(ii) Soit Θ une stratégie à richesse positive; si on note d ˜S t i = ∑ k<br />

j=1 Hi j (t)dW j<br />

t pour<br />

t ∈ [0, T], où (W t , 0 ≤ t ≤ T) est un Q Brownien standard de dimension k, alors pour<br />

tout t ∈ [0, T], dṼ t<br />

Θ = ∑ d<br />

∑ k<br />

i=1 j=1 θi t Hi j (t)dW j<br />

t Q p.s. On en déduit que Ṽ Θ est une (F t )-<br />

martingale locale positive sous Q; c’est donc une surmartingale (cf. Exercice 1.4 (i)). On<br />

a donc pour tout t ∈ [0, T], E Q (Ṽ t Θ |F 0 ) ≤ Ṽ 0 Θ = V0 Θ Q p.s. Donc si Θ est une possibilité<br />

d’arbitrage, E Q (Ṽ T Θ<br />

Θ<br />

) ≤ 0. D’autre part, puisque ṼT<br />

≥ 0 P p.s., donc Q p.s puisque P et Q<br />

sont équivalentes, on en déduit Ṽ T<br />

Θ = 0 Q p.s., donc P p.s., ce qui fournit une contradiction.<br />

✷<br />

Il faut prendre garde à une difficulté propre au temps continu : l’existence d’une mesure<br />

martingale équivalente n’entraîne pas l’absence d’opportunité d’arbitrage sans restriction<br />

sur les stratégies. En effet, si Z est une variable aléatoire FT B -mesurable de carré intégrable<br />

centrée (non identiquement nulle), le théorème 3.12 montre qu’il existe H ∈ H2 T (sous Q)<br />

telle que Z = ∫ T<br />

H 0 tdW s . On peut en déduire dans le modèle de B<strong>la</strong>ck & Sholes une stratégie<br />

autofinancée Θ = (θt,θ 0 t 1 ) telle que Ṽ 0 Θ = 0 et Ṽ T Θ = Z.<br />

4.1.4 Probabilité risque neutre<br />

Dans toute cette section, on suppose qu’il existe une mesure martingale Q<br />

équivalente à P.<br />

Définition 4.10 On dit qu’un actif donné par sa valeur à l’instant terminal T par une<br />

variable aléatoire F T -mesurable ζ est Q-duplicable s’il existe une stratégie Θ Q-admissible<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


72 4 Applications à <strong>la</strong> finance<br />

telle que ζ est <strong>la</strong> valeur terminale du portefeuille associé, c’est à dire si ζ = VT<br />

Θ Q presque<br />

sûrement. On dit alors que <strong>la</strong> stratégie Θ duplique l’actif à l’instant T, ou est « duplicante ».<br />

Ceci veut dire intuitivement que le portefeuille duplique l’actif « dans tous les états du<br />

monde » c’est à dire pour P (ou Q) presque tout ω.<br />

On montrera à titre d’exercice que si un actif est duplicable à l’instant T il le reste après<br />

changement de numéraire avec <strong>la</strong> même stratégie.<br />

Le résultat suivant montre que <strong>la</strong> valeur du portefeuille à tout instant t ≤ T est<br />

indépendante de <strong>la</strong> stratégie duplicante (mais peut dépendre de Q).<br />

Théorème 4.11 Soit T > 0, ζ un actif dérivé (une variable aléatoire F T -mesurable) Q-<br />

duplicable. Alors si Θ est une stratégie duplicante et V Θ le portefeuille associé, pour tout<br />

instant t ∈ [0, T], Vt<br />

Θ = St 0 E Q (Ṽ T Θ|F<br />

T) (Q ou P p.s.) est indépendant de <strong>la</strong> stratégie duplicante.<br />

On l’appelle le prix de l’option à l’instant t.<br />

Démonstration. Pour tout t ∈ [0, T], Ṽ Θ<br />

t<br />

V Θ<br />

t<br />

= E Q (Ṽ T Θ|F<br />

t), c’est à dire que Q p.s.<br />

)<br />

∣<br />

∣F t ,<br />

= S 0 t E Q<br />

( ζ<br />

S 0 T<br />

est indépendant de <strong>la</strong> stratégie Θ.<br />

✷<br />

De façon évidente, si une stratégie Q-admissible Θ duplique un actif ζ ≥ 0, elle est à<br />

richesse positive. Cependant, une stratégie à richesse positive ne détermine pas de façon<br />

unique le prix du produit dérivé. En effet Harrison et Pliska ont montré qu’il existe une<br />

stratégie Φ à richesse positive telle que V0 Φ = 1 et VT<br />

Φ = 0; cette stratégie est parfois<br />

appelés stratégie suicide. C<strong>la</strong>irement, si Θ est une stratégie qui duplique ζ, Θ + Φ duplique<br />

également ζ.<br />

En revenant au modèle de B<strong>la</strong>ck & Sholes, nous avons vu à <strong>la</strong> fin du chapitre précédent<br />

que si λ = b−r,<br />

<strong>la</strong> probabilité Q de densité exp(−λB σ T − λ2 T) par rapport à P telle que sous<br />

2<br />

Q ( ˜S t = e −rt S t , t ≥ 0) est une Q-martingale et le calcul précédent montre que sous Q, si ζ<br />

est une variable aléatoire F T -mesurable,<br />

V Θ<br />

t = e −r(T −t) E Q (ζ|F t ) = e rt E Q (e −rT ξ|F t ).<br />

Sous Q, l’actualisation de l’espérance conditionnelle E Q (ζ|F t ) se fait à l’aide du facteur<br />

exponentiel exp(−r(T − t)), c’est à dire avec le coefficient d’actualisation r. Les coefficients<br />

de <strong>la</strong> diffusion S ont disparu de cette formule, comme si les investisseurs étaient neutres par<br />

rapport au risque. On appelle Q <strong>la</strong> probabilité risque neutre. La probabilité P de départ<br />

est appelée probabilité « réelle » , « historique » ou « objective ».<br />

Le problème qui subsiste est <strong>la</strong> possibilité de dupliquer un actif.<br />

Définition 4.12 (i) On dit que le marché est complet si tout actif est duplicable.<br />

(ii) Soit Q une mesure martingale équivalente. On dit que le marché est Q-complet si<br />

pour toute variable aléatoire F T -mesurable ζ telle que ζ ∈ L 1 (Q), l’actif de valeur terminale<br />

ST<br />

0<br />

ζ est Q-duplicable.<br />

Remarquons que par absence d’opportunité d’arbitrage, on a naturellement unicité de<br />

<strong>la</strong> mesure martingale équivalente Q telle que le marché est Q-complet.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 73<br />

Théorème 4.13 Supposons que le marché est complet. Notons Q 1 et Q 2 sont deux martingales<br />

mesures équivalentes telles que le marché soit Q i -complet, i = 1, 2. Alors on a<br />

Q 1 | FT = Q 2 | FT .<br />

Démonstration. Soit A ∈ F T . Alors 1 A ∈ L 1 (Q) et ST 01 A est F T -mesurable; c’est <strong>la</strong> valeur<br />

terminale d’une stratégie Q i -admissible Θ i , i = 1, 2. On en déduit<br />

( ) S<br />

0<br />

V0 Θi<br />

= Ṽ 0 Θi<br />

= E Qi (Ṽ T Θi<br />

) = E T 1 A<br />

Q i<br />

= Q<br />

ST<br />

0 i (A).<br />

D’après le Théorème 4.11, <strong>la</strong> valeur du portefeuille duplicant est indépendante de <strong>la</strong> stratégie;<br />

à l’instant 0 ceci traduit une absence d’opportunité d’arbitrage. On en déduit que V0 Θ1 =<br />

V0 Θ2 , et donc Q 1 (A) = Q 2 (A). ✷<br />

4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé<br />

Nous généralisons tout d’abord le modèle de B<strong>la</strong>ck & Sholes à un seul actif risqué que<br />

nous avons décrit dans les chapitres précédents et montrons que dans ce cas plus général il<br />

existe également une mesure martingale équivalente Q dès qu’il y a absence d’opportunité<br />

d’arbitrage.<br />

De plus, nous donnons des conditions suffisantes pour que le marché soit Q-complet et<br />

calculerons <strong>la</strong> stratégie de couverture d’une option, c’est à dire <strong>la</strong> stratégie duplicante Θ et<br />

<strong>la</strong> valeur de l’option à chaque instant. ( ∫ )<br />

Soit r un processus dans H1 loc et St 0 t<br />

= exp r 0 sds .<br />

On dispose d’autre part de d actifs risqués S i , i = 1, · · · , d qui sont des processus d’Itô de<br />

<strong>la</strong> forme<br />

k∑<br />

∫ t<br />

∫ t<br />

St i = Si 0 + σj i (s)Si s dBk s + b i (s)S i (s)ds , (4.2)<br />

j=1<br />

0<br />

où B est un Brownien standard de dimension k, les processus (σj i(s), 0 ≤ s ≤ T) et (bi (s), 0 ≤<br />

s ≤ T) sont progressivement mesurables et tels qu’il existe une constante M > 0 telle que<br />

sup 0≤t≤T (‖σ(t)‖ + ‖b(t)‖) ≤ M. Alors d’après l’exercice 2.4 pour tout i = 1, · · · , d,<br />

(∫ t ∫ t<br />

St<br />

i = exp σ i (s)dB s + (b i (s) − 1 )<br />

0<br />

0 2 ‖σi (s)‖ 2 )ds<br />

(4.3)<br />

( k∑ ∫ t<br />

∫ [<br />

)<br />

t<br />

:= exp σj i (s)dBj s + b i (s) − 1 k∑<br />

|σj ]ds<br />

i<br />

j=1 0<br />

0 2<br />

(s)|2 .<br />

j=1<br />

De plus, l’équation (4.3) est aussi vérifiée si les S i sont des processus d’Itô (donc continus)<br />

tels que dSt i = ∑ k<br />

j=1 Hi k (s)dBk s +H0(s)ds i et tels que si on note σk i(t) = Hi k (t)<br />

pour i = 1, · · · , d<br />

St<br />

i<br />

et b i (t) = Hi 0 (t) , ∫ T<br />

S i (t) 0 (‖σ(s)‖2 + ‖b(s)‖)ds < +∞ p.s.<br />

4.2.1 Absence d’opportunité d’arbitrage et changement de probabilité - Prime de<br />

risque<br />

Nous avons vu dans <strong>la</strong> section précédente que l’existence d’une mesure martingale équivalente<br />

Q entraîne l’absence d’opportunité d’arbitrage parmi les stratégies à richesse positive.<br />

Montrons <strong>la</strong> réciproque dans ce modèle.<br />

0<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


74 4 Applications à <strong>la</strong> finance<br />

Supposons qu’il y a absence d’opportunité d’arbitrage parmi les stratégies à richesse<br />

positive.<br />

P<strong>la</strong>çons-nous d’abord dans le cas particulier k = 1 et d = 2 afin de dégager <strong>la</strong> notion<br />

de prime de risque attachée à un facteur. Dans ce cas, un portefeuille autofinancé est<br />

entièrement déterminé par sa valeur initiale V0 Θ et les quantités θt i , i ∈ {1, 2}, t ∈ [0, T]<br />

investies à chaque instant sur les deux actifs risqués. Pour tout t ∈ [0, T], notons θt 1 = σt 2 St<br />

2<br />

∫<br />

et θt<br />

2 = −σt 1S1 t . La continuité de Si et les propriétés de σ i montrent que les intégrales<br />

t<br />

0 θi s dSi s sont bien définies et (θ1 t , θ2 t ) est donc une stratégie autofinancée. Pour tout t ∈ [0, T],<br />

St 0 = exp(∫ t<br />

r 0 sds), et<br />

d ˜S<br />

(<br />

t i = d e − R )<br />

t<br />

0 rsds St<br />

i = σt i ˜S t i dB t + (b i t − r t) ˜S t i dt,<br />

ce qui entraîne (grâce à <strong>la</strong> simplification des coefficients de dB t )<br />

dṼ Θ<br />

t<br />

= σ 2 t S2 t d ˜S 1 t − σ1 t S1 t d ˜S 2 t = e− R t<br />

0 rsds S 1 t S2 t [σ2 t (b1 t − r t) − σ 1 t (b2 t − r t)]dt.<br />

Ce portefeuille est donc sans risque et l’absence d’opportunité d’arbitrage montre que son<br />

rendement est égal à r t , c’est à dire nul quand les prix sont actualisés par changement de<br />

numéraire. En effet, notons φ(t) = e − R t<br />

0 rsds St 1S2 t [σ2 t (b1 t −r t) −σt 1(b2 t −r t)], et supposons qu’il<br />

existe un ensemble A ⊂ [0, T] × Ω tel que dλ ⊗ P(A) > 0 et φ(t)(ω) ≠ 0 sur A. Notons s(t)<br />

le signe de φ(t) lorsque φ(t) ≠ 0 et posons pour i = 1, 2,<br />

Alors <strong>la</strong> stratégie Ψ = (ψ 1 , ψ 2 ) est telle que<br />

ψ i (t) = s(t)θ i (t) sur A et ψ i (t) = 0 sur A c .<br />

dṼ Ψ<br />

t = |φ(t)|dt surA, dṼ Ψ<br />

t = 0 surA c .<br />

La stratégie Ψ est une opportunité d’arbitrage et on en déduit donc que b1 t −rt<br />

σ 1 t<br />

= b2 t −rt .<br />

σt<br />

2<br />

Ce quotient noté λ t sera appelé prix du marché du risque B t à <strong>la</strong> date t. Il quantifie<br />

l’arbitrage qui est fait à l’instant t entre de rendement et le risque dans <strong>la</strong> constitution du<br />

portefeuille.<br />

Revenons au modèle général. Pour tout t ∈ [0, T], <strong>la</strong> matrice σ(t) définit une application<br />

linéaire aussi notée σ(t) : R k → R d de matrice σ(t) dans <strong>la</strong> base canonique, c’est à dire<br />

telle que pour tout x = (x 1 , · · · , x k ) ∈ R k et tout i = 1, · · · , d, (σ(t)x) i = ∑ k<br />

j=1 σi j(t)x j . On<br />

cherche un vecteur λ t = (λ 1 t, · · · , λ k t ) tel que pour tout i = 1, · · · , d, b i (t)−r t = ∑ k<br />

j=1 σi j(t)λ k t ,<br />

c’est à dire que λ j t est <strong>la</strong> prime de risque du Brownien B j t à l’instant t. En identifiant un<br />

vecteur de R k à <strong>la</strong> matrice colonne de ses composantes dans <strong>la</strong> base canonique, et en notant<br />

¯1 = (1, · · · , 1) ∈ R d , ceci revient à résoudre l’équation<br />

b(t) − r t¯1 = σ(t)λ t .<br />

Le théorème suivant montre l’existence du vecteur des primes de risque de marché λ.<br />

Théorème 4.14 Supposons qu’il y a absence d’opportunité d’arbitrage parmi les stratégies<br />

à richesse positive. Alors il existe λ : [0, T] × Ω → R k progressivement mesurable tel que<br />

pour tout t ∈ [0, T], b(t) − r t¯1 = σ(t)λ t .<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 75<br />

Démonstration. Montrons que le vecteur b(t) − r t¯1 ∈ Im (σ(t)). Nous admettrons alors que<br />

le choix de λ peut être fait de façon progressivement mesurable.<br />

Ceci revient à prouver que b(t) − r t¯1 est orthogonal à tout vecteur du noyau de l’application<br />

linéaire adjointe de σ(t) : R k → R d notée σ ∗ (t) : R d → R k , définie pour tout<br />

y ∈ R k et tout z ∈ R d , (σ(t)y, z) R d = (y, σ ∗ (t)z) R k et associée à <strong>la</strong> matrice transposée de<br />

σ(t). En effet, Im(σ(t) = Ker (σ ∗ (t)) ⊥ . L’inclusion Im (σ(t)) ⊂ Ker (σ ∗ (t)) ⊥ est évidente<br />

par <strong>la</strong> définition de l’adjoint : pour tout y ∈ R k et tout z ∈ Ker (σ ∗ (t)) ⊂ R d , (σ(t)y, z) R d =<br />

(y, σ ∗ (t)z) R k = 0. De plus les re<strong>la</strong>tions c<strong>la</strong>ssiques entre dimension des noyau, image des applications<br />

linéaires et de l’orthogonal d’un sous-espace vectoriel montrent que dim Im (σ(t)) ≤<br />

k−dim Ker (σ ∗ (t)) = dim Im (σ ∗ (t)). En échangeant les rôles de σ ∗ (t) et de σ(t) = (σ ∗ (t)) ∗ ,<br />

on en déduit que dim Im (σ ∗ (t)) ≤ dim Im σ(t)), d’où dim Im σ(t)) = dim Im σ ∗ (t)) =<br />

dim Ker(σ ∗ (t)) ⊥ , soit Im (σ(t)) = Ker (σ ∗ (t)) ⊥ d’après l’inclusion précédente.<br />

Puisque les prix des actifs de base sont strictement positifs, pour tout vecteur x ∈ R d le<br />

processus Θ : Ω × [0, T] → R d défini pour i = 1, · · · , d par θt i = xi permet de construite une<br />

St<br />

i<br />

stratégie autofinancée. En effet <strong>la</strong> condition d’autofinancement permet d’en déduire θt 0 et<br />

les conditions d’existence des intégrales ∫ t<br />

0 θi s dSi s sont bien satisfaites. On a donc x = (ΘS) t,<br />

où on définit le vecteur (ΘS) t par (ΘS) i t = θtS i t.<br />

i<br />

Supposons qu’il existe un ensemble A ⊂ [0, T] × Ω tel que (dt ⊗dP)(A) > 0 et pour tout<br />

(t, ω) ∈ A,<br />

σ(t) ∗ (ΘS) t = 0 et ( (ΘS) t , b(t) − r ) t¯1 ≠ 0.<br />

On construit alors une nouvelle stratégie autofinancée Φ et posant<br />

Φ t = 0 sur A c , Φ t = s t Θ t où s t = signe [ (ΘS) ∗ t (b(t) − r t¯1) ] sur A.<br />

Pour presque tout (t, ω) ∈ A, pour tout j, ∑ d<br />

i=1 θi t Si t σi j (t) = 0 et<br />

dṼ Φ<br />

t<br />

= e − R t<br />

k∑ ( d∑<br />

0 rsds s t<br />

j=1<br />

i=1<br />

d∑<br />

=<br />

˜S i<br />

∣<br />

tθt(b i i (t) − r t )<br />

∣ dt,<br />

i=1<br />

)<br />

θtS i tσ i j(t)<br />

i dB j (t) +<br />

d∑<br />

i=1<br />

e − R t<br />

0 rsds θ i ts t S i t(b i (t) − r t )dt<br />

tandis que dṼ t<br />

Φ = 0 presque partout sur A c . On en déduit une stratégie non risquée telle<br />

que sur un ensemble de probabilité non nulle, ∫ T<br />

dṼ Φ<br />

0 s ds > 0, ce qui revient à dire que Φ est<br />

une opportunité d’arbitrage.<br />

Puisque il y a absence d’opportunité d’arbitrage, tout vecteur x de R d que l’on peut<br />

écrire x = (ΘS) t , du noyau de σ(t) ∗ est orthogonal à b(t) −r t¯1. On en déduit que le vecteur<br />

b(t) −r t¯1 appartient à l’orthogonal du noyau de σ(t) ∗ , c’est à dire à l’image de σ(t). ✷<br />

Le théorème suivant montre enfin que si le vecteur de primes de risque λ a des propriétés<br />

supplémentaires, il existe une mesure martingale équivalente décrite explicitement à l’aide de<br />

λ. Ceci généralise ce qui a été observé dans le modèle de B<strong>la</strong>ck & Sholes. En effet dans ce cas<br />

<strong>la</strong> prime de risque λ est telle que σλ = b −r, c’est à dire que λ = b−r<br />

σ<br />

neutre Q a été construite à partir de <strong>la</strong> martingale exponentielle L t = exp<br />

et <strong>la</strong> probabilité<br />

(<br />

risque<br />

−λB t −<br />

).<br />

λ2t<br />

2<br />

Théorème 4.15 Supposons qu’il existe un vecteur de prime de risque λ : [0, T] × Ω → R k ,<br />

c’est à dire un processus progressivement mesurable tel que b(t) − r t¯1 = σ(t)λ t et que :<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


76 4 Applications à <strong>la</strong> finance<br />

(i) λ ∈ H2 loc(Rk<br />

).<br />

(<br />

(ii) Pour tout t ∈ [0, T], si on pose L t = exp − ∫ t<br />

λ ∫ )<br />

0 sdB s − 1 t<br />

‖λ 2 0 s‖ 2 ds on a<br />

(<br />

E(L T ) = 1 et pour tout i = 1, · · · , d, E P L T e R T<br />

R T<br />

0 σi s (dBs+λsds)−1 2 0 ‖σi (s)‖ ds)<br />

2 < +∞.<br />

Alors <strong>la</strong> probabilité Q définie par dQ| FT = L T dP| FT est une mesure martingale équivalente<br />

à P, c’est à dire que les prix actualisés ( ˜S t i) sont des (F t)-martingales sous Q.<br />

Remarque 4.16 Les hypothèses de convergence des intégrales de <strong>la</strong> condition (ii) sont<br />

satisfaites dès que les processus λ et σ i sont bornés, ou bien plus généralement si<br />

E P<br />

[e 1 2<br />

R T<br />

0 (‖λ(s)‖ 2 +‖σ i (s)‖ 2 )ds]<br />

< +∞.<br />

En effet, dans ce cas les deux martingales locales sont des martingales exponentielles.<br />

Démonstration. Il suffit d’appliquer le théorème de Girsanov. La probabilité Q est équivalente<br />

à P et le processus défini pour j = 1, · · · , k et t ∈ [0, T] par<br />

est une Q-martingale; de plus sous Q,<br />

W j<br />

t = B j t +<br />

∫ t<br />

0<br />

λ j s ds<br />

d ˜S i t = ˜S i t σi (t)dB t + ˜S i t [bi (t) − r t ]dt = ˜S i t σi (t)dW t .<br />

De plus <strong>la</strong> seconde condition d’intégrabilité montre ( ( que <strong>la</strong> condition de Novikov (Théorème<br />

∫ t<br />

3.4) est satisfaite et assure que le processus exp<br />

0 σi s dW ∫ ) )<br />

s − 1 t<br />

2 0 ‖σi (s)‖ 2 ds , t ∈ [0, T]<br />

est une Q-martingale; ceci termine <strong>la</strong> démonstration grâce à <strong>la</strong> forme explicite de ˜S t i (sous<br />

Q) à l’aide de W montrée dans l’exercice 2.4. ✷<br />

4.2.2 Complétude du marché<br />

On se p<strong>la</strong>ce sous les hypothèses du Théorème 4.15 : on note Q <strong>la</strong> probabilité<br />

de densité L T par rapport à P, telle que sous Q les processus ( ˜S t i , 0 ≤ t ≤ T) sont<br />

des (F t , 0 ≤ t ≤ T)-martingales.<br />

Soit ζ une variable aléatoire F T -mesurable Q intégrable après changement de numéraire.<br />

On veut montrer que l’actif de valeur terminale ζ est duplicable. Ceci nécessite une hypothèse<br />

de « rang » sur <strong>la</strong> matrice de diffusion σ. Rappelons que pour tout t, <strong>la</strong> matrice σ(t) est<br />

associée à une application linéaire de R k dans R d d’adjointe σ(t) ∗ : R d → R k dont <strong>la</strong><br />

matrice dans les bases canoniques est <strong>la</strong> transposée σ(t) ∗ de <strong>la</strong> matrice de diffusion σ(t). L’<br />

application linéaire σ(t) ∗ est surjective si et seulement si le rang de cette matrice (qui est<br />

aussi celui de <strong>la</strong> matrice σ(t)) est égal à k.<br />

Théorème 4.17 Soit Q <strong>la</strong> mesure martingale équivalente du Théorème 4.15. Le marché<br />

est Q-complet si et seulement si pour tout t ∈ [0, T], le rang de σ(t) est Q (ou P) presque<br />

sûrement égal à k.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 77<br />

Démonstration. Soit ζ une variable aléatoire F T -mesurable telle que ζ ∈ L 1 (Q). On veut<br />

ST<br />

0<br />

trouver une stratégie autofinancée Q-admissible Θ telle que VT<br />

Θ = ζ. D’après <strong>la</strong> section<br />

précédente, si une telle stratégie existe, on a sous Q pour tout t ∈ [0, T], d’après <strong>la</strong> propriété<br />

de Q-martingale et d’autofinancement :<br />

Ṽ Θ<br />

t<br />

( ζ<br />

)<br />

∣<br />

= E Q ∣F<br />

ST<br />

0 t = V0 Θ +<br />

d∑<br />

i=1<br />

∫ t<br />

0<br />

θ i s ˜S i sσ i sdW s .<br />

(<br />

Le processus M t = E ζ<br />

)<br />

Q<br />

∣<br />

ST<br />

0 Ft est une (Ft W )-martingale sous Q. Le processus λ n’étant<br />

pas déterministe, <strong>la</strong> filtration (Ft W ) est incluse dans (Ft B ), sans lui être égale.<br />

D’après le Lemme 3.1 le produit (L t M t ) est une (Ft B , 0 ≤ t ≤ T)-martingale locale sous<br />

P. Le théorème de représentation (Théorème 3.13) entraîne l’existence d’un unique processus<br />

H ∈ H2 loc (pour <strong>la</strong> filtration (Ft B)) tel que sous P, M tL t = M 0 + ∫ t<br />

H 0 sdB s , c’est à dire que<br />

Puisque L −1<br />

t<br />

sous Q, d(M t L t ) = H t dW t − H t λ t dt = H t (dW t − λ t dt) .<br />

( ∫ t<br />

= exp λ ∫ )<br />

0 sdW s − 1 t<br />

‖λ 2 0 s‖ 2 ds ,<br />

sous Q,<br />

La formule d’Itô montre alors que sous Q :<br />

dM t = d[(ML) t L −1<br />

t ]<br />

dL −1<br />

t<br />

= λ t L −1<br />

t dW t .<br />

= H t L −1<br />

t (dW t − λ t dt) + M t L t λ t L −1<br />

t dW t + d〈ML, L −1 〉 t =<br />

[<br />

M t λ t + H ]<br />

t<br />

dW t .<br />

L t<br />

Si on note K t = M t λ t + Ht<br />

L t<br />

, on en déduit un processus K progressivement mesurable tel<br />

que sous Q, M t = M 0 + ∫ t<br />

K 0 sdW s . Il reste enfin par identification de <strong>la</strong> décomposition de<br />

M t comme processus d’Itô à trouver θt, i i = 1, · · · , d tels que pour tout t ∈ [0, T] et tout<br />

j = 1, · · · , k, K j t = ∑ d<br />

i=1 θi ˜S t t iσi j (t). Sous forme matricielle, ce<strong>la</strong> revient à trouver le vecteur<br />

(θt i , 1 ≤ i ≤ d) tel que<br />

⎛<br />

θ 1 ˜S<br />

⎞ ⎛<br />

t t<br />

1 σ1 1<br />

σ(t) ∗ ⎜ ⎟ ⎜<br />

(t) · · · σd 1 (t)<br />

⎞⎛<br />

θ 1 ˜S<br />

⎞ ⎛ ⎞<br />

t t<br />

1 Kt<br />

1<br />

⎟⎜<br />

⎟ ⎜ ⎟<br />

⎝ . ⎠ = ⎝ . . . ⎠⎝<br />

. ⎠ = ⎝ . ⎠ .<br />

θt d ˜S t<br />

d σk 1(t) · · · σd k (t) θt d ˜S t<br />

d Kt<br />

k<br />

Si le marché est Q-complet, cette équation doit être résolue Q p.s. pour tous les seconds<br />

membres K (avec assez d’intégrabilité et de mesurabilité), ce qui entraîne que <strong>la</strong> matrice<br />

σ(t) ∗ doit être de rang k p.s., et que σ(t) doit aussi être de rang k Q p.s.<br />

Réciproquement, si σ(t) est Q p.s. de rang k, alors σ(t) ∗ est Q p.s. surjective et l’équation<br />

admet Q p.s. une solution θt i , i = 1, · · · , d. Pour satisfaire l’autofinancement (après actualisation),<br />

on en déduit θt 0 = M t − ∑ d<br />

i=1 θi ˜S t t i Q p.s. La stratégie Θ = (θi , 0 ≤ i ≤ d) est<br />

donc autofinancée, de valeur Ṽ t<br />

Θ égale à M t à l’instant t. Puisque (Ṽ t Θ , 0 ≤ t ≤ T) est une<br />

(Ft B Θ<br />

)-martingale sous Q, <strong>la</strong> stratégie Θ est admissible et puisque Q p.s. VT = M TST 0 =<br />

E Q (ζ|F T ) = ζ, elle duplique ζ. ✷<br />

Remarquons que l’absence d’opportunité d’arbitrage et l’existence de primes de risque λ<br />

donnent l’existence d’une mesure martingale équivalente Q (par le théorème de Girsanov)<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


78 4 Applications à <strong>la</strong> finance<br />

et <strong>la</strong> Q-complétude du marché sous des conditions sur le rang de σ(t). Le théorème 4.13<br />

montre alors l’unicité de <strong>la</strong> mesure martingale équivalente.<br />

La condition imposant à σ(t) d’être de rang k montre qu’on doit avoir d ≥ k, c’est à<br />

dire qu’il y ait assez d’actifs pour dupliquer les k sources d’aléa B j , 1 ≤ j ≤ k. Remarquons<br />

enfin que si k = d et si pour presque tout (t, ω) ∈ [0, T] × Ω σ(t) est inversible, on a,<br />

λ t = σ(t) −1 [b(t)−r t¯1]. Donc, si <strong>la</strong> matrice σ(t, ω) est presque sûrement bornée et si σ(t)σ(t) ∗<br />

est strictement elliptique, c’est à dire qu’il existe des constantes 0 < m < M telles que pour<br />

tout y ∈ R k , m‖y‖ 2 ≤ y ∗ σ(t)σ ∗ (t)y ≤ M‖y‖ 2 , et si les coefficients b i (t) sont bornés presque<br />

partout, les conditions du Théorème 4.15 sont satisfaites.<br />

Dès que le marché est complet et qu’il y a absence d’opportunité d’arbitrage, le prix<br />

de tout actif dérivé est déterminé de façon unique; cet actif est redondant et son prix est<br />

indépendant de l’attitude des investisseurs à l’égard du risque.<br />

4.2.3 <strong>Calcul</strong> du portefeuille de couverture dans le modèle de B<strong>la</strong>ck & Sholes<br />

Rappelons que dans ce modèle on dispose d’un actif sans risque St<br />

0 = exp(rt) de<br />

taux constant r > 0 et d’un actif risqué S t modélisé par un Brownien géométrique S t =<br />

“ ”<br />

S 0 e σBt+ b− σ2<br />

2 t , solution de l’EDS linéaire dS t = S t (σdB t + bdt) où B est un Brownien standard<br />

unidimensionnel et σ > 0. On note (F t ) <strong>la</strong> tribu naturelle de B. En collectant les calculs<br />

faits précédemment et les résultats généraux montrés sur les marchés financiers, nous avons<br />

les propriétés suivantes :<br />

Après changement de numéraire, si ˜S t = S t e −rt (, on a d ˜S t = ) σ ˜S t + ˜S t (b − r)dt. Si on note<br />

et Q <strong>la</strong> probabilité de densité L T = exp −λB T − λ2 par rapport à P sur F<br />

2<br />

T , le<br />

λ = b−r<br />

σ<br />

processus (W t = B t + λt, 0 ≤ t ≤ T) est une (F t , 0 ≤ t ≤ T)-martingale sous Q telle que<br />

d ˜S t = σ ˜S t dW t . La probabilité Q est donc une mesure martingale équivalente, et sous Q, le<br />

processus ˜S est <strong>la</strong> martingale exponentielle<br />

( )<br />

˜S t = S 0 exp σW t − σ2 t<br />

. (4.4)<br />

2<br />

Il y a donc absence d’opportunité d’arbitrage parmi les stratégies à richesse positive. Puisque<br />

σ > 0, le marché est complet et <strong>la</strong> mesure martingale Q est unique. De plus, pour tout ζ ∈ F T<br />

tel que Z ∈ L 1 (Q), le prix actualisé à l’instant t de l’actif versant <strong>la</strong> somme ζ à l’instant<br />

terminal T est e −r(T −t) E Q (ζ|F t ). La probabilité Q est <strong>la</strong> probabilité risque neutre.<br />

On sait qu’il est possible à chaque instant de trouver un portefeuille autofinancé d’actifs<br />

de base (l’actif non risqué S 0 et le sous-jacent S) qui à chaque instant t ∈ [0, T] a le même<br />

prix que l’option. Le vendeur de l’option doit constituer ce portefeuille appelé portefeuille de<br />

couverture de l’option. A l’instant terminal, ce portefeuille vaudra exactement ζ, <strong>la</strong> somme<br />

que le vendeur s’est engagé à payer.<br />

Le portefeuille est théoriquement ajusté à chaque instant, sans tenir compte des variations<br />

du cours du sous-jacent S. Il correspond à des transactions faites en continu et<br />

sans frais, adjonction ni retrait d’argent. La quantité d’actif risqué dans le portefeuille de<br />

couverture est appelé le Delta.<br />

En réalité, les transactions sont discrètes et les coûts de transaction limitent le nombre<br />

d’ajustements (appelés « hedges » ). Le vendeur prend donc concrètement un risque. Plus<br />

il fait de hedges, plus son portefeuille est proche de l’option, mais plus il paye de coûts de<br />

transaction.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 79<br />

Évaluation de couverture versant <strong>la</strong> somme h(S T ) à l’instant T<br />

Cette option ne dépend que de <strong>la</strong> valeur terminale (c’est le cas d’un call ou d’un put)<br />

mais pas de toute <strong>la</strong> trajectoire (S t , t ∈ [0, T]).<br />

Si h(S T ) est Q-intégrable, l’actif est duplicable par une stratégie Q-admissible. Si W t =<br />

B t + λt, (W t , t ∈ [0, T]) est un Brownien sous Q et l’équation (4.4) montre que le prix de<br />

l’option à l’instant t est<br />

E Q<br />

(<br />

e<br />

−r(T −t) h(S T )|F t<br />

)<br />

avec ST = S t exp<br />

[<br />

σ(W T − W t ) +<br />

) ]<br />

(r − σ2<br />

(T − t) .<br />

2<br />

La variable aléatoire S t est F t -mesurable et W T − W t est indépendante de F t . La propriété<br />

de Markov montre que ce prix s’écrit V (t, S t ) où<br />

“<br />

V (t, x) = E Q<br />

[e −r(T −t) h<br />

(xe σY +<br />

r− σ2<br />

2<br />

” )]<br />

(T −t)<br />

où Y ∼ N(0, T − t).<br />

On a montré dans <strong>la</strong> section 2.6.2 que <strong>la</strong> fonction V (t, x) est solution de l’équation de<br />

Feynman-Kac<br />

{ ∂V<br />

(t, x) + L ∂t tV (t, x) = rV (t, x), ∀(t, x) ∈ [0, T] × R<br />

,<br />

V (T, x) = h(x)<br />

où L t f(t, x) = rx ∂f σ2<br />

(t, x) +<br />

∂x 2 x2 ∂2 f<br />

(t, x).<br />

∂x 2<br />

“<br />

Le prix en 0 est V (0, S 0 ) = E Q<br />

[e −rT h<br />

(S 0 e σN(0,T)+<br />

r− σ2<br />

2<br />

” )]<br />

T<br />

.<br />

Il reste à calculer le portefeuille de couverture, c’est à dire les quantités θt 0 d’actif sans<br />

risque et ∆ t = θt 1 d’actif risqué qui constituent à l’instant t <strong>la</strong> stratégie autofinancée Θ qui<br />

duplique l’option. Ce portefeuille est entièrement déterminé par le prix de l’option à l’instant<br />

0 (valeur initiale du portefeuille) et le « ∆ », c’est à dire le processus (∆ t ). Nous avons vu<br />

dans <strong>la</strong> section 2.6.2 que l’unicité de <strong>la</strong> décomposition d’un processus d’Itô et <strong>la</strong> condition<br />

d’autofinancement entraînent que<br />

∆ t = ∂V<br />

∂x (t, S t). (4.5)<br />

On voit que l’EDP parabolique satisfaite par V (t, x) ne dépend pas de b. Le delta ∆ t<br />

mesure <strong>la</strong> sensibilité du prix de l’option aux variations du cours du sous-jacent S t ; c’est <strong>la</strong><br />

part du portefeuille investi sur l’actif risqué. Cette couverture est réajustée en temps discret.<br />

Si ∆ t varie beaucoup, on doit modifier souvent <strong>la</strong> composition du portefeuille et <strong>la</strong> sensibilité<br />

du delta au cours du sous-jacent est mesurée par le « gamma » défini par<br />

Γ t = ∂2 V<br />

∂x 2 (t, S t). (4.6)<br />

<strong>Calcul</strong> du delta Supposons que h ∈ C 2 est à croissance polynomiale ainsi que ses dérivées<br />

d’ordre 1 et 2. Nous ne ferons les calculs explicites qu’à l’instant 0. Les formules à l’instant<br />

t sont simi<strong>la</strong>ires en remp<strong>la</strong>çant T par T − t et S 0 par S t .<br />

Notons<br />

)<br />

f(x, ω) = e −rT h<br />

(xe σW T +(r− σ2<br />

2 )T .<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


80 4 Applications à <strong>la</strong> finance<br />

On a V (0, x) = E Q (f(x, ω)). Pour calculer ∆ 0 , il suffit d’intervertir <strong>la</strong> dérivation par rapport<br />

à x et l’espérance sous Q. D’après les résultats c<strong>la</strong>ssiques de théorie de <strong>la</strong> mesure, il suffit<br />

que pour Q-presque tout ω, l’application x → f(x, ω) soit de c<strong>la</strong>sse C 1 , et qu’il existe une<br />

variable aléatoire g ∈ L 1 (Q) telle que pour tout x 0 et tout x dans un voisinage de x 0 ,<br />

∣ ∂f (x, ω)∣ ∣<br />

∂x ≤ g(ω) pour Q presque tout ω.<br />

Puisque h ′ est à croissance polynomiale, si x reste borné, on majore bien<br />

f ′ x (x, ω) = eσW T − σ2<br />

2 T h ′ (xe σW T +<br />

hr− σ2<br />

2<br />

par une variable aléatoire intégrable indépendante de x dans une boule donnée. On en déduit<br />

donc<br />

∆ 0 = ∂V (<br />

)<br />

∂x (t, S 0) = E Q e σW T − σ2<br />

2 T h ′ (S T ) .<br />

Un calcul simi<strong>la</strong>ire donne<br />

∆ t = ∂V (<br />

)<br />

∂x (t, S t) = E Q e σW T −t− σ2<br />

2 (T −t) h ′ (S T −t ) .<br />

Si h ′ est de signe constant (c’est à dire h est monotone), le signe de ∆ 0 est celui de h ′ .<br />

Un nouveau changement de probabilité permet de trouver une expression légèrement plus<br />

simple du delta.<br />

Soit ˜Q <strong>la</strong> probabilité de densité exp(σW T − σ2 T) par rapport à Q. Alors le processus défini<br />

2<br />

par ˜W t = W t − σt pour 0 ≤ t ≤ T est un (Ft B, 0 ≤ t ≤ T)-Brownien sous ˜Q. De plus<br />

∆ 0 = E˜Q<br />

[<br />

h<br />

′ ( S 0 e σ ˜W T +(r+ σ2<br />

2 )T)] .<br />

i<br />

T<br />

)<br />

<strong>Calcul</strong> du gamma Un raisonnement simi<strong>la</strong>ire permet de dériver de nouveau sous le signe<br />

somme, ce qui donne<br />

Γ 0 = ∂2 V<br />

(<br />

)<br />

∂x (t, S 0) = E 2 Q e σW T −t− σ2<br />

2 (T −t) h ′′ (S T −t ) .<br />

Le second changement de probabilité montre que Γ 0 = E˜Q<br />

Lorsque h est convexe, le gamma est donc positif.<br />

[<br />

h<br />

′′ ( S 0 e σ ˜W T +(r+ σ2<br />

2 )T)] .<br />

Prix d’un call de maturité T et d’exercice K<br />

On applique les résultats précédents au cas où h(x) = (x − K) + . Sous <strong>la</strong> probabilité Q,<br />

˜S est solution de l’EDS d ˜S t = σ ˜S t dW t + ( )<br />

r − σ2<br />

2 dt. Les calculs de <strong>la</strong> valeur du call ont<br />

été faits dans <strong>la</strong> section 2.6.2. La formule (2.38) montre que valeur du call à l’instant t est<br />

∫<br />

donné par (2.38). Pour tout x > 0 <strong>la</strong> formule (2.39) montre que si F(a) = √ 1 a x2<br />

e− 2 2π<br />

dx,<br />

−∞<br />

( )<br />

C(0, x) = E Q e −rT (˜S T − K) + = S 0 F(d 1 ) − Ke −rT F(d 2 ),<br />

où<br />

d 1 = 1<br />

σ √ T<br />

[<br />

ln<br />

( )<br />

S0<br />

+<br />

K<br />

d 2 = d 1 − σ √ T = 1<br />

σ √ T<br />

) (r + σ2<br />

2<br />

[ (<br />

S0<br />

ln<br />

K<br />

]<br />

T<br />

)<br />

+<br />

) ] (r − σ2<br />

T .<br />

2<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.2 Modèle de B<strong>la</strong>ck & Sholes généralisé 81<br />

En remp<strong>la</strong>çant S 0 par S t et T par T − t, on vérifiera en exercice que l’on peut récrire<br />

l’équation (2.39) sous <strong>la</strong> forme<br />

C(0, x) = S t F(d 1 (t, S t )) − Ke −r(T −t) F(d 2 ),<br />

avec<br />

d 1 (t, y) =<br />

1<br />

σ √ T − t<br />

[ ( y<br />

)<br />

ln +<br />

K<br />

d 2 (t, y) = d 1 (t, y) − σ √ T − t = 1<br />

σ √ T<br />

) ]<br />

(r + σ2<br />

(T − t) ,<br />

2<br />

[ ( y<br />

)<br />

ln +<br />

K<br />

(r − σ2<br />

2<br />

) ]<br />

(T − t) .<br />

La fonction h(y) = (y − K) + est dérivable en tout y ≠ K et l’ensemble des ω tels que<br />

xe σW T +(r− σ2<br />

2 )T (ω) = K est négligeable. De plus, dy-presque partout h ′ (y) = 1 ]K,+∞[ (y). Le<br />

raisonnement précédent de dérivation sous l’intégrale par rapport à Q montre qu’en utilisant<br />

<strong>la</strong> probabilité ˜Q<br />

∆ 0 = E˜Q<br />

[1 ]K,+∞[ (S 0 e σ ˜W T +(r+ σ2 )T)] 2 ,<br />

c’est à dire, puisque ˜W est un Brownien sous ˜Q,<br />

( [ ( )])<br />

∆ 0 = ˜Q σ ˜W<br />

S0<br />

T ≤ ln<br />

K + r + σ2<br />

2 )T = F(d 1 (0, S 0 )).<br />

Un calcul simi<strong>la</strong>ire montre que ∆ t = F(d 1 (t, S t )), c’est à dire que <strong>la</strong> forme du prix fournit<br />

<strong>la</strong> composition du portefeuille de couverture :<br />

4.2.4 Vo<strong>la</strong>tilité<br />

C t = ∆ t S t + θ 0 t e rt , où θ 0 t = −Ke −rT F(d 2 (t, S t )) ≤ 0.<br />

Les formules précédentes du prix et du delta dépendent d’un paramètre du sous-jacent<br />

S qui n’est pas directement observable : sa vo<strong>la</strong>tilité σ. Le coefficient de dérive b a en effet<br />

disparu des formules de C t et ∆ t .<br />

On dispose c<strong>la</strong>ssiquement de deux façons d’estimer σ.<br />

Vo<strong>la</strong>tilité historique On cherche à estimer σ à partir des observations passées du cours.<br />

On regarde les données (S ih , 0 ≤ i ≤ n) à des instants multiples d’un intervalle de temps ( de )<br />

S<br />

base (par exemple un jour). Pour tout i = 1, · · · , n, les variables aléatoires X i = ln ih<br />

S<br />

([ ] )<br />

(i−1)h<br />

sont indépendantes de même loi gaussienne N b − σ2 h, σ 2 h . L’estimateur c<strong>la</strong>ssique de<br />

2<br />

<strong>la</strong> variance d’un n-échantillon dont on ignore<br />

∑<br />

l’espérance donne l’estimateur suivant, qui est<br />

un estimateur sans biais de σ 2 1<br />

(car n<br />

h σ 2 i=1 (X i − ¯X n ) 2 est un χ 2 n−1) :<br />

1<br />

h (n − 1)<br />

n∑<br />

(X i − ¯X n ) 2 où ¯X n = 1 n<br />

i=1<br />

n∑<br />

X i .<br />

i=1<br />

Souvent on prend une taille d’échantillon qui correspond au temps de vie qui reste pour<br />

l’option.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


82 4 Applications à <strong>la</strong> finance<br />

Vo<strong>la</strong>tilité implicite<br />

On observe que le prix du call est une fonction continue strictement croissante de σ. En<br />

observant les prix de puts et calls sur le marché avec diverses dates de maturité et diverses<br />

valeurs de l’exercice K, on recherche σ en inversant <strong>la</strong> formule.<br />

Concrètement, il y a de nombreux actifs qui donnent des vo<strong>la</strong>tilités différentes. La variation<br />

de K donne une forme de « smile » , c’est à dire que les options sur de « petites »<br />

ou « grandes » valeurs de K sont plus chères et ont une vo<strong>la</strong>tilité implicite plus élevée.<br />

Deux facteurs expliquent en partie ce phénomène : d’une part le modèle n’est pas pertinent<br />

(surtout dans l’aspect d’une vo<strong>la</strong>tilité constante) et il n’y a que peu de transactions sur des<br />

options dont les prix d’exercice sont extrêmes.<br />

Les traders raisonnent plus en termes de vo<strong>la</strong>tilité et de smile de vo<strong>la</strong>tilité, et se servent<br />

du modèle de B<strong>la</strong>ck & Sholes comme d’une traduction entre prix et vo<strong>la</strong>tilité implicite.<br />

Les modèles qui permettent de prendre en compte les smile de vo<strong>la</strong>tilité sont ceux où <strong>la</strong><br />

vo<strong>la</strong>tilité σ t est stochastique et dépend du temps. Un modèle à vo<strong>la</strong>tilité non constante mais<br />

déterministe ne suffit pas.<br />

Divers modèles sont utilisés :<br />

Modèle de Hull & White On dispose de deux Browniens indépendants B et W. Le cours<br />

du sous-jacent S t est modélisé par l’EDS dirigée par B de coefficient de diffusion σ t S t et de<br />

coefficient de dérive b t S t . La vo<strong>la</strong>tilité σ t est aléatoire et son carré V t est solution d’une EDS<br />

linéaire dirigée par W de coefficient de diffusion s t V t et de dérive m t V t , ce qui conduit au<br />

système<br />

{<br />

dSt = S t (σ t dB t + b t dt),<br />

dV t = V t (s t dW t + m t dt), où V t = σ 2 t .<br />

Dans ce cas, le prix du call peut être exprimé en fonction de celui du modèle de B<strong>la</strong>ck &<br />

Sholes.<br />

Modèle de Dupire La vo<strong>la</strong>tilité est une fonction σ(t, S t ) avec 0 < α ≤ σ(t, S t ) ≤ β. Il y a<br />

existence et unicité de <strong>la</strong> solution de l’EDS, mais pas de formule explicite.<br />

Modèles à sauts De nombreux modèles récents font appel à des équations différentielles<br />

stochastiques dirigées par un processus de Lévy (à <strong>la</strong> p<strong>la</strong>ce du Brownien B) afin de rendre<br />

compte des discontinuités des trajectoires du prix des actifs en fonction du temps. Ces<br />

modèles ne seront pas abordés ici.<br />

4.3 Modèle de Cox-Ingersoll-Ross<br />

Une c<strong>la</strong>sse importante de modèles stochastiques (plus récents que le modèle de B<strong>la</strong>ck &<br />

Sholes) utilisés en finance est liée au processus de Bessel.<br />

4.3.1 Processus de Bessel généraux<br />

Nous avons introduit des processus de Bessel dans le Chapitre 2. Nous allons maintenant<br />

définir les processus de Bessel généraux.<br />

Soit B un mouvement Brownien. En utilisant l’inégalité | √ x − √ y| ≤ √ |x − y|, le<br />

théorème de Yamada-Watanabe 2.20 montre que pour δ ≥ 0 et α ≥ 0, l’équation<br />

dZ t = δ dt + 2 √ |Z t |dB t , Z 0 = α ,<br />

a une unique solution forte. Cette solution est un processus de Bessel carré de dimension δ,<br />

que l’on désigne par BESQ δ . En particulier, si α = 0 et δ = 0, <strong>la</strong> solution Z ≡ 0 est l’unique<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.3 Modèle de Cox-Ingersoll-Ross 83<br />

solution. En utilisant le théorème de comparaison 2.19, si 0 ≤ δ ≤ δ ′ et si ρ et ρ ′ sont des<br />

processus de Bessel carré de dimension δ et δ ′ partant du même point, alors 0 ≤ ρ t ≤ ρ ′ t p.s.<br />

Dans le cas δ > 2, le processus de Bessel carré BESQ δ partant de α n’atteint jamais 0.<br />

Si 0 < δ < 2, le processus ρ atteint 0 en un temps fini. Si δ = 0 le processus reste en 0 dès<br />

qu’il atteint ce point.<br />

Définition 4.18 (BESQ δ ) Pour tout δ ≥ 0 et α ≥ 0, l’unique solution forte de l’EDS<br />

ρ t = α + δt + 2<br />

∫ t<br />

0<br />

√<br />

ρs dB s<br />

est un processus de Bessel carré de dimension δ, partant de α et est noté BESQ δ .<br />

Définition 4.19 (BES δ ) Soit ρ un BESQ δ partant de α. Le processus R = √ ρ est un<br />

processus de Bessel de dimension δ, partant de a = √ α et est noté BES δ .<br />

Définition 4.20 Le nombre ν = (δ/2) − 1 (soit δ = 2(ν + 1)) est l’indice du processus de<br />

Bessel et un processus de Bessel d’indice ν est noté BES (ν) .<br />

En appliquant <strong>la</strong> formule d’Itô, on voit que pour α > 0 et δ > 2, un BES δ est solution de<br />

R t = α + B t + δ − 1<br />

2<br />

∫ t<br />

Les fonctions de Bessel modifiées I ν et K ν solutions de<br />

sont données par :<br />

x 2 u ′′ (x) + xu ′ (x) − (x 2 + ν 2 )u(x) = 0<br />

I ν (z) =<br />

( z<br />

2) ν ∞<br />

∑<br />

n=0<br />

K ν (z) = π(I −ν(z) − I ν (z))<br />

.<br />

2 sin πz<br />

0<br />

1<br />

R s<br />

ds . (4.7)<br />

z 2n<br />

2 2n n! Γ(ν + n + 1)<br />

Les probabilités de transition q (ν)<br />

t d’un BESQ (ν) sont<br />

q (ν)<br />

t (x, y) = 1 ( ( y ν/2<br />

exp −<br />

2t x) x + y )<br />

2t<br />

√ xy<br />

I ν ( ) (4.8)<br />

t<br />

et le processus de Bessel d’indice ν a une probabilité de transition p (ν)<br />

t<br />

p (ν)<br />

t (x, y) = y t<br />

( y<br />

x) ν<br />

exp(−<br />

x 2 + y 2<br />

2t<br />

donnée par<br />

( xy<br />

)<br />

)I ν , (4.9)<br />

t<br />

Les processus de Bessel sont utilisés dans le modèle suivant de Cox-Ingersoll-Ross.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


84 4 Applications à <strong>la</strong> finance<br />

4.3.2 Modèle de Cox-Ingersoll-Ross<br />

Pour modéliser des taux, Cox-Ingersoll-Ross étudient l’équation suivante<br />

dr t = k(θ − r t )dt + σ √ r t dB t (4.10)<br />

Le théorème d’existence de Yamada-Watanabe (Théorème 2.20) montre que (4.10) a une<br />

unique solution; c’est un processus positif pour kθ ≥ 0, mais il n’est pas possible d’en<br />

obtenir une formule explicite. Soit r x le processus solution de (4.10) avec r x 0 = x.<br />

Le changement de temps A(t) = σ 2 t/4 réduit l’étude de (4.10) au cas σ = 2. En effet, si<br />

Z t = r σ 2 t/4, alors<br />

dZ t = k ′ (θ − Z t ) dt + 2 √ Z t dB t ,<br />

avec k ′ = kσ 2 /4 et où B est un mouvement Brownien.<br />

Le processus de CIR solution de l’équation (4.10) est un BESQ changé de temps : en effet,<br />

( ) σ<br />

r t = e −kt 2<br />

ρ<br />

4k (ekt − 1) ,<br />

où (ρ(s), s ≥ 0) est un BESQ δ (α), avec δ = 4kθ .<br />

σ 2<br />

On peut montrer que, si T0 x := inf{t ≥ 0 : rx t = 0} et 2kθ ≥ σ 2 alors P(T0 x = ∞) = 1. Si<br />

0 ≤ 2kθ < σ 2 et k > 0 alors P(T0 x < ∞) = 1 et si k < 0 on a P(T 0 x < ∞) ∈]0, 1[. (Ce<strong>la</strong> se<br />

fait au moyen du théorème de comparaison)<br />

Cependant, on peut calculer l’espérance de <strong>la</strong> v.a. r t au moyen de l’égalité<br />

E(r t ) = r 0 + k(θt −<br />

∫ t<br />

0<br />

E(r s )ds),<br />

en admettant que l’intégrale stochastique est une martingale, ce qui est le cas. On calcule<br />

sans difficultés supplémentaires l’espérance conditionnelle, en utilisant le caractère Markovien<br />

:<br />

Théorème 4.21 Soit r le processus vérifiant<br />

dr t = k(θ − r t )dt + σ √ r t dB t .<br />

L’espérance conditionnelle et <strong>la</strong> variance conditionnelle sont données par<br />

E(r t |F s ) = r s e −k(t−s) + θ(1 − e −k(t−s) ),<br />

Var(r t |F s ) = r s<br />

σ 2 (e −k(t−s) − e −2k(t−s) )<br />

k<br />

Démonstration. Par définition, on a pour s ≤ t<br />

r t = r s + k<br />

et en appliquant <strong>la</strong> formule d’Itô<br />

∫ t<br />

s<br />

(θ − r u )du + σ<br />

∫ t<br />

rt 2 = rs 2 + 2k (θ − r u )r u du + 2σ<br />

= r 2 s + (2kθ + σ 2 )<br />

s<br />

∫ t<br />

s<br />

r u du − 2k<br />

∫ t<br />

s<br />

∫ t<br />

s<br />

+ θσ2 (1 − e −k(t−s) ) 2<br />

.<br />

2k<br />

∫ t<br />

s<br />

√<br />

ru dB u ,<br />

∫ t<br />

(r u ) 3/2 dB u + σ 2 r u du<br />

r 2 udu + 2σ<br />

∫ t<br />

s<br />

s<br />

(r u ) 3/2 dB u .<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.3 Modèle de Cox-Ingersoll-Ross 85<br />

En admettant que les intégrales stochastiques qui interviennent dans les égalités ci-dessus<br />

sont d’espérance nulle, on obtient, pour s = 0<br />

( ∫ t<br />

)<br />

E(r t ) = r 0 + k θt − E(r u )du ,<br />

et<br />

E(r 2 t ) = r 2 0 + (2kθ + σ 2 )<br />

∫ t<br />

0<br />

0<br />

∫ t<br />

E(r u )du − 2k E(ru)du.<br />

2<br />

0<br />

Soit Φ(t) = E(r t ). En résolvant l’équation Φ(t) = r 0 + k(θt − ∫ t<br />

Φ(u)du), c’est à dire<br />

0<br />

l’équation différentielle Φ ′ (t) = k(θ − Φ(t)) et Φ(0) = r 0 , on obtient<br />

Φ(t) = E[r t ] = θ + (r 0 − θ)e −kt .<br />

De <strong>la</strong> même façon, on introduit Ψ(t) = E(rt 2) et en résolvant Ψ′ (t) = (2kθ+σ 2 )Φ(t)−2kΨ(t),<br />

on calcule<br />

[<br />

Var[r t ] = σ2<br />

k (1 − e−kt ) r 0 e −kt + θ ]<br />

2 (1 − e−kt ) .<br />

L’espérance et <strong>la</strong> variance conditionnelle de r s’obtiennent grâce à <strong>la</strong> propriété de Markov :<br />

E(r t |F s ) = θ + (r s − θ)e −k(t−s) = r s e −k(t−s) + θ(1 − e −k(t−s) ),<br />

σ 2 (e −k(t−s) − e −2k(t−s) )<br />

Var(r t |F s ) = r s<br />

k<br />

(<br />

e − R )<br />

T<br />

r t u du<br />

∣ F t .<br />

Nous allons calculer E<br />

+ θσ2 (1 − e −k(t−s) ) 2<br />

.<br />

2k<br />

✷<br />

4.3.3 <strong>Calcul</strong> du prix d’un zéro-coupon<br />

Proposition 4.22 Soit<br />

Alors<br />

dr t = a(b − r t )dt + σ √ r t dB t .<br />

E<br />

(e − R T<br />

t<br />

r u du<br />

∣ F t<br />

)<br />

= G(t, r t ),<br />

avec<br />

G(t, x) = Φ(T − t) exp[−xΨ(T − t)],<br />

(<br />

)<br />

2(e γs − 1)<br />

Ψ(s) =<br />

(γ + a)(e γs − 1) + 2γ , Φ(s) = 2γe (γ+a) s 2ab<br />

2<br />

σ 2 , γ 2 = a 2 + 2σ 2 .<br />

(γ + a)(e γs − 1) + 2γ<br />

Démonstration. Soit (rs<br />

x,t , s ≥ t) <strong>la</strong> solution de<br />

et pour tout s ≥ t soit<br />

dr x,t<br />

s<br />

√<br />

= a(b − rs x,t )ds + σ rs x,t dB s , r x,t<br />

t = x<br />

R t s = exp (−<br />

∫ s<br />

t<br />

r x,t<br />

u du )<br />

.<br />

La propriété de Markov implique qu’il existe G telle que<br />

( ∫ s ∣ )<br />

exp − ru x,t du ∣∣Ft<br />

= G(t, r t ).<br />

t<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


86 4 Applications à <strong>la</strong> finance<br />

Nous admettrons que G est de c<strong>la</strong>sse C 1,2 . La formule d’Itô appliquée à G(s, rs x,t)Rt<br />

s , qui est<br />

une martingale, montre que<br />

G(T, r x,t<br />

T )Rt T = G(t, x) + M T − M t<br />

∫ T<br />

[<br />

+ Rs<br />

t −rs x,t G(s, rx,t s ) + ∂G (s, rx,t s ) + a(b − rx,t s<br />

∂t )∂G ∂x<br />

t<br />

(s, rx,t<br />

s ) + 1 2 σ2 rs<br />

x,t ∂ 2 G<br />

(s, rx,t<br />

∂x2 s<br />

]ds, )<br />

où M t est une intégrale stochastique. Par analogie avec <strong>la</strong> formule de Feynman-Kac, en<br />

choisissant G telle que<br />

−yG(s, y) + ∂G (s, y) + a(b − y)∂G<br />

∂s ∂y (s, y) + 1 2 σ2 y ∂2 G<br />

(s, y) = 0 (4.11)<br />

∂y2 et G(T, y) = 1 pour tout y, on obtient<br />

R t T = G(t, x) + M T − M t ,<br />

où M est une martingale. En particulier, lorsque t = 0 on obtient E<br />

E(R T ) = G(0, x). En se p<strong>la</strong>çant entre t et T, on obtient<br />

E<br />

(e − R T<br />

t<br />

)<br />

ru<br />

x,t du<br />

= G(t, x).<br />

( (<br />

exp − ∫ ))<br />

T<br />

r 0 sds =<br />

Il reste à calculer <strong>la</strong> solution de l’équation aux dérivées partielles (4.11). Un calcul assez<br />

long montre que<br />

G(t, x) = Φ(T − t) exp[−xΨ(T − t)],<br />

avec<br />

Ψ(s) =<br />

(<br />

2(e γs −1)<br />

, Φ(s) = 2γe (γ+a) 2<br />

s<br />

(γ+a)(e γs −1)+2γ (γ+a)(e γs −1)+2γ<br />

γ 2 = a 2 + 2σ 2 .<br />

Si l’on note P(t, T) le prix du zéro-coupon associé,<br />

on montre que<br />

avec σ(u, r) = σΨ(u) √ r.<br />

4.4 Exercices<br />

P(t, T) = Φ(T − t) exp[−r t Ψ(T − t)],<br />

P(t, T) = B(t, T) (r t dt + σ(T − t, r t )dB t ),<br />

) 2ab<br />

σ 2 ,<br />

Exercice 4.1 Soit σ et b des constantes, r > 0, x ∈ R, et (S t ) le Brownien géométrique<br />

solution de l’EDS<br />

dS t = S t<br />

[<br />

σdBt + bdt ] , S 0 = x.<br />

1. Écrire S t sous forme exponentielle.<br />

2. On note θ = − b−r<br />

σ . Soit Q <strong>la</strong> probabilité définie sur F t par dQ = L t dP où<br />

L t = e θBt−1 2 θ2t . Montrer que sous Q, W t = B t − θt est un Brownien.<br />

✷<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


4.4 Exercices 87<br />

3. Soit ˜P<br />

σ2<br />

σWt−<br />

<strong>la</strong> probabilité définie sur F t par d˜P = Z t dQ où Z t = e 2 t . Montrer que<br />

dS t = S t<br />

[<br />

σd ˜Bt + (r + σ 2 )dt ] ,<br />

où ˜B est un Brownien sous ˜P.<br />

( )<br />

4. Soit P 0 > 0 et pour tout t ≥ 0, P t = P 0 e rt S<br />

. Montrer que t<br />

P t<br />

, t ≥ 0 est une martingale<br />

( )<br />

P<br />

sous Q. Montrer que t<br />

S t<br />

, t ≥ 0 est une martingale sous ˜P.<br />

( ∫ )<br />

5. Soit A et λ des constantes réelles, F t = e −λt t<br />

S 0 udu + xA et Ψ t = Ftert<br />

S t<br />

. Écrire<br />

l’EDS satisfaite par Ψ t en utilisant le Brownien ˜B sous ˜P.<br />

Exercice 4.2 Vo<strong>la</strong>tilité stochastique Soit B 1 et B 2 deux Browniens indépendants, F t =<br />

σ(B 1 s , B2 s , s ≤ t) <strong>la</strong> filtration engendrée par B1 et B 2 . Soit µ et η des fonctions (déterministes)<br />

bornées de [0, +∞[ dans R, σ et γ des fonctions (déterministes) bornées de R dans [m, +∞[<br />

avec m > 0. On note S <strong>la</strong> solution de<br />

où (Y t ) est solution de l’EDS<br />

dS t = S t<br />

[<br />

σ(Yt )dB 1 t + µ(t)dt ] , S 0 = x ∈ R,<br />

dY t = γ(Y t )dB 2 t + η(t)dt , Y 0 = 1.<br />

1. Soit θ un processus (F t ) adapté borné et (Z t ) <strong>la</strong> solution de l’EDS<br />

dZ t = Z t θ t dB 1 t , Z 0 = 1.<br />

Écrire explicitement Z t sous forme exponentielle.<br />

2. Soit λ et ν des processus (F t )-adaptés, bornés et (L t ) le processus défini par<br />

(∫ t<br />

L t = exp λ s dBs 1 − 1<br />

0 2<br />

∫ t<br />

0<br />

∫ t<br />

λ 2 s ds + ν s dBs 2 − 1 2<br />

0<br />

∫ t<br />

0<br />

ν 2 s ds )<br />

. (4.12)<br />

Écrire l’EDS satisfaite par (L t ). On note Q <strong>la</strong> probabilité définie par dQ = L t dP sur<br />

F t .<br />

3. Soit ˜B t 1 = Bt 1 − ∫ t<br />

λ 0 sds et ( ˜Z t ) <strong>la</strong> solution de l’EDS d ˜Z t = ˜Z t αd ˜B t 1 et ˜Z 0 = 1, où α est<br />

une constante. Montrer que (L t ˜Zt ) est une (F t )-martingale sous P.<br />

4. Montrer que ˜B t 2 = B2 t − ∫ t<br />

ν 0 sds est un (F t )-Brownien sous Q.<br />

5. On admettra que si Q est une probabilité équivalente à P il existe λ et ν tels que <strong>la</strong><br />

densité de Q par rapport à P soit de <strong>la</strong> forme (4.12). Décrire l’ensemble des couples<br />

(λ, ν) correspondant à des probabilités Q telles que le processus (S t e −rt , t ≥ 0) soit<br />

une martingale sous Q. On notera Q cet ensemble de probabilités<br />

6. Le marché financier est-il complet?<br />

7. Soit X un actif duplicable au sens suivant : il existe un processus (F t )-adapté (V t ) tel<br />

qu’il existe un processus (φ t ) borné (F t )-adapté pour lequel :<br />

dV t = rV t dt + φ t<br />

[<br />

dSt − rS t dt ] , et V T = X.<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet


88 4 Applications à <strong>la</strong> finance<br />

(a) Montrer que (V t e −rt ) est une (F t )-martingale sous Q pour toute probabilité Q ∈<br />

Q.<br />

(b) On suppose que V t = v(t, S t , Y t ). Montrer que v satisfait une EDP que l’on<br />

explicitera.<br />

Exercice 4.3 Options power Soit r, δ, σ des constantes positives, x > 0. On modélise <strong>la</strong><br />

dynamique d’un actif versant des dividendes au taux δ alors que le taux spot est r sous <strong>la</strong><br />

probabilité risque neutre par<br />

dS t = S t<br />

[<br />

σdBt + (r − δ)dt ] , S 0 = x.<br />

1. On souhaite évaluer un actif contingent sur S versant des dividendes, c’est à dire<br />

calculer E P<br />

[<br />

h(ST )e −r(T −t)∣ ∣ Ft<br />

]<br />

. En s’inspirant des formules permettant de faire le calcul<br />

dans le cas c<strong>la</strong>ssique, quelle est <strong>la</strong> valeur de cet actif lorsque h(x) = (x α − K) + où<br />

α > 0?<br />

2. On suppose que δ = r. On note Q <strong>la</strong> probabilité qui sur F t a pour densité St par x<br />

rapport à P. Justifier que Q est bien une probabilité. On note Z t = x2<br />

S t<br />

. Quelle est<br />

<strong>la</strong> dynamique de (Z t , t ≥ 0) sous Q. Montrer que pour toute fonction f borélienne<br />

bornée,<br />

[ ( )]<br />

1 x<br />

2<br />

x E P S T f = E P (f(S T )).<br />

S T<br />

3. On revient au cas général. Montrer que (St a , t ≥ 0) est une martingale pour une valeur<br />

de a que l’on précisera. Monter que pour toute fonction f borélienne bornée,<br />

E P [f(S T )] = 1 ( )] x<br />

x αE P<br />

[ST a 2<br />

f .<br />

S T<br />

4. On suppose que h(x) = x β (x − K) + . Montrer que h(S T ) est <strong>la</strong> différence de deux<br />

payoffs correspondant à des options d’achat européennes portant sur S β+1 et S β et sur<br />

des strikes que l’on déterminera.<br />

Remerciements Ce cours remp<strong>la</strong>ce celui de <strong>Calcul</strong> <strong>Stochastique</strong> et <strong>Finance</strong>, Temps continu,<br />

fait par Isabelle Nagot dans l’ex DEA MME de l’Université <strong>Paris</strong> 1. Il fait suite au cours<br />

de <strong>Calcul</strong> <strong>Stochastique</strong> fait Bernard de Meyer puis par Ciprian Tudor. Je remercie ces trois<br />

collègues de <strong>Paris</strong> 1 de m’avoir fourni leurs polycopiés.<br />

Je tiens aussi à exprimer ma gratitude à Monique Jeanb<strong>la</strong>nc et à Thomas Simon, qui<br />

m’ont donné <strong>la</strong> toute dernière version des notes de deux cours de calcul stochastique appliqué<br />

à <strong>la</strong> finance qu’ils ont mis au point dans des formations de M2 à l’Université d’Évry.<br />

<strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet 26 octobre 2009


Références 89<br />

Références<br />

[1] Comets, F., Meyre, T., <strong>Calcul</strong> stochastique et modèles de diffusions, Dunod 2006.<br />

[2] De Meyer, B., <strong>Calcul</strong> <strong>Stochastique</strong>, Polycopié du cours de l’ex DEA MME de l’Université<br />

<strong>Paris</strong> 1, année 2004-2005.<br />

[3] Friedman, A., Stochastic Differential Equations and Applications, Volume 1, Academic<br />

Press, 1975.<br />

[4] Jeanb<strong>la</strong>nc; M., Cours de calcul stochastique, DESS IM Evry, Septembre 2005,<br />

http ://www.maths.univ-evry.fr/pages perso/jeanb<strong>la</strong>nc/<br />

[5] Jeanb<strong>la</strong>nc, M., Simon, T., Eléments de calcul stochastique, IRBID, Septembre 2005.<br />

[6] Jeanb<strong>la</strong>nc, M., Yor, M. et Chesney, M., Mathematical Methods for financial Markets,<br />

Springer Ver<strong>la</strong>g, à paraître.<br />

[7] Karatzas, I., Shreve, S.E., Brownian motion and Stochastic <strong>Calcul</strong>us, Springer Ver<strong>la</strong>g,<br />

1991.<br />

[8] Lamberton, D., Lapeyre., B, Introduction au calcul stochastique appliqué à <strong>la</strong> finance.,<br />

Ellipses, <strong>Paris</strong>, 1991.<br />

[9] Malliavin P., Stochastic Analysis, Springer, Berlin, 1997.<br />

[10] Nagot, I., <strong>Calcul</strong> <strong>Stochastique</strong> et <strong>Finance</strong>, Temps continu, Polycopié du cours de l’ex<br />

DEA MME de l’Université <strong>Paris</strong> 1, année 2004-2005.<br />

[11] Revuz, A., Yor, M., Continuous Martingales and Brownian Motion, Springer, Berlin,<br />

3th edition 1999.<br />

[12] Rogers L. C. G. et Williams, D., Diffusions, Markov Processes, and Martingales. Volume<br />

1 : Foundations, Wiley, Chichester, 1994.<br />

[13] Rogers L. C. G., Williams, D., Diffusions, Markov Processes, and Martingales. Volume<br />

2 : Itô <strong>Calcul</strong>us, Wiley, Chichester, 1987.<br />

[14] Tudor, C., <strong>Calcul</strong> <strong>Stochastique</strong> 1, Cours polycopié du Master M2 MMEF de l’Université<br />

<strong>Paris</strong> 1, année 2005-2006, http ://pagesperso.aol.fr/cipriantudor/<br />

26 octobre 2009 <strong>Calcul</strong> <strong>Stochastique</strong> 2 - Annie Millet

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!