12.07.2015 Views

Cours de Calcul stochastique Master 2IF EVRY

Cours de Calcul stochastique Master 2IF EVRY

Cours de Calcul stochastique Master 2IF EVRY

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Cours</strong> <strong>de</strong> <strong>Calcul</strong> <strong>stochastique</strong><strong>Master</strong> <strong>2IF</strong> <strong>EVRY</strong>Monique JeanblancSeptembre 2006


Contents1 Généralités 71.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1.1 Définition d’une tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1.2 Mesurabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.1.3 Tribu engendrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.3 Ensembles négligeables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3 Loi <strong>de</strong> probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3.1 Existence d’une v.a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3.2 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.3.3 Intégrabilité uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.3.4 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.3.5 Probabilités équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.4 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.5 Convergence <strong>de</strong> v.a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.5.1 Convergence presque sûre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.5.2 Convergence quadratique, ou convergence dans L 2 (Ω) . . . . . . . . . . . . . . . 131.5.3 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.5.4 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.6 Processus <strong>stochastique</strong>s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.6.1 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.6.2 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.6.3 Processus croissant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.6.4 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.7 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.7.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.7.2 Espérance conditionnelle par rapport à une tribu . . . . . . . . . . . . . . . . . . 161.7.3 Espérance conditionnelle par rapport à une variable . . . . . . . . . . . . . . . . 161.7.4 Propriétés <strong>de</strong> l’espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 171.7.5 Variance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.7.6 Formule <strong>de</strong> Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.8 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.8.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.8.2 Cas Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.9 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.9.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.9.2 Cas continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.10 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.10.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.10.2 Théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.10.3 Processus <strong>de</strong> Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.11 Rappels d’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.11.1 Dérivation sous le signe somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213


4 CONTENTS1.11.2 Espace complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.11.3 Théorème <strong>de</strong> Lebesgue dominé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 LE MOUVEMENT BROWNIEN 232.1 Le mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.1.1 Définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.1.2 Généralisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.2 Promena<strong>de</strong> aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.3.1 Processus gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.3.2 Une notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.3.3 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.3.4 Propriété <strong>de</strong> Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.3.5 Equation <strong>de</strong> la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.3.6 Trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.3.7 Propriétés <strong>de</strong> martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.3.8 Temps d’atteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.3.9 Brownien multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.4 Intégrale <strong>de</strong> Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322.4.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.4.3 Processus lié à l’intégrale <strong>stochastique</strong> . . . . . . . . . . . . . . . . . . . . . . . . 332.4.4 Intégration par parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.5.1 Le brownien géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.5.2 Processus d’Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.5.3 Modèle <strong>de</strong> Vasicek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 INTÉGRALE STOCHASTIQUE 393.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393.1.1 Cas <strong>de</strong> processus étagés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393.1.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.2.1 Linéarité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.2.2 Propriétés <strong>de</strong> martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.2.3 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413.2.4 Martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413.2.5 Inégalité maximale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413.3 Processus d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423.3.3 Intégrale par rapport à un processus d’Itô. . . . . . . . . . . . . . . . . . . . . . 423.3.4 Crochet d’un processus d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423.4 Lemme d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.4.1 Première forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.4.2 Fonction dépendant du temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.4.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.4.4 Cas du Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . 463.4.5 Application à la formule <strong>de</strong> Black et Scholes . . . . . . . . . . . . . . . . . . . . . 474 EQUATIONS DIFFERENTIELLES STOCHASTIQUES 494.1 Equations différentielles <strong>stochastique</strong>s . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.1.2 Théorème d’existence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.1.3 Propriété <strong>de</strong> Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.1.4 Théorème <strong>de</strong> comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.1.5 Exemple : Martingale exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . 50


CONTENTS 54.2 Equations aux dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514.2.1 Problème parabolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514.2.2 Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524.2.3 Formule <strong>de</strong> Black et Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524.2.4 Formule <strong>de</strong> Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535 EXEMPLES DE PROCESSUS D’ITO 555.1 Le brownien géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.2 Modèle <strong>de</strong> Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565.3 Processus <strong>de</strong> Bessel et carré <strong>de</strong> Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585.4 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585.4.1 Euclidian norm of n-dimensional Brownian motion . . . . . . . . . . . . . . . . . 585.4.2 General <strong>de</strong>finition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585.4.3 Scaling properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.4.4 Absolute continuity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.5 Properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615.5.1 Additivity of BESQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615.5.2 Bessel functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615.5.3 Transition <strong>de</strong>nsities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615.5.4 Hitting times for Bessel processes . . . . . . . . . . . . . . . . . . . . . . . . . . . 625.5.5 Laplace transforms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635.6 Cox-Ingersoll-Ross processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655.6.1 CIR processes and BESQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655.6.2 Transition probabilities for a CIR process . . . . . . . . . . . . . . . . . . . . . . 655.6.3 CIR mo<strong>de</strong>l for spot rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 666 CHANGEMENT DE PROBABILITÉ 676.1 Théorème <strong>de</strong> Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 676.1.1 Changement <strong>de</strong> probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 676.1.2 Théorème <strong>de</strong> Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 686.1.3 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.1.5 Cas vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 706.2 Application aux modèles financiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716.2.1 Application à la valorisation d’un actif contingent en marché complet . . . . . . 716.2.2 Arbitrages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 726.2.3 Hedging methodology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 726.2.4 Arbitrage et mme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 746.2.5 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 746.3 Probabilité forward-neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 746.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 746.3.2 Changement <strong>de</strong> numéraire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 756.3.3 Changement <strong>de</strong> numéraire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 776.3.4 Valorisation d’une option sur obligation à coupons . . . . . . . . . . . . . . . . . 77Begin at the beginning, and go on till you come to the end. Then, stop.L. Caroll, Alice’s Adventures in Won<strong>de</strong>rland


6 CONTENTS


Chapter 1GénéralitésDans ce chapitre ari<strong>de</strong> sont rassemblées les notions <strong>de</strong> base <strong>de</strong> théorie <strong>de</strong>s probabilités qui seront utiliséesdans tout le cours 1 . Ces notions ne seront pas reprises dans le cours. L’espace <strong>de</strong> probabilité sur lequelon travaille est noté Ω. Pour les démonstrations et <strong>de</strong> plus amples informations, consulter les ouvrages<strong>de</strong> Breiman [?], Grimmett et Stirzaker [?], Jacod et Protter [?] ou encore Williams [?]. Voir aussi <strong>de</strong>sexercices dans [?] ou dans [?].1.1 TribuL’espace Ω est un espace abstrait dont les éléments sont notés ω. Un sous-ensemble <strong>de</strong> Ω est unévénement. Dans certaines parties <strong>de</strong> cours, on précisera la structure <strong>de</strong> Ω en construisant explicitementcet espace. Dans la plupart <strong>de</strong>s cas, la structure <strong>de</strong> Ω n’a pas <strong>de</strong> rôle à jouer. Par contre, lorsque l’onveut construire une variable aléatoire <strong>de</strong> loi donnée, un choix judicieux <strong>de</strong> Ω s’impose : il est impossible<strong>de</strong> construire une v.a. sur un espace quelconque donné à l’avance. Cette difficulté s’accroit quand ils’agit <strong>de</strong> construire plusieurs v.a. (ou une suite) indépendantes. Nous n’abor<strong>de</strong>rons pas ces problèmes ici(Voir Breiman [?]). On pourra regar<strong>de</strong>r le paragraphe concernant l’existence d’une v.a. (voir ci-<strong>de</strong>ssous)pour une approche du problème.1.1.1 Définition d’une tribuDéfinition 1.1.1 Une tribu (σ-algebra en Anglais) sur Ω est une famille <strong>de</strong> parties <strong>de</strong> Ω, contenantl’ensemble vi<strong>de</strong>, stable par passage au complémentaire, union dénombrable et intersection dénombrable.Une tribu contient donc l’espace Ω.Un espace mesurable est un espace muni d’une tribu.Proposition 1.1.1 Une intersection <strong>de</strong> tribus est une tribu.Attention : ce n’est pas vrai pour la réunion : une réunion <strong>de</strong> tribus n’est pas une tribu.Soit F une tribu. Une sous-tribu <strong>de</strong> F est une tribu G telle que G ⊂ F, soit A ∈ G implique A ∈ F.La plus petite tribu contenant une famille d’ensembles est l’intersection <strong>de</strong> toutes les tribus qui contiennentcette famille. Elle est en général difficile (voire impossible) à décrire plus précisement.Exemple 1.1.1 Tribu <strong>de</strong>s boréliens <strong>de</strong> IR. C’est la plus petite tribu contenant tous les intervallesouverts (ou fermés, ou ouverts à droite fermés à gauche...). On la note B IR . On peut trouver <strong>de</strong>s sousensembles <strong>de</strong> IR qui ne sont pas <strong>de</strong>s boréliens, mais ils sont difficiles à exhiber. Voir Neveu [?].1 Give us the tools, and we will finish the work. Winston Churchill, February 9, 1941.7


8 Généralités1.1.2 MesurabilitéDéfinition 1.1.2 Soit (Ω, F) et (E, E) <strong>de</strong>ux espaces mesurables. Une application f <strong>de</strong> Ω dans E estdite (F, E) mesurable si f −1 (A) ∈ F, ∀A ∈ E, oùf −1 (A) <strong>de</strong>f= {ω ∈ Ω |f(ω) ∈ A}.Lorsqu’il n’y a pas d’ambiguïté sur les tribus employées, on dit simplement que f est mesurable.Une fonction f <strong>de</strong> IR dans IR est borélienne si elle est (B IR , B IR )-mesurable, soit f −1 (A) ∈ B IR ,B IR . Il suffit que cette propriété soit vérifiée pour les intervalles A.Les fonctions continues sont boréliennes.∀A ∈Définition 1.1.3 Soit (Ω, F) un espace mesurable. Une variable aléatoire réelle (v.a.r.) X est uneapplication mesurable <strong>de</strong> (Ω, F) dans IR ( donc telle que X −1 (A) ∈ F, ∀A ∈ B IR ).Une constante est une v.a. <strong>de</strong> même qu’une fonction indicatrice d’ensemble <strong>de</strong> la tribu F.Proposition 1.1.2 Si X est une v.a.r. G-mesurable et f une fonction borélienne, f(X) est G-mesurable.Une v.a. G mesurable est limite croissante <strong>de</strong> v.a. du typeborélienne est limite croissante <strong>de</strong> fonctions du type1.1.3 Tribu engendréen∑a i 1 Ai avec A i ∈ G. Une fonctioni=1n∑a i 1 Ai où A i est un intervalle.Définition 1.1.4 La tribu engendrée par une famille d’ensembles A est la plus petite tribu contenantcette famille, on la note σ(A). Elle est l’intersection <strong>de</strong> toutes les tribus contenant A.Si F 1 et F 2 sont <strong>de</strong>ux tribus, on note F 1 ∨ F 2 la tribu engendrée par F 1 ∪ F 2 . C’est la plus petite tribucontenant les <strong>de</strong>ux tribus F 1 et F 2 .i=1Définition 1.1.5 La tribu engendrée par une variable aléatoire X définie sur (Ω, F) est l’ensemble <strong>de</strong>sparties <strong>de</strong> Ω qui s’écrivent X −1 (A) où A ∈ B IR . On note cette tribu σ(X).La tribu σ(X) est contenue dans F. C’est la plus petite tribu sur Ω rendant X mesurable.Une v.a.r. X est G-mesurable si σ(X) ⊂ G.Propriété: si Y est une application <strong>de</strong> Ω dans IR, σ(X) mesurable (c’est-à-dire telle que Y −1 (A) ∈σ(X), ∀A ∈ B IR ou encore σ(Y ) ⊂ σ(X)), il existe une fonction borélienne f, <strong>de</strong> IR dans IR telle queY = f(X), et réciproquement.Définition 1.1.6 La tribu engendrée par une famille <strong>de</strong> variables aléatoires (X t , t ∈ [0, T ]) est la pluspetite tribu contenant les ensembles {X −1t (A)} pour tout t ∈ [0, T ] et A ∈ B IR . On la note σ(X t , t ≤ T ).1.2 Probabilité1.2.1 DéfinitionUne probabilité sur (Ω, F) est une application P <strong>de</strong> F dans [0, 1] telle quea) P (Ω) = 1,b) P (∪ ∞ n=0A n ) = ∑ ∞n=0 P (A n) pour <strong>de</strong>s A n appartenant à F <strong>de</strong>ux à <strong>de</strong>ux disjoints.Notation: P (A) = ∫ A dP = ∫ Ω 1 A dP où 1 A (fonction indicatrice) est la fonction définie sur Ω par1 A (ω) = 1 si ω ∈ A et 1 A (ω) = 0 si ω /∈ A.


July 8, 2006 91.2.2 PropriétésOn a P (A) + P (A c ) = 1 pour tout A appartenant à F.Si A ⊂ B, alors P (A) ≤ P (B) et P (B) = P (A) + P (B − A), où B − A = B ∩ A c .Si les A n forment une suite croissante (resp. décroissante) d’éléments <strong>de</strong> F, c’est-à-dire si A n ⊂ A n+1(resp. A n ⊃ A n+1 ), et si A = ∪ n A n (resp. A = ∩ n A n ) alors A appartient à F et P (A) = lim P (A n ).Théorème <strong>de</strong> classe monotone: Soit P et Q <strong>de</strong>ux probabilités sur (Ω, F, P ) telles que P (A) = Q(A)pour tout A ∈ C, où C est une famille stable par intersection finie et engendrant F. Alors P = Q sur F.Remarque: on prendra soin, pour appliquer ce théorème, <strong>de</strong> vérifier la stabilité par intersection <strong>de</strong> C(c’est-à-dire <strong>de</strong> montrer que si C 1 ∈ C, C 2 ∈ C, l’intersection C 1 ∩ C 2 appartient à C).1.2.3 Ensembles négligeablesUn ensemble est dit négligeable s’il est <strong>de</strong> probabilité nulle.Une union dénombrable d’ensembles négligeables est négligeable.Une propriété est vraie presque surement (p.s.) si elle est vraie en <strong>de</strong>hors d’un ensemble négligeable.On dit aussi que la propriété est vraie pour presque tout ω.Un espace (Ω, F, P ) est dit complet s’il contient tous les ensembles G tels que inf{P (F ) : F ∈ F, G ⊂F } = 0.1.3 Loi <strong>de</strong> probabilitéDéfinition 1.3.1 Soit X une variable aléatoire définie sur (Ω, F, P ). La loi <strong>de</strong> X est la probabilité P Xsur (IR, B IR ) définie par P X (A) = P {ω; X(ω) ∈ A} = P (X ∈ A), ∀A ∈ B IR .On définit aussi la fonction <strong>de</strong> répartition <strong>de</strong> la variable X. C’est la fonction croissante définie sur IRpar F (x) = P (X ≤ x).Certains auteurs utilisent P (X < x) comme fonction <strong>de</strong> répartition. Les <strong>de</strong>ux expressions ne différentqu’en un nombre au plus dénombrable <strong>de</strong> valeurs <strong>de</strong> x, et les modifications sont minimes. La fonction <strong>de</strong>répartition que nous utilisons ici est continue à droite, l’autre définition conduit à une fonction continueà gauche, les <strong>de</strong>ux fonctions étant égales en tout point <strong>de</strong> continuité.La <strong>de</strong>nsité f(x) d’une variable aléatoire est la dérivée <strong>de</strong> la fonction <strong>de</strong> répartition (si cette dérivéeexiste). On peut alors écrire P (X ∈ A) = ∫ A f(x)dx. En particulier P (X ∈ [a, b] ) = ∫ bf(x)dx. Il nousaarrivera alors d’utiliser la notation différentielle P (X ∈ dx) pour désigner f(x)dx.Lorsque <strong>de</strong>ux v.a. ont même loi (ou même fonction <strong>de</strong> répartition, ou même <strong>de</strong>nsité) on dit qu’ellessont égales en loi. On utilisera très souvent la remarque élémentaire suivante : si X et Y sont <strong>de</strong>ux v.a.telles que P (X ≤ a) = P (Y ≤ a), ∀a ∈ IR, alors X et Y ont même loi, ce que l’on notera X loi= Y .1.3.1 Existence d’une v.a.Pour construire une v.a. <strong>de</strong> loi donnée (par exemple une gaussienne), on choisit comme espace Ω = IR.Ensuite, on définit une v.a. (une application <strong>de</strong> Ω dans IR <strong>de</strong> façon simple: X : ω → ω est l’applicationi<strong>de</strong>ntié. Il reste à construire une probabilité P sur Ω = IR telle que X aie une loi gaussienne. SoitP (dω) = √ 1 exp − ω2dω. La fonction <strong>de</strong> répartition <strong>de</strong> X est2π 2∫F X (x) = P (X < x) =1 ω


10 Généralités1.3.2 EspéranceL’espérance d’une variable aléatoire X est par définition la quantité ∫ XdP que l’on note E(X) ouΩE P (X) si l’on désire préciser quelle est la probabilité utilisée sur Ω. Cette quantité peut ne pas exister.Pour calculer cette intégrale, on passe dans “l’espace image” et on obtient, par définition <strong>de</strong> la loi <strong>de</strong>probabilité ∫ Ω XdP = ∫ IR xdP X(x).Il existe <strong>de</strong>s variables aléatoires qui n’ont pas d’espérance, c’est-à-dire pour lesquelles l’intégrale ∫ Ω XdPn’a pas <strong>de</strong> sens. On dit que X est intégrable si |X| a une espérance finie. On note L 1 (Ω) l’ensemble<strong>de</strong>s v.a. intégrables.( ou L 1 (Ω, P ) si l’on veut préciser la probabilité utilisée). L’espace L 1 (Ω) contientles constantes, les v.a. bornées et les v.a. majorées en valeur absolue par une v.a. intégrable.De la même façon, on définit pour toute fonction borélienne Φ telle que Φ(X) soit intégrable (ce qui alieu par exemple si Φ est bornée)∫∫E(Φ(X)) = Φ(X)dP = Φ(x)dP X (x).ΩSi X admet une <strong>de</strong>nsité f, on a E(X) = ∫ IR xf(x)dx et E(Φ(X)) = ∫ IR Φ(x)f(x)dx.Si l’on connait E(Φ(X)) pour toute fonction Φ borélienne bornée, on connait la loi <strong>de</strong> X: l’égalitéE(Φ(X)) = E(Φ(Y )) pour toute fonction borélienne bornée Φ implique l’égalité en loi <strong>de</strong> X et Y .Attention : l’égalité en loi n’est pas l’égalité presque sure. Par exemple, si X est une gaussiennecentrée, on a X loi= −X et ces <strong>de</strong>ux variables ne sont pas égales presque surement.En fait, il suffit que l’égalité E(Φ(X)) = E(Φ(Y )) soit vérifiée pour une classe suffisamment riche <strong>de</strong>fonctions, par exemple pour les fonctions indicatrices <strong>de</strong> boréliens, ou d’intervalles, ou pour les fonctions<strong>de</strong> la forme e λx , λ ∈ IR pour avoir X loi= Y .La fonction caractéristique d’une v.a.r. est la transformée <strong>de</strong> Fourier <strong>de</strong> la loi <strong>de</strong> X, c’est-à-dire lafonction∫ψ(t) = E(e itX ) = e itx P X (dx).Si X admet une <strong>de</strong>nsité f(x), la fonction caractéristique <strong>de</strong> X est ∫ IR eitx f(x) dx. La fonction caractéristiquecaractérise la loi <strong>de</strong> X au sens où la connaissance <strong>de</strong> cette fonction détermine la loi <strong>de</strong> lavariable. Si la transformée <strong>de</strong> Fourier ψ appartient à L 1 (dx), c’est-à-dire si son module est intégrable parrapport à la mesure <strong>de</strong> Lebesgue dx, la <strong>de</strong>nsité associée (unique) est donnée par la formule d’inversionf(x) = 1 ∫ ∞e −itx φ(t)dt2π −∞La fonction Ψ(λ) <strong>de</strong>f= E(e λX ) que l’on appelle transformée <strong>de</strong> Laplace caractérise aussi la loi d’unevariable. Mais dans ce cas il n’y a pas <strong>de</strong> formule d’inversion simple. Pour connaître la loi d’un couple(X, Y ), il suffit <strong>de</strong> connaître E(exp(λX + µY )) pour tout couple (λ, µ). Lorsque la v.a. X est positive,on utilise <strong>de</strong> préférence E(e −λX ) comme transformée <strong>de</strong> Laplace, définie alors pour tout λ ≥ 0.IRIRExemple 1.3.1 Exemple fondamental : Si X est une variable gaussienne <strong>de</strong> loi N (m, σ 2 ), on aE(e λX ) = exp(λm + λ2 σ 22), ∀λ ∈ IRet réciproquement.Proposition 1.3.1 Propriétés <strong>de</strong> l’espérance a. L’espérance est linéaire par rapport à la variable,c’est à direE(aX + bY ) = aE(X) + bE(Y ),a et b étant <strong>de</strong>s réels.b. L’espérance est croissante: si X ≤ Y (p.s), on a E(X) ≤ E(Y ).c. Inégalité <strong>de</strong> Jensen : si Φ est une fonction convexe, telle que Φ(X) est intégrable, E(Φ(X)) ≥Φ(E(X)).


July 8, 2006 111.3.3 Intégrabilité uniformeUne famille <strong>de</strong> v.a. (X i , i ∈ I) est dite uniformément intégrable si sup i∫|X i |≥a |X i|dP → 0 quanda → ∞.S’il existe Y ∈ L 1 (P ) telle que |X i | ≤ Y, ∀i, la famille (X i , i ∈ I) est uniformément intégrable.1.3.4 IndépendanceDéfinition 1.3.2 Deux sous-tribus F 1 et F 2 sont indépendantes siP (A ∩ B) = P (A)P (B), ∀A ∈ F 1 , ∀B ∈ F 2 .Pour que <strong>de</strong>ux tribus F 1 et F 2 soient indépendantes, il faut et il suffit que P (A ∩ B) = P (A)P (B),∀A ∈ C 1 , ∀B ∈ C 2 où C i est une famille stable par intersection telle que σ(C i ) = F i .Définition 1.3.3 Une variable aléatoire X est indépendante d’une sous-tribu G si les tribus σ(X) et Gsont indépendantes.Proposition 1.3.2 La v.a. X est indépendante <strong>de</strong> la sous-tribu G si et seulement siP {A ∩ (X ≤ x)} = P (A)P (X ≤ x), ∀x ∈ IR, ∀A ∈ G.Deux variables (X, Y ) sont indépendantes si les tribus σ(X) et σ(Y ) sont indépendantes.Proposition 1.3.3 Les v.a. X et Y sont indépendantes si et seulement siP {(X ≤ x) ∩ (Y ≤ y)} = P (X ≤ x)P (Y ≤ y), ∀x ∈ IR, ∀y ∈ IR .Si X et Y sont indépendantes, E(XY ) = E(X)E(Y ). (La réciproque n’est pas vraie)Si X et Y sont indépendantes, f(X) et g(Y ) aussi.Si X et Y sont indépendantes, on peut calculer E(ϕ(X, Y )) <strong>de</strong> <strong>de</strong>ux façons :E(ϕ(X, Y )) = E(f(X)) = E(g(Y )), avec f(x) = E(ϕ(x, Y )), g(y) = E(ϕ(X, y))Proposition 1.3.4 Les v.a. X et Y sont indépendantes si et seulement siE(f(X) g(Y )) = E(f(X)) E(g(Y )) pour toutes fonctions f et g boréliennes bornées.Il suffit que cette égalité ait lieu pour une classe suffisamment riche <strong>de</strong> fonctions f et g, par exemplepour les fonctions indicatrices. Si X et Y sont à valeurs positives, il suffit que l’égalité soit vérifiée pourf(x) = exp(−λx) et g(x) = exp(−µx) pour tous λ, µ positifs.Une famille <strong>de</strong> sous-tribus (F i , i ∈ IN) est indépendante si toutes les sous familles finies le sont, c’est-àdiresi P (∩ 1≤i≤n A i ) = ∏ 1≤i≤n P (A i), ∀A i ∈ F i , ∀n. Même définition pour une famille non dénombrable.Même définition pour une famille <strong>de</strong> variables aléatoires.1.3.5 Probabilités équivalentesDéfinition 1.3.4 Deux probabilités P et Q définies sur le même espace (Ω, F) sont dites équivalentessi elles ont mêmes ensembles négligeables, c’est à dire siP (A) = 0 ⇐⇒ Q(A) = 0.Une propriété vraie P p.s. est alors vraie Q p.s.Si P et Q sont équivalentes, il existe une variable Y , strictement positive, F-mesurable, d’espérance 1sous P appelée <strong>de</strong>nsité <strong>de</strong> Radon-Nikodym telle que dQ = Y dP ou encore Q(A) = ∫ Y dP . On écritAégalement cette relation sous la forme dQ = Y . Réciproquement, si Y est une v.a. strictement positive,dPF-mesurable, d’espérance 1 sous P , la relation E Q (Z) = E P (ZY ) définit une probabilité Q équivalenteà P . Elle est facile à mémoriser par la règle <strong>de</strong> calcul formel suivante:∫ ∫E Q (Z) = ZdQ = Z dQ ∫dP dP = ZY dP = E P (ZY )


12 GénéralitésOn a aussi dPdQ = 1 Y .Si Y est seulement positive, on a P (A) = 0 =⇒ Q(A) = 0 et on dit que Q est absolument continue parrapport à P .Exemple 1.3.2 1. Soit U une variable <strong>de</strong> Bernoulli sous P définie parP (U = 0) = 1 − p, P (U = 1) = p.Soit Y la variable définie par Y = λU +µ(1−U). Elle est d’espérance 1 pour λp+µ(1−p) = 1, λ, µ > 0.Soit dQ = Y dP , on a Q(U = 1) = λp. Sous Q , U est une variable <strong>de</strong> Bernoulli <strong>de</strong> paramètre λp.2. Si X est une v.a. <strong>de</strong> loi N (m, σ 2 ) sous P et soit Y = exp{h(X − m) − 1 2 h2 σ 2 }. Soit dQ = Y dP .Sous Q, X est une v.a. <strong>de</strong> loi N (m + hσ 2 , σ 2 ).Démonstration : Il suffit <strong>de</strong> calculer E Q {exp(λX)}) = E P {Y exp(λX)} et <strong>de</strong> vérifier que E Q (exp λX) =exp[λ(m + hσ 2 ) + λ2 σ 22 ] .3. Soit X est un vecteur gaussien sous P et U une variable telle que le vecteur (X, U) soit gaussien.On pose dQ = Y dP avec Y = exp(U − E P (U) − 1 2 Var P U), le vecteur X est gaussien sous Q, <strong>de</strong> mêmecovariance que sous P .1.4 Variables gaussiennesUne variable X est gaussienne <strong>de</strong> loi N (m, σ 2 ) si elle a pour <strong>de</strong>nsitéN (m, σ 2 )(x) = 1σ √ − m)2exp −(x2π 2σ 2 .On considère qu’une v.a. constante suit une loi gaussienne <strong>de</strong> variance nulle, ce qui correspond ∫ à unemasse <strong>de</strong> Dirac. La mesure <strong>de</strong> Dirac δ a au point a est une probabilité sur IR telle que f(x)δ a (dx) =f(a) et correspond à une v.a. constante égale à a.Définition 1.4.1 Un vecteur X = (X 1 , X 2 , . . . , X n ) T est gaussien 2 si toute combinaison linéaire ∑ ni=1 a iX iest une variable gaussienne à valeurs réelles.On caractérise la loi <strong>de</strong> X par son vecteur espérance et sa matrice <strong>de</strong> covarianceIRΓ = [σ i,j ] i=1,n; j=1,noù σ i,j = E(X i X j ) − E(X i )E(X j ). La loi <strong>de</strong> X admet une <strong>de</strong>nsité si la matrice Γ est inversible.Si <strong>de</strong>ux variables forment un couple gaussien <strong>de</strong> covariance nulle, elles sont indépendantes.Si (X, Y ) est un vecteur Gaussien, il existe α tel que X − αY est indépendant <strong>de</strong> X.Si X et Y sont <strong>de</strong>s gaussiennes indépendantes, aX + bY est une gaussienne et le couple (X, Y ) estgaussien. Ce n’est en général pas vrai si les variables ne sont pas indépendantes.Enfin, nous rappelons une nouvelle fois le résultat important suivantProposition 1.4.1 Si X est une variable gaussienne <strong>de</strong> loi N (m, σ 2 ), on a, pour tout λ réel, E(e λX ) =exp(λm + λ2 σ 22 ) . Réciproquement si pour tout λ ∈ IR, E(eλX ) = exp(λm + λ2 σ 22), la variable X est <strong>de</strong>loi N (m, σ 2 ).1.5 Convergence <strong>de</strong> v.a.L’espace (Ω, F, P ) est fixé. Toutes les variables aléatoires sont définies sur cet espace.On distingue plusieurs types <strong>de</strong> convergence:2 L’exposant T désigne la transposition


July 8, 2006 131.5.1 Convergence presque sûreUne suite <strong>de</strong> variables aléatoires X n converge p.s. vers X si pour presque tout ω,X n (ω) → X(ω) quand n → ∞.p.s.On note X n → XP.p.s.Cette notion <strong>de</strong> convergence dépend du choix <strong>de</strong> P . Si Q est équivalente à P et si X n → X, on aQ.p.s.X n → X.Théorème <strong>de</strong> convergence monotone: Si X n est une suite <strong>de</strong> variables aléatoires monotone (soit X n ≤X n+1 ) et si X = lim p.s. X n , on a E(X) = lim E(X n ) .Théorème <strong>de</strong> Lebesgue dominé: Si X n est une suite <strong>de</strong> variables aléatoires convergeant p.s. vers X ets’il existe une variable aléatoire Y intégrable telle que |X n | ≤ Y , alors E(X n ) converge vers E(X).Théorème 1.5.1 Loi <strong>de</strong>s grands nombres. Si (X i , i ≥ 1) est une suite <strong>de</strong> v.a. équidistribuées,indépendantes d’espérance finie, 1 n∑ ni=1 X i converge p.s. vers E(X 1 ).1.5.2 Convergence quadratique, ou convergence dans L 2 (Ω)On note ‖X‖ 2<strong>de</strong>f=√ ∫X 2 dP = √ E(X 2 ). On i<strong>de</strong>ntifie <strong>de</strong>ux v.a. égales p.s., ainsi on définit ainsi laΩnorme || · || sur l’espace <strong>de</strong>s v.a. <strong>de</strong> carré intégrable. On dit que X ∈ L 2 (Ω) (ou L 2 (Ω, P )) si ‖X‖ 2< ∞.Soit X n ∈ L 2 et X ∈ L 2 . La suite <strong>de</strong> variables aléatoires (X n ) converge en moyenne quadratique (dansL 2 (Ω)) vers X si(‖X n − X‖ 2) 2 = E(X n − X) 2 → 0 quand n → ∞.Cette notion <strong>de</strong> convergence dépend du choix <strong>de</strong> P .Si X n → X dans L 2 (Ω), on a E(X 2 n) → E(X 2 ). La réciproque est fausse.L’espace L 2 (Ω) est un espace <strong>de</strong> Hilbert muni du produit scalaire 〈X, Y 〉 = ∫ XY dP . En particulier,il est complet.ΩSi une suite converge dans L 2 , il existe une sous-suite qui converge p.s.Si une suite uniformément intégrable (par exemple bornée) converge p.s., elle converge dans L 2 .Théorème : (Loi <strong>de</strong>s grands nombres) Si (X i , i ≥ 1) est une suite <strong>de</strong> v.a. équidistribuées, indépendantes<strong>de</strong> variance finie , 1 ∑ nn i=1 X i converge en moyenne quadratique vers E(X 1 ).Si une suite <strong>de</strong> v.a. gaussiennes converge en moyenne quadratique, la limite est une variable gaussienne.Soit p > 1. On note ‖X‖ pla quantité positive définie par (‖X‖ p) p := ∫ Ω |X|p dP = E(|X| p ). Ondéfinit ainsi une norme sur l’espace L p (Ω) <strong>de</strong>s v.a. X telles que ‖X‖ p< ∞. Une suite <strong>de</strong> v.a. X n dansL p converge s’il existe X tel que E(X n − X) p → 0. La convergence dans L p pour p > 1 implique laconvergence dans L q pour tout q, 1 < q < p.1.5.3 Convergence en probabilitéUne suite <strong>de</strong> variables aléatoires X n converge en probabilité vers X si∀ɛ > 0 P (|X n − X| ≥ ɛ) → 0 quand n → ∞.On note X nP→ X.La convergence p.s. implique la convergence en probabilité.La convergence en probabilité implique qu’une sous-suite converge p.s.La convergence quadratique implique la convergence en probabilité.1.5.4 Convergence en loiUne suite <strong>de</strong> variables aléatoires X n converge en loi vers X si E(Φ(X n )) → E(Φ(X)) quand n → ∞pour toute fonction Φ continue bornée.


14 GénéralitésLOn note X n → X. La convergence en loi est également définie par la convergence simple <strong>de</strong>s fonctionscaractéristiques, soit Ψ n (t) → Ψ(t) pour tout t, où Ψ n désigne la fonction caractéristique <strong>de</strong> X n et Ψcelle <strong>de</strong> X.Si X est une v.a. <strong>de</strong> fonction <strong>de</strong> répartition F continue, et si X n est une suite <strong>de</strong> v.a. <strong>de</strong> fonction<strong>de</strong> répartition F n telles que F n (x) converge vers F (x) pour tout x, alors X n converge en loi vers X etréciproquement.La convergence en probabilité implique la convergence en loi.Théorème 1.5.2 Théorème Central limite Si (X i , i ≥ 1) est une suite <strong>de</strong> v.a. équidistribuées,indépendantes, <strong>de</strong> variance finie σ 2 ∑ ni=1 X i − nE(X 1 )σ √ nL→ N(0, 1) .1.6 Processus <strong>stochastique</strong>s1.6.1 FiltrationOn va s’intéresser à <strong>de</strong>s phénomènes dépendant du temps. Ce qui est connu à la date t est rassemblédans une tribu F t , c’est l’information à la date t.Définition 1.6.1 Une filtration est une famille croissante <strong>de</strong> sous tribus <strong>de</strong> F, c’est-à-dire telle queF t ⊂ F s pour tout t ≤ s.On <strong>de</strong>man<strong>de</strong> souvent que les ensembles négligeables soient contenus dans F 0 .On parle d’hypothèses habituelles si- les ensembles négligeables sont contenus dans F 0 ,- La filtration est continue à droite au sens où F t = ∩ s>t F s .Une filtration G est dite plus grosse que F si F t ⊂ G t , ∀t.1.6.2 ProcessusUn processus <strong>stochastique</strong> (ou fonction aléatoire) est une famille <strong>de</strong> variables aléatoires (X t ; t ∈ [0, ∞[)définies sur le même espace <strong>de</strong> probabilité .Définition 1.6.2 Un processus <strong>stochastique</strong> X = (X t , t ≥ 0) est dit adapté (par rapport à une filtrationF t ) si X t est F t -mesurable pour tout t.On dit que le processus est à trajectoires continues (ou est continu) si les applications t → X t (ω) sontcontinues pour presque tout ω.Un processus est dit càdlàg (continu à droite, pourvu <strong>de</strong> limites à gauche) si ses trajectoires sontcontinues à droite, pourvues <strong>de</strong> limites à gauche. Même définition pour càglàd.A un processus <strong>stochastique</strong> X on associe sa filtration naturelle FtX , c’est à dire la famille croissante<strong>de</strong> tribus FtX = σ{X s , s ≤ t}.On utilise souvent <strong>de</strong>s processus dit prévisibles. La définition précise est la suivante: Soit (Ω, F, P ) unespace muni d’une filtration (F t ). On appelle tribu <strong>de</strong>s prévisibles 3 la tribu sur (0, ∞) × Ω engendréepar les rectangles <strong>de</strong> la forme]s, t] × A, 0 ≤ s ≤ t, A ∈ F s .Un processus est prévisible si et seulement si l’application (t, ω) → X t (ω) est mesurable par rapport àla tribu <strong>de</strong>s prévisibles. Pas d’affolement: il suffit <strong>de</strong> savoir que les processus càg sont prévisibles.On dit que <strong>de</strong>ux processus X et Y sont égaux à une modification près si X t = Y t p.s. ∀t.Deux processus sont égaux en loi X loi= Y si pour tout (t 1 , t 2 , . . . , t n ) et pour tout n on a (X t1 , X t2 , . . . , X tn ) loi=(Y t1 , Y t2 , . . . , Y tn ).On trouvera chapitre 8 d’autres définitions concernant <strong>de</strong>s propriétés <strong>de</strong> mesurabilité.3 L’expérience est une lanterne accrochée dans le dos, qui n’éclaire que le chemin parcouru. Confucius / Clifton


July 8, 2006 151.6.3 Processus croissantUn processus A = (A t , t ≥ 0) est un processus croissant si A 0 = 0 et t → A t est une fonction croissante,c’est-à-direA t (ω) ≤ A s (ω), ∀t ≤ s, p.s.Sauf mention du contraire, les processus croissants sont pris continus à droite.Un processus V = (V t , t ≥ 0) est dit à variation bornée sur [0, t] si∑sup |V ti+1 − V ti | ≤ K ,t ile sup étant pris sur les subdivisions 0 ≤ t 0 ≤ . . . ≤ t i ≤ t i+1 ≤ t.Un processus V = (V t , t ≥ 0) est dit à variation finie sur [0, t] si∑sup |V ti+1 − V ti | < ∞ ,t iiile sup étant pris sur les subdivisions 0 ≤ t 0 ≤ . . . ≤ t i ≤ t i+1 ≤ t . Un processus V = (V t , t ≥ 0) est dità variation finie s’il est à variation finie sur [0, t] pour tout t. Il est alors la différence <strong>de</strong> <strong>de</strong>ux processuscroissants (et réciproquement).1.6.4 Processus GaussiensUn processus X est gaussien si toute combinaison linéaire finie <strong>de</strong> (X t , t ≥ 0) est une variable aléatoiregaussienne, c’est-à-dire si∀n, ∀t i , 1 ≤ i ≤ n, ∀a i ,n∑a i X tii=1est une v.a.r. gaussienne.Un processus gaussien est caractérisé par son espérance et sa covariance.Un espace gaussien est un sous-espace (vectoriel fermé) <strong>de</strong> L 2 (Ω) formé <strong>de</strong> v.a.r. gaussiennes centrées.L’espace gaussien engendré par un processus gaussien est le sous espace <strong>de</strong> L 2 (Ω) engendré par lesv.a.r. centrées (X t − E(X t ), t ≥ 0), c’est-à-dire le sous-espace formé par les combinaisons linéaires <strong>de</strong>ces variables centrées et leurs limites en moyenne quadratique.1.7 Espérance conditionnelleL’espace (Ω, F, P ) est fixé.1.7.1 Cas discretRappel: Soit A et B <strong>de</strong>ux évènements (sous-ensembles <strong>de</strong> Ω). On définit la probabilité conditionnelle<strong>de</strong> A quand B par P (A |B ) = P (A∩B)P (B), pour tout B tel que P (B) ≠ 0.Propriété: P (. |B ) est une probabilité sur Ω.On peut définir l’espérance d’une variable par rapport à cette loi. Considérons le cas d’une variableX à valeurs dans (x 1 , x 2 , . . . , x n ). Soit B fixé et Q(A) := P (A |B ). On a alors en désignant par E Ql’espérance par rapport à Q:E Q (X) = ∑ jx j Q(X = x j ) = ∑ jP (X = x j ∩ B)x j .P (B)On peut écrire P (X = x j ∩ B) = ∫ B 1 X=xj dP (où 1 X=xj est la fonction qui vaut 1 si ω ∈ (X = x j )c’est-à-dire si X(ω) = x j ) et en remarquant que ∑ j x j 1 X=xj = X on a :∑jx jP (X = x j ∩ B)P (B)= 1 ∫XdP,P (B) B


16 Généralitésce que l’on peut lire∫B∫E Q (X)dP = E Q (X)P (B) =BXdP.On note E(X |B ) = E Q (X) . Soit alors B la tribu engendrée par B et E(X |B ) la variable aléatoiredéfinie par E(X |B ) = E(X |B )1 B + E(X |B c )1 B c. On a∫∫E(X |B )dP = XdPDpour tout élément D ∈ B. On appelle espérance conditionnelle <strong>de</strong> X quand B cette variable aléatoireB-mesurable.Un cas particulier intéressant est celui où l’évènement B est lié à une v.a.:Soient X et Y <strong>de</strong>ux v.a. à valeurs dans (x 1 , x 2 , . . . , x n ) (resp (y 1 , . . . , y d )), telles que ∀i, P (Y = y i ) ≠ 0.On peut alors définir P (X = x j |Y = y i ) = µ(x j ; y i ). On remarque que pour tout y i , µ(.; y i ) définit uneprobabilité sur (x 1 , x 2 , . . . , x n ). On peut donc définir l’espérance <strong>de</strong> X par rapport à cette loi parE(X |Y = y i ) = ∑ jx j P (X = x j |Y = y i ) = ∑ jDx j µ(x j ; y i ) =1P (Y = y i )∫Y =y iXdP.On définit ainsi une fonction Ψ telle que Ψ(y i ) = E(X |Y = y i ).IL est facile <strong>de</strong> vérifier que∑P (Y = y i )E(X |Y = y i ) = ∑ P (Y = y i )Ψ(y i ) = E(Ψ(Y )) = E(E(X|Y )) = E(X)iiOn note Ψ(Y ) = E(X |Y ). C’est l’espérance conditionnelle <strong>de</strong> X quand Y ou encore l’espéranceconditionnelle <strong>de</strong> X par rapport à Y . Cette fonction est caractérisée para) Ψ(Y ) est Y -mesurable,b) E(Φ(Y )X) = E(Φ(Y )Ψ(Y )) pour toute fonction Φ.(Il suffit par linéarité <strong>de</strong> vérifier b) pour Φ = 1 yi .)1.7.2 Espérance conditionnelle par rapport à une tribuSoit X une v.a.r. (intégrable) définie sur (Ω, F, P ) et G une sous-tribu <strong>de</strong> F.Définition 1.7.1 L’espérance conditionnelle E(X |G ) <strong>de</strong> X quand G est l’unique variable aléatoirea. G-mesurableb. telle que ∫ A E(X |G )dP = ∫ XdP, ∀A ∈ G.AC’est aussi l’unique (à une égalité p.s. près) variable G-mesurable telle quepour toute variable Y , G-mesurable bornée.E[E(X |G )Y ] = E(XY )Il en résulte que si X est <strong>de</strong> carré intégrable, E(X|G) est la projection <strong>de</strong> X sur l’espace <strong>de</strong>s variablesaléatoires G mesurables, <strong>de</strong> carré intégrable, c’est-à-dire la variable aléatoire G mesurable qui minimiseE[(X − Y ) 2 ] parmi les v.a. Y , G mesurables.1.7.3 Espérance conditionnelle par rapport à une variableOn définit l’espérance conditionnelle d’une variable X (intégrable) par rapport à Y comme étantl’espérance conditionnelle <strong>de</strong> X par rapport à la tribu σ(Y ). On la note E(X |Y ). C’est une variablemesurable par rapport à la tribu engendrée par Y , donc c’est une fonction <strong>de</strong> Y : il existe ψ <strong>de</strong> IRdans IR borélienne telle que E(X |Y ) = ψ(Y ).L’espérance conditionnelle E(X |Y ) est caractérisée para) c’est une variable σ(Y ) mesurable


July 8, 2006 17b) ∫ A E(X |Y )dP = ∫ XdP ∀A ∈ σ(Y ).ALa propriété b) est équivalente à E(E(X |Y )φ(Y )) = E(Xφ(Y )) pour toute fonction φ boréliennebornée , ou à ∫ Y ∈B E(X |Y )dP = ∫ XdP pour tout B ∈ B.Y ∈BOn utilise souvent la notation E(X |Y = y ) pour désigner la valeur <strong>de</strong> ψ en y. On a alorsa’) E(X |Y = y ) est une fonction borélienneb’) ∫ B E(X |Y = y )dP Y (y) = ∫ IR×B xdP X,Y (x, y) ∀B ∈ B IR .1.7.4 Propriétés <strong>de</strong> l’espérance conditionnellea) Linéarité. Soit a et b <strong>de</strong>ux constantes. E(aX + bY |G ) = aE(X |G ) + bE(Y |G ).b) Croissance. Soit X et Y <strong>de</strong>ux v. a. telles que X ≤ Y . Alors E(X |G ) ≤ E(Y |G ).c) E[E(X |G )] = E(X).d) Si X est G-mesurable, E(X |G ) = X.e) Si Y est G-mesurable, E(XY |G ) = Y E(X |G ).f) Si X est indépendante <strong>de</strong> G, E(X |G ) = E(X).g) Si G est la tribu grossière (composée <strong>de</strong> l’ensemble vi<strong>de</strong> et <strong>de</strong> Ω), E(X|G) = E(X).h) Si G et H sont <strong>de</strong>ux tribus telles que H ⊂ G alors E(X |H ) = E(E(X |H) |G ) = E(E(X |G ) |H ). Onnote souvent E(E(X |H) |G ) = E(X |H |G )i) Si (X, Y ) sont indépendantes, et φ une fonction borélienne bornée, E(φ(X, Y )|Y ) = [E(φ(X, y))] y=Y .Cette <strong>de</strong>rnière égalité signifie que, pour calculer E(φ(X, Y )|Y ) lorsque les variables X et Y sontindépendantes, on explicite la fonction Ψ telle que Ψ(y) = E(φ(X, y)), puis on remplace y par Ypour obtenir la v.a. Ψ(Y ).On verra d’autres propriétés <strong>de</strong> l’espérance conditionnelle dans le polycopié d’exercices. On utiliserasans modération la formule E ( ∫ bX s ds|G ) ∫ b= E ( X s |G ) ds dés que l’un <strong>de</strong>s <strong>de</strong>ux membres existe.aaRemarque très importante: les égalités précé<strong>de</strong>ntes ne sont vraies que p.s. et à condition que les v.a.soient intégrables.1.7.5 Variance conditionnelleOn définit Var (X|G) = E(X 2 |G) − E 2 (X|G). C’est une v.a. positive, en vertu <strong>de</strong> l’inégalité <strong>de</strong> Jensen:Soit φ une fonction convexe. On a E(φ(X)|F) ≥ φ(E(X|F)).1.7.6 Formule <strong>de</strong> BayesSoit P une probabilité et Q une probabilité équivalente à P définie par dQ = LdP . On peut exprimerl’espérance conditionnelle d’une variable sous Q en fonction <strong>de</strong> l’espérance conditionnelle sous P :E Q (X |G) = E P (LX |G)E P (L |G) .Démonstration: Il s’agit <strong>de</strong> trouver Z v.a. G-mesurable telle queE Q (ZY ) = E Q (XY )pour toute v.a. Y G-mesurable. On écrit E Q (ZY ) = E P (LZY ) = E P (ZY E P (L|G)) et E Q (XY ) =E P (LXY ) = E P (Y E P (LX|G)) en utilisant la G-mesurabilité <strong>de</strong> Z, Y . L’égalité <strong>de</strong>vant être vérifiéepour tout Y , il vient ZE P (L|G) = E P (LX|G), d’où l’expression <strong>de</strong> Z.△


18 Généralités1.8 Loi conditionnelle1.8.1 DéfinitionSoit (X, Y ) <strong>de</strong>ux v.a.r. La loi conditionnelle <strong>de</strong> X quand Y est la famille <strong>de</strong> lois sur IR notée µ(y, dx)in<strong>de</strong>xées par y (qui décrit l’ensemble <strong>de</strong>s valeurs prises par Y ) telle queE[Φ(X)|Y = y] =∫ ∞−∞Φ(x)µ(y, dx)pour toute fonction Φ borélienne bornée. La propriété s’étend aux fonctions Φ intégrables par rapportà µ. Lorsque l’on connait cette loi conditionnelle, les calculs d’espérance et <strong>de</strong> variance conditionnellese réduisent à <strong>de</strong>s calculs d’espérance et <strong>de</strong> variance. En effet E[X|Y = y] =tout y, l’espérance d’une v.a. <strong>de</strong> loi µ(y, dx).Si le couple (X, Y ) a une <strong>de</strong>nsité f(x, y), on peut montrer que1.8.2 Cas Gaussienf(x, y)dxµ(y, dx) = ∫f(u, y)duIR∫ ∞−∞xµ(y, dx) est, pourSi le couple <strong>de</strong> v.a.r. (X, Y ) est gaussien (avec une <strong>de</strong>nsité ou non), la <strong>de</strong>nsité conditionnelle <strong>de</strong>X à Y est une loi gaussienne d’espérance linéaire en Y et <strong>de</strong> variance c indépendante <strong>de</strong> Y . Il estalors facile <strong>de</strong> retrouver la valeur <strong>de</strong> l’espérance: E(X|Y ) = aY + b implique E(X) = aE(Y ) + b etE(XY ) = E(Y E(X|Y )) = E(aY 2 ) + bE(Y ), d’oùa = Cov(X, Y )V arY, b = E(X) − aE(Y ) , c = E(X 2 |Y ) − E 2 (X|Y ) = E(X 2 ) − E[(aY + b) 2 ]Ceci se généralise à un vecteur multidimensionnel : si (X, Y ) est un vecteur gaussien, la <strong>de</strong>nsité conditionnelle<strong>de</strong> X à Y est une loi gaussienne d’espérance linéaire en Y et <strong>de</strong> variance c indépendante <strong>de</strong>Y .1.9 Martingales1.9.1 Cas discretOn se donne une filtration, c’est-à-dire une famille <strong>de</strong> sous-tribus F n croissante (telle que F n ⊂ F n+1 ).La tribu F 0 contient les négligeables.Définition 1.9.1 ef Une suite <strong>de</strong> v.a.r. (X n , n ∈ IN) est une F n -martingale siX n est intégrable, ∀n ∈ INX n est F n -mesurable, ∀n ∈ INE(X n+1 |F n ) = X n , ∀n ∈ IN.Propriété: E(X n+p |F n ) = X n , ∀n ∈ IN, ∀p ∈ IN.Exemple: Si X n = Y 1 + . . . + Y n où les Y i sont indépendantes équidistribuées centrées, X n est unemartingale.Cas multidimensionnel: Une famille <strong>de</strong> vecteurs (S n , n ≥ 0) telle que S n est à valeurs dans IR d est unemartingale, si les familles (S i n, n ∈ IN) sont <strong>de</strong>s martingales ∀i, 1 ≤ i ≤ d.1.9.2 Cas continu.On se donne une filtration, c’est-à-dire une famille <strong>de</strong> sous-tribus F t croissante (telle que F s ⊂ F t , ∀s ≤t.)


July 8, 2006 19Définition 1.9.2 Une famille <strong>de</strong> variables aléatoires (X t , t ∈ [0, ∞[) est une martingale par rapport àla filtration (F t ) siX t est F t -mesurable et intégrable pour tout t.E(X t |F s ) = X s , ∀s ≤ t.Propriétés:Si X est une martingale E(X t ) = E(X 0 ), ∀t.Si (X t , t ≤ T ) est une martingale, le processus est complètement déterminé par sa valeur terminale:X t = E(X T |F t ). Cette <strong>de</strong>rnière propriété est d’un usage très fréquent en finance.Définition 1.9.3 Une famille <strong>de</strong> variables aléatoires (X t , t ∈ [0, ∞[) est une surmartingale (resp. sousmartingale)par rapport à la filtration (F t ) siX t est F t -mesurable et intégrable pour tout tE(X t |F s ) ≤ X s , ∀s ≤ t (resp. E(X t |F s ) ≥ X s ).Exemple 1.9.1 Si X est une martingale, alors, X 2 est une sous martingale. Si X est une martingaleet A un processus croissant, X + A est une sous-martingale.On dira que X est une martingale si la filtration <strong>de</strong> référence est la filtration naturelle <strong>de</strong> X. On feraattention: la propriété <strong>de</strong> martingale dépend <strong>de</strong> la filtration et une F-martingale n’est en général pasune G martingale si G est plus grosse que F.Une martingale continue à variation bornée est égale à une constante.En effet si M est une telle martingale et V sa variation,[ ( ∑ ) ] 2E(Mt 2 ) = E (Mti+1 − M ti ≤ E [ V t sup |M ti+1 − M ti | ] ≤ KE [ sup |M ti+1 − M ti | ]et le membre <strong>de</strong> droite converge p.s. vers 0 quand on raffine la partition.Proposition 1.9.1 Inégalité <strong>de</strong> Doob Si X est une martingale continue,E(sup Xs 2 ) ≤ 4E(XT 2 ) .s≤T1.10 Temps d’arrêtOn travaille sur un espace muni d’une filtration (F t ). On note F ∞ = σ(∪ t F t ).1.10.1 DéfinitionsDéfinition 1.10.1 Un temps d’arrêt est une variable aléatoire τ à valeur dans IR ∪ {+∞} telle que{τ ≤ t} ∈ F t , ∀t ∈ IR.Une constante positive est un temps d’arrêt.On associe à un temps d’arrêt τ la tribu F τ dite <strong>de</strong>s événements antérieurs à τ, définie 4 par F τ = {A ∈F ∞ |A ∩ {τ ≤ t} ∈ F t , ∀t ∈ IR} .Propriétés: Si T est un temps d’arrêt, T est F T mesurable.Si S et T sont <strong>de</strong>s temps d’arrêt, S ∧ T est un temps d’arrêt. En particulier T ∧ t est un temps d’arrêt.Si S et T sont <strong>de</strong>s temps d’arrêt tels que S ≤ T , on a F S ⊂ F T .Soit (X t , t ≥ 0) un processus et T un temps d’arrêt fini. On définit X T par X T (ω) = X T (ω) (ω) .Si un processus X est continu et adapté, X T est F T -mesurable.4 “L’essentiel est <strong>de</strong> comprendre” Scipion, dans Caligula, Camus


20 Généralités1.10.2 Théorème d’arrêtSi T est un temps d’arrêt et M une (F t )-martingale, le processus Z défini par Z t<strong>de</strong>f= M t∧T est une (F t )martingale. En particulier, E(M t∧T ) = E(M 0 ).Théorème 1.10.1 Théorème d’arrêt <strong>de</strong> Doob: (Optional Sampling Theorem)Si M est une (F t )-martingale continue et si S et T sont <strong>de</strong>ux temps d’arrêt tels que S ≤ T ≤ K, Kétant une constante finie, M T est intégrable etE(M T |F S ) = M S .Ce résultat s’étend à tous les temps d’arrêt si la martingale est uniformément intégrable.Si M est uniformément intégrable, on peut montrer que M t converge p.s. et dans L 1 vers M ∞ quandt → ∞ et que M S = E(M ∞ |F S )Proposition 1.10.1 Si pour tout temps d’arrêt borné E(X T ) = E(X 0 ), le processus X est une martingale.Remarque 1.10.1 Attention, si E(X t ) = E(X 0 ) pour tout t, le processus X n’est pas une nécessairementmartingale. Un contre exemple est X t = ∫ t0 M udu où M est une martingale d’espérance nulle.Si M est une surmartingale positive et τ un temps d’arrêt, E(M τ ) ≤ E(M 0 ) où on pose M ∞ = 0.Définition 1.10.2 Un processus M adapté càglàd est une martingale locale s’il existe une suite croissante<strong>de</strong> temps d’arrêts τ n telle que τ n → ∞ et (M t∧τn , t ≥ 0) est une martingale pour tout n.Une martingale locale positive est une surmartingale. Une martingale locale uniformément intégrableest une martingale.1.10.3 Processus <strong>de</strong> MarkovCette notion est assez difficile, mais d’un usage constant. En langage vernaculaire, un processus est <strong>de</strong>Markov si son comportement dans le futur ne dépend du passé quà travers le présent. 5 Soyons plusprécis.Soit X un processus et (F t ) sa filtration canonique. On dit que le processus est <strong>de</strong> Markov si, pourtout t, pour toute variable bornée Y ∈ F ∞ l’égalitéE(Y ◦ θ t |F t ) = E(Y ◦ θ t |X t )où θ est l’opérateur <strong>de</strong> translation défini sur les applications coordonnées par X u ◦ θ s = X u+s .Essayons une autre définition. Pour tout n, pour toute fonction bornée F définie sur IR n , pour toust 1 < t 2 < · · · < t nE(F (X s+t1 , X s+t2 , · · · , X s+tn )|F s ) = E(F (X s+t1 , X s+t2 , · · · , X s+tn )|X s ) .Ceci implique en particulier que pour toute fonction f borélienne bornéeE(f(X t )|F s ) = E(f(X t )|X s ) , ∀t > s .Le processus est dit <strong>de</strong> Markov fort si la propriété précé<strong>de</strong>nte est vraie pour tout couple <strong>de</strong> tempsd’arrêt finis T, S avec T > S.5 “L’avenir est la projection du passé, conditionnée par le présent”. G. Braque.


July 8, 2006 211.11 Rappels d’analyse1.11.1 Dérivation sous le signe sommeSoit F (x) =∫ ∞−∞f(x, y)dy. Si f est continue et admet une dérivée partielle par rapport à x ∂ x f(x, y)continue bornée en valeur absolue par g(y), |∂ x f(x, y)| ≤ g(y) où g est une fonction intégrable, alorsF ′ (x) =∫ ∞−∞∂ x f(x, y)dy.1.11.2 Espace completUn espace normé est dit complet si toute suite <strong>de</strong> Cauchy converge, i.e. si ||x n − x m || → 0 quandn, m → ∞ implique l’existence <strong>de</strong> x tel que x n → x. L’ espace IR muni <strong>de</strong> la norme habituelle, l’espace<strong>de</strong>s fonctions L 2 (IR) muni <strong>de</strong> la norme ||f|| =√ ∫IR f 2 (x)dx, l’espace <strong>de</strong>s v.a. L 2 (Ω) muni <strong>de</strong> la norme||X|| = √ E(X 2 ) sont <strong>de</strong>s espaces complet.1.11.3 Théorème <strong>de</strong> Lebesgue dominéSoit f n une suite <strong>de</strong> fonctions intégrables qui converge (simplement) ∫ vers une fonction f ∫(f n (x) →f(x), ∀x). S’il existe g intégrable telle que |f n (x)| ≤ g(x), ∀x, alors f n (x)dx converge vers f(x)dx.La fonction f est une fonction en escalier s’il existe une subdivision (t i , t i ≤ t i+1 , i = 0, . . . , n)telle que f est constante, égale à f i sur ]t i , t i+1 ] et nulle hors <strong>de</strong> [t 0 , t n+1 ]. On peut alors écriref = ∑ ni=1 f i−1 1 ]ti−1,t i].IRIR


22 Généralités


Chapter 2LE MOUVEMENT BROWNIENLe botaniste Robert Brown observe en 1828 le mouvement irrégulier <strong>de</strong> particules <strong>de</strong> pollen en suspensiondans l’eau. En 1877, Delsaux explique les changements incessants <strong>de</strong> direction <strong>de</strong> trajectoire par leschocs entre les particules <strong>de</strong> pollen et les molécules d’eau. Un mouvement <strong>de</strong> ce type est qualifié <strong>de</strong>“mouvement au hasard”.En 1900, Bachelier, en vue d’étudier les cours <strong>de</strong> la Bourse met en évi<strong>de</strong>nce le caractère “markovien”du mouvement Brownien : la position d’une particule à l’instant t + s dépend <strong>de</strong> sa position en t, etne dépend pas <strong>de</strong> sa position avant t. Il convient d’insister sur le caractère précurseur <strong>de</strong> Bachelier etle fait que la théorie du mouvement Brownien a été développée pour la Bourse, avant <strong>de</strong> l’être pour laPhysique.En 1905, Einstein détermine la <strong>de</strong>nsité <strong>de</strong> transition du mouvement Brownien par l’intermédiaire <strong>de</strong>l’équation <strong>de</strong> la chaleur et relie ainsi le mouvement Brownien et les équations aux dérivées partielles <strong>de</strong>type parabolique. La même année, Smoluchowski décrit le mouvement Brownien comme une limite <strong>de</strong>promena<strong>de</strong>s aléatoires.La première étu<strong>de</strong> mathématique rigoureuse est faite par N. Wiener (1923) qui exhibe égalementune démonstration <strong>de</strong> l’existence du Brownien. P. Lévy (1948) s’intéresse aux propriétés fines <strong>de</strong>strajectoires du Brownien. Depuis, le mouvement Brownien continue <strong>de</strong> passionner les probabilistes,aussi bien pour l’étu<strong>de</strong> <strong>de</strong> ses trajectoires que pour la théorie <strong>de</strong> l’intégration <strong>stochastique</strong> (Wiener, Itô,Watanabe, Meyer, Yor, LeGall, Salminen, Durrett, Chung, Williams, Knight, Pitman,...).2.1 Le mouvement BrownienOn se donne un espace (Ω, F, P ) et un processus (B t , t ≥ 0) sur cet espace.2.1.1 Définition.Le processus (B t , t ≥ 0) est un mouvement Brownien (standard) sia) P (B 0 = 0) = 1 (le mouvement Brownien est issu <strong>de</strong> l’origine).b) ∀s ≤ t, B t − B s est une variable réelle <strong>de</strong> loi gaussienne, centrée <strong>de</strong> variance (t − s).c) ∀n, ∀t i , 0 ≤ t 0 ≤ t 1 . . . ≤ t n , les variables (B tn − B tn−1 , . . . , B t1 − B t0 , B t0 ) sont indépendantes.La propriété b) est la stationarité <strong>de</strong>s accroissements du mouvement Brownien, la propriété c) traduitque le mouvement Brownien est à accroissements indépendants. On peut aussi écrire c) sous la formeéquivalente suivante:c’) Soit s ≤ t. La variable B t − B s est indépendante <strong>de</strong> la tribu du passé avant s, soit σ(B u , u ≤ s).Nous ne démontrons pas l’existence du mouvement Brownien (MB dans la suite). On pourra consulterl’ouvrage <strong>de</strong> Karatzas et Shreve (1988). On le construit sur “l’espace canonique ” Ω = C(IR + , IR) <strong>de</strong>sfonctions continues <strong>de</strong> IR + dans IR par B t (ω) = ω(t) et on munit cet espace d’une mesure (mesure <strong>de</strong>Wiener) telle que B soit un MB.23


24 Le mouvement BrownienLa filtration naturelle est F t = σ{B s , s ≤ t}. On lui ajoute <strong>de</strong> façon implicite les négligeables. Onpeut montrer qu’elle vérifie alors les conditions habituelles.On s’autorisera à noter B(t i ) au lieu <strong>de</strong> B ti la valeur <strong>de</strong> la trajectoire en t i pour <strong>de</strong>s raisons <strong>de</strong> lisibilité.2.1.2 Généralisation.Le processus X t = a + B t est un Brownien issu <strong>de</strong> a. On dit que X est un Brownien généralisé ou unMB <strong>de</strong> drift µ si X t = x + µt + σB t où B est un mouvement Brownien. La variable X t est une variablegaussienne d’espérance x + µt et <strong>de</strong> variance σ 2 t.Les v.a. (X ti+1 − X ti , t 0 ≤ t 1 . . . ≤ t n ) sont indépendantes.2.2 Promena<strong>de</strong> aléatoireOn peut montrer que le mouvement Brownien s’obtient comme limite <strong>de</strong> promena<strong>de</strong>s aléatoires renormalisées.Cette propriété est exploitée pour <strong>de</strong>s simulations.Soit, sur un espace <strong>de</strong> probabilité (Ω, F, P) une famille <strong>de</strong> variables aléatoires <strong>de</strong> Bernoulli indépendanteséquidistribuéesP (X i = 1) = P (X i = −1) = 1 2On associe à cette famille la suite (S n , n ≥ 0) définie par, i ∈ IN ∗ .S 0 = 0, S n =n∑i=1X iOn dit que la suite S n est une promena<strong>de</strong> 1 aléatoire. (Jeu <strong>de</strong> pile ou face).On a E(S n ) = 0, Var (S n ) = n.S nS 2✻❅❅❅❅❅❅❅❅❅❅❅ ❅ ❅ ❅ nS 1O 1 2✲Promena<strong>de</strong> aléatoireRemarquons que la suite (S m − S n , m ≥ n) est indépendante <strong>de</strong> (S 0 , S 1 , . . . , S n ) et que S m − S n a1 “Charmante promena<strong>de</strong>, n’est-ce-pas?” Le professeur Tournesol. Tintin et les Picaros. 1964.


July 8, 2006 25même loi que S m−n .On procè<strong>de</strong> alors à une double renormalisation. Soit N fixé* on ramène l’intervalle <strong>de</strong> temps [0, N] à [0, 1]* on change l’échelle <strong>de</strong>s valeurs prises par S n .Plus précisément, on définit une famille <strong>de</strong> variables aléatoires in<strong>de</strong>xées par les réels <strong>de</strong> la forme k N ,k ∈ IN, parOn aU kN= 1 √NS k .E ( ) ( ) kU k = 0 et Var U k =N N N .Les propriétés d’indépendance et <strong>de</strong> stationarité <strong>de</strong> la promena<strong>de</strong> aléatoire restent vérifiées, soit• si k ≥ k ′ , U kN• si k ≥ k ′ , U kN− U k ′N− U k ′Nest indépendante <strong>de</strong> (U p N ; p ≤ k′ )a même loi que U k−k ′ .NOn définit un processus à temps continu (U t , t ≥ 0) à partir <strong>de</strong> U kNt → U t d’être affine entre k k+1NetNexiste k(t) ∈ IN unique tel que k(t)Nen imposant à la fonction. Pour cela, N étant fixé, on remarque que pour tout t ∈ IR + il≤ t < k(t)+1Net on poseoù k = k(t).U N t= U k + N ( t − k ) (U k+1 − U k )N N NNPour t = 1 on a U1 N = √ 1NS N . Le théorème central-limite implique alors que U1Nvers une variable aléatoire gaussienne centrée réduite.converge en loiOn montre alors que le processus U N converge (au sens <strong>de</strong> la convergence en loi) vers un mouvementBrownien B.En particulier U N t2.3 PropriétésL→ B t et (U N t 1, . . . , U N t k) L → (B t1 , . . . , B tk ) pour tout k-uple (t 1 , . . . , t k ).Dans ce qui suit, B = (B t , t ≥ 0) est un mouvement Brownien et F t = σ{B s , s ≤ t} est sa filtrationnaturelle.2.3.1 Processus gaussienProposition 2.3.1 Le processus B est un processus gaussien, sa loi est caractérisée par son espérancenulle et sa covariance Cov(B t , B s ) = s ∧ t.Démonstration: Le caractère gaussien résulte <strong>de</strong> ∑ ni=0 a iB ti = ∑ ni=0 b i(B ti+1 − B ti ) avec a i = b i −b i+1 , i ≤ n − 1 , a n = b n . La covariance est égale à E(B t B s ) car le processus est centré. Si s ≤ t,E(B t B s ) = E((B t − B s )B s + B 2 s) = E(B t − B s )E(B s ) + E(B 2 s) = s△ On peut généraliser: Le processus (X t = x + µt + σB t , t ≥ 0) est un processus gaussien d’espérancex + µt et <strong>de</strong> covariance E[(X t − E(X t )) (X s − E(X s ))] = σ 2 (s ∧ t).2.3.2 Une notationIl nous arrivera <strong>de</strong> noter E x (f(B s )) l’espérance <strong>de</strong> f(B s ) quand B est un Brownien issu <strong>de</strong> x, sanstoujours faire cette précision. Cette quantité est égale à E(f(x + B s )) où B est un Brownien issu <strong>de</strong> 0. De la même façon, nous utiliserons la notation P x (B s ∈ A) pour P (x + B s ∈ A) et P x (B s ∈ da) pourla <strong>de</strong>nsité <strong>de</strong> la v.a. B s où B est un Brownien partant <strong>de</strong> x.


26 Le mouvement Brownien2.3.3 ScalingProposition 2.3.2 Si (B t , t ≥ 0) est un mouvement Brownien, alorsi) le processus ˆB défini par ˆB t = −B t est un mouvement Brownien.ii) le processus ˜B défini par ˜B t = 1 c B c 2 t est un mouvement Brownien. (Propriété <strong>de</strong> scaling)iii) le processus ¯B défini par ¯B t = tB 1t , ∀t > 0 , ¯B 0 = 0 est un mouvement Brownien.Démonstration: Il suffit <strong>de</strong> vérifier le caractère Gaussien <strong>de</strong> ces processus et d’en calculer espéranceet covariance.△2.3.4 Propriété <strong>de</strong> MarkovLa propriété <strong>de</strong> Markov du mouvement Brownien est utilisée sous la forme (un peu plus forte que<strong>de</strong>fla propriété <strong>de</strong> Markov) : pour tout s, le processus (W t , t ≥ 0) défini par W t = B t+s − B s est unmouvement Brownien indépendant <strong>de</strong> F s .Théorème 2.3.1 Pour f borélienne bornée, E(f(B u ) |F t ) = E(f(B u ) |σ(B t )) pour u > t.Démonstration: On fait apparaitre les accroissements et on utilise les propriétés <strong>de</strong> l’espérance conditionnelle:E(f(B u ) |F t ) = E(f(B u − B t + B t ) |F t ) = Φ(u − t, B t )avec Φ(u − t, x) = E(f(B u − B t + x)) = E(f(Y + x)) où Y a même loi que B u − B t , soit une loiN (0, u − t). Par les mêmes arguments, E(f(B u ) |σ(B t )) = Φ(u − t, B t ). On a très précisementΦ(s, x) = √ 1 ∫2πsIR(y − x)2f(y) exp − dy2s△Une autre façon <strong>de</strong> décrire cette propriété est <strong>de</strong> dire que, pour u > t, conditionnellement à B t , lav.a. B u est <strong>de</strong> loi gaussienne d’espérance B t et <strong>de</strong> variance u − t. Alorspour t ≤ u.E( 1 Bu≤x |F t ) = E( 1 Bu≤x |σ(B t )) = E( 1 Bu≤x |B t )Proposition 2.3.3 Propriété <strong>de</strong> Markov forte:Soit T un temps d’arrêt à valeurs finies. On a alors E(f(B T +s ) |F T ) = E(f(B T +s ) |σ(B T )). En<strong>de</strong>fparticulier, pour tout temps d’arrêt fini T , le processus (W t , t ≥ 0) défini par W t = B t+T − B T est unmouvement Brownien indépendant <strong>de</strong> F T .2.3.5 Equation <strong>de</strong> la chaleurSoit g(t, x) la <strong>de</strong>nsité gaussienne centrée <strong>de</strong> variance t. On noteq(t, x, y) = √ 1 (y − x)2exp − = g(t, x − y)2πt 2tla <strong>de</strong>nsité <strong>de</strong> transition du mouvement Brownien. C’est <strong>de</strong> façon heuristique, la probabilité pour quele mouvement Brownien soit en y sachant que t instants auparavant, il se trouvait en x, c’est aussi la<strong>de</strong>nsité conditionnelleP (B t+s ∈ dy|B s = x) = q(t, x, y) dyLa <strong>de</strong>nsité <strong>de</strong> transition q vérifie l’équation “forward”∂q∂t (t, x, y) = 1 ∂ 2 q(t, x, y)2 ∂y2 et l’équation “backward”∂q∂t (t, x, y) = 1 ∂ 2 q(t, x, y) .2 ∂x2


July 8, 2006 27En utilisant cette notation et la stationarité <strong>de</strong>s accroissements du MB, on obtient que pour toutefonction f borélienne bornéeSi l’on note u(t, x; f) la fonctionE(f(B T )|B t = x) =u(t, x; f) =∫ ∞−∞∫ ∞−∞f(y) q(T − t, x, y) dy .f(y)q(t, x, y) dy = E(f(B t + x)) (2.1)= E(f(B t+s )|B s = x) =∫ ∞−∞f(x + y)g(t, y)dy (2.2)cette fonction vérifie (utiliser (2.1), l’équation backward et le théorème <strong>de</strong> dérivation sous le signeintégral)⎧⎨ u(0, x; f) = f(x)⎩ − ∂u∂t + 1 ∂ 2 u(2.3)2 ∂x 2 = 0Pour calculer E(f(B T )), il suffit <strong>de</strong> résoudre l’équation aux dérivées partielles (2.3) et <strong>de</strong> remarquerque E(f(B T )) = u(T, 0; f).On peut écrire, en utilisant E(f(B t + x)) = u(t, x; f)E(f(B T + x)) − f(x) = u(T, x; f) − u(0, x; f) =∫ T0∂u∂t (s, x; f) ds = 1 ∫ T2 0En remarquant que (utiliser (2.2) et le théorème <strong>de</strong> dérivation sous le signe intégral)on obtient∂ 2 ∫u∞∂x 2 (t, x; f) =−∞∂ 2 u(s, x; f) ds .∂x2 f ′′ (x + y)g(t, y)dy = u(t, x; f ′′ ) = E(f ′′ (B t + x)) , (2.4)E(f(B T + x)) = f(x) + 1 2∫ T0E(f ′′ (B s + x)) ds .Cette formule sera généralisée dans le prochain chapitre en utilisant le lemme d’Itô.La fonction v(t, x; f) = u(T − t, x; f) est solution <strong>de</strong>⎧⎨ v(T, x) = f(x)⎩∂v∂t + 1 ∂ 2 v2 ∂x 2 = 0et vérifie v(0, x; f) = E(f(B T + x)).(2.5)Proposition 2.3.4 Si f est une fonction <strong>de</strong> classe C 1 b en temps et C2 ben espace,E(f(t, x + B t )) = f(0, x) +∫ t0E[ 1 2 f ′′xx(s, x + B s ) + f ′ t(s, x + B s )] dsDémonstration: Soit u(t, x; f) = E(f(t, x + B t )). Il est facile <strong>de</strong> vérifier, en utilisant (2.3) et (2.4)quedudt (t, x; f) = u(t, x; ∂ tf) + 1 2 u(t, x; ∂ xxf)En effet, on écrit u(t, x; f) = F (t, t, x; f) avec F (s, t, x; f) = E(f(s, x + B t )). Il reste à utiliser lethéorème <strong>de</strong> dérivation <strong>de</strong>s fonctions composées:du ∂F∂F(t, x; f) = (t, t, x; f) + (t, t, x; f) = E(∂fdt ∂s ∂t ∂t (s, x + B t)) + 1 2 u(t, x; ∂ xxf)En intégrant par rapport à tu(t, x; f) − u(0, x; f) =∫ t0E[f t (s, x + B s ) + 1 2 ∂ xxf(s, x + B s )] ds


28 Le mouvement Brownien△On peut généraliser ce résultat au processus X défini par X t = x+µt+σB t . La fonction u(t, x; f) =E(f(t, x + µt + σB t )) vérifiedudt (t, x; f) = 1 2 σ2 u(t, x; ∂ xx f) + µu(t, x; ∂ x f) + u(t, x; ∂ t f)et u(0, x; f) = f(x). On définit L le générateur du processus par l’opérateurL(f) = 1 2 σ2 ∂ xx f + µ ∂ x fProposition 2.3.5 Si f est une fonction <strong>de</strong> classe C 1 b en temps et C2 bE(f(t, x + µt + σB t )) = f(0, x) +∫ t0en espace,E[Lf(s, x + µs + σB s ) + ∂ t f(s, x + µs + σB s )] dsThéorème 2.3.2 Si u est telle que Lu = 0 alors u(t, B t ) est une martingale.Démonstration: Les accroissements du Brownien sont indépendants.E(u(t, B t )|F s ) = E(u(s + t − s, x + B t−s )| x=Bs = E(u s,x (t − s, B t−s ))| x=Bsavec u s,x (t, y) = u(s + t, x + y). On a alorsE(u s,x (t − s, B t−s )) = u s,x (0, 0) +Par hypothèse, L(u) = 0 donc Lu s,x = 0. Il en résulte∫ t0Lu s,x (w, B w )dwE(u(t, B t )|F s ) = u s,x (0, 0)| x=Bs = u(s, B s )et le théorème est établi. Nous verrons ce résultat important dans un contexte plus général en applicationdu lemme d’Itô.△2.3.6 TrajectoiresNous admettons les résultats suivants:Les trajectoires du mouvement Brownien sont continues.Les trajectoires du mouvement Brownien sont p.s. “nulle part différentiables”.Théorème 2.3.3 Soit n fixé et t j = j2t pour j variant <strong>de</strong> 0 à 2 n . Alors ∑ 2 nn j=1 [B(t j) − B(t j−1 )] 2 → tquand n → ∞, la convergence ayant lieu en moyenne quadratique et p.s..Démonstration: Soit Ztn = ∑ 2 nj=1 [B(t j)−B(t j−1 )] 2 . Pour établuir la convergence en moyenne quadratique,on doit montrer que E((Ztn − t) 2 ) → 0, soit, puisque E(Zt n ) = t, Var(Zt n ) → 0 ce qui se déduit<strong>de</strong>∑2 n ∑2 n ( ) 2 tVar(Zt n ) = Var[B(t j ) − B(t j−1 )] 2 n+1 t2= 22 n = 22 2nj=1(Nous avons utilisé que si X est <strong>de</strong> loi N (0, σ 2 ), la variance <strong>de</strong> X 2 est 2σ 4 ). On en déduit queE( ∑ ∞n=1 (Zn t − t) 2 ) = ∑ ∞n=1 t2< ∞. D’où ∑ ∞n n=1 (Zn t − t) 2 < ∞ et le terme général <strong>de</strong> la sérieconverge p.s. vers 0.△Proposition 2.3.6 Soit σ une subdivision <strong>de</strong> l’intervalle [0, t] caractérisée par 0 = t 0 ≤ t 1 . . . ≤ t n = t.Soit V t la variation <strong>de</strong> la trajectoire du Brownien sur [0, t] définie par V t (ω) = sup σ∑i |B t i+1(ω) −B ti (ω)|. Alors V t (ω) = ∞ p.s.Démonstration: sup σ∑i |B t i+1− B ti | ≥ sup n∑ 2nk=0 |Y k| avec Y k = B t ∗k+1 − B t ∗ kchoisis comme précé<strong>de</strong>mment: t ∗ k = k2 n t. On peut majorer Z n t :Z n tj=1≤ (sup |B t ∗ − B t ∗|) ∑2 n |Yk+1 k k | .kk=0où les points sontQuand n → ∞, le terme sup |B tk+1 − B tk | tend p.s. vers 0, par continuité uniforme <strong>de</strong>s trajectoires sur[0, t]. Le terme ∑ 2 nk=0 |Y k| est croissant en n et ne peut avoir <strong>de</strong> limite finie sans que Zt n ne convergevers 0, ce qui n’est pas le cas.△


July 8, 2006 292.3.7 Propriétés <strong>de</strong> martingalea. Cas du BrownienProposition 2.3.7 Le processus B est une martingale. Le processus (B 2 t −t, t ≥ 0) est une martingale.Réciproquement, si X est un processus continu tel que X et (X 2 t − t, t ≥ 0) sont <strong>de</strong>s martingales, X estun mouvement Brownien.Démonstration: Nous ne démontrons que la partie directe. La réciproque est plus difficile à établir(Voir Revuz-Yor) mais très utile.L’idée est d’utiliser l’indépendance <strong>de</strong>s accroissements pour calculer les espérances conditionnelles, etd’utiliser la propriété E(X|G) = E(X) quand X et G sont indépendantes. Soit s ≤ t.De même E((B t − B s ) 2 |F s ) = t − s etE(B t |F s ) = E(B t − B s |F s ) + E(B s |F s ) = 0 + B sE((B t − B s ) 2 |F s ) = E(B 2 t + B 2 s − 2B t B s |F s ) = E(B 2 t |F s ) + B 2 s − 2B s E(B t |F s ) = E(B 2 t |F s ) − B 2 sOn obtient alorsE(B 2 t − t|F s ) = B 2 s − s .Proposition 2.3.8 Soit B 1 et B 2 <strong>de</strong>ux MB indépendants. Le produit B 1 B 2 est une martingale.Démonstration: On peut le faire en utilisant le lemme suivant : Soit F et G <strong>de</strong>ux tribus, X et Y <strong>de</strong>uxv.a. telles que X∨F et G sont indépendantes ainsi que Y ∨G et F. Alors E(XY |F∨G) = E(X|F)E(Y |G).Une autre métho<strong>de</strong> est d’utiliser que 1 √2(B 1 + B 2 ) est un processus gaussien <strong>de</strong> covariance t ∧ s, doncun mouvement Brownien et par suite 1 2 (B 1(t) + B 2 (t)) 2 − t est une martingale. Commele résultat suit.12 (B 1(t) + B 2 (t)) 2 − t = 1 2 (B2 1(t) − t) + 1 2 (B2 2(t) − t) + B 1 (t)B 2 (t) ,Définition 2.3.1 On dit que B est un (G t )-mouvement Brownien si B et (B 2 t − t, t ≥ 0) sont <strong>de</strong>s(G t )-martingales.Les propriétés données dans la définition 2.1.1. sont vérifiées. Si B est un (G t )-mouvement Brownien,c’est bien sûr un MB pour sa propre filtration.Proposition 2.3.9 Pour tout λ réel, le processus△△(exp(λB t − 1 2 λ2 t), t ≥ 0)est une martingale.Réciproquement, si X est un processus continu tel que (exp(λX t − 1 2 λ2 t), t ≥ 0) est une martingale,pour tout λ réel, le processus X est un brownien.Démonstration: Par indépendanceE(exp{λ(B t − B s ) − 1 2 λ2 (t − s)}|F s ) = E(exp{λ(B t − B s ) − 1 2 λ2 (t − s)})L’espérance du second membre se calcule comme une transformée <strong>de</strong> Laplace d’une variable gaussienne.On trouveE(exp{λ(B t − B s ) − 1 2 λ2 (t − s)}) = 1etE(exp{λB t − 1 2 λ2 t}|F s ) = exp{λB s − 1 2 λ2 s}La réciproque, facile, utilise la caractérisation <strong>de</strong>s v.a. gaussiennes au moyen <strong>de</strong> leur transformée <strong>de</strong>Laplace.△


30 Le mouvement Brownienb. GénéralisationProposition 2.3.10 Soit (Ω, F, F t , P ) et B un (F t )-brownien sur cet espace. Si X t = µt + σB t , alors,pour tout β réel, (exp(βX t − (µβ + 1 2 σ2 β 2 ) t), t ≥ 0) est une (F t )-martingale.Réciproquement, si X est un processus continu tel que (exp (βX t − (µβ + 1 2 σ2 β 2 ) t), t ≥ 0) est une F t-martingale, il existe un F t -brownien B tel que X t = µt + σB t .Démonstration: Nous savons que (exp(λB t − 1 2 λ2 t), t ≥ 0) est une martingale. il reste à utiliserque B t = 1 σ (X t − µt) et <strong>de</strong> poser λ = βσ.2.3.8 Temps d’atteintea. Cas du BrownienProposition 2.3.11 Soit (B t , t ≥ 0) un mouvement Brownien et a un nombre réel. SoitT a = inf{t ≥ 0; B t = a} .Alors T a est un temps d’arrêt fini p.s. tel que E(T a ) = ∞ et pour λ ≥ 0E(exp −λT a ) = exp(−|a| √ 2λ) . (2.6)Démonstration: La v.a. T a est un temps d’arrêt. En effet, pour a > 0, on aOn en déduitT a = inf{t ≥ 0; B t ≥ a}{T a ≤ t} = {sup B s ≥ a} = {∀ɛ ∃s ∈ IQ : B s > a − ɛ}s≤t= ( ∩ ɛ∈IQ + ∪ s≤t, s∈IQ {B s > a − ɛ} ) .La présence <strong>de</strong> IQ est indispensable pour gar<strong>de</strong>r la dénombrabilité. L’égalité précé<strong>de</strong>nte montre que{T a ≤ t} est obtenu à partir d’opérations dénombrables d’union et d’intersection d’éléments <strong>de</strong> F t ,donc appartient à cette tribu.Pour calculer la transformée <strong>de</strong> Laplace <strong>de</strong> la loi <strong>de</strong> T a , soit E(e −λTa ), on utilise que t ∧ T a est untemps d’arrêt borné (par t) et le théorème d’arrêt <strong>de</strong> Doob:∀t , E[exp(λB t∧Ta − λ22 (t ∧ T a))] = 1Lorsque t → ∞, sur l’ensemble où T a est fini on a B t∧Ta → B Ta = a et)exp(λB t∧Ta − λ22 (t ∧ T a) → exp(λa − λ22 T a)Sur l’ensemble où T a est infini, B t∧Ta ≤ a et (t ∧ T a ) = t → ∞, par suite)exp(λB t∧Ta − λ22 (t ∧ T a) → 0 .On obtient, après passage à la limite, ) en utilisant le théorème <strong>de</strong> Lebesgue dominé(on majore exp(λB t∧Ta − λ22 (t ∧ T a) par e λa ),E( 1 Ta


July 8, 2006 31On pourrait aussi dire que pour a > 0 et λ > 0, la martingaleexp(λB t∧Ta − λ22 (t ∧ T a))est bornée (par exp(λa)) donc est uniformément intégrable et on applique le théorème d’arrêt avect = ∞.Pour a < 0, on peut remarquer que T a = inf{t ≥ 0; B t = a} = inf{t ≥ 0; W t = −a}, avec W = −B.Il serait faux <strong>de</strong> conclure que E(exp −λT a ) = exp(−a √ 2λ) pour tout a car, pour a < 0 et λ > 0, lemembre <strong>de</strong> gauche est plus petit que 1 et celui <strong>de</strong> droite serait plus grand que 1. Il convient donc d’êtrevigilant en appliquant le théorème <strong>de</strong> Doob.△Par inversion <strong>de</strong> la transformée <strong>de</strong> Laplace, on obtient la <strong>de</strong>nsité <strong>de</strong> T a qui est, pour a > 0P (T a ∈ dt) = √ a exp ( − a2 )dt2πt3 2tOn verra, plus loin, une autre métho<strong>de</strong> pour obtenir ce résultat.Avec <strong>de</strong>s métho<strong>de</strong>s analogues, on établit les résultats suivants. Soit ̂T a = inf{t ≥ 0; |B t | = a} aveca > 0E(exp −λ ̂T[a ) = cosh (a √ −12λ)]. (2.7)bb−a .Si a ≤ 0 ≤ b on a P (T a < T b ) =Si c et d sont <strong>de</strong>s réels positifs et T = T c ∧ T −d on aE[exp(− λ22 T ) 1 sinh (λd)T =Tc ] =sinh (λ(c + d))E[exp(− λ2 cosh (λ(c − d)/2)T )] =2 cosh(λ(c + d)/2) .b. GénéralisationSi X t = µt + B t et T aµ = inf{t ≥ 0; X t = a} on peut montrer, en utilisant la martingale (exp(βX t −(µβ + 1 2 σ2 β 2 ) t), t ≥ 0) que pour µ > 0, λ > 0 (on pose λ = (µβ + 1 2 σ2 β 2 ))E(exp −λT µ a ) = exp(µa − |a| √ µ 2 + 2λ). (2.8)On obtient P (T a < ∞) en faisant λ = 0. Cette quantité n’est égale à 1 que si µ et a sont <strong>de</strong> mêmesigne.2.3.9 Brownien multidimensionnelSoit B t = (B (1)t , B (2)t , . . . , B (n)t ) T un processus n-dimensionnel (l’exposant T note la transposition d’unvecteur). On dit que B est un Brownien multidimensionnel si les processus (B (i) , i ≤ n) sont <strong>de</strong>s browniensindépendants. C’est un processus à accroissements indépendants. Pour chaque (a, b), le processusaB (1)t + bB (2)<strong>de</strong>f 1t est un processus gaussien. Il est facile <strong>de</strong> vérifier que B t = √a2 + b 2 (aB(1) t + bB (2)t ) estun MB (C4est un processus Gaussien, calculer son espérance et sa covariance).Si B est un brownien n-dimensionnel, on a E(B T t B s ) = n(s ∧ t).Le processus n-dimensionnel B est un mouvement Brownien si et seulement si les processus B (i) etB (i) B (j) − δ i,j t sont <strong>de</strong>s martingales (avec δ i,j = 0 pour i ≠ j et δ i,i = 1.Définition 2.3.2 Les mouvements Browniens à valeurs réelles B 1 et B 2 sont corrélés <strong>de</strong> coefficient <strong>de</strong>corrélation ρ si B 1 (t)B 2 (t) − ρt est une martingale.


32 Le mouvement BrownienOn “ décorrele” les MB en introduisant le processus B 3 défini par B 3 (t) =Ce processus est une martingale; en écrivant1√1 − ρ2 (B 2(t) − ρB 1 (t)).(B 3 (t)) 2 − t ==11 − ρ 2 [(B 2(t)) 2 + ρ 2 (B 1 (t)) 2 − 2ρB 2 (t)B 1 (t) − t(1 − ρ 2 )]11 − ρ 2 [(B 2(t)) 2 − t + ρ 2 [(B 1 (t)) 2 − t] − 2ρ[B 2 (t)B 1 (t) − ρt]on montre que (B 3 (t)) 2 − t est une martingale, d’où B 3 est un MB. On peut montrer que B 3 estindépendant <strong>de</strong> B 1 , nous donnerons une démonstration plus tard. Il est facile <strong>de</strong> vérifier que le produitB 1 B 3 est une martingale. Dans ce cas, il existe un Brownien B (3) , indépendant <strong>de</strong> B (2) tel que B (1) =ρB (2) + √ 1 − ρ 2 B (3) et, pour tout (a, b) le processus B t<strong>de</strong>f=mouvement Brownien.2.4 Intégrale <strong>de</strong> Wiener2.4.1 Définition1√a2 + b 2 + 2ρab (aB(1) + bB (2) ) est unOn note L 2 (IR + ) l’ensemble <strong>de</strong>s (classes d’équivalence <strong>de</strong>s) fonctions boréliennes f <strong>de</strong> IR + dans IR <strong>de</strong>carré intégrable, c’est-à-dire telles que ∫ +∞|f(s)| 2 ds < ∞.0(∫ ∞1/2C’est un espace <strong>de</strong> Hilbert pour la norme ||f|| 2 = f 2 (s) ds).a. Fonctions en escalierPour f = 1 ]u,v] , on pose ∫ +∞f(s)dB0 s = B(v) − B(u).Soit f une fonction en escalier, <strong>de</strong> la forme f(x) = ∑ i=ni=1 f i−1 1 ]ti−1,t i] on pose ∫ +∞f(s)dB0 s =∑ i=ni=1 f i−1 (B(t i ) − B(t i−1 )) .La variable aléatoire I(f) <strong>de</strong>f= ∫ +∞f(s)dB0 s est une variable gaussienne d’espérance nulle et <strong>de</strong> variance∫ +∞f 2 (s)ds. En effet, I(f) est gaussienne car le processus B est gaussien, centrée car B est centré.0De plus∑i=n∑i=nVar(I(f)) = fi−1Var 2 (B(t i ) − B(t i−1 )) = fi−1(t 2 i − t i−1 ) =i=10i=1∫ +∞0f 2 (s)ds = ‖f‖ 2 .L’intégrale est linéaire : I(f + g) = I(f) + I(g). Si f et g sont <strong>de</strong>s fonctions en escalier E(I(f) I(g)) =∫R + f(s) g(s) ds. En effetVar (I(f + g)) = = Var[I(f) + I(g)] = Var (I(f)) + Var (I(g)) + 2E(I(f)I(g))=∫ ∞0(f + g) 2 (s)ds =∫ ∞0f 2 (s)ds +∫ ∞0g 2 (s)ds + 2∫ ∞0f(s)g(s)dsb. Cas généralOn montre en analyse que, si f ∈ L 2 (IR + ), il existe une suite f n <strong>de</strong> fonctions en escalier qui converge(dans L 2 (IR + )) vers f, c’est-à-dire qui vérifie∫ ∞0|f n − f| 2 (x) dx → n→∞ 0.Dans ce cas, la suite f n est <strong>de</strong> Cauchy dans L 2 (IR + ). La suite <strong>de</strong> v.a. F n = ∫ ∞0f n (s) dB s est une suite<strong>de</strong> Cauchy dans l’espace <strong>de</strong> Hilbert L 2 (Ω) (en effet ||F n − F m || 2 = ||f n − f m || 2 → n,m→∞ 0), donc elle


July 8, 2006 33est convergente. Il reste à vérifier que la limite ne dépend que <strong>de</strong> f et non <strong>de</strong> la suite f n choisie (Voirles détails dans Revuz-Yor). On poseI(f) <strong>de</strong>f=∫ ∞0f(s) dB s = limn→∞∫ ∞0f n (s) dB sla limite étant prise dans L 2 (Ω).On dit que I(f) est l’intégrale <strong>stochastique</strong> (ou intégrale <strong>de</strong> Wiener) <strong>de</strong> f par rapport à B.Le sous-espace <strong>de</strong> L 2 (Ω) formé par les v.a. ∫ ∞f(s)dB0 s coïnci<strong>de</strong> avec l’espace gaussien engendré par lemouvement Brownien.2.4.2 PropriétésL’application f → I(f) est linéaire et isométrique <strong>de</strong> L 2 (IR + ) dans L 2 (Ω): la linéarité signifie queI(f + g) = I(f) + I(g) et l’isométrie que la norme <strong>de</strong> I(f) est égale à la norme <strong>de</strong> f. La norme <strong>de</strong>I(f) est la norme L 2 (Ω) définie par ||I(f)|| 2 = E( (I(f)) 2 ), la norme <strong>de</strong> f est la norme L 2 (IR + ), soit||f|| 2 =∫ ∞0f 2 (s)ds .La propriété d’isométrie implique E (I(f) I(g)) = ∫ IR + f(s)g(s) ds.Soit f ∈ L 2 (IR + ). La variable I(f) est une v.a. gaussienne centrée <strong>de</strong> variance ∫ IR + f 2 (s)ds appartenantà l’espace gaussien engendré par (B t , t ≥ 0) et elle vérifie pour tout t)E(B t f(s)dB s =∫IR +∫ t0f(s)ds . (2.9)Démonstration: Il suffit <strong>de</strong> remarquer que E ( B(t) ∫ (∫) t ∫)f(s)dBIR + s = E dB s f(s)dB s . △0 IR +La propriété (2.9) est en fait une caractérisation <strong>de</strong> l’intégrale <strong>stochastique</strong> au sens où si pour toutt, E(ZB t ) = ∫ ∫ ∞t0 f(s)ds, alors Z = f(s)dB s .02.4.3 Processus lié à l’intégrale <strong>stochastique</strong>On définit pour f ∈ L 2 (IR + ) la variable aléatoire ∫ t0 f(s)dB s = ∫ +∞10 [0,t] (s)f(s)dB s .On peut <strong>de</strong> la même façon définir ∫ t0 f(s)dB s pour f telle que ∫ T0 |f(s)|2 ds < ∞, ∀T , ce qui permet <strong>de</strong>définir l’intégrale <strong>stochastique</strong> pour une classe plus gran<strong>de</strong> <strong>de</strong> fonctions. On notera L 2 loccette classe <strong>de</strong>fonctions.Théorème 2.4.1 Soit f ∈ L 2 loc et M t = ∫ t0 f(s)dB s.a) Le processus M est une martingale continue, la v.a. M t est d’espérance 0 et <strong>de</strong> variance ∫ t0 f 2 (s) ds.b) Le processus M est un processus gaussien centré <strong>de</strong> covariance ∫ t∧s0f 2 (u) du à accroissementsindépendants.c) Le processus (M 2 t − ∫ t0 f 2 (s) ds , t ≥ 0) est une martingale.d) Si f et g sont dans L 2 loc , on a E(∫ t0 f(u)dB u∫ s0 g(u)dB u) =∫ t∧s0f(u)g(u)du .Démonstration: On commence par le cas où la fonction f est étagée et on passe à la limite. Pourvérifier que M est une martingale, pour f = ∑ i=ni=1 f i−1 1 ]ti−1,t i], on montre que0 = E(M t − M s |F s ) = E(Supposons que t i < s < t ≤ t i+1 . Dans ce cas E(∫ ts∫ tsf(u)dB u |F s ) (2.10)f(u)dB u |F s ) = f i E((B t − B s )|F s ) et (2.10) est


34 Le mouvement Brownienvérifiée.Supposons que t i < s ≤ t i+1 ≤ t j < t ≤ t j+1 . Dans ce casE(∫ tsf(u)dB u |F s ) = E(f j (B t − B tj ) += f j E(B t − B tj |F s ) +∑j−1k=i+1∑j−1k=i+1f k (B tk+1 − B tk ) + f i (B ti+1 − B s )|F s )Les autres cas sont analogues. En particulier( (∫ t) 2)E(Mt 2 − Ms 2 |F s ) = E((M t − M s ) 2 |F s ) = E f(u)dB u |F s2.4.4 Intégration par partiesf k E(B tk+1 − B tk |F s ) + f i E(B ti+1 − B s |F s ) = 0s= E( ∑ f(t k )(B tk+1 ∧t − B tk ∧t) 2 |F s ) = ∑ f 2 (t k )((t k+1 ∧ t) − (t k ∧ t))Théorème 2.4.2 Si f est une fonction <strong>de</strong> classe C 1 ,∫ t0f(s) dB s = f(t)B(t) −∫ t0f ′ (s)B s ds.∫ tDémonstration: Il suffit, d’après (2.9), <strong>de</strong> vérifier que pour tout u, E[B u 0 f(s) dB s] = E(B u [f(t)B t −∫∫ t∧ut0 f ′ (s)B s ds]). Le premier membre vaut f(s)ds, on calcule le second au moyen <strong>de</strong>s <strong>de</strong>ux égalitésE(B u f(t)B t ) = f(t)(t∧u), E(B u∫ t0 f ′ (s)B s ds) =0∫ t0f ′ (s)(s∧u)ds. L’égalité résulte alors <strong>de</strong> l’application<strong>de</strong> la formule d’intégration par parties classique pour calculer <strong>de</strong>s expressions du type ∫ b0 sf ′ (s)ds. △On peut aussi écrire cette formule2.5 Exemples2.5.1 Le brownien géométriqued(B t f(t)) = f(t)dB t + B t f ′ (t)dt .Définition 2.5.1 Soit B un mouvement Bownien, b et σ <strong>de</strong>ux constantes. Le processus△X t = X 0 exp{(b − 1 2 σ2 )t + σB t }est appellé Brownien géométrique.Ce processus est aussi appellé processus“log-normal”. En effet, dans ce caslnX t ={b − 1 }2 σ2 t + σB t + ln xet la variable qui est à droite suit une loi normale. On a immédiatementProposition 2.5.1 Le processus X t e −bt est une martingale.En écrivantX t = X s exp{(b − 1 2 σ2 )(t − s) + σ(B t − B s )}


July 8, 2006 35on établit que X est Markovien. Le caractère Markovien <strong>de</strong> X et les propriétés du MB permettent <strong>de</strong>calculer les espérances conditionnelles:E(X t |F s ) = X s E(exp{(b − 1 2 σ2 )(t − s) + σ(B t − B s )}|F s )= X s exp(b(t − s))E(exp{(− 1 2 σ2 )(t − s) + σ(B t − B s )}|F s )= X s exp(b(t − s))E(exp{(− 1 2 σ2 )(t − s) + σB t−s })= X s e b(t−s) = E(X t |X s )où nous avons utilisé la propriété <strong>de</strong> martingale <strong>de</strong> l’exponentielle du MB. Remarquons que nous avonsloiutilisé que X t = X s ˜Xt−s avec ˜X t−s indépendant <strong>de</strong> X t et <strong>de</strong> même loi que X t−s .De la même façon, en notant G une v.a. <strong>de</strong> loi N (0, 1)E(f(X t )|F s ) = E(f(X t )|X s ) = E(f(x exp{(b − 1 2 σ2 )(t − s) + σ(B t − B s )}) x=Xs= E(f(x exp{(b − 1 2 σ2 )(t − s) + σG √ t − s}) x=Xs=∫ ∞−∞f(X s exp{(b − 1 2 σ2 )(t − s) + σy √ t − s})q(1, 0, y)dy .Ce processus est très souvent utilisé pour modéliser le prix d’un actif financier. Le ren<strong>de</strong>ment <strong>de</strong>l’actif entre <strong>de</strong>ux dates est mesuré par la différence <strong>de</strong>s logarithmes <strong>de</strong>s cours et est donné par la variablegaussienne{b − 1 2 σ2 }(t − s) + σ(B t − B s ) .Il est facile <strong>de</strong> calculer les moments d’un Brownien géométrique; par exemple E(X t ) = X 0 e bt (Utiliser,par exemple, la propriété <strong>de</strong> martingale) . Pour calculer le moment d’ordre 2, il suffit <strong>de</strong> faire lestransformations évi<strong>de</strong>ntes suivantesE(X 2 t ) = X 2 0 E(exp{(2b − σ 2 )t + 2σB t }) = X 2 0 E(exp{(2b + σ 2 )t − 1 2 (2σ)2 t + (2σ)B t })= X 2 0 exp[(2b + σ 2 )t]On en déduit VarX t = x 2 e 2bt (e σ2t − 1).Le ratio <strong>de</strong> Sharpe estE(X t ) − x√ VarXt2.5.2 Processus d’Ornstein-UhlenbeckThéorème 2.5.1 L’équation <strong>de</strong> LangevinV t = −∫ t0aV s ds + σB t + V 0 , (2.11)a pour unique solutionV t = e −ta V 0 +∫ t0e −(t−s)a σdB s . (2.12)On écrit l’équation (2.11) sous forme con<strong>de</strong>nséedV t + aV t dt = σdB t ,V 0 donnéles données du problème sont la variable aléatoire V 0 , le Brownien B et les constantes a et σ.


36 Le mouvement BrownienDémonstration: Soit X = (X t , t ≥ 0) le processus défini par le second membre <strong>de</strong> (2.12). Nousallons vérifier que X est solution <strong>de</strong> l’équation (2.11). En utilisant la formule d’intégration par parties,on transforme l’intégrale∫ t0∫ te −(t−s)a σdB s = σe −at e sa dB s = σe −at [e at B t − a0∫ t0e sa B s ds)On en déduit que X t = e −ta V 0 + σB t − σe −at a ∫ t0 esa B s ds. On s’attache ensuite au calcul <strong>de</strong>∫ t0X s ds =∫ t0e −sa V 0 ds + σ∫ tL’intégrale double qui apparait au second membre estce qui conduit àa∫ t0∫ t00B s ds − aσ∫ te −as(∫ s00e ua B u du ) ds∫ tdue ua B u dse −as = 1 [ ∫ t∫ tB s ds − e −at e −as ds ]aX s ds = V 0 (1 − e −at ) + σau∫ t00e a(s−t) B s ds = −X t + σB t + V 0d’où X vérifie (2.11).△On peut également poser Y t = e −at V t et appliquer la formule d’intégration par parties (sous résrvequ’elle s’applique à V t )dY t = e −at dV t − ae −at V t dt = e −at σdB tdont la solution est Y t = Y 0 + ∫ t0 e−as σdB s .Proposition 2.5.2 Si V 0 est une v.a.r. gaussienne indépendante du brownien (en particulier si V 0 estune constante), le processus V , appellé processus d’Ornstein-Uhlenbeck est gaussien d’espérance et <strong>de</strong>covarianceE(V t ) = e −ta E(V 0 ),cov[V s , V t ] = e −sa ve −ta +si v désigne la variance <strong>de</strong> V 0 .Le processus V est un processus <strong>de</strong> Markov.∫ s0e −(s−u)a σ 2 e −(t−u)a du , s ≤ tDémonstration: En effet, d’aprés (2.12), E(V t ) = e −ta E(V 0 ) car l’espérance <strong>de</strong> l’intégrale <strong>stochastique</strong>est nulle (la fonction e sa est <strong>de</strong> carré intégrable sur tout intervalle fini). Toujours d’après (2.12),∫ s∫ tcov[V s , V t ] = cov(V 0 e −as + σe −as e au dB u , V 0 e −at + σe −at e au dB u )= cov(V 0 e −as , V 0 e −at ) + σ 2 e −as e −at cov(∫ s∧t= ve −as e −at + σ 2 e −as e −at e 2au du ,00∫ s00e au dB u ,0∫ t0e au dB u )Le caractère gaussien 2 est facile à établir.L’unicité se montre en vérifiant que si V 1 et V 2 sont solutions, V 1 − V 2 est solution d’une équationdifférentielle déterministe.△En particulier, si V 0 est une constante (v = 0)et Var(V t ) = σ2(1 − exp −2at).2acov[V s , V t ] = σ22a e−a(s+t) (e 2as − 1)2 “An interesting study in the laws of probability.” H. Poirot, Sad Cypress, A. Christie.


July 8, 2006 37En écrivant V s = e −sa V 0 + ∫ s0 e−(s−u)a σdB u et V s e (s−t)a = e −ta V 0 + ∫ s0 e−(t−u)a σdB u on en déduit,pour s ≤ tou encoreV t = V s e −(t−s)a +V t+s = V s e −ta +∫ ts∫ t0e −(t−u)a σdB ue −(t−u)a σd ˜B uoù le processus ˜B défini par ˜B u = B s+u − B s est un MB indépendant <strong>de</strong> F s (donc <strong>de</strong> V s ).En particulier E(f(V t+s )|F s ) = E(f(V s e −ta + Y )|F s ) = E(f(V t+s )|V s ) (dans cette égalité Y est unev.a. indépendante <strong>de</strong> F s ) ce qui établit le caractère markovien <strong>de</strong> V . Le calcul explicite peut se faireen utilisant queE(f(V s(x) e −ta + Y )|F s ) = Ψ(V s (x) )avec Ψ(y) = E(f(ye −ta + Y )) = E(f(V (y)t )) où V (x) est la solution <strong>de</strong> l’équation <strong>de</strong> valeur initiale x,soit V (x)t = e −ta x + ∫ t0 e−(t−s)a σdB s .Proposition 2.5.3 La variable aléatoire∫ tvariance − σ22a 3 (1 − e−at ) 2 + σ2 1 − e−at(t − ).a2 aDémonstration: Voir le paragraphe suivant.0V s ds est une v.a. gaussienne, <strong>de</strong> moyenne V 01−e −ataet <strong>de</strong>△2.5.3 Modèle <strong>de</strong> VasicekUne généralisation du modèle précé<strong>de</strong>nt est l’équationdr t = a(b − r t )dt + σdB t . (2.13)Sous cette forme, elle est utilisée pour étudier l’évolution <strong>de</strong>s taux d’intérêt (modèle <strong>de</strong> Vasicek). Laforme explicite <strong>de</strong> la solution estr t = (r 0 − b)e −at + b + σ∫ t0e −a(t−u) dB u .(Il suffit <strong>de</strong> poser r t − b = V t , le processus V est alors solution <strong>de</strong> l‘équation <strong>de</strong> Langevin. L’égalitér t = (r s − b)e −a(t−s) + b + σ∫ tse −a(t−u) dB u , s ≤ tétablit le caractère Markovien <strong>de</strong> r. Si r 0 est une constante, r t est une variable gaussienne <strong>de</strong> moyenne(r 0 − b)e −at + b, et <strong>de</strong> variance σ22a(1 − exp −2at). En particulier, ce n’est pas une variable positive. Leprocessus r est gaussien <strong>de</strong> covariance Cov(r s , r t ) = σ22a e−a(s+t) (e 2as − 1) pour s ≤ t.L’expression explicite <strong>de</strong> (r t , t ≥ s) en fonction <strong>de</strong> r s montre que, conditionnellement à F s , la v.a.r t+s est variable gaussienne <strong>de</strong> moyenne (r s − b)e −at + b, et <strong>de</strong> variance σ22a(1 − exp −2at). De même,conditionnellement à F s , le processus (r t+s , t ≥ 0) est un processus <strong>de</strong> Vasicek <strong>de</strong> paramètres (a, b, σ)et <strong>de</strong> condition initiale r s .On en déduitProposition 2.5.4 Pout s < t, l’espérance et le variance conditionnelle <strong>de</strong> r sontE(r t |r s ) = (r s − b)e −a(t−s) + bvar s (r t ) = σ22a (1 − e−2a(t−s) )


38 Le mouvement BrownienProposition 2.5.5 La variable ∫ t0 r sds est une variable gaussienne <strong>de</strong> moyenneE(∫ tet <strong>de</strong> variance − σ22a 3 (1 − e−at ) 2 + σ2 1 − e−at(t − ).a2 aDémonstration: Par définition r t = r 0 + abt − a∫ t00r s ds) = bt + (r 0 − b) 1 − e−ata∫ t0r s ds + σB t . D’oùr s ds = 1 a [−r t + r 0 + abt + σB t ] = 1 a [−(r 0 − b)e −at − b − σPlus généralement, on a, pour t ≥ s∫ t0e −a(t−u) dB u + r 0 + abt + σB t ].E(∫ tsr u du|F s ) = b(t − s) + (r s − b) 1 − e−a(t−s)a= M(t, s)Var s (∫ tsr u du) = − σ22a 3 (1 − e−a(t−s) ) 2 + σ2 1 − e−a(t−s)(t − s − ) = V (t, s)a2 aoù Var s désigne la variance conditionnelle par rapport à F s .La variable ∫ ts r u du est une variable gaussienne dont on connait, conditionnellement à F s l’espéranceet la variance. On en déduitE(exp −∫ tsr u du |F s ) = exp(−M(t, s) + 1 V (t, s)) .2Ces calculs sont utiles pour valoriser ( <strong>de</strong>s zéro-coupons en finance : si B(t, T ) est la valeur d’un ZC<strong>de</strong> maturité T , on a B(t, T ) = E(exp − ∫ )Trt u du |F t ) et−t)1 − e−a(TB(t, T ) = exp[b(T − t) + (r t − b) − σ2a 4a 3 (1 − e−a(T −t) ) 2 + σ22ta−t)1 − e−a(T(T − t −2a]) .


Chapter 3INTÉGRALE STOCHASTIQUEOn se donne un espace (Ω, F, P ) et un mouvement Brownien B sur cet espace. On désigne par F t =σ(B s , s ≤ t) la filtration naturelle du mouvement Brownien.3.1 DéfinitionOn veut généraliser 1 l’intégrale <strong>de</strong> Wiener et définir ∫ t0 θ sdB s pour <strong>de</strong>s processus <strong>stochastique</strong>s θ.3.1.1 Cas <strong>de</strong> processus étagésOn dit qu’un processus θ est étagé (ou élémentaire) s’il existe une suite <strong>de</strong> réels t j , 0 ≤ t 0 ≤ t 1 . . . ≤ t n etune suite <strong>de</strong> variables aléatoires θ j telles que θ j soit F tj -mesurable, appartienne à L 2 (Ω) et que θ t = θ jpour tout t ∈]t j , t j+1 ], soit θ s (ω) = ∑ n−1j=0 θ j(ω) 1 ]tj ,t j+1 ](s) .On définit alors∫ ∞n−1∑θ s dB s = θ j (B(t j+1 ) − B(t j )).0On a E( ∫ ∞θ0 s dB s ) = 0 et Var ( ∫ ∞θ0 s dB s ) = E[ ∫ ∞θ 2 0 s ds].On obtient∫ tn−1∑θ s dB s = θ j (B(t j+1 ∧ t) − B(t j ∧ t)).0j=0j=0ce qui établit la continuité <strong>de</strong> l’application t → ∫ t0 θ sdB s . Si T j , 0 ≤ T 0 ≤ T 1 . . . ≤ T n est une suitecroissante <strong>de</strong> temps d’arrêt, et si θ s = ∑ n−1j=0 θ j 1 ]Tj,T j+1](s) où θ j est une suite <strong>de</strong> variables aléatoirestelles que θ j soit F Tj -mesurable, appartienne à L 2 (Ω), on définit alors∫ t0n−1∑θ s dB s = θ j (B(T j+1 ∧ t) − B(T j ∧ t)).j=03.1.2 Cas généralOn peut prolonger la définition <strong>de</strong> l’intégrale <strong>de</strong> Wiener à une classe plus gran<strong>de</strong> <strong>de</strong> processus. On perdle caractère gaussien <strong>de</strong> l’intégrale, ce qui est déja le cas pour le cas <strong>de</strong> processus étagé.On définit les processus càglàd <strong>de</strong> carré intégrable (appartenant à L 2 (Ω × IR + ) ) comme l’ensemble Γ<strong>de</strong>s processus θ adaptés continus à gauche limités à droite, (F t )-adaptés tels que‖θ‖ 2 <strong>de</strong>f= E[∫ ∞0θ 2 t dt] < ∞.1 “Je marche vers mon but, je vais mon chemin; je sauterai par <strong>de</strong>ssus les hésitants.” Ainsi parlait Zarathoustra.Nietzsche.39


40 Intégrale <strong>stochastique</strong>Les processus étagés appartiennent à Γ. On dit que θ n converge vers θ dans L 2 (Ω×IR + ) si ‖θ − θ n ‖ 2 → 0quand n → ∞.L’application θ → ||θ|| définit une norme qui fait <strong>de</strong> Γ un espace complet.On peut définir ∫ ∞θ0 s dB s pour tous les processus θ <strong>de</strong> Γ: on approche θ par <strong>de</strong>s processus étagés,soit θ = lim n→∞ θ n où θ n = ∑ k(n) ˜θ j=1 j n1 ]t j,t j+1], avec ˜θ j n ∈ F t jla limite étant au sens <strong>de</strong> L 2 (Ω × IR).L’intégrale ∫ ∞θ0 s dB s est alors la limite dans L 2 (Ω) <strong>de</strong>s sommes ∑ k(n) ˜θ j=1 j n(B(t j+1)−B(t j )) dont l’espéranceest 0 et la variance E[ ∑ ˜θ j j 2(t j+1 − t j )].On a alors E( ∫ ∞0θ s dB s ) = 0 et E (∫ ∞0θ s dB s) 2= E(∫ ∞0θ 2 s ds).On note ∫ t0 θ <strong>de</strong>fsdB s = ∫ ∞θ0 s 1 [0,t] (s) dB s . Si θ est étagé ∫ t0 θ sdB s = ∑ i θ i(B ti+1 ∧t − B ti ∧t).Plus généralement, si τ est un temps d’arrêt, le processus 1 ]0,τ] (t) est adapté et on définit3.2 Propriétés∫ τ∧t0θ s dB s =∫ t0θ s 1 ]0,τ] (s)dB sOn note Λ l’ensemble L 2 loc (Ω × IR+ ) <strong>de</strong>s processus θ adaptés càglàd vérifiant E( ∫ t0 θ2 s(ω)ds) < ∞ , ∀t.3.2.1 Linéarité.Soit a et b <strong>de</strong>s constantes et (θ i ; i = 1, 2) <strong>de</strong>ux processus <strong>de</strong> Λ. On a∫ t3.2.2 Propriétés <strong>de</strong> martingaleProposition 3.2.1 Soitoù θ ∈ Λ.a)0∫(aθ1s + bθs2 ) tdBs = a θsdB 1 s + b0M t = ∫ t0 θ sdB s∫ tLe processus M est une martingale0θ 2 sdB sà trajectoires continues.(∫ t) 2b) Soit N t = θ s dB s −0∫ t0θ 2 sds. Le processus (N t , t ≥ 0) est une martingale.Démonstration: Toutes ces propriétés se démontrent pour <strong>de</strong>s processus étagés, puis pour lesprocessus <strong>de</strong> Λ par passage à la limite.△La propriété <strong>de</strong> martingale s’écrit(∫ t) ∫ sE θ u dB u |F s = θ u dB u , ∀t ≥ s,00ou(∫ t)E θ u dB u |F s = 0set implique en particulier que E( ∫ t[ s θ udB u ) = 0.(∫ t) 2] [∫ tLa propriété b) équivaut à E θ u dB u |F s = E θudu|F 2 s].ss


July 8, 2006 41Si l’on veut définir M t pour t ≤ T , il suffit <strong>de</strong> <strong>de</strong>man<strong>de</strong>r que θ ∈ L 2 (Ω×[0, T ]), c’est à dire E( ∫ T0 θ2 t dt) 0, on a E(τ) < ∞ et par suiten∑(B ti+1 − B ti ) 2i=0(B ti+1 − B ti ) 2 ] = 1 2 [B2 t − t]. △On peut définir ∫ t0 θ s dB s pour <strong>de</strong>s processus adaptés càglàd qui n’appartiennent pas nécessairement àL 2 (Ω×IR), mais qui vérifient pour tout t, ∫ t0 θ2 (s, ω) ds < ∞ p.s. Dans ce cas M n’est pas une martingalemais une martingale locale et E(M t ) peut être non nul. On utilise souvent qu’une martingale localepositive est une surmartingale (appliquer le lemme <strong>de</strong> Fatou).3.2.5 Inégalité maximaleOn a souvent besoin <strong>de</strong> majorations d’intégrales <strong>stochastique</strong>s. L’inégalité <strong>de</strong> Doob conduit àProposition 3.2.4 Soit θ ∈ ΛE([sups≤T∫ s0∫ T∫ Tθ u dB u ] 2 ) ≤ 4E([ θ u dB u ] 2 ) = 4 E[θu]du200△


42 Intégrale <strong>stochastique</strong>3.3 Processus d’Itô3.3.1 DéfinitionUn processus X est un processus d’Itô siX t = x +∫ t0b s ds +∫ t0σ s dB soù b est un processus adapté tel que ∫ t0 |b s| ds existe (au sens Lebesgue) p.s. pour tout t, et σ unprocessus appartenant à Λ.On utilise la notation plus concise suivante{dXt = b t dt + σ t dB t ,X 0 = xLe coefficient b est le drift ou la dérive, σ est le coefficient <strong>de</strong> diffusion.L’écriture dX t = b t dt + σ t dB t est unique (sous réserve que les processus b et σ vérifient les conditionsd’intégrabilité). Ceci signifie que sidX t = b t dt + σ t dB t = ˜b t dt + ˜σ t dB talors b = ˜b; σ = ˜σ. En particulier, si X est une martingale locale alors b = 0 et réciproquement.On peut définir un processus d’Itô pour <strong>de</strong>s coefficients <strong>de</strong> diffusion tels que ∫ t0 σ2 s ds < ∞ P.p.s.mais on perd la propriété <strong>de</strong> martingale <strong>de</strong> l’intégrale <strong>stochastique</strong>. La partie x + ∫ t0 b s ds est la partieà variation finie. Si un processus A à variation finie ets une martingale, il est constant. En effet, siA 0 = 0 = 0, A 2 t = 2 ∫ t0 A sdA s et par suite E(A 2 t ) = 0.3.3.2 PropriétésSi σ appartient à Λ, on a E(X t ) = E(X 0 ) + ∫ t0 E(b s)ds, et∀t ≥ s, E(X t |F s ) = X 0 +∫ s0b u du + E(∫ tsb u du |F s ) +∫ s0σ u dB u = X s + E(∫ tsb u du |F s ).Si b ≡ 0 et σ ∈ Λ, le processus X est une martingale continue.On verra que la réciproque est vraie: sous certaines conditions d’intégrabilité et <strong>de</strong> mesurabilité, toutemartingale continue s’écrit x + ∫ t0 φ sdB s .3.3.3 Intégrale par rapport à un processus d’Itô.Soit X un processus d’Itô <strong>de</strong> décomposition dX t = b t dt + σ t dB t . On note (sous réserve <strong>de</strong> conditionsd’intégrabilité)∫ t0θ s dX s<strong>de</strong>f=∫ t3.3.4 Crochet d’un processus d’Itô0θ s b s ds +∫ t0θ s σ s dB s .Soit Z une martingale continue <strong>de</strong> carré intégrable (telle que E(sup t Z 2 t ) < ∞). On peut montrer (VoirRevuz-Yor) qu’il existe un processus croissant continu A tel que (Z 2 t − A t , t ≥ 0) est une martingale. Leprocessus A est appellé le “crochet oblique”, ou le crochet <strong>de</strong> Z. On le note très souvent A t = 〈Z, Z〉 tou encore 〈Z〉 t .Idée <strong>de</strong> la preuveZ 2 t = Z 2 0 + ∑ (Z 2 t∧t k+1− Z 2 t∧t k)= Z 2 0 + 2 ∑ Z t∧tk (Z t∧tk+1 − Z t∧tk ) + ∑ (Z t∧tk+1 − Z t∧tk ) 2→ Z 2 0 + 2∫ t0Z s dZ s + A t .


July 8, 2006 43En utilisant ce vocabulaire cher aux probabilistes, nous avons établi que le crochet du Brownien estt et que le crochet <strong>de</strong> l’intégrale <strong>stochastique</strong> (M t =∫ t0θ s dB s ) est∫ t0θ 2 sds.Si M et N sont <strong>de</strong>ux martingales locales continues, on définit leur crochet par< M, N > t = 1 2 (< M + N, M + N > t − < M, M > t − < N, N > t ) .C’est l’unique processus à variation finie tel que le processus MN− < M, N > est une martingalelocale. Le crochet <strong>de</strong> <strong>de</strong>ux intégrales <strong>stochastique</strong>s X t = x +< X, Y > t =∫ t0H s K s ds.∫ t0H s dB s , Y t = y +∫ t0K s dB sProposition 3.3.1 Le crochet <strong>de</strong> <strong>de</strong>ux martingales continues M et N est égal à la variation quadratique<strong>de</strong> ces processusn∑< M, N > t = lim (M ti+1 − M ti ) (N ti+1 − N ti )i=1Il en résulte que si P et Q sont équivalentes, le crochet <strong>de</strong> M sous P et sous Q sont égaux. On ditque <strong>de</strong>ux martingales continues sont orthogonales si leur crochet est nul, ou si leur produit est unemartingale.Si M est une martingale locale continue, on a équivalence entre E〈M〉 t < ∞ et (M s , s ≤ t) est unemartingale L 2 bornée.On étend la définition du crochet aux processus d’Itô: sidX i (t) = b i (t)dt + σ i (t)dB t , i = 1, 2sont <strong>de</strong>ux processus d’Itô, leur crochet est par définition le crochet <strong>de</strong> leur partie martingale. Cela tientà la propriété 3.3.1.Nous en déduisons une nouvelle forme <strong>de</strong> la définition <strong>de</strong> Browniens corrélés: <strong>de</strong>ux Browniens sontcorrélés si leur crochet est ρt. On définit le crochet du processus d’Itô X comme étant le crochet <strong>de</strong> sapartie martingale. Le crochet <strong>de</strong> X est A t = 〈X〉 t =en disant que c’est une martingale continue d’espérance nulle et <strong>de</strong> crochet t.3.4 Lemme d’Itô∫ t0estσ 2 sds. On caractérise le mouvement BrownienDans ce qui suit, X est un processus d’Itô <strong>de</strong> décomposition dX t = b t dt + σ t dB t . Nous renvoyons àRevuz-Yor pour la démonstration basée sur la formule <strong>de</strong> Taylor et la propriété 3.3.1 du crochet.3.4.1 Première formeThéorème 3.4.1 Soit f une fonction <strong>de</strong> IR dans IR, <strong>de</strong> classe C 2 à dérivées bornées. AlorsIdée <strong>de</strong> la preuvef(X t ) = f(X 0 ) +∫ t0f ′ (X s )dX s + 1 2∫ t0f ′′ (X s )σ 2 sds.f(X t ) = f(X 0 ) + ∑ f(X tk+1 ) − f(X tk )f(X tk+1 ) − f(X tk ) = f ′ (X tk )(X tk+1 − X tk ) + 1 2 f ′′ (X tk (X tk+1 − X tk ) 2 + o((X tk+1 − X tk ))et on passe à la limite.Sous forme con<strong>de</strong>nséedf(X t ) = f ′ (X t )dX t + 1 2 f ′′ (X t )σ 2 t dt,


44 Intégrale <strong>stochastique</strong>ou encoredf(X t ) = f ′ (X t )b t dt + 1 2 f ′′ (X t ) σ 2 t dt + f ′ (X t )σ t dB t ,et en utilisant le crochetdf(X t ) = f ′ (X t )b t dt + 1 2 f ′′ (X t ) d〈X〉 t + f ′ (X t )σ t dB t .La condition <strong>de</strong> bornitu<strong>de</strong> <strong>de</strong>s dérivées n’est exigée que pour l’existence <strong>de</strong>s intégrales et pour lapropriété <strong>de</strong> martingale <strong>de</strong> l’intégrale <strong>stochastique</strong>.La formule est facile à mémoriser en notant sa ressemblance avec la formule <strong>de</strong> Taylor, sous la formeet la règle <strong>de</strong> multiplicationdf(X t ) = f ′ (X t )dX t + 1 2 f ′′ (X t )dX t · dX t ,dt · dt = 0, dt · dB t = 0, dB t · dB t = dtApplications: 1.) <strong>Calcul</strong> <strong>de</strong> E(f(X t )) et <strong>de</strong> E(f(X t ) |F s ) (si f ′ et σ sont bornés)( ∫ )tE(f(X t )) = E(f(X 0 )) + E0 [f ′ (X s )b s + 1 2 f ′′ (X s )σs]ds2( ∫ )t= E(f(X 0 )) +0 E[f ′ (X s )b s + 1 2 f ′′ (X s )σs]ds2 .On retrouve, pour X t = B t , les résultats <strong>de</strong> la proposition 4, chapitre 2.On obtient également( ∫ )tE(f(X t ) |F s ) = f(X s ) + Es [f ′ (X u )b(u) + 1 2 f ′′ (X u )σu]du 2 |F s= f(X s ) + ∫ ts E[f ′ (X u )b(u) + 1 2 f ′′ (X u )σu|F 2 s ]du.On prendra gar<strong>de</strong> à ne pas intervertir intégrale et conditionnement pour <strong>de</strong>s intégrales <strong>stochastique</strong>s.2.) <strong>Calcul</strong> <strong>de</strong> ∫ t0 B sdB s = 1 2 (B2 t − t).3.) <strong>Calcul</strong> <strong>de</strong> d(exp X t ) = (expX t )(dX t + 1 2 σ2 t dt).4.) Une solution <strong>de</strong> dS t = S t (µdt+σdW t ) est S t = xe X tavec X t = (µ− 1 2 σ2 )t+σW t . On peut montrerque c’est la seule solution.(Voir Sect. ??)).Proposition 3.4.1 Supposons queX t = X 0 +∫ t0b(X s ) ds +∫ t0σ(X s ) dB soù b et σ sont <strong>de</strong>s fonctions <strong>de</strong> IR dans IR bornées. Si f est une fonction <strong>de</strong> IR dans IR <strong>de</strong> classe C 2 àdérivées bornées et vérifiantle processus f(X) est une martingale.∀x, b(x)f ′ (x) + 1 2 σ2 (x)f ′′ (x) = 0,Démonstration: Cela résulte directement <strong>de</strong> la formule d’Itô.△Les fonctions f telles que 3.1 est vérifiée sont les fonctions d’échelle. Elles sont déterminées à <strong>de</strong>uxconstantes près par les fonctions b et σ par∫ x( ∫ u)f(x) = exp −2 b(v)/σ 2 (v) dv du .cOn peut affaiblir la condition sur la bornitu<strong>de</strong> <strong>de</strong>s dérivées qui n’est utilisée que pour assurerl’existence <strong>de</strong>s intégrales et la propriété <strong>de</strong> martingale.L’opérateur L qui à f ∈ C 2 fait correspondre Lf(x) = b(x)f ′ (x) + 1 2 σ2 (x)f ′′ (x) est le générateurinfinitésimal <strong>de</strong> la diffusion X ou aussi le Dynkin. Il vérifiecE x (f(X t )) − f(x)Lf(x) = lim.t→0 t


July 8, 2006 453.4.2 Fonction dépendant du tempsThéorème 3.4.2 Soit f une fonction définie sur IR + × IR <strong>de</strong> classe C 1 par rapport à t, <strong>de</strong> classe C 2par rapport à x, à dérivées bornées, on aCe que l’on notef(t, X t ) = f(0, X 0 ) +Applications:1.) Soit X un processus tel que∫ t0f ′ t(s, X s )ds +∫ t0f ′ x(s, X s )dX s + 1 2∫ tdf(t, X t ) = [f ′ t(t, X t ) + 1 2 f ′′xx(t, X t )σ 2 t ]dt + f ′ x(t, X t )dX t= f ′ t(t, X t )dt + f ′ x(t, X t )dX t + 1 2 f ′′xx(t, X t )d〈X〉 tX t = X 0 +∫ t0b(s, X s ) ds +∫ t0σ(s, X s ) dB s .Si f est une fonction <strong>de</strong> IR + × IR dans IR telle que σf ′ x est bornée etalors (f(t, X t ), t ≥ 0) est une martingale.L’opérateur L défini sur les fonctions <strong>de</strong> C 1,2 parf ′ t(t, x) + b(t, x)f ′ x(t, x) + 1 2 σ2 (t, x)f ′′xx(t, x) = 0L(f)(t, x) = b(t, x)f ′ x(t, x) + 1 2 σ2 (t, x)f ′′xx(t, x)est le générateur infinitésimal <strong>de</strong> la diffusion.Si f est une fonction <strong>de</strong> IR + × IR dans IR telle que σf ′ x est bornée et0f ′′xx(s, X s )σ 2 sds.f ′ t(t, x) + b(t, x)f ′ x(t, x) + 1 2 σ2 (t, x)f ′′xx(t, x) = rf(t, x) (3.1)alors (e −rt f(t, X t ), t ≥ 0) est une martingale. Dans ce cas, e −rt f(t, X t ) = E(e −rT f(T, X T )|F t ). Si fvérifie f(T, x) = h(x) et est solution <strong>de</strong> (3.1), on a e −rt f(t, X t ) = E(e −rT h(X T )|F t ).2.) Soit X un processus (Brownien géométrique) tel quedX t = X t (rdt + σdB t ),où r et σ sont <strong>de</strong>s constantes. Alors le processus (e −rt X t , t ≥ 0) est une martingale. Il suffit <strong>de</strong> remarquerque d(e −rt X t ) = e −rt X t σdB t et <strong>de</strong> vérifier les conditions d’intégrabilité.La solution <strong>de</strong> dX t = X t (rdt + σdB t ), X 0 = x où r et σ sont <strong>de</strong>s constantes est X t = x exp(rt + σB t −12 σ2 t). On dit que X est un Brownien géométrique, ou processus log-normal.3 .) Soit X un processus dX t = X t (b(t)dt + σ(t)dB t ), où b et σ sont(<strong>de</strong>s fonctions (X est dit Brownien∫ t)géométrique à coefficients déterministes). Alors le processus (exp − b(s)ds X t , t ≥ 0) est unemartingale.03.4.3 Cas multidimensionnelThéorème 3.4.3 Soit (X i , i = 1, 2) <strong>de</strong>ux processus d’Itô tels quedX i (t) = b i (t)dt + σ i (t)dB t .Soit f une fonction <strong>de</strong> IR 2 dans IR <strong>de</strong> classe C 2 . On adf(X 1 (t), X 2 (t)) = f ′ 1(X 1 (t), X 2 (t)) dX 1 (t) + f ′ 2(X 1 (t), X 2 (t)) dX 2 (t)+ 1 (f′′211σ1(t) 2 + 2f 12σ ′′1 (t)σ 2 (t) + f 22σ ′′2(t) 2 ) (X 1 (t), X 2 (t)) dtoù f i ′ désigne la dérivée par rapport à x i, i = 1, 2 et f ij ′′ la dérivée secon<strong>de</strong> par rapport à x i, x j .


46 Intégrale <strong>stochastique</strong>Sous forme con<strong>de</strong>nsée, on écritdf(X 1 , X 2 )(t) =2∑f i(X ′ 1 (t), X 2 (t)) dX i (t) + 1 ∑f ′′2ij(X 1 (t), X 2 (t))σ i σ j dti=1Intégration par parties, crochetLa formule d’Itô montre que d[X 1 X 2 ](t) = X 1 (t) dX 2 (t) + X 2 (t) dX 1 (t) + σ 1 (t)σ 2 (t) dt.Cette formule est connue sous le nom d’intégration par parties. La quantité σ 1 (t)σ 2 (t) correspond aucrochet <strong>de</strong> X 1 , X 2 , noté < X 1 , X 2 > et défini comme le processus à variation finie < X 1 , X 2 > t =∫ t0σ 1 (s)σ 2 (s)ds.3.4.4 Cas du Brownien multidimensionnel.Théorème 3.4.4 Soit (X i , i = 1, 2) <strong>de</strong>ux processus d’Itô tels quei,jdX i (t) = b i (t) dt + σ i (t)dB i (t)où B 1 et B 2 sont <strong>de</strong>ux Browniens indépendants. On adf(X 1 (t), X 2 (t)) = f ′ 1(X 1 (t), X 2 (t)) dX 1 (t) + f ′ 2(X 1 (t), X 2 (t)) dX 2 (t)+ 1 2[f′′11(X 1 (t), X 2 (t))σ 2 1(t) + f ′′22(X 1 (t), X 2 (t))σ 2 2(t)] dt.Cas général : Soit (X t , t ≥ 0) un processus d’Itô multidimensionnel <strong>de</strong> composantes (X i (t), i ≤ n), telque dX t = u t dt + v t dB t , soit⎡⎢⎣dX 1dX 2. . .dX n⎤⎡⎥⎦ = ⎢⎣u 1u 2. . .u n⎤⎡⎥⎦ dt + ⎢⎣⎤v 1,1 v 1,2 . . . . . . v 1,pv 2,1 v 2,2 . . . . . . v 2,p⎥. . . . . . . . . . . . . . . ⎦v p,1 v p,2 . . . . . . v n,pSoit f une fonction définie sur IR + × R n <strong>de</strong> classe C 1,2 . Alorsdf(t, X t ) = f ′ t(t, X t )dt +où l’on utilise les conventions d’écritureCas corrélé:n∑f i(t, ′ X t )dX i (t) + 1 2i=1n∑i,j=1dB i dB j = δ ij dt, dB i dt = 0, dtdt = 0Théorème 3.4.5 Soit (X i , i = 1, 2) <strong>de</strong>ux processus d’Itô tels quedX i (t) = b i (t) dt + σ i (t)dB i (t)où B 1 et B 2 sont <strong>de</strong>ux Browniens <strong>de</strong> corrélation ρ. On a+ 1 2⎡⎢⎣dB 1dB 2. . .dB p⎤⎥⎦f ′′ij(t, X t )dX i (t) dX j (t)df(X 1 (t), X 2 (t)) = f ′ 1(X 1 (t), X 2 (t)) dX 1 (t) + f ′ 2(X 1 (t), X 2 (t)) dX 2 (t)[f′′11(X 1 (t), X 2 (t))σ 2 1(t) + 2f ′′12(X 1 (t), X 2 (t))ρσ 1 (t)σ 2 (t) + f ′′22(X 1 (t), X 2 (t))σ 2 2(t)] dt.On doit modifier la table <strong>de</strong> multiplication en écrivant dB 1 dB 2 = ρdt. On remarque que si B 1 et B 2sont indépendants, ils sont non corrélés (et réciproquement) ce qui est heureux pour la terminologie,mais pas tout à fait trivial (voir ce qui suit).


July 8, 2006 47ApplicationRevenons au Browniens corrélés. On note B i les browniens corrélés et B 3 le brownien construit aumoyen <strong>de</strong> B 1 et B 2 par1B 3 = √ (B 2 − ρB 1 ) .1 − ρ2Soit M i (λ, t) = exp(λB i (t) − 1 2 λ2 t). Ces processus sont <strong>de</strong>s martingales pour toute valeur <strong>de</strong> λet dM i (t) = λM i (t)dB i (t). D’où, en utilisant que le crochet <strong>de</strong> B 3 et B 1 est nul (par linéarité)d[M 1 M 3 ](t) = M 1 (t)dM 3 (t) + M 3 (t)dM 1 (t). Ce produit est une martingale, ce qui implique, aprèsun petit calcul queE (exp (λB 1 (t) + µB 3 (t))) = E (exp [λB 1 (t)]) E (exp (µB 3 (t)])d’où l’indépendance souhaitée <strong>de</strong> B 1 (t) et B 3 (t). Pour obtenir l’indépendance <strong>de</strong>s processus, utiliserM i (t) = exp(∫ t0λ(s)dB i (s) − 1 2∫ t0λ 2 (s)ds).3.4.5 Application à la formule <strong>de</strong> Black et ScholesAPT évaluationOn suppose avoir un marché financier où il y a :1) un actif sans risque dont le prix S 0 vérifie dS 0 (t) = S 0 (t)rdt où r est une constante2) un actif risqué dont le prix S(t) vérifiedS(t) = S(t)(bdt + σdB t ),où B est un mouvement Brownien, et b, σ <strong>de</strong>s constantes. On étudie un actif contingent <strong>de</strong> payoff h(S T ).Le cas d’un call Européen correspond à h(x) = (x − K) + .Le prix d’un call <strong>de</strong> maturité T et <strong>de</strong> prix d’exercice K est une fonction C(t, S(t)).On se constitue un portefeuille composé d’un call et <strong>de</strong> β t parts <strong>de</strong> l’actif risqué. La valeur <strong>de</strong> ceportefeuille est V t = C(t, S t ) + β t S t . On suppose que dV t = dC t + β t dS t (Cette condition est unecondition d’autofinancement et ne doit être en aucun cas confondue avec une formule d’Itô).En utilisant la formule d’Itô, on a( ∂CdV t =∂x S tb + ∂C∂t + 1 ∂ 2 C2 ∂2x 2 σ2 St2)( )∂Cdt + β t bS t dt +∂x σS t + β t σS t dB t .Le portefeuille est sans risque si ∂C∂x σS t +β t σS t = 0, soit β t = − ∂C∂x et <strong>de</strong> ren<strong>de</strong>ment r si dV t = rV t dtsoit dC t + β t dS t = r(C t + β t S t )dt d’où, en remplaçant β par sa valeur∂CrS t∂x (t, S t) + ∂C∂t + σ2 St2 1 ∂ 2 C2 ∂x 2 (t, S t) − rC(t, S t ) = 0avec C(T, S T ) = h(S T ). Soit, en notant que S t est une v.a. qui admet une <strong>de</strong>nsité strictement positivesur IR + (et qui prend toutes les valeurs <strong>de</strong> IR + )rx ∂C ∂C(t, x) +∂x ∂t (t, x) + σ2 x 2 1 ∂ 2 C2 ∂ 2 (t, x) − rC(t, x) = 0 , ∀w ≥ 0, ∀t ≥ 0xavec C(T, x) = h(x).L’équation aux dérivées partielles peut être résolue par <strong>de</strong>s métho<strong>de</strong>s classiques d’EDP.Portefeuille dupliquantOn reprend l’étu<strong>de</strong> <strong>de</strong> la valorisation d’un actif contingent <strong>de</strong> payoff h(S T ) sur un sous jacent <strong>de</strong>dynamiquedS t = S t (b dt + σdW t ) .On note C(t, S t ) la valeur <strong>de</strong> l’actif contingent à la date t. On constitue un portefeuille constitué <strong>de</strong> α tparts <strong>de</strong> l’actif sans risque et γ t parts <strong>de</strong> l’actif risqué. Sa valeur à l’instant t est V t := α t S 0 t + γ t S t . Onsuppose que dV t = α t dS 0 t + γ t dS t (hypothèse d’autofinancement).


48 Intégrale <strong>stochastique</strong>Le portefeuille duplique l’actif contingent si α t St 0 + γ t S t = C(t, S t ), soit en i<strong>de</strong>ntifiant les termes endt et dW t dans dV t et dC t : (on utilise l’unicité <strong>de</strong> la décomposition d’un processus d’Itô en processus àvariation finie et martingale) : γ t S t σ = ∂C∂x (t, S t) S t σ, soit γ t = ∂C∂x (t, S t) etα t rSt 0 + bγ t S t = ∂C∂x (t, S t) S t b + ∂C∂t (t, S t) + 1 ∂ 2 C2 ∂x 2 (t, S t) σ 2 St2= α t rSt 0 ∂C+ S t∂x (t, S t)En utilisant α t S 0 t + γ t S t = C(t, S t ) on obtient α t S 0 t = C(t, S t ) − S t∂C∂x (t, S t), d’oùet C(T, S T ) = h(S T ).∂C∂x (t, S t) S t r + ∂C∂t + 1 ∂ 2 C2 ∂x 2 (t, S t) σ 2 St 2 − rC(t, S t ) = 0Le processus S prend ses valeurs dans IR + , résoudre l’équation précé<strong>de</strong>nte pour un call européenrevient à étudieravecxr ∂C ∂C(t, x) +∂x ∂t (t, x) + σ2 x 2 1 2On peut résoudre cette équation, et on trouve1d 1 =σ √ T − t∂ 2 C(t, x) − rC(t, x)∂x2 = 0 , x ≥ 0 (3.2)C(T, x) = (x − K) + .C(t, x) = xN (d 1 ) − Ke −r(T −t) N (d 2 )( (lnx))Ke −r(T −t)+ 1 2 σ√ T − t, d 2 = d 1 − σ √ T − tla quantité C x (t, x) = N (d 1 ) représente la couverture (le nombre <strong>de</strong> parts d’actif sous jacent utiliséespour répliquer l’option)Remarque 3.4.1 En interprétant l’équation (3.2), (qui correspond à chercher f telle que e −rt f(t, X t )est une martingale) on voit que C(t, x) = E(e −r(T −t) (Y T − K) + |F t ) avec dY t = Y t (rdt + σdB t ). Cetteremarque est fondamentale en finance.


Chapter 4EQUATIONS DIFFERENTIELLESSTOCHASTIQUES4.1 Equations différentielles <strong>stochastique</strong>s4.1.1 DéfinitionUne équation différentielle <strong>stochastique</strong> est une équation <strong>de</strong> la formeX t = x +∫ tb(s, X s ) ds +∫ t00σ(s, X s ) dB s (4.1)ou sous forme con<strong>de</strong>nsée {dXt = b(t, X t )dt + σ(t, X t ) dB t ,X 0 = xL’inconnue est le processus X. Le problème est, comme pour une équation différentielle ordinaire, <strong>de</strong>montrer que sous certaines conditions sur les coefficients, l’équation différentielle a une unique solution.Il est utile <strong>de</strong> préciser les données.Définition 4.1.1 Soit b et σ <strong>de</strong>ux fonctions <strong>de</strong> IR + × IR n à valeurs réelles données. On se donneégalement un espace (Ω, F, P ) muni d’une filtration (F t ) et un (F t ) mouvement brownien B sur cetespace. Une solution <strong>de</strong> (4.1) est un processus X continu (F t )-adapté tel que les intégrales ∫ t0 b(s, X s) dset ∫ t0 σ(s, X s) dB s ont un sens et l’égalitéX t = x +est satisfaite pour tout t, P p.s. ( .4.1.2 Théorème d’existence∫ t0b(s, X s ) ds +∫ t0σ(s, X s ) dB sThéorème 4.1.1 On suppose quea- les fonctions b et σ sont continues,b- il existe K tel que pour tout t ∈ [0, T ], x ∈ IR, y ∈ IRi) |b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ K |x − y|ii) |b(t, x)| 2 + |σ(t, x)| 2 ≤ K 2 (1 + |x| 2 )c- La condition initiale X 0 est indépendante <strong>de</strong> (B t , t ≥ 0) et est <strong>de</strong> carré intégrable,alors il existe une unique solution <strong>de</strong> (4.1) à trajectoires continues pout t ≤ T . De plus cette solutionvérifieE( sup |X t | 2 ) < ∞.0≤t≤TLa démonstration repose sur une métho<strong>de</strong> <strong>de</strong> pont fixe. A un processus U on associe le processusΦ(U) par Φ(U) t = x+ ∫ t0 b(s, U s)ds+ ∫ t0 σ(s, U s)dB s . Sous les hypothèses du théorème 4.1.1, la solution49


50 EDSest adaptée à la filtration naturelle du MB. On parle alors <strong>de</strong> solution forte. L’unicité se traduit par :si X et Y sont <strong>de</strong>ux solutions, P p.s.∀t ∈ [0, T ] X t = Y t .Ce théorème se généralise au cas <strong>de</strong> processus à valeurs dans IR n . Dans la pratique, ce théorème estparfois insuffisant.On peut énoncer un théorème sur IR:Théorème 4.1.2 Soit ρ une fonction borélienne <strong>de</strong> ]0, ∞[ dans lui-même telle que l’intégrale <strong>de</strong> (ρ) −1au voisinage <strong>de</strong> 0 diverge (par exemple ρ(x) = √ x). Si |σ(s, x) − σ(s, y)| 2 ≤ ρ(|x − y|) et b estlipschitzienne, soit |b(s, x) − b(s, y)| ≤ K t |x − y| pour tout x, y ∈ IR et s ≤ t, il existe une uniquesolution <strong>de</strong> (4.1).On trouvera dans Revuz-Yor (Ch IX, paragraphe 3) d’autres résultats.4.1.3 Propriété <strong>de</strong> MarkovOn note (Xst,x , s ≥ t) la solution <strong>de</strong> (4.1) partant <strong>de</strong> x à l’instant t, soitX t,xs = x +∫ stb(u, X t,xu ) du +Sous les conditions du théorème 4.1.1, on peut montrer queX 0,xs∫ s= X t,X0,x ts , s ≥ t.tσ(u, X t,xu ) dB u .ce qui montre que la solution <strong>de</strong> (4.1) est un processus <strong>de</strong> Markov par rapport à la filtration F t :E(f(X s )|F t ) = E(f(X s )|X t ) = Φ(s, t, X t )où Φ(s, t, x) = E(f(Xst,x )) , s ≥ t. Ce résultat est extrémement important et permet <strong>de</strong> calculer facilement<strong>de</strong>s espérances conditionnelles. En particulier siX t,xs = x +∫ son obtient un processus <strong>de</strong> Markov homogènetb(X t,xu ) du +∫ stσ(Xut,x ) dB uE(f(X s )|F t ) = E(f(X s )|X t ) = Φ(s, t, X t ) = Ψ(s − t, X t )où Φ(s, t, x) = E(f(Xs t,x )) = E(f(Xs−t)) 0,x et Ψ(u, x) = E(f(Xu 0,x )).Attention: un couple (X, Y ) peut être Markovien sans que ses composantes le soient.4.1.4 Théorème <strong>de</strong> comparaisonThéorème 4.1.3 Théorème <strong>de</strong> Comparaison. SoitdX i (t) = b i (X i (t))dt + σ(X i (t))dW t , i = 1, 2où b i est Lipschitz et [σ(x) − σ(y)] 2 ≤ k|x − y|. Supposons que X 1 (0) ≥ X 2 (0) et b 1 (x) ≥ b 2 (x). AlorsX 1 (t) ≥ X 2 (t)(Voir [RY] chap. 9, par. 3 pour une démonstration).4.1.5 Exemple : Martingale exponentielleProposition 4.1.1 Soit θ ∈ Λ et Z 0 une constante. La solution <strong>de</strong> dZ t = θ t Z t dB t estSi <strong>de</strong> plus E(exp[ 1 2∫ T0Z t = Z 0 exp[∫ t0θ s dB s − 1 2∫ t0θ 2 sds]θ 2 s ds]) < ∞, le processus (Z t , t ≤ T ) est une martingale d’espérance Z 0 .


July 8, 2006 51Démonstration: Par définition, Z est une martingale locale. On vérifie que Z t = Z 0 exp[ ∫ t0 θ sdB s −∫1 t2 0 θ2 sds] est solution <strong>de</strong> l’équation proposée en utilisant la formule d’Itô. En notant U t := ∫ t0 θ sdB s −∫ t0 θ2 sds, on a dU t = θ t dB t − 1 2 θ2 t dt, d’où dZ t = (exp U t )(dU t + 1 2 θ2 t dt) = θ t Z t dB t .△12Le processus Z, noté E(θB) t est appelé l’exponentielle <strong>de</strong> Doléans-Da<strong>de</strong> <strong>de</strong> θB. C’est unemartingale locale positive si Z 0 > 0. Il est plus délicat <strong>de</strong> vérifier que c’est une martingale. La∫ Tcondition E(exp[ 1 θs 2 ds]) < ∞ est la condition <strong>de</strong> Novikov. Sous cette condition, E(Z T ) = Z 0 , et2 0(Z t , t ≤ T ) est une martingale. Sinon, c’est une martingale locale positive, donc une surmartingale, etE(Z t ) ≤ Z 0 . On ne connait pas <strong>de</strong> conditions “plus faciles” à vérifier que la condition <strong>de</strong> Novikov, saufdans le cas suivant.Lemme 4.1.1 Soit f telle que |f(t, x) − f(t, y)| ≤ C|x − y| et sup |f(s, 0)| ≤ C. Alors,est une martingale.∫ t0f(s, B s )dB s − 1 2∫ t0f(s, B s ) 2 ds4.2 Equations aux dérivées partiellesOn se donne <strong>de</strong>ux fonctions b et σ <strong>de</strong> [0, T ] × IR dans IR, vérifiant les hypothèses du théorème 4.1.1concernant l’existence <strong>de</strong> solution d’EDS. Soit A l’opérateur défini sur les fonctions <strong>de</strong> C 1,2 parSoit (X x,tuAf(t, x) := f ′ t(t, x) + f ′ x(t, x)b(t, x) + 1 2 f ′′xx(t, x)σ 2 (t, x)., u ≥ t) le processus d’Itô défini parX x,tu= X x,tt +avec une condition initiale en t: X x,ttgénérateur infinitésimal <strong>de</strong> X.∫ utb(s, X x,ts ) ds +∫ utσ(s, X x,ts ) dB s , u ≥ t (4.2)= x. On remarque que Af(t, x) = f ′ t(t, x) + Lf(t, x) où L est le4.2.1 Problème paraboliqueOn cherche les solutions du problème (parabolique) suivant, avec une “donnée terminale”, c’est-à-direune fonction g <strong>de</strong> IR dans IR qui va préciser la valeur <strong>de</strong> la solution <strong>de</strong> l’équation aux dérivées partiellesen T . {Af(t, x) = 0, ∀x ∈ IR, ∀t ∈ [0, T ](4.3)f(T, x) = g(x) ∀x ∈ IR.Si f est une solution du problème parabolique (4.3), et X une solution <strong>de</strong> (4.2), la formule d’Itô conduitàen particulier en T , on af(T, X x,tTf(u, X x,tu ) = f(t, x) +∫ u∫ T) = g(Xx,t)= f(t, x) +Ttf x(s, ′ Xsx,t )σ(s, Xs x,t )dB s ,tf ′ x(s, X x,ts)σ(s, X x,t ) dB set si l’intégrale est une martingale (conditions d’intégrabilité sur f ′ x et σ) on en déduit f(t, x) =E(g(X x,tT )).Théorème 4.2.1 Sous <strong>de</strong>s conditions <strong>de</strong> régularité, la solution du problème paraboliqueAf(t, x) = 0, ∀x ∈ IR, ∀t ∈ [0, T ]f(T, x) = g(x) ∀x ∈ IRs


52 EDSest donnée par f(t, x) = E(g(X x,tT)), où Xx,t est le processus d’Itô défini parX x,tu= X x,tt +∫ uavec une condition initiale en t: X x,tt = x.tb(s, X x,ts ) ds +∫ utσ(s, Xsx,t ) dB s , u ≥ tOn écrit souvent ce résultat sous la forme équivalente suivante f(t, x) = E x,t (g(X T )), où X est leprocessus d’Itô défini pardX s = b(s, X s ) ds + σ(s, X s ) dB sl’espérance étant prise sous la probabilité P x,t qui est telle que processus X prend la valeur x à l’instantt.4.2.2 GénéralisationSoit α une constante positive. On cherche les solutions du problème (parabolique) suivantAf(t, x) = αf(t, x), ∀x ∈ IR, ∀t ∈ [0, T ] (4.4)f(T, x) = g(x). (4.5)Si f est solution <strong>de</strong> (4.4), et X une solution <strong>de</strong> (4.2), la formule d’Itô entre t et T conduit à∫ Tf(T, X x,tT) exp(−αT ) = f(t, x) exp(−αt) + tf x(s, ′ Xsx,t )[exp −αs]σ(s, Xs x,t )dB s ,et si l’intégrale est une martingale (conditions d’intégrabilité sur f x ′ et σ ) on en déduit f(t, x) =E[exp(−α(T − t))g(X x,tT)]. En exploitant le caractère Markovien, on a aussi f(t, x) = E(exp(−α(T −t))g(X T ) |X t = x) oùX s = X 0 +∫ sThéorème 4.2.2 La solution du problème0b(u, X u ) du +∫ s0σ(u, X u ) dB uαf(t, x) = f ′ t(t, x) + f ′ x(t, x)b(t, x) + 1 2 f ′′xx(t, x)σ 2 (t, x)f(T, x) = g(x)est donnée parf(t, x) = E x,t [ exp(−α(T − t))g(X T )].4.2.3 Formule <strong>de</strong> Black et ScholesOn a vu que l’évaluation d’une option Européene revenait à résoudre l’EDPet C(T, x) = (x − K) + .xr ∂C ∂C(t, x) +∂x ∂t (t, x) + σ2 x 2 1 2∂ 2 C∂ 2 (t, x) − rC(t, x) = 0 , x ≥ 0xLe processus S prend ses valeurs dans IR + , résoudre l’équation précé<strong>de</strong>nte pour un call européenrevient à étudieret C(T, x) = (x − K) + .xr ∂C ∂C(t, x) +∂x ∂t (t, x) + σ2 x 2 1 2∂ 2 C∂ 2 (t, x) − rC(t, x) = 0 , x ≥ 0xGrâce aux résultats précé<strong>de</strong>nts sur les équations aux dérivées partielles, on voit queC(t, x) = E(e −r(T −t) (S x,tT − K)+ )


July 8, 2006 53= xeσ(T −t)G+(r−σ2 /2)(T −t) où G est une gaussi-où dSux,t = Sux,t (rdu + σdB u ), et S x,tt = x.Le calcul <strong>de</strong> l’espérance se fait en remarquant que S x,tTenne. Explicitons le calcul pour t = 0E(e −rT (S x T − K) + ) = E(e −rT (S x T 1 ST ≥K − Ke −rT P (S T ≥ K))= e −rT xE(e σ√ T G+(r−σ 2 /2)(T ) 1 σ√T G+(r−σ 2 /2)(T )≥ln(K/x) )−Ke −rT P (σ √ T G + (r − σ 2 /2)(T ) ≥ ln(K/x))) .Il suffit alors d’utiliser <strong>de</strong>s calculs portant sur <strong>de</strong>s variables gaussiennes. Nous verrons plus loin que lecalcul du premier terme se déduit du second.Remarque: Ces calculs permettent <strong>de</strong> calculer le ’Delta’ <strong>de</strong> l’option et <strong>de</strong> montrer facilement que∂C∂x = N(d 1). Plaçons nous dans le cas t = 0. La formule établie plus haut s’écritC(0, x) = E Q (e −rT (xM T − K) + ) (4.6)où S t = xM t . En dérivant sous le signe espérance par rapport à x, on obtient4.2.4 Formule <strong>de</strong> Feynman-Kac∂C∂x (0, x) = E Q(e −rT M T 1 xMT ≥K) = N (d 1 )Théorème 4.2.3 Soit k : IR → IR + une fonction continue et g : IR → IR continue telle que:∫ ∞−∞Alors la fonction f définie par:|g(x + y)|e −|y|√ 2α dy < ∞ ∀x ∈ IR, α > 0f(x) = E x[∫ ∞est l’unique solution C 2 bornée <strong>de</strong>:0(dt g(B t ) exp −αt −∫ t0)]k(B s )ds(4.7)(α + k)f = 1 2 f ′′ + g (4.8)Démonstration: Dans (4.7), E x signifie que le Brownien est issu <strong>de</strong> x. Nous ne donnons ici qu’uneidée <strong>de</strong> la démonstration. Considérons le processus à variation bornée (Z t : t ≥ 0) défini par:Le lemme d’Itô appliqué au processusZ t = αt +∫ tU t<strong>de</strong>f= f(B t )e −Z t+0k(B s )ds∫ t0g(B s )e −Z sdsoù f est une fonction <strong>de</strong> classe C 2 montre que( )dU t = f ′ (B t )e −Z t 1dB t +2 f ′′ (B t ) − (α + k(B s ))f(B t ) + g(B t ) e −Z tdtLe processus U est une martingale si sa partie à variation finie est nulle i.e.:12 f ′′ (x) − (α + k(x))f(x) + g(x) = 0Il reste à remarquer queu(0, B 0 ) = u(0, x) = f(x)et à vérifier que E(f(B t )e −Z t) → 0.Les conditions <strong>de</strong> positivité sur α et k et <strong>de</strong> bornitu<strong>de</strong> sur g garantissant l’existence d’une solutioncontinue et bornée à l’équation différentielle.△La formule (4.7) nous donne en particulier la transformée <strong>de</strong> Laplace en temps <strong>de</strong> exp −et aussi celle <strong>de</strong> g(B t ) exp −λ∫ t0k(B s )ds, donc la loi du couple (B t ,∫ t0k(B s )ds).∫ t0k(B s )ds


54 EDSUne applicationPar application <strong>de</strong> la formule précé<strong>de</strong>nte à k(x) = β 1 x≥0 et g(x) = 1, on obtient que pour α > 0 etβ > 0, la fonction f définie par:[∫ ∞( ∫ t)]f(x) <strong>de</strong>f= E x dt exp −αt − β 1 [0,∞) (B s )ds(4.9)00est solution <strong>de</strong> l’équation différentielle suivante:{αf(x) =12 f ′′ (x) − βf(x) + 1 x ≥ 0αf(x) = 1 2 f ′′ (x) + 1 x ≤ 0L’unique solution bornée et continue <strong>de</strong> cette EDO est donnée par:{Aef(x) =−x√2(α+β) + 1α+βx ≥ 0Be x√2α + 1 αx ≤ 0En imposant la continuité <strong>de</strong> f et f ′ en zéro, on trouve√ √ α + β − αA =(α + β) √ αSoit A + t<strong>de</strong>f=∫ t01 [0,∞[ (B s ) ds. Nous avons obtenuf(0) =∫ ∞0]dte −αt 1E 0[e −βA+ t = √α(α + β)En utilisant l’égalité∫ ∞on en déduit que la <strong>de</strong>nsité <strong>de</strong> A + tLa loi <strong>de</strong> A + tloi :0(∫ tdte −αt du0est donnée par:P (A + t ∈ du) =√e−βuπ u(t−u))=1√α(α + β)duπ √ u(t − u) 1 (u


Chapter 5EXEMPLES DE PROCESSUSD’ITOLa partie en Anglais est partie d’un chapitre d’un livre à paraitre chez Springer. Merci <strong>de</strong> me signalertout faute <strong>de</strong> frappe.5.1 Le brownien géométriqueOn considère l’équation différentielle <strong>stochastique</strong> suivantedX t = X t b t dt + X t σ t dB t , X 0 = x (5.1)où b et σ sont <strong>de</strong>s processus adaptés bornés. Plaçons nous dans le cas <strong>de</strong> coefficients déterministes.Cette équation admet une solution unique (Voir théorème d’existence){∫ tx exp b(s)ds +0(il suffit d’appliquer la formule d’Itô).On écrit souvent (5.1) sous la forme∫ t0σ(s)dB s − 1 2dX tX t= b(t)dt + σ(t)dB t .La martingale M t = X t e −bt est solution <strong>de</strong> dM t = M t σdB t .Théorème 5.1.1 La solution <strong>de</strong> dX t = X t [bdt + σdB t ] s’écrit∫ t0}σ 2 (s)dsX t = X 0 exp{(b − 1 2 σ2 )t + σB t }ou encoreX t = X s exp{(b − 1 2 σ2 )(t − s) + σ(B t − B s )}Il est facile <strong>de</strong> vérifier que l’équation dX t = X t [bdt + σdB t ], X 0 = x a une unique solution. Soit Y unesecon<strong>de</strong> solution. Nous savons que X ne s’annule pas etd(1/X t ) = 1 X t[µdt − σdB t ]avec µ = −b + σ 2 . Nous pouvons définir Z t = Y t /X t . Ce processus vérifiedZ t = Z t [(µ + b − σ 2 )dt + (σ − σ)dB t = 0soit dZ t = 0, ce qui est une équation différentielle ordinaire, <strong>de</strong> solution Z t = Z 0 .55


56 Exemples5.2 Modèle <strong>de</strong> Cox-Ingersoll-RossPour modéliser <strong>de</strong>s taux, Cox- Ingersoll-Ross étudient l’équation suivantedr t = k(θ − r t )dt + σ √ r t dB t (5.2)L’unique solution est un processus positif pour kθ ≥ 0 (utiliser le second théorème d’existence. VoirIkeda-Watanabe). ll n’est pas possible d’obtenir une formule explicite. Soit r x le processus solution <strong>de</strong>(5.2) avec r0 x = x. On peut montrer que, si T0x <strong>de</strong>f= inf{t ≥ 0 : rt x = 0} et 2kθ ≥ σ 2 alors P (T0 x = ∞) = 1.Si 0 ≤ 2kθ < σ 2 et k > 0 alors P (T0 x < ∞) = 1 et si k < 0 on a P (T0 x < ∞) ∈]0, 1[ .Cependant, on peut calculer l’espérance <strong>de</strong> la v.a. r t au moyen <strong>de</strong> l’égalité E(r t ) = r 0 + k(θt −∫ t0 E(r s)ds), en admettant que l’intégrale <strong>stochastique</strong> est une martingale, ce qui est le cas. On calculesans difficultés supplémentaires l’espérance conditionnelle, en utilisant le caractère Markovien:Théorème 5.2.1 Soit r le processus vérifiantdr t = k(θ − r t )dt + σ √ r t dB t .L’espérance conditionnelle et la variance conditionnelle sont données parE(r t |F s ) = r s e −k(t−s) + θ(1 − e −k(t−s) ),Var(r t |F s ) = r sσ 2 (e −k(t−s) − e −2k(t−s) )kDémonstration: Par définition, on a pour s ≤ tr tet en appliquant la formule d’Itôr 2 t = r 2 s + 2k= r s + k∫ t= r 2 s + (2kθ + σ 2 )s∫ ts(θ − r u )du + σ(θ − r u )r u du + 2σ∫ tsr u du − 2k∫ ts∫ ts+ θσ2 (1 − e −k(t−s) ) 2.2k∫ ts√ru dB u ,∫ t(r u ) 3/2 dB u + σ 2 r u dur 2 udu + 2σ∫ tss(r u ) 3/2 dB u .En admettant que les intégrales <strong>stochastique</strong>s qui interviennent dans les égalités ci-<strong>de</strong>ssus sont d’espérancenulle, on obtient, pour s = 0( ∫ t)E(r t ) = r 0 + k θt − E(r u )du ,etE(r 2 t ) = r 2 0 + (2kθ + σ 2 )∫ t00E(r u )du − 2k∫ t0E(r 2 u)du.Soit Φ(t) = E(r t ). En résolvant l’équation Φ(t) = r 0 +k(θt− ∫ tΦ(u)du) qui se transforme en l’équation0différentielle Φ ′ (t) = k(θ − Φ(t)) et Φ(0) = r 0 , on obtientE[r(t)] = θ + (r 0 − θ)e −kt .De la même façon, on introduit ψ(t) = E(r 2 t ) et en résolvant Ψ ′ (t) = (2kθ +σ 2 )Φ(t)−2kΨ(t), on calculeVar [r t ] = σ2k (1 − e−kt )[r 0 e −kt + θ 2 (1 − e−kt )] .L’espérance et la variance conditionnelle <strong>de</strong> r s’obtiennent en appliquant la propriété <strong>de</strong> Markov :E(r t |F s ) = θ + (r s − θ)e −k(t−s) = r s e −k(t−s) + θ(1 − e −k(t−s) ),Var(r t |F s ) = r sσ 2 (e −k(t−s) − e −2k(t−s) )k+ θρ2 (1 − e −k(t−s) ) 2.2k(On va utiliser les métho<strong>de</strong>s du chapitre précé<strong>de</strong>nt pour calculer E exp − ∫ )Trt u du |F t .△.


July 8, 2006 57<strong>Calcul</strong> du prix d’un zéro-couponProposition 5.2.1 SoitAlorsavecEdr t = a(b − r t )dt + σ √ r t dB t .(exp −∫ Ttr u du |F t)= G(t, r t )G(t, x) = Φ(T − t) exp[−xΨ(T − t)]2(e γs (− 1)Ψ(s) =(γ + a)(e γs − 1) + 2γ , Φ(s) = 2γe (γ+a) ) 2abs2 ρ 2(γ + a)(e γs , γ 2 = a 2 + 2ρ 2 .− 1) + 2γDémonstration: Soit r x,t la solution <strong>de</strong>et R t s = exp ( − ∫ st rx,t udr x,ts= a(b − rsx,t )ds + ρ√r x,tsdB s , r x,t = xdu ) . La propriété <strong>de</strong> Markov implique qu’il existe G telle que( ∫ s)exp − ru x,t du|F t = G(t, r t )tOn admet que G est <strong>de</strong> classe C 1,2 . On applique la formule d’Itô à G(s, rsx,t )Rs t qui est une martingale.Il vientG(T, r x,tT )Rt T = G(t, x) +∫ TtRs(−r t sx,t G + ∂G∂t+ a(b − rx,t s ) ∂Goù M t est une intégrale <strong>stochastique</strong>. Si l’on choisit G telle queet G(T, x) = 1, ∀x, il vient−xG + ∂G∂toù M est une martingale. En particulier, Eentre t et T , on obtientEt∂x + 1 2 σ2 rsx,t∂ 2 G∂x 2 )(s, r s)ds + M T − M t+ a(b − x)∂G∂x + 1 2 σ2 x ∂2 G∂x 2 = 0 (5.3)RT t = R t G(t, r t ) + M T − M − t,( ( ))(exp(−exp∫ Tt−∫ T0rux,t dur s ds) )= G(t, x)= E(R T ) = R 0 G(0, x). En se plaçantIl reste à calculer la solution <strong>de</strong> l’équation aux dérivées partielles (5.3). Un calcul assez long montreque 1G(t, x) = Φ(T − t) exp[−xΨ(T − t)]avecΨ(s) =2(e γs − 1)(γ + a)(e γs − 1) + 2γγ 2 = a 2 + 2σ 2 .Si l’on note B(t, T ) le prix du zero-coupon,avec σ(u, r) = σΨ(u) √ rΦ(s) =dB(t, T ) = B(t, T ) (r t dt + σ(T − t, r t )dB t )(2γe (γ+a) s 2) 2abρ 2(γ + a)(e γs − 1) + 2γ1 “Vous leur conseillerez donc <strong>de</strong> faire le calcul. Elles [les gran<strong>de</strong>s personnes] adorent les chiffres: ça leur plaira. Maisne per<strong>de</strong>z pas votre temps à ce pensum. C’est inutile. Vous avez confiance en moi.” Le petit prince, A. <strong>de</strong> St Exupéry.Gallimard. 1946. p. 59.△


58 Exemples5.3 Processus <strong>de</strong> Bessel et carré <strong>de</strong> BesselPour <strong>de</strong>s détails sur les processus <strong>de</strong> Bessel, voir Revuz-Yor. Bessel processes are intensively used inFinance, to mo<strong>de</strong>l the dynamics of asset prices and/or of spot rate or as a computational tool. Anintensive study is ma<strong>de</strong> in Going and Yor [?]. Applications to finance can be found in Leblanc’s thesisand in Szatzschnei<strong>de</strong>r [?, ?].5.4 Definitions5.4.1 Euclidian norm of n-dimensional Brownian motionLet n > 1 and B = (B 1 , B 2 , . . . , B n ) be a n-dimensional Brownian motion and <strong>de</strong>fine a process X asX t = ||B t ||, i.e., Xt 2 = ∑ ni=1 (B i) 2 (t). Itô’s formula leads to dXt 2 = ∑ ni=1 2B i(t)dB i (t) + n dt.The process β <strong>de</strong>fined asdβ t = 1 X tB t · dB t = 1||B t ||n∑B i (t)dB i (t), β 0 = 0,is a continuous martingale as a sum of martingales and the bracket of β is t (the process (β 2 t − t, t ≥ 0)is a martingale). Therefore, β is a Brownian motion and the equality d(X 2 t ) = 2B t · dB t + ndt can bewritten asd(X 2 t ) = 2X t dβ t + n dt .Using Itô’s formula again, we get that,i=1dX t = dβ t + n − 12where β is a Brownian motion, and, setting V t = X 2 tdtX tdV t = 2 √ V t dβ t + n dt .We shall say that X is a Bessel process (BES) with dimension n, and V is a squared Bessel process(BESQ) of dimension n.5.4.2 General <strong>de</strong>finitionLet W be a real valued Brownian motion. Using the elementary inequality | √ x − √ y| ≤ √ |x − y|, theexistence theorem ?? proves that for every δ ≥ 0 and α ≥ 0 , the equationdZ t = δ dt + 2 √ |Z t | dW t , Z 0 = αadmits a unique strong solution. The solution is called the squared Bessel process of dimension δ, inshort BESQ δ . In particular, if α = 0 and δ = 0, the obvious solution Z ≡ 0 is the unique solution.From the comparison theorem 4.1.3, if 0 ≤ δ ≤ δ ′ and if ρ and ρ ′ are squared Bessel processes withdimension δ and δ ′ starting at the same point, then 0 ≤ ρ t ≤ ρ ′ t a.s.In the case δ > 2, the squared Bessel process BESQ δ starting at α will never reach 0 and is a transientprocess (ρ t goes to infinity as t goes to infinity). If 0 < δ < 2, the process ρ reaches 0 in finite timeand is reflected instantaneously. If δ = 0 the process remains at 0 as soon as it reaches it. Therefore, Zsatisfies Z t ≥ 0 for all t and we do not need the absolute value un<strong>de</strong>r the square root.Définition 5.4.1 (BESQ δ ) For every δ ≥ 0 and α ≥ 0, the unique strong solution to the equationρ t = α + δt + 2∫ t0√ρs dW sis called a squared Bessel process with dimension δ, starting at α and is <strong>de</strong>noted by BESQ δ .Définition 5.4.2 (BES δ ) Let ρ be a BESQ δ starting at α. The process R = √ ρ is called a Besselprocess of dimension δ, starting at a = √ α and is <strong>de</strong>noted BES δ .


July 8, 2006 59Définition 5.4.3 The number ν = (δ/2) − 1 (or δ = 2(ν + 1)) is called the in<strong>de</strong>x of the Bessel process,and a Bessel process with in<strong>de</strong>x ν is <strong>de</strong>noted as BES (ν) .We use the notation () for an in<strong>de</strong>x, whereas there are no bracket for the dimension. A Bessel ProcessR with in<strong>de</strong>x ν ≥ 0 (i.e. δ ≥ 2) is a diffusion process which takes values in IR + and has infinitesimalgeneratorL = 1 d 22 dx 2 + 2ν + 1 d2x dx = 1 d 22 dx 2 + δ − 1 d2x dx .Therefore, for any f ∈ C 2 c , the processes0f(R t ) −∫ t0Lf(R s )dsare martingales.(∫ t)For δ > 1, a BES δ dssatisfies E < ∞ and is the solution ofR sR t = α + W t + δ − 12∫ t01R sds . (5.4)In terms of the in<strong>de</strong>xR t = α + W t + (ν + 1 2 ) ∫ t01R sds .For δ = 1, the BES 1 is R t = |B t | = β t + L t where B and β are Brownian motions and L is the localtime∫of Brownian motion B. For δ < 1, it is necessary to introduce the principal value of the integraltdsin this case, we haveR s0where the principal value is <strong>de</strong>fined asR t = α + W t + δ − 1 ∫ t2 p.v. 1ds , (5.5)R s∫ t1p.v. ds =0 R s∫ ∞00x δ−2 (L x t − L 0 t )dxand the family of local times is <strong>de</strong>fined via the occupation time formula∫ t0φ(R s )ds =∫ ∞0φ(x)L x t x δ−1 dx .In the same way, the infinitesimal generator of the Bessel squared process ρ ishence, for any f ∈ CK 2 , the processesf(ρare martingales.A = 2x d2dx 2 + δ ddxt ) −∫ t0Af(ρ s )dsA scale function for a BES (ν) is s(x) = x −2ν for ν < 0, s(x) = 2 ln x for ν = 0 and s(x) = −x −2ν forν > 0.A scale function for a BESQ (ν) is s(x) = ln x for ν = 0, s(x) = −x −ν for ν > 0 and s(x) = x −ν forν < 0.


60 Exemples5.4.3 Scaling propertiesProposition 5.4.1 If (ρ t , t ≥ 0) is a BESQ δ starting at x, then ( 1 c ρ ct, t ≥ 0) is a BESQ δ starting atx/c.Démonstration: Fromwe <strong>de</strong>duce that1c ρ ct = x c + 2 cSetting u t = 1 c ρ ct, we obtain∫ ct0ρ t = x + 2∫ t0√ρs dW s + δ t√ρs dW s + δ c ct = x c + 2 ∫ tu t = x ∫ tc + 2 √us d˜W s + δ t00( ρs) 1/2 1√cdW sc + δt .cwhere (˜W t = 1 √ cW tc , t ≥ 0) is a Brownian motion. △5.4.4 Absolute continuityOn the canonical space Ω = C(IR + , IR + ), we <strong>de</strong>note by R the canonical map R t (ω) = ω(t), by R t =σ(R s , s ≤ t) the canonical filtration and by P α(ν) (or Pα) δ the law of the Bessel Process of in<strong>de</strong>x ν (ofdimension δ), starting at α, i.e., such that P α(ν) (R 0 = α) = 1. The law of BESQ δ starting at x on thecanonical space C(IR + , IR + ) is <strong>de</strong>noted by Q δ x.Proposition 5.4.2 The following absolute continuity relation between a BES (ν) process (with ν ≥ 0)and a BES (0) holds( ) ν ∫ t)P x (ν) Rt| Rt = exp(− ν2 dsx2 0 Rs2 P x (0) | Rt , (5.6)where P (ν) is the law of a BES with in<strong>de</strong>x ν.Démonstration: Un<strong>de</strong>r P (0) , the canonical process R satisfiesdR t = dW t + 12R tdt .The process( ) ν ∫ t)RtL t = exp(− ν2 dsx2 0 Rs2is a non-negative P (0) -martingale. In<strong>de</strong>ed, Itô’s formula leads todL t = νL t ln(R t )dW t ,hence, the process L is a local martingale. Obviously, sup t≤T L t ≤ sup t≤T (R t /x) ν . The process R 2 is asquared Bessel process of dimension 2, and is equal in law to Bt 2 + ˜B y 2 where B and ˜B are in<strong>de</strong>pen<strong>de</strong>ntBM, hence Rtk is integrable for k ≥ 2. The process R is a submartingale as a sum of a martingale andan increasing process, and Doob’s inequality (??) implies thatFrom Girsanov’s theorem, it follows thatis a Brownian motion un<strong>de</strong>r P (ν)x = L t P (0)x .E[(sup R t ) k ] ≤ C k E[RT k ].t≤TdR t − 12R tdt − d〈R, ν ln R〉 t = dR t − 1 R t(ν + 1 2 )dtRemarque 5.4.1 If the in<strong>de</strong>x is negative, then the absolute continuity relation holds before T 0 , thefirst hitting time of 0:( ) ν ∫ t)P x (ν)Rt| Rt∩{t


July 8, 2006 615.5 Properties5.5.1 Additivity of BESQAn important property, due to Shiga-Watanabe, is the additivity of the family BESQ. Let us <strong>de</strong>noteby P ∗ Q the convolution of P and Q.Proposition 5.5.1 Q δ x ∗ Q δ′y= Q δ+δ′x+yDémonstration: The proposition is just a way to tell that the sum of two in<strong>de</strong>pen<strong>de</strong>nt BESQ is aBESQ. The proof is trivial in the case where δ and δ ′ are integers. In the general case, let X and Y betwo in<strong>de</strong>pen<strong>de</strong>nt BESQ starting at x (resp. y) and with dimension δ (resp. δ ′ )and Z = X + Y . ThenZ t = x + y + (δ + δ ′ )t + 2∫ t0(√Xs dBs 1 + √ Y s dBs)2 .Let B 3 a third Brownian motion in<strong>de</strong>pen<strong>de</strong>nt of (B 1 , B 2 ). The process W <strong>de</strong>fined asW t =∫ t1 {Zs >0}0(√Xs dBs 1 + √ Y s dBs2 ) ∫ t√ + 1 {Zs =0}dBs3Zs 0is a Brownian motion (this is a martingale with increasing process equal to t) and5.5.2 Bessel functionsZ t = x + y + (δ + δ ′ )t + 2∫ t0√Zs dW s .The modified Bessel function I ν and K ν satisfy the Bessel differential equationx 2 u ′′ (x) + xu ′ (x) − (x 2 + ν 2 )u(x) = 0△and is given by :( ) ν z ∑ ∞z 2nI ν (z) =2 2 2n n! Γ(ν + n + 1)n=0K ν (z) = π(I −ν(z) − I ν (z))2 sin πz5.5.3 Transition <strong>de</strong>nsitiesLet E δ x <strong>de</strong>note the expectation un<strong>de</strong>r Q δ x. We get now easily the Laplace transform of ρ t , where ρ is aBESQ δ . In fact, Proposition 5.5.1 leads toE δ x[exp(−λρ t )] = E 1 x[exp(−λρ t )] [ E 1 0[exp(−λρ t )] ] δ−1and since un<strong>de</strong>r Q 1 x, the r.v. ρ t is the square of a Gaussian variable, it is easy to check that Ex[exp(−λρ 1 t )] =1√ exp(−λx ). Therefore1 + 2λt 1 + 2λtE δ x[exp(−λρ t )] =1λxexp(−(1 + 2λt)δ/2 1 + 2λt ) . (5.7)Bessel and Bessel squared processes are Markov processes and their transition <strong>de</strong>nsities are known.Inverting the Laplace transform (5.7) provi<strong>de</strong>s the transition <strong>de</strong>nsity q (ν)t of a BESQ (ν) asq (ν)t (x, y) = 1 ( (y ν/2exp −2t x) x + y ) √ xyI ν ( ) (5.8)2t t


62 Exemplesand the Bessel process of in<strong>de</strong>x ν has a transition <strong>de</strong>nsity p (ν)t <strong>de</strong>fined byp (ν)t (x, y) = y ( ν yexp(−t x) x2 + y 2)I ν ( xy2t t ) , (5.9)where I ν is the usual modified Bessel function with in<strong>de</strong>x ν.For x = 0, the transition probability of the BESQ (ν) (resp. of a BES (ν) ) is(q (ν) (0, y) = (2t) −(ν+1) [Γ(ν + 1)] −1 y ν exp − y )2tp (ν) (0, y) = 2 −ν t −(ν+1) [Γ(ν + 1)] −1 y 2ν+1 exp(See the Appendix for <strong>de</strong>finition of Bessel functions.)) (− y2.2tExercice 5.5.1 (from Azéma-Yor [?]). Let X be a BES 3 . Prove that 1/X is a local martingale, butnot a martingale. Establish thatwhere Φ(a) =∫ a0dye −y2 /2 .E(1/X 1 |R u ) = 1X u√2π Φ( X u1 − u ) ,5.5.4 Hitting times for Bessel processesFor a BES δ (See, e.g. Kent [?] or Pitman-Yor [?] prop. 2.3)E (ν)a (e −λT b) =E (ν)a (e −λT b) =( ) ν b K ν (a √ 2λ)a( ) ν b I ν (a √ 2λ)aK ν (b √ , for b < a (5.10)2λ)I ν (b √ , for a < b (5.11)2λ)Remark that, for a > b, P (ν)a(T b < ∞) = (b/a) 2ν . In<strong>de</strong>ed, P (ν)ais well known that K ν (z) ∼ c(ν)z −ν for z close to 0.In particular, for a 3-dimensional Bessel processand, more generallyFrom inversion of Laplace transform,E 3 0(exp − λ22 T b) = λbsinh λbEa(exp 3 − λ22 T b) = b sinh λaa sinh λbP 3 0 (T b ∈ dt) = π22b 2 (Σ n∈Z (−1) n+1 n 2 e −n2 π 2 t/(2b 2 ) ) dt(T b < ∞) = lim λ→0 E a(ν) (e −λT b), and itExercice 5.5.2 The power of a Bessel process is another Bessel process time-changedwhere 1 p + 1 q = 1, ν > −1 q .∫ tq[R (ν)t ] 1/q loi= R (νq) ds(0 [R s (ν) ] )2/p


July 8, 2006 635.5.5 Laplace transformsProposition 5.5.2∫ tE r[exp(−aR (ν)t 2 − µ22 0dsR 2 s] [( ) ν−γ) = E r(γ) Rtexp(−aRt )]2r(5.12)where γ 2 = µ 2 + ν 2 .Démonstration: Let (R t , t ≥ 0) be a BES (ν) starting from r > 0.From 1x α = 1 ∫ ∞dv exp(−vx)v α−1 , it follows thatΓ(α) 0[ ]E r(ν) 1(R t ) 2α = 1 ∫ ∞dv v α−1 E r (ν) [exp(−vRt 2 )] .Γ(α)Therefore, for any α ≥ 0, the equality0( ) 1E r(ν)(R t ) 2α = 1 ∫ 1/2tdv v α−1 (1 − 2tv) ν−α exp(−r 2 v)Γ(α) 0( )follows from the i<strong>de</strong>ntity E r (ν) [exp(−vRt 2 1)] =(1 + 2vt) 1+ν exp −r2 vand a change of variable.1 + 2vtWe can also compute, using (5.6)∫ tE r[exp(−aR (ν)t 2 − µ2 ds2 0R 2 swhere γ = √ µ 2 + ν 2 . The quantity E (γ)rfirst part of this section[( ) 2α 1E r(γ) exp(−aRt )]2R ttherefore[expE (ν)r(−aR 2 t − µ22∫ t0==])1Γ(α)1Γ(α)= E (0)r= E (γ)r[(Rtr[(Rtr) νexp(−aR 2 t − µ2 + ν 2) ν−γexp(−aR 2 t )][( ) ν−γ Rtexp(−aRt )]2 can be computed with the help of ther∫ ∞0∫ ∞)]∫ds 1 ∞=Γ(α) r ν−γR 2 swhere α = 1 2 (γ − ν) = 1 2 (√ µ 2 + ν 2 − ν).0dvv α−1 E (γ)r [exp(−(v + a)R 2 t )]dv v α−1 (1 + 2(v + a)t) −(1+γ) exp02∫ t0dsR 2 s])()− r2 (v + a)1 + 2(v + a)t()dv v α−1 (1 + 2(v + a)t) −(1+γ) exp − r2 (v + a)1 + 2(v + a)tExercice 5.5.3 Prove, using the same method that[ ∫ 1t]E r(ν) exp(− µ2 ds) = E r(0)2R α t0R 2 s[ Rνtr ν Rtα[ Rν−γ−α ]= E (γ) tr ν−γexp(− µ2 + ν 22Proposition 5.5.3 For a BESQ δ , we have[exp(− 1 ∫ 1]2 b2 ρ s ds) = (cosh b) −δ/2 exp(− 1 )2 xb tanh b . (5.13)Q δ x0∫ t0dsR 2 s])


64 ExemplesDémonstration: For any locally boun<strong>de</strong>d function F the process[∫ t<strong>de</strong>fZ t = exp F (s) √ ρ s dW s − 102∫ t0]F 2 (s)ρ s dsis a local martingale. The BESQ δ process ρ satisfies dρ t = 2 √ ρ t dW t + δ dt, therefore[ 1Z t = exp2∫ t0F (s)d(ρ s − δs) − 1 2If F is differentiable, an integration by parts leads to∫ t0F (s)dρ s = F (t)ρ t − F (0)ρ 0 −∫ t0∫ t0]F 2 (s)ρ s ds .ρ s dF (s)andZ t = exp[ 12 (F (t)ρ t − F (0)x − δ∫ t0F (s)ds) − 1 2∫ t0][F 2 (s)ρ s ds + ρ s dF (s)]Let us choose F = Φ′Φwhere Φ satisfies for a given bΦ ′′ = b 2 Φ, Φ(0) = 1, Φ ′ (1) = 0 .It is easy to check that Φ(t) = cosh(bt) − (tanh b) sinh(bt). Then,is a martingale and[ 1Z t = exp2 (F (t)ρ t − F (0)x − δ ln Φ(t)) − b2 2∫ t( [1 = E(Z 0 ) = E(Z 1 ) = E exp − 1 2 xΦ′ (0) − δ 2 ln Φ(1) − b2 20]ρ s ds∫ 10])R s ds .From Φ(1) = 1/ cosh b and Φ ′ (0) = −b tanh b we get the result.△Exercice 5.5.4 We can extend the previous result and prove that the Laplace transform of the process,i.e.[ (∫ t)]E exp duφ(u)r u0is known. More generally, let µ be a positive, diffuse Radon measure on IR + . The Sturm-Liouvilleequation Φ ′′ = µΦ has a unique solution Φ µ , which is positive, non-increasing on [0, ∞[ and such that∫ tdsΦ µ (0) = 1. Let Ψ µ (t) = Φ µ (t)Φ 2 (s) .01. Prove that Ψ is a solution of the Sturm-Liouville equation and that Ψ µ (0) = 0, Ψ ′ µ(0) = 1, andsatisfies the Wronskian relationW (Φ µ , Ψ µ ) = Φ µ Ψ ′ µ − Φ ′ µΨ µ = 1 .2. Prove that, for every t ≥ 0, one hasQ δ xQ δ x( (exp − 1 2( (exp − 1 2∫ t0∫ ∞0))X s dµ(s)))X s dµ(s)=( ())1x(Ψ′ µ (t) ) exp Φ ′ δ/2 2µ(0) − Φ′ µ(t)ψ µ(t)′( x)= (Φ µ (∞)) δ/2 exp2 Φ′ µ(0)


July 8, 2006 655.6 Cox-Ingersoll-Ross processes5.6.1 CIR processes and BESQThe Cox-Ingersoll-Ross (CIR) process is the solution ofChange of timedr t = k(θ − r t ) dt + σ √ r t dW t . (5.14)The change of time A(t) = σ 2 t/4 reduces the study of the solution of (5.14) to the case σ = 2 : in<strong>de</strong>ed,if Z t = r σ 2 t/4, thendZ t = k ′ (θ − Z t ) dt + 2 √ Z t dB twith k ′ = kσ 2 /4 and B is a Brownian motion.The CIR process (5.14) is a space-time changed BESQ process: more precisely,r t = e −kt ρ( σ24k (ekt − 1))where (ρ(s), s ≥ 0) is a BESQ δ (α) process, with δ = 4kθ . (If nee<strong>de</strong>d, see the following theorem ??). Inσ2 particular, if 4kθ > 2, the process does not hit 0.σ2 From the second theorem on the existence of solutions to SDE, the equation (5.14)admits a uniquenon-negative solution. Let us assume that 2kθ ≥ σ 2 and <strong>de</strong>note T0x <strong>de</strong>f= inf{t ≥ 0 : rt x = 0} the firsthitting time of 0. Then, P (T0 x = ∞) = 1, i.e., the process r does not reach 0. In the case 0 ≤ 2kθ < σ 2and k > 0, then P (T0 x < ∞) = 1. If k < 0, then P (T0 x < ∞) ∈]0, 1[ .5.6.2 Transition probabilities for a CIR processFrom the expression of a CIR process as a change of time of a square Bessel process, we obtain usingthe <strong>de</strong>nsity of the squared Bessel process given in (5.8)Proposition 5.6.1 The transition <strong>de</strong>nsity P (r t ∈ dr|r s = ρ) = f(r; t − s, ρ)dr is given byf(r, t, ρ) = ekt (re kt ) ν/2exp(− ρ + )rekt (1√ I )ν ρrekt2c ρ2c cwhere c = σ24k (ekt − 1) and ν = 2kθσ 2 − 1.In particular, <strong>de</strong>noting by r t (ρ) the CIR process with initial value r 0 (ρ) = ρ, the random variableY t = r t (ρ)e kt /c has <strong>de</strong>nsityP (Y t ∈ dy) = e−α/22α ν/2 e−y/2 y ν/2 I ν ( √ yα)dywhere α = ρ/c. This law is a non-central chi-square with δ = 2(ν + 1) <strong>de</strong>grees of freedom, and α theparameter of non-centrality.If we <strong>de</strong>note by χ 2 (δ, α; y) the cumulative distribution function of this law, we obtainwith c = σ24k (ekT − 1).P (r T > µ|r 0 = ρ) = 1 − χ 2 ( 4θσ 2 , ρ c ; KeµT)cloiExercice 5.6.1 Let X i , i = 1, . . . , n be n in<strong>de</strong>pen<strong>de</strong>nt random variables with X i = N (m i , 1). Checkthat ∑ i X2 i has a non-central chi-square with d <strong>de</strong>grees of freedom, and ∑ m 2 i non-centrality parameter.


66 Exemples5.6.3 CIR mo<strong>de</strong>l for spot rateThe Cox-Ingersoll-Ross mo<strong>de</strong>l for interest rate is the object of many studies since the seminal paper ofCox et al. [?] where the authors assume that the riskless rate r follows a square root process un<strong>de</strong>r thehistorical probability given bydr t = ˜k(˜θ − r t ) dt + σ √ r t d ˜W twhere ˜k(˜θ − r) <strong>de</strong>fines a mean reverting drift pulling the interest rate toward its long term value θ witha speed of adjustment equal to ˜k. In the risk adjusted economy, the dynamics are supposed to be givenby :dr t = (˜k(˜θ − r t ) − λr t )dt + σ √ r t dW t = k(θ − r t )dt + σ √ r t dW twhere (W t , t ≥ 0) is a Brownian motion un<strong>de</strong>r the risk adjusted probability Q, k = ˜k + λ, θ = ˜k(˜θ/k),and where λ <strong>de</strong>notes the market price of risk. Therefore, we shall establish formulae un<strong>de</strong>r a generaldynamics of the form (??). Even if no closed-form expression can be written for r t , it is remarkablethat the Laplace transform of the process, i.e.[ (∫ t)]E exp duφ(u)r u0is known (See Exercise 5.5.4). In particular, the expectation and the variance of the random variabler t can be computed. Dufresne has obtained formulae for the moments.


Chapter 6CHANGEMENT DEPROBABILITÉOn travaille avec un espace (Ω, F, F t , P ) et un horizon fini T .6.1 Théorème <strong>de</strong> Girsanov6.1.1 Changement <strong>de</strong> probabilitéProposition 6.1.1 Soient P et Q <strong>de</strong>ux probabilités sur (Ω, F T ). On suppose P et Q équivalentes. Alorsil existe (L t , t ≤ T ), P − (F t )-martingale strictement positive telle que Q = L T P sur F T et Q |Ft =L t P |Ft , c’est-à-dire telle que E Q (X) = E P (L t X) pour toute variable X Q-intégrable F t -mesurable pourt ≤ T . De plus, L 0 = 1 et E P (L t ) = 1, ∀t ≤ TDémonstration: Si la restriction <strong>de</strong> P et Q à F T sont équivalentes, il existe une v.a. L T F T -mesurabletelle que Q = L T P sur F T (Théorème <strong>de</strong> Radon-Nikodym). On dit que L T est la <strong>de</strong>nsité <strong>de</strong> Q parrapport à P et E Q (X) = E P (L T X) pour toute variable X F T -mesurable et Q-intégrable (Voir Rappels,chap. 1). En particulier, L T est strictement positive et E P (L T ) = 1. Soit L t = E P (L T |F t ). Parconstruction (L t , t ≤ T ) est une martingale et est la <strong>de</strong>nsité F t -mesurable <strong>de</strong> Radon-Nikodym <strong>de</strong> Q parrapport à P sur F t . En effet, si X est F t -mesurable et Q intégrable (par exemple bornée),E Q (X) = E P (L T X) = E P [E P (XL T |F t )] = E P [XE P (L T |F t )] = E P (XL t ).Il est à remarquer que dans ce cas, on a P = (L T ) −1 Q et E P (Y ) = E Q (L −1TY ) et (L−1 t , t ≤ T ) estune Q-martingale.On parlera <strong>de</strong> la loi 1 d’une variable (d’un processus) sous P ou sous Q suivant que l’espace est muni<strong>de</strong> la probabilité P ou Q. Une propriété vraie P -p.s. est vraie Q-p.s. Il convient <strong>de</strong> faire attention auxpropriétés d’intégrabilité, une v.a. P intégrable n’est pas nécessairement Q-intégrable.Proposition 6.1.2 On a équivalence entre M est une Q-martingale et LM est une P -martingale.Démonstration: Soit M une Q-martingale. En utilisant la formule <strong>de</strong> Bayes et la propriété <strong>de</strong> P -martingale <strong>de</strong> L, on obtient, pour s ≤ t,M s = E Q (M t |F s ) = E P (L t M t |F s )L s△D’où le résultat. La réciproque résulte <strong>de</strong> la formule <strong>de</strong> Bayes .△1 “ Les lois doivent tellement être propres au peuple pour lesquelles elles sont faites, que c’est un très grand hasard sicelles d’une nation peuvent convenir à une autre”. Montesquieu.67


68 Changement <strong>de</strong> probabilité6.1.2 Théorème <strong>de</strong> GirsanovOn peut démontrer le résultat suivant, connu sous le nom <strong>de</strong> théorème <strong>de</strong> GirsanovThéorème 6.1.1 Soit (B t , t ≥ 0) un mouvement brownien sur un espace (Ω, F, P ) et (F t ) sa filtrationcanonique. SoitL t := exp[∫ t0θ s dB s − 1 2∫ t0θ 2 sds], t ≤ Toù θ est un processus (F t )-adapté (autrement dit dL t = L t θ t dB t ). On suppose E(L T ) = 1. Soit<strong>de</strong>fdQ| FT = L T dP | FT . Le processus B t s’écrit B t := ˜B t + ∫ t0 θ sds où ˜B est un Q-mouvement brownien.∫ T0Sous la condition <strong>de</strong> Novikov E P (exp 1 2θ2 s ds) < ∞, L T est une variable positive d’espérance 1 sousP et L est une P -martingale.Si L n’est pas d’espérance 1, L est une surmartingale d’espérance strictement plus petite que 1. Nousverrons plus loin pourquoi nous utilisons <strong>de</strong>s martingales L <strong>de</strong> cette forme.Démonstration: Dans le cas θ = m (constante) on utilise la caractérisation du Brownien parla propriété <strong>de</strong> martingale <strong>de</strong> exp(λB t − λ22 t). Il faut donc montrer que exp(λ ˜B t − λ2t) est une Q-2martingale, ou queL t exp(λ(B t − mt) − λ22 t) = exp((λ + m)B t − 1 2 [2mλ + (m2 + λ 2 )]t)est une P -martingale, ce qui est évi<strong>de</strong>nt. Dans le cas général, on peut facilement vérifier que ˜B est uneQ-martingale, car ˜BL est une P -martingale. Le crochet <strong>de</strong> la Q-semi martingale B est le même quecelui <strong>de</strong> sa partie martingale, soit celui <strong>de</strong> la Q-martingale ˜B. Le crochet ne dépendant pas du choix <strong>de</strong>la probabilité, le crochet <strong>de</strong> B est t, et le crochet <strong>de</strong> ˜B est aussi t.On peut également vérifier que ˜B 2 t − t est une Q-martingale, car ( ˜B 2 t − t)L t est une P martingale.△Une façon d’utiliser le théorème <strong>de</strong> Girsanov est la généralisation suivanteProposition 6.1.3 Soit Z une P -martingale locale continue et Q définie sur F t pardQ = exp(Z t − 1 2 〈Z〉 t)dP = L t dP.On suppose que Q est une probabilité. Si N est une P -martingale locale continue, le processus (N t −〈N, Z〉 t = N t − 1 L t〈N, L〉 t , t ≥ 0) est une Q-martingale locale continue <strong>de</strong> crochet 〈N〉 t .Démonstration: La martingale L t = exp(Z t − 1 2 〈Z〉 t) vérifie dL t = L t dZ t . Le processus (N t −〈N, Z〉 t , t ≥ 0) est une Q-martingale locale: il suffit <strong>de</strong> vérifier que (L t N t − L t 〈N, Z〉 t , t ≥ 0) est uneP -martingale locale par application <strong>de</strong> la formule d’Itô. Le crochet <strong>de</strong> N ne dépend pas <strong>de</strong> la probabilitésous laquelle on travaille (sous réserve que cette probabilité soit équivalente à la probabilité <strong>de</strong> départ),car le crochet est défini comme limite <strong>de</strong>s variations quadratiques.△Une autre façon d’écrire ce résultat est <strong>de</strong> se placer sur l’espace canonique. On obtient ainsi l’absoluecontinuité <strong>de</strong> W (loi du Brownien) et W (ν) (loi du Brownien <strong>de</strong> drift ν).W (ν) | Ft= exp(νW t − ν22 t)W| F t. (6.1)Quelques mots d’explications. Dans le membre <strong>de</strong> droite, W est l’application canonique. Elle est notéeW pour faire penser au Brownien mais pourrait être notée X comme nous allons le faire (comme dansune intégrale, la variable muette peut s’appeller x ou y). Cette écriture traduit queW (ν) (F (X u , u ≤ t)) = W(exp(νX t − ν22 t)F (X u, u ≤ t))


July 8, 2006 69pour toute fonctionnelle F .Regardons le cas particulier F (X u , u ≤ t)) = f(X t ). Le terme W (ν) (F (X u , u ≤ t)) est alors W (ν) (f(X t )) =E(f(W t +νt)) où dans le terme <strong>de</strong> droite W est un brownien (et donc (W t +νt, t ≥ 0) un Brownien <strong>de</strong> driftν). Le terme W(exp(νX t − ν22 t)F (X u, u ≤ t)) est W(exp(νX t − ν22 t)f(X t)) = E((exp(νW t − ν22 t)f(W t))où dans le terme <strong>de</strong> droite W est un brownien. Le théorème <strong>de</strong> Girsanov nous dit que si W est unbrownien sous P et dQ| Ft= exp(νW t − ν22 t)dP | F t, alorsE P (exp(νW t − ν22 t)f(W t)) = E Q (f(W t )) = E Q (f( ˜W t + νt)))où ˜W est un Brownien sous Q. C’est exactement l’écriture (6.1).Remarquer que ceci se généralise au cas où t est un temps d’arrêt et aussi au cas où le changement <strong>de</strong>probabilité est <strong>de</strong> la forme exp(∫ t0θ s dW s − 1 2∫ t0θ 2 sds).On parle <strong>de</strong> formule <strong>de</strong> Cameron-Martin quand θ est déterministe.6.1.3 RemarquesEn utilisant les formules exponentielles déja vues, on remarque que L est solution <strong>de</strong> dL t = L t θ t dB t , L 0 =1. Il convient <strong>de</strong> remarquer que P s’obtient en fonction <strong>de</strong> Q par dP = L −1TdQ, avecL −1T∫ T= exp[− θ(s)dB s + 1 20∫ T0θ 2 (s)ds].Cette formule est souvent utile, mais il faut se souvenir que B est un brownien sous P . Si l’on veutécrire L en terme <strong>de</strong> Brownien sous Q, on obtient L −1T= exp[− ∫ T0 θ(s)d ˜B∫s − 1 T2 0θ2 (s)ds].Le processus (L −1t , t ≥ 0) est une Q martingale, et si X ∈ F T on a E P (X) = E Q (L −1TX).6.1.4 Exercicesa. <strong>Calcul</strong> <strong>de</strong> E(B t exp[ ∫ T0 θ sdB s − 1 2θ2 sds]), où B est un brownien, on effectue le change-Si l’on veut calculer I = E(B t exp[ ∫ T0 θ sdB s − 1 2ment <strong>de</strong> probabilité avec L t = exp[ ∫ t0 θ sdB s − 1 2∫ T0θ2 sds]) pour t < T et θ déterministe.∫ T∫0T0I = E P (L T B t ) = E P (L t B t ) = E Q (B t ) = E Q ( ˜B t +Utilisons sur cet exemple la notation (6.1).θ2 sds] et on a∫ t0θ s ds) =∫ TI = W(X t exp( θ s dX s − 1 ∫ Tθ0 2sds)) 2 = W (θ) (X t ) = W(X t +0On peut en guise d’application calculer E(B t exp B t ).∫ t0E Q (θ s ) ds =∫ t0∫ t0θ s ds)θ s ds.b. <strong>Calcul</strong> <strong>de</strong> I = E(exp[−αB 2 t − b2 2∫ t0 dsB2 s]) où B est un brownien issu <strong>de</strong> aOn pose x = a 2 et on définit P b par dP b = L t dP avecL t = exp[− b 2 (B2 t − x − t) − b2 2∫ t0dsB 2 s]En utilisant la formule d’intégration par parties, on aL t = exp[−b∫ t0B s dB s − b2 2∫ t0dsB 2 s]


70 Changement <strong>de</strong> probabilitéet L est une P martingale. Sous P b , ( ˜B t = B t +b ∫ t0 ds B s, t ≥ 0) est un brownien issu <strong>de</strong> a et β t = ˜B t −aest un brownien issu <strong>de</strong> 0. Sous P b , on aB t = a + β t − b∫ t0ds B sdonc B est un processus d’Ornstein-Uhlenbeck sous P b et B t est une v.a. gaussienne d’espérance ae −btet <strong>de</strong> variance 1 2b (1 − e−2bt ). On aI = E b (L −1t exp[−αB 2 t − b2 2∫ tIl reste quelques calculs simples et longs pour obtenird. Temps d’atteinte0dsB 2 s]) = E b [exp[−αB 2 t + b 2 (B2 t − x − t)))I = (cosh bt + 2 α b sinh bt)−1/2 exp[− xb 1 + 2α bcoth bt2 coth bt + 2α ] .bProposition 6.1.4 Si X est le processus défini par X t = νt + B t et si T ν a = inf{t ≥ 0; X t = a} est letemps d’atteinte <strong>de</strong> a, on a pour λ tel que ν 2 + 2λ > 0,E(exp(−λT ν a )) = exp(νa − |a| √ ν 2 + 2λ) .Démonstration: Il suffit <strong>de</strong> remarquer que pour λ > 0,E (exp(−λT ν a ))) = E( 1 (T νa


July 8, 2006 716.2 Application aux modèles financiersSoit S vérifiantdS(t) = S(t)[b(t)dt + σ(t)dW t ].On peut trouver une (et une seule) probabilité Q équivalente à P telle quedS(t) = S(t)[r(t)dt + σ(t)dB t ]où B est un Q-mouvement Brownien, et r est le taux sans risque. Il suffit <strong>de</strong> prendre dQ| Ft = L t dP | Ftavec L solution <strong>de</strong> L 0 = 1, dL t = L t θ(t)dW t avec θ(t) = −σ −1 (t)(b(t)−r(t)), sous réserve d’intégrabilité<strong>de</strong> θ. En effetb(t) − r(t)dB t = dW t − θ(t)dt = dW t + dtσ(t)est un Q-MB etb(t)dt + σ(t)dW t = b(t)dt + σ(t)[dB t + θ(t)dt] = r(t)dt + σ(t)dB t(La probabilité Q est appellée probabilité risque neutre. Soit R t = exp − ∫ )t0 r(s) ds le coefficientd’actualisation. Le processus SR <strong>de</strong>s prix actualisés vérifie d(S t R t ) = S t R t σ t dB t , et est une Q-martingale locale.6.2.1 Application à la valorisation d’un actif contingent en marché completOn se place dans le cas r constant. Soit V t la valeur en t d’un portefeuille auto-finançant dupliquantl’actif contingent ζ où ζ est une v.a. positive F T mesurable, intégrable (on admet l’existence d’un telportefuille pour le moment). Dans le cas d’un call européen, ζ est égale à (S T − K) + .Proposition 6.2.1 Le processus V R est une Q-martingale etE Q (R T V T |F t ) = E Q [R T ζ |F t ] = V t R t .Démonstration: Admettons l’existence d’un portefeuille <strong>de</strong> duplication α, π tel que V t := α t S 0 t + π t S tet V T = ζ. La condition d’autofinancement est, par définition dV t = α t dS 0 t + π t dS t . Si on noteṼ t := e −rt V t et ˜S t := e −rt S t , les valeurs actualisées on montre facilement que dṼt = π t d ˜S t soitṼ t = V 0 +∫ t0π s d ˜S s = V 0 +∫ t0π s S s R s σ s d ˜B s . (6.2)On remarque qu’à tout processus π et à toute valeur initiale x on peut associer un α tel que le couple(α, π) soit autofinancant <strong>de</strong> valeur initiale x. Il suffit <strong>de</strong> calculer Ṽt = V 0 + ∫ t0 π sd ˜S s et <strong>de</strong> choisir α t telque V t = e rt Ṽ t = α t St 0 + π t S t .Le processus Ṽ est une intégrale <strong>stochastique</strong> par rapport à une Q-martingale, c’est donc une Qmartingale locale. Si c’est une martingale,Ṽ t = E Q (ṼT |F t ) = E Q (e −rT ζ |F t ). (6.3)Le portefeuille <strong>de</strong> couverture s’obtient au moyen <strong>de</strong> (6.2). Comme nous l’avons dit, si l’on connaitπ, il reste à poser α t = 1 (V t − π t S t ) = Ṽt − π t ˜St .S 0 tIl reste à prouver l’existence <strong>de</strong> π ce qui est obtenu au moins théoriquement au moyen d’un théorème<strong>de</strong> représentation (Voir chapitre sur les compléments).La métho<strong>de</strong> est alors la suivante: pour évaluer ζ, il faut i<strong>de</strong>ntifier la probabilité risque neutre, calculerE Q (e −rT ζ |F t ) et i<strong>de</strong>ntifier le π. On peut remarquer que, puisque ζ est positif, la valeur V t du portefeuille<strong>de</strong> duplication aussi.Dans le cas du modèle <strong>de</strong> Black et Scholes, dS(t) = S(t)[bdt + σ dB t ] où b et σ sont constants,dS t = S(t)(rdt + σd ˜B t )


72 Changement <strong>de</strong> probabilitéoù ˜B est un Q-MB et S est un Brownien géométrique. On a dQ = L t dP avec dL t = L t θdB t pourθ = − µ − rσ. Le MB ˜B est d ˜B = dB − θdt.On peut donc calculer l’espérance conditionnelle (6.3) dans le cas ζ = (S T − K) + . Il est facile <strong>de</strong>vérifier (utiliser la propriété <strong>de</strong> Markov) que V t = F (t, S t ) avec F (t, x) = xN(d 1 ) − Ke −r(T −t) N(d 2 )(cf. formule <strong>de</strong> Black-Scholes).Soit ˜F (t, x) := e −rt F (t, x). La formule d’Itô montre que∫ t˜F (t, S t ) = ˜F ∂F(0, S 0 ) +0 ∂x (u, S u)d ˜S uen tenant compte du fait que ˜F (t, S t ) est une martingale. On retrouve l’EDP d’évaluation en écrivantque le drift <strong>de</strong> ˜F (t, S t ) est nulOn peut donc prendreπ t = ∂F∂x (t, S t).Le terme ∂F∂x (t, S t) est appellé le Delta du call, et on parle <strong>de</strong> Delta hedging.On obtient égalementV t = E Q (e −r(T −t) (S T − K) + )|F t )= e −rt E Q (S T e −rT 1 ST >K) − Ke −rt E Q (e −rT 1 ST >K)Le premier terme peut se calculer à la main. On peut aussi écrire que S t e −rt /S 0 est une martingalepositive d’espérance 1 et faire un changement <strong>de</strong> probabilité. On pose S t e −rt = S 0 M t où M est laQ-martingale dM t = σM t dB t . C’est une martingale positive d’espérance 1, on peut donc l’utilisercomme changement <strong>de</strong> probabilité. Soit ˆQ = M t dQ. Sous ˆQ, le processus ˆB = B − σdt est un MB etdS t = S t (rdt + σ(d ˆB t + σdt)) = S t (r + σ 2 )dt + σd ˆB) soitS T = S 0 exp[(r + σ 2 − σ22 )T + σ ˆB T ] = S 0 exp[(r + σ22 )T + σ ˆB T ]E Q (S T e −rT 1 ST >K) = S 0 E Q (M T 1 ST >K/S 0) = S 0 ˆQ(ST > K/S 0 )et nous savons calculer cette quantité qui s’écritˆQ( ˆB T > 1 σ ln(K/S 0) − (r + σ2)T ).2Voir le paragraphe sur le changement <strong>de</strong> numéraire.6.2.2 ArbitragesUn arbitrage est une possibilité d’investir dans le marché financier sans mise <strong>de</strong> fonds (avec une richesseinitiale nulle) et <strong>de</strong> terminer avec un portefuille <strong>de</strong> valeur positive quelque soit l’évolution du marché,non i<strong>de</strong>ntiquement nul. En termes probabilistes, c’est un portefuille π adapté tel que la valeur terminale<strong>de</strong> la stratégie auto-financante associée soit positive:V 0 (π) = 0, V T (π) ≥ 0, E(V T ) > 0 .L’hypothèse <strong>de</strong> non arbitrage stipule que l’on doit exclure <strong>de</strong> telles opportunités du modèle.6.2.3 Hedging methodologyLet S be a semi-martingale which represents the price of the risky asset and <strong>de</strong>note by (Ft S , t ≥ 0) thefiltration generated by S. A contingent claim H is an FT S -measurable random variable where T is afixed horizon. An hedging portfolio consists of a pair of predictable processes (πt 0 , π t ; t ≥ 0) such that,if V t (π 0 , π) = πt 0 e rt + π t S t is the t-time value of the portfolio, the self-financing conditiondV t (π 0 , π) = rπ 0 t e rt dt + π t dS t


July 8, 2006 73holds and V T = H. The value V t = V t (π 0 , π) is the t-time price of H. In particular if Ṽt = e −rt V t is thediscounted value of the portfolio, Itô’s formula implies that Ṽt = V 0 + ∫ t0 π sd ˜S s . Hence, a self-financingstrategy (π 0 , π) is characterized by the knowledge of its initial value V 0 and of its risky part π. Sometechnical hypotheses (integrability of π and existence of a lower bound for V ) have to be taken intoaccount in or<strong>de</strong>r to avoid arbitrage strategies as doubling strategies. The first theorem of asset pricingstates that the market is arbitrage free if and only if there exists a probability Q (called an equivalentmartingale measure, in short emm), equivalent to P such that discounted prices are Q-martingales. Amarket is said to be complete if any contingent claim H admits an hedging portfolio. From the secondtheorem of asset pricing, an arbitrage free market is complete if and only if there exists a unique emm.In that case, the price V t (H) of the contingent claim H is <strong>de</strong>fined as the value of the hedging portfolioand is given byV t (H) = e rt E Q (He −rT |Ft S ) .In<strong>de</strong>ed, from the <strong>de</strong>finition, the discounted value of an hedging portfolio is a stochastic integral withrespect to the discounted value of the asset, hence is a Q-martingale. (We avoid here the distinctionbetween local martingales and martingales). The uniqueness of the emm is linked with the predictablerepresentation property of the discounted price process ˜S, which states that any FT S -measurable randomvariable can be written as x + ∫ T0 π sd ˜S s for a predictable process π. In that case, <strong>de</strong>noting by Lthe Radon-Nikodym <strong>de</strong>nsity of the emm (i.e. dQ| Ft = L t dP | Ft ) a process Z is the t-time value of aself-financing portfolio if and only if the process (L t ˜Zt , t ≥ 0) is a P -martingale (i.e. the discountedprocess ˜Z is a Q-martingale).In the Black and Scholes framework, the market is shown to be complete. In<strong>de</strong>ed, the Brownianmotion enjoys the predictable representation property, whence the existence of an hedging strategy isobtained from the obvious remark that the filtration generated by S is equal to the filtration generatedby B, and from the hypothesis that σ and S do not vanish.In or<strong>de</strong>r to hedge contingent claims, the explicit value of the hedging portfolio π is crucial. In aMarkovian setting, it can be obtained from the hedging price process V as follows.Let us recall that a Markov process X is an F-adapted process such that for t ≥ s and for every boun<strong>de</strong>dBorelian function f, E(f(X t )|F s ) = E(f(X t )|X s ). The process X is a strong Markov process if for anyfinite stopping time τ and any boun<strong>de</strong>d Borelian function f, E(f(X τ+t )|F T ) = E(f(X τ+t )|X T ). Theinfinitesimal generator of a Markov process is the operator L <strong>de</strong>fined on a set D of smooth functionssuch that for f ∈ D, the process f(t, X t ) − ∫ t0 Ff(s, X s)ds is a martingale. The solution of a stochasticdifferential equation dX t = a(t, X t )dt + σ(t, X t )dW t where a and σ are Lipschitz function is a Markovprocess (see Karatzas and Shreve (1999)) with generator F(f) = ∂ t f + a(t, x)∂ x f + 1 2 σ2 (t, x)∂ xx f.Let S be a solution of dS t = S t (µ(t, S t )dt + σ(t, S t )dW t ), and assume that S is a Markov process. Ifmoreover, the contingent claim is of European type, i.e. H = h(S T ), then V t (H) is a function of t andS t , say V t (H) = v(t, S t ). Thanks to the martingale property of the discounted prices and using Itô’sformula, one gets that h satisfies the so-called evaluation equation∂ t v(t, x) + r(t)x∂ x v(t, x) + 1 2 σ2 (t, x)x 2 ∂ xx v(t, x) = r(t)v(t, x)with the boundary condition v(T, x) = h(x) and the risky part π of the hedging strategy is given bythe <strong>de</strong>rivative of v with respect to the second variable.In a more general setting, one can use Malliavin’s <strong>de</strong>rivative (see Nualart (1995) for more comments).For h ∈ L 2 ([0, T ]), let W (h) = ∫ T0 h(s)dW s. For a smooth function f, the <strong>de</strong>rivative of a random variableof the form F = f(W (h 1 ), . . . , W (h n )) is <strong>de</strong>fined as the process (D t F, t ≤ T ) byD t F =n∑i=1∂f∂x i(W (h 1 ), . . . , W (h n ))h i (t) .It is noticeable that this <strong>de</strong>rivative can be interpreted as a Frèchet <strong>de</strong>rivative. The Clark-Ocone representationformula states that∫ TF = E(F ) + E(D t F |F t )dW t .0


74 Changement <strong>de</strong> probabilitéAs an example, the <strong>de</strong>rivative of F = f(W T ) is f ′ (W T ), hence∫ Tf(W T ) = E(f(W T )) + E(f ′ (W T )|F t )dW t .06.2.4 Arbitrage et mmeOn peut montrer que l’hypothèse d’absence d’opportunité d’arbitrage équivaut à l’existence d’une probabilitéQ telle que sous Q les prix actualisés sont <strong>de</strong>s martingales. Ce théorème est très difficile etnécessite quelques hypothèses techniques. On consultera [?] et, dans le cas général [?].6.2.5 Cas généralLorsqu’il existe une unique probabilité telle que les actifs actualisés sont <strong>de</strong>s martingales, on évalueles actifs <strong>de</strong> la même façon. De telles probabilités sont appellées mesures martingale équivalentes(MME). Il se peut qu’il existe plusieurs (et dans ce cas c’est une infinité) MME. Dans ce cas, le marchén’est pas complet, et l’on peut associer à toute v.a. ζ = h(S T ) une fourchette <strong>de</strong> prix définie par] inf Q E Q (e −rT h(S T ), sup Q E Q (e −rT h(S T )[. On peut montrer que la borne supérieure <strong>de</strong> la fourchette<strong>de</strong> prix est la plus petite valeur initiale d’un portefeuille <strong>de</strong> surcouverture.6.3 Probabilité forward-neutreDifférentes approches sont utilisées en temps continu pour étudier la structure par terme <strong>de</strong>s taux. Lapremière consiste à modèliser le prix <strong>de</strong>s zéro-coupons en respectant l’hypothèse d’A.O.A. et à en déduirel’expression du taux spot. Une autre approche utilise le taux spot comme variable explicative. Nousallons évoquer ici comment un changement <strong>de</strong> probabilité permet <strong>de</strong> valoriser facilement <strong>de</strong>s produitssur taux.6.3.1 DéfinitionsOn donne les mêmes définitions qu’en temps discret. On appelle zéro-coupon <strong>de</strong> maturité T , un titreversant un franc à la date T , et ne donnant aucun flux entre t et T . On suppose 2 que, pour tout T , ilexiste un zéro-coupon <strong>de</strong> maturité T .Le prix à la date t d’un zéro-coupon d’échéance T est noté P (t, T ). On a P (T, T ) = 1.Si S(t) est le prix d’un actif financier en unités <strong>de</strong> la date t, on appelle prix forward <strong>de</strong> S le prixexprimé en unités <strong>de</strong> la date T , soit S F (t) =S(t)P (t, T ) .On introduit le ren<strong>de</strong>ment à l’échéance 3 en t, soit Y (t, T ) défini parP (t, T ) = exp −(T − t)Y (t, T ).Le taux spot forward en t pour la maturité T est[ ]∂ ln P (t, θ)f(t, T ) = −∂θOn a alors Y (t, T ) = 1 ∫ Tf(t, u) du.T − t tθ=TLe taux spot instantané est[ ]∂ ln P (t, T )r(t) = lim Y (t, T ) := −T →t ∂T2 cette hypothèse n’est pas réalisée en pratique.3 yield to maturity..T =t= f(t, t).


July 8, 2006 75La courbe <strong>de</strong>s taux est la fonction θ → Y (t, θ).Le facteur d’actualisation estR(t) := exp −∫ t0r(s) ds.On peut à chaque instant t observer une gamme <strong>de</strong>s taux, c’est-à-dire la famille s → Y (t, s + t) <strong>de</strong>staux d’intérêt <strong>de</strong> maturité s + t au jour t. On désire étudier le comportement <strong>de</strong> la courbe Y (t, θ) enfonction <strong>de</strong> la courbe <strong>de</strong>s taux aujourd’hui, c’est à dire Y (0, θ).Dans un modèle déterministe, on doit avoirP (t, T ) = P (t, u)P (u, T ), ∀ t ≤ u ≤ T ,pour éviter les opportunités d’arbitrage. On en déduit, sous une hypothèse <strong>de</strong> différentiabilité, l’existenced’une fonction r telle que P (t, T ) = exp − ∫ Tr(s) ds. On vérifie que, comme dans le modèle discret,t∫on a f(t, T ) = f(0, T ) = r(T ) , ∀ t ≤ T et Y (t, T ) = 1 TT −tr(u) du. Le ren<strong>de</strong>ment à l’échéance est latvaleur moyenne du taux spot.Dans un modèle <strong>stochastique</strong>, on se donne comme toujours un espace probabilisé muni d’une filtrationF t que l’on supposera être une filtration Brownienne. On suppose qu’à la date t, le prix P (t, .)<strong>de</strong>s zéro-coupons est connu, c’est-à-dire que les variables P (t, .) sont F t -mesurables. Pour expliciterl’hypothèse d’A.O.A., on suppose que les processus P (. , T ) sont positifs, adaptés, continus et queP (t, T ) est dérivable par rapport à T <strong>de</strong> dérivée continue.¡On suppose qu’il existe une probabilité Q sous laquelle les prix actualisés sont <strong>de</strong>s martingales <strong>de</strong>carré intégrable : sous Q, le processus R(t)P (t, T ) est une martingale. Cette propriété est vraie pourtout T , pour éviter les opportunités d’arbitrage entre <strong>de</strong>s produits <strong>de</strong> maturités différentes.Cette propriété entraîne <strong>de</strong>s résultats intéressants. Tout d’abord, puisque P (T, T ) = 1, on obtientque P (0, T ) = E Q (R(T )), et que6.3.2 Changement <strong>de</strong> numérairea. Probabilité forward-neutre∫ TP (t, T ) = E Q [exp − r(u) du |F t ]tLa valeur à la date t d’un flux déterministe F reçu à la date T est∫ TF P (t, T ) = F E Q [exp − r(u) du |F t ].tSi ce flux est aléatoire, la valeur à la date t <strong>de</strong> ce flux est∫ TE Q [F exp − r(u) du |F t ].tIl est possible d’interpréter cette formule en l’écrivant F c P (t, T ), où F c est l’équivalent certain 4 <strong>de</strong> F etest défini par∫1TF c =P (t, T ) E Q[F exp − r(u) du |F t ].tNous allons écrire cette <strong>de</strong>rnière égalité en utilisant un changement <strong>de</strong> probabilité.Par hypothése A.O.A, le processus R(t)P (t, T ) est une Q-martingale, son espérance est constante,égale à P (0, T ).4 “Je préfère la certitu<strong>de</strong> aux calculs <strong>de</strong>s probabilités” Prévert, La Tour, Oeuvres complètes, Ed. Pléia<strong>de</strong>, p.247


76 Changement <strong>de</strong> probabilitéPour tout T , le processus ζt T R(t)P (t, T ):= est une Q-martingale positive d’espérance 1. On peutP (0, T )donc utiliser ζtT comme <strong>de</strong>nsité <strong>de</strong> changement <strong>de</strong> probabilité. Soit Q T la mesure <strong>de</strong> probabilité définiesur (Ω, F T ) par Q T (A) = E Q (ζt T 1 A ) pour tout A ∈ F t . Lorsque T est fixé, on notera ζ t = ζt T .Définition 6.3.1 La probabilité Q Tdéfinie sur F T , par dQ TdQ = ζT t est appelée probabilité forwardneutre<strong>de</strong> maturité T .Avec cette notationE QT (F |F t ) = E Q (F ζ Tζ t|F t ) = F c .Lorsque F est la valeur d’un titre, l’équivalent certain F c est appellé le prix à terme <strong>de</strong> F .Lorsque r est déterministe, Q T = Q.La mesure Q T est la martingale mesure associée au choix du zéro-coupon <strong>de</strong> maturité T commenuméraire, comme l’explicite la propriété suivante.Proposition 6.3.1 Si X est un processus <strong>de</strong> prix, le prix forward (X t /P (t, T ), 0 ≤ t ≤ T ) est unemartingale sous Q T .Soit T fixé. Soit X un processus <strong>de</strong> prix. Par définition <strong>de</strong> la martingale mesure Q, le processus <strong>de</strong>sprix actualisés (X t R(t), t ≥ 0) est une Q-martingale. Nous voulons montrer que (X t /P (t, T ); t ≤ T )est une Q T -martingale, ce qui équivaut à (X t ζ t /P (t, T ) est une Q martingale. Comme X t ζ t /P (t, T ) =X t R(t)/P (0, T ), c’est immédiat.On peut aussi détailler: D’après la formule du changement <strong>de</strong> probabilité dans les espérances conditionnelleson aE QT[X tP (t, T ) |F sb. Contrats forward et futures]=[ ]EXt ζ t Q P (t,T ) |F sE Q [ζ t |F s ]= E Q [X t R t |F s ]P (0, T )ζ s=X sP (s, T ) . △Un contrat forward est l’engagement d’acheter le sous jacent au prix prévu au moment <strong>de</strong> la signaturedu contrat. Il n’y a aucun versement d’argent à la signature.Proposition 6.3.2 Le prix à la date t d’un contrat forward <strong>de</strong> maturité T sur un actif dont le processus<strong>de</strong> prix est V (s) estG(t) = E QT (V (T )|F t ) .Le prix d’un contrat future (prix future) estH(t) = E Q (V (T )|F t ) .Si r est déterministe, prix future et forward sont égaux.c. Taux spotProposition 6.3.3 Le taux spot forward f(t, T ) est une Q T -martingalef(t, T ) = E QT [r T |F t ] , t ≤ T,égale au prix forward d’un contrat écrit sur le taux spot.En particulier f(0, T ) = E QT (r(T )) est le prix à la date 0 d’un contrat forward écrit sur le taux spot<strong>de</strong> même maturité.Le prix d’un zéro-coupon s’exprime en fonction du taux spot par()P (t, T ) = exp−∫ TtE Qs [r s |F t ] ds, t ≤ T.


July 8, 2006 77P (t,T +h)−P (t,T )Par définition, le taux forward f(t, T ) est égal à lim h→0 h P (t,T ). Le processus P (t, T + h)est un processus <strong>de</strong> prix, donc est une Q T -martingale; il en résulte queP (t,T +h)P (t,T )1f(t, T ) = − limh→0 h E Q T{(P (T, T + h) − 1) |F t },soit f(t, T ) = E QT [r T |F t ]. Par définition ln P (t, T ) = − ∫ Tt(d. Prix forward, prix futureP (t, T ) = exp−∫ Ttf(t, s)ds, d’où)E Qs [r s |F t ] ds. △On peut préciser la relation entre prix forward et prix future.mesurable et Z u = E Q (Z|F u )Soit Z une variable intégrable F T∫ TE QT (Z |F t ) = E Q (Z |F t ) − Cov Qu (Z u , r(u) |F t ) du.toù Cov Qu (X, Y |F t ) = E Qu (XY |F t ) − E Qu (X|F t )E Qu (Y |F t ).En particulier∫ TE QT (Z) = E Q (Z) − Cov Qu (Z, r(u)) du.0Proposition 6.3.4 Le prix à la date 0 d’un contrat forward <strong>de</strong> maturité T écrit sur Z est le prix à ladate 0 d’un contrat future <strong>de</strong> même nature moins un biais <strong>de</strong> covariance.6.3.3 Changement <strong>de</strong> numéraireIl peut être utile <strong>de</strong> faire un autre changement <strong>de</strong> numéraire, par exemple <strong>de</strong> choisir un actif S commeunité monétaire.6.3.4 Valorisation d’une option sur obligation à couponsLe prix d’une option Européenne <strong>de</strong> payoff h(T ) à la date T est donné parC(t) = R −1t E Q [h(T )R T |F t ] .Considérons une option <strong>de</strong> maturité T sur un produit qui verse <strong>de</strong>s flux déterministes F n aux datesT n , T < T n < T n+1 et soit V (t) = ∑ Nn=1 F nP (t, T n ).Théorème 6.3.1 Le prix d’une option Européenne <strong>de</strong> prix d’exercice K et <strong>de</strong> maturité T sur un produitqui verse <strong>de</strong>s flux F n aux dates T n estC(0) =N∑F n P (0, T n )Q n [V (T ) > K] − KP (0, T )Q T [V (T ) > K]n=1où Q n est la probabilité forward neutre <strong>de</strong> maturité T n .Par définition⎡ ( N) +⎤∑C(0) = E Q (R T (V (T ) − K) + ) = E Q⎣R T F n P (T, T n ) − K ⎦ ,n=1


78 Changement <strong>de</strong> probabilitéce qui s’écritN∑C(0) = F n E Q [R T P (T, T n )1 {V (T )>K} ] − KE Q [R T 1 {V (T )>K} ].n=1Par définition <strong>de</strong> Q n , on aE Q [R T P (T, T n )1 {V (T )>K} ] = P (0, T n )E Qn [1 {V (T )>K} ]ce qui donne le résultat. △Le livre n’est pas terminé.La fin n’a pas été écrite, elle n’a jamais été trouvée.M. Duras, L’été 80. Editions <strong>de</strong> Minuit.


Bibliography[1] J. Azéma and M. Yor. Etu<strong>de</strong> d’une martingale remarquable. In J. Azéma and M. Yor, editors,Séminaire <strong>de</strong> Probabilités XXIII, volume 1557 of Lecture Notes in Maths., pages 88–130. Springer-Verlag, 1989.[2] L. Breiman. Probability. Addison-Wesley, Reading MA, 1968.[3] M. Chesney, B. Marois, and R. Wojakowski. Les options <strong>de</strong> change. Economica, Paris, 1995.[4] R. Cont and P. Tankov. Financial mo<strong>de</strong>ling with jump processes. Chapman & Hall/CRC, 2004.[5] J.C. Cox, J.E. Ingersoll, and S.A. Ross. A theory of term structure of interest rates. Econometrica,53:385–408, 1985.[6] C. Dellacherie and P.A. Meyer. Probabilités et Potentiel, chapitres I-IV. Hermann, Paris, 1975.English translation : Probabilities and potentiel, chapters I-IV, North-Holland, (1978).[7] P. Devol<strong>de</strong>r. Finance Stochastique. Presses <strong>de</strong> l’université <strong>de</strong> Bruxelles, Bruxelles, 1991.[8] R. Durrett. Stochastic <strong>Calcul</strong>us: a Practical Introduction. CRC press, Boca Raton, 1996.[9] R. Elliott. Stochastic <strong>Calcul</strong>us and Applications. Springer, Berlin, 1982.[10] R. Elliott and P. E. Kopp. Mathematics of Financial markets. Springer Finance, Berlin, 1999.[11] A. Göing-Jaeschke and M. Yor. A survey and some generalizations of Bessel processes. Bernoulli,9:313–349, 2003.[12] N. Ikeda and S. Watanabe. Stochastic differential equations and diffusion processes. North Holland,second edition, 1989.[13] I. Karatzas. Lectures on the mathematics of finance. American Mathematical Society, Provi<strong>de</strong>nce,1997.[14] I. Karatzas and S.E. Shreve. Brownian Motion and Stochastic <strong>Calcul</strong>us. Springer-Verlag, Berlin,1991.[15] J.T. Kent. Some probabilistic properties of Bessel functions. Annals of Probability, 6:760–770,1978.[16] N.V. Krylov. Controlled difusion processes. Springer-Verlag, Berlin, 19.[17] R.S.R. Liptser and A.N. Shiryaev. Theory of Martingales. Kluver, 1996.[18] M. Musiela and M. Rutkowski. Martingale Methods in Financial Mo<strong>de</strong>lling. Springer-Verlag,Hei<strong>de</strong>lberg-Berlin-New York, second edition, 2005.[19] J. Neveu. Bases mathématiques <strong>de</strong>s probabilités. Masson, Paris, 1964.[20] B. Øksendal. Stochastic Differential Equations. Springer-Verlag, Berlin, sixth edition, 1998.[21] J.W. Pitman and M. Yor. A <strong>de</strong>composition of Bessel bridges. Z. Wahr. Verw. Gebiete, 59:425–457,1982.79


80 Changement <strong>de</strong> probabilité[22] S.R. Pliska. Introduction to mathematical finance. Blackwell, Oxford, 1997.[23] Ph. Protter. Stochastic Integration and differential equations. Springer, Berlin, second, version 2.1.edition, 2005.[24] D. Revuz and M. Yor. Continuous Martingales and Brownian Motion. Springer Verlag, Berlin,third edition, 1999.[25] L.C.G. Rogers and D. Williams. Diffusions, Markov processes and Martingales, Vol 1. Foundations.Cambridge University Press, Cambridge, second edition, 2000.[26] W. Szatzschnei<strong>de</strong>r. Comments about CIR mo<strong>de</strong>l as a part of a financial market. Preprint, 2001.[27] W. Szatzschnei<strong>de</strong>r. Exten<strong>de</strong>d Cox, Ingersoll and Ross mo<strong>de</strong>l. Preprint, 2001.[28] P. Wilmott. Derivatives; The Theory and Practice of financial Engineering. University Edition,John Wiley, Chischester, 1998.


July 8, 2006 81Commentaires sur certains ouvragesLes ouvrages suivants sont à la bibliothéque. Un conseil: achetez en un ou <strong>de</strong>ux, après les avoir consultéset approfondissez les. Vous ne pourrez pas tous les connaitre, mais essayez d’être pointu sur un domaine.<strong>Calcul</strong> <strong>stochastique</strong>K.L. Chung et D. Williams, [3] Bon livre, se limite aux intégrales <strong>stochastique</strong>.R. Durrett [5] Ouvrage contenant <strong>de</strong> nombreux résultats trés précis, un peu difficile en première lecture.I. Karatzas et S.Shreve, [7] Très bon ouvrage. Contient à peu près tout ce dont vous pourrez avoirbesoin.Mikosch, T. Elementary Stochastic calculus with finance in view. Excellent ouvrage d’introduction aucalcul <strong>stochastique</strong>.B. Oksendal, [10] Excellent livre, relativement simple, abordant <strong>de</strong> nombreux problèmes liés au calcul<strong>stochastique</strong>.D. Revuz et M. Yor, [12] Incontournable pour les résultats les plus précis concernant le MB.L.C.G. Rogers et D. Williams [?] Ouvrage assez difficile, mais contient <strong>de</strong> nombreux résultats utiles nese trouvant pas facilement. Très agréable à lire.Sur les processus à sauts, processus <strong>de</strong> Levy:C. Dellacherie et P.A. Meyer, [?] 4 volumes. Les <strong>de</strong>ux premiers contiennent tous les résultats sur lesmartingales non continues. Pour les mathématiciens professionnels.R. Elliott,[?] Beaucoup <strong>de</strong> choses sur les processus à sauts.N.Ikeda et S. Watanabe,[?] Pour les experts <strong>de</strong> calcul <strong>stochastique</strong>.R.S.R. Liptser et A.N. Shiryaev, [?]Tout sur les martingales non continues.P. Protter, [?] Contient en particulier les processus discontinus et les processus <strong>de</strong> Lévy.Cont et Tankov [?] Le plus appropriéCONTROLE STOCHASTIQUEW. H.Fleming et R. W. Rishel,[?] Un incontournable sur le cas <strong>stochastique</strong> en temps continu, <strong>de</strong> niveautrès élevé.N. V. Krylov,[?] Pour mathématiciens spécialistes <strong>de</strong> diffusion.FINANCELes ouvrages <strong>de</strong> Bingham et Kiesel, Björk, sont recommandés.La revue Risk contient <strong>de</strong> nombreux articles sur <strong>de</strong>s sujets ”chauds”Biais, B. and Björk, T. and Cvitanić, J. and El Karoui, N. and Jouini, E. and Rochet, J.C.,[1] Cetouvrage contient <strong>de</strong>s cours <strong>de</strong> l’école d’été sur la structure par terme <strong>de</strong>s taux (Björk), l’optimisationsous contraintes (Cvitanic), les équations rétrogra<strong>de</strong>s (El Karoui)... Excellent.Chesney, M. and Marois, B. and Wojakowski, R. ,[2] De nombreux exemples d’options exotiques sur lestaux. Les formules en temps continu sont en annexe, <strong>de</strong> nombreuses valorisation sur <strong>de</strong>s arbres.E Overhaus, M. and Ferraris, A. and Knudsen, T. and Milward, R. and Nguyen-Ngoc, L and Schindlmayr,G. . Equity <strong>de</strong>rivatives, Theory and applications. Un petit bijou en ce qui concerne les processus<strong>de</strong> Lévy appliqués à la finance.P. Devol<strong>de</strong>r,[4] On y trouve un appendice qui contient les résultats principaux <strong>de</strong> calcul <strong>stochastique</strong>.Elliott, R.J. et Kopp. E.[?]Excellent surtout en ce qui concerne les options américaines.Karatzas, I., [6]Excellent ouvrage sur les problèmes d’optimisation et choix <strong>de</strong> portefeuille.D. Lamberton et B. Lapeyre,[8]Très bon cours <strong>de</strong> calcul <strong>stochastique</strong>. Enoncés précis, démonstrations,exercices non corrigés.Shiryaev: ce qu’il existe <strong>de</strong> plus complet parmi les livres sur les processsus à sautsEVALUATION:Haug : toutes les formules sur les prix d’optionsPelsser, A. Efficient methods for valuing interest rate <strong>de</strong>rivatives.


82 in<strong>de</strong>xPliska, S.R., [11] Ouvrage excellent sur les marchés en temps discret la valorisation et les problèmesd’optimisation.Kat, H.M. Structured Equity Derivatives.Gibson, R. L’évaluation <strong>de</strong>s options. Un peu ancien, mais très bien fait.Hull, J.C. Options, futures and other <strong>de</strong>rivatives.Jarrow, R. and Turnbull. Derivative securities.Kwok, Y.K. Mathematical mo<strong>de</strong>ls of financial <strong>de</strong>rivatives.Kallianpur, G. and Karandikar, R.L. . Introduction to option pricing theory.TAUX:Musiela, M. and Rutkowski, M. , [9]Excellent ouvrage <strong>de</strong> haut niveau. Ouvrage <strong>de</strong> référence pour lastructure par terme <strong>de</strong>s taux, LIBOR...Rebonato, R., Interest-rate option Mo<strong>de</strong>ls, snd edition.Brigo, D. and Mercurio, F. Interest rate mo<strong>de</strong>ls. Theory and practice.PRATICIENS:Wilmott, P. Une très bonne série d’ouvrages pour praticiens.Taleb, N. Dynamic hedging Les métho<strong>de</strong>s <strong>de</strong> couverture.DIVERS:Risque <strong>de</strong> défaut: Bielecki, T. and Rutkowski, M. . Credit risk : Mo<strong>de</strong>lling valuation and Hedging. Leplus complet sur le sujet.Les évènements rares, le risque : Embrecht, P. and Klüppelberg, C. and Mikosh, T. . Mo<strong>de</strong>llingExtremal Events.Volatilité <strong>stochastique</strong> : Fouque, J-P. and Papanicolaou, G. and Sircar, X. . Derivatives in financialmarkets with stochastic volatilities.Ou trouver differents articles d’introduction aux problèmes <strong>de</strong> finance : Simon ed. , Encyclopédie <strong>de</strong>smarchés financiers, Economica


In<strong>de</strong>xAbsolute continuityBES, 60Besselmodified - function, 61, 62process, 58squared process, 58Change of timefor CIR, 65Clark-Ocone, 74Condition <strong>de</strong> Novikov, 68Convergencequadratique, 13en loi, 13en probabilité, 13presque sûre, 12Crochetoblique, 42Ensemblesnégligeables, 9Equation<strong>de</strong> Langevin, 35parabolique, 51Equationsdifférentielles <strong>stochastique</strong>s, 49Espace complet, 9Espace mesurable, 7Exponentielle <strong>de</strong> Doléans-Da<strong>de</strong>, 51Filtration, 14Fonctionen escalier, 21, 32Fonction borélienne, 8Formule<strong>de</strong> Bayes, 17<strong>de</strong> Feynman-Kac, 53Générateur infinitésimal, 44Hypothèses habituelles, 14In<strong>de</strong>x, 59Intégrabilité uniforme, 10Intégrale<strong>de</strong> Wiener, 32Intégration par parties, 34Laplace transform ofhitting time for a BES, 62Lemme d’Itô, 43Loi<strong>de</strong> l’arc sinus, 54Loi conditionnelle, 17Martingaleexponentielle, 50locale, 20Mesure<strong>de</strong> Dirac, 12Mouvement Brownien, 23généralisé, 24géométrique, 34, 55Novikov, 51ProcessCIR -, 65Processusétagé, 39adapté, 14càdlàg, 14càlàg, 14continu, 14croissant, 14d’Itô, 41gaussiens, 15prévisible, 14Processus <strong>de</strong>CIR, 57Cox-Ingersoll-Ross, 56Markov, 20Ornstein-Uhlenbeck, 36Vasicek, 37Promena<strong>de</strong> aléatoire, 24Propriété <strong>de</strong> Markov, 26, 50Scale functionfor Bessel Processes, 59Scaling, 26for squared Bessel processes , 60Sturm-Liouville equation, 64Temps d’arrêt, 19Temps d’atteinte, 30loi du -, 31transformée <strong>de</strong> Laplace du -, 30Théorème83


84 in<strong>de</strong>xd’arrêt <strong>de</strong> Doob, 19<strong>de</strong> Lebesgue dominé, 13Théorème <strong>de</strong>Girsanov, 68Trajectoires, 28Transformée<strong>de</strong> Fourier, 10<strong>de</strong> Laplace, 10Transition <strong>de</strong>nsityfor a BES, 62for a BESQ, 61for a CIR, 65Tribu, 7engendrée, 8Tribu engendrée, 8Variance conditionnelle, 17

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!