17.07.2015 Views

Les Probabilités du Bonheur, et les Aplications des Processus de ...

Les Probabilités du Bonheur, et les Aplications des Processus de ...

Les Probabilités du Bonheur, et les Aplications des Processus de ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Les</strong> Probabilités <strong>du</strong> <strong>Bonheur</strong>, <strong>et</strong> <strong>les</strong> <strong>Aplications</strong> <strong><strong>de</strong>s</strong> <strong>Processus</strong><strong>de</strong> Markov <strong>et</strong> <strong>de</strong> Levy dans <strong>les</strong> Mathématiques financières, Fi<strong>les</strong>d’attente <strong>et</strong> FiabilitéMaster Mathématiques, Modélisation <strong>et</strong> SimulationFlorin Avram, Université <strong>de</strong> Pau1


Table <strong><strong>de</strong>s</strong> matières1 <strong>Processus</strong> <strong>et</strong> champs aléatoires 51.1 <strong>Les</strong> processus <strong>de</strong> Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Chaînes <strong>de</strong> Markov 72.1 L’évolution <strong>de</strong> la loi <strong>de</strong> probabilité d’une chaîne . . . . . . . . . . . . . . . . 72.2 Probabilités <strong>de</strong> transition en n étapes . . . . . . . . . . . . . . . . . . . . . . 82.3 Quelques exemp<strong>les</strong> <strong>de</strong> modélisation par <strong>les</strong> chaînes <strong>de</strong> Markov . . . . . . . . 92.4 Classification <strong><strong>de</strong>s</strong> états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.5 Le comportement limite <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov . . . . . . . . . . . . . . . . 112.5.1 Lois invariantes <strong>et</strong> lois asymptotiques . . . . . . . . . . . . . . . . . . 112.5.2 L’ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.5.3 Le théorème ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . 142.6 Marches aléatoires <strong>et</strong> relations <strong>de</strong> récurrence . . . . . . . . . . . . . . . . . . 142.6.1 Marches aléatoires sur R d . . . . . . . . . . . . . . . . . . . . . . . . 152.6.2 Moments <strong>et</strong> cumulants <strong><strong>de</strong>s</strong> marches aléatoires . . . . . . . . . . . . . 162.6.3 La métho<strong>de</strong> <strong>du</strong> conditionnement sur le premier pas . . . . . . . . . . 172.6.4 La ruine <strong>du</strong> joueur pour la marche aléatoire simple . . . . . . . . . . 182.6.5 Probabilités <strong>du</strong> bonheur/fonctions harmoniques . . . . . . . . . . . . 232.6.6 Marches aléatoires sur <strong>les</strong> graphes : distributions stationnaires . . . . 242.6.7 <strong>Les</strong> espérances <strong><strong>de</strong>s</strong> temps d’atteinte, <strong>et</strong> <strong>les</strong> problèmes <strong>de</strong> Dirichl<strong>et</strong> nonhomogènes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.6.8 Temps esperés <strong>de</strong> r<strong>et</strong>our . . . . . . . . . . . . . . . . . . . . . . . . . 272.6.9 Métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices . . . . . . . . . . . . . . . . . . . 312.6.10 Problèmes <strong>de</strong> premier passage sur un intervalle semi-infini . . . . . . 332.6.11 <strong>Les</strong> fonctions harmoniques <strong><strong>de</strong>s</strong> marches aléatoires <strong>de</strong> réseau (*) . . . . 342.6.12 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.7 Ou on voit que <strong>les</strong> probabilités <strong>de</strong> premier passage interviennent dans le comportementlimite <strong><strong>de</strong>s</strong> chaînes . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.7.1 Le cas purement absorbant : <strong>les</strong> probabilités d’absorbtion . . . . . . . 382.7.2 La distribution limite dans le cas faiblement ergodique . . . . . . . . 392.7.3 Echauffement pour le cas general . . . . . . . . . . . . . . . . . . . . 402.7.4 Le comportement limite <strong><strong>de</strong>s</strong> chaînes, par la <strong>de</strong>composition spectrale . 432.7.5 La structure probabiliste <strong>de</strong> la matrice <strong>de</strong> distributions a la longue . . 442.7.6 Le calcul <strong>de</strong> la distribution limite dans le cas général . . . . . . . . . 452.7.7 La périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482.7.8 Le théorème <strong>de</strong> Perron-Frobenius . . . . . . . . . . . . . . . . . . . . 492.7.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502


Organisation <strong>de</strong> la Journée d'Etu<strong><strong>de</strong>s</strong> « <strong>Les</strong> dispositifs artistiques contemporains :<strong>les</strong> enjeux d'une nouvelle organologie », le 9 mai 2011, Maison <strong>de</strong> la recherche <strong>et</strong>Département d'Etu<strong><strong>de</strong>s</strong> Musica<strong>les</strong>, Université Char<strong>les</strong> <strong>de</strong> Gaulle – Lille 3[en collaboration avec Vincent Tiffon]Communications :- « Synthèse FM <strong>et</strong> musiques populaires : Hit or miss ? », John Chowning <strong>et</strong> Jean-Clau<strong>de</strong> Riss<strong>et</strong> : pionniers <strong>de</strong> la computer music, Colloque organisé par François-Xavier Féron, 26 septembre 2014, Laboratoire Bor<strong>de</strong>laix <strong>de</strong> Recherche enInformatique (LaBRI).- « Vortex Temporum <strong>de</strong> Gérard Grisey », Présentation <strong>de</strong> l’œuvre à l'invitation <strong>de</strong>Philippe Guisgand dans le cadre <strong>de</strong> sa création par la compagnie Rosas, 4 décembre2013, Section Danse, Université Char<strong>les</strong> <strong>de</strong> Gaulle - Lille 3.- « Frank Zappa : xénochronique », Journées d'étu<strong>de</strong> « Hommage à Frank Zappa(1940-1993) » organisées par Pierre-Albert Castan<strong>et</strong> <strong>et</strong> Juli<strong>et</strong>te Boisnel, 3 décembre2013, GRHis – Université <strong>de</strong> Rouen.- « Le glissement plastique <strong>de</strong> l’enjeu d’interprétation dans <strong>les</strong> arts <strong><strong>de</strong>s</strong> sons : pour unformat d’in<strong>de</strong>xation verticale », Journées d’Informatique Musicale 2012 organiséespar l'AFIM <strong>et</strong> Numediart – Institute for new media technology, 9 mai 2012,Université <strong>de</strong> Mons, Belgique.- « XY : un exemple d'organologie appliquée », Polygonale 2012 « Autour <strong><strong>de</strong>s</strong>travaux <strong>de</strong> Bernard Stiegler », Rencontre annuelle <strong>du</strong> réseau <strong>de</strong> recherche interéco<strong>les</strong>d'architectures organisée par Jean-Christophe Gérard <strong>et</strong> Frank Verman<strong>de</strong>l, 31mars 2012, ENSAP Lille.- « Pour une transmission <strong>de</strong> la pratique <strong><strong>de</strong>s</strong> installations : l'exemple <strong>de</strong> l'installationXY », ARTLab : images numériques <strong>et</strong> art contemporain, Colloque organisé parJean-Paul Fourmentraux, 23 septembre 2011, Le Fresnoy, Tourcoing [encollaboration avec Vincent Tiffon].- « L'installation, médium <strong>de</strong> la performance », <strong>Les</strong> dispositifs artistiquescontemporains : <strong>les</strong> enjeux d'une nouvelle organologie, Journée d'Etu<strong>de</strong> <strong>de</strong>l'EDESAC, 9 mai 2011, Université Char<strong>les</strong> <strong>de</strong> Gaulle – Lille 3.- « Spatialisation(s) : Ambient music <strong>et</strong> dispositifs <strong>de</strong> projection sonore »,Le cinéma <strong>et</strong> ses spectateurs : mobilité, positions, constructions, Séminaire doctoralspécialité étu<strong><strong>de</strong>s</strong> cinématographiques organisé par Édouard Arnoldy <strong>et</strong> DorkZabunyan, 22 avril 2010, Université Char<strong>les</strong> <strong>de</strong> Gaulle – Lille 3.- « <strong>Les</strong> interfaces musica<strong>les</strong> : la question <strong><strong>de</strong>s</strong> instruments "aphones" », L'instrument<strong>de</strong> musique : approches ontologiques <strong>et</strong> esthétiques, Séminaire <strong>de</strong> recherche organisépar Bernard Sève, UMR 8163 – STL, 23 mars 2010, Université Char<strong>les</strong> <strong>de</strong> Gaulle –Lille 3.CV Romain Bricout, page 4/8


Chapitre 1<strong>Processus</strong> <strong>et</strong> champs aléatoiresBeaucoup <strong>de</strong> problèmes en physique, biologie, <strong>et</strong>c, ramène à l’étu<strong>de</strong> <strong><strong>de</strong>s</strong> champsaléatoires, qui sont <strong><strong>de</strong>s</strong> collections <strong><strong>de</strong>s</strong> variab<strong>les</strong> aléatoires X t , t ∈ I, où l’ensemble <strong><strong>de</strong>s</strong>indices I peut-être N d , Z d , R d , un ensemble fini, <strong>et</strong>c. Pour le cas <strong><strong>de</strong>s</strong> indices unidimmensionelsI = N(Z) <strong>et</strong> I = R on utilise aussi le nom processus stochastiques (à temps discr<strong>et</strong>,respectivement continu).Définition 1.0.1 Soit I un ensemble quelconque. On appelle processus aléatoire X in<strong>de</strong>xépar I toute famille (X t ) t∈I , <strong>de</strong> vecteurs aléatoires définis sur un même espace <strong>de</strong> probabilité(Ω, A, P ) <strong>et</strong> à valeurs dans d’états E. Celui la peu-être E = R p , C p , ou même un espace <strong><strong>de</strong>s</strong>fonctions comme E = C [0,∞) , C (p)[0,∞) , <strong>et</strong>c.Note : Lorsque E = R p <strong>et</strong> p = 1, une seule valeur est observée à chaque ”instant” t,alors que lorsque p > 1, plusieurs variab<strong>les</strong> sont observées <strong>et</strong> on parle <strong>de</strong> processus multidimensionnelsou multivariés.L’espace I est souvent le temps, ainsi :I = N : instants successifs à partir d’un instant initial t 0 .I = Z : instants successifs avant <strong>et</strong> après un instant t 0 .I = R ou R + : i<strong>de</strong>m mais processus à temps continu.I = Z 2 : images.I = Z 3 : modèle <strong>de</strong> la matière.Nous allons considèrer ici seulement <strong><strong>de</strong>s</strong> processus à indices unidimmensionels N, Z, R(<strong>les</strong> premièrs <strong>de</strong>ux cas étant appellés aussi séries chronologiques en statistique). L’étu<strong>de</strong> estfacilité alors par l’existence d’un ordre compl<strong>et</strong> entre <strong>les</strong> indices.Dans le cas <strong><strong>de</strong>s</strong> espaces d’états E finis ou dénombrab<strong>les</strong>, <strong>les</strong> variab<strong>les</strong> X i , i ∈ I sontappellées discrètes ; pour E = R d , on parle <strong><strong>de</strong>s</strong> variab<strong>les</strong> continues. Le cas discr<strong>et</strong> est le casplus simple, car il perm<strong>et</strong> d’éviter plusieurs d<strong>et</strong>ails téchniques (par exemple, dans ce cas,l’ensemble <strong><strong>de</strong>s</strong> evenements mesurab<strong>les</strong> pour une variable X i0 est simplement l’ensemble d<strong>et</strong>outes <strong>les</strong> parties <strong>de</strong> E).Pour modéliser un champs/processus il est necessaire <strong>de</strong> spécifier <strong>de</strong> manière consistentel’ensemble <strong>de</strong> toutes ses distributions jointes d’ordre fini.Définition 1.0.2 Soit X . = X t , t ∈ I un champs aléatoire <strong>et</strong> soit J ⊂ I un sous ensemblefini. On dénotera par X J la distribution jointe <strong><strong>de</strong>s</strong> variab<strong>les</strong> X t , t ∈ J. L’ensemble X J : J ⊂I, |J| < ∞ sera appellé la famille <strong><strong>de</strong>s</strong> distributions jointes d’ordre fini <strong>de</strong> X .En pratique, <strong><strong>de</strong>s</strong> propri<strong>et</strong>és supplementaires sont necessaires pour re<strong>du</strong>ire la complexitéinherente dans le modèle ci <strong><strong>de</strong>s</strong>su.5


<strong>Les</strong> processus à variab<strong>les</strong> X t indépendants sont simp<strong>les</strong> à utiliser, mais peut-être tropsimp<strong>les</strong> pour modéliser <strong><strong>de</strong>s</strong> phénomènes intéressants. dans ce cas, <strong>les</strong> distributions jointessont simplement <strong><strong>de</strong>s</strong> pro<strong>du</strong>its.Le prochaîne <strong>de</strong>gré <strong>de</strong> complexité est donné par <strong>les</strong> processus Markoviens. Ils incluent<strong>les</strong> marches aléatoires S n = ∑ ni=1 Z i, Z i i.i.d., mais c<strong>et</strong>te famille est aussi une trasformationsimple <strong><strong>de</strong>s</strong> processus à variab<strong>les</strong> indépendants, <strong>et</strong> ça simplifie son étu<strong>de</strong> (par exemple ladémonstration <strong>du</strong> CLT).La classe <strong><strong>de</strong>s</strong> processus Markoviens est extremement riche, avec une complexité qui<strong>de</strong>pend <strong><strong>de</strong>s</strong> ensemb<strong>les</strong> E, I.1.1 <strong>Les</strong> processus <strong>de</strong> MarkovDéfinition 1.1.1 -Propri<strong>et</strong>è <strong>de</strong> MarkovUn processus X = (X t ) t≥0, avec t unidimmensionel a la propri<strong>et</strong>è <strong>de</strong> Markov si, <strong>et</strong>seulement si ses probabilités conditionel<strong>les</strong> ne <strong>de</strong>pend pas <strong>du</strong> passé que par le passé imediat,i.e. ∀ 0 ≤ t0 < t 1 < · · · < t k < t , t i ∈ R, <strong>et</strong> ∀ e i0 , e i1 , ..., e ik , e i ∈ EP ([X t ∈ A] | [X t0 = e i0 , ..., X tk = e ik ]) = P ([X t ∈ A] | [X tk = e ik ])Interprétation <strong>de</strong> la propriété <strong>de</strong> Markov : si on considère que le processus est indicé parle temps, c<strong>et</strong>te propriété tra<strong>du</strong>it le fait que le présent ne dépend <strong>du</strong> passé qu’à travers lepassé immédiat.Un processus ayant la propri<strong>et</strong>è <strong>de</strong> Markov s’apelle processus <strong>de</strong> Markov.Exemp<strong>les</strong> : 2.3 <strong>et</strong> 2.1 <strong>de</strong> Ruegg, <strong>et</strong> <strong>les</strong> exemp<strong>les</strong> <strong>de</strong> Belisle.Définition 1.1.2 Matrice <strong><strong>de</strong>s</strong> transitionsPour tous 0 ≤ s ≤ t, pour tous i, j dans I, <strong>et</strong> pour chaque processus <strong>de</strong> Markov, ondéfinit <strong>les</strong> probabilités <strong>de</strong> transition par :p ij (s, t) = P ([X t = e j ] | [X s = e i ]) .Définition 1.1.3 Homogeneité <strong><strong>de</strong>s</strong> transitionsUn processus est dit homogène si, <strong>et</strong> seulement si :∀ i, j ∈ I , ∀ 0 ≤ s ≤ t , p ij (s, t) = p ij (0, t − s) .On note alors p ij (s, t)= p ij (t − s), <strong>et</strong> la matrice p ij (t) est appellée matrice <strong>de</strong> transitionaprès temps t.Hypothèse <strong>de</strong> travail : (H1) On ne considérera ici que <strong><strong>de</strong>s</strong> processus homogènes.L’exemple le plus simple <strong><strong>de</strong>s</strong> processus <strong>de</strong> Markov homogènes est fourni par <strong>les</strong> ”chaînes<strong>de</strong> Markov” en temps discr<strong>et</strong> <strong>et</strong> à espace d’états fini ou dénombrable.6


Chapitre 2Chaînes <strong>de</strong> MarkovOn considére maintenant le cas <strong><strong>de</strong>s</strong> processus X n observés en temps discr<strong>et</strong> : n =0, 1, 2, ....La propriété <strong>de</strong> Markov a lieu quand la loi conditionnelle <strong>de</strong> X n sachant (X 0 , X 1 , ..., X n )est la même loi que la loi conditionnelle <strong>de</strong> X n sachant X n−1 .Ces processus sont entièrement characterisés par leur matrice <strong>de</strong> transition p i,j (1) =P ([X n = e j ] | [X n−1 = e i ]) après temps 1, qu’on <strong>de</strong>notera par p i,j .Définition 2.0.4 Une chaîne <strong>de</strong> Markov (X n ) n∈Nest dite homogène si :∀ e i , e j ∈ E , P ([X n = e j ] | [X n−1 = e i ]) ne dépend pas <strong>de</strong> n.La matrice P = (p ij ) i,j∈I, appellée matrice <strong>de</strong> transition, est la plus importante characteristiqued’une chaîne. C<strong>et</strong>te matrice P est une matrice stochastique, c’est-à-dire unematrice telle que :1. ∀ i, j ∈ I , p ij ≥ 0 <strong>et</strong>2. ∀ i ∈ I , ∑ j∈Ip ij = 1 ; la somme <strong><strong>de</strong>s</strong> termes <strong>de</strong> chaque ligne égale à 1. En notationvectorielle, on a P 1 = 1, ou 1 <strong>de</strong>note un vecteur avec tous <strong>les</strong> composantes 1.Rémarque : Même qu’on utilise parfois le terme ”matrice” si E est infini, la theorie dans cecas est un peu differente.2.1 L’évolution <strong>de</strong> la loi <strong>de</strong> probabilité d’une chaîneDéfinition 2.1.1 Pour tout n <strong>de</strong> N <strong>et</strong> tout i <strong>de</strong> I, on note µ i (n) = P [X n = e i ] <strong>et</strong> µ (n) =(µ i (n)) i∈I. Le vecteur µ (n) définit une probabilité sur (E, P (E)) appelée loi à l’instant n.On appelle loi initiale <strong>de</strong> la chaîne (X n ) n∈Nle vecteur µ (0) .Exemple 2.1.1 Calculer <strong>les</strong> distributions µ (1) , µ (2) pour une marche sur le graphe papillon,en sachant que :a) le départ est surement à 0b) le départ est avec probabilités ega<strong>les</strong> en 0 ou en U, i.e. µ (0) = (1/2, 0, 0, 0, 1/2).En conditionnant sur la position k un pas en avant, on verifie que µ (1) = µ (0) P, <strong>et</strong>µ (n + 1) = µ (n) P (2.1)7


OUBAFigure 2.1 – Marche aléatoire simple sur le graphe papillonC<strong>et</strong> alors par in<strong>du</strong>ction on trouveµ (n) = µ (0) P n (2.2)Exemple 2.1.2 Soit (X n ) n∈Nune chaîne <strong>de</strong> Markov homogène sur(l’ensemble {1,)2}, <strong>de</strong>distribution initiale µ(0) = (µ 1 , µ 2 ) <strong>et</strong> <strong>de</strong> matrice <strong>de</strong> transition P = 1 − a ab 1 − bCalculez P{X 0 = 2, X 1 = 2}, c 2 (1) = P{X 1 = 2}, P{X 0 = 2|X 1 = 2}, P{X 0 = 2, X 1 =2, X 2 = 1}, c 2 (2) <strong>et</strong> P{X 0 = 2, X 2 = 1}.Ce <strong>de</strong>rnier exercice nous sugère la necessité d’étudier la probabilité <strong>de</strong> transition aprèsn étapes.2.2 Probabilités <strong>de</strong> transition en n étapesDéfinition 2.2.1 Pour tout n <strong>de</strong> N , on définit la matrice <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> transition en n étapes,( )elle est notée P (n) = p (n)ij où p (n)ij = P ([X n = e j ] | [X 0 = e i ]) .i,j∈INote : La distribution <strong>de</strong> X 1 en partant <strong>de</strong> X 0 = i, est donné par la ligne i <strong>de</strong> la matriceP , <strong>et</strong> la distribution <strong>de</strong> X n en partant <strong>de</strong> X n−1 = i est donné par la ligne i <strong>de</strong> la matrice P n .Théorème 2.2.1 <strong>Les</strong> matrices <strong>de</strong> transition en n étapes ont une structure <strong>de</strong> semi-group,i.e.P (m+n) = P (m) P (n) (2.3)Ce resultat très important s’appelle l’equation <strong>de</strong> Chapman-Kolmogorov .Démonstration: Soit (X n ) n∈Nune chaîne <strong>de</strong> Markov homogène <strong>de</strong> matrice <strong>de</strong> transitionP <strong>et</strong> <strong>de</strong> loi initiale µ (0), à valeurs dans (E = {e i ; i ∈ I} , P (E)). En conditionnant sur laposition k après m pas, on a :∀ i, j ∈ I , ∀ m, n ∈ N , p (m+n)ij= ∑ k∈Ip (m)ikp(n) kj8QED


Corollaire 2.2.1 P (n) = P n , i.e. le semi-groupe <strong><strong>de</strong>s</strong> matrices <strong>de</strong> transition est ”generé”par la matrice P <strong>de</strong> transition après temps 1.Demonstration : on montre ça par récurrence sur n, en partant <strong>de</strong> P (1) = P , <strong>et</strong> en tenantcompte que P (n+1) = P (n) P (par l’equation <strong>de</strong> Chapman-Kolmogorov (2.3)).Rémarque Comme illustré dans <strong>les</strong> exemple ci-<strong><strong>de</strong>s</strong>sus, en utilisant la distribution initaleµ (0) <strong>et</strong> la matrice <strong>de</strong> transition P on peut calculer la distribution µ (n) a n’importe queltemps, par exemple µ (1) , µ (2) .... <strong>et</strong> aussi <strong>les</strong> distributions jointes pour n’importe quelensemble fini <strong><strong>de</strong>s</strong> temps (en utilisant la loi <strong>de</strong> multiplication <strong><strong>de</strong>s</strong> probabilités conditionnel<strong>les</strong>).En eff<strong>et</strong>, on peut donner une formule explicite pour <strong>les</strong> distributions jointes d’ordre fini d’unechaîne, en fonction <strong>de</strong> la matrice <strong>de</strong> transition P <strong>et</strong> la distribution initiale µ(0).Théorème 2.2.2 Pour une chaîne <strong>de</strong> Markov, <strong>les</strong> distribution jointes sont données pour :∀t 0 < t 1 < · · · < t k , t i ∈ R, <strong>et</strong> ∀ e i0 , e i1 , ..., e ik ∈ E explicitement parP [X t0 = e i0 , ..., X tk = e ik ] = µ i0 (t 0 )P t 1−t 0i 0 ,i 1...P t k−t k−1i k ,i k−1(2.4)Remarque 2.2.1 Il est convenable d’i<strong>de</strong>ntifier une chaîne <strong>de</strong> Markov avec sa matrice d<strong>et</strong>ransition P , qui est l’element principal <strong>du</strong> ”<strong>du</strong>o” (P, µ(0)).Définition 2.2.2 La chaîne <strong>de</strong> Markov associé à une matrice stochastique P est la famille<strong><strong>de</strong>s</strong> mesures P µ(0) définies par (2.4), avec operateurs d’esperance associés E µ(0) (donc pourobtenir une seule mesure, il faut encore specifiér la mesure initiale µ(0)).2.3 Quelques exemp<strong>les</strong> <strong>de</strong> modélisation par <strong>les</strong> chaînes<strong>de</strong> MarkovPour modéliser une situation par une chaîne <strong>de</strong> Markov, on a besoin d’abord <strong>de</strong> choisirun espace d’états convenable tel que la propri<strong>et</strong>é <strong>de</strong> Markov est satisfaite, <strong>et</strong> ensuite <strong>de</strong>déterminer la matrice <strong>de</strong> transitions.Exemple 2.3.1 Un processus qui n’est pas une chaîne <strong>de</strong> Markov a priori, mais qu’on peut”rendre” Markov par un bon choix <strong>de</strong> l’espace d’états . Soit (X n ) n∈Nun processus à <strong>de</strong>uxétats, notés e 1 <strong>et</strong> e 2 . On suppose que <strong>les</strong> transitions entre <strong>les</strong> étapes n <strong>et</strong> n + 1 s’effectuentselon le procédé suivant :{Si Xn−1 = X n alors P ([X n+1 = e 1 ] | [X n = e i ]) = 3 4Si X n−1 ≠ X n alors P ([X n+1 = e 1 ] | [X n = e i ]) = 1 2a) Montrer que (X n ) n∈Nn’est pas une chaîne <strong>de</strong> Markov. b) Construire un espace d’étatsperm<strong>et</strong>tant <strong>de</strong> modéliser ce processus par une chaîne <strong>de</strong> Markov <strong>et</strong> donner alors son graphe.Solution : b) On construit l’espace d’états suivant : {e 1 ∗ e 1 , e 1 ∗ e 2 , e 2 ∗ e 1 , e 2 ∗ e 2 }. Surc<strong>et</strong>’espace, le processus <strong>de</strong>vient Markovien, <strong>et</strong> la matrice <strong>de</strong> transition s’écrit :⎛⎞3 10 04 4 P = ⎜ 0 0 1 12 2 ⎟⎝ 1 10 0 ⎠2 20 0 3 14 49


Exemple 2.3.2 Une companie d’assurance voiture a un système <strong>de</strong> bonus avecniveau 1 : 0% ré<strong>du</strong>ctionniveau 2 : 25%ré<strong>du</strong>ctioncinq niveaux pour <strong>les</strong> assurés sans sinistres déclarés : niveau 3 : 40% ré<strong>du</strong>ctionniveau 4 : 50% ré<strong>du</strong>ctionniveau 5 : 60% ré<strong>du</strong>ctionPour un assuré, la probabilité <strong>de</strong> ne pas avoir <strong>de</strong> sinistre dans un an est <strong>de</strong> 0.8. <strong>Les</strong> reg<strong>les</strong>selon on passe d’un niveau (état)à l’autre sont :Apr`s une année sans sinistre on passe au niveau supérieur suivant ou on reste auniveau 5Apr`s une année avec un ou plusieurs sinistreson diminue d’un niveau si l’année préce<strong>de</strong>nte, il n’y a pas eu <strong>de</strong> déclaration <strong><strong>de</strong>s</strong>inistre.on diminue <strong>de</strong> <strong>de</strong>ux niveaux si l’année préce<strong>de</strong>nte il y a eu au moins unedéclaration <strong>de</strong> sinistre.1. Notons par X(t) le niveau,soit 1, 2, 3, 4 ou 5, <strong>de</strong> l’assuré pour l’année t. Expliquezpourquoi {X(t)} ∞ t=1 n’est pas une chaîne <strong>de</strong> Markov.2. En augmentant le nombre <strong>de</strong> niveaux, définissez un nouveau processus stochastique{Y (t)} ∞ t=1 qui soit Markov <strong>et</strong> <strong>de</strong> telle manière que Y (t) représente le niveau <strong>de</strong> ré<strong>du</strong>ctionpour l’assuré dans l’année t.3. Dé<strong>du</strong>ire la matrice <strong>de</strong> transition pour la chaîne <strong>de</strong> Markov {Y (t)} ∞ t=1.Solution :1. {X(t)} n’est pas Markov parce que, par exemple, P[X t+1 = 3 | X t = 4, X t−1 = 3, . . .]ne peut pas se ré<strong>du</strong>ire à P[X t+1 = 3 | X t = 4].2. Définition <strong><strong>de</strong>s</strong> nouveaux niveaux :3=40% ré<strong>du</strong>ction c<strong>et</strong>te année, apr`s 25% l’année <strong>de</strong>rnière4=50% ré<strong>du</strong>ction c<strong>et</strong>te année, apr`s 40% l’année <strong>de</strong>rnière3a=40% ré<strong>du</strong>ction c<strong>et</strong>te année, apr`s 50% l’année <strong>de</strong>rnière4a=50% ré<strong>du</strong>ction c<strong>et</strong>te année, apr`s 60% l’ann’ee <strong>de</strong>rnière3. La matrice <strong>de</strong> transition est alors1 2 3 4 5 3a 4a1 0.2 0.8 0 0 0 0 02 0.2 0 0.8 0 0 0 03 0 0.2 0 0.8 0 0 04 0 0 0 0 0.8 0.2 05 0 0 0 0 0.8 0 0.23a 0.2 0 0 0.8 0 0 04a 0 0.2 0 0 0.8 0 0Exemple 2.3.3 Supposons que une pluie eventuelle <strong>de</strong>main <strong>de</strong>pend <strong>de</strong> la situation <strong>du</strong> tempsdans <strong>les</strong> trois jours précé<strong>de</strong>nts, ainsi : a) S’il y a eu <strong>de</strong> la pluie dans <strong>les</strong> <strong>de</strong>ux jours précé<strong>de</strong>nts,alors il va pleuvoir avec probabilité .8. b) S’il y a pas eu <strong>de</strong> la pluie dans aucun <strong><strong>de</strong>s</strong> troisjours précé<strong>de</strong>nts, alors il va pleuvoir avec probabilité .2. c) Autrement, la situation va <strong>et</strong>rela meme comme dans le jour prece<strong>de</strong>nt avec probabilité .6. Modéliser c<strong>et</strong>te situation par unechaîne <strong>de</strong> Markov, en donnant l’espace <strong><strong>de</strong>s</strong> états <strong>et</strong> la matrice <strong>de</strong> transition.2.4 Classification <strong><strong>de</strong>s</strong> étatsDéfinition 2.4.1 Soient e i <strong>et</strong> e j <strong>de</strong>ux éléments <strong>de</strong> E. On dit que e i con<strong>du</strong>it à e j (on notee i → e j ) ssi il existe n > 0 tel que p (n)ij > 0 <strong>et</strong> on dit que e i <strong>et</strong> e j communiquent (<strong>et</strong> on notee i ↔ e j ) si e i con<strong>du</strong>it à e j <strong>et</strong> e j con<strong>du</strong>it à e i .10


Rémarque : la relation ” ↔ ” est clairement symétrique, reflexive <strong>et</strong> transitive. alors,elle partage l’espace d’états dans <strong><strong>de</strong>s</strong> classe d’équivalence.Définition 2.4.2 On appelle classes <strong>de</strong> la chaîne : <strong>les</strong> classes d’équivalence in<strong>du</strong>ites par larelation ” ↔ ” sur E.Définition 2.4.3 Une classe d’equivalence dans une chaîne <strong>de</strong> Markov finie qui n’a pas d<strong>et</strong>ransitions vers l’exterieur est dite récurente ; <strong>les</strong> autres classes s’appellent transitoires.Rémarque : La distinction entre elements transients <strong>et</strong> recurents a une gran<strong>de</strong> portéesur la valeur <strong><strong>de</strong>s</strong> limites lim n→∞ P n (i, j). On verra que pour j transient, elle est toujours 0.Définition 2.4.4 Le graphe <strong>de</strong> communication d’une chaîne est un graphe sur <strong>les</strong> états (indiquéspar <strong><strong>de</strong>s</strong> points <strong>du</strong> plan), avec <strong><strong>de</strong>s</strong> cotés représentant <strong>les</strong> transitions possib<strong>les</strong> (indiquéspar <strong><strong>de</strong>s</strong> flèches, avec la valeur <strong>de</strong> la probabilité <strong>de</strong> transition notée au <strong><strong>de</strong>s</strong>sus).2.5 Le comportement limite <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov2.5.1 Lois invariantes <strong>et</strong> lois asymptotiquesUne question très importante pour <strong>les</strong> chaînes <strong>de</strong> Markov est <strong>de</strong> déterminer <strong>les</strong> distributions“asymptotiques/a la longue/limites” d’une chaîne specifié par µ(0) <strong>et</strong> P :π(∞) µ(0) = π(∞) = limn→∞µ (n) = limn→∞µ(0)P n (2.5)A priori, il pourrait y exister une limite asymptotiques différente (2.5) pour chaquedistribution <strong>de</strong> départ µ(0). Plus précisement, on pourrait avoir <strong><strong>de</strong>s</strong> distributions limitedifférentes π(∞) i pour chaque point <strong>de</strong> départ sur µ(0) = δ i .Remarque 2.5.1 Comme δ i P n est précisement la ligne i <strong>de</strong> la matrice P n , on trouve par(2.5) que <strong>les</strong> limites asymptotiques π(∞) i pour chaque point <strong>de</strong> départ nonaléatoire possiblei = 1, ..., I sont précisement <strong>les</strong> lignes <strong>de</strong> la matriceP = lim P nn→∞. On appelera c<strong>et</strong>te matrice la matrice <strong>de</strong> transition asymptotique. En plus, ces vecteurs <strong>de</strong>probabilité sont <strong>les</strong> points extremaux <strong>de</strong> l’ensemble <strong><strong>de</strong>s</strong> toutes <strong>les</strong> distributions asymptotiquespossib<strong>les</strong>.Alors, la question <strong>de</strong> l’ergodicité = existence + unicité <strong>de</strong> la distribution asymptotiquesest equivalente à la question :Question (ERG) : Est-ce-que la limite matrice P = lim n→∞ P n existe <strong>et</strong> estce-queelle a <strong><strong>de</strong>s</strong> lignes i<strong>de</strong>ntiques, i.e. est-ce-que on a P = 1π ? (ici 1 <strong>de</strong>note unvecteur colonne <strong>et</strong> π un vecteur ligne).<strong>Les</strong> reponses aux questions (E),(U) <strong>et</strong> (ERG) peuvent-être abordées par la structurespectrale (valeurs propres, vecteurs propres) speciale <strong>de</strong> la matrice P , en utilisant le théorème<strong>de</strong> Perron-Frobenius pour <strong>les</strong> espace d’états finies.<strong>et</strong> encore <strong><strong>de</strong>s</strong> autres limites données par l’ensemble convexe engendré par π(∞) i , i ∈ E.Définition 2.5.1 L’ensemble <strong><strong>de</strong>s</strong> distributions limite π(∞) µ(0) d’une chaine P, obtenues envariant la distribution initiale µ(0), sera appellé l’ensemble <strong><strong>de</strong>s</strong> distributions asymptotiques.11


ReqÉquations d’équilibre/stationnarité/invarianceRemarque 2.5.2 En supposant que la limite (2.5) existe (ce qu’il n’y est pas toujours lecas), on voit par µ(n + 1) = µ(n)P que chacune <strong>de</strong> c<strong>et</strong>tes distributions “a la longue” doitsatisfaire <strong>les</strong> équations π(∞) = π(∞)PDéfinition 2.5.2 <strong>Les</strong> équationsπ = πP (2.6)sont appelées équations d’équilibre/stationnarité/invariance, <strong>et</strong> un vecteur <strong><strong>de</strong>s</strong> probabilitésqui <strong>les</strong> satisfait est appelé distribution stationnaire ou invariante.Autrement dit : une distribution stationnaire π est un vecteur <strong>de</strong> probabilités qui est aussivecteur propre a gauche <strong>de</strong> P associé à la valeur propre 1.Remarque 2.5.3 Le nom stationnaire vient <strong>du</strong> fait que si µ(0) = π, alors on a µ(n) = πpour chaque n.Par la rémarque (2.5.2), il suit que :inc0Corollaire 2.5.1 <strong>Les</strong> distributions asymptotiques d’une chaîne <strong>de</strong> Markov homogène s<strong>et</strong>rouvent parmi <strong>les</strong> distributions stationnaires.Le système d’équilibre (2.6) est donc la clé <strong>du</strong> calcul <strong><strong>de</strong>s</strong> distributions asymptotiques. Deuxquestions fondamenta<strong>les</strong> ici sont cel<strong>les</strong> <strong>de</strong> l’existence d’au moins une solution, <strong>et</strong> <strong>de</strong> l’unicité.Questions (E-U) : 1) Est-ce que c’est possible qu’il n’existent pas <strong><strong>de</strong>s</strong> vecteurs<strong><strong>de</strong>s</strong> probabilités qui satisfont le système d’équilibre (2.6) (i.e. est-ce que c’estpossible qu’il n’y ait pas <strong><strong>de</strong>s</strong> vecteurs propres pour la valeur propre 1 qui onttoutes <strong>les</strong> composants nonnégatives) ? 2) Est-ce que c’est possible qu’il existentplusieurs vecteurs <strong><strong>de</strong>s</strong> probabilités qui satisfont le système d’équilibre (2.6) ?Une autre question fondamentale est si dans la presence d’une solution unique <strong>du</strong>système d’équilibre (2.6), elle sera forcement ”attractive”, donc il y aura <strong>de</strong> la convergencelim n→∞ µ(0)P n = π pour n’importe quel µ(0).Dans la términologie <strong><strong>de</strong>s</strong> systêmes dynamiques, c<strong>et</strong>te situation correspond au cas quandl’équation d’évolution µ(n + 1) = µ(n)P adm<strong>et</strong> un seul point invariant stable, le basind’attraction <strong>du</strong> quel est tout l’éspace (donc toutes <strong>les</strong> orbites qui partent <strong>de</strong> n’importe quelµ(0) convergent vers π). Mais, il y a aussi <strong><strong>de</strong>s</strong> situations plus compliquées :Exemple 2.5.1 L’inexistence <strong>de</strong> la limite P = lim n→∞ P n pour <strong>les</strong> chaînes cycliques.La limite P n’existe pas toujours, comme on voit immediatement en examinantune chaîne <strong>de</strong> Markov qui bouge cycliquement sur <strong>les</strong> noeuds d’un graphe. Par exemple, pourn = 3, avec(la matrice)<strong>de</strong> transition( )0 1 00 0 1P = 0 0 1 , on a : P 3n = I 3 , P 3n+1 = P <strong>et</strong> P 3n+2 = P 2 = 1 0 0 .1 0 00 1 0On voit immediatement que la suite P, P 2 , P 3 = I, P 4 = P, ... est cyclique <strong>et</strong> donc sanslimite.Ici, la distribution stationnaire π = (1/3, 1/3, 1/3) est unique, mais instable, <strong>et</strong> toutl’espace se <strong>de</strong>compose dans <strong><strong>de</strong>s</strong> cyc<strong>les</strong> invariants instab<strong>les</strong> d’ordre 3.12


<strong>Les</strong> équations d’équilibre localExemple 2.5.2 Pour une marche aléatoire X t , t = 0, 1, 2, ... sur un graphe formé <strong>de</strong><strong>de</strong>ux t<strong>et</strong>rahèdres superposés, calculer :1. L’ésperance en partant <strong>de</strong> U <strong>du</strong> nombre <strong>de</strong> pas T O jusq’au coin opposé O.Indication :Utiliser la symm<strong>et</strong>rie.2. L’ésperance en sortant <strong>de</strong> O <strong>du</strong> nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.3. La probabilité p A = P A {X T = U}, ou T = min[T U , T O ].4. La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois (k =0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.5. <strong>Les</strong> probabilités stationnaires <strong>du</strong> chaque noeud. Indication : Devinez la rèponse <strong>et</strong>montrez qu’elle satisfait le systême <strong><strong>de</strong>s</strong> équations d’équilibre.2.5.2 L’ergodicitéUn cas trés fréquent dans <strong>les</strong> applications <strong>et</strong> quand il n’y a qu’une distribution stationnaireπ, qui coinci<strong>de</strong> aussi avec la distribution limite pour toutes <strong>les</strong> points <strong>de</strong> départinitials possib<strong>les</strong>. Alors, par le corrollaire (2.5.1), la distribution limite est in<strong>de</strong>pendante <strong>de</strong>la distribution <strong>de</strong> départ, est egale à π. Nous allons appeler ça le cas ergodique.Définition 2.5.3 On appelle une chaîne à matrice <strong>de</strong> transition P ergodique lorce’que ladistribution limite π(∞) = π(∞)(µ(0)) = lim n→∞ µ (n) existe <strong>et</strong> est unique, in<strong>de</strong>pen<strong>de</strong>ment<strong>de</strong> la distribution <strong>de</strong> départ.Note : Dans le cas <strong><strong>de</strong>s</strong> espace d’états dénombrable, il est important <strong>de</strong> distinguer<strong>les</strong> <strong>de</strong>ux cas quand la distribution limite satisfait π i > 0, ∀i <strong>et</strong> le cas quand elle satisfaitπ i = 0, ∀i. Nous appelerons ces <strong>de</strong>ux cas ergodique positive <strong>et</strong> ergodique nul (ce <strong>de</strong>rniercas étant impossible pour <strong><strong>de</strong>s</strong> espace d’états finies). Dans la literature, le terme ergodiquesignifie d’habitu<strong>de</strong> ce que nous appelons ici ergodique positive.inc Remarque 2.5.4 Une chaîne ayant <strong><strong>de</strong>s</strong> distributions limite en partant <strong>de</strong> chaque point i,<strong>et</strong> ayant une distribution stationnaire unique π est ergodique (i.e. toutes <strong>les</strong> distributionasymptotiques doivent coinci<strong>de</strong>r avec π).L’abondance <strong>du</strong> cas ergodique est expliquée par la décomposition spectrale :Lemme 2.5.1 Une matrice A <strong>de</strong> dimension n ayant un ensemble <strong>de</strong> n vecteurs propres àdroite in<strong>de</strong>pendants d i , <strong>et</strong> donc aussi un ensemble <strong>de</strong> n vecteurs propres à gauche in<strong>de</strong>pendantsl ′ i, calculés en prenant <strong>les</strong> lignes <strong>de</strong> la matrice D −1 , où D = (d 1 | d 2 | ... d n )peut-être <strong>de</strong>composé :A = ∑ iλ i d i l ′ ioù λ i sont <strong>les</strong> valeurs propres.Ce cas a lieu par exemple quand tous <strong>les</strong> valeurs propres <strong>de</strong> P sont distincts (”le casgénérique”). Si en plus la seul valeur propre <strong>de</strong> mo<strong>du</strong>le 1 est 1, <strong>et</strong> avec multiplicité 1 (”le casgénérique”), il suit immediatement quelim P n = 1 πn→∞Nous examinons maintenant pour ergodicité un exemple ou P n <strong>et</strong> π se calculent explicitement:13


Exemple 2.5.3 Chaîne a <strong>de</strong>ux ètats. Soient a, b ∈ [0, 1] <strong>et</strong> la matrice <strong>de</strong> transition :P =( 1 − a ab 1 − b)a) Montrer en calculant <strong>les</strong> valeurs <strong>et</strong> vecteurs propres queP n = 1a + b( b ab a)+(1 − a − b)na + b( a −a−b bb) Montrez que avec a, b ∈ (0, 1), la limite P = lim n→∞ P n =calculez c<strong>et</strong>te limite dans tous <strong>les</strong> cas possib<strong>les</strong>.)( ba+bba+baa+baa+b). En suite,En conclusion, on voit que avec a, b ∈ (0, 1), la limite matrice P = lim n→∞ P n existe<strong>et</strong> qu’elle a <strong><strong>de</strong>s</strong> lignes i<strong>de</strong>ntiques, donc la chaîne est ergodique : la distribution limitebπ = (a + b , a) est unique. Elle est aussi l’unique distribution stationnaire.a + b2.5.3 Le théorème ergodiqueLe cas ergodique est le plus important dans <strong>les</strong> applications, a cause <strong>du</strong> :moyThéorème 2.5.1 Soit X(n) une chaîne <strong>de</strong> Markov ergodique à distribution asymptotiquesπ, <strong>et</strong> soit une fonction ”coût” f tel que la ”moyenne spatiale” Eπf(X . ) = ∑ j∈E π jf j est bien<strong>de</strong>finie. Alors, la moyenne temporelle <strong><strong>de</strong>s</strong> coûts converge presque partout vers la moyennespatiale, for any initial distribution :limn→∞ n−1n∑f(X n ) = ∑ π j f jj∈Ei=1Nous examinons maintenant un exemple ou P n n’est pas disponible explicitement ; quandmême, la distribution stationnaire π est unique <strong>et</strong> donc la limite <strong><strong>de</strong>s</strong> coûts moyenne temporel<strong>les</strong>se calculent facilement :Exercice 2.5.1 Montrez que la marche aléatoire sur le graph papillon a une distributionstationnaire unique π. Calculez l’esperance <strong>du</strong> coût moyenne <strong>de</strong> c<strong>et</strong>te marche, si f(A) =10, f(B) = 1 <strong>et</strong> <strong>les</strong> autres coûts sont 0.2.6 Marches aléatoires <strong>et</strong> relations <strong>de</strong> récurrenceMotivation : <strong>Les</strong> marches aléatoires sont parmi <strong>les</strong> modè<strong>les</strong> probabilistes <strong>les</strong> plus uti<strong>les</strong>(par exemple en physique, mathématiques financières, fi<strong>les</strong> d’attente, statistique, <strong>et</strong>c...). Ilssont aussi parmi <strong>les</strong> modè<strong>les</strong> <strong>les</strong> meilleurs compris, car ils perm<strong>et</strong>tent souvent <strong><strong>de</strong>s</strong> solutionsanalytiques.14


2.6.1 Marches aléatoires sur R dDéfinition 2.6.1 Marches aléatoires sur R d .Soit (Z n ) n∈Nune suite <strong>de</strong> variab<strong>les</strong> aléatoires réel<strong>les</strong> i.i.d (i.e. indépendantes <strong>et</strong> <strong>de</strong> mêmeloi), à valeurs en R d .Le processus X n ∈ R d , n = 0, 1, ... donné par la somme <strong>de</strong> ces variab<strong>les</strong>X n = X 0 + Z 1 + Z 2 + · · · + Z n , n ∈ N (2.7)s’appelle marche aléatoire. Comme alternative, la marche aléatoire peut-être <strong>de</strong>finierécursivement par la récurrenceX n = X n−1 + Z n (2.8)Exemple 2.6.1 Marches aléatoires sur Z d Typiquement, on s’interesse au cas où l’espaced’états est un maillage régulier comme Z d , i.e. X 0 , Z n ∈ Z d ont une distribution discrètep = (p i , i ∈ Z d ). Dans ce cas, nous avons à faire à une chaîne à espace d’états dénombrable.Exemple 2.6.2 Si en plus |Z n | = 1, i.e. p i ≠ 0 ssi i est un voisin <strong>de</strong> l’origine, le processus(2.7) est appelé une marche aléatoire simple.Exemple 2.6.3 Marches aléatoires sur Z Pour <strong>les</strong> marches sur Z, la matrice <strong>de</strong> transitionP = (pij = P{X n = j/X n−1 = i} = P{Z n = j − i}) i,j∈Na aussi la propriété que P i,j =p i−j , où p k = P{Z n = k} ; <strong>les</strong> matrices <strong>de</strong> c<strong>et</strong>te forme, i.e. à “diagona<strong>les</strong>” constantes,s’appellent matrices Toeplitz.Exemple 2.6.4 Pour une marche aléatoire simple en dimension d = 1, la distribution <strong>de</strong> Z nest <strong>de</strong> la forme pδ 1 + (1 − p) δ −1 , i.e. P [Z n = 1] = p <strong>et</strong> P [Z n = −1] = 1 − p avec 0 < p < 1.Si p = q = .5 on parle d’une marche aléatoire symm<strong>et</strong>rique, <strong>et</strong> avec p ≠ q on parled’une marche aléatoire biaisée.Extension : Si on remplace <strong>les</strong> probabilités p j par <strong><strong>de</strong>s</strong> probabilités p i,j := P Xn−1 =i[X n −X n−1 = j] on arrive à une chaine <strong>de</strong> Markov.Théorème 2.6.1 <strong>Les</strong> marches aléatoires sur R d ont la propriété <strong>de</strong> Markov.Démonstration: Ce résultat est assez facile à démontrer en général, en partant <strong>de</strong>(2.8), mais nous allons considérer seulement <strong>les</strong> marches aléatoires sur Z d , pour rester dansle cadre <strong><strong>de</strong>s</strong> processus à espace d’états dénombrable. Dans ce cas, il est suffisant d’exhiberla matrice <strong>de</strong> transition .Notes : 1) On a à faire ici à <strong><strong>de</strong>s</strong> sommes <strong><strong>de</strong>s</strong> v.a. i.i.d.. Donc, P n (0, :) la distribution<strong>de</strong> la somme ∑ ni=1 Z i, est donnée par la n-ième convolution <strong>de</strong> la distribution p <strong>de</strong> Z i (<strong>et</strong> lafonction génératrice <strong><strong>de</strong>s</strong> moments est la puissance n <strong>de</strong> la fonction génératrice <strong><strong>de</strong>s</strong> moments<strong>de</strong> p). Le comportement <strong><strong>de</strong>s</strong> puissances P n pour n → ∞ est lié au théorème <strong>de</strong> la limitecentrale.15


2.6.2 Moments <strong>et</strong> cumulants <strong><strong>de</strong>s</strong> marches aléatoiresExercice 2.6.1 <strong>Les</strong> moments <strong>et</strong> cumulants <strong>de</strong> la marche simple. Soit X 0 = 0 ∈ N lecapital initial d’un joueur. Au temps n = 1, 2, ..., le joueur gagnera Z n = 1 avec probabilité p<strong>et</strong> per<strong>de</strong>ra Z n = −1 avec probabilité 1 − p, où 0 < p < 1. Soit X n = X 0 + Z 1 + Z 2 + · · · + Z nson capital au temps n.Calculez :1. L’esperance <strong>du</strong> son gain e n = EX n .2. La variance <strong>du</strong> son gain v n = Var X n .3. La fonction génératrice <strong><strong>de</strong>s</strong> moments M(u, n) = Ee uX n.4. La cumulant generating function κ(u, n) = log(Ee uX n).Notes : 1) Il est clair que ces propriétés <strong>de</strong> linéarité (<strong>de</strong> l’espérance , <strong>de</strong> la variance, <strong>et</strong><strong>de</strong> la cumulant generating function ), sont vraies pour chaque marche aléatoire.2) La connaissance <strong>de</strong> la distribution ou <strong>de</strong> la fonction génératrice <strong><strong>de</strong>s</strong> moments d’unevariable X sont typiquement equivalents. Mais, pour une somme ∑ ni=1 Z i <strong><strong>de</strong>s</strong> v.a. i.i.d.,pendant que la comme distribution est la n-ième convolution p ∗,n <strong>de</strong> la p distribution <strong>de</strong> Z i ,la fonction génératrice <strong><strong>de</strong>s</strong> moments Ee θ ∑ ni=1 Z iest beaucoup plus simple à obtenir (ètant lan-i `me puissance <strong>de</strong> la fonction génératrice <strong><strong>de</strong>s</strong> moments Ee θZ 1).Exercice 2.6.2 Soit m n = m n (X), n = 0, 1, 2, ... <strong>les</strong> moments d’une va X, soit κ X (u) =log M X (u) = log( ∑ u nnm n! n) = ∑ u nnc n! n(X) la fonction génératrice <strong><strong>de</strong>s</strong> cumulants, où c n =c n (X) = ∂n κ(u)sont <strong>les</strong> cumulants.(∂u) n u=0a) Montrez (en utilisant eventuellement un logiciel symbolique) que ∀X, c 0 = 0, c 1 =m 1 , c 2 = Var (X) = m 2 − m 2 1, c 3 = m 3 − 3m 1 m 3 + 2m 3 1, <strong>et</strong>c.b) Montrez (en utilisant eventuellement un logiciel symbolique) que ∀X, m 2 = c 2 +c 2 1, m 3 = c 3 1 + 3c 1 c 2 + c 3 .Nt : 1) Le cumulant d’un ordre donné est un polynome dans <strong>les</strong> moments d’ordre plusp<strong>et</strong>it ou égal, <strong>et</strong> reciproquement.2) <strong>Les</strong> coefficients <strong>de</strong> l’expansion <strong><strong>de</strong>s</strong> moments en fonction <strong><strong>de</strong>s</strong> cumulants sont donné par<strong><strong>de</strong>s</strong> nombres <strong><strong>de</strong>s</strong> partitions.3) <strong>Les</strong> cumulants d’une variable centré (m 1 = 0) coinci<strong>de</strong> avec <strong>les</strong> moments jusqu’autroisième ordre. C’est le quatrième cumulant, la ”kurtosis”, donné dans le cas centré parc 4 = m 4 − 3m 2 2, qui joue un role important dans certaines tests statistiques (comme <strong>de</strong>nonnormalité, par exemple).Exercice 2.6.3 Pour la marche simple, calculez1. Le premier, <strong>de</strong>uxième <strong>et</strong> troisième cumulants κ i (n), i = 1, 2, 3 <strong>de</strong> X n , i.e. <strong>les</strong> premierstrois coefficients dans l’expansion κ(u, n) = ∑ i κ i(n)u i en puissances <strong>de</strong> u.2. Le <strong>de</strong>uxième moment <strong>de</strong> X n . Quelle est la particularité <strong>du</strong> cas p = 1/2 ?3. Le troisième moment <strong>de</strong> X n .16


2.6.3 La métho<strong>de</strong> <strong>du</strong> conditionnement sur le premier pasExercice 2.6.4 La marche aléatoire sym<strong>et</strong>rique. On cherche a trouver la probabilitéd’un joueur qui s’engage dans une série <strong>de</strong> parties (indépendantes) à un jeu où à l’issue <strong>de</strong>chaque partie il gagne 1F avec une probabilité 1/2 <strong>et</strong> perd 1F avec une probabilité 1/2, <strong>et</strong> quidéci<strong>de</strong> <strong>de</strong> s’arrêter <strong>de</strong> jouer dès qu’il aura B francs en poche, ou dès qu’il n’a plus d’argent.Pour tout n ∈ N, on note X n la fortune <strong>du</strong> joueur au bout <strong>de</strong> n parties, <strong>et</strong> X 0 = i sa fortuneà l’entrée dans le Casino.Ca revient a étudier la marche aléatoire sym<strong>et</strong>riqueX n = X 0 + Z 1 + Z 2 + · · · + Z n , X n ∈ Zavec P [Z n = 1] = P [Z n = −1] = 1/2, jusqu’au ”temps d’arrêt/sortie” T = min[T 0 , T B ]quand le process sort <strong>de</strong> l’interval [0, B] (en prenant 0 <strong>et</strong> B comme états absorbants). Ondénotera par E i l’esperance en commençant <strong>de</strong> i (conditionnant sur X 0 = i), <strong>et</strong> on <strong><strong>de</strong>s</strong>ignepar E l’événement que le joueur gagne, i.e.E = {x T = B} = [∃n ∈ N tel que X n = B, X k > 0, k = 1, ..., n − 1] .Pour tout i <strong>de</strong> {0, ..., B}, on pose :(la probabilité <strong>du</strong> ”bonheur”).b i = P (E | [X 0 = i])1. En supposant B = 3, enumerer <strong>et</strong> esquisser l’espace <strong>de</strong> tous <strong>les</strong> chemins <strong>du</strong> bonheur/ruinequi commencent avec X 0 = 1, en <strong>de</strong>veloppant ”l’arbre <strong>de</strong> toutes <strong>les</strong> possibilités”.Calculer la probabilité <strong>du</strong> chaque chemin, <strong>et</strong> verifier que leur somme vaut1.2. Expliquer graphiquement sur ”l’arbre <strong>de</strong> toutes <strong>les</strong> possibilités” <strong>les</strong> équations b 1 =1/2b 2 , b 2 = 1/2b 1 + 1/2, en assoc. Dé<strong>du</strong>iser b 0 , b 3 , <strong>et</strong> en suite b 1 , b 2 .3. En supposant B = 4, calculer b 1 , b 2 <strong>et</strong> b 3 .4. Calculer b i , i = 0, ..., B pour B quelconque.5. Calculez l’espérance <strong>du</strong> nombre <strong><strong>de</strong>s</strong> pas <strong>du</strong> jeux, pour B quelconque.R : On pourrait essayer <strong>de</strong> calculer b i en ajoutant <strong>les</strong> probabilités <strong>de</strong> tous <strong>les</strong> chemins <strong>du</strong>bonheur qui commencent avec X 0 = 1 (en regardant l’arbre <strong>de</strong> toutes <strong>les</strong> possibilités). Maiscomme c<strong>et</strong> arbe est (typiquement) infini <strong>et</strong> très compliqué, c<strong>et</strong>te analyse n’est pas facile. Parcontre, une approche ”diviser por conquérir” <strong>de</strong> décomposition <strong>de</strong> l’arbre dans ses branchesobtenues en conditionnent sur le premier pas ramm‘ene à <strong><strong>de</strong>s</strong>’équations linéaires faci<strong>les</strong> àrésoudre.C<strong>et</strong> exercice illustre trois idées :1. La puissance <strong>de</strong> la métho<strong>de</strong> <strong>du</strong> conditionnement sur le premier pas.2. Le calcul <strong><strong>de</strong>s</strong> esperances pour <strong>les</strong> chaînes <strong>de</strong> Markov comporte <strong><strong>de</strong>s</strong> systèmes linéairesavec une inconnue pour chaque état initial possible.3. <strong>Les</strong> systèmes associés avec un processus fixe implique toujours la même partie homogèneappellée ”operateur”. Dans le cas <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov en temps discr<strong>et</strong> <strong>et</strong>à espace d’états fini ou dénombrable, l’ operateur est simplement P − I, où P est lamatrice <strong>de</strong> transition P .Ces idées seront aprofondies dans <strong>les</strong> chapitres suivants, où nous regar<strong>de</strong>rons quelquesautres problèmes résolub<strong>les</strong> par le conditionnement sur le(s) premier(s) pas.17


5. Obtenez un système d’équations pour l’espérance <strong>du</strong> gain final f i = E i X T . Calculezc<strong>et</strong>te fonction pour p = q.6. Obtenez un système d’équations pour l’espérance <strong>du</strong> temps <strong>de</strong> jeu : t i = E i T . Calculezc<strong>et</strong>te fonction, pour p = q, <strong>et</strong> pour p < q, quand B → ∞.7. Obtenez un système d’équations pour l’espérance <strong>du</strong> ”coût cumulé d’inventoire” c i =E i∑ T −1t=0 X t. Calculez c<strong>et</strong>te fonction, pour p = q, <strong>et</strong> pour p < q, quand B → ∞.8. Obtenez un système d’équations pour w i = E i a T = ∑ k=0 P i[T = k]a k (qui est lafonction génératrice <strong><strong>de</strong>s</strong> probabilités P i [T = k]). Calculez c<strong>et</strong>te fonction, pour p ≠ q.9. Obtenez <strong>les</strong> équations <strong>de</strong> récurrence <strong>et</strong> <strong>les</strong> conditions frontière satisfaites par u x =E x a T g(X T ), a ∈ (0, 1) <strong>et</strong> par v x = E x [a T g(X T ) + ∑ T −1t=0 h(X t)], a ∈ (0, 1).Résolvons c<strong>et</strong> exercice en utilisant la métho<strong>de</strong> <strong>du</strong> conditionnement sur le premier pasZ 1 , l’idée <strong>de</strong> quelle est d’obtenir <strong><strong>de</strong>s</strong> relations <strong>de</strong> récurrence qui lient <strong>les</strong> valeurs <strong>de</strong> l’espéranceconditionnée à partir <strong>de</strong> tous <strong>les</strong> points <strong>de</strong> départ possib<strong>les</strong>.Nous verrons, en examinant <strong>les</strong> questions 2)-8) <strong>de</strong> c<strong>et</strong> exercice, qu’ils utilisent toutes lemême opérateur(Gf) n := (P − I)(f) n = p f n+1 + q f n−1 − f n (2.9) opla seule difference étant dans <strong>les</strong> conditions frontière <strong>et</strong> dans la partie nonhomogène. En plus,ils se regrouperont en <strong>de</strong>ux types <strong>de</strong> questions :1. ”Gain final esperé”, satisfaisant :f n = E n [g(X T )] = pf n+1 + qf n−1 ⇐⇒ (Gf) n = 0,F (0) = g(0), F (B) = g(B)2. ”Coût total accumulé esperé”∑T −1f n = E n [ h(X i )] = h(n) + pf n+1 + qf n−1 ⇐⇒ (Gf) n = 0, f(0) = 0, f(B) = 0Solution :1. b 0 = 0, b B = 102. Gain final esperé, g(x) = 1 x=B .En conditionnant, on trouve :b n = P n [X(T ) = B]= p P n [X(T ) = B/X(1) = n + 1] + q P n [X(T ) = B/X(1) = n − 1]= p b n+1 + q n−1 1 ≤ n ≤ B − 1carP n [X(T ) = B/X(1) = n ± 1] = P[X(T ) = B/X(0) = n, X(1) = n ± 1] =P[X(T ) = B/X(1) = n ± 1] = P[X(T ) = B/X(0) = n ± 1] = b n±1en utilisant la propri<strong>et</strong>é <strong>de</strong> Markov <strong>et</strong> l’homogeneité.19


3. Quand p = q = 1/2, b x = P x [X(T ) = B] satisfait :b n = b n+12 + b n−12b B = 1b 0 = 0for any 1 ≤ n ≤ B − 1La métho<strong>de</strong> <strong>de</strong> résolution <strong><strong>de</strong>s</strong> équations <strong>de</strong> récurrence homogènes à coefficients constantscommence en cherchant <strong><strong>de</strong>s</strong> solutions <strong>de</strong> la forme b n = r n . Si <strong>les</strong> racines <strong>de</strong> l’équationauxiliaire sont distinctes, la solution générale est :b n = k 1 r n 1 + k 2 r n 2où k 1 , k 2 sont déterminés en utilisant <strong>les</strong> conditions frontière.Ici, cherchant <strong><strong>de</strong>s</strong> solutions puissances r x ramène à l’équation r 2 − 2r + 1 = 0 à <strong>de</strong>uxracines i<strong>de</strong>ntiques r 1,2 = 1. La solution générale est b x = A + Bx. <strong>Les</strong> conditionsfrontière donnent b x = x B .Solution finale si p ≠ q : b n = 1−(q/p)n .1−(q/p) B4. a i +b i = 1, <strong>et</strong> donc la marche sera eventuellement absorbé dans une <strong><strong>de</strong>s</strong> <strong>de</strong>ux frontiéres(elle ne peut pas rester à l’intérieur indéfinimment).Pour p = q, lim B→∞ a n = lim B→∞B−nB= 1. Autrement,lim a (q/p) n − (q/p) Bn = lim=B→∞ B→∞ 1 − (q/p) B{(q/p) n ,1, q > p.q < p5. f x = E x [X(T )] (valeur finale ésperée) satisfait Gf(x) = 0, f(0) = 0, f(B) = B. Pourp = q, la solution f x = x est obtenue comme ci-<strong><strong>de</strong>s</strong>sus :f x = f x+12f B = Bf 0 = 0+ f x−12for any 1 ≤ x ≤ B − 1(C’est aussi une fonction ”harmonique”, mais avec conditions frontière différentes.)6. t x = E x [T ] (temps <strong>de</strong> sortie ésperé) est un coût total accumulé esperé (obtenu enprenant h(x) = 1), qui satisfait le système inhomogène Gt(x) + 1 = 0, t(0) = 0, t(B) =0.Pour p = qt x = t x+12 + t x−12t B = 0t 0 = 0+ 1 for any 1 ≤ x ≤ B − 1La solution d’une équation nonhomogène est donnée par20t x = t p (x) + h(x)


où t p (x) est une solution particulière <strong>et</strong> h(x) est la solution générale <strong>de</strong> l’équationhomogène. Commençons par l’équation homogène.La solution générale homogène (”fonction harmonique”) h(x) = A + Bx pour c<strong>et</strong>opérateur a été déjà obtenue ci-<strong><strong>de</strong>s</strong>sus.Nous aimerions maintenant trouver une solution particulière t p (x) <strong>de</strong> l’équation Gt p (x) =−1 <strong>de</strong> la même forme que la partie nonhomogène −1 <strong>de</strong> l’équation, donc t p (x) = C;mais, comme <strong>les</strong> constantes, <strong>et</strong> puis aussi <strong>les</strong> fonctions linéaires vérifient l’équationhomogène Gt p (x) = 0, nous <strong>de</strong>vrons modifier <strong>de</strong>ux fois c<strong>et</strong>te forme en multipliant parx, en arrivant donc à t ( x) = Cx 2 . Comme Gx 2 = 2x(p − q) + 1 = 1, on trouve C = −1<strong>et</strong> finalement la solution particulière t p (x) = −x 2 .La solution générale est donc t(x) = −x 2 + A + Bx <strong>et</strong> <strong>les</strong> conditions frontière ramènentà t x = x(B − x).Pour p ≠ qt x = pt x+1 + qt x−1 + 1 for any 1 ≤ x ≤ B − 1t B = 0t 0 = 0La solution generale homogène avec p ≠ q est h(x) = k 1 (q/p) n + k 2 <strong>et</strong> le termenonhomogène 1 sugere une solution particulière constante k, mais comme ça satisfaitl’équation homogène, on modifie à kn. Finalement, k = 1 . q−pLa solution particulière est t p (x) =x ; elle satisfait <strong>de</strong>ja t q−p p(0) = 0. La partie homogèneh(x) = t x − t p (x) <strong>de</strong>vra aussi satisfaire h(0) = 0 <strong>et</strong> donc elle sera <strong>de</strong> la forme h(x) =A˜h(x) où ˜h(x) = ((q/p) x − 1).En <strong>de</strong>mandant que t n =n + q−p A(q/p)n − 1) satisfait la condition frontière t B = 0 ontrouve :t n = t p (n) − t p (B) ˜h(n)˜h(B) = nq − p − B (q/p) n − 1q − p (q/p) B − 1 .{∞si p > qLa limite quand B → ∞ est t n =; on peut aussi obtenir c<strong>et</strong> p (n) =n si p < qq−presultat en utilisant l’approximation détérmiste X n − X 0 ∼ nE(Z 1 ), appellée aussilimite flui<strong>de</strong>.7. c x = E x [ ∑ T −10X(t)] (coût total d’inventaire ésperé) satisfait le système inhomogèneGc(x) + x = 0, c(0) = 0, c(B) = 0.Pour p = q :c x = c x+12 + c x−1+ x for any 1 ≤ x ≤ B − 12c B = 0c 0 = 0Une solution particulière est c p (x) = −x3 . Finalement, on arrive à c(x) = x(B2 −x 2 ).3 3Pour p ≠ q, une solution particulière est c p (x) =x2 (elle satisfait <strong>de</strong>ja c 2(q−p) p(0) = 0).La partie homogène satisfaisant h(0) = 0 sera toujours h(x) = A˜h(x) où ˜h(x) =((q/p) x − 1).21


En <strong>de</strong>mandant que c n = c p (n) + A(q/p) n − 1) satisfait la condition frontière c B = 0 ontrouve :c n = c p (n) − c p (B) ˜h(n)˜h(B)La limite quand B → ∞ est c n ={∞ si p > qc p (n) si p < q.8. On arrive a w(x) = A 1 z1 x + A 2 z2 x , où z i sont <strong>les</strong> racines <strong>de</strong> pz 2 − a −1 z + q = 0, <strong>et</strong> A isatisfont A 1 z1 B + A 2 z2 B = 1, A 1 + A 2 = 1 <strong>et</strong> w(x) = zx 1 −zx 2 +zx 1 zx 2 (zB−x 1 −z B−x2 )z1 Z−zB 29. On a u x = g(x), pour x ∈ {0, B}, <strong>et</strong> le conditionnement donne la relation : u x =E x [a T g(X τ )] = a(pu x+1 + qu x−1 ).v x = g(x), pour x ∈ {0, B}, <strong>et</strong> le conditionnement donne la relation : v x = a(pv x+1 +qv x−1 ) + h(x).Conclusion : Nous avons vue dans ces exercices une <strong><strong>de</strong>s</strong> idées <strong>les</strong> plus importantes <strong>de</strong>la modélisation Markovienne : <strong>les</strong> ésperances, vues comme fonctions <strong>de</strong> l’état initial,satisfont certaines équations qui font toujours intervenir un opérateur associéfixe, appelé générateur <strong>du</strong> processus, même que <strong>les</strong> conditions frontière, termesnon-homogènes, <strong>et</strong> d’autre ”d<strong>et</strong>ails” (comme la presence/absence d’une multiple<strong>de</strong> l’operateur i<strong>de</strong>ntité) peuvent varier.<strong>Les</strong> equations s’obtient facilement par la m<strong>et</strong>ho<strong>de</strong> <strong>de</strong> conditionnement sur le premierpas, en utilisant la propriété <strong>de</strong> l’oubli <strong>du</strong> passé <strong><strong>de</strong>s</strong> processus <strong>de</strong> Markov ; mais, il y a <strong><strong>de</strong>s</strong>parties specifiques a chaque probléme, qui ne sont pas oubliées !Il s’avère que <strong>les</strong> mêmes èquations décrivent la solution <strong><strong>de</strong>s</strong> problèmes analogues pourtoutes <strong>les</strong> chaîne <strong>de</strong> Markov à espace d’états comptable, <strong>et</strong> avec <strong><strong>de</strong>s</strong> états absorbants – voirla prochaîne section.Par exemple, pour <strong>les</strong> chaînes <strong>de</strong> Markov, l’operateur associé est G = P − I, où P est lamatrice <strong>de</strong> transition, <strong>et</strong> pour le cas particulier d’une marche aléatoire X t = ∑ ti=1 Z i avecp k = P [Z i = k], k ∈ [−c, d] on a encore G = P − I, où P = ∑ k p kF k <strong>et</strong> F est l’operateur d<strong>et</strong>ranslation (F f) k = f k+1 , k ∈ Z.Alors, nous obtendrons <strong><strong>de</strong>s</strong> èquations similaires pour <strong>les</strong> problèmes respectives, juste enremplaçant l’ancien operateur par le nouveau.On rencontre la même situation pour toute la classe <strong><strong>de</strong>s</strong> processus ”<strong>de</strong> Markov”, X t ,différents qu’el<strong>les</strong> soient, vivant sur <strong><strong>de</strong>s</strong> espaces S consi<strong>de</strong>rablement plus compliqués, la seuledifference étant que l’operateur G X : F (S)− > F (S) associé a ces processus sera pluscompliqué !Par exemple, <strong>les</strong> problèmes <strong>de</strong> c<strong>et</strong>te section ont aussi <strong><strong>de</strong>s</strong> versions à espace d’états continu,obtenu en considérant <strong><strong>de</strong>s</strong> marches avec incréments infinitésimaux ϵ, <strong>et</strong> en prenant la limiteE → 0. La marche aléatoire <strong>de</strong>vient ainsi un processus avec chemins continus, appelé mouvementBrownien. <strong>Les</strong> équations resterons <strong>les</strong> mêmes, seul l’operateur G changera (dans unoperateur differentiel).En conclusions, il existe une correspondance un á un entre <strong>les</strong> processus <strong>de</strong> Markov <strong>et</strong> unecertaine classe <strong><strong>de</strong>s</strong> operateurs d<strong>et</strong>erministes associés ; nous l’appellerons ”Le Dictionnaire”.22


2.6.5 Probabilités <strong>du</strong> bonheur/fonctions harmoniquesNous consi<strong>de</strong>rons ici plus en d<strong>et</strong>ail <strong>les</strong> probabilités <strong>du</strong> bonheur, <strong>et</strong> <strong>de</strong>voilons leur nomscientifique.Une fonction sur Z d /R d est appellée harmonique si la valeur en chaque point x est egaleà la moyenne arithméthique <strong><strong>de</strong>s</strong> valeurs <strong><strong>de</strong>s</strong> ”voisins”. En R d , par voisins on entend unesphère arbitraire avec centre x. Ces fonctions aparaissent beaucoup en physique.En probabilités, <strong>les</strong> moyennes arithméthiques <strong>de</strong>viennent <strong><strong>de</strong>s</strong> moyennes pon<strong>de</strong>rés.Définition 2.6.2 Une fonction/vecteur f : E− > R s’apelle harmonique pour une chaîne<strong>de</strong> Markov à matrice <strong>de</strong> transition P s’il s’agit d’un vecteur propre à droite <strong>de</strong> P , i.ef(x) = ∑ P (x, y)f(y),∀x ∈ EAutrement dit, chaque point x verifie <strong>les</strong> valeurs f(y) <strong>de</strong> ses ”voisins” (<strong>de</strong>finis parP (x, y) > 0, <strong>et</strong> choisi pour valeur une moyenne pon<strong>de</strong>rée <strong>de</strong> valeurs voisines.Rq : Le fait que chaque valeur est une moyenne pon<strong>de</strong>rée <strong><strong>de</strong>s</strong> valeurs voisines suggèreun algorithm <strong>de</strong> calcul interessant.Il est facile <strong>de</strong> montrer que :Lemme 2.6.1 a) Pour une chaîne avec une seule classe <strong>de</strong> communication (recurrente), <strong>les</strong>seuls fonctions harmoniques sont <strong>les</strong> constantes f(x) = a.b) Pour une chaîne avec K classes <strong>de</strong> communication recurrentes C 1 , ...C K , <strong>et</strong> sans étatstransients (donc forcement re<strong>du</strong>ctible si K > 1), <strong>les</strong> fonctions harmoniques sont <strong>les</strong> fonctionsescalier ∑ Kk=1 a k1 Ck (x).Ind : a) Une fonction non constante prend <strong><strong>de</strong>s</strong> valeurs dans un interval [m, M], oùM > m. Mais, l’equation d’equilibre pour un point x M tq f(X M ) = M implique que ...m = M !La situation <strong>de</strong>vient beaucoup plus interessante dans la presence <strong><strong>de</strong>s</strong> états transients(”subordonnés”) <strong>et</strong> <strong>de</strong> plusieures classes <strong>de</strong> communication (”lea<strong>de</strong>rs”).Exercice 2.6.5 Etant donnée une chaîne finie avec <strong>de</strong>ux états absorbants 0, B <strong>et</strong> le reste <strong><strong>de</strong>s</strong>états transients, obtenez un système <strong>et</strong> une formule explicite pour le vecteur <strong><strong>de</strong>s</strong> probabilités<strong>du</strong> bonheur b = (b i = P i [X T = B], i ∈ T ).Sol : Soit⎛1 0⎞0P = ⎝q 0 Q q B⎠0 0 1où q 0 , q B sont <strong>les</strong> vecteur <strong><strong>de</strong>s</strong> probabilités d’absorbtion directe en 0 <strong>et</strong> B (i.e. après un pas).Soit n le nb <strong><strong>de</strong>s</strong> états transitoires (la taille <strong>de</strong> Q). On trouve que b = (b i ) i∈T satisfait⎛ ⎞b = ˜P0⎝b⎠1où ˜P est la matrice P avec <strong>les</strong> lignes <strong><strong>de</strong>s</strong> états absorbants effacés. En <strong>de</strong>veloppant, on trouve :Rémarques :b = Qb + q B ⇐⇒ b = (I − Q) −1 q B . (2.10)23


⎛ ⎞1. Le vecteur <strong>et</strong>en<strong>du</strong> ˜b0= ⎝b⎠ est une fonction harmonique/vecteur propre à droite <strong>de</strong>1P. Comme le système <strong>et</strong>en<strong>du</strong> P ˜b = ˜b contient <strong>de</strong>ux équations trivia<strong>les</strong>, notre intérêtest surtout en le vecteur correspondant aux états transitoires b, donné explicitementen (2.10).2. Rémarquez l’apparition en (2.10) <strong>de</strong> la matrice fondamentale←− G := (I − Q) −1 .3. Une généralisation <strong><strong>de</strong>s</strong> probabilités <strong>du</strong> bonheur sont <strong>les</strong> ”prix finaux esperés” :f g (x) := Eg(X T ),f g : V − > Roù g y , y ∈ ∂ est un ”prix” ou condition frontière donné. On vérifie par CPP (conditionnementsur le premier pas) qu’el<strong>les</strong> satisfont :f(x) = g(x), x ∈ ∂, (Gf) x = 0 ⇐⇒ f x = (P f) x , x ∈ T := V − ∂<strong>et</strong> sont donc aussi <strong><strong>de</strong>s</strong> fonctions harmoniques. Ces fonctions harmoniques ”à conditionsfrontière données” sont en corréspondance biunivoques avec <strong>les</strong> conditions <strong>de</strong>frontière g : ∂− > R possib<strong>les</strong>. Cela rend <strong>les</strong> fonctions harmoniques sur Z d ou R dbeaucoup plus simple quand d = 1 <strong>et</strong> la frontière contient que <strong>de</strong>ux points ! Pour lamarche symm<strong>et</strong>rique par exemple, il s’agit <strong><strong>de</strong>s</strong> fonctions lineaires ! Par exemple, avecp = q = 1/2, g(0) = 3 <strong>et</strong> g(10) = 53, le pris final esperé est f(x) = 5x + 3.2.6.6 Marches aléatoires sur <strong>les</strong> graphes : distributions stationnairesL’étu<strong>de</strong> <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov sur un espace d’états fini nous rammène toujoursà un système linéaire impliquant la matrice P. Il se trouve quand même que <strong><strong>de</strong>s</strong> formu<strong>les</strong>/approchesalgorithmyques plus simp<strong>les</strong> sont disponible pour certains cas particuliers,comme celui <strong><strong>de</strong>s</strong> marches aléatoires sur <strong>les</strong> graphes non dirigés.Définition 2.6.3 a) La matrices d’adjacence d’un graphe est la matrice définie par{ 1 si ⇐⇒ jD(x, y) =0 sinonb) La marche aléatoire simple sur un graphe est la marche avec probabilités <strong>de</strong> transitionP (x, y) = D(x,y)d xoù d x = ∑ yD(x, y) est le <strong>de</strong>gré <strong>du</strong> somm<strong>et</strong> x.L’inspiration <strong>de</strong> la generalisation qui suit nous vient d’electricité, <strong>du</strong> problème <strong>de</strong> calculer<strong>les</strong> voltages sur un réseau <strong><strong>de</strong>s</strong> resisteurs.Consi<strong>de</strong>rons un réseau <strong><strong>de</strong>s</strong> resisteurs R(x, y), modélisé par un quatruple G = (V, E, C(., .), ∂)representant un graph avec somm<strong>et</strong>s V , arrêtes E,, <strong><strong>de</strong>s</strong> poids C(x, y) = 1 , (<strong>les</strong> ”con<strong>du</strong>ctanceselectrique”) associés aux arrêtes, <strong>et</strong> un sous-ensemble <strong><strong>de</strong>s</strong> somm<strong>et</strong>s distingués ∂, oùR(x,y)<strong><strong>de</strong>s</strong> voltages ou <strong><strong>de</strong>s</strong> courants electriques sont imposés. <strong>Les</strong> lois bienconnues <strong><strong>de</strong>s</strong> courantselectriques <strong>de</strong> Kirkhoff sont l’expression macroscopique <strong>de</strong> la marche aléatoire sur le réseaud’un electron, avec <strong><strong>de</strong>s</strong> poids C(x, y) associé à chaque arrête.24


Définition 2.6.4 a) Une marche est appellée reversible si il existe un vecteur <strong><strong>de</strong>s</strong> poidsc(x) tq la matriceC(x, y) := c(x)P (x, y)est symm<strong>et</strong>rique, i.e. tqc(x)P (x, y) = c(y)P (y, x), ∀x ≠ y.Ces équation sont appelées équations d’equilibre local.b) Inversement, a chaque matrice C(x, y) symm<strong>et</strong>rique avec <strong><strong>de</strong>s</strong> elements nonegatifs, onpeut associer une marche aléatoire reversible avec probabilités <strong>de</strong> transition P (x, y) = C(x,y)c x,où (forcemment) c x = ∑ yC(x, y).Rq : <strong>Les</strong> marches reversib<strong>les</strong> seront appellées aussi ”marches <strong>de</strong> réseau” ou ”marchessur un graphe pon<strong>de</strong>ré”, car <strong>les</strong> elements <strong>de</strong> la matrice symm<strong>et</strong>rique C(x, y) peuvent-êtr<strong>et</strong>ojours vues comme <strong><strong>de</strong>s</strong> con<strong>du</strong>ctances d’un réseau electrique, ou comme <strong><strong>de</strong>s</strong> poids associésaux arrêtes d’un graphe.Lemme 2.6.2 La distribution stationnaire d’une marche aléatoire reversible (en particuliersimple) est proportionelle au poids (<strong>de</strong>grés) c x <strong><strong>de</strong>s</strong> somm<strong>et</strong>s, i.e.π(x) =c x∑y c .yDem : On verifie facilement que le vecteur <strong><strong>de</strong>s</strong> probabilites π(x) =équations d’équilibre local∑y cx satisfait <strong>les</strong>cyπ(x)P (x, y) = π(y)P (y, x), ∀x ≠ y (2.11)qui a leur tour impliquent <strong>les</strong> équations d’equilibre global par Lemme 2.6.3.Comme π(x) est un vecteur <strong><strong>de</strong>s</strong> probabilités, il suit qu’il est la distribution invariante.eqglLemme 2.6.3 Une solution <strong><strong>de</strong>s</strong> équations d’équilibre local 2.11 satisfait toujours <strong>les</strong> équationsd’equilibre global πP = π.Dem : Rémarquez que <strong>les</strong> équations d’équilibre local ne tiennent pas compte <strong><strong>de</strong>s</strong>bouc<strong>les</strong> ! Ca suggère <strong>de</strong> commencer en donnant aussi <strong><strong>de</strong>s</strong> équations d’equilibre globalsans bouc<strong>les</strong>. En eff<strong>et</strong>,π x = ∑ yπ(y)P (y, x) ⇐⇒ π x (1 − P (x, x)) = ∑ y≠xπ(y)P (y, x)⇐⇒ π x ( ∑ y≠xP (x, y)) = ∑ y≠xπ(y)P (y, x) (2.12)Il reste juste à observer que en ajoutant <strong>les</strong> équations d’équilibre local on obtient la<strong>de</strong>rnière forme ”sans bouc<strong>les</strong>” <strong><strong>de</strong>s</strong> équations d’equilibre global.Remarque 2.6.1 <strong>Les</strong> équations π(x)P (x, y) = π(y)P (y, x) sont plus simp<strong>les</strong> à resoudre que<strong>les</strong> équations d’équilibre global, mais comme typiquement il y a plus d’arrêtes (pairs) que <strong><strong>de</strong>s</strong>noeuds, el<strong>les</strong> adm<strong>et</strong>tent <strong>de</strong> solutions seulement dans <strong>de</strong> cas particuliers.25


Exercice 2.6.6 Calculer la distribution invariante <strong>de</strong> la marche aléatoire simple, symm<strong>et</strong>riquesur <strong>les</strong> entiers {0, 1, ..., B}, ”réfléchie” en 0, B.Exercice 2.6.7 Est-ce que la marche simple asymm<strong>et</strong>rique sur {0, 1, ..., n} ”cyclique” (i.e.avec n + 1 := n, −1 := 0), avec P i [X(1) = i + 1] = p, P i [X(1) = i − 1] = q, est reversible ?Calculer sa distribution invariante, ainsi que la matrice <strong><strong>de</strong>s</strong> con<strong>du</strong>ctances C(x, y).Remarque 2.6.2 La reversibilité perm<strong>et</strong> d’associer avec la marche un graphe non-dirigéavec <strong><strong>de</strong>s</strong> poids C(x, y), qui s’avère utile pour le calcul <strong><strong>de</strong>s</strong> fonctions harmoniques.2.6.7 <strong>Les</strong> espérances <strong><strong>de</strong>s</strong> temps d’atteinte, <strong>et</strong> <strong>les</strong> problèmes <strong>de</strong> Dirichl<strong>et</strong>nonhomogènesExercice 2.6.8 Montrez que si N est une v.a. sur {0, 1, ..., }, alorsEN =∞∑P [N ≥ k] (2.13)k=1Verifiez c<strong>et</strong>te formule pour la variable géométrique.Nous avons <strong>de</strong>ja vu que le ”pb <strong>du</strong> bonheur” (ou <strong>de</strong> Dirichl<strong>et</strong>) abouti à un systèmelinéaire. C’est le cas <strong>de</strong> tous <strong>les</strong> pb associés aux processus <strong>de</strong> Markov, comme par exemplele pb <strong>du</strong> temps d’atteinte/absorbtion esperé : étant donnée une chaîne finie avec <strong><strong>de</strong>s</strong> étatsabsorbants, calculer le vecteur t = (t i = E i [T ], i ∈ T ), où T est le temps (nb. <strong><strong>de</strong>s</strong> pas) esperéjusqu’à l’absorbtion.t:Dir1Théorème 2.6.2 a) Le vecteur t <strong><strong>de</strong>s</strong> espérances <strong><strong>de</strong>s</strong> temps d’absorbtion à partir <strong><strong>de</strong>s</strong> étatstransitoires satisfait le système d’absorbtionoù ˜G := Q − I est l’operateur restreint aux états transitoires.b) El<strong>les</strong> sont données explicitement par :t = Qt + 1 ⇐⇒ ˜Gt + 1 = 0 (2.14)t i = 0, ∀i ∈ ∂t = (I − Q) −1 1 =∞∑Q k 1.kc) Avec une distribution initiale β, l’espérance ¯t = E β N <strong>du</strong> temps d’absorbtion est :¯t = ET = β(I − Q) −1 1Remarque 2.6.3 Rémarquez <strong>de</strong> nouveau l’apparition <strong>de</strong> la matrice fondamentale←− G := (I − Q) −1 .Remarque 2.6.4 (2.14) est notre premier exemple <strong>de</strong> ”système <strong>de</strong> Dirichl<strong>et</strong> nonhomogène”faisant intervenir l’operateur ˜G. Formulé comme ci-<strong><strong>de</strong>s</strong>sus, par rapport à ˜G, il estvalable aussi en temps continu (<strong>et</strong> en fait pour tous <strong>les</strong> processus <strong>de</strong> Markov). En remplaceant1 par <strong><strong>de</strong>s</strong> fonctions arbitraires, on arrive aux pb. <strong>de</strong> Dirichl<strong>et</strong> nonhomogènes.26


Demonstration : a) est équivalent au systèm<strong>et</strong> i = ∑ j∈EP i,j (t j + 1) = ∑ j∈TQ i,j (t j + 1) + ∑ j /∈T(T ,∂)P i,j ∗ 1,obtenu par un conditionnement sur le premier pas.b) La solution <strong>du</strong> système donné en a) est : t = 1 + Qt ⇐⇒ t = (I − Q) −1 1.Remarque 2.6.5 La matrice ˜G a seulement <strong><strong>de</strong>s</strong> valeurs propres avec partie réelle negative,étant par conséquent inversible.Remarque 2.6.6 La formule explicit<strong>et</strong> = (I − Q) −1 1 = [ ∑∞ (Q) i] 1a une interprétation probabiliste importante, analogue à (2.13). Remarquons d’abord ladécomposition en indicateurs∞∑∞∑T = I k ⇒ t i = E i I kk=0où I k est l’indicateur d’être dans la partie transitoire au temps k.Remarquons aussi la décomposition en indicateurs I k = ∑ j∈T I k,j, où I k,j est l’indicateurd’être en position j ∈ T au temps k. Ces décompositions nous ramènent finalement àt i =∞∑E i I k =k=0∞∑ ∑E i I k,j =k=0 j∈Ti=0k=0∞∑ ∑(Q) k i,j = ∑j∈Tj∈Tk=0(I − Q) −1i,j = ←− G i,j<strong>Les</strong> elements ←− G i,j <strong>de</strong> la matrice fondamentale, appellées aussi fonction <strong>de</strong> Green (oupotentiel), fournissent le ”bilan <strong>de</strong> la vie”, i.e. <strong>les</strong> esperances <strong>de</strong> l’ensemble <strong><strong>de</strong>s</strong> tempspassés dans tous <strong>les</strong> endroits possib<strong>les</strong> j, pendant la ”vie transitoire”.Remarque 2.6.7 Comme toujours, le système <strong>et</strong> la métho<strong>de</strong> donné au point a) sont plusimportants que la formule explicite donnée en b) ; en eff<strong>et</strong>, l’inversion <strong><strong>de</strong>s</strong> matrices n’est pasla meilleure solution pour résoudre un système (la re<strong>du</strong>ction à la forme échelon par exempleest preferable). Aussi, il existe beaucoup <strong>de</strong> variations <strong>de</strong> ce problème, ramènant a une gran<strong>de</strong>diversité <strong><strong>de</strong>s</strong> formu<strong>les</strong> explicites, pendant que le principe pour obtenir <strong>les</strong> systèmes <strong>et</strong> toujoursle même : conditionnement sur le premier pas. Ce problème fournit donc une illustration<strong>du</strong> fait que conceptuellement <strong>et</strong> numériquement, <strong>les</strong> systèmes d’équations sont plus uti<strong>les</strong> queleurs solutions explicites !2.6.8 Temps esperés <strong>de</strong> r<strong>et</strong>ourSoitT (x) := inf{t > S (x) , X t = x}où S (x) := inf{t > 0, X t ≠ x} le temps <strong>de</strong> la premi´‘ere visite en x, ”après avoir été ailleurs”.SoitP =( Q qxs x p x)où q x , s x , p x sont respectivement <strong>les</strong> vecteurs <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> passage direct en x, <strong><strong>de</strong>s</strong>ortir <strong>de</strong> x, <strong>et</strong> d’une boucle en x.27


Exercice 2.6.9 Montrez que le vecteur <strong>de</strong> probabilités invariantes est proportionel au vecteur(s x (I − q) −1 , 1 <strong>et</strong> que˜t x := E x T (x) = 1 + s x (I − q) −1 1 = 1π(x)Exercice 2.6.10 Pour une marche aléatoire X t , t = 0, 1, 2, ... sur le graphe cubiqueci-<strong><strong>de</strong>s</strong>sous, calculer :BUAOFigure 2.2 – Marche aléatoire simple1. La probabilité p A = P A {T (U) < T (0)} = P A {X T = U}, ou T = min[T (U), T (O)].Indication : Utiliser la symm<strong>et</strong>rie.2. Comparer le résultat avec le potentiel electrique obtenu en 1 si <strong>les</strong> entiers sont connectéspar <strong><strong>de</strong>s</strong> résistances unitaires, <strong>et</strong> une tension égale à 1 est appliquée entre 0 <strong>et</strong> B.3. L’ésperance <strong>du</strong> nombre <strong>de</strong> pas T = min[T (O), T (U)].4. <strong>Les</strong> probabilités stationnaires <strong>du</strong> chaque noeud.5. L’ésperance en sortant <strong>de</strong> U <strong>du</strong> nombre <strong>de</strong> pas T O jusq’au noeud O.6. L’ésperance en sortant <strong>de</strong> O <strong>du</strong> nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.7. La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois (k =0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.R : X(t) représente une marche aléatoire simple sur le cube [0, 1] 3 , ⃗0 est l’origine (0, 0, 0),le coin oposé (1, 1, 1) est noté par u. On remarque que dans toutes <strong>les</strong> questions <strong>les</strong> voisins<strong>de</strong> l’origine ont un role sym<strong>et</strong>rique <strong>et</strong> cela nous perm<strong>et</strong> <strong>de</strong> le noter par la même l<strong>et</strong>tre a =(0, 0, 1), .... . De la même manière on appelle <strong>les</strong> voisins <strong>de</strong> u par b = (0, 1, 1), ....1. P a [X(T ) = u], s’obtient <strong>de</strong> la solution <strong>du</strong> système{pa = 2 3 p b + 1 3 p 0 = 2 3 p bp b = 2 3 p a + 1 3 p u = 2 3 p a + 1 3qui donne p b = 3 5 , p a = 2 5 .2. Même système !3. t a , t b sont la solution <strong>du</strong> système{ta = 2 3 (1 + t b) + 1 3 (1 + t 0) = 2 3 t b + 1t b = 2 3 (1 + t a) + 1 3 (1 + t u) = 2 3 t a + 1qui donne t b = t a = 3. Remarquez la similarité entre <strong>les</strong> <strong>de</strong>ux systèmes.28


4. π = (1/8, 1/8, ..., 1/8).5. Pour trouver t u = E u [T 0 ], on résout le système :t u = 1 + t bt b = 1 + 2 3 t a + 1 3 t udont la solution est t a = 7, t b = 9, t u = 10.t a = 1 + 2 3 t b6. E 0 [ ¯T 0 ] où ¯T 0 représente le temps esperé jusqu’à la prochaîne visite <strong>de</strong> 0 en commencant<strong>de</strong> 0, est donné par 1 + t a = 1 + 7 = 8. A remarquer que c’est exactement l’inverse<strong>de</strong> la probabilité ”<strong>de</strong> long parcour” d’être à 0,ce qui est un résultat bien connu sur <strong>les</strong>temps <strong>de</strong> r<strong>et</strong>our espérés.7. Soit p k la probabilité d’avoir exactement k visites à U = (1, 1, 1) avant <strong>de</strong> r<strong>et</strong>ourner à0. Alors p 0 c’est le même que la probabilité commencant en A que la marche revient à0 avant <strong>de</strong> visiter (1, 1, 1), qui est 3.5Pour k = 1 visites, ”le chemin” observé seulement en O, l’état aprés B <strong>et</strong> U” estA,U,B,0. Donc, p 1 = P A [U, B, 0] = ( 2 5 )2 , p 2 = P A [U, B, U, B, 0] = ( 2 5 )2 ( 3 ), <strong>et</strong> en général5p k = 3p 5 k−1 = ( 2 5 )2 ( 3 5 )k−1 , k ≥ 2. La distribution pour k ≥ 1 est geom<strong>et</strong>rique (verifiezque ∑ ∞k=1 p k = 2 , comme il faut).5Exercice 2.6.11 Un spéolog est per<strong>du</strong> dans une grotte, <strong>les</strong> chemins <strong>de</strong> la quelle forment legraphe papillon ci-<strong><strong>de</strong>s</strong>sous. Il se trouve à present dans le point A, <strong>et</strong> à cause <strong>de</strong> la manque<strong>de</strong> visibilité, est obligé a faire une marche aléatoire entre <strong>les</strong> somm<strong>et</strong>s <strong>du</strong> papillon.OUBAFigure 2.3 – Marche aléatoire simple sur le graphe papillonCA) Calculer <strong>les</strong> probabilités stationnaires <strong>de</strong> chaque noeud, <strong>et</strong> l’espérance en sortant <strong>de</strong>O <strong>du</strong> nombre <strong>de</strong> pas ÑO jusqu’au premier r<strong>et</strong>our à O.B) Supposons que c<strong>et</strong>te marche finira en U avec la liberté (sortie <strong>de</strong> la grotte) ou en Oavec la mort. Calculer :1. la probabilité <strong>de</strong> survie <strong>du</strong> spéolog p A = P A {X N = U} = P A {N U < N 0 }, où N =min[N U , N O ].2. <strong>Les</strong> probabilités transitoires Q 2 , Q 3 , Q n .3. La fonction gńératrice (I − xQ) −1 , la matrice fondamentale <strong>et</strong> le nb. esperé <strong><strong>de</strong>s</strong> visitesen B, A <strong>et</strong> C, à partir <strong>de</strong> B.4. L’espérance n A = E A [N]. Indication : Utiliser la symm<strong>et</strong>rie.29


Solution B) : 1) En résolvant le système d’absorbtion pour p A , p B , p C , on trouve p A =3/4, p B = 1/2, p C = 1/42) Calculons la puissance n <strong>de</strong> la matrice Q correspondant auc états transitoires B(centre), A, C. Le polynôme charactéristique est −λ 3 + λ/4 = − λ 4 (4λ2 − 1), avec racinesλ 0 = 0, λ 1,2 = ±1/2). Par Cayley-Hamilton,⎛ ⎞⎛110 00Q 2 4= ⎝ 1 10 ⎠ , Q 3 16= Q/4 = ⎝ 10 08 881 110 0 08 88⎛Q k = ⎝116⎞⎛⎠ , Q 4 = Q 2 /4 = ⎝10 0161 1032 321 1032 322 ( −k−1 1 + (−1) k) −2 ( −k−2 −1 + (−1) k) −2 ( −k−2 −1 + (−1) k) ⎞−2 ( −k−1 −1 + (−1) k) 2 ( −k−2 1 + (−1) k) 2 ( −k−2 1 + (−1) k)−2 ( −k−1 −1 + (−1) k) 2 ( −k−2 1 + (−1) k) 2 ( ⎠−k−2 1 + (−1) k)⎞⎠ , ...3) La fonction génératrice est⎛(I − xQ) −1 =⎜⎝11− x24( x2 1− x24( x2 1− x24)( x4 1− x241− x281− x24) ( x 281− x24) ( x4)1− x24)( x 2 )8 1− x241− x281− x24⎞⎟⎠la matrice fondamentale est :⎛(I − Q) −1 = ⎝432323137616131676⎞⎠<strong>Les</strong> nb. esperé <strong><strong>de</strong>s</strong> visites en B, A <strong>et</strong> C, à partir <strong>de</strong> B se trouvent dans la première ligne.( 1/2 1/4) 1/4Exercice 2.6.12 Calculer Q 2 , Q 3 , Q n <strong>et</strong> (I − Q) −1 pour Q = 1/21/20000.R : Le polynôme charactéristique est −λ 3 + λ 2 /2 + λ/4 = − λ 4 (4λ2 − 2λ − 1), avec racinesλ 0 = 0, λ 1,2 = (1 ± √ 5)/4). Par Cayley-Hamilton, Q 3 = Q 2 /2 + Q/4.La solution la plus simple est par la <strong>de</strong>composition spectrale. Une autre est <strong>de</strong> chercher<strong><strong>de</strong>s</strong> scalaires tq Q n = a n Q 2 + b n Q. On trouve a n = a n−1 /2 + b n−1 , b n = a n−1 /4 <strong>et</strong>Q n = a n Q 2 + b n Q, n ≥ 2où a n = a n−1 /2 + a n−2 /4, a 1 = 0, a 2 = 1, a n = λn−1⎛⎛⎞A k B k /2 B k /2Q k = ⎝B k C k C k⎠ = ⎜⎝B k C k C k301 −λ n−12λ 1 −λ 2, <strong>et</strong> finalementλ k+11 −λ k+12 λ k 1 −λk 2λ 1 −λ 2 4(λ 1 −λ 2 )λ k 1 −λk 2 λ 1 λ k 2 +(−λ 2)λ k 12(λ 1 −λ 2 ) 2(λ 1 −λ 2 )λ k 1 −λk 2 λ 1 λ k 2 +(−λ 2)λ k 12(λ 1 −λ 2 ) 2(λ 1 −λ 2 )λ k 1 −λk 24(λ 1 −λ 2 )λ 1 λ k 2 +(−λ 2)λ k 12(λ 1 −λ 2 )λ 1 λ k 2 +(−λ 2)λ k 12(λ 1 −λ 2 )⎞⎟⎠


3) <strong>Les</strong> formu<strong>les</strong> pour <strong>les</strong> probabilités transitoires sont assez compliquées ; plus convenab<strong>les</strong>sont <strong>les</strong> formu<strong>les</strong> <strong><strong>de</strong>s</strong> fonctions gńératrices (I − xQ) −1 , qui généralisent la matricefondamentale (I−Q) −1 . En généralisant encore, remplaçons la première ligne par (z, z 1 , z 2 ) :(I − xQ) −1 = I + xQ + x 2 Q 2 + ... =⎛⎜⎝⎛⎜⎝1− z 1 x2 − z 2 x2 −zx+12 2x)2(− z 1 x2 − z 2 x2 −zx+12 2xz 1− z 1 x2 − z 2 x222 −zx+1− z 2 x2 −zx+12− z 1 x2 − z 2 x2 −zx+12 2x)x2(− 2 z 1 )z 1 x2 − z 2 x2 −zx+1 2(− z 1 x2 − z 2 x2 −zx+12 2 2 2⎞1( x ) ( x )− x24 − x 2 +1 4 − x2 − x 4 2 +1 4 − x24 − x 2 +1 ( x − x2) 8 − x 2 +1( x 2 )2 − x24 − x 2 +1 − x24 − x 2 +1 8 − x24 − x 2 +1 ⎟( x ) x 2 − x2() 8 − x 2 +1 ⎠2 − x24 − x 2 +1 8 − x24 − x 2 +1 − x24 − x 2 +1xz 2− z 1 x2 − z 2 x2 −zx+12 2x 2 z 2 )2(− z 1 x2 − z 2 x2 −zx+12 2− z 1 x2 −zx+12− z 1 x2 − z 2 x2 −zx+12 2= {x=1}⎛⎝⎞⎟⎠4 1 12 3 22 1 2= {z1=z2=1/4,z=1/2}Une expansion en series <strong>de</strong> puissances en x fournit <strong>les</strong> probabilités transitoires⎛x 5+ 5x4 + 3x3 + x2 + x + 1 5x5 + 3x4 + x3 + x2 + x 5x 5+ 3x4 + x3 + x2 + ⎞x4 16 8 2 2 64 32 8 8 4 64 32 8 8 4⎝ 5x 5+ 3x4 + x3 + x2 + x 3x 5+ x4 + x3 + x2 + 1 3x 5+ x4 + x3 + x2 ⎠32 16 4 4 2 64 16 16 8 64 16 16 85x 5+ 3x4 + x3 + x2 + x 3x 5+ x4 + x3 + x2 3x 5+ x4 + x3 + x2 + 1 32 16 4 4 2 64 16 16 864 16 16 8La généralisation (sans peine) peut fournir le nb. esperé <strong><strong>de</strong>s</strong> bouc<strong>les</strong> en 1, <strong>et</strong> <strong>les</strong> nb.esperés <strong><strong>de</strong>s</strong> passage 1− > 2 <strong>et</strong> 1− > 3 (en <strong>de</strong>rivant par rapport à la ”variable <strong>de</strong> bilan”associée <strong>et</strong> en la faisant ensuite 1).Exercice 2.6.13 Supposons que <strong>les</strong> chemins menant à U dans la grotte <strong>du</strong> speologueprennent <strong>de</strong>ux heures, ceux menant à O trois heures, <strong>et</strong> <strong>les</strong> autres 5 heures.1. Calculez l’espérance <strong>du</strong> temps T qu’il reste a passer dans la grotte.2. La grotte contient aussi un génie, qui frappe le spéolog <strong><strong>de</strong>s</strong> nb. aléatoires, ayant unedistrbution <strong>de</strong> Poisson <strong><strong>de</strong>s</strong> coups, avec esperance 3 sur <strong>les</strong> chemins menant à U, 5 pourceux menant à O, <strong>et</strong> 2 pour <strong>les</strong> autres chemins. Calculez l’espérance <strong>du</strong> nombre <strong><strong>de</strong>s</strong>coups que le spéolog prendra dans la grotte.3. (*) Calculez la variance <strong>et</strong> la distribution <strong>du</strong> nombre <strong><strong>de</strong>s</strong> coups que le spéolog prendradans la grotte.4. Etant donnée une marche pon<strong>de</strong>ré sur un graphe, avec <strong><strong>de</strong>s</strong> états absorbants, <strong>et</strong> <strong><strong>de</strong>s</strong>temps <strong>de</strong>rministes T i,j pour traverser l’arrête (i, j), calculer le vecteur T = (t i =E i [T ], i ∈ T ).R : 4. T = (I − Q) −1 Q × H ˜T où ˜T est la matrice <strong><strong>de</strong>s</strong> temps ˜Ti,j pour traverser <strong>de</strong> i à j<strong>et</strong> × H <strong>de</strong>note le pro<strong>du</strong>it composante par composante. .2.6.9 Métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératricesExercice 2.6.14 Calculez, par la métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices :a) T (z) = ∑ n≥0 T nz n , oùT 0 = 0, T n = 2T n−1 + 1, n ≥ 1311232⎞⎠


Trouvez T n .b) Calculez T (z) = ∑ n≥0 T nz n , oùTrouvez T n .T 0 = 1, T n = 2T n−1 + n − 1, n ≥ 1Sol : b) Par la métho<strong>de</strong> <strong>de</strong> <strong>de</strong>composition <strong><strong>de</strong>s</strong> équations linéaires : T n = 2 n+1 −(n+1). Lafonction génératrice <strong>de</strong> T n est T (z) = 2/(1−2z)−1/(1−z) 2 = (2z 2 −2z +1)/(1−2z)(1−z) 2 .En appliquant directement la métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices à T n = 2T n−1 + n − 1on trouve l’équation : T (z) = 1+2zT (z)+z/(1−z) 2 −(1/(1−z)−1) = 2zT (z)+(2z 2 −2z +1)/(1 − z) 2 , <strong>et</strong> on r<strong>et</strong>rouve la même reponse. L’avantage <strong>de</strong> c<strong>et</strong>te métho<strong>de</strong> plus compliquéeest qu’elle reussit parfois quand la première métho<strong>de</strong> échoue.Exercice 2.6.15 a) Obtenez une formule explicite pour la suite décrite par la relation <strong>de</strong>récurrence ci-<strong><strong>de</strong>s</strong>sous (<strong>et</strong> verifiez-la en utilisant <strong>les</strong> premiers termes <strong>de</strong> la suite)T n = 4T n−1 − 3T n−2 + n, n ≥ 1, T 0 = a, T −1 = 0 (2.15)b) Calculez la fonction génératrice T (z) = ∑ n≥0 T nz nc) (*) Obtenez la fonction génératrice T (z) directement, en appliquant la métho<strong>de</strong> <strong><strong>de</strong>s</strong>fonctions génératrices à l’équation (2.15).Sol : a)(a + 3/4) 3 n − 1 (3 + 2n)4a + 3/41 − 3z − 1/41 − z − 1/2(z − 1) 2 = a(z − 1)2 + z(z − 1) 2 (3z − 1)Exercice 2.6.16a) Obtenez une formule explicite pour la suite décrite par la relation <strong>de</strong> récurrence ci-<strong><strong>de</strong>s</strong>sous(<strong>et</strong> verifiez-la en utilisant <strong>les</strong> premiers termes <strong>de</strong> la suite)T n = 2T n−1 − T n−2 + 2, n ≥ 2, T 0 = T 1 = 0 (2.16)b) Calculez la fonction génératrice T (z) = ∑ n≥0 T nz nc) Obtenez la fonction génératrice T (z) directement, en appliquant la métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctionsgénératrices à l’équation (2.16)Exercice 2.6.17 a) Obtenez la fonction génératrice T (z) = ∑ n≥0 T nz n pour la récurrenceT n = λT n−1 + λ 2 T n−2 , n ≥ 2, T 0 = 1, T 1 = λT 0 (2.17)b) Calculez (directement, ou par <strong>de</strong>veloppement limité) le premiers termes, <strong>et</strong> verifiezqu’ils sont <strong><strong>de</strong>s</strong> combinaisons lineaires <strong>de</strong> puissances <strong><strong>de</strong>s</strong> racines charactèristiques.32


2.6.10 Problèmes <strong>de</strong> premier passage sur un intervalle semi-infiniSoit ψ n := lim B→∞ a n (B) la probabilité <strong>de</strong> ruine sur [0, ∞). On vérifie facilement, enpartant <strong><strong>de</strong>s</strong> recurrences sur un domaine borné [0, B], que :{ψ n = lim ψ (q/p) n , q < pn,B =B→∞ 1, q ≥ p.C<strong>et</strong>te solution peut être trouvée aussi directement, sans passer par la probabilité <strong>de</strong>ruine sur [0, B], en s’appuyant sur <strong><strong>de</strong>s</strong> <strong><strong>de</strong>s</strong> arguments probabilistes. On remarque d’abordque c<strong>et</strong>te fonction est multiplicative en n, i.e. ψ n = ρ n , <strong>et</strong> en suite on choisit ρ selon la limite<strong>de</strong> X n quand n → ∞.La solution la plus simple est en eff<strong>et</strong> <strong>de</strong> remarquer que l’absence <strong><strong>de</strong>s</strong> sauts strictementplus grands que 1 implique une propriété <strong>de</strong> multiplicativité, ce qui impose une solutionpuissance. Mais, bien-sur, c<strong>et</strong>te approche ne peut pas contribuer à l’étu<strong>de</strong> <strong><strong>de</strong>s</strong> marches ”nonsimp<strong>les</strong>”dans <strong>les</strong> <strong>de</strong>ux directions.Examinons maintenant la métho<strong>de</strong> <strong>de</strong> fonctions génératrices (analogues à la transformée <strong>de</strong>Laplace), qui n’est pas réellement necessaire pour la marche simple, mais qui est la métho<strong>de</strong> la pluspuissante pour la resolution <strong><strong>de</strong>s</strong> èquations <strong>de</strong> differences (différentiel<strong>les</strong>).On ajoute <strong>les</strong> équations ψ n = pψ n+1 + qψ n−1 multipliées respectivement par z n , n = 1, 2, .. Onobtient ainsi une èquation pour la fonction ψ ∗ (z) := ∑ ∞n=1 zn ψ n :où Φ(z) = Ez Z 1= pz −1 + qzDe lors,ψ ∗ (z) = pψ 1Φ(z) − 1ψ ∗ (z) = 11 − z − zpψ 1p + qz 2 − z = p − qz − pzψ 1 p − qz − z(p − q)= = p(1 − z)(p − qz) (1 − z)(p − qz) p − qzcar le numerator s’annule en 1 (”métho<strong>de</strong> <strong>du</strong> noyau”) <strong>et</strong> donc pψ 1 = p − q.De lors, ψ n = (q/p) n .Exercice 2.6.18 Calculer <strong>les</strong> probabilités <strong>de</strong> ruine ψ x , x ∈ N, pour une marche sur <strong>les</strong>nombres naturel<strong>les</strong>, avec la distribution <strong>de</strong> chaque pas donné par : { p 1 = 8 , p 10 −1 = 1 , p 10 −2 = 1Montrer qu’el<strong>les</strong> sont positives.R : La moyenne est m 1 = 1/2 > 0. <strong>Les</strong> probabilités <strong>de</strong> ruine satisfont ψ x = 8 ψ 10 x+1 +1ψ 10 x−1 + 1 ψ 10 x−2, x ∈ N. El<strong>les</strong> sont <strong><strong>de</strong>s</strong> combinaisons <strong>de</strong> puissances ρ x , avec ρ une racine <strong>de</strong>810 ρ3 − ρ 2 + 110 ρ + 1 108= (ρ − 1)(10 ρ2 − 2 10 ρ − 110 ) = 8 (ρ − 1)(ρ − 1/2)(ρ + 1/4)10ψ x = A 1 ( 1 2 )x + A 2 ( −14 )x satisfait ψ 0 = ψ −1 = 1 ssi A 1 = 5/6, A 2 = 1/6. <strong>Les</strong> probabilités<strong>de</strong> ruine sont :ψ x = 5 ( ) x 1+ 1 (− 1 ) x≈ 5 ( x 16 2 6 4 6 2)Exercice 2.6.19 Calculer <strong>les</strong> probabilités <strong>de</strong> ruine pour une marche avec { p 2 = 3 8 , p 1 = 1 8 , p −1 = 1 210}.}33


2.6.11 <strong>Les</strong> fonctions harmoniques <strong><strong>de</strong>s</strong> marches aléatoires <strong>de</strong> réseau(*)Exercice 2.6.20 Quelle est la fonction harmonique <strong>de</strong> la marche aléatoire simple nonsymm<strong>et</strong>riquesur <strong>les</strong> entiers {0, 1, ..., B}, arrêtée en 0, B ?Rq : La simplicité <strong>du</strong> graphe ”série” <strong>de</strong> c<strong>et</strong>te marche perm<strong>et</strong> un calcul explicite.Q : Est-ce <strong><strong>de</strong>s</strong> formu<strong>les</strong> en termes <strong>de</strong> la structure <strong>du</strong> graphe sont aussi disponib<strong>les</strong> pour <strong>les</strong>fonctions harmoniques <strong><strong>de</strong>s</strong> marches aléatoires sur <strong><strong>de</strong>s</strong> graphes pon<strong>de</strong>rés, avec <strong><strong>de</strong>s</strong> structuresplus compliqués ? C<strong>et</strong>te question a été beaucoup étudié en electricité, en començant avecKirchhoff.Pour chaque x ∈ T = V −∂, soit V (x), <strong>les</strong> potentiels in<strong>du</strong>ites dans <strong>les</strong> noeuds <strong>du</strong> réseau.Alors, la loi <strong><strong>de</strong>s</strong> courants <strong>de</strong> Kirchhoff affirme que∑yV (y) − V (x)R(x, y)= 0, ∀x ∈ TIl est alors facile <strong>de</strong> verifier que <strong>les</strong> potentiels sont une fonction harmonique pour lamatrice stochastique P (x, y) = C(x,y)c x. L’unicité <strong><strong>de</strong>s</strong> fonctions harmoniques ( !) nous assurequ’en fait <strong>les</strong> <strong>de</strong>ux concepts coinci<strong>de</strong>nt !La simplication principale apportée par l’approche <strong>de</strong> Kirchhoff vient <strong>du</strong> concept <strong>de</strong>résistance équivalente (l’idée étant <strong>de</strong> remplacer un réseau <strong><strong>de</strong>s</strong> resisteurs par un seul resisteur),qui est particulièrement facile a calculer pour <strong>les</strong> réseaux séries-parralèle.Exercice 2.6.21 Recalculer la fonction harmonique <strong>de</strong> la marche aléatoire simple nonsymm<strong>et</strong>riquesur <strong>les</strong> entiers {0, 1, ..., B}, arrêtée en 0, B, à partir <strong><strong>de</strong>s</strong> lois <strong>de</strong> Kirchhoff.Il est aussi possible <strong>de</strong> transformer une étoile à résistances A, B, C dans un triangle àrésistances x = A + B + AB , .... La transformation inverse est A =yz , ...C x+y+zExercice 2.6.22 Calculer la fonction harmonique <strong>de</strong> la marche aléatoire simple ”avec <strong>de</strong>uxbonheurs à la fin” {0, 1, 2, B 1 , B 2 }, <strong>et</strong> <strong><strong>de</strong>s</strong> exemp<strong>les</strong> <strong>de</strong> fig II.3, II.5 <strong>de</strong> Bollobas.Finalement, une formule trés intéressante nous fournit la probabilité d’arriver dans unensemble d’états <strong>de</strong> bonheur {B}, avant <strong>de</strong> revenir dans un état <strong>de</strong> <strong>de</strong>part a :P [a− > {B}] := P a [τ {B} < τ + a ] =où R(a ↔ {B}) <strong>de</strong>note la resistance equivalente.1d a R(a ↔ {B})Exercice 2.6.23 Calculer la probabilité <strong>du</strong> ”bonheur avant r<strong>et</strong>our” pour <strong>les</strong> marche aléatoiresimple <strong><strong>de</strong>s</strong> exemp<strong>les</strong> 2.5,2.6, 2.7 <strong>de</strong> Lyons <strong>et</strong> Peres.Rq : Il y a plusieurs résultats plutot subti<strong>les</strong> concernant l’ergodicité <strong><strong>de</strong>s</strong> chaînes à espaced’états dénombrable, où le concept <strong>de</strong> resistance equivalente s’est avèré utile ; par exemple,<strong>les</strong> marches simp<strong>les</strong> sur Z d sont récurrents ssi d ≤ 2.En conclusion, <strong>les</strong> métho<strong><strong>de</strong>s</strong> <strong>de</strong>veloppes par <strong>les</strong> physiciens pour calculer <strong><strong>de</strong>s</strong> potentielsen utilisant <strong>les</strong> transformations series/parallel <strong>et</strong> ”<strong>et</strong>oile triangle” pourront nous servir enprobabilités pour calculer <strong>les</strong> probabilités <strong>du</strong> bonheur <strong>et</strong> <strong>les</strong> fonctions harmoniques.34


2.6.12 ExercicesExercice 2.6.24 On lance une monnaie biaisée, avec la probabilité <strong>de</strong> sortir face égale à q<strong>et</strong> celle <strong>de</strong> sortir pile égale à p = 1 − q, jusqu’à ce qu’on obtient une pile. Soit N le nombre<strong>de</strong> faces précedant la première pile (N = 0, 1, 2, ...). Par exemple, si X 1 = F, ...X j−1 = F <strong>et</strong>X j = P, j ≥ 1, la valeur <strong>de</strong> N est j − 1.1. Calculez p k = P [N] = k, k = 0, .... Quelle est la loi (distribution) <strong>de</strong> N ?2. Trouvez le moment m 1 = EN par la métho<strong>de</strong> <strong>du</strong> conditionnement sur le premier pas,en utilisant la relation L(N|X 1 = F ) = L(1 + N) (qui est une conséquence <strong>de</strong> ladécomposition ”premier pas + le reste”N = 1 + N ′<strong>et</strong> <strong>du</strong> fait que <strong>les</strong> distributions conditionnées par le premier pas <strong>du</strong> ”reste” N ′ sontconnues : a) (N ′ |X 1 = P ) ≡ 0 <strong>et</strong> b) L(N ′ |X 1 = F ) = L(N) par le fait que la seuledifference entre <strong>les</strong> réalisations possib<strong>les</strong> <strong>de</strong> N ′ <strong>et</strong> ceux <strong>de</strong> N est le moment ”<strong>de</strong> départ<strong>de</strong> la montre”, qui n’affecte pas la distribution d’une chaîne homogène).3. Trouvez l’espérance m = EN (2) <strong>du</strong> nombre <strong><strong>de</strong>s</strong> essais jusqu’à ce qu’on obtient <strong>de</strong>uxpi<strong>les</strong> consécutives. Ind : Sauf m, il faudra trouver en même temps m 1 = E 1 N (2) <strong>du</strong>nombre <strong><strong>de</strong>s</strong> essais jusqu’à ce qu’on obtient <strong>de</strong>ux pi<strong>les</strong> consécutives, à partir <strong>du</strong> momentqu’on a obtenu la première.4. Généraliser pour k = 3 pi<strong>les</strong> consécutives, <strong>et</strong> pour k arbitraire.5. ”Mieux que <strong>les</strong> moments :” Trouvez la fonction génératrice <strong><strong>de</strong>s</strong> probabilités φ ∗ N (z) =Ez N = ∑ ∞k=0 p kz k , <strong>et</strong> <strong>de</strong><strong>du</strong>isez l’espérance EN (en calculant φ ′ (1)), <strong>et</strong> aussi m 2 = EN 2 .6. Soit k = 2. Abor<strong>de</strong>z <strong>les</strong> mêmes questions pour φ ∗ (z), ainsi que pour φ ∗ N (k) N (k)′(z), oùla <strong>de</strong>rnière variable représente le nombre <strong><strong>de</strong>s</strong> essais jusqu’à ce qu’on obtient k pi<strong>les</strong>consécutives, en incluant la suite finale <strong><strong>de</strong>s</strong> pi<strong>les</strong>.Trouver <strong>les</strong> probabilités P [N (2) = k] pour q = 1/3.7. Reabor<strong>de</strong>z la question prece<strong>de</strong>nte pour k = 3.Solutions :1. L’espace <strong><strong>de</strong>s</strong> experiments est : E = {P, F P, F F P, F F F P, ...} = {P } ∪ F E.p k = pq k , k = 0, 1, .... On a à faire avec une distribution bien connue (la géométrique ! !).2. Il est quand même intéressant <strong>de</strong> remarquer que l’espérance peut aussi se calculer parun conditionnement sur le premier pas :m 1 = p × 0 + q(1 + m 1 ) ⇐⇒ m 1 = q pNote : Pour l’autre définition d’une variable g’eométrique N (1)′ := N + 1 ∈ {1, 2, ...}(en incluant la première face), on obtient par le résultat préce<strong>de</strong>ntn := EN (1)+1 = E(N + 1) = 1 p ,ou encore par conditionnement sur le premier pas :n = E[N (1)+1 ] = P[X 1 = P ]E[N (1)+1 |{X 1 = P }] + P[X 1 = F ]E[N (1)+1 |{X 1 = F }]= P[X 1 = P ]1 + P[X 1 = F ](1 + E[N (1)+1 ]) = p ∗ 1 + q ∗ (1 + n) = 1 + q ∗ n35


3. Remarquons que <strong>les</strong> trois evenements P P, P P, (∗)P fournissent une <strong>de</strong>composition <strong>de</strong>l’espace d’états . Par conséquant :n = q(n + 1) + pq(n + 2) + 0p 2 ⇐⇒ n =q(1 + 2p)1 − q − pq = 1 + p − 2p 24. Remarquons que <strong>les</strong> quatre evenements P P P, P P P, (∗)P P, (∗∗)P fournissent une <strong>de</strong>composition<strong>de</strong> l’espace d’états qui perm<strong>et</strong> soit <strong>de</strong> constater que notre evenementd’arrêt est arrivé, soit <strong>de</strong> relancer le processus <strong>du</strong> <strong>de</strong>but. Le conditionnement ces evenementsdonne : n = q(n+1)+pq(n+2)+p 2 q(n+3)+0p 2 ⇐⇒ n = q(1+2p+3p2 )p 3(<strong>et</strong> pour inclure <strong>les</strong> <strong>de</strong>rniéres trois pi<strong>les</strong>, on ajoute 3).= 1+p+p2p 35. La métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices.Formellement, le calcul <strong>de</strong> Ez N a remplaçè chaque terme <strong>de</strong> l’espace <strong><strong>de</strong>s</strong> experimentspar p nP q nF z nF (nP = 1). Soit p(z) le résulat obtenu en ajoutant tous <strong>les</strong> termes.Observons qu’en rajoutant tous <strong>les</strong> termes, on obtient precisement φ(z) = ∑ ∞n=0 p nz n =p1−qz .Nous pourrions aussi remarquer la décomposition φ(z) = p + qzp(z), qui impliqueencore φ(z) =p1−qz .Finalement, EN = φ ′ (1) = q p .Rem : La métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices (qui n’est pas vraiment necessairedans c<strong>et</strong> exercice simple) s’avère une <strong><strong>de</strong>s</strong> métho<strong><strong>de</strong>s</strong> <strong>les</strong> plus puissantes pour <strong>les</strong> espacesd’états infinis.6. <strong>Les</strong> probabilités p k sont moins evi<strong>de</strong>ntes à obtenir. Ind : Utilisons une chaîne <strong>de</strong> Markovassocié, sur l’espace E = {0P, 1P, 2P }, avec état absorbant 2P .p 0 = p 2 , p 1 = qp 2 , p 2 = q 2 p 2 , p 3 = qp 2 + pqp 1 , ...p n = qp n−1 + pqp n−2 , ∀n ≥ 3. On trouveainsi une récurrence à coefficients constants, qui donne p n = C + λ n + + C − λ n −, λ ± =q± √ q(4−3q). Le systême C2 + + C − = p 2 , C + /λ + + C − /λ − = 0 donne C + = p2 (q−λ − )λ + −λ −, C + =p 2 (λ + −q)λ + −λ −.On peut trouver la même reponse à partir <strong>de</strong> la mgfp 21 − qz − pqz = C + C −+ .2 1 − z/λ + 1 − z/λ −7. Ind : Utilisons une chaîne <strong>de</strong> Markov associé, sur l’espace E = {0P, 1P, 2P, 3P }, avecétat absorbant 3P . Soit Q la matrice <strong><strong>de</strong>s</strong> transitions entre <strong>les</strong> états transitoires 0, 1, 2.Le vecteur φ <strong><strong>de</strong>s</strong> fonctions génératrices <strong><strong>de</strong>s</strong> moments satisfait φ(z) = z(Qφ(z) + t).Rem : On peut aussi trouver une formule generale pour m = φ ′ (1). En differentiantle système, on trouve φ ′ (z) − zQφ ′ (z) = Qφ(z) + t ⇒ (I − Q)φ ′ (1) = Q1 + t = 1.Exercice 2.6.25 Un spéolog est obligé a faire une marche aléatoire entre <strong>les</strong> somm<strong>et</strong>sd’un triangle {1, 2, 3}, avec toutes <strong>les</strong> chemins ayant <strong><strong>de</strong>s</strong> chances éga<strong>les</strong> d’être prises. Il y a<strong>de</strong>ux chemins entre 1, 2, <strong>de</strong>ux chemins entre 1, 3, <strong>et</strong> 1 chemin entre 2, 3. Il y a aussi <strong>de</strong>uxchemins bouc<strong>les</strong> (partant <strong>et</strong> finissant) en 2, <strong>de</strong>ux chemins bouc<strong>les</strong> en 3, <strong>et</strong> six chemins bouc<strong>les</strong>en 1 Ċalculer−336


1. La matrice <strong>de</strong> transition P <strong>de</strong> la marche <strong>et</strong> ses valeurs propres2. <strong>les</strong> probabilités stationnaires <strong>de</strong> chaque noeud3. La matrice symmétrique π(i)P (i, j).4. La matrice <strong>de</strong> transition P n5. La fonction gńératrice (I − xP ) −1 <strong>et</strong>6. l’espérance en sortant <strong>de</strong> 3 <strong>du</strong> nombre <strong>de</strong> pas Ñ3 jusqu’au premier r<strong>et</strong>our à 3.R : 1)Le polynôme charactéristique est⎛⎝352525152515151525⎞⎠−x 3 + 7x25 − 11x25 + 1 25 = −x − 125 (5x − 1)2 ,avec valeurs propres 1, −1/5, −1/5.4) La solution la plus simple est par la <strong>de</strong>composition spectrale. Une autre est <strong>de</strong> chercher<strong><strong>de</strong>s</strong> scalairesP n = a n P 2 + b n P + c n Ioù a n = ..., b n = .., c n = ..., <strong>et</strong> l’initialisation vient <strong>de</strong> Cayley-Hamilton P 3 = 7P 2 − 11P+ 15 25Finalement,⎛⎞⎜⎝1+ 5−k2 21− 5−k2 21− 5−k2 21− 5−k4 41+ 35−k4 41− 5−k4 41− 5−k4 41− 5−k4 41+ 35−k4 42.7 Ou on voit que <strong>les</strong> probabilités <strong>de</strong> premier passageinterviennent dans le comportement limite<strong><strong>de</strong>s</strong> chaînesNous consi<strong>de</strong>rons ici le calcul <strong><strong>de</strong>s</strong> distributions ”à la longue” (ou simplement limites)d’une chaîne spécifiée par c(0) <strong>et</strong> P :⎟⎠25 I.π ∞ = limn→∞µ (n) = limn→∞µ(0)P n (2.18)pour n’importe quelle distribution initiale µ(0).L’existence <strong><strong>de</strong>s</strong> distributions limite (2.18) est evi<strong>de</strong>mment équivalente à l’existence <strong>de</strong> lalimiteRq : L’element generique <strong>de</strong> c<strong>et</strong>te matriceP = lim n→∞ P n . (2.19)P i,j = lim n→∞ P i [X n = j]37


epresente la limite <strong><strong>de</strong>s</strong> probabilites <strong>de</strong> trouver le processus en j après n pas, à partir <strong>de</strong> i.Cf. le théorème ergodique, la limite existe (2.19) ssi il n’y a pas <strong><strong>de</strong>s</strong> classes recurrentesperiodiques, <strong>et</strong>, avec une seule classe <strong>de</strong> communication, elle est une matrice <strong>de</strong>rang 1 <strong>de</strong> la formeP = 1π,où π est la ”distribution invariante”.Q : Pourquoi 1 <strong>et</strong> π aparaissent dans la limite, <strong>et</strong> pourquoi le rang <strong>de</strong> la limite est 1dans le cas d’une seule classe <strong>de</strong> communication ?R : <strong>Les</strong> reponses <strong>de</strong>viennent evi<strong>de</strong>ntes par une ápproche algébrique, à partir <strong>de</strong> la <strong>de</strong>compositionspectrale. Aparemment, l’”ergodicité” est equivalente algebriquement aux faitsque :1. Une matrice stochastique P n’a pas <strong><strong>de</strong>s</strong> valeurs propres supérièures ou éga<strong>les</strong> en valeurabsolue à la valeur propre λ = 1, sauf λ = 1, <strong>et</strong> que <strong>les</strong> vecteurs propres correspondantà ces valeurs disparaissent dans la limite.2. La multiplicité <strong>de</strong> la valeur propre 1 est égale à 1, <strong>et</strong> ses vecteurs propres á droite <strong>et</strong> àgauche sont 1, πDans ce chapitre, nous allons approfondir le comportement limite <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov,à partir <strong>de</strong> la <strong>de</strong>composition spectrale <strong>de</strong> la matrice <strong>de</strong> transition P . Avant le cas général,nous analyserons en d<strong>et</strong>ail <strong>de</strong>ux cas particuliers :1. <strong>les</strong> chaînes (faiblement) ergodiques, donc avec I = 1 classes récurrentes, <strong>et</strong> matrice d<strong>et</strong>ransition( ) Q qP =0 P r<strong>et</strong> où q contient <strong>les</strong> probabilités <strong>de</strong> trasition dans <strong>les</strong> états récurents.2. <strong>les</strong> chaînes absorbantes, i.e avec <strong>les</strong> classes récurrentes étant toutes <strong>de</strong> cardinalité 1.,i.e. avec⎛⎞Q q (1) q (2) ...0 1 0 ....P =0 0 1 ..⎜ .⎝ 0 0 .. . .. ⎟⎠.. . .. . ..2.7.1 Le cas purement absorbant : <strong>les</strong> probabilités d’absorbtionLe cas ( le plus ) simple est celui <strong><strong>de</strong>s</strong> chaînes qui n’ont que <strong><strong>de</strong>s</strong> états récurrents absorbants,Q qoù P = <strong>et</strong> où q contient comme colonnes <strong>les</strong> probabilités d’absorption immédiate0 Idans <strong>les</strong> états absorbants.Comme lim Q n = 0, P doit être <strong>de</strong> la formeP =38( ) 0 X0 I


En utilisant P P = P , on trouve la solution expliciteX = (I − Q) −1 q = P (abs) ⇐⇒ x (i) = Qx (i) + x (i) ,oú x (i) sont <strong>les</strong> colonnes <strong>de</strong> la matrice X.On reconnait que x (i) sont précisément <strong>les</strong> probabilités d’absorption dans la classe recurrentei (<strong>et</strong> parfois, le ”système d’absorption” trouvé en conditionnant sur le premier pasest la métho<strong>de</strong> la plus convenable <strong>de</strong> <strong>les</strong> obtenir.).Lemme 2.7.1 Pour une chaîne absorbante, la matrice <strong><strong>de</strong>s</strong> probabilités limite P i,j = P (abs)i,j , ∀itransitoire, ∀j absorbant a comme elements <strong>les</strong> probabilités d’absorption p i (j) = P i {X T =j}.Rq : Le resultat est en fait evi<strong>de</strong>nt, en tenant compte <strong>de</strong> l’interpr<strong>et</strong>ation <strong><strong>de</strong>s</strong> probabilitéslimite P (i, j).En conclusion, on trouve que la matrice limite est( )0 P(abs)P =0 IExercice 2.7.1 Calculez la matrice X dans le cas d’un seul element absorbant.Exercice 2.7.2 Que <strong>de</strong>vient la décomposition spectrale (2.23) <strong>et</strong> <strong>les</strong> vecteurs propres à droite<strong>et</strong> gauche <strong>de</strong> la valeur 1 dans le cas absorbant ?Solution : Cherchons à trouver un vecteur propre à droite v j <strong>et</strong> un vecteur propre àgauche π j pour chaque élément absorbant j.On trouve π j = e j = (0, 0, ..., 1, ..., 0). Décomposant v j = (a j , 0, 0, ..., 1, ..., 0) on trouveque a j contiens <strong>les</strong> probabilités d’absorbtion dans la classe j.2.7.2 La distribution limite dans le cas faiblement ergodiqueExercice 2.7.3 Calculez par l’approche algébrique (donc en résolvant <strong>les</strong> équations P v =v, πP = π, πv = 1) la matrice limite P si⎛⎞0 a 1 0 a 00 0 b 1 0 bP = ⎜c ⎝ 1 0 0 0 c ⎟0 0 0 2/3 1/3⎠0 0 0 1/4 3/4ergThéorème 2.7.1 Soit X n une chaîne <strong>de</strong> Markov finie avec une seule classe récurrente, quiest apériodique.a) Cela est algébriquement équivalent à une multiplicité un pour la valeur propre λ = 1,<strong>et</strong> à l’absence <strong><strong>de</strong>s</strong> autres valeurs propres <strong>de</strong> valeur absolue |λ| = 1.b) La distribution limite est unique <strong>et</strong> la limite P est une matrice <strong>de</strong> rang 1 :P = limn→∞P n = 1 × (0 |π ∞ ) (2.20)où π ∞ est la distribution stationnaire <strong>de</strong> la classe récurrente.39


Rq : Ce resultat est aussi evi<strong>de</strong>nt, en tenant compte <strong>de</strong> l’interpr<strong>et</strong>ation <strong><strong>de</strong>s</strong> probabilitéslimite P (i, j), sauf que le resultat est c<strong>et</strong>te fois d<strong>et</strong>erminée par ”la vie <strong>et</strong>ernelle” d’aprèsabsorbtion.Dem : La démonstration <strong>du</strong> théorème ( 2.7.1 ) b) par l’approche algébrique est immédiate.Q qEn eff<strong>et</strong>, prenons v = 1. Soit P = <strong>et</strong> cherchons a trouver un vecteur propre à0 P 1gauche <strong>de</strong> la forme p = (p t , p 1 ), donc satisfaisantp t Q = p t , p t q + p 1 P 1 = p 1 ⇐⇒p t = (I − Q) −1 0 = 0, p 1 = πEn conclusion, la structure <strong>de</strong> la matrice limite P pour <strong>les</strong> chaînes faiblement ergodiquesest assez simple, pareille à celle <strong>du</strong> théorème fondamental ergodique ; il suffit <strong>de</strong> trouver ladistribution stationnaire π ∞ <strong>de</strong> la seule classe récurrente, <strong>et</strong> a ”l’étendre” par <strong><strong>de</strong>s</strong> zeros sur<strong>les</strong> classes transitoires. En suite on utilise la formuleP = 1 poù p est le vecteur π ∞ compl<strong>et</strong>é avec <strong><strong>de</strong>s</strong> zeros. Rémarquons encore que 1, p sont <strong><strong>de</strong>s</strong> vecteurspropres à droite <strong>et</strong> gauche, normalisés tel que p est un vecteur <strong><strong>de</strong>s</strong> probabilités <strong>et</strong> tel que< p, 1 >= 1, <strong>et</strong> donc la décomposition ci-<strong><strong>de</strong>s</strong>sus est un cas particulier <strong>de</strong> la forme specifiéeen (2.23).2.7.3 Echauffement pour le cas generalNous allons examiner maintenant une chaîne <strong>de</strong>composable (pour la quelle la distributionstationnaire n’est pas unique, mais peut prendre toute valeur possible dans l’ensembleconvexe engendré par <strong>les</strong> distributions stationnaires <strong><strong>de</strong>s</strong> classes recurents).neExemple 2.7.1 Exemple <strong>de</strong> non unicité <strong>de</strong> la distribution stationaire π : Dans5∑l’exemple défini par la matrice ci <strong><strong>de</strong>s</strong>sous, cherchons π ∈ (R + ) 5 tel que πP = π <strong>et</strong> π i = 1.⎛⎞10 1 0 02 2 0 1 0 1 1{2 4 4π2 = 0πP = π ⇐⇒ (π 1 π 2 π 3 π 4 π 5 )1⎜ 0 1 0 02 2 ⎟⎝ 0 0 0 1 1 ⎠ = π ⇐⇒ π 1 = π 3π 5 = 2π 42 2sum i π i = 10 0 0 1 34 4i=1On voit clairement qu’il n’y a pas unicité (par exemple ( 12 , 0, 1 2 , 0, 0) <strong>et</strong> ( 0, 0, 0, 1 3 , 2 3)sont<strong><strong>de</strong>s</strong> distributions stationnaires).C<strong>et</strong>te chaîne étale <strong><strong>de</strong>s</strong> “pathologies”, qu’on peut percevoir en examinant le graphe <strong>de</strong>communication <strong>de</strong> la chaîne :Remarque : afin d’apercevoir la structure <strong>de</strong> la chaîne <strong>et</strong> <strong>de</strong> calculer plus facilementP n , il peut être intéressant <strong>de</strong> renuméroter <strong>les</strong> états en sorte que <strong><strong>de</strong>s</strong> états qui con<strong>du</strong>isentl’un à l’autre) soient groupés ensemble.40


Dans c<strong>et</strong> exemple, si on échange <strong>les</strong> états e 2 <strong>et</strong> e 3 , on obtient, après le rangement facilitant<strong><strong>de</strong>s</strong> éléments dans l’ordre 1, 3, 2, 4, 5, la matrice <strong>de</strong> transition :a structure : P =⎛⎝A 0 0⎞0 B 1 B 1,2( A 00 B)⎛⎞1 10 0 02 2 1 10 0 02 2 ⎜ 0 0 1 1 12 4 4 ⎟⎝ 0 0 0 1 1 ⎠2 20 0 0 1 34 4avec A =( 12121212)<strong>et</strong> B =⎛⎝1 12 40 1 20 1 4141234⎞⎠ <strong>et</strong> encore P =⎠ où A, correspondant aux états (1, 3) (qui con<strong>du</strong>isent l’un à l’autre) <strong>et</strong>B 2 , correspondant aux états (4, 5) (qui con<strong>du</strong>isent l’un à l’autre aussi) sont <strong><strong>de</strong>s</strong> matricesstochastiques, <strong>et</strong> B 1 , correspondant aux transitions entre <strong>les</strong> états transitoires ((2) est unematrices sous-stochastique.Il y’a ici <strong>de</strong>ux pathologies par rapport au cas ergodique :1. il existe un élément transitoire 2 (qu’on peut quitter sans r<strong>et</strong>our pour toujours)2. le graph <strong>de</strong> communication se décompose en <strong>de</strong>ux classes : (1, 3) <strong>et</strong> (2, 4, 5) qui necommuniquent pas <strong>et</strong> la matrice <strong>de</strong> transition a une structure block diagonale, appellée“ré<strong>du</strong>cibilité” en proba.La structure <strong>de</strong> matrice à ”blocs”, montre immédiatement qu’on peut traiter (1, 3) <strong>et</strong>(2, 4, 5) séparément. Aussi, en enlevant l’élément “ transitoire” 2, il nous restent <strong>de</strong>ux ”classes<strong>de</strong> communication fermées”, (1, 3) <strong>et</strong> (4, 5), appellées ”classes <strong>de</strong> récurrence”, où on restepour toujours une fois entré. ⎛⎞A n 0 0On verifie facilement que : P n = ⎝ 0 B1 n B 1,2,(n)⎠0 0 B2nen reflexion <strong>du</strong> fait qu’on peut étudier <strong>les</strong> trois chaînes correspondant aux A, B 1 <strong>et</strong> B 2séparément.Concernant la matrice B 1 contenant <strong>les</strong> probabilités <strong>de</strong> transition entre <strong>les</strong> élémentstransitoires (appellée aussi projection <strong>de</strong> la matrice P sur la réunion <strong><strong>de</strong>s</strong> classes transitoires),remarquons d’abord que elle est une matrice sous-stochastique.Définition 2.7.1 Une matrice Q s’appelle sous-stochastique si la somme <strong><strong>de</strong>s</strong> éléments <strong>de</strong>chaque ligne est ≤ 1, avec inegalité stricte dans au moins une ligne.Théorème 2.7.2 Toutes <strong>les</strong> valeurs propres d’une matrice sous-stochastique Q ont valeursabsolues strictement inferieurs à 1. Par conséquentlimn→∞ Qn = 0i.e. la limite <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> transition entre <strong>les</strong> états transitoires est 0.41


On verifie ici que P n (2, 2) = (1/2) n , en illustrant le théorème ci-<strong><strong>de</strong>s</strong>sus. En conclusion,⎛⎞1 10 0 02 2 1 10 0 0P = lim P n 2 2 =n→∞ ⎜ 0 0 0 x 1 x 2⎟⎝1 20 0 0 ⎠3 31 20 0 03 3Il reste encore à déterminer x 1 , x 2 .Exercice 2.7.4 Montrer par une approche directe par un systéme <strong><strong>de</strong>s</strong> récurrences que ces<strong>de</strong>ux quantités sont aussi x 1 = 1 3 , x 2 = 2 3 .Le calcul <strong><strong>de</strong>s</strong> elements P (i, j) où i ∈ T , j ∈ ∂ peut être abordé1. algébriquement via la décomposition spectrale, ou2. par une approche probabiliste qui décompose la vie d’une particule dans la partie”transitoire” qui préce<strong>de</strong> l’absorbtion, <strong>et</strong> la partie ”éternelle” qui s’ensuit.Dans notre exemple avec une seule classe recurrente, on ”sent” que la reponse tiens <strong>de</strong>la ”vie éternelle”.Avec plusieurs <strong><strong>de</strong>s</strong>tinations possib<strong>les</strong> (classes recurrentes), il va faloir tenir compte <strong><strong>de</strong>s</strong>probabilités <strong>de</strong> toutes <strong>les</strong> fins possib<strong>les</strong>.Définition 2.7.2 Soit i un élément transitoire d’une chaîne X n , <strong>et</strong> soit j un élément apartenantà une classe <strong>de</strong> récurrence ĵ. On appelera probabilité d’absorbtion p i (ĵ) la probabilitéque la chaîne commençée en i finisse en ĵ.Le calcul <strong><strong>de</strong>s</strong> probabilités d’absorbtion sera abordé en d<strong>et</strong>ail plus tard.Finalement, on arrivera à la conclusion que si la limite P = lim n→∞ P nsatisfait :existe, ellelim n→∞ P n (i, j) = p i (ĵ) π(j)où on a dénoté par p i (ĵ) la probabilité d’absorption dans la classe <strong>de</strong> récurrence <strong>de</strong> j <strong>et</strong> parπ(j) la probabilité stationnaire <strong>de</strong> j dans sa classe (qui coinci<strong>de</strong> avec lim n→∞ P n (i, j) pouri ∈ ĵ). Ce <strong>de</strong>uxième facteur reflète le fait évi<strong>de</strong>nt qu’une fois absorbée dans une classe fermée,la marche oubliera sa position initiale <strong>et</strong> donc aura exactement <strong>les</strong> probabilités limites <strong>de</strong> laclasse.Dans notre exemple, le fait qu’il existe une seule classe <strong><strong>de</strong>s</strong>tination possible pour l’élémenttransitoire 2, <strong>et</strong> donc que l’absorption dans c<strong>et</strong>te classe est sûre, implique p 2 (ˆ4) = p 2 (ˆ5) = 1.En conclusion⎛⎞1 10 0 02 2 1 10 0 02 2 P =⎜ 0 0 0 1 23 3 ⎟⎝ 0 0 0 1 2 ⎠3 30 0 0 1 23 3Mais, si dans l’exemple 2.7.1 l’élément transitoire aurait eu <strong><strong>de</strong>s</strong> possibilités <strong>de</strong> passagevers <strong>les</strong> <strong>de</strong>ux classes récurrentes existantes, ça nous aurait obligé <strong>de</strong> résoudre un problèmed’absorbtion avant <strong>de</strong> calculer la limite lim n→∞ P n .En conclusion, une procé<strong>du</strong>re qui fournisse la limite P doit :42


1. établir si elle existe, ce qui n’est pas toujours le cas, comme on voit en examinant <strong>les</strong>chaînes <strong>de</strong> Markov qui bougent cycliquement sur <strong>les</strong> noeuds d’un graphe2. inclure la résolution <strong><strong>de</strong>s</strong> problèmes <strong>de</strong> Dirichl<strong>et</strong> concernant l’absorbtion <strong>de</strong> la chaîne<strong>de</strong> Markov dans <strong>les</strong> classes récurentes3. calculer la distribution stationnaire <strong><strong>de</strong>s</strong> classes récurentes.2.7.4 Le comportement limite <strong><strong>de</strong>s</strong> chaînes, par la <strong>de</strong>compositionspectraleLe comportement limite <strong>de</strong> chaînes <strong>de</strong> Markov, i.e. le calcul <strong>de</strong>lim µ 0P n := µ 0 Pn→∞est facile à obtenir via une approche compl<strong>et</strong>ement algébrique, en utilisant :1. le théorème <strong>de</strong> Perrron-Frobenius. Plus precisément, on utilise <strong>les</strong> faits que(a) 1 est la valeur propre PF (réele, maximale) pour <strong>les</strong> matrices stochastiques P(exercice (2.7.8), <strong>et</strong>(b) dans l’absence <strong><strong>de</strong>s</strong> classes périodiques, toutes <strong>les</strong> autres valeurs propres sont strictementinférièures à 1 en valeur absolue.2. La décomposition spectrale. Revisons ici le cas le plus simple <strong><strong>de</strong>s</strong> matrices P avec formeJordan diagonale (par exemple avec valeurs propres λ i distinctes). Soit Λ la matricediagonale <strong><strong>de</strong>s</strong> valeurs propres, <strong>et</strong> soit V une matrice ayant <strong>les</strong> vecteurs propres à droitev i comme colonnes.Remarquons que la diagonalisationnous perm<strong>et</strong> d’écrireP V = V Λ ⇐⇒ P = V ΛV −1P = V ΛΠ (2.21)où Π = V −1 <strong>et</strong> une matrice dont <strong>les</strong> lignes π i sont <strong><strong>de</strong>s</strong> vecteurs propres à gauche,normalisés tq π i v j = δ i,j .La représentation spectrale (2.21) <strong>de</strong> P s’écrit aussi (vérifier !) commeP = ∑ iλ i v i π i (2.22)Rq : La représentation (2.22) nous perm<strong>et</strong> d’écrire une matrice arbitraire commesomme <strong>de</strong> n matrices <strong>de</strong> rang 1.En utilisant la représentation (2.22), on trouve dans le cas diagonalisable queP n = V Λ n Π = ∑ iλ n i v i π i43


<strong>et</strong> que convergence peut avoir lieu seulement dans l’absence <strong><strong>de</strong>s</strong> valeurs propres λ i ≠ λ P F tq|λ i | = λ P F (i.e., <strong>de</strong> périodicités). FinalementP n =⇒ P =R∑i:λ i =1v i π i = V Π (2.23)où R est le nb <strong><strong>de</strong>s</strong> classes recurrentes, <strong>et</strong> V Π sont <strong>les</strong> matrices ayant v i <strong>et</strong> π i comme colonnes<strong>et</strong> lignes, respectivement.C<strong>et</strong>te formule reste encore valable dans le cas général, même que la décomposition <strong>de</strong>Jordan peut contenir <strong><strong>de</strong>s</strong> blocs nondiagona<strong>les</strong>, car <strong>les</strong> blocs <strong>de</strong> Jordan associées à <strong><strong>de</strong>s</strong> valeurspropres tq |λ (i) | < 1 disparaissent dans la limite n → ∞ (vérifier !). On obtient donc que dansl’absence <strong><strong>de</strong>s</strong> périodicités dans <strong>les</strong> classes récurrentes, la limite <strong>de</strong> P n est donnée toujourspar (2.23).Théorème 2.7.3 1. La multiplicité <strong>de</strong> la val. propre 1 est egale au nombre R <strong><strong>de</strong>s</strong> classesrecurentes.2. <strong>Les</strong> vecteurs propres à gauche/droite correspondant à une classe recurente r sont respectivement<strong>de</strong> la forme π r 1 r , où π r est la distribution stationnaire <strong>de</strong> la classe r(compl<strong>et</strong>é en suite par <strong><strong>de</strong>s</strong> 0 en multipliant par 1 r ), <strong>et</strong> v r = (a r , 1 r ), où a r <strong>de</strong>note levecteur <strong><strong>de</strong>s</strong> probabilité d’absorbtion dans la classe r.3. La limite P = lim n→∞ P n existe ssi la matrice P n’a pas <strong><strong>de</strong>s</strong> valeurs propres avec|λ| = 1 à part la valeur propre <strong>de</strong> Perron-Frobenius λ P F = 1 (i.e. s’il n y a pas <strong><strong>de</strong>s</strong>périodicités), dans quel cas elle est donnée par (2.23).Dans ce cas, elle est egale à ∑ A v Aπ A .Corollaire 2.7.1 1. La distribution stationnaire est unique ssi la valeur propre <strong>de</strong> Perron-Frobenius λ = 1 a multiplicité 1.2. Une chaîne <strong>de</strong> Markov est ergodique, i.e. P n =⇒ 1π ssi <strong>les</strong> <strong>de</strong>ux conditions ci <strong><strong>de</strong>s</strong>sussont verifiées.En conclusion, l’étu<strong>de</strong> <strong>de</strong> l’existence <strong>et</strong> l’unicité <strong>de</strong> distributions à la longue, <strong>et</strong> l’étu<strong>de</strong><strong>du</strong> comportement asymptotique <strong>de</strong> P n , peuvent être abordés algébriquement.Il convient quand même <strong>de</strong> s’intéresser aussi aux interprétations probabilistes, commepar exemple, au fait que ν P F coinci<strong>de</strong> avec le nombre <strong>de</strong> classes récurrentes, <strong>et</strong> nous abor<strong>de</strong>ronsensuite plusieurs aspects probabilistes <strong>du</strong> théorème <strong>de</strong> Perron-Frobenius (en fait, lathéorie <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov finies/dénombrab<strong>les</strong> peut être conçue comme une explicationprobabiliste <strong>du</strong> théorème <strong>de</strong> Perron-Frobenius).2.7.5 La structure probabiliste <strong>de</strong> la matrice <strong>de</strong> distributions a lalongueNous donnerons maintenant une métho<strong>de</strong> pour la détermination <strong><strong>de</strong>s</strong> distributions “a lalongue” d’une chaîne, dans l’absence <strong><strong>de</strong>s</strong> classes récurrentes périodiques. Soit⎛⎞Q t T 1 ... ... T I0 P 1 0 ... 0P =0 0 P 2 0 .⎜⎟⎝ 0 0.. ... . . ⎠0 0 ... ... P I44


une décomposition <strong>de</strong> la matrice <strong>de</strong> transition P , avec P i , i = 1, ..., I étant <strong>les</strong> projections <strong>de</strong>la matrice P sur <strong>les</strong> classes récurrentes, <strong>et</strong> avec Q t étant la projection <strong>de</strong> la matrice P sur<strong>les</strong> classes transitoires. Il est facile <strong>de</strong> verifier que la puissance P n est <strong>de</strong> la forme :⎛Q n ⎞t T 1,n ... ... T I,n0 P1 n 0 ... 0P n =0 0 P2 n 0 .⎜⎟⎝ 0 0.. ... . . ⎠0 0 ... ... PInC<strong>et</strong>te formule <strong>de</strong> décomposition reflète <strong>les</strong> idées suivantes :1. <strong>Les</strong> classes récurrentes ”ne savent” pas <strong>du</strong> tout qu’il existe un ”mon<strong>de</strong> extérieur” ;par conséquent, la projection P i <strong>de</strong> la matrice P sur une classe récurrente î est ellemême une matrice stochastique <strong>et</strong> la projection <strong>de</strong> la puissance P n sur la classe iest précisément Pin ; ce calcul peut être effectué en ignorant le reste <strong><strong>de</strong>s</strong> éléments. Lemême est vrai pour <strong>les</strong> probabilités <strong>de</strong> transition Q n (i, j) entre i <strong>et</strong> j transitoires, i.e.la projection <strong>de</strong> la puissance P n sur <strong>les</strong> classes transitoires est précisément Q n <strong>et</strong> peutêtre donc aussi calculée en ignorant le reste <strong><strong>de</strong>s</strong> éléments.2. <strong>Les</strong> probabilités P n (i, j) pour i, j récurrentes mais dans <strong><strong>de</strong>s</strong> classes différentes sonttoujours 0 (comme pour n = 1) <strong>et</strong> alors la limite est aussi 0. Le même est vrai pour<strong>les</strong> probabilités P n (i, j) pour i récurrent <strong>et</strong> j transitoire.3. La limite <strong>de</strong> Q n sera toujours 0, parce que la matrice Q est sous-stochastique, <strong>et</strong> <strong>les</strong>limites <strong>de</strong> Pin seront donné par le théorème ergodique.En conclusion, si la limite P existe, elle est <strong>de</strong> la forme :⎛⎞0 X 1 ... ... X I0 Π 1 0 ... 0P =0 0 Π 2 0 .⎜⎝ .0 0 .. . ⎟ .. . ⎠0 0 ... ... Π Ioù X 1 , ..., X I sont encore à détérminer, cf. la lemme 2.7.2 ci-<strong><strong>de</strong>s</strong>sous, en résolvant un pbd’absorbtion.Exercice 2.7.5 Que <strong>de</strong>vient la décomposition spectrale (2.23) dans le cas décomposable <strong>et</strong>sans éléments transitoires ?2.7.6 Le calcul <strong>de</strong> la distribution limite dans le cas généralNous consi<strong>de</strong>rons maintenant le cas général à plusieurs classes récurrentes. Il nous resteseulement <strong>de</strong> calculer <strong>les</strong> limites X(i, j) := lim n→∞ P n (i, j) pour i transitoire <strong>et</strong> j récurrent.Nous avons vu dans nos exemp<strong>les</strong> qu’il y a <strong>de</strong>ux vecteurs <strong>de</strong> probabilités à déterminer :a) p i (ĵ), <strong>de</strong> finir dans la classe <strong>de</strong> récurrence <strong>de</strong> j à partir <strong>de</strong> l’élément transitoire i, <strong>et</strong>b) π(j) la probabilité stationnaire que la chaîne soit observée dans l’état j (ou la proportion<strong>de</strong> temps passé dans l’état j.Pour cela, on utilisera :45


mult Lemme 2.7.2lim n→∞ P n (i, j) = p i (ĵ) π(j) (2.24)où on a dénoté par p i (ĵ) la probabilité d’absorption dans la classe <strong>de</strong> récurrence <strong>de</strong> j (<strong>et</strong> parπ(j) la probabilité stationnaire <strong>de</strong> j dans sa classe).En forme matricielle, Xĵ = pĵ × πĵC<strong>et</strong>te loi multiplicative est assez claire intuitivement : elle reflète l’indépendance entrele comportement avant <strong>et</strong> après absorption, <strong>et</strong> se verifie facilement 1 .Donc, le calcul <strong><strong>de</strong>s</strong> limites lim n→∞ P n (i, j) pour i transitoire <strong>et</strong> j récurrent <strong>de</strong>man<strong>de</strong> lecalcul <strong><strong>de</strong>s</strong> probabilités d’absorbtion p i (ĵ) <strong>et</strong> l’application <strong>de</strong> la lemme 2.7.2.p1 Exemple 2.7.2 Calculer la matrice P = lim n→∞ P n pour l’exemple :⎛⎞0 a b 1 − a − b 0 00 1 0 0 0 0P =0 0 1 10 02 2 ⎜ 0 0 0 0 0 1 ⎟⎝0 0 1 10 0⎠2 21 0 0 0 0 0Solution : Après le rangement facilitant <strong><strong>de</strong>s</strong> éléments dans l’ordre 1, 4, 6, 2, 3, 5 la matrice<strong>de</strong> transition <strong>de</strong>vient :⎛0 1 − a − b 0 a b 00 0 1 0 0 01 0 0 0 0 00 0 0 1 0 0P =⎜⎝ 0 0 0 0 1 20 0 0 0 1 2On aperçoit par la structure <strong>de</strong> matrice à ”blocs” qu’on peut traiter <strong>les</strong> classes (2) <strong>et</strong>(3, 5) séparément. Ici, l’absorption dans <strong>les</strong> classes récurrentes se fait toujours en partant <strong>de</strong>1, <strong>et</strong> alors <strong>les</strong> probabilités d’absorption <strong>de</strong> 4 <strong>et</strong> 6 sont i<strong>de</strong>ntiques aux cel<strong>les</strong> <strong>de</strong> 1. En plus,l’absorption se fait avec <strong>les</strong> probabilités données a, b dans <strong>les</strong> classes récurrentes (2) <strong>et</strong> (3, 5),respectivement.Finalement, on trouve par la lemme (2.7.2)1. En conditionnant sur la position k d’arrivée dans la classe <strong>de</strong> récurrence ĵ <strong>de</strong> j après le temps T d<strong>et</strong>ransition <strong>de</strong> la partie transitoire, on trouve que :lim n→∞ P n (i, j) = ∑ k∈ĵP i {X T = k} lim n→∞ P n (k, j) (par propr. Markov) (2.25)1212⎞⎟⎠= ∑ k∈ĵP i {X T = k} π(j)(par ergodicité <strong>de</strong> la classe récurrente) (2.26)= π(j) ∑ k∈ĵP i {X T = k} = p i (ĵ) π(j) (2.27)46


⎛0 0 0aa+bb 1a+bb21a+b 2a0 0 0a+bP =⎜⎝10 0 0 0210 0 0 02ba+bb121a+bb21a+b 2a b 10 0 0a+b a+b 20 0 0 1 0 0Le problème <strong>du</strong> calcul <strong>de</strong> P a été simplifié ci-<strong><strong>de</strong>s</strong>sus par la connaisance immédiate <strong><strong>de</strong>s</strong>probabilités d’absorption p i (ĵ) dans chaqune <strong><strong>de</strong>s</strong> classes récurrentes.En applications, il faudra calculer <strong>les</strong> probabilités d’absorption p i (ĵ) séparément pourchaque classe, sauf une, en résolvant un système d’absorption correspondant, obtenu en”collant ensemble” toutes <strong>les</strong> éléments <strong>de</strong> chaque classe (pour la <strong>de</strong>rnière classe, on peutobtenir <strong>les</strong> probabilités d’absorption comme complémentaires <strong>de</strong> cel<strong>les</strong> dans <strong>les</strong> autres classes)1212⎞⎟⎠p2 Exemple 2.7.3 Calculer la matrice P = lim n→∞ P n pour l’exemple :⎛P =⎜⎝0 1 316131060 1 0 0 0 00 0 1 − a 0 a 00 1 20 0 0120 0 b 0 1 − b 01 0 0 0 0 0⎞⎟⎠Solution : Aprés le rangement <strong><strong>de</strong>s</strong> éléments dans l’ordre 1, 4, 6, 2, 3, 5 la matrice d<strong>et</strong>ransition <strong>de</strong>vient :Le système d’absorption :⎛⎞0 1 0 1 1 13 3 6 60 0 1 10 02 2 P =1 0 0 0 0 0⎜ 0 0 0 1 0 0⎟⎝ 0 0 0 0 1 − a a ⎠0 0 0 0 b 1 − bp 1 (2) = 1 3 p 4(2) + 1 3 1 + 1 3 0p 4 (2) = 1 2 p 4(2) + 1 2 1p 6 (2) = p 1 (2)donne p 1 (2) = 3/5 = p 6 (2) <strong>et</strong> p 4 (2) = 4/5, <strong>et</strong> alors <strong>les</strong> probabilités complémentaires sont :p 1 (ˆ3) = 2/5 = p 6 (ˆ3) <strong>et</strong> p 4 (ˆ3) = 1/5 (<strong>les</strong> résultats auraient pu être dévinés, en observant quel’absorption dans <strong>les</strong> classes récurrentes se fait seulement en partant <strong>de</strong> 1 <strong>et</strong> <strong>de</strong> 4, tandis que6 a <strong>les</strong> mêmes probabilités d’abs. que 1. Posant ã = aa+b , ˜b =47ba+bon trouve finalement :


⎛P =⎜⎝0 0 0 3 2 25 5˜b 5ã0 0 0 4 1 15 5˜b 5ã0 0 0 3 2 25 5˜b 5ã0 0 0 1 0 01 10 0 0 02 21 10 0 0 02 2⎞⎟⎠Exercice 2.7.6 Démontrer la lemme, à partir <strong><strong>de</strong>s</strong> <strong>de</strong>ux équations P P = P , P P = P . Que<strong>de</strong>vient la décomposition (2.23), i.e. <strong>les</strong> vecteurs propres à droite <strong>et</strong> gauche <strong>de</strong> la valeur 1dans le cas général ?Solution : Cherchons à trouver un vecteur propre à droite v (j) <strong>et</strong> un vecteur propre àgauche π (j) pour chaque élément absorbant j.On trouve π (j) = (0, 0, ..., π j , ..., 0), la distribution stationnaire <strong>de</strong> la classe j. Décomposantv (j) = (v t , 0, 0, ..., 1, .., 1, 0, ..., 0) on trouve v t = p j , où p j sont <strong>les</strong> probabilités d’absorbtiondans la classe j.En travaillant en forme matricielle, on trouve <strong>les</strong> matrices <strong>de</strong> rang 1 X j = p j × π j .2.7.7 La périodicitéOn analysera maintenant, pour chaque état e i , l’ensemble A i <strong>de</strong> temps pour lequels i<strong>les</strong>t possible <strong>de</strong> se trouver en i en partant <strong>de</strong> i, i.e.A i = {n ∈ N : p (n)ii > 0}Remarque 2.7.1 C<strong>et</strong> ensemble est fermé sous l’opération d’addition, i.e. c<strong>et</strong> ensemble estun sous groupe <strong>de</strong> N.{}Définition 2.7.3 Soit e i dans E. On appelle pério<strong>de</strong> <strong>de</strong> e i l’entier d (i) = p gcd n > 0 ; p (n)ii > 0(autrement dit : p (n)ii > 0 ⇒ ∃m ∈ N ∗ tel que n = md (i) ).Si d (i) = 1 , l’état e i est dit apériodique.Remarque 2.7.2 La pério<strong>de</strong> ne dépend que <strong>de</strong> la classe. Une classe <strong>de</strong> pério<strong>de</strong> 1 est diteapériodique.Remarque 2.7.3 L’existence d’une boucle, i.e. p ii > 0, assure l’apériodicité.Exemple 2.7.4 Une classe <strong>de</strong> communication à matrice <strong>de</strong> transition ˜P , pour laquelle ilexiste un entier c tel que ˜P c = I, apellée cyclique d’ordre c, est forcement périodique, <strong>et</strong> lapério<strong>de</strong> d est parmi <strong>les</strong> diviseurs <strong>de</strong> c. Par exemple, en changeant la classe transitoire dansl’exemple ci-<strong><strong>de</strong>s</strong>sus en sorte qu’elle contient un cycle <strong>de</strong> longueur 4 <strong>et</strong> un <strong>de</strong> longueur 2, onobtient une classe cyclique d’ordre 4 <strong>et</strong> pério<strong>de</strong> 2.L’existence <strong>de</strong> la matrice <strong><strong>de</strong>s</strong> distributions à la longue est liée à la question <strong>de</strong> lapériodicité.48


per Exemple 2.7.5⎛⎞1 10 0 0 0 02 2 0 0 1 0 0 0 00 0 0 1 1 1 14 4 4 4P =0 1 0 0 0 0 0⎜ 0 1 0 0 0 0 0⎟⎝ 0 0 0 0 0 1 2 ⎠3 30 0 0 0 0 1 12 2On aperçoit immédiatement la classe récurrente 6, 7 <strong>et</strong> <strong>les</strong> classes transitoires 1 <strong>et</strong> 2, 3, 4, 5.La <strong>de</strong>rnière classe est le collage <strong><strong>de</strong>s</strong> <strong>de</strong>ux cyc<strong>les</strong> <strong>de</strong> pério<strong>de</strong> 3, ce que donne immédiatementque A 2 = {3k, k ≥ 0} = {3, 6, 9, ...}. Si par contre un <strong>de</strong> ces cyc<strong>les</strong> avait une longueur pasdivisible par 3, par exemple 4, on aurait eu : A 2 = {3k + 4l, k, l ≥ 0} = {3, 4, 6, 7, 8, 9, ...},dans quel cas A 2 contien tous <strong>les</strong> nombres en partant <strong>de</strong> 6.On voit que <strong>les</strong> ensemb<strong>les</strong> A i contiennent toujours tous <strong>les</strong> nombres <strong>de</strong> la forme k d(i),pour k assez grand (cela est un résultat valable pour n’importe quel semigroup <strong>de</strong> N). En cequi concerne la périodicité, il y a <strong>de</strong>ux possibilités pour A i , en dépendant <strong>de</strong> d=p.g.c.d <strong>de</strong>la longueur <strong><strong>de</strong>s</strong> <strong>de</strong>ux cyc<strong>les</strong> :1. Dans le cas d = 1, c<strong>et</strong> ensemble contien “tous <strong>les</strong> nombres assez grands” (en partantd’un certain point).2. Dans le cas d > 1, c<strong>et</strong> ensemble est un sous ensemble <strong>du</strong> sous groupe d N. Donc, lamatrice P (n) = P n ne peut converger quand n → ∞ (car il y aura <strong><strong>de</strong>s</strong> 0 qui alternentavec <strong><strong>de</strong>s</strong> nombres positives pour toujours : voir par exemple la marche cyclique surZ 3 ).Remarque 2.7.4 On vera que la périodicité <strong><strong>de</strong>s</strong> classes transitoires n’empêche pas <strong>du</strong> toutle calcul <strong>de</strong> la matrice <strong>de</strong> distributions à la longue, parce que la masse totale <strong>de</strong> la parti<strong>et</strong>ransitoire d’une chaîne converge vers 0 (voir la troisième remarque qui suit le théorème??).Par contre, la périodicité dans une classe récurrente rend la convergence impossible. Onpeut démontrer que son absence assure la convergence, car cela est équivalent à l’absence<strong><strong>de</strong>s</strong> valeurs propres qui sont racines <strong>de</strong> l’unité, <strong>et</strong> à l’absence <strong><strong>de</strong>s</strong> valeurs propres <strong>de</strong> valeurabsolue |λ| = 1, sauf λ = 1 (par Perron-Frobenius). Finalement, le fait que λ n converge pourchaque valeur propre λ assure l’existence <strong>de</strong> la limite lim n→∞ P n .Donc, la limite à la longue P = lim n→∞ P n (i, j) d’une chaîne existe ssi il n’y apas <strong><strong>de</strong>s</strong> classes récurrentes périodiques.2.7.8 Le théorème <strong>de</strong> Perron-FrobeniusExercice 2.7.7 Est-ce qu’il existent <strong><strong>de</strong>s</strong> matrices rée<strong>les</strong> 2 × 2, sans éléments négatifs, <strong>et</strong>avec <strong><strong>de</strong>s</strong> valeurs propres complexes ?La réponse est un cas particulier <strong>du</strong> :Théorème 2.7.4 (Perron-Frobenius) Soit P une matrice finie sans éléments négatifs.Alors :1. Parmi <strong>les</strong> valeurs propres <strong>de</strong> mo<strong>du</strong>le maximal il existe toujours une, λ = λ P F qui estréelle positive, qu’on apellera la valeur propre PF (<strong>de</strong> Perron-Frobenius). Dèslors, toutes <strong>les</strong> autres valeurs propres ont une valeur absolue inférièure ou égale à lavaleur propre λ P F .49


e:PF2. Le bloque <strong>de</strong> Jordan correspondant à λ P F a une structure diagonale (i.e. la multiciplitéalgebrique ν P F <strong>de</strong> λ P F est égale à la dimension <strong>de</strong> son espace <strong>de</strong> vecteurs propres), <strong>et</strong> <strong>les</strong>espaces <strong><strong>de</strong>s</strong> vecteurs propres à droite <strong>et</strong> à gauche <strong>de</strong> λ P F contiennent chacun une base<strong>de</strong> vecteurs propres v (P F )i , π (P F )i , i = 1, 2, ..., ν P F ayant toutes leurs composantesnonnégatives.3. S’il y a d’autres valeurs propres éga<strong>les</strong> à λ P F en valeur absolue, el<strong>les</strong> doivent être <strong><strong>de</strong>s</strong>racines <strong>de</strong> λ P F , i.e. <strong>de</strong> la forme λ 1/pP F , p ∈ N.Rémarque : Le théorème <strong>de</strong> PF a plusieurs implications pour l’analyse <strong><strong>de</strong>s</strong> chaînes<strong>de</strong> Markov homogènes à espace d’états fini. Par exemple, l’existance <strong><strong>de</strong>s</strong> valeurs propresqui sont <strong><strong>de</strong>s</strong> racines <strong>de</strong> λ P F est équivalente à la presence <strong><strong>de</strong>s</strong> périodicités dans la suite <strong><strong>de</strong>s</strong>puissances P n , n = 1, 2, ...Exercice 2.7.8 Démontrer qu’une matrice stochastique P n’a pas <strong>de</strong> valeurs propres avecmo<strong>du</strong>le plus grand que 1, <strong>et</strong> donc sa valeur propre PF est égale à 1. Ind : Intuitivement, <strong>les</strong>moyennes pon<strong>de</strong>rées <strong>de</strong> v données par P v ne peuvent pas augmenter <strong>les</strong> composantes <strong>de</strong> v.Exercice 2.7.9 Montrez que le théorème <strong>de</strong> Perron-Frobenius implique :1. Une chaîne homogène à espace d’états fini a au moins une distribution stationnaire.2. La dimension <strong>de</strong> l’espace d’états <strong><strong>de</strong>s</strong> distributions stationnaires coinci<strong>de</strong> avec le nb <strong><strong>de</strong>s</strong>classes <strong>de</strong> récurrence.Conclusion : On voit que la connaissance <strong>de</strong> la structure <strong>du</strong> graphe <strong>de</strong> communicationsimplifie consi<strong>de</strong>rablement le problème <strong>du</strong> calcul <strong>de</strong> la limite P .2.7.9 Exercices1.⎛P =⎜⎝0 1 0 0 0 0140 0 0 3 400 1 0 0 0 0340 1 40 0 00 0 0 1 30 2 30 0 1 20 1 20Calculer la limite P <strong>et</strong> la décomposition spectrale, en utilisant un logiciel si nécessaire.2. L’espace <strong><strong>de</strong>s</strong> <strong>et</strong>ats d’une chaine est S = 1, 2, 3, 4, 5, 6 <strong>et</strong> la matrice <strong>de</strong> transition est⎛P =⎜⎝0 1 41210 040 1 0 0 0 00 0 1 30 2 300 0 0 0 0 10 0 1 40 3 40140 0 0 3 40(a) Dessinez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez <strong>les</strong> classes <strong>de</strong> la chaîne. Classifier<strong>les</strong> classes en récurrents <strong>et</strong> transitoires. Y’ a-t-il <strong><strong>de</strong>s</strong> classes periodiques ?(b) Trouvez la distribution stationnaire <strong><strong>de</strong>s</strong> classes récurrentes.(c) Trouvez la limite quand n → inf <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n50⎞⎟⎠⎞⎟⎠


2.8 Exercices <strong>de</strong> révision1. Considérez une particule effectuant une marche aléatoire simple X t , t = 0, 1, 2, ...sur le graphe (A) ci-<strong><strong>de</strong>s</strong>sous : i.e. à chaque moment t = 1, 2, ..., la particule se déplacevers l’un <strong>de</strong> ses voisins sur le graphe à sa position actuelle, avec la même probabilitépour chaque choix.(A)(B)112 32 3005454(a) Calculer :(b)i. L’ésperance en sortant <strong>de</strong> 1 <strong>du</strong> nombre <strong>de</strong> pas T 0 jusq’au noeud 0. Indication :Utiliser la symm<strong>et</strong>rie.ii. L’ésperance en sortant <strong>de</strong> 0 <strong>du</strong> nombre <strong>de</strong> pas ˜T 0 jusq’au premier r<strong>et</strong>our en0.iii. <strong>Les</strong> probabilités stationnaires <strong>de</strong> chaque noeud. Indication : On peut utiliser<strong>les</strong> èquations d’équilibre d<strong>et</strong>aillé.iv. La probabilité x 2 = P 2 {X T = 1}, où T = min[T 1 , T 0 ].v. <strong>Les</strong> probabilités p k en partant <strong>de</strong> 1 que la marche visite 0 exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our en 1.À un moment donné, le passage sur certaines arrêts <strong>du</strong> graphe <strong>de</strong>vient impossible,ou possible seulement dans une direction, comme indiqué par <strong><strong>de</strong>s</strong> flèches dansle graphe (B). Plus précisement, la particule continue <strong>de</strong> choisir <strong><strong>de</strong>s</strong> <strong><strong>de</strong>s</strong>tinationssuivant le graphe (A) (”aveuglement”), mais <strong>les</strong> choix qui ne sont plus disponib<strong>les</strong>résultent dans un pas annulé, donc sur place.i. Donnez la matrice <strong>de</strong> transition <strong>de</strong> la marche.ii. I<strong>de</strong>ntifiez <strong>les</strong> classes <strong>de</strong> la chaîne, <strong>et</strong> classifiez <strong>les</strong> en récurrentes <strong>et</strong> transitoires.iii. Trouvez la distribution stationnaire <strong>de</strong> chaque classe récurrente.iv. Est-ce que la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapesP n existe ? Le cas écheant, trouvez-la.51


2. Des femmes <strong>et</strong> <strong><strong>de</strong>s</strong> hommes arrivent dans un magasin, après <strong><strong>de</strong>s</strong> temps fixes, unitaires.Chaque instant, une femme arrive avec probabilité λ F , ou un homme arrive avec probabilitéλ H , ou il n’y a pas d’arrivée, avec probabilité q = 1 − λ F − λ H .a. Trouver la probabilité qu’une femme entre avant un homme. Indication : Conditionnezsur le premier instant, ou sur le nombre d’instants sans arrivées.b. Trouver la probabilité que <strong>de</strong>ux femme entrent avant un homme.c. Quelle est la probabilité qu’au moins <strong>de</strong>ux hommes soient entrés consecutivement(pas forcement aux moments consecutifs), avant que trois femmes ne soient entréesconsecutivement (pas forcement aux moments consecutifs). Indication : Considèrez unprocessus <strong>de</strong> Markov sur l’espace <strong><strong>de</strong>s</strong> états : (H1, H2, H3, ...) ∪ (F 1, F 2, F 3, ...), quienregistre la longueur k <strong>du</strong> nombre <strong><strong>de</strong>s</strong> clients k ∈ {1, 2, ...} <strong>du</strong> même sexe entrésconsecutivement jusq’au temps t, <strong>et</strong> leur sexe (H/F) ; formulez <strong><strong>de</strong>s</strong> equations d’arrêtpour <strong>les</strong> états d’arrêt indiqués.3. a) Une mouche effectue une marche cyclique sur <strong>les</strong> somm<strong>et</strong>s {1, 2, 3} d’un triangle,avec matrice <strong>de</strong> transition ”circulante”⎛ ⎞a b cP = ⎝c a b⎠b c aoù a, b, c ≥ 0 <strong>et</strong> a + b + c = 1. Il est facile <strong>de</strong> verifier que la matrice <strong>de</strong> transitionP n est aussi ”circulante” (i.e. chaque ligne est dé<strong>du</strong>ite <strong>de</strong> la ligne précé<strong>de</strong>nte par unepermutation cyclique <strong>de</strong> ses éléments vers la droite ) <strong>et</strong> on dénote par (a n , b n , c n ) <strong>les</strong>éléments <strong>de</strong> sa première ligne.(a) Quel<strong>les</strong> sont <strong>les</strong> valeurs limites <strong>de</strong> (a n , b n , c n ) quand n → ∞ ?(b) On cherche une formule explicite, aussi simple que possible, pour la probabilitéa n = P n (1, 1) qu’après n étapes, la mouche soit r<strong>et</strong>ournée au somm<strong>et</strong> 1 d’où elleest partie. Soit v n = (b n , c n ). Trouvez une récurrence pour le vecteur v n .(c) Résolvez c<strong>et</strong>te récurrence <strong>et</strong> trouvez a n , au cas a = b = c = 1/3 <strong>et</strong> au casb = c = 1/2.(d) Résolvez la récurrence, au cas où la mouche a <strong>de</strong>ux fois plus <strong>de</strong> chances <strong>de</strong> sauterdans le sens <strong><strong>de</strong>s</strong> aiguil<strong>les</strong> d’une montre, i.e. b = 2/3, c = 1/3.(e) Généraliser au cas d’une marche cyclique sur <strong>les</strong> somm<strong>et</strong>s d’un polygone aveck somm<strong>et</strong>s (utilisant eventuellement votre language formel <strong>de</strong> choix, commexmaxima,...). Ind : Cela nous ramène à ètudier, eventuellement `l’ai<strong>de</strong> <strong>de</strong> Maxima,<strong>les</strong> puissances <strong><strong>de</strong>s</strong> matrices circulantes stochastiques :A :=matrix([1-b-c,b,c],[c,1-c-b,b],[b,c,1-c-b]) ;Vérifier que la matrice est entré correctement en calculant A1 = subst(1, b, A); A2 =subst(0, b, A1); A2 3 ;Note : Maxima n’est pas capable <strong>de</strong> calculer puissances matriciel<strong>les</strong> symboliques,<strong>et</strong> elle refuse <strong>de</strong> faire même <strong>les</strong> matrices diagona<strong>les</strong> ; mais elle accepte <strong>les</strong> pro<strong>du</strong>its<strong>de</strong> Hadmard symboliques, <strong>et</strong> comme <strong>les</strong> <strong>de</strong>ux coinci<strong><strong>de</strong>s</strong>, elle reussi aussi <strong>les</strong> pro<strong>du</strong>itsmatriciel<strong>les</strong> symboliques, avec un peu d’ai<strong>de</strong> :V :eigenvectors(A) ; V1 :V[2] ;V2 :V[3] ;V3 :V[4] ; VD :transpose(matrix(V1,V2,V3)) ;52


M :ratsimp(invert(VD).A.VD) ; An :ratsimp(VD.M n .invert(VD)) ;4. Soit X t une chaîne <strong>de</strong> Markov absorbante, soit ∂ l’ensemble <strong>de</strong> ses états absorbantes,soit B, A une <strong>de</strong>composition <strong>de</strong> l’ensemble <strong><strong>de</strong>s</strong> états transitoires, <strong>et</strong> soitoùp(k, B) = (p x (k, B), x /∈ ∂)p x (k, B) := P x {exactement k visites en B avant l’absorbtion en ∂}, x /∈ ∂(a) Quel type <strong>de</strong> distribution on trouve pour p x (k, B), quand B = {x} ? (Specifiez <strong>les</strong>paramètres). Quel est le résultat pour la chaîne associé à :⎛⎞0 1 − a a 0 01 − b 0 b 0 0⎜ x 1 x 2 0 x 4 1 − x 1 − x 2 − x 4⎟ où B = {3}, <strong>et</strong> en particulier pour⎝ 0 0 c 0 1 − c ⎠0 0 0 0 1a = b = c = 1/2, x 1 = x 2 = x 4 = 1/4 (”le papillon”).OUBAFigure 2.4 – Marche aléatoire simple sur le graphe papillonC(b) Pour B quelqonque, en conditionnant sur le premier pas, trouvez une relationentre <strong>les</strong> variab<strong>les</strong> p x (k, B), x ∈ A, k ∈ N, <strong>et</strong> finalement une récurrence vectoriellep(k) = Mp(k − 1), en spécifiant comment obtenir la matrice M à partir <strong>de</strong> lamatrice P <strong>de</strong> transition <strong>de</strong> la chaîne. Vérifiez votre formule avec le cas B = A.(c) R<strong>et</strong>rouvez le résultat pour le ”papillon généralisé” ci-<strong><strong>de</strong>s</strong>sus, dans le cas qu’oncherche la probabilité p k en partant <strong>de</strong> U = 5 que la marche visite O = 1 exactementk fois (k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à U) (<strong>les</strong> autres somm<strong>et</strong>sseront libelés A = 2, B = 3, C = 4), à partir <strong>de</strong> la formule générale.(d) Consi<strong>de</strong>rez aussi le ”papillon généralisé”, en prenant B = {1, 2, 3}. Vérifiez pourc<strong>et</strong> exemple que la somme ∑ ∞k=0 p k(i, B) = 1, ∀i ∈ {1, 2, 3}.(e) Ecrivez un program dans votre language <strong>de</strong> choix qui calcule p(k, B) <strong>et</strong> uneapproximation p(k, B) ≈ cλ k pour une chaîne <strong>et</strong> ensemble B arbitraires <strong>et</strong>démontrez sa performance sur <strong>les</strong> exemp<strong>les</strong> 3.5, 3.6 (pages 23-24) <strong>et</strong> ensemb<strong>les</strong> B<strong>de</strong> votre choix.53


5. a) Quelle est la probabilité que la marche aléatoire simple est <strong>de</strong> r<strong>et</strong>our en 0 après 2npas ? b) Approximer c<strong>et</strong>te quantité par la formule <strong>de</strong> Stirling lim n→∞n!(n/e) n√ n = √ 2π.6. Ruegg, 2.9 :10,5,6,14,13,11.Solutions1. (a) i. Soitt i = E i T 0 = E i [ nombre <strong>de</strong> pas jusq’au noeud 0]La symm<strong>et</strong>rie implique t 2 = t 3 , t 5 = t 4 , donc trois équations suffiront (au lieu<strong>de</strong> 5). En conditionnant sur le premier pas, on trouve que t i satisfont :t 1 = 1 + t 2t 2 = 1 + 1 4 t 1 + 1 4 t 2 + 1 4 t 5t 5 = 1 + 1 3 t 5 + 1 3 t 2Ça donne : t 5 = 11, t 3 2 = 13,t 3 1 = 163ii. E ˜T 0 = 1 + 1(t 4 2 + t 3 + t 4 + t 5 ) = 1 + 12 = 5 (= 1 3 π 0)iii. π i sont proportionels aux <strong>de</strong>grés v i <strong><strong>de</strong>s</strong> somm<strong>et</strong>s, i.e. π i = v i ∑j v j , donnant(π 1 = 2/(2 + 4 ∗ 3 + 3 ∗ 2) = 1 , π 10 2 = 4/20 = 1, π 5 0 = 3 ) (en vérifiant ainsi le20théorème E ˜T 0 = 1 π 0).iv. Le système d’absorption, tenant compte <strong>de</strong> x 2 = x 3 , x 4 = x 5 est :x 2 = 1 4 x 2 + 1 4 x 4 + 1 4Ça donne : x 2 = 2 5 , x 4 = 1 5 .v. p k = ( 2 5 )k 3 5 .x 4 = 1 3 x 2 + 1 3 x 4(b) i. Après la détérioration, la matrice <strong>de</strong> transition est :⎛⎞1 0 0 0 0 00 0 1 10 02 2 1 1P =0 1 0 1 4 4 4 41 1 1⎜ 0 1 04 4 4 4 ⎟⎝0 0 0 0 2 1⎠3 30 0 0 0 1 23 3Sans <strong>les</strong> pas sur place, elle serait⎛⎞1 0 0 0 0 00 0 1 10 02 2 1 1P =0 1 0 1 4 4 4 41 1 1⎜ 0 1 04 4 4 4 ⎟⎝0 0 0 0 1 0⎠0 0 0 0 0 154


ii. classes recurrentes : {0}, {4, 5} ; classe transiente : {1, 2, 3}.iii. <strong>les</strong> distributions stationnaires <strong><strong>de</strong>s</strong> classes recurrentes : 1 <strong>et</strong> ( 1 2 , 1 2 ).iv. Le système d’absorption pour <strong>les</strong> probabilités d’absorption dans la classe 0est :x 1 = 1 2 x 2 + 1 2 x 3x 2 = 1 4 x 3 + 1 4 x 1 + 1 4x 3 = 1 4 x 2 + 1 4 x 1 + 1 4<strong>et</strong> x 1 = x 2 = x 3 = 1 2 .La matrice <strong><strong>de</strong>s</strong> distributions asymptotique :2. (a) La probabilité p F satisfait⎛⎞1 0 0 0 0 010 0 0 1 12 4 41P =0 0 0 1 12 4 41⎜ 0 0 0 1 12 4 4⎟⎝0 0 0 0 1 1⎠2 20 0 0 0 1 12 2p F = λ F + (1 − λ F − λ H )p F ⇐⇒ p F =λ Fλ F + λ H(b) p 2 F(c) Consi<strong>de</strong>rons la chaîne <strong>de</strong> Markov en temps discr<strong>et</strong> qui enregistre la longueur<strong>du</strong> nombre <strong><strong>de</strong>s</strong> clients <strong>du</strong> même sexe entrés consecutivement <strong>et</strong> le type, ayantcomme espace <strong><strong>de</strong>s</strong> états <strong>les</strong> suites (H1, H2, H3, ...) ∪ (F 1, F 2, F 3, ...). En prenanten consi<strong>de</strong>ration seulement <strong>les</strong> temps quand la chaîne saute, pn a une marchealéatoire qui ”avance” sur <strong>les</strong> hommes/femmes a.p. p H = 1 − p F <strong>et</strong> p F , <strong>et</strong> ”change<strong>de</strong> sexe” outrement. Par exemple, si λ F = 2λ H , <strong>les</strong> <strong>de</strong>ux probas sont p H = 1 3 , p F =23 . En <strong>de</strong>notant par x i, y i la probabilité <strong>de</strong> notre evenement en partant d’une suite<strong><strong>de</strong>s</strong> i femmes hommes, il faudra resoudre :y 1 = p H + p F x 1x 1 = p H y 1 + p F x 2x 2 = p H y 1Generalisant pour m hommes <strong>et</strong> n femmes <strong>et</strong> posant S F,k, nous trouvont∑ ki=1 pi H= ∑ ki=1 pi F , S H,k =y 1 =p m−1H1 − p H p F S H,m−2 S F,n−2, x 1 =55p m H S F,n−21 − p H p F S H,m−2 S F,n−2


<strong>et</strong> finalementp H y 1 + p F x 1 = pm H (1 + p F S F,n−2 )1 − p H p F S H,m−2 S F,n−2=Pour m = 2, n = 3, on trouve :<strong>et</strong>y 1 =p H1 − p H p F (1 + p F ) , x 1 =p m H S F,n−1)1 − p H p F S H,m−2 S F,n−2p 2 H (1 + p F )1 − p H p F (1 + p F )p H y 1 + p F x 1 = p2 H (1 + p F + p 2 F )1 − p H p F (1 + p F )3. a) L’équation <strong>de</strong> Chapman-Kolmogorov donne imédiatement une formule explicite :P n (1, 1). On note aussi que <strong>les</strong> marches cycliques ont la matrice <strong>de</strong> transition P circulante,<strong>et</strong> donc nous avons une <strong>de</strong>composition spectrale bien-connue explicite, qui utilise<strong>les</strong> racines (complexes) <strong>de</strong> l’unité. Mais, on peut faire mieux. La matrice P n est aussicirculante, <strong>et</strong> contient donc seulement <strong>de</strong>ux inconnues : b n = P n (1, 2), c n = P n (1, 3).Soit b = P (1, 2), c = P (1, 3), a = P (1, 1) = 1 − b − c <strong>les</strong> probabilités après un pas. Ontrouve ( la récurrence ) ( : ) ( )bn+1 − 1/3 a − b c − b bn − 1/3=c n+1 − 1/3 b − c a − c c n − 1/3Le cas b = c = 1/2 <strong>et</strong> a = b = c = 1/3 donnent <strong><strong>de</strong>s</strong> récurences ”<strong>de</strong>couplées”. Le casb = 2/3, c = 1/3 est plus difficile. En utilisant l’ordinateur, on rémarque que :où v n = v n+12 est périodique.(b n − 1/3, c n − 1/3) = (1/3, 1/3) + 3 −1−n/2 v n4. (a) Quand |B| = 1, on trouve une distribution geom<strong>et</strong>rique p x (k, {x}) = λ k−1 (1 − λ)où : 1−λ = p x (1, {x}) = Q(x, ∂(A)+ ∑ ∑y∈A−B p(x, y)P y[T ∂(A) < T x ] = Q(x, ∂(A)+y∈A−B p(x, y)(1−P y[T ∂(A) > T x ]), <strong>et</strong> λ = Q B,B + ∑ y∈A−B p(x, y)P y[T ∂(A) > T x ] =Q B,B + Q B,A (I − Q A ) −1 Q A,B , car pour k ≥ 2 on a :p x (k, {x}) =∑p(x, y)P y [T ∂(A) > T x ]p x (k − 1, {x}) = λp x (k − 1, {x})y∈A−BPour le papillon, B = {3}, λ B = x 1 + x 2 + cx 4 = 5/8 <strong>et</strong> pour B = {1}, λ B = 3/8.(b) Il est convenable <strong>de</strong> partager p k = (a k , b k ), où b k = (p x (k, B), x ∈ B), a k =(p x (k, B), x ∈ A, x /∈ B). On peut supposer qu’il y a un seul état absorbant (en”collant ensemble” tous <strong>les</strong> états absorbants), <strong>et</strong> soit⎛⎞Q A Q A,B | q AP = ⎝Q B,A Q B | q B⎠0 0 | 1la partition <strong>de</strong> la matrice <strong>de</strong> transition contenant <strong>les</strong> états dans l’ordre A−B, B, ∂.On a b 0 = 0, b 1 = q B + Q B,A a 0 <strong>et</strong>a 0 = q A + Q A a 0 =⇒ a 0 = (I − Q A ) −1 q A ,b 1 = q B + Q B,A (I − Q A ) −1 q A56


Pour k ≥ 2, x ∈ B, p x (k, B) = ∑ y∈A P (x, y)p y(k − 1, B), <strong>et</strong> doncb k = Q B b k−1 + Q B,A a k−1tant que pour x /∈ B, k ≥ 1, p x (k, B) = ∑ y∈A P (x, y)p y(k, B) <strong>et</strong> doncCommea k = Q A,B b k + Q A a k =⇒ a k = (I − Q A ) −1 Q A,B b kb 1 = (I B − Q B )1 B − Q B,A 1 A + Q B,A (I − Q A ) −1 ((I A − Q A )1 A − Q A,B 1 B ) = (I B − M)1 Bon trouveb k = (Q B + Q B,A (I − Q A ) −1 Q A,B )b k−1 =⇒ b k = M k−1 ((I B − M)1 B )où M = Q B + Q B,A (I − Q A ) −1 Q A,B est la matrice <strong>de</strong> transition <strong>de</strong> la ”chaînein<strong>du</strong>ite” sur B (où ”complement <strong>de</strong> Shur” <strong>de</strong> A en Q).Quand B = A, on r<strong>et</strong>rouve b k = Q k−1B q B.(c) En résolvant le système d’absorbtion pour p A , p B , p C , on trouve p A = 3/4, p B =1/2, p C = 1/4. 5) Soit p A,k = P A {exactement k visites en U avant le r<strong>et</strong>our en O},avec p B,k , p C,k définies pareillement, <strong>et</strong> p k = (p A,k , p B,k , p C,k ).Ainsi, p 0 = (p A , p B , p C ) <strong>et</strong> p 0 = 1(p 2 A,0 + p B,0 ) = 1(p 2 A + p B ).Pour k ≥ 1, on trouve :⎛⎞ ⎛⎞0 1/2 0 0 0 0p k = ⎝1/4 0 1/4⎠ p k + ⎝0 1/8 1/8⎠ p k−10 1/2 0 0 1/8 1/8⎛⎞⎞1 −1/2 0⇐⇒ p k = ⎝−1/4 1 −1/4⎠0 −1/2 1⎛⎞0 1/8 1/8⇐⇒ p k = ⎝0 1/4 1/4⎠ p k−10 3/8 3/8−1 ⎛0 0 0⎝0 1/8 1/80 1/8 1/8⎠ p k−1⎛1 0⎞1/3<strong>Les</strong> vecp à droite sont <strong>les</strong> colonnes <strong>de</strong> ⎝0 −1 2/3/ ⎠, <strong>les</strong> valp correspondantes0 1 1sont : 0, 0, 5/8 <strong>et</strong> le vecp <strong>de</strong> PF à gauche est : (0, 3/5, 3/5).⎛ ⎞1/5Dés lors, p k = (5/8) k−1 (p B + p C ) ⎝2/5⎠ <strong>et</strong> p k = (5/8) k−1 (p B + p C )3/103/52.9 Contrôle continu 11. Marches reversib<strong>les</strong> ?57


(a) Consi<strong>de</strong>rez une chaîne <strong>de</strong> Markov sur {1, 2, 3} avec matrice <strong><strong>de</strong>s</strong> transitions⎛0 1/6 5/6⎞P = ⎝ 6/7 0 1/7 ⎠30/31 1/31 0Combien d’équations d’équilibre d<strong>et</strong>ailléπ i P (i, j) = π j P (j, i), avec i ≠ j, P (i, j) ≠ 0, <strong>et</strong> P (j, i) ≠ 0)y a t’il ? Est-ce qu’ils adm<strong>et</strong>tent <strong><strong>de</strong>s</strong> solutions strictement positives ? Le caséchéant, trouvez la distribution stationnaire.(*) Est-ce que <strong>les</strong> équations d’équilibre d<strong>et</strong>aillé continuerons à adm<strong>et</strong>tre <strong><strong>de</strong>s</strong> solutions(strictement positives), si on modifie une <strong><strong>de</strong>s</strong> lignes <strong>de</strong> la matrice <strong><strong>de</strong>s</strong>transitions, en laissant <strong>les</strong> <strong>de</strong>ux autres inchangées ?(b) Soit X n une chaîne <strong>de</strong> Markov sur {0, 1, 2, ..., B}, B ∈ N, avec :P (i, i + 1) = p, ∀i ∈ {0, 1, 2, ..., B − 1}P (i, i − 1) = q, ∀i ∈ {1, 2, ..., B − 1, B}P (0, 0) = q, P (B, B) = p, <strong>et</strong>P (i, j) = 0 outrement(on suppose 0 < p, q <strong>et</strong> p + q = 1). Combien d’équations d’équilibre d<strong>et</strong>aillé y at’il ? Est-ce qu’ils adm<strong>et</strong>tent <strong><strong>de</strong>s</strong> solutions strictement positives ? le cas échéant,trouvez la distribution stationnaire.(*) Est-ce que <strong>les</strong> équations déquilibre d<strong>et</strong>aillé continuerons à adm<strong>et</strong>tre <strong><strong>de</strong>s</strong> solutions(strictement positives), si on modifie <strong>les</strong> valeurs p, q à p i > 0, q i > 0, p i +q i =1, ∀i ∈ {0, 1, 2, ..., B} (en gardant exactement le même graphe <strong><strong>de</strong>s</strong> transitions avecprobabilités non nul<strong>les</strong>) ?2. Considérez une particule effectuant une marche aléatoire simple X t , t = 0, 1, 2, ...sur le graphe (A) ci-<strong><strong>de</strong>s</strong>sous : i.e. à chaque moment t = 1, 2, ..., la particule se déplacevers l’un <strong>de</strong> ses voisins sur le graphe à sa position actuelle, avec la même probabilitépour chaque choix.(a) Calculer :i. <strong>Les</strong> probabilités stationnaires <strong>de</strong> chaque noeud.ii. L’ésperance en sortant <strong>de</strong> 1 <strong>du</strong> nombre <strong>de</strong> pas T 0 jusq’au noeud 0. Indication :Utiliser la symm<strong>et</strong>rie.iii. L’ésperance en sortant <strong>de</strong> 0 <strong>du</strong> nombre <strong>de</strong> pas ˜T 0 jusq’au premier r<strong>et</strong>our en0.(b) i. La probabilité x 2 = P 2 {X T = 1}, où T = min[T 1 , T 0 ].(c)ii. <strong>Les</strong> probabilités p k en partant <strong>de</strong> 1 que la marche visite 0 exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our en 1.À un moment donné, le passage sur certaines arrêtes <strong>du</strong> graphe <strong>de</strong>vient impossible,ou possible seulement dans une direction, comme indiqué par <strong><strong>de</strong>s</strong> flèches dans legraphe (B). La particule continue <strong>de</strong> choisir <strong><strong>de</strong>s</strong> <strong><strong>de</strong>s</strong>tinations suivant le grapheinitial (A) comme dans la question précé<strong>de</strong>nte, mais <strong>les</strong> choix qui ne sont plusdisponib<strong>les</strong> résultent c<strong>et</strong>te fois dans un pas annulé, donc sur place.58


(A)(B)112 32 3005454i. Donnez la matrice <strong>de</strong> transition <strong>de</strong> la marche.ii. I<strong>de</strong>ntifiez <strong>les</strong> classes <strong>de</strong> la chaîne, <strong>et</strong> classifiez <strong>les</strong> en récurrentes <strong>et</strong> transitoires.iii. Trouvez la distribution stationnaire <strong>de</strong> chaque classe récurrente.iv. Est-ce que la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapesP n existe ?v. (*) Le cas écheant, trouvez-la.3. La chaîne paresseuse : Soit X n une chaîne <strong>de</strong> Markov sur {0, 1, 2, ..., B}, B ∈ N,avec 0 <strong>et</strong> B états absorbants, <strong>et</strong>P (i, i + 1) = p f i ,P (i, i − 1) = q f i ,P (i, i) = 1 − (p + q)f i ,P (i, i + k) = 0 pour|k| > 2, ∀i ∈ {1, 2, ..., B − 1}(on suppose 0 < p, q, f i <strong>et</strong> f i (p + q) < 1, ∀i ∈ {1, 2, ..., B − 1}). Nous arrêtons leprocessus au temps d’arrêt T = inf{n : X n /∈ [1, B − 1]} auquel le processus sort <strong>de</strong>l’intervalle [1, B − 1].Pour tout x <strong>de</strong> N, on note par P x , E x la mesure <strong>et</strong> espérance en commençant <strong>de</strong> x(conditionnant sur X 0 = x).(a) Quel<strong>les</strong> sont <strong>les</strong> équations <strong>de</strong> récurrence <strong>et</strong> <strong>les</strong> conditions frontière satisfaites parp x = P x {X T = K}, t x = E x T , <strong>et</strong> g x = E x X T .(b) Résolvez <strong>les</strong> équations <strong>de</strong> récurrence qui en résultent quand p = q < 1/2, f i = 1,<strong>et</strong> quand p = q < 1/2, f i = 1/i.59


Solutions1. a) C’est juste un système linéaire avec n = 3 inconnues (bon, <strong>de</strong>ux, car latroisième viendra <strong>de</strong> la normalisation).Pour faciliter la tache, on peut quand même comencer par resoudre n−1 = 2 équationsd’équilibre d<strong>et</strong>ailléπ 1 5/6 = π 3 30/31, π 2 1/7 = π 3 1/31.Prenons π 3 = 31 (en renoncant pour l’instant à la normalization). On trouve π 1 =36, π 2 = 7, qui satisfont aussi la troisième équations d’équilibre d<strong>et</strong>aillé.Il ne reste qu’a normaliser par la somme :π = 1 (36, 37, 31).74Rq : La matrice D(i, j) = π i P (i, j) obtenue ainsi (avec ou sans normalisation) estsymmétrique.⎛0 6 30⎞D = ⎝ 6 0 1 ⎠30 1 0(<strong>et</strong> pourrait correspondre aux con<strong>du</strong>ctances d’un réseau).Pour une matrice stochastique arbitraire <strong>de</strong> dimension 3, <strong>les</strong> quatre équations correspondantes(trois d’équilibre d<strong>et</strong>aillé + la normalisation) n’auront pas <strong>de</strong> solution, <strong>et</strong>donc la distribution stationnaire ne sera pas reversible/”graphique/electrique”. En general,<strong>les</strong> matrices <strong>de</strong> dimension n ≥ 3 n’ont pas <strong>de</strong> ”graphe pon<strong>de</strong>ré associé) maisseulement le digraph (graphe directionné) <strong>de</strong> communication bien connu.b) <strong>Les</strong> équations d’equilibre correspon<strong>de</strong>nt à une recurrence d’ordre <strong>de</strong>ux (donc facileà résoudre), mais <strong>les</strong> équations d’équilibre d<strong>et</strong>aillé sont d’ordre 1, donc super facileà résoudre. Comme il y a que B − 1 équations d’équilibre d<strong>et</strong>aillé, c<strong>et</strong>te fois ca restesuper facile même avec une matrice arbitraire avec le même (di)graphe. Ca sera le cas<strong>de</strong> tous <strong>les</strong> graphes forêts (sans cyc<strong>les</strong>), car un graphe forêt avec B noeuds a B − 1arrêtes ! (<strong>de</strong>m par recurrence).2. (a) i. π i sont proportionels aux <strong>de</strong>grés d i <strong><strong>de</strong>s</strong> somm<strong>et</strong>s. En divisant par la sommeD = 2 + 4 ∗ 3 + 3 ∗ 2 = 20, on trouve π i =d i ∑j , donnant (π d 1 = 2/20 =j1, π 10 2 = π 3 = π 0 = 4/20 = 1, π 5 4 = π 5 = 3 ) 20ii. Soitt i = E i T 0 = E i [ nombre esperé <strong>de</strong> pas jusq’au noeud 0].Rq : Pour c<strong>et</strong>te question, le noeud 0 est effectivement absorbant.La symm<strong>et</strong>rie implique t 2 = t 3 , t 5 = t 4 , donc trois équations suffiront (au lieu<strong>de</strong> 5). En conditionnant sur le premier pas, on trouve que t i satisfont :t 1 = 1 + t 2t 2 = 1 + 1 4 t 1 + 1 4 t 2 + 1 4 t 560t 5 = 1 + 1 3 t 5 + 1 3 t 2


(b)Rq : C’est la structure typique Gt + 1 = 0 pour <strong>les</strong> pbs <strong>de</strong> temps esperé.Ça donne : t 5 = 11, t 3 2 = 13, t 3 1 = 16 3iii. E ˜T 0 = 1+ 1(t 4 2 +t 3 +t 4 +t 5 ) = 1+ 12 = 5 (= 1 3 π 0) en vérifiant ainsi le théorèmeE ˜T 0 = 1 π 0.i. Rq : Pour c<strong>et</strong>e question, <strong>les</strong> noeuds 0, 1 sont effectivement absorbants. <strong>Les</strong>ystème d’absorption, tenant compte <strong>de</strong> x 2 = x 3 , x 4 = x 5 est :x 2 = 1 4 x 2 + 1 4 x 4 + 1 4x 4 = 1 3 x 2 + 1 3 x 4Rq : C’est la structure typique Gp = 0 pour <strong>les</strong> pbs <strong>de</strong> prix final esperé.Ça donne : x 2 = 2 5 , x 4 = 1 5 .ii. Rq : Pour c<strong>et</strong>te question, le noeud 1 est absorbant.p k = ( 2 5 )k 3 5 .(c) i. Après la détérioration, la matrice <strong>de</strong> transition est :⎛⎞1 0 0 0 0 00 0 1 10 02 2 1 1P =0 1 0 1 4 4 4 41 1 1⎜ 0 1 04 4 4 4 ⎟⎝0 0 0 0 2 1⎠3 30 0 0 0 1 23 3(Sans <strong>les</strong> pas sur place, elle serait)⎛⎞1 0 0 0 0 00 0 1 10 02 2 1 1P =0 1 0 1 4 4 4 41 1 1⎜ 0 1 04 4 4 4 ⎟⎝0 0 0 0 1 0⎠0 0 0 0 0 1ii. classes recurrentes : {0}, {4, 5} ; classe transiente : {1, 2, 3}.iii. <strong>les</strong> distributions stationnaires <strong><strong>de</strong>s</strong> classes recurrentes : 1 <strong>et</strong> ( 1 2 , 1 2 ).iv. Le système d’absorption pour <strong>les</strong> probabilités d’absorption dans la classe 0est :x 1 = 1 2 x 2 + 1 2 x 3x 2 = 1 4 x 3 + 1 4 x 1 + 1 4x 3 = 1 4 x 2 + 1 4 x 1 + 1 4<strong>et</strong> x 1 = x 2 = x 3 = 1 2 . 61


v. La matrice <strong><strong>de</strong>s</strong> distributions asymptotique est :⎛⎞1 0 0 0 0 010 0 0 1 12 4 41P =0 0 0 1 12 4 41⎜ 0 0 0 1 12 4 4⎟⎝0 0 0 0 1 1⎠2 20 0 0 0 1 12 23. (a) Soit (Gf) x = p (f x+1 −f x )+q (f x−1 −f x ) l’operateur <strong>du</strong> cas ”non-paresseux”,(saufque maintenant p + q < 1.<strong>Les</strong> équations sont respectivement :(Gp) x = 0, p K = 1, p 0 = 0(Gg) x = 0, g K = K, g 0 = 0f x (Gt) x + 1 = 0, t K = 0, t 0 = 0La partie homogène <strong><strong>de</strong>s</strong> équations est exactement la même comme pour une marche”non-paresseuse”, mais la partie non-homogène <strong><strong>de</strong>s</strong> équations est differente.(b) Pour p x <strong>et</strong> g x on obtient donc <strong>les</strong> mêmes équations comme pour une marche symm<strong>et</strong>riqueavec p = 1/2, i.e. :2pp x = pp x+1 + pp x−1 for any 1 ≤ x ≤ K − 1p K = 1, p 0 = 00<strong>et</strong> donc <strong>les</strong> mêmes réponses p x = x , Kesperé) on trouve :g x = x Pour t x = E x [T ] (temps <strong>de</strong> sorti<strong>et</strong> x = t x+12 + t x−12 + 12pt K = 0, t 0 = 0for any 1 ≤ x ≤ K − 1avec solution t x = x(K−x)2p.62


2.10 Contrôle continu 20111. a) Obtenez une formule explicite pour la suite décrite par la relation <strong>de</strong> récurrenceci-<strong><strong>de</strong>s</strong>sous (<strong>et</strong> verifiez-la en utilisant <strong>les</strong> premiers termes <strong>de</strong> la suite)T n = 4T n−1 − 3T n−2 + 2, n ≥ 2, T 0 = T 1 = 0 (2.28)b) Calculez la fonction génératrice T (z) = ∑ n≥0 T nz nc) (*) Obtenez la fonction génératrice T (z) directement, en appliquant la métho<strong>de</strong> <strong><strong>de</strong>s</strong>fonctions génératrices à l’équation (2.28).2. On lance une pièce <strong>de</strong> monnaie biaisée, avec la probabilité <strong>de</strong> sortir face égale à q <strong>et</strong>celle <strong>de</strong> sortir pile égale à p = 1 − q, jusqu’à ce qu’on obtient une suite <strong>de</strong> K pi<strong>les</strong>(pile-pile-pile-..), arrivèes consécutivement.a) Trouvez l’espérance n = EN <strong>du</strong> nombre <strong>de</strong> j<strong>et</strong>s N jusqu’à l’arrêt, en incluant<strong>les</strong> <strong>de</strong>rniers pas, quand K=2, <strong>et</strong> donnez la reponse en termes <strong>de</strong> p. Indication : Onpourrait utiliser un processus <strong>de</strong> Markov qui r<strong>et</strong>ient l’information minimale nécessairepour déci<strong>de</strong>r si l’événement désiré a eu lieu, <strong>et</strong> qui contient dans ce cas l’état final<strong><strong>de</strong>s</strong>iré, <strong>et</strong> tous ses prefixes.b)(*) Trouvez l’espérance n = EN quand K=3. Proposez une formule valable pourun nb. arbitraire K.⎛p 1 p |⎞1 − p 1 − p3. Soit X t une chaîne absorbante sur {1, 2, a} avec matrice <strong>de</strong> transition ⎝ 0 p 2 | 1 − p 2⎠0 0 | 1⎛⎞Q| 1 − p 1 − p⎝ | 1 − p 2⎠ où Q =0 0| 1Soit N le nombre <strong><strong>de</strong>s</strong> pas (transitions) jusqu’à l’absorbtion en a.( )p1 p, <strong>et</strong> avec distribution initiale (1, 0, 0).0 p 2(a) Quelle est la valeur <strong>de</strong> N si X 0 = X 1 = ... = X k−2 = 1, X k−1 = 2 <strong>et</strong> X k = a ?(b) Trouvez l’esperance <strong>du</strong> nombre <strong><strong>de</strong>s</strong> pas N jusq’à l’absorbtion.(c) Demontrez que pour i, j ∈ {1, 2}, <strong>et</strong> k ∈ {1, 2, ...}, il est vrai que(d) Quelle sont <strong>les</strong> probabilités(e) Donnez la formule <strong><strong>de</strong>s</strong> probabilitésP [N ≥ k, X k = j|X 0 = i] = P [X k = j|X 0 = i]P [N ≥ 2, X 2 = j|X 0 = i], i, j ∈ {1, 2}a 1 = P [N ≥ k, X k = 1|X 0 = 1], a 2 = P [N ≥ k, X k = 2|X 0 = 2], k ∈ {1, 2, ...}(f) Calculez la matrice generatrice (I − xQ) −1 .(g) Calculez la matrice fondamentale (I − Q) −1 , <strong>et</strong> verifiez la reponse <strong>du</strong> point b).63


(h) (*) Calculez Q k , en utilisant le <strong>de</strong>veloppement limite (en serie <strong>de</strong> puissances) <strong>de</strong>la matrice generatrice (I − xQ) −1 .(i) (*) Trouvez <strong>les</strong> probabilités P [N ≥ k|X 0 = 1].Solutions1. a)T n = 1 2 (3n − 1) − nb)T (z) =12(1 − 3z) − 12(1 − z) − z(1 − z) = 12 2(1 − 3z) + 12(1 − z) − 1(1 − z) = 2z 22 (1 − z) 2 (1 − 3z)La <strong>de</strong>rnière expression peut être obtenue directement, à partir <strong>de</strong> la recurrence.2. a) Consi<strong>de</strong>rons le processus <strong>de</strong> Markov sur <strong>les</strong> états suivants, qui specifient une <strong>de</strong>compositionen trois cas possib<strong>les</strong> pour la longueur <strong>de</strong> la <strong>de</strong>rnière suite <strong><strong>de</strong>s</strong> <strong>de</strong>ux pi<strong>les</strong> :A = {P P }, P = {P c P }, P c = {P c P }, <strong>et</strong> soit x 0 , x 1 , x 2 = 0 le nombre esperé <strong><strong>de</strong>s</strong> futurspas jusq’á l’arrêt, conditionné par ces états initiaux.( ) q pSoit Q = . <strong>Les</strong> <strong>de</strong>ux inconnues v = (xq 00 , x 1 ) satisfont (Q − I)v + 1 = 0. Laréponse estx 1 = 1 p 2 , x 0 = 1 + pp 2 .b) Consi<strong>de</strong>rons le processus <strong>de</strong> Markov sur <strong>les</strong> états suivants, qui specifient une <strong>de</strong>compositionen trois cas possib<strong>les</strong> pour la longueur <strong>de</strong> la <strong>de</strong>rnière suite <strong><strong>de</strong>s</strong> pi<strong>les</strong> :A = {P P P }, P P = {P c P P }, P = {P c P }, P c = {P c }, <strong>et</strong> soit x 0 , x 1 , x 2 , x 3 = 0 lenombre esperé <strong><strong>de</strong>s</strong> futurs pas jusq’á l’arrêt, conditionné par ces états initiaux.⎛ ⎞q p 0Soit Q = ⎝q 0 p⎠. <strong>Les</strong> trois inconnues v = (x 0 , x 1 , x 2 ) satisfont (Q − I)v + 1 = 0.q 0 0La réponse est3. a) N = k, b) E 1 N = 1x 2 = 1 p , x 3 1 = 1 + p , xp 3 0 = 1 + p + p2p 31−p 1+p(1−p 1 )(1−p 2 ) ,c) Pour i, j transients, l’evenement [X k = j|X 0 = i] implique, est inclu <strong>et</strong> en eff<strong>et</strong>coinci<strong>de</strong> avec [N ≥ k, X k = j|X 0 = i]d) Q 2 (i, j) = ...e) On <strong>de</strong>vine <strong>et</strong> comprends facilement que a i = Q k (i, i) = p k i , i = 1, 2f) La matrice generatrice est(I − xQ) −1 =64(11−xp 1)xp(1−xp 1 )(1−xp 2 )1−xp 201


g) En posant x = 1, on trouve la matrice fondamentale :(I − Q) −1 =(11−p 1)p(1−p 1 )(1−p 2 )1−p 201n 2 = E 2 N = 1 , n 1 = E 1 N = 1p+1 − p 2 1 − p 1 (1 − p 1 )(1 − p 2 )( ∑k−1)h) On r<strong>et</strong>rouve Q k (1, 1) = p k 1, Q k (2, 2) = p k 2, <strong>et</strong> on trouve Q k (1, 2) = pi=0 pi 1p k−1−i2 .Pour interpr<strong>et</strong>er probabilistiquement la formule <strong>de</strong> Q k (1, 2), il est utile <strong>de</strong> remarquerqu’il s’agit <strong>de</strong> la distribution phase la plus simple(qui n’est ni serie, ni parallèle∑k−1)i) P [N ≥ k|X 0 = 1] = Q k (1, 1) + Q k (1, 2) = p k 1 + pi=0 pi 1p k−1−i2 . La somme verifiela reponse b).65


Chapitre 3Programmation3.1 Scilab <strong>et</strong> Logiciels symboliques (SAGE <strong>et</strong> maxima)3.2 Proj<strong>et</strong>s<strong>Les</strong> proj<strong>et</strong>s seront notées à partir <strong>du</strong> travail en classe ; la presence est une partie esentielle<strong>de</strong> la note.1. Essayez <strong>les</strong> comman<strong><strong>de</strong>s</strong> Scilab :P=genmarkov([2,1],2), P 20 , [G,D]=eigenmarkov(P), P G − D ∗ G, P 20 G − D 20 ∗ G.Notes : 1) <strong>les</strong> resultats <strong>de</strong> eigenmarkov sont <strong><strong>de</strong>s</strong> vecteurs propres nonnegatifs, ce quin’est pas le cas avec <strong>les</strong> comman<strong><strong>de</strong>s</strong> ”généralistes” spec en Scilab <strong>et</strong> eig en Matlab.2) Pour documentation Scilab, voir http ://cermics.enpc.fr/scilab new/site/Liens/intro/intro.htmou http ://www.scilab.org/pro<strong>du</strong>ct/man-eng/in<strong>de</strong>x.html. Pour obtenir <strong>de</strong> l’ai<strong>de</strong>, helpsum,...2. Ecrivez un programme Scilab qui simule une fois une v.a. (variable aléatoire) avec <strong><strong>de</strong>s</strong>probabilités specifiés par un vecteur nonnegatif (ex : p = [1/6, 1/3, 1/2, 0]), <strong>et</strong> prenant<strong><strong>de</strong>s</strong> valeurs dans l’ensemble 1, 2, ..., n=length(p).R : % rando.m generates a random variable ”ind” in 1, 2, ..., n//given a distribution vector "p".function [in<strong>de</strong>x] = disc(p),u = rand(1,1); i = 1; s = p(1);while ((u > s) & (i < length(p))),i=i+1;s=s+p(i),// s est le cumsum <strong>de</strong> pendin<strong>de</strong>x=i,endfunctionDécouvrez le chemin <strong>de</strong> votre directoire <strong>de</strong> travail par >>pwd <strong>et</strong> son contenu par>>dir. Sauvegar<strong>de</strong>z la fonction antérieure dans ce directoire, dans un fichier lib, contenant<strong><strong>de</strong>s</strong> programmes uti<strong>les</strong>.Vous allez pouvoir <strong>les</strong> reutiliser en chaque session, après avoir executé lib (menu fichier).3. creez <strong>et</strong> ajoutez au fichier lib une fonction sim(N,a,d), où a,d sont <strong><strong>de</strong>s</strong> vecteurs d<strong>et</strong>ail<strong>les</strong> ega<strong>les</strong>, qui qui simule un nb <strong><strong>de</strong>s</strong> fois (N) une v.a. (variable aléatoire) prenant<strong><strong>de</strong>s</strong> valeurs specifiés par un vecteur donné, avec <strong>les</strong> probabilités specifiés par un autre66


vecteur (par exemple N = 8, a = [1, 3, 5, 100], d = [1/6, 1/3, 1/2, 0]), <strong>et</strong> sorte une liste<strong><strong>de</strong>s</strong> valeurs obtenues ”sim” <strong>et</strong> <strong>les</strong> frequences ”f” <strong>de</strong> chaque valeur.Sol :function [simul,f] = sim(N,d,a),p=d/sum(d);s=cumsum(p);K=size(d,2);//Nb. <strong><strong>de</strong>s</strong> colonnesx=rand(1,N);y=zeros(K,N);z=zeros(K,N);y(1,:)=xs(k-1) & x< s(k);z(k,:)=a(k)*y(k,:); endr=sum(z,1); f=sum(y,’c’)/N;simul=r;endfunctionTestez le programme pour simuler <strong>les</strong> lancés d’un dé : N=600 ;d=ones(1,6) ;a=1 :6 ; <strong>et</strong>(*) tra<strong>du</strong>isez le en sage.4. Qu’est ce que fait le pg. suivant :// marche(N,m) displays outcomes of the N-step random walkfunction [traj] = marche(N,m)// r<strong>et</strong>urn the path S as a vectorclf; // clear the entire figur<strong>et</strong>ime=(0:1:N); p=0.5 *(1+m * sqrt(N)); traj=zeros(time) ;traj=[0,cumsum(2*(rand(1,N)>p)-1)];// vector will contain the trajectory X(0),X(1/N)...,X(1)//for t=1:N//traj(t+1)=traj(t) + ( 2*grand(1,1,"bin",1,p)-1 ) ;//end ;plot2d2(time/N,traj/sqrt(N)); // plot the path xtitle("Scaled Randomwalk", "time (t)","X(t)")endfunction5. <strong>Bonheur</strong> <strong>du</strong> joueur pour une marche réflechie en 0. Consi<strong>de</strong>rez une marchealéatoire symétrique (p=q=1/2), commencée en X 0 = 0, réflechie en 0 <strong>et</strong> arrêtée autemps T B , B ∈ Na) Ecrivez une fonction qui, pour un nb. entier j donné, sort la position finale X nd’une marche commencée en X 0 = 0, reéflechie en 0 <strong>et</strong> qui avance/recule en fonction<strong>de</strong> chiffres binaires <strong>de</strong> j : 1 avance, 0 recule.function [d] =dist(sce)d=0;while sce~=0if mo<strong>du</strong>lo(sce,2)==1 then d=d+1else if d > 0 then d=d-1en<strong>de</strong>ndsce=(sce-mo<strong>du</strong>lo(sce,2))/2en<strong>de</strong>ndfunctionb) simuler le nombre <strong><strong>de</strong>s</strong> pas T B = B + K B jusqu’au bonheur pour B = 1, un nombreN s = 100 <strong>de</strong> fois, en arrêtant chaque simulation après (ou avant) n = 21 pas. Comptez<strong>les</strong> simulations qui y arrivent après K B = k pas, oú k = 0, 1, ..., 20. Estimez P B (k) =P 0 [K B ≤ k, k = 0, ...20 <strong>et</strong> k B = E 0 K B .c) Nous allons recalculez maintenant ces quantités exactement, pour B = 1, 2.67


Ecrivez une fonction qui, pour une cible B <strong>et</strong> ”horizon” k donné, compte le nombren B (k) <strong>de</strong> toutes <strong>les</strong> marches reéflechies en 0 qui n’arrivent pas à la cible B en moins<strong>de</strong> B + k pas, k = 0, 1, ..., 8, i.e. qui realisent l’evenement K B ≥ k + 1.Est ce qu’il y a <strong><strong>de</strong>s</strong> formule exactes pour P B (k), k B ?Ind : Verifiez pour n B (k) sur le site http ://oeis.org. En suite,k B =∞∑P B (j) =j=1∞∑P B (k + 1) =k=0∞∑k=0n B (k)2 B+k+1function [b]=compte(B,k) //compte le nombre <strong>de</strong> chemins qui passe par//le bonheur (B) en un nombre <strong>de</strong> pas inf\‘erieur ou \‘egal// B+k.b=0;for(sce=0:(2^(B+k)-1))j=0d=0;while ((sce~=0)&(d


ctr =sub2ind([m,m],n+1,n+1);% sub2ind(size, i,j) donne l’indice <strong>de</strong> (i,j) en v% i.e. m (i-1) + jAEW = spdiags(ones(m,1)*[pW pE],[-1 1],m,m);ANS = spdiags(ones(m,1)*[pS pN],[-1 1],m,m);//spdiags(cols, diags,size) donne la matrice avec cols positionnes comme diag//avec indices donn\’es par diags;A =kron(AEW,speye(m)) + kron(speye(m),ANS);//A est la matrice <strong>de</strong> Poisson pour la marche simple <strong>du</strong>dimensioneller = A(:,ctr); A(:,ctr)= 0; q = (speye(m^2)-A)\r;p = q(ctr);r<strong>et</strong>urnb) Calculer la probabilité <strong>de</strong> r<strong>et</strong>our p(ϵ, n) en 0 pour une marche biaisé <strong>de</strong>uxdimensionel<strong>les</strong>ur Z 2 , absorbée sur <strong>les</strong> bords <strong>du</strong> carré [−n, n] 2 , avec p N = p S = 1/4, <strong>et</strong>p E , p W = 1/4 ± ϵ.9. <strong>Bonheur</strong> dans le rectangle (problème <strong>de</strong> Folkmar Bornemann, Dirk Laurie, Stan Wagon,Jorg Waldvogel : The SIAM 100-Digit Challenge, A Study in High-Accuracy NumericalComputing). Consi<strong>de</strong>rez une marche aléatoire symétrique simple sur X(t) =(X 1 (t), X 2 (t)) ∈ hR 2 , (p 1 = p 2 = q 1 = q 2 = 1/4) commencée en X(0) = (0, 0) <strong>et</strong>arrêtée au temps T = min(T 1 , T B ), oùT B = {inf n : |X 1 (n)| > B}T 0 = {inf n : |X 2 (n)| = 1}i.e. l’espace <strong><strong>de</strong>s</strong> états est le rectangle E = |x 1 | ≤ B, |x 2 | ≤ 1}. Supposons h = 1/n, n ∈N (quand B/h /∈ N, T B est défini comme le temps quand la marche essaie <strong>de</strong> dépasser <strong>les</strong>cotés courts (vertica<strong>les</strong>). Soit p B,h (x) = P x [T B < T 0 ], p B = lim h→0 p B,h (0, 0)[T B < T 0 ],i.e. la probabilité <strong>de</strong> sortir par <strong>les</strong> cotés vertica<strong>les</strong> pour le mouvement Brownien, àpartir <strong>du</strong> centre.(a) Approximer p B,h par la métho<strong>de</strong> <strong>de</strong> simulation Monte-Carlo, en utilisant un sousprogrammequi simule une marche simple (sur <strong>les</strong> voisins) <strong>et</strong> qui teste apartenanceaux états d’arrêt (si interesses en graphiques, ecrivez aussi un programme qui trac<strong>et</strong>ous <strong>les</strong> points <strong>de</strong> l’espace <strong><strong>de</strong>s</strong> états, en utilisant une couleur différente pour <strong>les</strong>états d’arrêt). Qu-est-ce que vous obtenez pour B = 1, B = √ 3, <strong>et</strong> B k = (k+1/k),pour k = 4, 5, 6, ... ?(b) Formuler un système linéaire qui donne l’inconnue p B,h <strong>et</strong> résolvez le système.(c) Essayer <strong>de</strong> trouver le comportement asymptotique <strong>de</strong> p Bk quand k → ∞.p(d) Est-ce qu’il existent <strong><strong>de</strong>s</strong> coefficients a, b tq lim b B→∞b log(B) + log(a) ?aB b= 1 ⇐⇒ log(p B ) ∼10. Q : SuperBonus : Ajouter maintenant un rectangle <strong>de</strong> dimensions 1, B <strong><strong>de</strong>s</strong>sus le premier,centré. Approximer p B par la métho<strong>de</strong> <strong>de</strong> Monte Carlo <strong>et</strong> par la métho<strong>de</strong> d’approximationitérative <strong><strong>de</strong>s</strong> fonctions harmoniques. Qu-est-ce que vous obtenez pour B = 1,B = √ 3, <strong>et</strong> B = (n + 1/n), pour n = 4, 5, 6, ... ? Quelle <strong><strong>de</strong>s</strong> trois métho<strong><strong>de</strong>s</strong> ci-<strong><strong>de</strong>s</strong>susest la plus facile a implementer pour un domaine <strong>de</strong>ux-dimensionel arbitraire, <strong>et</strong> quellemétho<strong>de</strong> est plus exacte ?Conclusions :69


(a) La simulation Monte Carlo pro<strong>du</strong>it <strong><strong>de</strong>s</strong> resultats <strong>de</strong>centes. Mais, evi<strong>de</strong>mment, ellene peut pas obtenir <strong><strong>de</strong>s</strong> resultats precises pour le pb. limite, car elle ne profitepas <strong><strong>de</strong>s</strong> <strong>de</strong>ux traits particuliers crucia<strong>les</strong> : a) qu’il s’agit <strong>de</strong> resoudre l’équation <strong>de</strong>Dirichl<strong>et</strong> ∆f(x) = 0 avec conditions frontière 0 <strong>et</strong> 1, b) <strong>et</strong> que le domaine est unrectangle. Ces traits particuliers raméne ici à une solution explicite à partir <strong>du</strong>centre , implementable dans une ligne symbolique !b = 1; N[2ArcSin[Sqrt[Mo<strong>du</strong>larLambda[bI]]]/(P i), 40]. La reponse pour b = √ 3<strong>et</strong> 1/6 !(b) Mais, obtenir c<strong>et</strong>te solution exacte dans un cas particulier a <strong>de</strong>mandé beaucoup<strong>de</strong> travail ! La solution la plus raisonable est <strong>de</strong> revenir au pb. discr<strong>et</strong>, <strong>et</strong> profiterque le pb. se re<strong>du</strong>it alors à un système linéaire. Un prg. Matlab est offert dansle livre, mais seulement pour <strong>les</strong> rectang<strong>les</strong> ! Il exploite le fait que la matrice <strong>du</strong>système linéaire en <strong>de</strong>ux dimensions se <strong>de</strong>compose comme une somme Bronecker<strong><strong>de</strong>s</strong> matrices <strong><strong>de</strong>s</strong> marches unidimensionel<strong>les</strong> correspondant au <strong>de</strong>ux coordonnées(qui sont in<strong>de</strong>pendantes).(c) Finalement, pour un domaine <strong>de</strong>ux-dimensionel arbitraire, la simulation MonteCarlo <strong>et</strong> la métho<strong>de</strong> d’approximation itérative semblent assez raisonab<strong>les</strong>.11. Consi<strong>de</strong>rez <strong>les</strong> marches simp<strong>les</strong> cycliques bougeant à droite/gauche avec probas p, q >0, p + q = 1 sur un polygon (regulier) avec n somm<strong>et</strong>s. Expliquez pourquoi pour n = 4ou 6, la limite lim n→∞ A n n’existe pas.Est-ce qu’il y une limite dans le cas <strong><strong>de</strong>s</strong> marches simp<strong>les</strong> cycliques avec n prime ? Le caséchéant, trouvez c<strong>et</strong>te limite (au moins pour la marche symm<strong>et</strong>rique avec p = q = 1/2).Que se passe-t-il si p + q < 1, <strong>et</strong> la marche peut rester sur place avec proba 1 − p − q ?12. Le comportement transient <strong>et</strong> asymptotique d’une marche cyclique, <strong>et</strong> <strong>les</strong> puissances<strong><strong>de</strong>s</strong> matrices circulantes. Consi<strong>de</strong>rez la matrice AA=matrix(3,3,[[1-b-c,b,c],[c,1-c-b,b],[b,c,1-c-b]])}Calculez A 2 , A n and lim n→∞ A n .13. (*) Ecrivez une fonction qui calcule l’exponentielle <strong><strong>de</strong>s</strong> matrices, symbolyquement -voirch 6.3, en utilisant eventuellement la fonctionfunction [x] = symbol_solve(A,B)//Solution of matrix equation A*X = B, for matrices with symb elements[nrA,ncA] = size(A) [nrB,ncB] = size(B) if nrA nrB thenerror("symbolic matrices A and B must have the same number of rows");abortend, A_aug = [A B] A_aug_up = trianfml(A_aug)A1=A_aug_up(1:nrA,1:ncA) B1 = A_aug_up(1:nrB,ncA+1:ncA+ncB)x=solve(A1,B1) endfunction3.3 SageSAGE : Symbolique algebra and geom<strong>et</strong>ry experimentation.Sage utilise = pour <strong>les</strong> affectations. Il utilise ==, =, pour <strong>les</strong> comparaisons,[...,...] pour <strong>les</strong> listes <strong>et</strong> (...,...) pour arguments.sage: a=sin(pi/3) sage: N(a,digits=30)70


Comme le montre c<strong>et</strong> exemple, certaines expressions mathématiques renvoient <strong><strong>de</strong>s</strong> valeursexactes’ plutôt que <strong><strong>de</strong>s</strong> approximations numériques. Pour obtenir une approximationnumérique, on utilise au choix la fonction n ou la métho<strong>de</strong> n (chacun <strong>de</strong> ces noms possè<strong>de</strong>le nom plus long numerical approx, la fonction N est i<strong>de</strong>ntique à n). Cel<strong>les</strong>-ci acceptent, enargument optionnel, prec, qui indique le nombre <strong>de</strong> bits <strong>de</strong> précisions requis, <strong>et</strong> digits, quiindique le nombre <strong>de</strong> décima<strong>les</strong> <strong>de</strong>mandées ; par défaut, il y a 53 bits <strong>de</strong> précision.En Python, contrairement à <strong><strong>de</strong>s</strong> nombreux autres langages, <strong>les</strong> blocs <strong>de</strong> co<strong>de</strong> ne sontpas délimités par <strong><strong>de</strong>s</strong> accola<strong><strong>de</strong>s</strong> ou <strong><strong>de</strong>s</strong> mots-clés <strong>de</strong> début <strong>et</strong> <strong>de</strong> fin <strong>de</strong> bloc. Au lieu <strong>de</strong>cela, la structure <strong><strong>de</strong>s</strong> blocs est donnée par lin<strong>de</strong>ntation, qui doit être la même dans tout lebloc. Il ny a pas besoin <strong>de</strong> placer <strong><strong>de</strong>s</strong> points-virgu<strong>les</strong> en fin <strong>de</strong> ligne ; une instruction est engénéral terminée par un passage à la ligne. En revanche, il est possible <strong>de</strong> placer plusieursinstructions sur la même ligne en <strong>les</strong> séparant par <strong><strong>de</strong>s</strong> points-virgu<strong>les</strong> :sage : a = 5; b = a + 3; c = b 2 ;Pour continuer une instruction sur la ligne suivante, placez une barre oblique inverse enfin <strong>de</strong> ligne.Obtenir <strong>de</strong> l’ai<strong>de</strong> : sage : random matrix ? sage : function ? sage : lambda ?Voir <strong>les</strong> tutoriels SAGE comme http ://www.sagemath.org/fr/html/tutorial/ <strong>les</strong> démos<strong>et</strong> l’ai<strong>de</strong> pour d’autres concepts <strong>de</strong> base, <strong>et</strong> surtout <strong>les</strong> exemp<strong>les</strong> http ://wiki.sagemath.org/interact/3.3.1 Algèbre <strong>et</strong> Analyse <strong>de</strong> base1. limites, differentiation, Taylorsage: var(’x’)sage: limit(sin(x)/x,x=0) 1sage: limit((1 + 3^(-x))^(x), x=infinity)sage: diff(sin(x^2), x, 4)sage: cos(x).taylor(x,0,10)sage: y=((x^2-1)/(x-1)-x)sage: y.rational_simplify()2. Pour calculer la dérivée partielle <strong>de</strong> x 2 + 17y 2 par rapport à x <strong>et</strong> y respectivement :sage: x, y = var(’x,y’) sage: f = x^2 + 17*y^2 sage: f.diff(x) 2*xsage: f.diff(y) 34*y3. Pour calculer la décomposition en éléments simp<strong>les</strong> <strong>de</strong>1x 2 −1 :sage: f = 1/((1+x)*(x-1))sage: f.partial_fraction(x)1/2/(x - 1)-1/2/(x + 1)4. Pour calculer ∫ x sin(x 2 ) dx <strong>et</strong> ∫ 10xdx :x 2 +1sage: x = var(’x’) # create a symbolic variab<strong>les</strong>age: integral(x*sin(x^2), x)-1/2*cos(x^2)sage: integral(x/(x^2+1), x, 0, 1)1/2*log(2)sage: a=integrate(sqrt(x)*sqrt(1+x), x)sage: show(plot(a, 0, 40))5. On peut résoudre une équation en une variable en fonction <strong><strong>de</strong>s</strong> autres :71


sage: x, b, c = var(’x b c’) sage: solve([x^2 + b*x + c == 0],x)[x== -1/2*b - 1/2*sqrt(b^2 - 4*c), x == -1/2*b + 1/2*sqrt(b^2 -4*c)]6. Lexemple suivant utilise Sage pour la résolution <strong>du</strong>n système déquations non-linéaires.Dabord, on résout le système <strong>de</strong> faon symbolique :sage: var(’x y p q’) (x, y, p, q) sage: eq1 = p+q==9sage:eq2=q*y+p*x==-6 sage: eq3 = q*y^2+p*x^2==24sage:solve([eq1,eq2,eq3,p==1],p,q,x,y) [[p == 1, q == 8, x ==-4/3*sqrt(10) - 2/3, y == 1/6*sqrt(2)*sqrt(5) - 2/3],[p == 1, q == 8, x == 4/3*sqrt(10) - 2/3, y == -1/6*sqrt(2)*sqrt(5) - 2/3]]Pour une résolution numérique, on peut utiliser à la place :sage: solns = solve([eq1,eq2,eq3,p==1],p,q,x,y, solution_dict=True)sage: [[s[p].n(30), s[q].n(30), s[x].n(30), s[y].n(30)] for s insolns] [[1.0000000, 8.0000000, -4.8830369, -0.13962039],[1.0000000, 8.0000000, 3.5497035, -1.1937129]](La fonction n affiche une approximation numérique ; son argument indique le nombre<strong>de</strong> bits <strong>de</strong> précision.)7. sage: f(z) = z^5 + z - 1 + 1/zsage: complex_plot(f, (-3, 3),(-3,3))3.3.2 Pourquoi utiliser <strong><strong>de</strong>s</strong> logiciels symboliquesC’est sûr que Scilab/Matlab sont plus facile à maitriser, <strong>et</strong> plus transparents dans leurfonctionnement. Par contre, <strong>les</strong> symbolyques peuvent répondre à certaines <strong>de</strong> nos questions.Essayez <strong>les</strong> questions suggérées, <strong>et</strong>/où proposez d’autres (pour <strong>les</strong> questions aux quel<strong>les</strong> ilsne peuvent pas répondre, ces logiciels répétent la question).1. int(1/sqrt(x 2 + 2 ∗ x − 1), x)2. int(1/sqrt(x 3 + 2 ∗ x − 1), x)3. int(1/sqrt(x 4 + 2 ∗ x − 1), x)4. transformées <strong>de</strong> Laplace :sage: var(’s t’)sage: f = t^2*exp(t) - sin(t)sage: f.laplace(t,s) 2/(s - 1)^3 - 1/(s^2 + 1)5. équations différentiel<strong>les</strong> ordinaires :6. var(’t’)y=function(’y’,t)DE=t*diff(y,t) + y<strong><strong>de</strong>s</strong>olve(DE,[y(t),t])7. DE=diff(y,t,2) + t*diff(y,t)+y<strong><strong>de</strong>s</strong>olve(DE,[y(t),t])8. DE=t*diff(y,t,2) + diff(y,t)+y<strong><strong>de</strong>s</strong>olve(DE,[y(t),t])(maxima ne réussit pas, pendant que mathematica y arrive)72


9. var(’t’)y=function(’y’,t)DE=diff(y,t) + y^2<strong><strong>de</strong>s</strong>olve(DE,[y(t),t])Alternativementsage: t=var(’t’) # on <strong>de</strong>finit une variable tsage: function(’x’,t) #on <strong>de</strong>clare x fonction <strong>de</strong> c<strong>et</strong>te variable x(t)sage: DE = lambda y:diff(y,t) + y - 1sage: <strong><strong>de</strong>s</strong>olve(DE(x(t)), [x(t),t]) #(c+e^t)*e^(-t)10. Types composés Pour trouver le type d’une variable, taper type(). SAGE utilisele langage <strong>de</strong> programmation Python, qui lui-même possè<strong>de</strong> trois types <strong>de</strong> donnéescomposés qui vous seront uti<strong>les</strong> : 1 ) n-upl<strong>et</strong> : plusieurs expressions séparées par <strong><strong>de</strong>s</strong>virgu<strong>les</strong>, <strong>et</strong> entourées d’un couple <strong>de</strong> parenthèses (en général facultatives), par exemplev = (x,y,z) ; 2 ) liste : se note avec <strong><strong>de</strong>s</strong> croch<strong>et</strong>s, par exemple : L = [1,4,2,8,5,7] ; Faitesafficher le type <strong>de</strong> v <strong>et</strong> <strong>de</strong> L. L’accès à un élément d’un n-upl<strong>et</strong> ou d’une liste sefait en précisant son indice (numéroté à partir <strong>de</strong> 0). Evaluez par exemple L[0]. Lenombre d’éléments <strong>de</strong> L s’obtient avec len(L). On peut modifier <strong>les</strong> éléments d’uneliste, mais pas ceux d’un n-upl<strong>et</strong>. Essayez par exemple : L[0] = -1 ; <strong>et</strong> vérifiez quela même instruction appliquée à v provoque une erreur. 3 ) dictionnaire : c’est unensemble <strong>de</strong> coup<strong>les</strong> <strong>de</strong> la forme clef :valeur, par exemple : d = 4 : 8, 1 : 25. L’accèsà un élément se fait en précisant la clef entre croch<strong>et</strong>. Evaluez par exemple d[4]. Querenvoie la comman<strong>de</strong> suivante ?var(’x,y’) ; z = sin(x^2/y)dico = {x : -1, y : 2}z(dico)(<strong>les</strong> dictionnaires sont une autre manière d’opérer <strong><strong>de</strong>s</strong> substitutions).11. Construction <strong><strong>de</strong>s</strong> listes Une liste d’entiers successifs s’obtient avec la fonction range.Testez <strong>les</strong> comman<strong><strong>de</strong>s</strong> suivantes :range(10) ; range(3,13) ; range(3,13,2)(la construction [a..b] est équivalente à range(a,b+1)). On peut aussi construire <strong><strong>de</strong>s</strong>listes par compréhension :[1/n^2 for n in range(1,11)](ou bien <strong><strong>de</strong>s</strong> n-upl<strong>et</strong>s) en paramètres : c’est par exemple le cas <strong>de</strong> solve ou <strong>de</strong> plot3d.12. Programmation <strong>Les</strong> définitions <strong>de</strong> fonctions en Sage sont intro<strong>du</strong>ites par la comman<strong>de</strong><strong>de</strong>f, <strong>et</strong> la liste <strong><strong>de</strong>s</strong> noms <strong><strong>de</strong>s</strong> paramètres est suivie <strong>de</strong> <strong>de</strong>ux points. Faites attentionà l’in<strong>de</strong>ntation :<strong>de</strong>f is_even(n):r<strong>et</strong>urn n\%2 == 0<strong>de</strong>f f(n):r<strong>et</strong>urn len(str(factorial(10^n)))La conjecture <strong>de</strong> Collatz. Soit x ≥ 1 entier <strong>et</strong> la suite dèfinie par u 0 = x, <strong>et</strong> u n+1 =collatz(u n ). Est-il vrai qu’il existe une entier k tel que u k = 1 ? Autrement dit : est-ilvrai que pour tout x ¿= 1, il existe un entier k tel que collatz(k(x)) = 1 ? Ce problèmen’est toujours pas rèsolu.73


<strong>de</strong>f collatz(n):if n%2==0:col=n/2else: col=(3*n+1)/2r<strong>et</strong>urn(col)<strong>de</strong>f U(x):while x>1:x=collatz(x)print ’x=’, xfor k in [1..20]:print ’collatz(’,k,’)=’, collatz(k)13. La paradoxe <strong><strong>de</strong>s</strong> anniversaires est un rèsultat combinatoire simple <strong>et</strong> amusant, qui joueun grand rle en algorithmique, en particulier dans le domaine <strong>de</strong> la cryptographie. SoitE un ensemble <strong>de</strong> cardinal n. On se donne un entier k <strong>et</strong> on tire k fois <strong>de</strong> suite, avecremise, <strong>et</strong> avec la probabilitè uniforme, un èlèment <strong>de</strong> E. On obtient ainsi une suite(x1 ; x2 ; : : : ; xk) d’èlèments <strong>de</strong> E. On se propose <strong>de</strong> calculer la probabilitè pk <strong>de</strong>l’èvenement tous <strong>les</strong> xi sont distincts.(a) Quel est le cardinal <strong>de</strong> E k ?(b) Combien y a-t-il <strong>de</strong> k-upl<strong>et</strong>s (x 1 ; x 2 ; :::; x k ) ∈ E k dont <strong>les</strong> composantes sont <strong>de</strong>ux<strong>de</strong>ux distinctes ?(c) En dè<strong>du</strong>ire que la probabilitè p k est donnèe par p k = ∏ k−1i=1(1 − i/n).(d) Dèmontrez que si 23 personnes sont rèunies dans une salle la probabilitè que <strong>de</strong>uxau moins d’entre el<strong>les</strong> aient leur anniversaire le mme jour, est plus gran<strong>de</strong> que1=2. 5.(e) Rèalisons l’expèrience suivante : on choisit un entier N (par exemple N = 365)puis on tire au hasard <strong><strong>de</strong>s</strong> valeurs x dans l’ensemble {1, 2, ...N}. L’expèriencese terminera la première fois que le tirage donnera une valeur dèja obtenue. Lasolution la plus naturelle est d’utiliser un dictionnaire, <strong>de</strong> nom rang. initialisèvi<strong>de</strong>. Un entier x est une clef <strong>du</strong> dictionnaire avec rang[x] = k si <strong>et</strong> seulementsi la valeur x a ètè obtenue pour la première fois au k-ieme tirage. Cela con<strong>du</strong>itl’ècriture suivante :<strong>de</strong>f Paradox(N) :rang = {} ; k = 1while true :x = randint(1,N)if rang.has_key(x) :print ’k=’, k, ’ donne’, x, ’ <strong>de</strong>ja obt au rang’,rang[x]r<strong>et</strong>urnrang[x] = kk = k+114. En conclusion, <strong>les</strong> logiciels symbolyques comme SAGE sont très puissants, mais pour<strong>les</strong> tâches simp<strong>les</strong>, Scilab, R, ... sont plus pratiques !3.3.3 Algèbre linéaire1. Matrices symboliques74


sage: m = matrix(SR,2, [-x,x,x,-x])sage: m.exp()sage: t = var(’t’)sage: A =matrix([[1,2],[3,4]])sage: B = (t*A).exp()sage: B(1)*A == A*B(1) Falsesage: (B(1)*A - A*B(1)).apply_map(lambda e: e.full_simplify())sage: Bprime =matrix(map(diff,B.list()))sage: B(1)*A == Bprime(1) False2. var(’x y’); n=6entries=[x^i-y^j+i+j for i in range(1,n+1) for j in range(1,n+1)]G =matrix(SR, n, entries);GG.d<strong>et</strong>().simplify_full()3. sage: A = Matrix([[1,2,3],[3,2,1],[1,1,1]])sage: Y = vector([1,1,-4]) sage: Y*A sage: A*Ysage: X =A.solve\_right(Y)sage: A.d<strong>et</strong>sage: B=A.inverseL’évaluation <strong>de</strong> A.solve right(Y) renvoie une matrice (ou un vecteur) X = A −1 Y . Unantislash (contre-oblique) peut être aussi employé à la place <strong>de</strong> solve rightsage: C=A \ Ysage: C- B Y ==0 sage: D= Y / A sage: C- B Y ==04. sage: var(’a’)sage:A=matrix([[a,1,0],[0,a,1],[0,0,a]])sage: $A^5$sage: A.exp()5. Augment <strong>et</strong> row-re<strong>du</strong>ceR = A.augment(matrix(Y).transpose()) R.echelon_form()6. Calcul <strong><strong>de</strong>s</strong> valeurs propres <strong>et</strong> <strong><strong>de</strong>s</strong> vecteurs propres :sage: A.eigenvalues()sage: A.eigenvectors_right()renvoie (valeurs propres, [vecteurs propres], multiplicités algébriques). <strong>Les</strong> valeurspropres <strong>et</strong> vecteurs propres peuvent aussi être calculés avec Maxima.7. Créeons une matrice <strong>de</strong> taille 500 × 500 <strong>de</strong> nombres aléatoires rée<strong>les</strong> (RR) ; (pourRealDoublePrec, RDF).sage: m = random_matrix(RR,500)Il ne faut que quelques secon<strong><strong>de</strong>s</strong> à Sage pour calculer <strong>les</strong> valeurs propres <strong>de</strong> la matrice<strong>et</strong> en faire un graphique.sage: e= m.eigenvalues()sage: w = [(i, abs(e[i])) for i in range(len(e))]sage: show(points(w))Créons une matrice <strong>de</strong> taille 10 × 10 <strong>de</strong> nombres aléatoires Rationnels, <strong>et</strong> extraironsune sous matrice <strong>et</strong> une colonne :sage: m = random_matrix(QQ,50, num_bound=10, <strong>de</strong>n_bound=10)sage:show(m[2:7,3:9])sage: m[2]75


8. Polynôme charactéristique :D = matrix(QQ,[[-2,1,-2,-4], [12,1,4,9], [6,5,-2,-4], [3,-4,5,10] ])show(D)var(’t’)S = D - t*i<strong>de</strong>ntity_matrix(4)print Sprint p(t)=S.d<strong>et</strong>()p(t)p.find_root(-10, 10)Aussi : q(t) = D.charpoly(’t’) q76


Chapitre 4Le processus <strong>de</strong> PoissonOn presente ici <strong>les</strong> processus <strong>de</strong> Poisson, qui sont characterisés par l’in<strong>de</strong>pen<strong>de</strong>nce <strong>de</strong>leurs increments, par <strong><strong>de</strong>s</strong> valeurs entières, <strong>et</strong> par l’absence <strong><strong>de</strong>s</strong> points doub<strong>les</strong>. Des manièresurprenante, ces trois propriétés forcent <strong>les</strong> increments d’avoir la distribution <strong>de</strong> Poisson !4.1 La distribution <strong>de</strong> Poisson <strong>et</strong> exponentielle1. On considère <strong>de</strong>ux variab<strong>les</strong> aléatoires réel<strong>les</strong> X <strong>et</strong> Y indépendantes <strong>de</strong> loi <strong>de</strong> Poisson<strong>de</strong> paramètres λ > 0 <strong>et</strong> µ > 0 respectivement.(a) Quelle est la loi <strong>de</strong> Z = X + Y ? Indication : On peut utiliser la fonctiongénératrice <strong><strong>de</strong>s</strong> probabilitées p X (z) = Ez X , ou la fonction génératrice <strong><strong>de</strong>s</strong> momentsm X (s) = Ee sX = p X (e s ).(b) Trouver la distribution d’une somme <strong>de</strong> n variab<strong>les</strong> Poisson indépendantes <strong>de</strong>paramètre λ i , i = 1, ..., n.(c) Pout tout entier n ≥ 0, déterminer la loi conditionelle <strong>de</strong> X sachant que Z =X + Y = n.(d) Déterminer E (X | X + Y ) .(e) Quelle est la distribution <strong>de</strong>S =X∑i=1B ioù B i sont <strong><strong>de</strong>s</strong> va aléatoires Bernoulli <strong>de</strong> paramètre p ?2. La loi exponentielle <strong>et</strong> la propriété <strong>de</strong> ”manque <strong>de</strong> mémoire”Soit X une variable aléatoire réelle positive. Montrez que X suit une loi exponentiel<strong>les</strong>i, <strong>et</strong> seulement si : ∀t, h ≥ 0 , P ([X − t ≥ h] | [X ≥ t]) = P [X ≥ h] . qu’on appelle lapropriété <strong>de</strong> manque <strong>de</strong> mémoire.77


Démonstration : Si X suit une loi exponentielle <strong>de</strong> paramètre λ > 0 alors pour toust, h ≥ 0 on a :P ([X ≥ t + h] ∩ [X ≥ t])P ([X ≥ t + h] | [X ≥ t]) =P [X ≥ t]P ([X ≥ t + h] | [X ≥ t]) = 1 − F X (t + h)1 − F X (t)= 1 − ( 1 − e −λ(t+h))1 − (1 − e −λt )=P [X ≥ t + h]P [X ≥ t](∗)= e −λh = 1 − F X (h) = P [X ≥ h]Réciproquement , on suppose que ∀t, h ≥ 0 , P ([X ≥ t + h] | [X ≥ t]) = P [X ≥ h]c’est-à-dire encore d’après (∗) :∀t, h ≥ 0 , P [X ≥ t + h] = P [X ≥ t] P [X ≥ h]d’où la fonction ¯F = ¯F X = 1 − F X vérifie l’équation fonctionnelle(∗∗) ¯F (t + h) = ¯F (t) ¯F (h) pour tous t, h ≥ 0En prenant logarithmes, on trouve que la fonction f(x) = log( ¯F (x) vérifie l’équationfonctionnelle(∗∗) f (t + h) = f (t) + f (h) pour tous t, h ≥ 0On utilise maintenant le résultat :Théorème 4.1.1 Une fonction monotone satisfaisant l’équation fonctionnelle(∗∗) f (t + h) = f (t) + f (h) pour tous t, h ≥ 0doit être linéaire, i.e.f(t) = tf(1)Démonstration : A partir <strong>de</strong> (∗∗) , on obtient que :( m)∀m, n ∈ N , f =n( ( )) m 1( )f = (f (1)) 1 m mn = (f (1))nnMontrons que f (1) ≠ 0 : si f (1) = 0 alors d’après ce qui précè<strong>de</strong> f est nulle sur Q + ,or on sait que pour tout réel x > 0 , il existe r dans Q + tels que r ≤ x , comme f estdécroissante, on aura alors 0 ≤ f (x) ≤ f (r) = 0 donc f (x) = 0 <strong>et</strong> f = 0, ce qui estfaux.Par conséquent <strong>les</strong> fonctions f <strong>et</strong> x ↦→ (f (1)) x = e x ln f(1) coïnci<strong>de</strong>nt sur Q + , comme cesfonctions sont continues sur R + x ln f(1), on peut alors affirmer que ∀x ≥ 0 , f (x) = eOn sait que lim x→+∞ f (x) = 1 − lim x→+∞ F X (x) = 0 donc ln f (1) < 0 <strong>et</strong> on peutécrire que∀x ≥ 0 , F X (x) = 1 − e −λx avec λ = − ln f (1) > 0<strong>et</strong> on en dé<strong>du</strong>it que la loi <strong>de</strong> X est une loi exponentielle.78


4.2 Le processus <strong>de</strong> Poisson multidimensionelSoit λ une constante. On appelle champs (où processus) <strong>de</strong> Poisson homogène d’intensitéλ sur R d un ensemble <strong><strong>de</strong>s</strong> v.a. N(A) in<strong>de</strong>x’ees par <strong>les</strong> sous-ensemb<strong>les</strong> A ⊂ R d tq :Rq :1. indépendance : si <strong>les</strong> sous-ensemb<strong>les</strong> A 1 , ..., A k ⊂ R d sont disjoints, alors <strong>les</strong> variab<strong>les</strong>N(A 1 ), ..., N(A k ) sont indépendantes2. stationarité : la distribution <strong><strong>de</strong>s</strong> variab<strong>les</strong> N(A + t), t ∈ R d ne dépend pas <strong>de</strong> t3. N(A) est une variable Poisson d’intensité c = λ m(A), où m(A) est la mesure <strong>de</strong>Lebesgue.1. Un processus ayant <strong>les</strong> propriétés (1) <strong>et</strong> (2) s’appelle processus <strong>de</strong> Levy.2. En fait, la troisième condition peut être remplacée par une condition beaucoup plusfaible : N(A) ∈ N, <strong>et</strong> la probabilité <strong>de</strong> plus d’un point dans <strong><strong>de</strong>s</strong> ensemb<strong>les</strong> p<strong>et</strong>its estnégligeable, i.e. P [N(A) ≥ 2] = o(P [N(A) = 1]), quand m(A) → 0.Pour t ∈ R, on arrive au processus <strong>de</strong> Poisson uni-dimensionel. Dans ce cas, on étudie <strong>les</strong>variab<strong>les</strong> aleatoires in<strong>de</strong>xées par <strong>les</strong> interval<strong>les</strong> A = [a, b], <strong>et</strong> on reserve le nom <strong>de</strong> processus<strong>de</strong> Poisson pour le processus N(t), t ∈ R, défini par N(t) := N([0, t]). <strong>Les</strong> variab<strong>les</strong> N(A) =N(b) − N(a) sont appellées alors ”incréments” <strong>du</strong> processus N(t).dP1Définition 4.2.1 Un processus qui a <strong><strong>de</strong>s</strong> acroissements in<strong>de</strong>pendants (PAI) <strong>et</strong> pour le quelil existe une constante λ > 0 tq pour tout t > 0, la variable aléatoire N t+s − N s suit une loi<strong>de</strong> Poisson <strong>de</strong> paramètre λt :p k (t) := P{N t+s − N s = k} = (λt)kk!s’appelle processus <strong>de</strong> Poisson homogène.Remarque 4.2.1 Le nombre esperé d’arivées <strong>du</strong> processus <strong>de</strong> Poisson dans un interval <strong>de</strong>longueur t est : E[N(s + t) − N(s)] = λt.Exemple 4.2.1 Considèrons la distribution <strong>du</strong> nombre d’acci<strong>de</strong>nts <strong>de</strong> voiture dans une ville,par jour. a. Est ce-que ce nombre d’acci<strong>de</strong>nts pourra suivir approximativement une loi <strong>de</strong>Poisson ? b. Trouver i. la probabilité qu’il y ait au plus trois acci<strong>de</strong>nts un jour donné. ii.lenombre moyen d’acci<strong>de</strong>nts (M) pour lequel la probabilité d’avoir trois acci<strong>de</strong>nts ou plus unjour donné est < 0.05. (On exprimera c<strong>et</strong>te probabilité en fonction <strong>de</strong> l ?inconnue M <strong>et</strong> onen dé<strong>du</strong>ira une équation qu’il faudra résoudre numériquement).Exercice 4.2.1 Des clients arrivent dans une banque selon un processus <strong>de</strong> Poisson N(t), t ∈R, <strong>de</strong> paramètre λ = 1.2 (l’unité <strong>de</strong> temps est la minute).1. Il arrive en moyenne combien <strong>de</strong> clients en 10 mn ?2. Donnez la loi <strong>de</strong> probabilité <strong>de</strong> N(2), le nombre <strong>de</strong> clients qui arrivent en <strong>de</strong>ux minutes,<strong>et</strong> esquisser le graphique <strong>de</strong> p k = P [N(2) = k], pour k=0,1,2,3,4,5.3. Donnez la probabilité que personne n’arrive <strong>du</strong>rant 2 mn, <strong>et</strong> après ça que 3 personnesarrivent dans <strong>les</strong> 4 mn suivantes.4. Donnez la probabilité q 3 que 3 personnes arrivent en 4 mn, vérifiez que q 3 = p 0 p 3 +p 1 p 2 + p 2 p 1 + p 3 p 0 , <strong>et</strong> expliquez pourquoi.79e −λt


Exercice 4.2.2 a) Montrez que la distribution <strong>du</strong> temps <strong>de</strong> la prochaine arrivée d’un processus<strong>de</strong> Poisson <strong>de</strong> paramètre λ est exponentielle a paramètre λ.b) Trouver la distribution <strong>du</strong> temps <strong>de</strong> la n-ième arrivée d’un processus <strong>de</strong> Poisson.Exemple d’application <strong>du</strong> processus <strong>de</strong> Poisson : La pêche ! On note X t le nombre <strong>de</strong> poissonspris par un pêcheur à la ligne dans l’intervalle <strong>de</strong> temps [0, t]. On fait <strong>les</strong> hypothèsessuivantes :(h1) il y a un très grand nombre <strong>de</strong> poissons, <strong>de</strong> façon à ce qu’une prise n’influe pas surla suite <strong>de</strong> la pêche(h2) l’appétit <strong><strong>de</strong>s</strong> poissons ne varie pas avec le temps.Le processus (X t ) t≥0peut alors être considéré comme un processus <strong>de</strong> Poisson, car :- (X t ) t≥0est bien un processus <strong>de</strong> comptage (il est assez clair qu’il est très peu probable<strong>de</strong> pêcher plusieurs poissons au même instant)- (X t ) t≥0est homogène d’après (h2)- (X t ) t≥0est un P.A.I. d’après (h1).Exercice 4.2.3 Des voitures passent sur une route selon un processus <strong>de</strong> Poisson <strong>de</strong> param.λ = 1/mn. a. Si 5% <strong><strong>de</strong>s</strong> voitures sont <strong><strong>de</strong>s</strong> Renault, montrer que le passage <strong>de</strong> ces voituressuit un processus <strong>de</strong> Poisson <strong>de</strong> param. 0.05. b. Sachant que 10 Renault sont passées en uneheure, quelle est l’espérance <strong>du</strong> nombre total <strong>de</strong> voitures passées <strong>du</strong>rant c<strong>et</strong>te heure ? c. Si 50voitures sont passées en une heure, quelle est la probabilité que cinq d’entre el<strong>les</strong> soient <strong><strong>de</strong>s</strong>Renault ?4.3 <strong>Processus</strong> <strong>de</strong> comptage <strong>et</strong> renouvellement en tempscontinuMotivation : La plupart <strong><strong>de</strong>s</strong> phénomènes aléatoires <strong>de</strong>man<strong>de</strong>nt une modélisation <strong>et</strong>étu<strong>de</strong> au cours <strong>du</strong> temps, comme <strong>les</strong> processus <strong>de</strong> comptage (où <strong>de</strong> naissances) N t , t ∈ R + ,tq <strong>les</strong> :• appels arrivant dans un standard téléphonique• arrivées <strong>de</strong> clients à un guich<strong>et</strong>• survenue <strong>de</strong> pannes dans un parc <strong>de</strong> machines, ...Définition 4.3.1 Un processus (N t ) t∈R+est appelé processus <strong>de</strong> comptage s’il prend <strong><strong>de</strong>s</strong>valeurs dans N <strong>et</strong> s’il vérifie <strong>les</strong> trois propriétés suivantes :(i) 0 ≤ s ≤ t ⇒ N s ≤ N t(ii) N s a <strong><strong>de</strong>s</strong> chemins ”cadlag”, i.e. continues à droite <strong>et</strong> avec <strong><strong>de</strong>s</strong> limites à gauche(iii) P [N s − N s− > 1] = 0Il s’agit donc <strong><strong>de</strong>s</strong> processus non décroissants <strong>et</strong> qui n’augmentent jamais avec plus d’uneunité, <strong>et</strong> qui modélisent la réalisation d’une suite d’événements aléatoires d’un même typeau cours <strong>du</strong> temps. Soit a i , i = 1, 2, ... <strong>les</strong> temps entre <strong>de</strong>ux arrivés consecutives.Définition 4.3.2 Un processus <strong>de</strong> comptage pour le quel <strong>les</strong> temps entre <strong>de</strong>ux arrivés consecutivessont <strong><strong>de</strong>s</strong> variab<strong>les</strong> aleatoires i.i.d. s’appelle processus <strong>de</strong> renouvellement.<strong>Les</strong> temps <strong>de</strong> renouvellement (ou <strong>les</strong> temps <strong>de</strong> la n-iême arrivée) sont :A n =80n∑a i , n = 0, 1, 2, ...i=1


Il est facile <strong>de</strong> voir que le nombre d’arrivées avant le temps t, i.e. le processusest un processus <strong>de</strong> comptage.(N t ) t∈R+= sup{k : A k ≤ t}kThéorème 4.3.1 (admis) Le seul processus <strong>de</strong> renouvellement qui est aussi markovien estle processus <strong>de</strong> Poisson.4.4 Le processus <strong>de</strong> Poisson unidimensionelOn peut aussi définir le processus <strong>de</strong> Poisson homogène comme le processus <strong>de</strong> comptageassocié à un processus <strong>de</strong> renouvellements, au cas où <strong>les</strong> temps a i entre <strong>les</strong> arrivées sontexponentiels.dP2Définition 4.4.1 Soit a i , i = 1, 2, ... une suite <strong><strong>de</strong>s</strong> v.a. i.i.d., à distribution exponentielle<strong>de</strong> paramètre λ (”interarrivées”), <strong>et</strong> soit A n = ∑ ni=1 a i <strong>les</strong> temps <strong>de</strong> renouvellement. Onappelera processus <strong>de</strong> Poisson homogène (en partant <strong>de</strong> N 0 = 0) le processus qui compte lenombre d’arrivées pendant [0, t] :N [0,t] = N t = max{n ∈ N : A n ≤ t}Rq : La <strong>de</strong>nsité <strong>de</strong> A n est la <strong>de</strong>nsité Γ (n,λ) (x).Il existe plusieurs obj<strong>et</strong>s d’interêt associés à chaque processus <strong>de</strong> renouvellement :1. l’âge courant Z 1 (t) = t − A Nt2. le temps resi<strong>du</strong>el courant Z 2 (t) = A Nt+1 − t3. le temps total courant Z(t) = Z 1 (t) + Z 2 (t) = A Nt +1 − A NtExercice 4.4.1 Soit N λ (t) un processus <strong>de</strong> renouvellement <strong>de</strong> Poisson.a) Quelle sont <strong>les</strong> probabilités P [Z 1 (t) = t], <strong>et</strong> P [Z 1 (t) ∈ [s, t], ∀s ≤ ∞ ? Trouver la<strong>de</strong>nsité <strong>de</strong> Z 1 (t). Concluez que l’âge courant satisfait :{F Z1 (x) = 1 − e −λ pour x ≤ t <strong>et</strong>F Z1 (x) = 1 outrementb) Montrer que le temps resi<strong>du</strong>el courant a une distribution exponentielle <strong>de</strong> paramètreλ.c) Calculez l’espérance <strong>du</strong> temps total courant ; <strong>et</strong> comparez la à l’espérance <strong><strong>de</strong>s</strong> tempsentre <strong>les</strong> arrivées λ.<strong>Les</strong> <strong>de</strong>ux définitions (4.2.1), (4.4.1), sont équivalentes : voir <strong>les</strong> notes <strong>de</strong> Belisle. L’idée<strong>de</strong> la démonstration est presentée dans <strong>les</strong> exercices suivantes :Exercice 4.4.2 Soit (N t ) t≥0un processus défini par la Définition 4.4.1. Pour tout t > 0, lavariable aléatoire N t suit une loi <strong>de</strong> Poisson <strong>de</strong> paramètre λt, i.e.p k (t) = P{N t = k} = (λt)k e −λtk!81


Demo : a) Comme A k est la somme <strong>de</strong> k variab<strong>les</strong> exponentiel<strong>les</strong>, elle a la <strong>de</strong>nsitéGamma Γ(λ, k) donnée par : f Ak (t)dt = (λt)k−1(k−1)! e−λt λdt. On a aussi :f Ak (t)dt = P{A k−1 ≤ t, A k ≥ t, A k ≤ t + dt} = P{A k−1 ≤ t, A k ≥ t}λdt = P{N t = k − 1}λdtb) Calcul direct pour k = 0, 1, ...Exercice 4.4.3 Soit (N t ) t≥0un processus <strong>de</strong> Poisson unidimensionel d’intensité λ > 0,défini par la Définition 4.2.1. Montrez que <strong>les</strong> variab<strong>les</strong> aléatoires suivantes : a 1 , quiréprésente le temps jusqu’à la première arrivée, <strong>et</strong> a 2 , qui réprésente le temps entre <strong>les</strong><strong>de</strong>ux premières arrivées, sont indépendantes <strong>et</strong> exponentiel<strong>les</strong> <strong>de</strong> paramètre λ. Outrementdit, pour tout t 1 > 0, t 2 > 0,P{a 1 > t 1 , a 2 > t 2 } = e −λt 1e −λt 2Exercice 4.4.4 La distribution exponentielle <strong>et</strong> l’in<strong>de</strong>pendance <strong><strong>de</strong>s</strong> interva<strong>les</strong> a i entre <strong>les</strong>arrivées implique la propriété <strong>de</strong> Markov. Plus specifiquement, montrez par exemple que :Première métho<strong>de</strong> :P [N t+s ≥ k + 1|N t = k, N t−s1 = k, ∀s, s 1 > 0]P [N t+s ≥ k + 1|N t = k, N t−s1 = k] = P [a k+1 ≤ t + s − A k |A k ≤ t − s 1 , a k+1 > t − A k ]= P [t − A k < a k+1 ≤ t + s − A k , A k ≤ t − s 1 ]P [A k ≤ t − s 1 , a k+1 > t − A k ]∫ t−s1x=0=f A k(x)P [t + s − x ≥ a k+1 > t − x]dx∫ t−s1f x=0 A k(x)P [a k+1 > t − x]dx=∫ t−s1x=0 f A k(x)(e −λ(t−x) − e −λ(t+s−x) dx∫ t−s1x=0 f A k(x)e −λ(t−x) dx=∫ t−s1x=0 f A k(x)e −λ(t−x) (1 − e −λs )dx∫ t−s1x=0 f A k(x)e −λ(t−x) dx= 1 − e −λsRq : Pour d’autres distributions, c<strong>et</strong>te miraculeuse simplification n’est pas vraie 1 .Par consequent, le processus <strong>de</strong> Poisson est le seul processus <strong>de</strong> comptage Markovien.Deuxiéme métho<strong>de</strong> (*). Pour démontrer <strong><strong>de</strong>s</strong> propri<strong>et</strong>ées comme ci <strong><strong>de</strong>s</strong>sus, on utilise souventla propriété ”d’oubli <strong>de</strong> la <strong>du</strong>rée <strong>de</strong> la <strong>de</strong>rnière attente” <strong>de</strong> la loi exponentielle au tempst (voir Rappel ??).Ici on a :P [a k+1 ≤ t + s − A k |A k ≤ t − s 1 , a k+1 > t − A k ] = P [a 1 ≤ s|A 0 = 0] = 1 − e −λsEn conclusion, le processus <strong>de</strong> Poisson homogène unidimensionel <strong>de</strong> taux λ est un processus<strong>de</strong> comptage, où ”l’avancé <strong>du</strong> compteur” se fait après <strong><strong>de</strong>s</strong> temps exponentiel<strong>les</strong> <strong>de</strong>paramètre λ, <strong>et</strong> qui a plusieurs propriétés remaquab<strong>les</strong>, comme :– distribution exponentielle (donc ”sans mémoire”) <strong>de</strong> paramètre λ pour <strong>les</strong> interva<strong>les</strong>a i entre <strong>les</strong> arrivées– la propriété <strong>de</strong> Markov1. La réponse <strong>de</strong>pandra <strong>de</strong> t <strong>et</strong> <strong>de</strong> s 1 (on l’obtient en utilisant la formule ¯F ai (x) = e − ∫ x0 h(y) dy oùh(y) = f ai (x)/ ¯F ai (x) est le ”taux <strong>de</strong> termination= hazard rate” <strong>de</strong> a i ).82


– Le processsus <strong>de</strong> Poisson (N t ) t≥0est un processus à accroissements stationnaires <strong>et</strong>indépendants (A.S.I. en abrégé), c’est-à-dire <strong>les</strong> v.a. N Ii , i = 1, ..., n sont indépendantes,si <strong>les</strong> interval<strong>les</strong> I i , i = 1, ..., n sont disjoints. En particulier,∀s, t ≥ 0 avec s ≤ t , N t − N s est indépendante <strong>de</strong> N u pour tout u ≤ s.– (N t ) t≥0est homogène, c’est-à-dire <strong>les</strong> increments N [s,s+t] = N s+t − N s ont une distributionindépendante <strong>du</strong> moment initial s :∀s, t > 0, ∀k ∈ N , P [N s+t − N s = k] = P [N t = k] not.= p k (t) .– (N t ) t≥0est un processus <strong>de</strong> Markov, <strong>et</strong> <strong>les</strong> probabilitées <strong>de</strong> transition satisfont P{N t =−µ µki + k|N 0 = i} = p k (t) = e , µ = λt.k!4.5 Le processus <strong>de</strong> Poisson comme limite <strong><strong>de</strong>s</strong> processus<strong>de</strong> BernoulliOn peut abor<strong>de</strong>r l’étu<strong>de</strong> <strong>du</strong> processus <strong>de</strong> Poisson unidimensionel en discr<strong>et</strong>isant le temps :on partagera chaque unité <strong>de</strong> temps en n unités ”infinitesima<strong>les</strong>” <strong>de</strong> longueur h = 1/n, <strong>et</strong>en ignorant la possibilité <strong><strong>de</strong>s</strong> arrivés doub<strong>les</strong>. Ça remplace le processus d’arrivées en tempscontinu par un processus <strong>de</strong> Bernoulli (lancés d’une monnaie) en temps discr<strong>et</strong>. En suite,en laissant n → ∞ ⇐⇒ h → 0, on arrive au processus <strong>de</strong> Poisson. Le fait que le nombre(binomial) d’arrivées <strong><strong>de</strong>s</strong> succes dans un processus <strong>de</strong> Bernoulli en temps discr<strong>et</strong> convergevers processus <strong>de</strong> Poisson en temps continu est une consequence <strong>de</strong> l’exercice suivant :Exercice 4.5.1 Consi<strong>de</strong>rez un processus d’arrivées in<strong>de</strong>pendantes dans <strong><strong>de</strong>s</strong> unités <strong>de</strong> temps<strong>de</strong> longueur h = 1/n, avec la probabilite d’une arrive per unite <strong>de</strong> temps egale a λ.1. Calculez <strong>les</strong> moments translatés <strong>et</strong> <strong>les</strong> moments <strong>de</strong> la distribution <strong>de</strong> Poisson, en utilisantla fonction génératrice <strong><strong>de</strong>s</strong> probabilités.2. Montrez que la limite quand n → ∞ d’une distribution binomiale B(n, p) avec p = λ nest la distribution <strong>de</strong> Poisson avec espérance λ, directement <strong>et</strong> aussi en utilisant lafonction génératrice <strong><strong>de</strong>s</strong> probabilités ou <strong><strong>de</strong>s</strong> moments.3. Soit N n(i) i = 1, 2, ... <strong>les</strong> nombres d’interval<strong>les</strong> separant <strong>les</strong> arrivées consecutives. Montrezque <strong>les</strong> temps T n(i) = N n(i)entre <strong>les</strong> arrivées consecutives convergent vers <strong><strong>de</strong>s</strong> distributionsexponentiel<strong>les</strong> <strong>de</strong> paramètre λ, pour i = 1, 2.n4. Consi<strong>de</strong>rez un processus d’arrivées in<strong>de</strong>pendantes, avec la probabilité d’une arrive perunite <strong>de</strong> temps (ou ”taux”) egale a λ. Trouver la distribution jointe <strong><strong>de</strong>s</strong> nombres d’arrivesdans <strong>de</strong>ux unitées <strong>de</strong> temps consecutives, en subdivisant chaque unitée en n perio<strong><strong>de</strong>s</strong>d’observation <strong>et</strong> en prenant n → ∞.4.6 Le processus <strong>de</strong> Poisson composéDéfinition 4.6.1 Le processus <strong>de</strong> Poisson composé∑N tS t = Z i (4.1)83i=1


est une somme <strong><strong>de</strong>s</strong> variab<strong>les</strong> i.i.d.(in<strong>de</strong>pendantes <strong>et</strong> idéntiquement distribuées) Z i , avecdistribution cumulative <strong>et</strong> <strong>de</strong>notée par F (z) = F Z (z), M Z (θ) = ∫ ∞−∞ eθx dF (x), où N t est unprocessus <strong>de</strong> Poisson, in<strong>de</strong>pendant <strong>de</strong> Z i .Outrement dit, il s’agit <strong><strong>de</strong>s</strong> marches aléatoires avec increments qui arrivent après <strong><strong>de</strong>s</strong>temps exponentiels. Ce processus est utilise par exemple pour modéliser le montant total<strong><strong>de</strong>s</strong> sinistres d’une compagnie d’assurances.Exercice 4.6.1 a) Calculer ES t , <strong>et</strong> Var S t pour un processus <strong>de</strong> Poisson composé.b) Calculer la fonction génératrice <strong><strong>de</strong>s</strong> moments.Solution : Consi<strong>de</strong>rons plus generalement <strong><strong>de</strong>s</strong> sommes aleatoires <strong><strong>de</strong>s</strong> variab<strong>les</strong> i<strong>de</strong>ntiquesS =N∑Z i ,i=1avec P [N = k] = p k . En conditionnant sur le nb. <strong><strong>de</strong>s</strong> sauts, on trouve :a)∞∑∫ES = p j (jEZ 1 ) = EZ 1 EN = λt xf Z (x)dxtrouve :j=0Si <strong>les</strong> Z i sont aussi in<strong>de</strong>pendants, alors :Var S = E(S) 2 − (ES) 2 ==∞∑p j E(j=0j∑Z i ) 2 − (ENEZ 1 ) 2i=1∞∑p j (jE(Z1) 2 + j(j − 1)(EZ 1 ) 2 ) − (ENEZ 1 ) 2j=0= ENVar Z 1 + Var N(EZ 1 ) 2 = λtE(Z 2 1)b) Soit M Z (u) = Ee uZ = ∫ ∞0e ux f(x)dx la fonction génératrice <strong>de</strong> moments <strong>de</strong> Z i . OnEe uS t= Ee u(∑ N Tt=1 Zt) = ∑ ∞j=0 = e−λt (λt) j(Mj! Z (u)) j = e λt(MZ(u)−1) = e λt(∫ ∞0 (eux−1)f(x)dx) . Enconclusion,∫ ∞Ee uSt = e tκ(u) , κ(u) = λ(M Z (u) − 1) = λ( e ux f(x)dx − 1)−∞R : La linéarité en temps <strong>de</strong> la moyenne, variance <strong>et</strong> fonction génératrice <strong><strong>de</strong>s</strong> cumulants<strong>du</strong> processus <strong>de</strong> Poisson composé sont consequences, <strong>et</strong> characterisent la propri<strong>et</strong>é d’avoir<strong><strong>de</strong>s</strong> acroissements/increments in<strong>de</strong>pendants X [s,t] sur d’interval<strong>les</strong> disjoints, <strong>et</strong> avec une distributionqui <strong>de</strong>pend seulement <strong>de</strong> la longueur t − s <strong>de</strong> un intervalle [s, t] (<strong>et</strong> pas <strong>du</strong> pointinitiale s).Exercice 4.6.2 (Ross, Exercice 63) Une société d’assurance paie pour <strong>les</strong> déclarations<strong>de</strong> sinistres dans le cadre <strong><strong>de</strong>s</strong> contrats d’assurance vie selon un processus <strong>de</strong> Poisson <strong>de</strong> tauxλ = 5 par semaine. Si le montant payé pour chaque contrat suit une distribution exponentielle<strong>de</strong> moyenne 2000, quel<strong>les</strong> sont la moyenne <strong>et</strong> la variance <strong><strong>de</strong>s</strong> montants payés par la sociétéd’assurances dans un intervalle <strong>de</strong> quatre semaines ?84


Exercice 4.6.3 (Ross, Exercice 66) L’arrivée <strong><strong>de</strong>s</strong> clients à un distributeur <strong>de</strong> bill<strong>et</strong>ssuit un processus <strong>de</strong> Poisson <strong>de</strong> taux 12 per hour. Le montant rétiré à chaque transactionest une variable aléatoire <strong>de</strong> moyenne 30 <strong>et</strong> écart-type 50 (un r<strong>et</strong>rait négatif signifie que <strong>de</strong>l’argent a été déposé). La machine est utilisée 15 heures par jour. Approximez la probabilitéque le montant total rétiré par jour soit infèrieur à 6000.Voir aussi Belisle, TD4Exercice 4.6.4 Déterminer la fonction <strong>de</strong> covarianced’un processus <strong>de</strong> Poisson composé X t , t ≥ 0.Cov [X t , X t+s ]4.7 La propriété <strong>de</strong> Markov <strong>du</strong> processus <strong>de</strong> PoissoncomposéSi Z i ont une distribution discrète p = (p i , i ∈ Z), il s’agit simplement <strong><strong>de</strong>s</strong> marchesaléatoires sur Z, mais en temps continu, ayant la propriété <strong>de</strong> Markov ! <strong>Les</strong> taux d<strong>et</strong>ransition sont λp i .Si en plus p i ≠ 0 ssi i est un voisin <strong>de</strong> l’origine, alors le processus (4.1) est une marchealéatoire simple, un cas particulier <strong>de</strong> processus <strong>de</strong> naissance <strong>et</strong> <strong>de</strong> mort.4.8 Exercices1. Un scribe doit copier n pages d’un manuscrit. Comme il est fatigué, il com<strong>et</strong> un nombr<strong>et</strong>otal d’erreurs distribuées à distribution <strong>de</strong> Poisson P o(λ), qui peuvent se trouver surn’importe quelle page, avec <strong><strong>de</strong>s</strong> probabilités éga<strong>les</strong>.a) Quelle est la probabilité que la première page ne contient pas <strong><strong>de</strong>s</strong> erreurs ?b) Quelle est l’espérance <strong>du</strong> nombre <strong><strong>de</strong>s</strong> pages contenant <strong><strong>de</strong>s</strong> erreurs ?2. (a) Quelle est la probabilité qu’un cercle <strong>de</strong> rayon r autour <strong>de</strong> l’origine ne contientaucun point d’un processus <strong>de</strong> Poisson <strong>de</strong>ux-dimensionel <strong>de</strong> taux λ ? Autrementdit, calculez la fonction <strong>de</strong> ”survie” ou <strong>de</strong> ”distribution complementaire” ¯F D (r) =P{D > r}, où D est la distance <strong>de</strong> l’origine jusqu’au point le plus proche d’unprocessus <strong>de</strong> Poisson <strong>de</strong>ux-dimensionel.(b) Calculez la fonction <strong>de</strong> <strong>de</strong>nsité f D (r).(c) Calculez le mo<strong>de</strong> <strong>de</strong> la fonction <strong>de</strong> <strong>de</strong>nsité.(d) Calculez par parties l’integrale ∫ ∞0r 2 e − r2ED = 12 √ (l’integrale ∫ ∞e − r2 2 dr = √ π/2 = ∫ ∞λ 0 02σ 2 dr <strong>et</strong> montrez que l’espérance est∫ ∞r 2 /2 e−s dsdr peut-être calculépar le théorème <strong>de</strong> Fubini)3. Le temps jusqu’à la première ”arrivée non-<strong>de</strong>couragée” <strong>et</strong> la <strong>de</strong>rnière ”arrivée<strong>de</strong>couragée”. Soit N une variable géométrique, à distribution P{N = k} =(1 − p)p k−1 , k = 1, ...,, soit N 0 = N − 1 la variable géométrique à distributionP{N = k} = (1 − p)p k , k = 0, 1, ..., <strong>et</strong> soit T i , i = 1, 2, ... <strong><strong>de</strong>s</strong> variab<strong>les</strong> aleatoiresi.i.d. exponentiel<strong>les</strong> à paramètre µ. Soit T = ∑ Ni=1 T i le temps jusqu’à la première”arrivée non-<strong>de</strong>couragée”, <strong>et</strong> soit W = ∑ N 0i=1 T i le temps jusqu’à la ”<strong>de</strong>rnière arrivée<strong>de</strong>couragée”.85


(a) Trouvez la fonction génératrice <strong><strong>de</strong>s</strong> moments m T1 (s) = Ee sT 1<strong>de</strong> T 1 ,(b) Trouvez <strong>les</strong> fonction génératrices <strong><strong>de</strong>s</strong> moments m T <strong>de</strong> T = ∑ Ni=1 T i <strong>et</strong> m W <strong>de</strong>W = ∑ N 0i=1 T i.(c) Quelle sont <strong>les</strong> distributions <strong><strong>de</strong>s</strong> variable aleatoires T, W ?4. a) Montrez que si <strong>les</strong> variab<strong>les</strong> {a i , i = 1, ..., n} ont <strong><strong>de</strong>s</strong> distributions exponentiel<strong>les</strong>in<strong>de</strong>pendantes à paramètres λ i , i = 1, ..., n, alors la variable a = min{a i , i = 1, ..., n} aune distribution exponentielle <strong>de</strong> paramètre λ = ∑ i λ i. b) Trouvez la distribution <strong>de</strong>la variable I qui donne l’in<strong>de</strong>x qui realise le minimum. c) Qu-est-ce qu’on obtient ensuperposant n processus <strong>de</strong> Poisson à paramètres λ i , i = 1, ..., n ?5. Montrez que la <strong>de</strong>nsité <strong>du</strong> temps <strong>de</strong> la n-ième arrivée dans un processus <strong>de</strong> Poisson ala <strong>de</strong>nsitéf Tn (x)dx = (λx)n−1(n − 1)! e−λx λdx6. Soit X t un processus <strong>de</strong> Poisson <strong>de</strong> taux λ, <strong>les</strong> point <strong>du</strong> quel sont coloriés en Kcouleurs, in<strong>de</strong>pendamment avec <strong><strong>de</strong>s</strong> probabilités p 1 , ..., p K , donnant naissance ainsià K processus <strong>de</strong> comptage X 1 (t), ..., X K (t). Montrez que X 1 (t), ..., X K (t) sont <strong><strong>de</strong>s</strong>processus <strong>de</strong> Poisson in<strong>de</strong>pendants, avec taux λp 1 , ..., λp K .Solutions :1. a) <strong>Les</strong> nombres <strong><strong>de</strong>s</strong> erreurs N i sur chaque page i sont <strong><strong>de</strong>s</strong> variable <strong>de</strong> Poisson ”coloriée”avec probabilité 1/n, <strong>et</strong> donc N i sont <strong><strong>de</strong>s</strong> variab<strong>les</strong> <strong>de</strong> Poisson <strong>de</strong> taux λ/n(in<strong>de</strong>pendantes). La probabilité que N i ≥ 1 est 1 − e −λ/n .b) En <strong>de</strong>composant la variable N comme somme <strong><strong>de</strong>s</strong> indicatrices, l’espérance <strong>de</strong>N = ∑ ni=1 N i est n(1 − e −λ/n ) (en fait, N a une distribution binomiale, car N i sontin<strong>de</strong>pendants, par le théorème <strong>de</strong> coloriage <strong><strong>de</strong>s</strong> variab<strong>les</strong> Poisson).2. a) ¯F (r) = e −λπr2b) f D (r) = 2λπre −λπr2 . c)Le mo<strong>de</strong> <strong>de</strong> la <strong>de</strong>nsité satisfait (1 − 2λπr 2 )e −λr2 = 0, doncr = √ 12λπ.d) ED = 2λ ∫ ∞0r 2 e −λπr2En posant λπ = 12σ 2 ⇐⇒ σ = 1 √2λπ, on s’aperçoit que notre integrale est <strong>de</strong> la forme∫ ∞0r 2 e − r22σ 2 dr =√2πσ3car elle represente une <strong>de</strong>mi <strong>de</strong> la variance <strong>de</strong> la distribution Gaussienne. (On peut aussir<strong>et</strong>rouver ce resultat en utilisant l’integration par parties, <strong>et</strong> en calculant l’integrale∫ ∞e − r2 2 dr = √ π/2 = ∫ ∞ ∫ ∞0 0 r 2 /2 e−s dsdr par le théorème <strong>de</strong> Fubini.)On trouve finalement que l’espérance est√2πED = 2λ4λ √ 2λπ = 12 √ λ3. (a) m T1 (s) = µµ−s = 11−s/µ862


(b) m T (s) = ∑ ∞n=1 (1 − p)pn−1 ( µµ−s )n = (1 − p) µ1µ−s 1−p µµ−s= (1−p)µ(1−p)µ−s(c) T est donc une v.a. exponentielle à paramètre (1 − p)µ, qui est précisement l<strong>et</strong>aux <strong><strong>de</strong>s</strong> points ”acceptés” <strong>du</strong> processus <strong>de</strong> Poisson ”aminci” <strong><strong>de</strong>s</strong> arrivées non<strong>de</strong>couragées.4. c) Il s’agît d’un processus <strong>de</strong> comptage à interarrivées exponentiel<strong>les</strong>, donc d’unprocessus <strong>de</strong> Poisson, a paramètre λ = ∑ i λ i.87


Chapitre 5<strong>Les</strong> processus markoviens <strong>de</strong> saut, en tempConsidérons maintenant <strong><strong>de</strong>s</strong> processus X t en temps continu, sur un espace d’états E finiou dénombrable, appellés aussi processus <strong>de</strong> sauts. On note E = {e i ; i ∈ I} où I ⊂ N,<strong>et</strong> on munit E <strong>de</strong> la tribu P (E), l’ensemble <strong><strong>de</strong>s</strong> parties <strong>de</strong> E. Souvent, on i<strong>de</strong>ntifie l’espaced’états E fini avec l’ensemble <strong><strong>de</strong>s</strong> indices I (i.e on appelle <strong>les</strong> états par leur indice).Nous aimerions enrichir le mo<strong>de</strong>le <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov, pour qu’il puisse accomo<strong>de</strong>rla possibilité <strong><strong>de</strong>s</strong> temps <strong>de</strong> transition aleatoires t (i) d’un état à l’autre, suivant une matrice<strong><strong>de</strong>s</strong> distributions inconnuesF x,y (t) := P [t (1) ≤ t|X(0) = x, X(t (1)+ ) = y](qu’il faudra estimer).Un tel processus défini par une matrice stochastique <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> transition P estune matrice <strong><strong>de</strong>s</strong> distributions F (t) s’appelle semi-markovien. Nous <strong>et</strong>udierons surtout le casparticulier F x,y (t) = 1 − e −µ(x)t , ∀y, qui satisfait la propriété <strong>de</strong> Markov en temps continu.5.1 La propri<strong>et</strong>è <strong>de</strong> MarkovDéfinition 5.1.1 -Propri<strong>et</strong>è <strong>de</strong> MarkovUn processus X = (X t ) t≥0en temps continu <strong>et</strong> a éspace d’états E a la propri<strong>et</strong>è <strong>de</strong>Markov si, <strong>et</strong> seulement si ses probabilités conditionel<strong>les</strong> ne <strong>de</strong>pend pas <strong>du</strong> passé que par lepassé imediat, i.e.∀0 ≤ t 0 < t 1 < · · · < t k < t , t i ∈ R,<strong>et</strong>∀e i0 , e i1 , ..., e ik , e i ∈ EP ([X t = e i ] | [X t0 = e i0 , ..., X tk = e ik ]) = P ([X t = e i ] | [X tk = e ik ])Un processus ayant la propri<strong>et</strong>è <strong>de</strong> Markov s’apelle processus <strong>de</strong> Markov.Interprétation <strong>de</strong> la propriété <strong>de</strong> Markov : si on considère que le processus est indicé parle temps, c<strong>et</strong>te propriété tra<strong>du</strong>it le fait que le présent ne dépend <strong>du</strong> passé qu’à travers lepassé immédiat.Exemp<strong>les</strong> : 2.3 <strong>et</strong> 2.1 <strong>de</strong> Ruegg, <strong>et</strong> <strong>les</strong> exemp<strong>les</strong> <strong>de</strong> Belisle.Définition 5.1.2 Matrice <strong><strong>de</strong>s</strong> transitionsPour tous 0 ≤ s ≤ t, pour tous i, j dans I, <strong>et</strong> pour chaque processus <strong>de</strong> Markov, ondéfinit <strong>les</strong> probabilités <strong>de</strong> transition par :p ij (s, t) = P ([X t = e j ] | [X s = e i ]) .88


Définition 5.1.3 Homogeneité <strong><strong>de</strong>s</strong> transitionsUn processus est dit homogène si, <strong>et</strong> seulement si :∀ i, j ∈ I , ∀ 0 ≤ s ≤ t , p ij (s, t) = p ij (0, t − s) .On note alors p ij (s, t)= p ij (t − s), <strong>et</strong> la matrice p ij (t) est appellée matrice <strong>de</strong> transitionaprès temps t.Hypothèse <strong>de</strong> travail : (H1) On ne considérera ici que <strong><strong>de</strong>s</strong> processus homogènes.Un processus <strong>de</strong> Markov homogène est uniquement specifié par ses <strong><strong>de</strong>s</strong> probabilités d<strong>et</strong>ransition aprés temps t. Pour tout t ≥ 0, on note parP (t) = (p ij (t)) i,j∈Ila matrice <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> transition aprés temps t.L’exemple le plus simple <strong><strong>de</strong>s</strong> processus <strong>de</strong> Markov homogènes est fourni par <strong>les</strong> ”chaînes<strong>de</strong> Markov” en temps discr<strong>et</strong> <strong>et</strong> à espace d’états fini ou dénombrable. Le prochaîne exempleen ordre <strong>de</strong> complexité est celui <strong>de</strong> processus <strong>de</strong> sauts en temps continu.En principe, toute la discussion précé<strong>de</strong>nte s’étend au processsus beaucoup plus compliqués,sur <strong><strong>de</strong>s</strong> espace d’états E arbitraires, en remplaçant comme d’habitu<strong>de</strong> <strong>les</strong> événements”ponctuels” ci <strong><strong>de</strong>s</strong>sus par <strong><strong>de</strong>s</strong> événements mesurab<strong>les</strong> arbitraires, ...5.2 <strong>Les</strong> semigroupes <strong>de</strong> Markov homogènes ; calcul <strong>de</strong>l’exponentielle <strong><strong>de</strong>s</strong> operateursEn temps discr<strong>et</strong>, a cause <strong>de</strong> l’équation <strong>de</strong> Chapman-Kolmogorov, <strong>les</strong> matrice <strong><strong>de</strong>s</strong> probabilités<strong>de</strong> transition aprés temps n avait une structure <strong>de</strong> semigroup P n , qui était engendrépar la matrice P <strong>de</strong> transition aprés temps 1. On r<strong>et</strong>rouve la même structure dans le cascontinu :Théorème 5.2.1 Soit (X t ) t≥0un processus Markovien homogène, à temps continu t ∈ R + .Alors, <strong>les</strong> operateurs <strong>de</strong> transition (P t ) t≥0forment un semi-groupe stochastique, c’est-à-dire :1. P 0 = I d2. ∀s, t ≥ 0 ,P t+s = P t P s(équations <strong>de</strong> Chapman-Kolmogorov)3. ∀t ∑ ≥ 0 , P t est une matrice stochastique (i.e. ∀i, j ∈ I , p ij (t) ≥ 0 <strong>et</strong> ∀i ∈ I,j∈I p ij (t) = 1 ).4. {′P t = P t G (équation Kolmogorov avant)P ′t = G P t (équation Kolmogorov arrière ou rétrogra<strong>de</strong>)où G est le générateur.5. Pour tout t ≥ 0,P t = e tG ,<strong>et</strong> la transformée <strong>de</strong> Laplace/résolvente est ∫ ∞0e −st P t dt = (sI d −G) −1 , pour tout s > 0.89


tcDéfinition 5.2.1 Une famille <strong><strong>de</strong>s</strong> operateurs satisfaisant <strong>les</strong> propriétés (1) <strong>et</strong> (2) <strong>du</strong> théorème5.2.1 est appelée semi-groupe. Une famille satisfaisant aussi la propriété (3) est appeléesemi-groupe stochastique.Le <strong>de</strong>rnier point fournit une réprésentation <strong><strong>de</strong>s</strong> semigroupes <strong>de</strong> matrices stochastiques entemps continu, satisfaisant P (t + s) = P (t)P (s), ∀t, s ∈ R + . Rappelons que dans le cas <strong><strong>de</strong>s</strong>semigroupes discrètes <strong>de</strong> matrices stochastique indicé par t ∈ N, ça se faisait par la formuleP (t) = [P (1)] n .Pour <strong>les</strong> processus <strong>de</strong> Markov en temps continu, il n’existe plus un ”temps minimal”d’observation (comme le t = 1 <strong>du</strong> cas discrète) ; il est donc moins evi<strong>de</strong>nt comment générerle semi-groupe <strong><strong>de</strong>s</strong> matrices <strong>de</strong> transition. La réprésentation <strong><strong>de</strong>s</strong>iréeP (t) = e tGfait maintenant intervenir la matrice G, appellée générateur, qui est liée á la matrice d<strong>et</strong>ransition infinitesimale P h , avec h → 0 1 .Rémarques :1. Le cas le plus simple est celui <strong><strong>de</strong>s</strong> processus <strong>de</strong> sauts, i.e. avec <strong><strong>de</strong>s</strong> espaces détats Efinis ou dénombrab<strong>les</strong>, dans quel cas P t , G sont <strong><strong>de</strong>s</strong> matrices. Nous traiterons surtoutce cas (si possible, car <strong>les</strong> processus <strong>de</strong> Levy, qui sont parmi <strong>les</strong> outils <strong>de</strong> modélisation<strong>les</strong> plus uti<strong>les</strong>, font défaut !)2. Dans le cas dénombrable, il faudra ajouter <strong><strong>de</strong>s</strong> conditions qui assurent que <strong>les</strong> sommes,intégra<strong>les</strong>, <strong>et</strong>c., soient bien définis. Une telle condition est sup i∈I (−G ii ) < +∞.3. Comme <strong>les</strong> matrices P t = e tG doivent être stochastiques pour chaque t, il découle quela partie réele <strong><strong>de</strong>s</strong> valeurs propres <strong>de</strong> G doit <strong>et</strong>re nonpositive.4. Pour le cas <strong><strong>de</strong>s</strong> espaces d’états finies, <strong>les</strong> equations differentiel<strong>les</strong> <strong>de</strong> Kolmogorov pourP t calculent la fonction exponentielle matrice e tG , <strong>et</strong> donc adm<strong>et</strong>tent toujours <strong><strong>de</strong>s</strong>solutions explicites en fonction <strong><strong>de</strong>s</strong> valeurs/vecteurs propres <strong>de</strong> G. En plus, la fonctionexponentielle <strong>de</strong> matrice est mise en oeuvre numeriquement dans toutes <strong>les</strong> logiciel<strong>les</strong>mo<strong>de</strong>rnes. Par contre, pour <strong>les</strong> espace d’états dénombrab<strong>les</strong>, le calcul explicit <strong>de</strong> P t<strong>de</strong>vient difficile, même pour le cas le plus simple <strong>de</strong> la file M/M/1 2 . Ils restent toujours<strong>les</strong> approches numériques, <strong>et</strong> il y en a beaucoup, comme pour temoigner sur la difficulté<strong>du</strong> problème.5. Pendant que le calcul <strong>du</strong> semigroupe suppose la connaissance <strong>du</strong> spectrum, celui <strong>de</strong> laresolvente ne le <strong>de</strong>man<strong>de</strong> pas. Par conséquant, une métho<strong>de</strong> possible pour le calcul <strong>du</strong>semigroupe est <strong>de</strong> comencer par la resolvente, <strong>et</strong> ensuite l’inverser numériquement (ouanalytiquement parfois, par exemple en utilisant la <strong>de</strong>composition en fractions simp<strong>les</strong>,dans le cas rationnel).1. Pour le calcul <strong>de</strong> l’exponentielle d’une matrice, on pourrait utiliser la <strong>de</strong>composition <strong>de</strong> Jordan, laresolution <strong>du</strong> systeme differentiel : M t = e tG ⇐⇒ M 0 = I <strong>et</strong> M ′ (t) = G M(t), ou la serie <strong>de</strong> Taylor. Lameilleure approche est d’approximer la fonction exponentielle par le polynôme qui l’interpole dans <strong>les</strong> valeurspropres <strong>de</strong> G (au lieu d’utiliser Taylor, qui interpole en 0) ; appliquée à la matrice G, c<strong>et</strong>te approximationest exacte !2. Dans ce cas, la transformé <strong>de</strong> Laplace <strong>de</strong> P t est explicite, <strong>et</strong> on peut l’inverser, en arrivant a <strong><strong>de</strong>s</strong>combinaisons <strong><strong>de</strong>s</strong> fonctions Bessel.90


Exercice 5.2.1 Calculer la puissance k, la ”resolvente” (sI −A) −1 , ainsi que l’exponentielleP t = e tA , pour une matrice <strong>de</strong> taille n×n, (par exemple n = 3) A = µI+λU, où U i,j = 1 j=i+1 .En <strong>de</strong><strong>du</strong>ire <strong>les</strong> formu<strong>les</strong> pour un bloque <strong>de</strong> Jordan (λ = 1) <strong>et</strong> la matrice génératrice G d’unprocessus <strong>de</strong> Poisson absorbé en n − 1.Exercice 5.2.2 (*) Calculer la puissance k, la ”resolvente” (sI −A) −1 , ainsi que l’exponentielleP t = e tA , pour une matrice <strong>de</strong> taille n × n, (par exemple n = 3) A = diag(−λ i ) + U,où U i,j = λ i 1 j=i+1 , pour n = 2. En <strong>de</strong><strong>du</strong>ire la formule <strong>de</strong> la distribution cumulative complementaire(1, 0)e tA 1 <strong>de</strong> la distribution ”hypoexponentielle”.Exercice 5.2.3 Calculer l’exponentielle ainsi que la resolvente pour une matrice <strong>de</strong> rang 1,A = bβ,où b, β sont respectivement <strong><strong>de</strong>s</strong> vecteurs colonne <strong>et</strong> ligne <strong>de</strong> taille n.Nous supposerons toujours la continuité <strong>du</strong> semigroupe en 0 :lim P t→I d (5.1)t→0 +ou I d <strong>de</strong>note l’i<strong>de</strong>ntité, dans quel cas le semi-groupe (P t ) t≥0est dit standard.Comme <strong>les</strong> propriétés (1) <strong>et</strong> (2) <strong>du</strong> théorème 5.2.1 sont cel<strong>les</strong> d’une fonction exponentielle,on peut s’attendre par analogie avec le cas scalaire que P t = e tG où le ”générateur” G est lamatrice donnée par :G = dP t P t − I d(0) = limdt t→0 + t(5.2)(dérivée <strong>de</strong> t ↦→ P t en 0).Il est donc naturel <strong>de</strong> tourner vers la matrice ”<strong><strong>de</strong>s</strong> taux”, définie par la rélationP (t) ≈ I − tG, pour t → 0 + ⇐⇒ G := limt→0P (t) − It= P ′ (0)Définition 5.2.2 On appelle générateur d’un semigroupe <strong>de</strong> Markov sur un espace d’étatsdéf P t − I dfini où <strong>de</strong>nombrable la matrice G = (g ij ) i,i∈I= lim t→0 + .tPlus précisement, la matrice G <strong>de</strong> ”taux <strong>de</strong> transition” infinitesima<strong>les</strong>, ou ”générateur”,en partant d’un état initial arbitraire X 0 = i, est définie par :{g ij−g ii= lim P ij(t)t→0 +t= lim 1−P ii(t)t→0 +tquand i ≠ jquand i = j⇐⇒{pij (t) = g ij t + o(t)) quand i ≠ jp ii (t) = 1 + g ii t + o(t)Ainsi, pour j ≠ i alors g ij = lim t→0 +p ij (t)tl’état e j , <strong>et</strong> on a g ij ≥ 0 si i ≠ j. Pour j = i, −g ii = lim t→0 +≥ 0 est le taux <strong>de</strong> passage <strong>de</strong> l’état e i à1 − p ii (t)tsortie <strong>de</strong> l’état e i , pour t → 0.Note : En utilisant P t 1 = 1, on vérifie que G1 = 0, i.e. g i,i = − ∑ j≠i g i,j.91≥ 0 est le taux <strong>de</strong>


Définition 5.2.3 Une matrice G satisfaisant1. g ij ≥ 0 si i ≠ j, g ii ≤ 0 <strong>et</strong>2. g i,i + ∑ j≠i g i,j = 0sera appellée matrice génératrice ou générateur <strong>de</strong> la chaîne <strong>de</strong> Markov.Une matrice G satisfaisant 1. <strong>et</strong> g i,i + ∑ j≠i g i,j ≤ 0 sera appellée sous-génératrice.Exercice 5.2.4 Pour une matrice (sous)stochastique arbitraire, la matrice G = P − I estune matrice (sous) génératrice.Remarque 5.2.1 Il est facile <strong>de</strong> verifier que la matrice G = P − I a <strong>les</strong> mêmes vecteurspropres comme P , <strong>et</strong> que ses valeurs propres sont translatées par −1.<strong>Les</strong> systèmes <strong>de</strong> Dirichl<strong>et</strong> –voir ci <strong><strong>de</strong>s</strong>sus– concernant <strong>les</strong> chaînes <strong>de</strong> Markov en tempsdiscr<strong>et</strong> peuvent être formulées egalement en termes <strong>de</strong> P ou <strong>de</strong> G, mais l’avantage <strong>de</strong> la<strong>de</strong>rnière formulation <strong>et</strong> qu’elle generalise pour le temps continu.Chaque matrice génératrice G sur un espace d’états fini défini un processus <strong>de</strong> Markov<strong>de</strong> sauts X t (qui choisi son prochaine état j ≠ i à partir <strong>de</strong> X t = i avec probabilitésproportionel<strong>les</strong> à g i,j , j ≠ i, aprés un temps exponentiel <strong>de</strong> paramètre λ i = ∑ j≠i g i,j), avecsemigroupe e tG .5.3 Premier exemple : le processus <strong>de</strong> PoissonExemple 5.3.1 Le processus <strong>de</strong> Poisson peut être intro<strong>du</strong>it à partir <strong>de</strong> sa matrice génératrice :⎛⎞−λ λ 0 · · ·0 −λ λ 00 0 −λ λ 0G = ⎜⎝ .. 0 .. . .. . ⎟ .. ⎠. .. . .. . ..Un calcul <strong>de</strong> l’exponentielle P t = e tG (matrice <strong>de</strong> transitions) pro<strong>du</strong>it une structur<strong>et</strong>riangulaire superieure{P t (i, j) =p t (j − i) si j ≥ i,0 si j < ii, j ∈ N,où p t (k) = P [N λ (t) = k] = e −λt (λt) ksont <strong>les</strong> probabilités <strong>du</strong> processus <strong>de</strong> Poisson en començant<strong>de</strong> 0 (la première ligne).k!Rq : La propriété <strong>de</strong> semigroupe P t+s = P t P s , ∀s, t ∈ R + est équivalente ici au faitque p t (k) satisfont :n∑p t+s (n) = p s (k)p t (n − k)k=0Exercice 5.3.1 Montrer que le nb. esperé d’arrivée en [0, t] est λt, ce qui montre que λ estle nb. esperé d’arrivée per unité <strong>de</strong> temps.Exercice 5.3.2 Montrer ( que)la pb. <strong>de</strong> se r<strong>et</strong>rouver au point <strong>de</strong> <strong>de</strong>part au temps t pour leprocessus avec G = −1 11 −1 est 1+e−2t .292


Le processus <strong>de</strong> Poisson est a la fois un <strong><strong>de</strong>s</strong> exemp<strong>les</strong> <strong>les</strong> plus simp<strong>les</strong> d’un processus <strong><strong>de</strong>s</strong>auts Markovien, <strong>et</strong> aussi un instrument théorique <strong>de</strong> démonstrations, grace a la possibilité<strong>de</strong> construire explicitement toutes <strong>les</strong> processus <strong>de</strong> sauts Markovien en partant <strong><strong>de</strong>s</strong> processus<strong>de</strong> Poisson ! C’est aussi un <strong><strong>de</strong>s</strong> rares cas où <strong>les</strong> probabilités <strong>de</strong> transition ont <strong><strong>de</strong>s</strong> formu<strong>les</strong>explicites.Exercice 5.3.3 Montrer que pour un processus <strong>de</strong> Poisson <strong>et</strong> pour h → 0 on a :{ λh + o(h) si k = 1p k (h) = o(h) si k ≥ 21 − λh + o(h) si k = 05.4 <strong>Processus</strong> <strong>de</strong> naissance <strong>et</strong> <strong>de</strong> mort, marches aléatoires<strong>et</strong> fi<strong>les</strong> d’attenteLa façon la plus simple <strong>de</strong> <strong>de</strong>finir <strong>de</strong> processus <strong>de</strong> Markov en temps continu est à traversleurs taux <strong>de</strong> transition, analogues au taux λ <strong>du</strong> processus <strong>de</strong> Poisson.<strong>Les</strong> processus Markoviens <strong>de</strong> saut <strong>les</strong> plus simp<strong>les</strong> sont <strong>les</strong> processus ”<strong>de</strong> naissance <strong>et</strong> <strong>de</strong>mort”, qui n’augmente <strong>et</strong> ne diminue jamais avec plus d’une unité, <strong>et</strong> qui se <strong>de</strong>place sur Ntoujours aux voisins, ”sans sauter position”. La notation traditionelle <strong><strong>de</strong>s</strong> taux <strong>de</strong> naissance(ou <strong>de</strong> croissance) est λ i <strong>et</strong> celle <strong><strong>de</strong>s</strong> taux <strong>de</strong> mort (ou <strong>de</strong> décroissance) µ i .Définition 5.4.1 On appelle processus <strong>de</strong> naissance <strong>et</strong> mort une chaîne <strong>de</strong> Markov homogèneà temps continu (X t ) t≥0, à valeurs dans N telle que :∀i, j ∈ N , ∀h > 0 ,⎧⎪⎨ λ i h + o (h) si j = i + 1 3P ij (h) = P ([X t+h = j] µid [X t = i]) =µ i h + o (h) si j = i − 1⎪⎩1 − (λ i + µ i ) h + o (h) si j = io (h) sinonAutrement dit, le générateur d’un processus <strong>de</strong> naissance <strong>et</strong> mort <strong>de</strong> taux <strong>de</strong> naissanceλ i , i ∈ N <strong>et</strong> <strong>de</strong> taux <strong>de</strong> mort µ i , i ∈ N est donné par une matrice tridiagonale :⎛⎞−λ 0 λ 0 0 · · ·µ 1 − (λ 1 + µ 1 ) λ 1 0G =0 µ 2 − (λ 2 + µ 2 ) λ 2 0⎜.⎝ . 0.. . .. ⎟⎠. .. . .. . ..• Si tous <strong>les</strong> λ i sont nuls, on parle <strong>de</strong> processus <strong>de</strong> mort.• Si tous <strong>les</strong> µ i sont nuls, on parle <strong>de</strong> processus <strong>de</strong> naissance.Exemple : processus <strong>de</strong> Poisson d’intensité λ (∀i ∈ N , λ i = λ).Le cas <strong><strong>de</strong>s</strong> taux constants λ i = λ, µ i = µ, ∀i ∈ Z donne <strong><strong>de</strong>s</strong> marches aléatoires X t entemps continu (analogues <strong><strong>de</strong>s</strong> marches aléatoires simp<strong>les</strong> discrètes), qui sont plus faci<strong>les</strong> aanalyser. En fait, ces processus peuvent être <strong>de</strong>composés comme une sommeX t = N 1,λ (t) − N 2,µ (t)93


où <strong>les</strong> <strong>de</strong>ux composantes sont in<strong>de</strong>pedantes, ce qui implique une formule explicite <strong>de</strong> convolutionpour <strong>les</strong> probabilités <strong>de</strong> transitionP 0 [X t = k] =∞∑P [N 1,λ (t) = k + l] + P [N 2,µ (t) = l]l=0Dans <strong>les</strong> applications on rencontre surtout le cas oú X t ∈ {0, 1, 2, ..}, un exemple proeminentétant le nombre <strong>de</strong> clients qui atten<strong>de</strong>nt leur service à un guich<strong>et</strong>, ou dans un centred’appels (comme ces processus sont à valeurs dans N, on a forcément µ 0 = 0). <strong>Les</strong> modè<strong>les</strong>Markoviens <strong>les</strong> plus étudiés sont le fi<strong>les</strong> d’attente M(λ)/M(c)/s/s+K, où s répresente lenombre <strong><strong>de</strong>s</strong> serveurs, K ∈ N est le nb <strong><strong>de</strong>s</strong> places d’attente disponib<strong>les</strong>, <strong>et</strong> la l<strong>et</strong>tre M (pourMarkov) indique une distribution exponentielle <strong>de</strong> temps <strong>de</strong> service <strong>et</strong> entre <strong>les</strong> arrivées. <strong>Les</strong>taux <strong>de</strong> transition sont g i,i+1 = λ i , g i,i−1 = µ i = min(sµ, iµ).Exemple 5.4.1 La matrice génératrice <strong>de</strong> la file M/M/2 est :⎛⎞−λ λ 0 · · ·µ −λ − µ λ 00 2µ −λ − 2µ λ 0G = ⎜⎟⎝ . 0 2µ −λ − 2µ λ ⎠. .. . .. . .. . ..Exemple 5.4.2 La matrice génératrice <strong>de</strong> la file M/M/3 est :⎛⎞−λ λ 0 · · ·µ −λ − µ λ 00 2µ −λ − 2µ λ 0G = ⎜⎟⎝ . 0 3µ −λ − 3µ λ ⎠. .. . .. . .. . ..<strong>Les</strong> distributions stationnaires <strong><strong>de</strong>s</strong> fi<strong>les</strong> d’attente sont assez faci<strong>les</strong> a calculer, mais <strong>les</strong>probabilités <strong>de</strong> transition sont (relativement) simple seulement dans <strong>les</strong> cas s = ∞ <strong>et</strong> s = 1.Un autre domaine ou on utilise <strong>les</strong> processus <strong>de</strong> naissance <strong>et</strong> mort sont <strong>les</strong> modè<strong>les</strong> <strong>de</strong>population, qui modélisent l’effectif X t d’une population à l’instant t. Par exemple, pourmodéliser une croissance/<strong>de</strong>croissane linéaires avec (ou sans) immigration <strong>et</strong> avec (ou sans)émigration, on utilisera :→ ∀i ∈ N, λ i = λi + a avec λ > 0 <strong>et</strong> a > 0 (processus avec immigration) ou a = 0(processus sans immigration)→ ∀i ∈ N ∗ , µ i = µi + b avec µ > 0 <strong>et</strong> b > 0 (processus avec émigration) ou b = 0(processus sans émigration).5.5 <strong>Les</strong> fi<strong>les</strong> d’attenteLe problème est le suivant : <strong><strong>de</strong>s</strong> ”clients” arrivent en suivant une certaine loi <strong>de</strong> probabilitépour obtenir un ”service” dont la <strong>du</strong>rée est elle-même modélisée par une autre loi <strong>de</strong>probabilité. La file dispose d’un nombre 1 ≤ s ≤ ∞ <strong><strong>de</strong>s</strong> ”serveurs” <strong>et</strong> <strong>de</strong> K places supplementairesd’attente (ainsi,la capacité totale <strong>du</strong> système est s + K).94


Dans c<strong>et</strong>te application, la modélisation stochastique est plus aisée en temps continu.Soit N t ∈ N, t ∈ R le nombre total <strong><strong>de</strong>s</strong> clients dans le système (en attente ou en service) àl’instant t. Pour une file d’attente, <strong>les</strong> seuls transitions possib<strong>les</strong> <strong>de</strong> N t sont l’ajout/départd’un client.Notation <strong>de</strong> Kendall. Kendall apelle un processus N t ∈ N, t ∈ R ”file M/M/s/K” siN t est un processus <strong>de</strong> naissance <strong>et</strong> mort, <strong>et</strong>- il y a s serveurs- la taille <strong>de</strong> la salle d’attente est <strong>de</strong> K places.- <strong>les</strong> temps A i entre <strong>les</strong> arrivée <strong><strong>de</strong>s</strong> clients <strong>et</strong> <strong>les</strong> temps <strong>de</strong> service B i suivent <strong><strong>de</strong>s</strong> lois exponentiel<strong>les</strong>(traditionellement, le taux d’arrivée/départ sont <strong>de</strong>noté par λ, µ) <strong>et</strong> sont in<strong>de</strong>pendantes,le M étant une abbreviation <strong>de</strong> Markovien. Si <strong>les</strong> temps d’arrivée sont simplementin<strong>de</strong>pendantes, on remplace le M par G(énérale), <strong>et</strong> s’ils sont <strong>de</strong> type phase, on remplace leM par Ph(ase).La file d’attente M/M/1 a, en plus par rapport au processus <strong>de</strong> Poisson, aussi <strong><strong>de</strong>s</strong>”morts”, le taux <strong><strong>de</strong>s</strong> quel<strong>les</strong> est traditionellement <strong>de</strong>noté par µ. Ainsi, elle est characterisépar <strong>les</strong> taux infinitesima<strong>les</strong> g i,i+i = λ, g i,i−i = µ, g 0 = λ, g i = λ + µ <strong>et</strong> sa matrice génératriceest :⎛G =⎜⎝⎞−λ λ 0 · · ·µ − (λ + µ) λ 00 µ − (λ + µ) λ 0.. 0 .. . .. . .. ⎟⎠. .. . .. . ..Autres exemp<strong>les</strong> :1) Pour la file M/M/1/K on a λ i = λ, i = 0, 1, ..., K, λ K+1 = 0.2) Pour la file M/M/s/K, on a µ i = iµ, i = 1, ..., s, λ i = λ, i = 0, 1, ..., s+K −1, λ s+K = 0Rémarque : Dans tous ces cas, le générateur est donné par une matrice tridiagonale”presque” Toeplitz, i.e. avec diagona<strong>les</strong> constantes, au moins à une certaine distance <strong><strong>de</strong>s</strong>frontières.5.6 Distribution stationnaire <strong>et</strong> comportement asymptotiqueProposition 5.6.1 Un processus <strong>de</strong> naissance <strong>et</strong> mort <strong>de</strong> taux <strong>de</strong> naissance λ i , i ∈ N <strong>et</strong> d<strong>et</strong>aux <strong>de</strong> mort µ i , i ∈ N est irré<strong>du</strong>ctible si, <strong>et</strong> seulement si :∀i ∈ N , λ i ≠ 0 <strong>et</strong> ∀i ∈ N ∗ , µ i ≠ 0.Démonstration : si ∀i ∈ N , λ i ≠ 0 <strong>et</strong> ∀i ∈ N ∗ , µ i ≠ 0 alors toutes <strong>les</strong> transitions sontpossib<strong>les</strong>. Par contre, si l’un <strong><strong>de</strong>s</strong> réels λ i0 ou µ i0 est nul, une <strong><strong>de</strong>s</strong> transitions <strong>de</strong>vient impossible,<strong>et</strong> on voit que la reunion <strong><strong>de</strong>s</strong> classes <strong>de</strong> communication contenant <strong><strong>de</strong>s</strong> elements a gauche <strong>de</strong> i 0<strong>et</strong> celle contenant <strong><strong>de</strong>s</strong> elements a droite <strong>de</strong> i 0 ne peuvent pas communiquer. Alors, l’ensemble<strong><strong>de</strong>s</strong> classes <strong>de</strong> communication a au moins <strong>de</strong>ux elements.La distribution stationnaire est une <strong><strong>de</strong>s</strong> charactéristiques <strong>les</strong> plus faci<strong>les</strong> à calculer <strong><strong>de</strong>s</strong>processus <strong>de</strong> Markov.95


Définition 5.6.1 On dit qu’un vecteur π = (π i ) i∈Iest une distribution stationnaire si, <strong>et</strong>seulement si(1) π est un vecteur <strong>de</strong> probabilité, c’est-à-dire :∀i ∈ I , π i ≥ 0 <strong>et</strong> ∑ i∈Iπ i = 1(2) ∀t ≥ 0 , π = πP t .Théorème 5.6.1 (admis) Soit (X t ) t≥0un processus Markovien <strong>de</strong> sauts en temps continu,homogène, <strong>de</strong> semi-groupe P t = e tG ”regulier” (qui saute p.s. un nb. fini <strong><strong>de</strong>s</strong> fois en chaqueinterval fini).1. Pour tout t ≥ 0, il y a équivalence entre :(1) ∀t ≥ 0 , π = πP t (π vecteur propre <strong>de</strong> P t a gauche pour la valeur propre 1)(2) πG = 0 (π vecteur propre <strong>de</strong> G a gauche pour la valeur propre 0).2. Si le semigroupe est aussi ”mélangeant”, i.e. si :∃t > 0 tel que p ij (t) > 0, ∀i, j ∈ I(ça implique la nonperiodicité <strong>et</strong> irré<strong>du</strong>cibilité)(P t ) t≥0, alors(3) Si π est une distribution stationnaire alors (le cas érgodique) on a :∀i, j ∈ I , lim t→+∞ p ij (t) = π j(4) S’il n’existe pas <strong>de</strong> distribution stationnaire alors : ∀i, j ∈ I , lim t→+∞ p ij (t) = 0Démonstration : 1) : πG = 0 ⇒ ∀n ≥ 1 , πG n = 0 donc ∀t ≥ 0 π ∑ t nn≥1 n! Gn = 0 d’où :π e tG = πP t = πRéciproquement, supposons que ∀t ≥ 0 , πP t = π. On a alors : ∀t ≥ 0 , πP t = πe tG = π.En dérivant par rapport à t , on obtient : πGe tG = 0 <strong>et</strong> en prenant t = 0, on en dé<strong>du</strong>it queπG = 0 d’où πG = 0.Remarques : 1) Pour un espace d’états fini, l’existence <strong><strong>de</strong>s</strong> solutions <strong>du</strong> système linéaireπ G = 0, ou π est un vecteur <strong><strong>de</strong>s</strong> probabilités, est toujours garantie par le théorème <strong>de</strong>Perron-Frobenius.2) Le <strong>de</strong>uxième cas ci-<strong><strong>de</strong>s</strong>sus (qui n’aparaissait pas pour <strong>les</strong> espace d’états finis) arriv<strong>et</strong>oujours si EZ i > 0 en temps discr<strong>et</strong> <strong>et</strong> E 0 ˜Xt > 0 en temps continu, par la loi <strong><strong>de</strong>s</strong> grandsnombres. Ce cas implique une ”fuite” <strong>du</strong> processus vers l’infini.Reciproquement, pour pour un espace d’états infini, l’existance <strong><strong>de</strong>s</strong> solutions nonnul<strong>les</strong>(cas 1. ci-<strong><strong>de</strong>s</strong>sus) est assurée si le système ”ne s’enfuit pas vers ∞”.3) <strong>Les</strong> équations <strong>de</strong> stationarité dans la forme∑∑π j G j,i = −π i G i,i = π i G i,j (5.3)j≠iont l’interpr<strong>et</strong>ation d’une egalité entre le ”flux entrant” en i <strong>et</strong> le ”flux sortant” <strong>de</strong> i, où”flux” <strong><strong>de</strong>s</strong>igne le taux <strong>de</strong> passage en/<strong>de</strong> i.4) Parfois, un système plus simple ”déquilibre partiel/local/ réversible”π i G i,j = π j G j,i96j≠i


est satisfait. Ces équations ont l’interpr<strong>et</strong>ation d’une egalité entre le flux <strong>de</strong> i a j <strong>et</strong> celui <strong>de</strong>j a i. Evi<strong>de</strong>mment, ce système implique (5.3) <strong>et</strong> donc l’equilibre global πG = 0.Le système d’équilibre local est beaucoup plus simple à résoudre (quand il adm<strong>et</strong> <strong><strong>de</strong>s</strong>solutions). Pour <strong>les</strong> processus <strong>de</strong> naissance <strong>et</strong> mort par exemple, le calcul <strong>de</strong> la distributionstationnaire se re<strong>du</strong>it toujours aux équations déquilibre local :π n λ n = π n+1 µ n+1 ⇐⇒ π n+1 = π n ρ n+1 ⇐⇒ π n = π 0n∏Exercice 5.6.1 Calculez la distribution stationnaire <strong>du</strong> nombre <strong>de</strong> clients dans <strong>les</strong> fi<strong>les</strong> suivantes.1. M/M/1 (R : π n = (1 − ρ)ρ n , ρ < 1)−ρ ρn2. M/M/∞ (R : π n = e , ρ > 0)n!µ(z3. Recalculez <strong>les</strong> reponses par la m<strong>et</strong>ho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices. (R : π(z) = π −1 −1)0i=1ρ iµ(z −1 −1)λ(z−1) =µπ 0 = 1−ρ , car π(1) = 1).µ−λz 1−ρz4. (*) Calculez la distribution stationnaire <strong><strong>de</strong>s</strong> fi<strong>les</strong> G/M/1 <strong>et</strong> M/G/1 en temps discr<strong>et</strong>,par la métho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices.L’étu<strong>de</strong> <strong>de</strong> fi<strong>les</strong> d’attente a comencé par le calcul d’Erlang (1921) <strong>de</strong> la probabilité <strong>de</strong>perte <strong>de</strong> la file M/M/s/0. En terminologie mo<strong>de</strong>rne, ça revienne au calcul <strong>de</strong> la probabilitéstationnaire π(s) <strong>de</strong> c<strong>et</strong>te file.Exercice 5.6.2 Calculez la distribution stationnaire <strong>du</strong> nombre <strong>de</strong> clients dans <strong>les</strong> fi<strong>les</strong> suivantes.−ρ ρn1. M/M/s/0 (R : π n = π 0 e , n = 0, ..., s)n!2. M/M/s∞Notes : 1) Remarque : Il est souvent plus convenable d’utiliser la ”forme operateurielle”<strong>du</strong> générateur :(Gv)(x) = λ i (v(x + 1) − v(x) + µ i (v(x − 1) − v(x)2) La file M/M/1 est ”stable” (i.e. a une distribution stationnaire <strong>de</strong> masse finie) ssiρ < 1 ⇐⇒ EZ i = λ − µ < 0.C<strong>et</strong>te condition est <strong>de</strong>ja evi<strong>de</strong>nte pour la chaîne en temps discr<strong>et</strong> X n = ∑ n1 Z i, oùZ i = ±1 avec probabilités λ, µ tq λ + µ = 1, <strong>et</strong> avec l’increment Z i ”censuré”, i.e obligéd’être 0 au lieu <strong>de</strong> −1, quand X n = 0. Le manque d’ergodicité est assurée si λ > µ, par laloi <strong><strong>de</strong>s</strong> gran<strong><strong>de</strong>s</strong> nb.3) En généralisant, une marche X n = ∑ Z i en temps discr<strong>et</strong> contrainte <strong>de</strong> rester en Nsera stable ssi EZ i = ∑ kp k < 0, <strong>et</strong> la condition analogue ∑ kλ k < 0 assure la stabilité entemps continu.4) La file M/M/∞ est toujours stable.5.7 Ou sautera la sauterelle ?Pour analyser <strong>les</strong> <strong>de</strong>placements d’un processus <strong><strong>de</strong>s</strong> sauts en temps continu, il est natureld’étudier la chaine sous-jacente/discr<strong>et</strong>isée ˆX n obtenue en regardant seulement dans <strong>les</strong>moments <strong><strong>de</strong>s</strong> transitions A i , i = 1, 2, ... (ce processus peut être markovien, même quand leprocessus initial ne l’est pas).97


Exercice 5.7.1 SoitX t = N 1,λ (t) − N 2,µ (t)une marche aléatoire qui saute en haut/bas with taux λ/µ.Soit A le moment <strong>du</strong> premier saut.a) Quelle est la probabilité que X A+ − X A = 1 ?b) Quelle est la probabilité P [A ≥ t|X A+ − X A = 1] ?i.e.R : a) Supposons que X 0 = 0, <strong>et</strong> que, plus generalement, n types <strong>de</strong> saut sont possib<strong>les</strong>,X t =n∑s i N i,λi (t)i=1Soit {a i , i = 1, ..., n} <strong><strong>de</strong>s</strong> temps exponentiel<strong>les</strong> in<strong>de</strong>pendantes à paramètres λ i , i = 1, ..., n,correspondant à la première arrivée <strong>du</strong> processus <strong>de</strong> sauts <strong>de</strong> type i. Alors la variablea = min{a i , i = 1, ..., n} a une distribution exponentielle <strong>de</strong> paramètre λ = ∑ i λ i, <strong>et</strong> ladistribution <strong>de</strong> la variable I qui donne le type qui realise le minimum prend la valeur j a.p.λ j / ∑ λ k . (5.4)Exercice 5.7.2 Soit X t un processus <strong><strong>de</strong>s</strong> sauts a trois états. <strong>Les</strong> taux <strong>de</strong> transition à partir<strong>de</strong> 1 sont λ i , i = 2, 3, à partir <strong>de</strong> 2 el<strong>les</strong> sont µ i , i = 1, 3, <strong>et</strong> à partir <strong>de</strong> 3 el<strong>les</strong> sont ν i , i = 1, 2,Montrez que :1.⎧∑ ⎪⎨λ j, si i = 1,P{ ˜X n+1 = j| ˜Xk λ kn = i} = ∑ µ j, si i = 2,k ⎪⎩µ k∑ ν j, si i = 3k ν k2. Plus generalement, montrer que pour <strong><strong>de</strong>s</strong> processus <strong>de</strong> sauts Markoviennes en tempscontinu arbitraires, la chaîne discr<strong>et</strong>isée prend la valeur j a.p.g i,j / ∑ j≠ig i,j . (5.5)Pour la file M/M/1, la chaîne discr<strong>et</strong>isée a aussi une structure très simple :Exercice 5.7.3 Montrez que pour la file M/M/1 :a) P{ ˜X n+1 = j| ˜X n = i}, quand i ≥ 1 est donné parλλ+µ <strong>et</strong> µλ+µsi j = i ± 1 <strong>et</strong> par0 outrement, <strong>et</strong> P{ ˜X n+1 = j| ˜X n = 0} est 1 si j = 1 <strong>et</strong> 0 outrement (plus tard nous allonsgénéraliser c<strong>et</strong> exercice <strong>et</strong> donner une formule (5.5) pour la chaîne discr<strong>et</strong>isé d’un processus<strong><strong>de</strong>s</strong> sauts en temps continu arbitraire.b) Le temps d’attente entre <strong>les</strong> transitions est exponentiel à paramètre λ + µ conditionellementsur ˜X n = i quand i ≥ 1, est exponentiel à paramètre˜X n = 0.λ conditionellement surEn conclusion, la ”chaîne discr<strong>et</strong>isé” <strong>de</strong> la file M/M/1 a comme matrice <strong>de</strong> transition :⎛⎞0 1 0 · · · · · ·µλ0 0 · · · · · ·µ+λ µ+λ P = ⎜µλ⎝ 0 0 0 · · · ⎟µ+λ µ+λ ⎠.. .. . .. . .. . ..ce qui vérifie la formule generale (5.5) ci-<strong><strong>de</strong>s</strong>sus.98


5.8 Distributions <strong>de</strong> type phase/matrice exponentielleExercice 5.8.1 Pour un processus absorbant en temps continu a <strong>de</strong>ux états 0, 1 avec G 0,1 =0, G 1,0 = λ, calculeza) la distribution <strong>du</strong> temps d’absorbtion τb) la transformée <strong>de</strong> Laplace <strong>de</strong> τc) l’esperance <strong>de</strong> τ.Exercice 5.8.2 Quelle est la distribution <strong>du</strong> temps <strong>de</strong> passage d’un client par un reseau <strong>de</strong>n serveurs en serie i<strong>de</strong>ntiques, avec temps <strong>de</strong> service Expo(µ) ?Motivés par le fait que la distribution <strong>du</strong> temps <strong>de</strong> passage d’un client par un reseau <strong>de</strong> nserveurs exponentiels i<strong>de</strong>ntiques en serie est la distribution d’Erlang, on considère le problème<strong>de</strong> d<strong>et</strong>erminer la distribution <strong>du</strong> temps <strong>de</strong> passage τ par d’autres réseaux Markoviens (à partir<strong><strong>de</strong>s</strong> diverses états initiaux), jusqu’à l’absorbtion dans un état ”cim<strong>et</strong>ier” absorbant.Exercice 5.8.3 a) Quelle est la transformée <strong>de</strong> Laplace <strong>du</strong> temps d’absorbtion τ pour unprocessus absorbant en temps continu a trois états 1, 2, ∂ avec( )−λ1 λ 1 0G = 0 −λ 2 λ 20 0 0<strong>et</strong> distribution initiale (1, 0, 0) ?b) Quelle est la distribution <strong>de</strong> τ ?c) Calculez l’esperance <strong>de</strong> τSol : b) une distribution ”hypoexponentielle/Erlang generalisé=serie d’exponentiel<strong>les</strong>”,aussi exprimable comme melange d’exponentiel<strong>les</strong>f(t) = λ 2λ 1λ 2 − λ 1(e −λ 1t − e −λ 2t )Exercice 5.8.4 Calculez la transformée <strong>de</strong> Laplace <strong>du</strong> temps d’absorbtion τ pour <strong>les</strong> processusabsorbants ayant une diagramme série arbitraire <strong>et</strong> pour <strong>les</strong> processus absorbants ayantune diagramme paralléle arbitraire.Comme <strong>les</strong> transformées <strong>de</strong> Laplace sont calculab<strong>les</strong> pour <strong><strong>de</strong>s</strong> réseaux simp<strong>les</strong>, consi<strong>de</strong>ronsmaintenant le cas général.Exercice 5.8.5 Obtenez par conditionnement sur la position après un interval très p<strong>et</strong>it <strong>les</strong>transformés <strong>de</strong> Laplacel = l i (s), i ∈ T , l i (s) = E i e −sτ =∫ ∞0e −st f i (t)dt = f ∗ i (s)<strong><strong>de</strong>s</strong> temps d’absorbtion d’un processus <strong>de</strong> Markov avec un état absorbant, à matrice génératrice(<strong>de</strong> taux <strong>de</strong> transitions) donnée par :( )G = B b0 0.où b = (−B)1.99


Sol : Posant ˜l = (l, 1), <strong>les</strong> équations sont{ ˜G˜l − sl = 0l i = 1,i = ∂⇐⇒ Bl + b − sl = 0,l = (sI − B) −1 bAvec une distribution initiale β, on trouveEe −sτ = β(sI − B) −1 b.Il s’avère que la distribution <strong>du</strong> temps d’absorbtion τ est disponible explicitement pourchaque processus <strong>de</strong> sauts <strong>de</strong> Markov X t avec un état absorbant, <strong>et</strong> qu’il est même plus facile<strong>de</strong> traiter directement le cas général, à matrice génératrice (<strong>de</strong> taux <strong>de</strong> transitions) donnéepar :( ) B bG =0 0Exercice 5.8.6 Montrez quee tG =( e tB 1 − e tB 10 1)Un moment <strong>de</strong> reflexion nous montre qu’en eff<strong>et</strong> :1. la matriceP t = (P t (i, j) = P i [t < τ, X t = j], i, j ∈ T ) = e tBcontienne <strong>les</strong> probabilités <strong>de</strong> survie jusqu’au temps t, jointes avec la positionfinale j, <strong>et</strong> conditionnées par <strong>les</strong> positions <strong>de</strong> <strong>de</strong>part i.2. <strong>Les</strong> probabilités <strong>de</strong> survie jusqu’au temps t, conditionnées par <strong>les</strong> positions<strong>de</strong> <strong>de</strong>part i, sonte tB 13. En tenant compte <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> <strong>de</strong>part, on trouve :Définition 5.8.1 Une distribution <strong>de</strong> la formeF τ (t) = βe tB 1F τ (t) = βe tB v (5.6)est apellée <strong>de</strong> type matrice-exponentielle ; quand B est une matrice sous-génératrice, on parled’une distribution <strong>de</strong> type phase.Corollaire 5.8.1 <strong>Les</strong> caractéristiques fondamenta<strong>les</strong> <strong><strong>de</strong>s</strong> distributions <strong>de</strong> typematrice-exponentielle <strong>et</strong> phase :a) <strong>Les</strong> ccdfs <strong><strong>de</strong>s</strong> temps d’absorbtion ¯F i (t) = P i [τ > t] d’un processus <strong>de</strong> Markov avec unétat absorbant, à matrice génératrice (<strong>de</strong> taux <strong>de</strong> transitions) donnée par :G =100( B b0 0),


sont :b) <strong>les</strong> <strong>de</strong>nsités sont¯F = e tB 1f = e tB boù b = (−B)1c) La matrice <strong><strong>de</strong>s</strong> transformées <strong>de</strong> Laplace P ∗ (s) = ∫ ∞e −st P0 t dt <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> survieconditionnées par <strong>les</strong> positions <strong>de</strong> <strong>de</strong>part <strong>et</strong> jointes avec la position d’arrivée au temps t vautd)P ∗ (s) = (sI − B) −1Ee −sτ = β(sI − B) −1 be) le vecteur t d’esperances <strong>de</strong> τ, à partir <strong>de</strong> tous <strong>les</strong> états transitoires, estf)t = E[τ] = −B −1 1E[τ k ] = k!β(−B) −k )1Rem : Pour e), le resultat suit directement <strong>de</strong> l’équation Bt + 1 = 0Exercice 5.8.7 Pour <strong>les</strong> processus absorbants en temps continu <strong>de</strong>finis respectivement parG =( )−λ1 0 λ 10 −λ 2 λ 20 0 0G =(−λ λ)000−λ0λ0distribution initiale (α 1 , α 2 , 0) distribution initiale (1, 0, 0),calculez :a) la transformée <strong>de</strong> Laplace <strong>du</strong> temps d’absorbtion τb) la <strong>de</strong>nsité <strong>de</strong> τc) le vecteur t d’esperances <strong>de</strong> τ, à partir <strong>de</strong> tous <strong>les</strong> états transitoires.Rem : Pour b), il est aussi possible d’inverser la reponse a).Exercice 5.8.8 Montrez que <strong>les</strong> statistiques d’or<strong><strong>de</strong>s</strong> <strong>de</strong> n variab<strong>les</strong> exponentiel<strong>les</strong> i.i.d. ont<strong><strong>de</strong>s</strong> distributions d’Erlang généralisés, <strong>et</strong> d<strong>et</strong>erminer leurs paramétres.(*) Investiguez le cas <strong><strong>de</strong>s</strong> statistiques d’or<strong><strong>de</strong>s</strong> <strong>de</strong> n variab<strong>les</strong> exponentiel<strong>les</strong> in<strong>de</strong>pendants,mais avec <strong><strong>de</strong>s</strong> paramétres différents.En conclusion, on a toutes <strong>les</strong> transforméesl i (s) = ( (sI − B) −1 b ) i , ∀i ∈ T ,à partir <strong>de</strong> B.Il est quand même profitable <strong>de</strong> reformuler ce résultat en fonction <strong>de</strong> la matricegéneŕatrice G, car ça perm<strong>et</strong> <strong>de</strong> donner <strong><strong>de</strong>s</strong> extensions qui continuent à être vraies pour<strong>les</strong> processus semi-Markoviennes.101


Corollaire 5.8.2 (*)Transformées <strong>de</strong> Laplace <strong><strong>de</strong>s</strong> temps <strong>de</strong> premier passage. SoitX t un processus <strong>de</strong> Markov <strong><strong>de</strong>s</strong> sauts avec un état absorbant, à matrice génératrice (<strong>de</strong> taux<strong>de</strong> transitions) donnée par :SoitG =( B b0 0).R s = (sI − G) −1sa resolvente. Alors, <strong>les</strong> transformées <strong>de</strong> Laplace l i (s)∀i ∈ T <strong>du</strong> temps <strong>de</strong> passage à étatabsorbant sont données par :l i (s) = R s(i, ∂)R s (∂, ∂) ∀i ∈ T .De plus, c<strong>et</strong>te formule est valable pour chaque temps <strong>de</strong> premier passage entre <strong>de</strong>ux étatsdifférents i, j d’un processus <strong>de</strong> Markov <strong><strong>de</strong>s</strong> sauts, i.e.l i,j (s) = R s(i, j)∀i ≠ j ∈ E.R s (j, j)Pour <strong>les</strong> temps <strong>de</strong> r<strong>et</strong>our au même état, on trouve :l i,i (s) = 1 −1∀i ∈ E.R s (i, i)5.9 <strong>Les</strong> distributions <strong>de</strong> type phase discrètesExercice 5.9.1 a) Pour une chaîne a <strong>de</strong>ux états 0, 1 avec P 0,1 = λ, P 1,0 = µ, calculezl’esperance t 0 <strong>du</strong> temps <strong>de</strong> r<strong>et</strong>our T 0 (r<strong>et</strong>our en 0, conditionné par un départ en 0).b) Verifiez l’i<strong>de</strong>ntité t 0 = π0 −1 /P 0 [X 1 ≠ 0, valable pour toutes <strong>les</strong> chaînes ergodiques.c) Quelle est la distribution <strong>du</strong> T 0 ?<strong>Les</strong> distributions <strong>de</strong> temps d’absorbtion, appelées aussi ”distributions <strong>de</strong> phase”, sontdisponib<strong>les</strong> explicitement pour chaque chaîne absorbante. Soitp(k) = (p x,y (k), x ∈ T ) := (P x,y {N = k}, x ∈ T , y ∈ ∂})P (k) =:= (P x,y {N > k}, x ∈ T , y ∈ T })<strong>les</strong> matrices <strong>de</strong> dimension |T × |∂| ayant comme elements <strong>les</strong> probabilités jointes <strong>de</strong> k pasavant l’absorbtion, <strong>de</strong> départ en x <strong>et</strong> d’absorbtion en y.Théorème 5.9.1 a) Pour une chaîne <strong>de</strong> Markov absorbante à matrice <strong>de</strong> transition<strong>les</strong> distributions <strong>du</strong> temps d’absorbtion N sont données par :Q P(T ,∂)0 Ib) Avec distribution initiale β, on a :p(k) = (Q) k−1 (T ,∂)P∞∑P (k) = (Q) k , z k P (k) = (I − Q) −1102k=0


c) Avec distribution initiale β, on a :P{N = k} = β(Q) k−1 (T ,∂)PP{N > k} = β(Q) k 1φ N (z) = ∑ kz k P{N = k} = β(I − zQ) −1 1d) <strong>Les</strong> transformées <strong>de</strong> Laplace l satisfont :Ql − sl + 1 = 0Exercice 5.9.2 Démontrez le théorème. Ind : <strong>Les</strong> matrices p(k), P (k) satisfont <strong>les</strong> recurrences:p(k) = Qp(k − 1), <strong>et</strong> P (k) = QP (k − 1)qui ramènent (en itérant) au résultat :Démonstration alternative : I N=k = ∑ x 0 ,x 1 ,...,x k−1 ∈T ,y∈∂ I X 0 =x 0 ,X 1 =x 1 ,...,X k−1 =x k−1 ,X k =y∈∂∈T .Dès lors,P x0 {N = k, X k = y} =∑x 1 ,...,x j−1 ∈TQ x0 ,x 1Q x1 ,x 2...Q xk−2 ,x k−1P (tr)x k−1 ,y = (Q) k−1 P (tr) (x 0 , y)<strong>Les</strong> résultats sont obtenus en prenant somme en y <strong>et</strong> somme en x 0 , pon<strong>de</strong>ré par <strong>les</strong> poidsβ. Exercice 5.9.3 Démontrez queEN = ∑ kP{N > k}Rémarque : Ce théorème nous fournit une <strong>de</strong>uxième démonstration <strong>du</strong> Théorème ??c) :EN = ∑ kP{N > k} = β(I − Q) −1 1ser(q1 p 1 |)0Exercice 5.9.4 Soit la matrice <strong>de</strong> transition 0 q 2 | p 20 0 | 1a) Trouvez l’espérance <strong>de</strong> N.b) Généralisez au cas <strong><strong>de</strong>s</strong> matrices <strong>de</strong> ce type (série) <strong>de</strong> taille K + 1.c) Soit N = N 1 + N 2 , où N i est le nombre <strong>de</strong> fois qu’on reste en i. Montrez que ladistribution <strong>de</strong> N 1 conditionné par N est uniforme <strong>et</strong> calculez la distribution <strong>de</strong> N, si q 1 =q 2 = q.Remarque 5.9.1 On peut aussi résoudre l’exercice en remarquant que N i sont <strong><strong>de</strong>s</strong> variab<strong>les</strong>géométriques, <strong>et</strong> donc N est hypergéométrique (une somme <strong><strong>de</strong>s</strong> géométriques).103


par( )q1 0 | p 1Exercice 5.9.5 Soit la matrice <strong>de</strong> transition 0 q 2 | p 20 0 | 1(β 1 , β 2 , 0). Trouvez l’espérance <strong>et</strong> la distribution <strong>de</strong> N.<strong>et</strong> la distribution initialeVoir aussi Ruegg, 2.6.3.Conclusion : <strong>Les</strong> distributions <strong>de</strong> type phase <strong>de</strong>man<strong>de</strong>nt le calcul <strong><strong>de</strong>s</strong> puissances/exponentiel<strong>les</strong><strong>de</strong> matrices. Ces expressions sont très vite obtenues par logiciels comme Matlab, <strong>et</strong>c, <strong>et</strong> leurformule a toutes <strong>les</strong> apparences d’une expression analytique ; mais, comme pour la plupart<strong><strong>de</strong>s</strong> matrices, <strong>les</strong> valeurs propres ne sont pas accessible analytiquement, leur calcul <strong>de</strong>man<strong>de</strong>en eff<strong>et</strong> une évaluation numérique.5.10 Problèmes <strong>de</strong> Dirichl<strong>et</strong>/première passage<strong>Les</strong> problèmes <strong>de</strong> Dirichl<strong>et</strong>/première passage sont parmi <strong>les</strong> problèmes <strong>les</strong> plus faci<strong>les</strong> àrésoudre pour <strong>les</strong> processus <strong>de</strong> Markov.Exemple 5.10.1 Soit N s le nombre <strong>de</strong> personnes en attente dans une file M/M/1/, soitT = T 0 le temps <strong>de</strong> vidage <strong>de</strong> la file (appellé aussi pèrio<strong>de</strong> occupèe/busy period siN 0 = 1) <strong>et</strong> T = min[T 0 , T K ] (où K peut-être la taille d’une salle d’attente).1. Calculez la distribution d’arrêt p(x) = P x [N(T ) = K], q(x) = P x [N(T ) = 0].Indication : On peut conditionner après un p<strong>et</strong>it interval dt, ou après le temps <strong>de</strong> lapremière transition.2. ”Temps <strong>de</strong> vidage”. Montrez que si K = ∞ <strong>et</strong> λ < µ, alors le temps <strong>de</strong> vidageesperé t(x) = E x T 0 est <strong>de</strong> la forme t(x) = τ x ; déterminez τ. Donnez l’intérpr<strong>et</strong>ationprobabiliste <strong>de</strong> τ.3. Montrez que la transformée <strong>de</strong> Laplace <strong>du</strong> temps <strong>de</strong> vidage d(x) =E x e −δT 0, δ > 0 est <strong>de</strong> la forme d(x) = z x ; déterminez z. Donnez l’intérpr<strong>et</strong>ationprobabiliste <strong>de</strong> z.Calculez aussi la transformée <strong>de</strong> Laplace <strong>du</strong> ”temps <strong>de</strong> repos” -”idle-time”.Solution :(a) 1. p x = P x [X(T ) = K] satisfait :(Gp) x = 0 for any 1 ≤ x ≤ K − 1p K = 1p 0 = 0Comme c’est une equation homogêne, <strong>et</strong> <strong>les</strong> racines <strong>de</strong> l’equation auxiliare sont µ λ and1, on obtient p x = A 1 + A 2 ( µ λ )x = 1−( µ λ )x1−( µ λ )K .2. t x = E x [T ] (temps d’arrêt esperé) satisfait une equation nonhomogène(Gt) x + 1 = 0t 0 = 0t xaccroit non-exponentiellement quand x → ∞104


Comme c’est une equation nonhomogêne, on obtient t x = p x + ˜t x , ou ˜t x = τx. Lasolution particulière est ˜t x = x , la condition a ∞ annule le terme A µ−λ 2(µ/λ) x <strong>et</strong>la condition initiale annule A 1 , <strong>et</strong> alors la solution <strong>de</strong> l’equation nonhomogene estt(x) = τx =x , où τ represente le temps esperé <strong>de</strong> la ”busy period”=perio<strong>de</strong> occupéµ−λavec un seul client present au début=une perio<strong>de</strong> <strong>de</strong> <strong>de</strong>croisement par 1 <strong>de</strong> la file.3. d(x) = E x e −sT satisfait :(Gd)(x) − sd(x) = 0d(0) = 0d(∞) ≤ 1C’est une equation homogêne, <strong>et</strong> l’equation auxiliareλa 2 − (λ + µ + s)a + µ = 0 ⇐⇒ µ(a −1 − 1) + λ(a − 1) = (1 − a) µ − aλ = saa exactement une racine z qui n’est pas plus gran<strong>de</strong> que 1 (par exemple, avec δ = 0 onobtient z = 1). On obtientd(x) = z(s) x ,où z(s) est la transformé <strong>de</strong> Laplace d’une perio<strong>de</strong> <strong>de</strong> <strong>de</strong>croisement par 1 <strong>de</strong> la file (onpeut aussi interpr<strong>et</strong>er z comme la valeur actualisée par rapport au taux s d’une unitemon<strong>et</strong>aire qu’on recevra quand la file diminue par 1).Remarque : La distribution <strong>de</strong> la perio<strong>de</strong> <strong>de</strong> <strong>de</strong>croisement par 1 <strong>de</strong> la file (”busyperiod”) est importante justement a cause <strong><strong>de</strong>s</strong> structures additive/multiplicative signalé ci<strong><strong>de</strong>s</strong>sus.Soit τ le temps <strong>de</strong> sortie d’un processus <strong>de</strong> Markov <strong>de</strong> son domaine E, soit c(x) <strong>de</strong>finisur le domaine <strong>et</strong> b(x) <strong>de</strong>fini sur le domaine complementaire ∂, <strong>et</strong> soitf(x) = E x [∫ τ0c(X(t)) dt + b(X τ )]Exercice 5.10.1 Montrez, en conditionnant sur la position au moment t + h, pour h trèsp<strong>et</strong>it, que f(x) satisfait <strong>les</strong> équations <strong>de</strong> Dirichl<strong>et</strong> :(Gf)(x) + c(x) = 0 si x ∈ int(E)f(x) = b(x) si x ∈ ∂Rémarque : Le problème <strong>de</strong> Dirichl<strong>et</strong> pour une chaîne discrète est obtenu en remplaçantle générateur G par son analogue discr<strong>et</strong> P −I = P − I, ou P est la matrice <strong>de</strong> transition <strong>de</strong>1la chaîne discrète (la démonstration directe <strong>de</strong> ce cas est pareille, est plus facile que celle <strong>du</strong>cas continu).Théorème 5.10.1 Etant donne un processus <strong>de</strong> Markov en temps continu X u avec domaineE <strong>et</strong> generateur G, l’esperance <strong>du</strong> gain actualisésatisfait :avec f = b sur la frontière.f(x) = E x [e − ∫ τ0 r(X u)<strong>du</strong> b(X τ ) +∫ τ(Gf)(x) − r(x)f(x) + c(x) = 01050e − ∫ t0 r(X u)<strong>du</strong> c(X(t))] dt


Note : Ces problèmes ont aussi <strong><strong>de</strong>s</strong> versions à <strong>du</strong>rée finie T , où on s’interesse en :f(x, T ) = E x [e − ∫ min[τ,T ]0 r(X u)<strong>du</strong> b(X min[τ,T ] ) +∫ min[τ,T ]0e − ∫ t0 r(Xu)<strong>du</strong> c(X(t))] dtC<strong>et</strong>te fois ci, le gain esperé f <strong>de</strong>pend aussi <strong>du</strong> temps qui reste T , <strong>et</strong> on arrive a la solutiond’une EDP a conditions initia<strong>les</strong> <strong>et</strong> <strong>de</strong> frontière :∂∂Tf + (Gf)(x) − r(x)f(x) + c(x) = 0 si x ∈ int(E)f(x) = b(x) si x ∈ ∂ ou T = 05.11 Chaînes <strong>et</strong> processus a espace d’états infiniNote : Dans le cas <strong><strong>de</strong>s</strong> processus a espace d’états dénombrable, c’est possible a prioriqu’il y’ait <strong><strong>de</strong>s</strong> éléments e i <strong>de</strong> E tel que g ii = − ∑ j≠i g i,j = −∞ ; un tel état e i est ditinstantané (parce-que, comme on a vue, g i = −g ii est precisement le taux <strong>du</strong> temps <strong>de</strong> sortieexponentiel T (i) , <strong>et</strong> alors g ii = −∞ entraîne T (i) = 0.L’interêt principal en <strong>les</strong> chaînes avec espace d’<strong>et</strong>ats infini est dans le cas d’une seuleclasse <strong>de</strong> communication.Pour <strong>les</strong> chaînes irré<strong>du</strong>ctible avec espace d’<strong>et</strong>ats fini, tous <strong>les</strong> états sont recurrents. Parcontre, pour <strong>les</strong> chaînes infinis, la communication <strong><strong>de</strong>s</strong> états ne suffit pas (elle peut encorecacher <strong><strong>de</strong>s</strong> comportements diverses), <strong>et</strong> il convient d’adopter une nouvelle classification <strong><strong>de</strong>s</strong><strong>et</strong>ats (plus fine).5.12 Récurrence <strong><strong>de</strong>s</strong> chaînes à espace d’états <strong>de</strong>nombrablePour <strong>les</strong> chaînes avec espace d’<strong>et</strong>ats fini qui communique tous, toutes <strong>les</strong> états sontrecurrents. Par contre, pour <strong>les</strong> chaînes infinis, la communication <strong><strong>de</strong>s</strong> états peut toujourscacher <strong><strong>de</strong>s</strong> comportements diverses, <strong>et</strong> il convien d’adopter une nouvelle classification <strong><strong>de</strong>s</strong><strong>et</strong>ats (plus fine).Pour <strong>les</strong> chaînes avec espace d’états discr<strong>et</strong> (fini où dénombrable), posonsf i,j = P i {∃t ≥ 1 : X t = j}On peut vérifier que pour <strong>les</strong> chaînes avec espace d’<strong>et</strong>ats fini qui communique tous, on af i,j = 1, ∀i, j.Définition 5.12.1 Soit e i dans E. L’état e i est dit récurrent si, <strong>et</strong> seulement si : f i,i = 1Dans le cas contraire, e i est dit transient (ou transitoire) 4 .Pour <strong>les</strong> états récurrents, on pose T i pour le temps <strong>du</strong> premier r<strong>et</strong>our en i ; on distingueencore entre états recurrents positifs, pour <strong>les</strong> quels E i T i < ∞, <strong>et</strong> états nul-recurrents, pour<strong>les</strong> quels E i T i = ∞4. Pour un espace d’états continu, on <strong>et</strong>udie plutot la récurrence/transience <strong><strong>de</strong>s</strong> ensemb<strong>les</strong>.106


Autrement dit : e i est récurrent si, <strong>et</strong> seulement si : en partant <strong>de</strong> e i , on est (presque) sûrd’y revenir en un temps fini (<strong>et</strong> donc par conséquent un nombre infini <strong>de</strong> fois) ; <strong>et</strong> il estrécurrent positif ssi en plus l’espace d’états <strong>du</strong> temps <strong>du</strong> premier r<strong>et</strong>our est fini.Remarque 5.12.1 La récurrence <strong>et</strong> la transience ne dépen<strong>de</strong>nt que <strong>de</strong> la classe. On parlealors <strong><strong>de</strong>s</strong> classes récurrentes ou transitoires.Théorème 5.12.1 Dans le cas récurrent positif, on a (comme dans le cas d’espace d’étatsfini) pour <strong>les</strong> chaînes en temps discr<strong>et</strong>π(i) = 1ET ioù T i est le temps total <strong>de</strong> r<strong>et</strong>our au état i, <strong>et</strong> pour <strong>les</strong> processus en temps continuπ(i) =11 + ER ioù R i est le temps <strong>de</strong> r<strong>et</strong>our au état i, en partant <strong>du</strong> moment qu’on le quitte. Par contre,dans le cas récurrent nul, il n’y a pas <strong>de</strong> distribution stationnaire, <strong>et</strong> la distribution limite,si elle existe, est i<strong>de</strong>ntiquement 0.Rapellons qu’un état i est appellé transient ssi sa probabilité <strong>de</strong> r<strong>et</strong>our P i satisfait P i < 1,ou si l’espérance <strong>du</strong> nb. <strong><strong>de</strong>s</strong> visites dans ce point (qui a une distribution geom<strong>et</strong>rique) satisfaitN i = 1/(1 − P i ) < ∞. Dans le cas contraire, état est appellé récurrent.Pour la marche aléatoire simple sur Z, il est facile <strong>de</strong> calculer P = 2 min(p, q) ; enconclusion, il y a récurrence ssi p = q. On verifie facilement que le temps esperé <strong>de</strong> r<strong>et</strong>our est∞ (ce cas peut aparaitre seulement sur <strong>les</strong> espace d’états infinis, <strong>et</strong> s’apelle nul recurent).Dans le cas, appellé récurrent positif, <strong><strong>de</strong>s</strong> marches récurrentes avec temps esperés <strong>de</strong> r<strong>et</strong>ourE i < ∞, on peut vérifier que la distribution stationnaire est π i = E −1i .Pour la marche simple, on peut aussi calculer N par la <strong>de</strong>compositionN =∞∑P [S 2k = 0] =k=0∞∑k=0( 2kk)(pq) k = 1/(1 − 4pq) 1/2 = |2p − 1| −1 = |p − q| −1 .Le resultat est obtenu en verifiant le quotient <strong><strong>de</strong>s</strong> termes consecutifs dans la serie ci<strong><strong>de</strong>s</strong>sus; on aperçoit alors qu’on a a faire avec la serie hypergeom<strong>et</strong>rique 1 F 0 [ 1/2− ; −4pq] =(ce genre <strong><strong>de</strong>s</strong> sommes ont <strong><strong>de</strong>s</strong> formu<strong>les</strong> explicites, qu’on peut <strong>de</strong>couvrir facilement1(1−z) 1/2avec un logiciel symbolyque, assez souvent) 5 .Rm : La <strong>de</strong>rnière expression est valable aussi pour la marche paresseuse avec p + q < 1.5. On peut aussi utiliser la representation P k = Coef(0, Ez S k). On trouve N = ∑ ∞k=0 Coef(0, EzS k) =Coef(0, ∑ ∞k=0 (pz + qz−1 ) k z) = Coef(0,z−pz 2 −q ) = Coef(0, 1p−q ( 11−z − 11−pz/q)) = ..., ou l’inversion <strong>de</strong> latransformée <strong>de</strong> Fourier. C<strong>et</strong>te métho<strong>de</strong> aboutisse aussi en <strong>de</strong>ux dimensions, en ramenant a <strong><strong>de</strong>s</strong> integra<strong>les</strong>eliptiques107


5.13 Fiabilité pour <strong>les</strong> processus semi-markoviens <strong><strong>de</strong>s</strong>autsUn processus markovien <strong>de</strong> renouvellement est défini par une suite <strong><strong>de</strong>s</strong> pairs <strong><strong>de</strong>s</strong> variab<strong>les</strong>{(X n , T n ), X n ∈ E = {1, 2, ...}, T n ∈ R + , n ≥ 0}representant respectivement <strong>les</strong> positions d’un processus <strong>de</strong> sauts sur un ensemble fini oudénombrable E, <strong>et</strong> <strong>les</strong> temps <strong>de</strong> transition. <strong>Les</strong> distributions jointes <strong>de</strong> X n <strong>et</strong> <strong><strong>de</strong>s</strong> temps d<strong>et</strong>ransition entre <strong>les</strong> sauts sont définies par <strong><strong>de</strong>s</strong> ”noyaux”A n (t) = {K i,j,n (t) = P[X n+1 = j, T n+1 − T n ≤ t|X n = i], i, j ∈ E, n ≥ 0}tq <strong>les</strong> matrices P n := A n (∞) sont stochastiques, <strong>et</strong> <strong>les</strong> fonctions F i,j,n (t) = A i,j,n (t)/A i,j,n (∞)sont non<strong>de</strong>croissantes, continues à droite.Nous traiterons seulement le cas homogène, défini par un seul noyauA(t) = {A i,j (dt) = P[X n+1 = j, T n+1 − T n ≤ t|X n = i], i, j ∈ E}, ∀n ≥ 0.Soit A ∗ (z) la matrice <strong><strong>de</strong>s</strong> transformées <strong>de</strong> Laplace/transmittances.Le noyau factorise donc en <strong>de</strong>ux composants{A i,j (t) = P i,j F i,j (t), i, j ∈ E},qui representent respectivement <strong>les</strong> distributions <strong>de</strong> la chaîne X n <strong><strong>de</strong>s</strong> sauts, <strong>et</strong> <strong>les</strong> distributions<strong><strong>de</strong>s</strong> temps <strong>de</strong> transition entre <strong>les</strong> sauts T n .Définition 5.13.1 Un processus markovien <strong>de</strong> renouvellement homogène <strong>de</strong> transmittancesQ ∗ (z) est un processus définit par une matrice <strong><strong>de</strong>s</strong> distributionsK i,j (t) = P i,j F i,j (t),tq P = K(∞) est la matrice <strong>de</strong> transition d’une chaîne <strong>de</strong> Markov, <strong>et</strong> F i,j (t) sont <strong><strong>de</strong>s</strong>distributions (<strong><strong>de</strong>s</strong> temps <strong>de</strong> transition entre <strong>les</strong> sauts).Soit N t <strong>les</strong> processus <strong>de</strong> comptage associé (comptant le nb. <strong><strong>de</strong>s</strong> sauts jusqu’au temps t).Le processus en temps continuZ t = X Ntest appellé processus semi-markovien.Rq : La modélisation semi-markovienne offre une flexibilité consi<strong>de</strong>rable. En separant <strong>les</strong>probabilités <strong>de</strong> transition p i,j <strong>de</strong> la chaîne sous-jacente <strong><strong>de</strong>s</strong> distributions F i,j (t) <strong><strong>de</strong>s</strong> temps d<strong>et</strong>ransition, elle perm<strong>et</strong>te que ceci soient arbitraires <strong>et</strong> <strong>de</strong>pendant aussi <strong><strong>de</strong>s</strong> points d’arrivée<strong><strong>de</strong>s</strong> sauts (pendant que dans la modélisation markovienne 1 − F i,j (t) = e g i,it , ∀j ∈ E).Exercice 5.13.1 a) Specifiez <strong>les</strong> chaînes ”discr<strong>et</strong>isés” obtenues en regardant la file d’attenteM/G/1 aux temps <strong><strong>de</strong>s</strong> départs <strong>et</strong> la file G/M/1 aux temps d’arrivé sont <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markoven temps discr<strong>et</strong>, en donnant leur matrices <strong>de</strong> transition.b) Quel<strong>les</strong> sont <strong>les</strong> matrices <strong>de</strong> transition <strong><strong>de</strong>s</strong> discr<strong>et</strong>isés <strong><strong>de</strong>s</strong> fi<strong>les</strong> M/G/1/K <strong>et</strong> G/M/1/K ?108


Sol b) : Pour la file M/G/1/K, posons p k = P{k arrivés pendant un service } <strong>et</strong> P k =∑ ∞i=k p i pour le premier cas.⎛G =⎜⎝⎞p 0 p 1 p 2 · · · · · · P K+1p 0 p 1 p 2 · · · · · · P K+10 p 0 p 1 p 2 · · · P K.. .. . .. . .. . .. P K−1⎟... ... ... . p 1 . ⎠0 0 · · · 0 p 0 P 1Pour la file G/M/1/K, posons p k = P{k services entre <strong>de</strong>ux arrivés } pour le <strong>de</strong>uxièmecas <strong>et</strong> P k = ∑ ∞i=k p i pour le premier cas...Exercice 5.13.2 Essayez <strong>les</strong> exercices <strong>les</strong> plus simp<strong>les</strong> <strong><strong>de</strong>s</strong> chapitres anterieurs, en supposant<strong><strong>de</strong>s</strong> temps <strong><strong>de</strong>s</strong> sauts non-exponentiel<strong>les</strong>.5.14 Réseaux <strong>de</strong> JacksonDans le cas multidimensionel, <strong>les</strong> distributions stationnaires sont très diffici<strong>les</strong> a calculer,avec l’exception rémarquable <strong><strong>de</strong>s</strong> réseaux <strong>de</strong> Jackson, qui ont <strong><strong>de</strong>s</strong> distributions stationnairespro<strong>du</strong>its ∏ Kk=1 (1 − ρ k)ρ n kkoù ρ k = a kµ k, <strong>et</strong> a k sont <strong>les</strong> flots d’entrée moyens, d<strong>et</strong>erminés parl’egalité <strong><strong>de</strong>s</strong> flots d’entree <strong>et</strong> <strong>de</strong> sortie – voir http ://daniel.flipo.free.fr/cours/ffa.pdf pourune intro<strong>du</strong>ction.Exercice 5.14.1 Calculer ( ) la distribution stationnaire d’un tan<strong>de</strong>me défini par <strong>les</strong> paramètresλ 2 = 0, P = 0 p1 0 .Sol : L’egalité <strong><strong>de</strong>s</strong> flots d’entree <strong>et</strong> <strong>de</strong> sortie donnea 2 = pa 1 , a 1 = λ 1 + a 2 , a 1 = λ 11 − p , a 2 = λ 1p1 − pÇa explose pour p = 1, car dans ce cas aucun client ne part pas.5.15 ConclusionsUn <strong><strong>de</strong>s</strong> outils <strong>les</strong> plus importants <strong>de</strong> la théorie <strong><strong>de</strong>s</strong> chaînes <strong>de</strong> Markov est l’étu<strong>de</strong> <strong><strong>de</strong>s</strong>variab<strong>les</strong> d’absorbtion, qui réflechissent le comportement d’une chaîne X jusqu’au temps <strong>de</strong>premier passage T dans un ensemble <strong><strong>de</strong>s</strong> états l’absorbants ∂.<strong>Les</strong> problèmes <strong>de</strong> Dirichl<strong>et</strong> ont comme obj<strong>et</strong> l’étu<strong>de</strong> <strong><strong>de</strong>s</strong> temps <strong>de</strong> sortie τ, <strong>de</strong> la distribution<strong>du</strong> point <strong>de</strong> sortie X τ ∈ ∂, <strong>et</strong> <strong><strong>de</strong>s</strong> diverses autres fonctionnel<strong>les</strong> comme <strong><strong>de</strong>s</strong> prixfinaux ou <strong><strong>de</strong>s</strong> coûts accumulés par un processus jusqu’au moment <strong>de</strong> son absorbtion en ∂. Ilsramènent toujours aux systèmes specifiant <strong>les</strong> relations entre <strong>les</strong> esperances <strong><strong>de</strong>s</strong> fonctionel<strong>les</strong>conditionnées par le point <strong>de</strong> départ.109


Exercice 5.15.1 Obtenez <strong>les</strong> équations <strong>de</strong> Dirichl<strong>et</strong> pour <strong>les</strong> probabilités p d’absorbtion dansun sous-ensemble A ⊂ ∂, <strong>et</strong> <strong>les</strong> temps esperés d’absorbtion t, (à partir <strong><strong>de</strong>s</strong> diverses étatsinitiaux, voir Ch. 2.6, Part 1), en conditionnant sur le moment <strong>de</strong> la premiére transition,pour un processus <strong>de</strong> Markov avec un état absorbant, à matrice génératrice (<strong>de</strong> taux d<strong>et</strong>ransitions) donnée par :( )G = B b0 0où b = (−B)1.Obtenez par conditionnement sur la position après la première transition <strong>les</strong> transformés<strong>de</strong> Laplacel i (s) = f ∗ i (s) = E i [e −sτ 1 {Xτ ∈A}<strong><strong>de</strong>s</strong> temps d’absorbtion.Sol : <strong>Les</strong> trois équations sont respectivement˜Gp = 0p i = 1 A (i),∀i ∈ ∂˜Gn + 1 = 0n i = 0,∀i ∈ ∂˜Gl(s) − sl = 0l j (s) = 1 A (j),∀j ∈ ∂où ˜G = (B, b) <strong>de</strong>note la matrice generatrice avec <strong>les</strong> lignes <strong><strong>de</strong>s</strong> états recurentes enlevées.Cinq types <strong><strong>de</strong>s</strong> problèmes fondamentaux rencontrés sont :1. La distribution <strong>de</strong> la position d’absorbtion X Tp x (y) := P x {X T = y}, y ∈ ∂(A), x ∈ int(A) := A − ∂(A)parmi <strong>les</strong> différents états absorbants y ∈ ∂.Quand x varie, ces probabilités satisfont le systèmep x (y) = δ y (x), x ∈ ∂,(Gp) x = 0 ⇐⇒ p x = (P p) x , x ∈ int(A)Définition 5.15.1 Une fonction f : A− > R s’appelle harmonique sur int(A) :=A − ∂(A) si elle satisfait(Gf) x = 0 ⇐⇒ f x = (P f) x , x ∈ int(A)est sont appelées (à cause <strong>de</strong> la <strong>de</strong>rnière rélation).Corollaire 5.15.1 Pour chaque y ∈ ∂(A) fixe, <strong>les</strong> probabilités d’absorbtion p x (y) sont<strong><strong>de</strong>s</strong> fonctions harmoniques en x.110


∫ T2. <strong>Les</strong> espérances <strong><strong>de</strong>s</strong> temps d’absorbtion t x = E x T = E x 1ds, x ∈ ∫ (A) ou <strong><strong>de</strong>s</strong> coûts0accumulés esperés :∫ Tc x = E x h(X s )ds(le cas particulier h(x) = 1 rends <strong>les</strong> espérances <strong><strong>de</strong>s</strong> temps d’absorbtion t x ).Quand x varie, ces coûts satisfont le système0c x = 0, x ∈ ∂,(Gg) x + h(x) = 0 ⇐⇒ c x = (P c) x + h(x), x ∈ int(A)3. La distribution <strong>de</strong> TP x (k) = P x {T ≥ k}Dans le cas k ∈ N, elle satisfait une recurrence simple.4. Probabilités <strong>et</strong> coûts d’absorption ”actualisés” :E x e −rT g(X T ),∫ TE x e −rs h(X s )dsimportants dans <strong>les</strong> mathématiques financières ; ceux ci ren<strong>de</strong>nt en particulier la fonctiongénératrice <strong>de</strong> la distribution jointe <strong>de</strong> la position <strong>et</strong> <strong>du</strong> temps d’absorbtion.5. ”Autres problèmes”, comme le calcul <strong>de</strong>p x (k, B) := P x {exactement k visites en B avant l’absorbtion en ∂(A)}Dans ce <strong>de</strong>rnier cas, nous cherchons <strong><strong>de</strong>s</strong> recurrences liant p x (k, B), x ∈ A à p x (k −1, B), x ∈ A.Conclusion : Nous avons observé dans <strong>les</strong> chapitres precedants trois idées très importantesdans la modélisation Markovienne :1. Pour <strong>les</strong> chaînes <strong>et</strong> processus <strong>de</strong> Markov, l’étu<strong>de</strong> <strong><strong>de</strong>s</strong> esperances <strong><strong>de</strong>s</strong> diverses fonctionel<strong>les</strong>,vues comme fonctions <strong>de</strong> l’état initial, ramène a <strong><strong>de</strong>s</strong> systèmes linéaires avec uneinconnue pour chaque état initial possible.2. Ces systèmes peuvent être obtenues par la métho<strong>de</strong> <strong>du</strong> conditionnement sur le premierpas.3. <strong>Les</strong> diverses systèmes associés avec un processus fixe implique toujours la même partiehomogène appellée ”operateur” ou générateur <strong>du</strong> processus (dans le cas <strong><strong>de</strong>s</strong> chaînes<strong>de</strong> Markov en temps discr<strong>et</strong> <strong>et</strong> à espace d’états fini ou dénombrable, l’ operateur estsimplement P − I, où P est la matrice <strong>de</strong> transition P ). Par contre, <strong>les</strong> conditionsfrontière, termes non-homogènes, <strong>et</strong> d’autre ”d<strong>et</strong>ails” (comme la presence/absence d’unmultiple <strong>de</strong> l’operateur i<strong>de</strong>ntité) varient d’un problème à l’autre.Il s’avère que ces principes s’appliquent pour toutes <strong>les</strong> processus <strong>de</strong> Markov, X t ,différents qu’el<strong>les</strong> soient, vivant sur <strong><strong>de</strong>s</strong> espaces S consi<strong>de</strong>rablement plus compliqués, laseule difference étant que l’operateur G X : F (S)− > F (S) associé a ces processus sera pluscompliqué !On arrivent toujours aux mêmes èquations, obtenues juste en remplaçant un operateurpar un autre.1110


Par exemple, <strong>les</strong> problèmes concernant <strong>les</strong> marches simp<strong>les</strong> ont aussi <strong><strong>de</strong>s</strong> versions pour lemouvement Brownien, qui est un processus à espace d’états continu, avec chemins continus(obtenu en considérant <strong><strong>de</strong>s</strong> marches simp<strong>les</strong> avec incréments infinitésimaux ±ϵ, <strong>et</strong> en prenantla limite ϵ → 0). <strong>Les</strong> équations resterons <strong>les</strong> mêmes, mais l’operateur <strong><strong>de</strong>s</strong> difference <strong>et</strong>remplacé par loperateur differentiel ∇ (le Laplacien).En conclusions, il existe une correspondance/dictionnaire un á un entre <strong>les</strong> processus <strong>de</strong>Markov <strong>et</strong> une certaine classe d’operateurs d<strong>et</strong>erministes associés.5.16 Exercices1. Calculer ”l’exponentielle ( ) aprés ” P t plus precisement la solution <strong>de</strong> P t ′ = AP t , P 0 =−2 tIpour A =, <strong>et</strong> ”l’exponentielle avant” Q0 −1t , plus precisement la solution<strong>de</strong> Q ′ t = Q t A, Q 0 = I. Est-ce qu’el<strong>les</strong> coinci<strong>de</strong>nt ? Est-ce que une d’el<strong>les</strong> fournie unsemigroup stochastique ?2. Soit X = (X t ; t ≥ 0) une chaîne <strong>de</strong> Markov en temps continu sur l’ensemble S ={1, 2, 3}. Supposons que la matrice infinitésimale (<strong>de</strong> taux <strong>de</strong> transitions) <strong>de</strong> X estdonnée par⎛G = ⎝−7 1 62 −6 41 2 −3(a) Donnez la formule exacte, ainsi q’une approximation <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> transitioninfinitésima<strong>les</strong> P i {X dt = j} <strong>de</strong> la chaîne.(b) Quel<strong>les</strong> sont approximativemment <strong>les</strong> probabilités <strong>de</strong> transition <strong>de</strong> la chaînediscrétisée associée au temps .1 ?(c) Quel<strong>les</strong> sont <strong>les</strong> probabilités <strong>de</strong> transition <strong>de</strong> la chaîne discrétisée associée auxtemps <strong>de</strong> saut ?(d) Trouvez la distribution stationnaire <strong>de</strong> ce processus.(e) Quelle est la loi conditionelle <strong>de</strong> T 3 = inf{t ≥ 0 : X t ≠ 3|X 0 = 3}, en sachant queX 0 = 3 ?(f) Posant T (3) = inf{t > T 3 : X t = 3}, donnez un système <strong><strong>de</strong>s</strong> équations pourx 1 = E[T (3) |X 0 = 1] <strong>et</strong> x 2 = E[T (3) |X 0 = 2]. Résolvez <strong>les</strong> équations.(g) Calculez E[T (3) |X 0 = 3](h) Calculez, pour le processus absorbé en 3, P i,j (t) = P[t ≤ T (3) , X(t) = j|X 0 =i], i = 1, 2.(i) Calculez ¯P 1 (t) = P[T (3) ≥ t|X 0 = 1] <strong>et</strong> ¯P 2 (t) = P[T (3) ≥ t|X 0 = 2] à partir <strong><strong>de</strong>s</strong>équations <strong>de</strong> Chapman-Kolmogorov <strong>et</strong> à partir <strong>de</strong> la réponse préce<strong>de</strong>nte <strong>et</strong> vérifiezque <strong>les</strong> réponses coinci<strong>de</strong>nt. Vérifiez que x i = ∫ ∞¯P0 i (t)dt, i = 1, 2.(j) Soit ˆX i , i ∈ N la chaîne sous-jacente. Calculez <strong>les</strong> distributions <strong>de</strong> T 3,2 = inf{t ≥0 : X t = 2| ˆX 0 = 3, ˆX 1 = 2}, T 3,1 = inf{t ≥ 0 : X t = 1| ˆX 0 = 3, ˆX 1 = 1}, T i,j =inf{t ≥ 0 : X t = j| ˆX 0 = i, ˆX 1 = j}.112⎞⎠


3. a) Obtenez <strong>les</strong> équations <strong>de</strong> Chapman-Kolmogorov pour un processus <strong><strong>de</strong>s</strong> sauts Markovien,en conditionnant sur le moment <strong>de</strong> la premiére transition.b) Obtenez <strong>les</strong> équations <strong>de</strong> Chapman-Kolmogorov, en conditionnant sur la positionau moment t + h, pour h très p<strong>et</strong>it.Ind : Commencez par le cas <strong>du</strong> processus <strong>de</strong> Poisson.4. Soit X t une file M(λ)/M(µ)/1.(a) Donnez la matrice génératrice G pour le processus X t .(b) Indiquer <strong>les</strong> valeurs <strong><strong>de</strong>s</strong> probabilités p <strong>et</strong> q pour que le nombre <strong><strong>de</strong>s</strong> clients augmente/diminue,au moments <strong>du</strong> premier saut à partir d’un état n ≥ 0.(c) Calculez la distribution stationnaire <strong>de</strong> X t .(d) Calculez, l’ésperance t i en sortant <strong>de</strong> i ≥ 1 <strong>du</strong> temps T 0 jusqu’‘a la première arrivéeen 0 (”busy period”), en utilisant le système <strong>de</strong> conditionnement 1+ ∑ j G(i, j)t j =0, ∀i ≥ 1.(e) Calculez l’ésperance en sortant <strong>de</strong> 0 <strong>du</strong> temps ˜T 0 jusqu’au premier r<strong>et</strong>our en 0.(f) Calculez l’ésperance T 0,s = E π [T 0 ] <strong>du</strong> temps stationnaire (i.e. avec la distributioninitiale stationnaire π) jusqu’à la première arrivée en 0.5. Supposons que le nombre <strong>de</strong> clients X s en attente dans une file M(λ)/M(µ)/1 a atteintà un temps fixé 0 sa distribution stationnaire, i.e. P[X 0 = k] = ρ k (1 − ρ), k = 0, 1, 2, ...,où ρ = λ µ .Un client qui arrive au temps 0 restera dans le sytème pour un temps total (attente +service) T = ∑ X 0 +1i=1S i , où S i , i = 1, ..., X 0 + 1 sont <strong>les</strong> temps <strong>de</strong> services <strong>du</strong> client <strong>et</strong><strong>de</strong> ceux qu’il trouve en attente dans la file.a) Calculez la transformée <strong>de</strong> Laplace, l’éspérance <strong>et</strong> la distribution <strong>du</strong> temps T dansle système <strong>du</strong> client qui arrive au temps 0.b) (*) Il s’avère que <strong>les</strong> clients en attente dans le tampon au temps 0 ont été infestéschacun par <strong><strong>de</strong>s</strong> extraterestres, <strong>de</strong> telle manière que chacun donnera naissance tout aulong <strong>de</strong> son attente à <strong><strong>de</strong>s</strong> nouveaux extraterestres, après <strong><strong>de</strong>s</strong> temps exponentiels <strong>de</strong> tauxλ. Soit B i (t) le nombre d’extraterestres pro<strong>du</strong>its par le client i. Quel est l’espérance<strong>du</strong> nombre total Z(t) = ∑ X 0i=1 B i(t) <strong><strong>de</strong>s</strong> extraterestres pro<strong>du</strong>its <strong>du</strong> temps 0 au temps tpar <strong>les</strong> clients infestés ?6. Pour X s un processus Poisson à taux λ, conditionné sur X 0 = x, <strong>et</strong> T le temps <strong>de</strong> lapremière arrivée, calculez la transformé <strong>de</strong> Laplace ˆf T [δ] = Ee −δT , δ ≥ 0 <strong>et</strong> le coûttotal <strong>de</strong> stockage discompté∫ ∞v δ (x) = E x e −δs X s dsIndication : Utilisez la décomposition X s = x + Y s , ou Y s est un processus Poissonconditionné sur Y 0 = 0. Soit T (0) le moment <strong>du</strong> premier saut. Alors, Y T (0) +s = 1 + Y s .7. Calculez la la distribution stationnaire <strong>du</strong> nombre <strong>de</strong> clients dans la file M/M/s (π n =−ρ ρne , n = 0, ...s; π n! n+k = π n ( ρ s )k P o(ρ,s−1), k = 0, ..., π(s) =ρ ) s1130P o(ρ,s−1)+e −ρs!(1−ρ/s)


8. Trouvez la distribution stationnaire <strong>du</strong> temps d’attente W dans <strong>les</strong> file M/M/s,M/M/∞, <strong>et</strong> leurs transformées <strong>de</strong> Laplace.9. Trouvez la fonction génératrice <strong><strong>de</strong>s</strong> moments <strong>du</strong> temps <strong>de</strong> séjour total d’un client dansune file M(λ)/M(µ)/1, en supposant que la file est en regime stationnaire. Indication :Utilisez la distribution stationnaire <strong>de</strong> la file M(λ)/M(µ)/1, <strong>et</strong> la question précé<strong>de</strong>nte.10. Est-ce-que l’espérance stationnaire <strong>du</strong> séjour totale d’un client dans une file M(λ)/M(2µ)/1est plus gran<strong>de</strong> que celle d’un client dans une file M(λ)/M(µ)/2 ? Justifiez votre reponse.11. Soit X = (X t ; t ≥ 0) un processus <strong>de</strong> Markov en temps continu, à matrice génératricedonnée par :( ) −β0 βG =b Boù b = (−B)1 <strong>et</strong> β 0 = β 1. Montrez que le temps <strong>de</strong> r<strong>et</strong>our au premier état, enpartant <strong>du</strong> moment qu’on le quitte, a transformée <strong>de</strong> Laplace : ˆb[s] = β (sI − B) −1 b<strong>et</strong> ésperance ¯b = β (−B) −1 1, <strong>et</strong> que la probabilité stationnaire <strong>de</strong> c<strong>et</strong> état satisfaitπ0 −1 = 1 + ¯bNote : Dans le cas b 0 = 1, on r<strong>et</strong>rouve la bien-connue rélation <strong>du</strong> cas <strong>du</strong> temps discr<strong>et</strong> π −10 = ET 0 , où T 0est le temps total <strong>de</strong> r<strong>et</strong>our au premier état.12. Obtenez <strong>les</strong> transformés <strong>de</strong> LaplaceL i,j = E i [e −τ 1 {Xτ =j}],i ∈ T , j ∈ ∂pour <strong>les</strong> temps d’absorbtion jointes avec la position d’absorbtion, pour un processus<strong>de</strong> Markov avec plusieurs états absorbants.Solutions :1. P t =( )e−2te −t (e −t − 1 + t)0 e −t , Q t =( )e−2te −2t (e t − 1 − t)0 e −t2. (a) <strong>Les</strong> probabilités <strong>de</strong> transition infinitésima<strong>les</strong>⎛1 − 7dt dt 6dtP (dt) = e dt G ≈ I + dt G = ⎝ 2dt 1 − 6dt 4dtdt 2dt 1 − 3dt⎞⎠(b)⎛P (.1) ≈ ⎝.3 .1 .6.2 .4 .4.1 .2 .7⎞⎠(c) <strong>Les</strong> probabilités <strong>de</strong> transition au moment <strong>du</strong> premier saut sont :⎛0 1/7 6/7⎞P = ⎝ 1/3 0 2/3 ⎠1/3 2/3 0114


(d) π = ( 213 , 3 13 , 813 )(e) La loi conditionelle <strong>de</strong> T 3 = inf{t ≥ 0 : X t ≠ 3}, en sachant que X 0 = 3, est la loiexponentielle à paramètre 3 (<strong>et</strong> moyenne 1/3).(f) En conditionnant sur le premier saut, nous trouvons :x 1 = 1 7 + 1 7 x 2x 2 = 1 3 x 1 + 1 6donc le même système. De lors, x 1 = 7 40 , x 2 = 940 .(g) Conditionnant au moment <strong>du</strong> premier sautE[T (3) |X 0 = 3] = 1 3 + 1 3 x 1 + 2 3 x 2 = 1 3 + 1 73 40 + 2 93 40 = 1 7 + 18(1 +3 40 ) = 1 3(h) Soit⎛˜G = ⎝−7 1 62 −6 40 0 0le générateur <strong>du</strong> processus absorbé en 3, <strong>et</strong> soit( ) −7 1˜G =2 −6⎞⎠138 = 1324le générateur <strong>du</strong> processus observé seulement en 1, 2. Diagonalisons ˜G = L −1 Diag(λ i )L,où <strong>les</strong> lignes <strong>de</strong> la matrice L sont <strong>les</strong> vecteurs propres à gauche. Ici, <strong>les</strong> valeurspropres, données par λ 2 + 13λ + 40 = (λ + 8)(λ + 5) = 0 sont −8 <strong>et</strong> −5 avecvecteurs propres L =( 2 −11 1). Finalement,˜P (t) = L −1 Diag(e λ i t )L(i) <strong>Les</strong> probabilités <strong>de</strong>mandées satisfont ¯P i (t) = 1 − P i,3 (t), i = 1, 3, où P i,3 (t) sont<strong>les</strong> probabilités <strong>de</strong> transition <strong>du</strong> processus absorbé avec générateur⎛⎞−7 1 6˜G = ⎝ 2 −6 4 ⎠0 0 0A. Par la question prece<strong>de</strong>nte, :( )P1 (t)= L −1 Diag(e λ i t )L1,P 3 (t)ce qui donne( )P1 (t)= 1 P 3 (t) 3( ) ( ) ( )1 1 e−8t0 2 −1−1 2 0 e −5t 1 = 1 1 1 3115( ) ( ) ( 1 1 e−8 t +2e−1 2 2e −5 t =−5t /3 +4e −5t /3 −


<strong>et</strong> x 1 = 2 1+ 1 1= 7 , x 3 5 3 8 40 2 = 9 . 40B. Posons p i (t) = ¯P i,3 (t) = 1 − P i,3 (t) pour <strong>les</strong> probabilités <strong>de</strong> non-absorptiondans la colonne fixe 3. On a p 1 (0) = p 2 (0) = 1 Comme P 3,3 (t) = 1, l’équationChapman-Kolmogorov P ′ = GP donne pour la troisième colonne :ou(1 − p 1 (t)) ′ = −7(1 − p 1 (t)) + (1 − p 2 (t)) + 6(1 − p 2 (t)) ′ = 2(1 − p 1 (t)) + −6(1 − p 2 (t)) + 4p 1 (t) ′ = −7p 1 (t) + p 2 (t), p 1 (0) = 1p 2 (t) ′ = 2p 1 (t) − 6p 2 (t), p 2 (0) = 1<strong>et</strong> donc( )p1 (t)= e t ˜G1p 3 (t)où ˜G <strong>de</strong>note le générateur avec la colonne <strong>et</strong> ligne d’absorption 3 enlevée.3. Soit j ∈ N , on veut calculer p j (t) = P [X t = j]. Dans ce qui suit on conviendra <strong>de</strong>noter p −1 (t) = 0. On a pour tout h > 0 :p j (t + h) = P [X t+h = j] ====j∑P [X t+h = j <strong>et</strong> X t = i] car X t ≤ X t+h d’après (1)i=0j∑P ([X t+h − X t = j − i] ∩ [X t = i])i=0j∑P [X t+h − X t = j − i] P [X t = i] car (X t ) t≥0est un P.A.I.i=0j∑p j−i (h) p i (t) d’après (2)i=0= (1 − λh) p j (t) + λhp j−1 (t) + hε (h) avec limh→0ε (h) = 0Ainsi,p j (t + h) − p j (t)= λ (p j−1 (t) − p j (t)) + ε (h)hEn passant à la limite (h → 0), on obtient alors :{′p 0 (t) = −λp 0 (t)p ′ j (t) = λ (p j−1 (t) − p j (t)) si j ≠ 04. c) On trouve π i = ρπ i−1 , i = 1, 2, ..., <strong>et</strong> donc π i = ρ i π 0 avec ρ = λ µ .d) t 1 = 1µ−λ .e) Remarquez l’i<strong>de</strong>ntité t 0 P 0 [X 1 ≠ 0] = π −10 , valable pour toutes <strong>les</strong> chaînes ergodiques.116


5. a) S i , i = 1, ..., X 0 + 1 sont <strong><strong>de</strong>s</strong> variab<strong>les</strong> expon<strong>et</strong>ientiel<strong>les</strong> <strong>de</strong> paramètre µ. On trouveEe −sT = Ee −s ∑ X 0 +11 S i=∞∑k=1(1−ρ)ρ k−1 ( µµ + s) k= (1−ρ)µ(1 −φµ + sµ(1 − ρ) + s =µ + s µ(1 − ρ<strong>et</strong> donc T est exponentielle avec paramètre µ(1 − ρ). b) E ∑ X 0i=1 B i(t) = EB 1 (t) EX 0 =λt φρ1 − ρ6. Le temps <strong>de</strong> la première arrivée étant exponentiel, Ee −δT = λle temps <strong>de</strong> la première arrivée, on trouve d’abord v(0) =v(0) = λ . En suite, v(x) =v(x + 1), ....δ 27. (a)(b)δλ+δ1+ δλλ+δλ+δ λ ( 1λ+δ δ. Conditionnant sur+ v(0)) <strong>et</strong> alors :(c) On trouve π 2 = ρπ 1 , π ′ 2 = ρ ′ π ′ 1. Soit k = π 0 + π 1 + π ′ 1. Eliminant π 2 , p ′ 2, on arriveà :λpk = (λ + µ)π 1λp ′ k = (λ + µ ′ )π ′ 1k + ρπ 1 + ρ ′ π ′ 1 = 1<strong>et</strong> donc π 1 = φkpρ1 + ρ, π ′ 1 = φkp ′ ρ ′ 1 + ρ ′ , π 0 = φkp1 + ρ + φkp ′ 1 + ρ ′ aveck = (1 + φpρ 2 1 + ρ + φp ′ (ρ ′ ) 2 1 + ρ ′ ) −1 .117


Chapitre 6Résolution <strong><strong>de</strong>s</strong> èquations <strong>de</strong>Chapman-Kolmogorov (*)pour le6.1 Le processus <strong>de</strong> Poisson ; le calcul <strong>de</strong> l’exponentielle<strong><strong>de</strong>s</strong> matrices triangulairesConsi<strong>de</strong>rons le processus <strong>de</strong> Poisson Markov homogène (X t ) t≥0d’intensité λ ≥ 0, <strong>de</strong>⎛⎞−λ λ 0 · · · 00 −λ λ 0 .générateur G =0 0 −λ . . . 0⎜.⎝ . 0 .. . .. ⎟⎠.. . .. . ..Fixons l’état initial i = 0 <strong>et</strong> posons P 0,j (t) = p j (t). <strong>Les</strong> équations <strong>de</strong> Kolmogorov avantP ′ = P G pour la première ligne sontp ′ j(t) = ∑ k≠jp k (t) g k,j − p j (t) ∑ k≠jg j,kNote : En ecrivant ces équations comme p j (t + h) = ∑ k≠j p k(t) g k,j h + p j (t)(1 − h ∑ k≠j g j,k) on voit que c’est encore <strong><strong>de</strong>s</strong>équations <strong>de</strong> conditionnement.Pour le processus <strong>de</strong> Poisson, ces équations sont :{p′0 (t) = −λp 0 (t)p ′ j (t) = λ (p j−1 (t) − p j (t)) si j ≠ 0On sait aussi que p j (0) = 0 si j ≠ 0 <strong>et</strong> p 0 (0) = 1.On a donc un système différentiel pour déterminer <strong>les</strong> p j , qui peut être resolue recursivement:→ Pour j = 0 :{′p 0 (t) = −λp 0 (t)⇒ pp 0 (0) = 10 (t) = e −λt118


→ Pour j = 1 :{p′1 (t) = λ (p 0 (t) − p 1 (t))p 1 (0) = 0⇔{p′1 (t) + λp 1 (t) = λe −λt (∗)p 1 (0) = 0t ↦→ λte −λt est une solution particulière <strong>de</strong> (∗) <strong>et</strong> t ↦→ Ce −λt (où C ∈ R) est la solutiongénérale <strong>de</strong> p ′ 1 (t) + λp 1 (t) = 0 donc t ↦→ (C + λt) e −λt est la solution générale <strong>de</strong> (∗).De plus, on doit avoir p 1 (0) = 0 donc C = 0 <strong>et</strong> on a p 1 (t) = e −λt λt.→ Raisonnons alors par récurrence. Supposons que pour j dans N, p j (t) = e −λt (λt) jj!<strong>et</strong>déterminons p j+1 . On a :{p′j+1 (t) = λ (p j (t) − p j+1 (t))p j+1 (0) = 0⇔{ p′j+1 (t) + λp j+1 (t) = e −λt tj λ j+1j!(∗∗)p j+1 (0) = 0t ↦→ Ke −λt (où K ∈ R) est la solution générale <strong>de</strong> p ′ j+1 (t) + λp j+1 (t) = 0 <strong>et</strong>()t ↦→ λj+1 t j+1e −λt est une solution particulière <strong>de</strong> (∗∗) donc t ↦→ K + λj+1 t j+1e −λt est la(j+1)!(j+1)!solution générale <strong>de</strong> (∗∗). Or p j+1 (0) = 0 d’où K = 0 <strong>et</strong> on obtient : p j+1 (t) = (λt)j+1(j+1)! e−λtce qui recupère la distribution Poisson (en eclaircissant la provenance <strong>de</strong> la terminologie”processsus <strong>de</strong> Poisson”).Nous venons <strong>de</strong> redémontrer que pour un processus <strong>de</strong> Poisson (X t ) t≥0d’intensité λ > 0,la variable aléatoire X t suit pour tout t > 0 une loi <strong>de</strong> Poisson <strong>de</strong> paramètre λt.Exercice 6.1.1 Recalculez <strong>les</strong> probabilités <strong>de</strong> transition <strong>du</strong> processus <strong>de</strong> Poisson par lamétho<strong>de</strong> <strong><strong>de</strong>s</strong> fonctions génératrices.Remarque : 1) La solution recursive ci-<strong><strong>de</strong>s</strong>sus s’appuie sur la structure triangulaire<strong>du</strong> générateur, <strong>et</strong> peut-être aussi implementé pour tout processus <strong>de</strong> ”Poisson composé <strong>de</strong>naissance pure” (perm<strong>et</strong>tant la naissance <strong>de</strong> jumeaux, <strong>et</strong>c).Le calcul peut-être simplifié en començant par la substitution p k (t) = e −λ kt P k (t), ou λ kest le taux total <strong>de</strong> naissance en état k. Il s’avère que P j (t) sont <strong><strong>de</strong>s</strong> polynômes, faci<strong>les</strong> aobtenir recursivement.Exercice 6.1.2 Recalculez <strong>les</strong> probabilités <strong>de</strong> transition <strong>du</strong> processus <strong>de</strong> Poisson par c<strong>et</strong>tesubstitution.Solution : <strong>Les</strong> équations <strong>de</strong> Kolmogorov pour le processus <strong>de</strong> Poisson <strong>de</strong>viennent aprèsla substitution :{P′0 (t) = 0, P 0 (0) = 1P ′ j (t) = λP j−1 (t) , P j (0) = 0 si j ≠ 0Il suit que P 0 (t) = 1, <strong>et</strong> integrations succesives donnent P j (t) = (λt)jj!.119


6.2 Résolution <strong><strong>de</strong>s</strong> èquations Chapman-Kolmogorovpour le processus <strong>de</strong> Markov à <strong>de</strong>ux étatsOn suppose que (X t ) t≥0est une chaîne <strong>de</strong> Markov homogène à valeurs dans( ) −α αE = {e 1 , e 2 }, <strong>de</strong> générateur G =avec α, β ≥ 0.β −βOn est bien dans <strong>les</strong> conditions d’application <strong>du</strong> théorème 1-2 (E est fini). La chaîneétant simple, on peut résoudre <strong><strong>de</strong>s</strong> équations <strong>de</strong> Kolmogorov en diagonalisant G. Le polynômecaractéristique P G <strong>de</strong> G est donné par :P G (λ) = d<strong>et</strong> (G − λI 2 ) = λ (α + β + λ) .→ 1 er cas : α = β = 0On a G = 0 donc e tG = I 2 pour tout t ≥ 0.→ 2 ième cas : (α, β) ≠ (0, 0)La matrice G adm<strong>et</strong> 2 valeurs propres distinctes donc est diagonalisable.<strong>Les</strong> valeurs propres sont 0 (avec −→ ( ) 1v 1 = comme vecteur propre associé) <strong>et</strong> − (α + β)1(avec −→ ( ) αv 2 = pour vecteur propre associé).−β( ) 1 αEn posant P =, on a P1 −β−1 = 1 ( ) β α<strong>et</strong>α + β 1 −1( )0 0G = P DP −1 où D =.0 − (α + β)( )1 0En utilisant e tD =0 e −(α+β)t on trouve :P t = e tG = P e tD P −1 = 1α + β( )β + αe−(α+β)tα − αe −(α+β)tβ − βe −(α+β)t α + βe −(α+β)t(on peut remarquer que P t est bien une matrice stochastique).En posant λ = −(α + β) on arrive à :P t = e tG = I + <strong>et</strong>λ − 1Gλ6.3 Résolution <strong><strong>de</strong>s</strong> èquations <strong>de</strong> Chapman-Kolmogorovpar la métho<strong>de</strong> <strong>de</strong> différences finies <strong>de</strong> Newton(Putzer)La formule <strong>de</strong> la section prece<strong>de</strong>nte se generalise en fait pour chaque matrice finie G :P t = e tG = I + <strong>et</strong>λ 1− 1G + exp(tλ)[0, λ 1 , λ 2 ]G(G − λ 1 ) + ...exp(tλ)[0, λ 1 , ...λ j ]G(G − λ 1 )...(G − λ j−1λ 1où <strong>les</strong> différences finies d’une fonction f(x)[x 1 , , , , x k ] sont définies parf(x)[x 1 ] = f(x 1 ), f(x)[x 1 , ..., x k ] = f(x)[x 1, ..., x k−1 − f(x)[x 2 , ..., x k ]]x 1 − x k120


<strong>et</strong> le nombre <strong><strong>de</strong>s</strong> termes dans la somme est egal au <strong>de</strong>gré <strong>du</strong> polynôme charactéristique <strong>de</strong>G.Exercice 6.3.1 Montrez quelim f(x)[x 1, ..., x k ] = f (k) (z)x 1 →z,...,x k →z k!Rq : 1) La formule (6.1) est valable avec <strong><strong>de</strong>s</strong> λ i distincts ou pas. Quand il y a confluence<strong><strong>de</strong>s</strong> certaines valeurs propres, <strong>les</strong> différences finies <strong>de</strong>viennent <strong><strong>de</strong>s</strong> dérivées. En conclusion,l’exponentielle matricielle est donné par un polynome explicite, quand <strong>les</strong> valeurs propressont connues (par exemple pour <strong><strong>de</strong>s</strong> matrices triangulaires ou cycliques).2) La <strong>de</strong>monstration <strong>de</strong> ce théorème superpuissant est immédiate ! Il suffit <strong>de</strong> remarquerque le polynôme dans le coté droit <strong>de</strong> (6.1) interpole la fonction exponentielle e tλ dans<strong>les</strong> points λ 1 = 0, ..., λ n , <strong>et</strong> que si <strong>de</strong>ux fonctions f <strong>et</strong> g (l’exponentielle <strong>et</strong> le polynôme)coinci<strong>de</strong>nt sur ”toutes <strong>les</strong> valeurs propres” d’une matrice A, alors f(A) = g(A) !3) On peut ecrire (6.1) aussi dans la forme :e tG =n∑ ∏i−1r i (t) (G − λ j )i=1 j=1où r i satsifontr 1 ′ = λ 1 r 1 , r 1 (0) = 0,r 2 ′ = λ 2 r 2 + r 1 , r 2 (0) = 0...r n ′ = λ n r n + r n−1 , r n (0) = 0appellée formule <strong>de</strong> Putzer.Exercice 6.3.2 Dé<strong>du</strong>isez la distribution cumulative complementaire <strong>de</strong> Erlang.6.4 <strong>Les</strong> probabilités transitoires <strong><strong>de</strong>s</strong> processus <strong>de</strong> naissance <strong>et</strong> mortLe calcul <strong>de</strong> la distribution stationnaire <strong><strong>de</strong>s</strong> processus <strong>de</strong> naissance <strong>et</strong> mort <strong>de</strong> générateur⎛⎞−λ 0 λ 0 0 · · · 0µ 1 −λ 1 − µ 1 λ 1 0 ..G =0 µ 2 −λ 2 − µ 2 .. 0⎜⎝ . 0 µ 2.. ... . ⎟⎠... .. . ..est très simple, en utilisant le système d’équilibre local :π n λ n = π n+1 µ n+1 ⇐⇒ π n+1 = π n ρ n+1 ⇐⇒ π n = π 0n∏121i=1ρ i


Par contre, <strong>les</strong> probabilités transitoires sont <strong>de</strong>ja assez compliquées à obtenir analytiquementmême dans le cas le plus simple <strong>de</strong> la file M/M/1 (la marche aléatoire simple en tempscontinu sur N), pour la quelle ils impliquent <strong><strong>de</strong>s</strong> fonctions <strong>de</strong> Bessel.On peut quand même obtenir facilement <strong>les</strong> transformées <strong>de</strong> Laplace <strong><strong>de</strong>s</strong> probabilitéstransitoires. Illustrons maintenant le calcul <strong><strong>de</strong>s</strong> transformées <strong>de</strong> Laplace, à partir <strong><strong>de</strong>s</strong>èquations <strong>de</strong> Chapman-Kolmogorov.Soit p j (t) := P 0,j (t) <strong>les</strong> probabilités transitoires en partant <strong>de</strong> l’état initial i = 0, <strong>et</strong> soitp j := p ∗ j(s), j = 0, 1, 2, ... leurs transformées <strong>de</strong> Laplace.<strong>Les</strong> équations <strong>de</strong> Kolmogorov P ′ = P G pour la première ligne sontp ′ 0(t) = −λ 0 p 0 (t) + µ 1 p 1 (t), p 0 (0) = 1p ′ j(t) = λ j−1 p j−1 (t) − (λ j + µ j ) p j (t) + µ j+1 p j+1 (t), p j (0) = 0, j = 1, 2...<strong>Les</strong> transformées <strong>de</strong> Laplace p ∗ j(s) satisfont une récurrence <strong>de</strong> <strong>de</strong>uxième ordre :λ j−1 p ∗ j−1 − (s + λ j + µ j ) p ∗ j + µ j+1 p ∗ j+1 = 0, j = 1, 2...µ 1 p ∗ 1 − p ∗ 0 (s + λ 0 ) + 1 = 0La resolution <strong><strong>de</strong>s</strong> récurrences <strong>de</strong> <strong>de</strong>uxième ordre (même avec coefficients nonconstants)est toujours possible en itérant. On reorganise la récurrence comme : ”désiré” +”reporté”= ”connu”, en l’occurence :p ∗ j(s + λ j + µ j − µ j+1p ∗ j+1p ∗ jOn arrive ainsi au système :p ∗ 0 =) = λ j−1 p ∗ j−1 ⇐⇒ p∗ jp ∗ j−11s + λ 0 − µ 1p ∗ 1p ∗ 0=λ j−1s+λ j +µ j −µ j+1p ∗ j+1p ∗ j.p ∗ jp ∗ j−1=λ j−1s + λ j + µ j − µ j+1p ∗ j+1p ∗ j, j = 1, ...,En itérant ces récurrences, <strong>et</strong> en posant σ j = λ j + µ j , j = 0, ..., γ j = λ j−1 µ j , j =1, ..., γ 0 = 1, on obtient une fraction continue pour la transformée <strong>de</strong> la probabilité <strong>de</strong>r<strong>et</strong>our en 0 :p ∗ 0(s) ==s + σ 0 −s + λ 0 −1s + σ 1 −γ 1γ 2ps + σ 2 − µ ∗ 3 3 p ∗ 21λ −10 (1 + (s + λ 1 )/µ 1 ) −= Φ ∞ j=01γ js + σ j −1λ 0 µ 1 λ −11 (1 + (s + λ 2 )/µ 2 − ...(6.2)où Φ <strong>de</strong>note fraction continue. En tronqant la fraction continue au niveau n, <strong>et</strong> en écrivantceci comme une fraction, on arrive au approximant <strong>de</strong> Padé.122


Ou, au lieu <strong>de</strong> tronquer la fraction continue au niveau n, assurons le fait que 0 soitun pole <strong>de</strong> p ∗ 0(s) (ce qui est necessaire, car lim s→0 sp ∗ 0(s) = π 0 ), en choisissant p∗ n+1commep ∗ nl’únique constante γ n qui rend s une racine <strong>du</strong> <strong>de</strong>nominateur. Un calcul simple montre quec<strong>et</strong>te constante doit être ρ n+1 =λ nµ n+1, tel que le <strong>de</strong>rnier <strong>de</strong>nominateur inclu soit s + µ n . <strong>Les</strong>fractions ainsi obtenues seront <strong>de</strong> la formeA ns + a n−1(s)b n (s)(6.3)où A n = (1 + ρ 1 + ρ 1 ρ 2 + ... ∏ ni=1 ρ i) −1 sont <strong><strong>de</strong>s</strong> approximations <strong>de</strong> la probabilité stationnaireπ 0 <strong>et</strong> <strong>les</strong> transformées inverses <strong>de</strong> a n−1(s)b n(s)approximent la partie transitoire.Exemple 6.4.1 Pour le cas <strong>de</strong> la file M/M/1 avec coefficients constants λ i = λ, ∀i ≥ 0, µ i =µ, ∀i ≥ 1, on a µp ∗ 1 − p ∗ 0 (s + λ) + 1 = 0, la normalisation<strong>et</strong> la récurrence pour j ≥ 1 est :∑p ∗ n(s) = 1/snµ p ∗ j+1 − (s + λ + µ) p ∗ j + λ p ∗ j−1 = 0.Comme une <strong><strong>de</strong>s</strong> racines <strong>de</strong> µα 2 − (µ + λ + s)α + λ = 0 est toujours plus gran<strong>de</strong> que 1,on conclu quep ∗ n(s) = p ∗ 0(s)α 1 (s)α(s) n−1où α 1 (s) = p∗ 1 (s)p ∗(s), <strong>et</strong> α(s) est l’unique racine <strong>de</strong> µα2 − (µ + λ + s)α + λ = 0 qui est plus0p<strong>et</strong>ite que 1 pour chaque s ≥ 0 (<strong>et</strong> qui coinci<strong>de</strong> avec la transformée <strong>de</strong> Laplace V ∗ (s) <strong>de</strong> la”pério<strong>de</strong> occupée” multipliée par µλ −1 ). Finalement, tenant compte <strong>de</strong> la normalisation <strong>et</strong><strong>de</strong> la première équation, on trouve : α 1 =λ(1−α)s+µ(1−α)= α, <strong>et</strong>p ∗ n(s) =(1 − α)α(s)n, p ∗s0(s) = 1 − α(s)s=αλ − µα = V ∗µ−11 − V ∗Rémarquons aussi que la fraction continue est periodique :p ∗ 0(s) =1=λs + λ − µλs + λ + µ − µs + λ + µ − µ p∗ 3p ∗ 21s + λ − µα(s)où α satisfait comme avantα(s) =λs + λ + µ − µα(s)C<strong>et</strong>te approche pourrait rendre possible l’analyse stationnaire <strong>et</strong> transitoire <strong><strong>de</strong>s</strong> marchesunidimensionels nonreversib<strong>les</strong> (voir Kovchegov (2008) pour le cas reversible, correspondantaux operateurs G symm<strong>et</strong>risab<strong>les</strong>), generalisant l’approche <strong>de</strong> Karlin <strong>et</strong> McGregor !123


Exercice 6.4.1 Calculer <strong>les</strong> transformées <strong>de</strong> Laplace p ∗ j(s), s ∈ N, <strong><strong>de</strong>s</strong> probabilités transitoirespour une marche sur <strong>les</strong> nombres naturels, avec la distribution <strong>de</strong> chaque pas donnéepar (p 1 , p −1 , p −2 ). Comparer avec (?).BFNote : Dans le cas multidimensionel, <strong>les</strong> distributions stationnaires <strong><strong>de</strong>s</strong> reseaux <strong>de</strong> Jacksonsont calculab<strong>les</strong> explicitement (même que <strong>les</strong> marches associées ne sont pas reversib<strong>les</strong>),mais <strong>les</strong> probabilités transitoires sont connues dans trés peu <strong>de</strong> cas !Illustrons maintenant le calcul <strong><strong>de</strong>s</strong> transformées <strong>de</strong> Laplace, à partir <strong><strong>de</strong>s</strong> èquations <strong>de</strong>Chapman-Kolmogorov, pour <strong>les</strong> probabilités q j (t) = P j [τ 0 ≤ t].<strong>Les</strong> équations <strong>de</strong> Kolmogorov P ′ = P G pour la première ligne sontq ′ 1(t) = µ 1 − (λ 1 + µ 1 ) q 1 (t) + λ 1 q 2 (t), q 1 (0) = 0q ′ j(t) = µ j q j−1 (t) − (λ j + µ j ) q j (t) + λ j q j+1 (t), q j (0) = 0, j = 2, 3, ...<strong>Les</strong> transformées <strong>de</strong> Laplace p ∗ j(s) satisfont une récurrence <strong>de</strong> <strong>de</strong>uxième ordre :−µ j q ∗ j−1 + (s + λ j + µ j ) q ∗ j − λ j q ∗ j+1 = 0, j = 2, 3...(s + λ 1 + µ 1 ) q ∗ 1 − λ 1 q ∗ 2 − µ 1 /s = 0124


Chapitre 7<strong>Processus</strong> <strong>de</strong> Levy : marchesaléatoires en temps continuMotivation : <strong>Les</strong> processus <strong>de</strong> Levy sont la généralisation <strong><strong>de</strong>s</strong> marches aléatoiresdiscrètes au cas <strong><strong>de</strong>s</strong> temps (<strong>et</strong> posiblement espace d’états continus).Mais, on a <strong>du</strong> mal a donner une <strong>de</strong>finition explicite analogue à ”somme <strong><strong>de</strong>s</strong> sommandsi.i.d.”. ”Integrale <strong><strong>de</strong>s</strong> p<strong>et</strong>its acroissements i.i.d.” ne peut pas être utilisée facilement. Pour le<strong>du</strong> mouvement Brownien par exemple, le concept <strong>de</strong> ”bruit blanc” dB t est assez subtile.addlev7.1 Définition <strong>et</strong> propriétés <strong>de</strong> linéarité <strong>de</strong> processus<strong>de</strong> LevyOn <strong>de</strong>notera parX [s,t] := X t − X sl’acroissement/increment d’un processus X sur un intervalle [s, t].<strong>Les</strong> marches aléatoires discrètes X n , n ∈ N <strong>et</strong> certaines processus en temps continu X t , t ∈R + que nous verrons plus tard (le processus <strong>de</strong> Poisson composé, le mouvement Brownien, ...)partagent la propri<strong>et</strong>é d’avoir <strong><strong>de</strong>s</strong> increments in<strong>de</strong>pendants X [s,t] sur d’interval<strong>les</strong> disjoints,<strong>et</strong> avec une distribution qui <strong>de</strong>pend seulement <strong>de</strong> la longueur t − s <strong>de</strong> l’intervalle (<strong>et</strong> pas <strong>du</strong>point initiale s). Ces propriétés fournissent la définition <strong><strong>de</strong>s</strong> processus <strong>de</strong> Levy :Définition 7.1.1 Un processus X t s’appelle processus A.S.I. (à acroissements/incrementsstationnaires <strong>et</strong> in<strong>de</strong>pendants) si :– L’increment X [t,s] := X t − X s sur un intervalle [s, t] est in<strong>de</strong>pendant <strong><strong>de</strong>s</strong> incrementssur d’autres interval<strong>les</strong> [s ′ , t ′ ] disjoints <strong>de</strong> [s, t].– La distribution <strong>du</strong> increment X [s,s+t] = X s+t − X s est i<strong>de</strong>ntique à la distribution <strong>du</strong>increment initiale X [0,t] = X t − X 0 , pour chaque s ∈ R + .Exercice 7.1.1 Verifier que le mouvement lineaire X tcomposé satisfont ces propri<strong>et</strong>ées.= c t <strong>et</strong> le processus <strong>de</strong> PoissonNote : En temps discr<strong>et</strong>, <strong>les</strong> processus i.s.i. s’apellent marches aleatoires <strong>et</strong> en tempscontinu, processus <strong>de</strong> Levy. Nous utiliserons <strong>les</strong> <strong>de</strong>ux termes commes synonimes.<strong>Les</strong> exercises suivants montrent que <strong>les</strong> propriétés ci-<strong><strong>de</strong>s</strong>sus impliquent quel’espérance ,variance, <strong>et</strong> la fonction génératrice <strong><strong>de</strong>s</strong> cumulants <strong><strong>de</strong>s</strong> processus <strong>de</strong> Levy sont <strong><strong>de</strong>s</strong> fonctionsadditives en temps.Exercice : Montrez que si Y t est un processus <strong>de</strong> Levy, alors :125


a) m(t) := EY t satisfait m(t + s) = m(t) + m(s)b) v(t) := Var Y t satisfait v(t + s) = v(t) + v(s)c) Etablissez la linearité <strong>de</strong> ces fonctions : m(t) = tEY 1 , v(t) = tVar Y 1 , pour <strong><strong>de</strong>s</strong> tempst rationnels.En généralisant :Théorème 7.1.1 Pour chaque t, s ∈ R + :a) l’esperance d’une marche aleatoire/processus <strong>de</strong> Levy X t avec X 0 = 0 m(t) = EX tsatisfait :m(t + s) = m(t) + m(s), m(t) = tm(1)b) la variance v(t) = E(X t − e t ) 2 satisfait :v(t + s) = v(t) + v(s), v(t) = tv(1)c) La fonction génératrice <strong><strong>de</strong>s</strong> moments d’un processus <strong>de</strong> Levy X t avec X 0 = 0 M(t) =M θ (t) := Ee θX tsatisfait :M(t + s) = M(t) M(s)pour chaque t, s où elle est bien <strong>de</strong>finie.d) Dé<strong>du</strong>isez qu’elle doit être <strong>de</strong> la forme : M(t) = e tκ(θ) pour une certaine fonction κ(θ)(appellée exposant <strong>de</strong> Levy, où fonction génératrice <strong><strong>de</strong>s</strong> cumulants).Note : La fonction génératrice <strong><strong>de</strong>s</strong> cumulants characterise uniquement un processus <strong>de</strong>Levy.Solution a) (b)) We <strong>de</strong>compose Y (t + s) = Y (s) + (Y (t + s) − Y (s)) and taking expectations(variances) we find that both fonctions satisfy the property f(t + s) = f(t) + f(s)which implies linéarité.c) The in<strong>de</strong>pen<strong>de</strong>nce and stationarity of increments of a processus <strong>de</strong> Levy imply thatM(t) = Ee θY tsatisfies the i<strong>de</strong>ntity M(t + s) = M(t) M(s). Taking logarithms we find thatf(t) = LogM(t) satisfies the i<strong>de</strong>ntity f(t + s) = f(t) + f(s).Finalement, pour conclure la linearité, on s’appuie sur :Lemme 7.1.1 Si une fonction continue (en fait, mesurable suffit) f(t) : R + − > R satisfaitpour chaque s, t, l’i<strong>de</strong>ntitè :f(t + s) = f(t) + f(s)alors f(t) est une fonction linéaire, i.e.f(t) = f(1)t.7.2 Exemp<strong>les</strong> <strong>de</strong> processus <strong>de</strong> LevyNous avons <strong>de</strong>ja vu le processus <strong>de</strong> Poisson <strong>et</strong> le processus <strong>de</strong> Poisson composé S t =∑ Nti=1 Z i, où Z i sont <strong><strong>de</strong>s</strong> variab<strong>les</strong> aléatoires i.i.d.(in<strong>de</strong>pen<strong>de</strong>ntes <strong>et</strong> idéntiquement distribuées)<strong>et</strong> N t est un processus <strong>de</strong> Poisson, in<strong>de</strong>pendant <strong>de</strong> Z i .Un autre exemple <strong>de</strong> processus <strong>de</strong> Levy est le mouvement Brownien.Définition 7.2.1 Un processus <strong>de</strong> Levy avec fonction génératrice <strong><strong>de</strong>s</strong> cumulants quadratiqueest appellé mouvement Brownien.κ(θ) = µθ + σ22 θ2126


Un résultat important, mais difficile à démontrer, est :Théorème 7.2.1 Un processus <strong>de</strong> Levy a <strong><strong>de</strong>s</strong> chemins continus ssi sa fonction génératrice<strong><strong>de</strong>s</strong> cumulants est quadratique κ(θ) = µθ + σ22 θ2 .La partie qui reste d’un processus <strong>de</strong> Levy apres avoir enlevé la composante Browniennneest un processus <strong><strong>de</strong>s</strong> sauts pure, mais avec espace d’états continu R.Un exemple très important hystoriquement <strong>de</strong> processus <strong>de</strong> Levy est le processus <strong>de</strong>réserves (ou <strong>de</strong> risque) d’une compagnie d’assurance.Définition 7.2.2 Le processus <strong>de</strong> risque <strong>de</strong> Cramér Lundberg est un processus <strong>de</strong> la forme∑N tX t = X 0 + c t − Z i (7.1)où C i sont <strong><strong>de</strong>s</strong> variab<strong>les</strong> aléatoires i.i.d. nonnegatives, <strong>et</strong> N t est un processus <strong>de</strong> Poissonin<strong>de</strong>pendant <strong>de</strong> C i .Rq : Ce processus vit naturellement en temps continu (<strong>du</strong> à la tendance lineaire), saufs’il est observé que pour t ∈ N <strong>et</strong> si c est un entier.<strong>Les</strong> processus <strong>de</strong> Levy fournissent un cadre unificateur pour <strong>les</strong> exemp<strong>les</strong> prece<strong>de</strong>nts.En fait, la <strong>de</strong>composition <strong>de</strong> Levy-Khinchine montre que chaque processus <strong>de</strong> Levy est lasomme d’un mouvement Brownien avec tendance <strong>et</strong> d’une limite <strong><strong>de</strong>s</strong> processus <strong>de</strong> Poissoncomposés.Exercice 7.2.1 Calculer EX α t , α = 2, 4 pour le mouvement Brownien <strong>et</strong> pour le processus<strong>de</strong> Poisson composé.i=1127


limbrChapitre 8Marche aléatoire infinitesimale,mouvement Brownien <strong>et</strong>mathématiques financièresLe mouvement Brownien est un processus très important en plusieurs applications,comme par exemple <strong>les</strong> mathémathiques financières , mais il est aussi assez difficile à étudierrigoureusement (voir notes <strong>de</strong> Chang, par exemple). Comme l’étu<strong>de</strong> <strong>du</strong> mouvement Browniencomporte beaucoup <strong><strong>de</strong>s</strong> points fins (par exemple, l’existence, la continuité <strong>et</strong> differentiabilité<strong><strong>de</strong>s</strong> chemins, <strong>et</strong>c...), on va se contenter ici <strong>de</strong> donner seulement quelques idées principa<strong>les</strong>,l’approche étant d’approximer ce processus par <strong><strong>de</strong>s</strong> marches aléatoires discrètes ”infinitesima<strong>les</strong>”(judicieusement choisies).Q : Comment assurer qu’une marche aléatoire infinitesimale ”vue <strong>de</strong> loin” aune limite ?R : En assurant que <strong>les</strong> limites <strong>de</strong> l’espace d’états <strong>et</strong> <strong>de</strong> la variance sont finies, non-zero.Exemp<strong>les</strong> <strong><strong>de</strong>s</strong> quelques marches aléatoire infinitesima<strong>les</strong> qui approximent le mouvementBrownien.– La marche simple asymm<strong>et</strong>rique, sur un maillage regulier. Soit X t = X (h,D)t =X 0 + ϵ 1 + ϵ 2 + · · · + ϵ n , n = [t/h], une marche aléatoire “infinitesimale” sur R,i.e. une marche avec <strong><strong>de</strong>s</strong> p<strong>et</strong>its increments (indépendants) <strong>de</strong> loi P [ϵ n = D] =p, P [ϵ n = −D] = q = 1 − p, arrivant aprés <strong><strong>de</strong>s</strong> interval<strong>les</strong> <strong>de</strong> longueur h.La limite <strong><strong>de</strong>s</strong> processus X (h,D)t quand h, D → 0 (<strong>et</strong> n → ∞, pour t fixe), est un <strong><strong>de</strong>s</strong>processus <strong>les</strong> plus uti<strong>les</strong> dans la modélisation stochastique. Pour assurer l’existenced’une limite, il est necessaire que l’ésperance <strong>et</strong> la variance <strong>de</strong> X (h,D)t convergent. Ona :EX t − X 0 = [t/h](p − q)D ∼ t(p − q)(D/h), V ar(X t − X 0 ) = [t/h](D 2 − D 2 (p − q) 2 )Pour convergence <strong>de</strong> ésperance, il est necessaire que (p − q)D = O(h), <strong>et</strong> pour convergence<strong>de</strong> la variance, il est necessaire que D 2 = O(h). En posant D 2 = σ 2 h <strong>et</strong>p − q = µ h = µ D ⇐⇒ p, q = 1 ± µ D, on conclut que sous ces conditions, ilD σ 2 2 2σ 2suit que :lim EX t − X 0 = µt,h→0lim V ar(X t − X 0 ) = tσ 2h→0– La marche simple, symm<strong>et</strong>rique, avec tendance. On obtient la même limite enprenant p = q = 1/2, <strong>et</strong> dX t = µh + Z i .128


– La marche Gaussienne. Supposons µ = 0, σ = 1, <strong>et</strong> Z i = √ hN i , avec N i variab<strong>les</strong>Gaussiennes standards. C<strong>et</strong>te construction implique pour X t −X 0 une Loi Gaussienne,<strong>de</strong> variance h⌊t/h⌋ → t.8.1 Le mouvement Brownien standardSupposons maintenant pour simplicité µ = 0 (donc une marche symmétrique) <strong>et</strong> σ = 1.On peut montrer que la limite <strong>de</strong> X (h,√ h)t quand h → 0, appellée mouvement Brownien, existevraiment, <strong>et</strong> que ce processus <strong>et</strong> qu’il s’agit d’un processus <strong>de</strong> Markov en temps continu <strong>et</strong>à espace d’états continu (en fait, un processus <strong>de</strong> Levy).Théorème 8.1.1 Il existe un processus P.A.I. (unique) X t ∈ R, τ ∈ R + ,tq :1. <strong>les</strong> increment X [t,s] := X t −X s sur un intervalle [s, t] sont in<strong>de</strong>pendants <strong><strong>de</strong>s</strong> incrementssur d’autres interval<strong>les</strong> [s ′ , t ′ ] disjoints <strong>de</strong> [s, t].2. L’ésperance <strong>et</strong> la variance <strong>de</strong> X t conditionné par X 0 sont :EX t = 0,V arX t = t3. La distribution <strong>du</strong> acroissement X [s,s+t] = X s+t − X s est i<strong>de</strong>ntique à la distribution <strong>du</strong>acroissement initial X [0,t] = X t − X 0 , pour chaque s ∈ R + ; il s’agit d’une distributionGaussienne N (0,t) , avec fonction génératrice <strong>de</strong> moments e t u22 .4. Le processus X t a <strong><strong>de</strong>s</strong> trajectoires continues.Exercice 8.1.1 Demontrer le théorème <strong>de</strong> limite centrale :n∑(Z i − EZ i ) = N (0,Var Z)(d)limn→∞ n−1/2i=1où lim (d) <strong>de</strong>note la convergence <strong><strong>de</strong>s</strong> distributions, <strong>et</strong> point 3) ci-<strong><strong>de</strong>s</strong>sus, en utilisant :1. le fait que la convergence <strong><strong>de</strong>s</strong> distributions est equivalente a celle <strong><strong>de</strong>s</strong> fonctions génératrice<strong><strong>de</strong>s</strong> moments, <strong>et</strong>2. le fait que Ee uN 0,v= e vu2 /2 , i.e. la variable normale a tous <strong>les</strong> cumulants d’ordre plusgrand que trois nuls.Exercice 8.1.2 Verifier la convergence en distribution <strong><strong>de</strong>s</strong> marches aleatoires infinitesima<strong>les</strong>asym<strong>et</strong>riques vers le mouvement Brownien. En <strong>de</strong><strong>du</strong>ire sa fonction generatrice <strong><strong>de</strong>s</strong> cumulants.Définition 8.1.1 a) Le processus <strong>de</strong> Levy B(t) avec fonction génératrice <strong><strong>de</strong>s</strong> cumulantsquadratique <strong>de</strong> la forme :κ(θ) = 1 2 θ2s’appelle mouvement Brownien standard.b) Le processus <strong>de</strong> LevyB µ,σ 2(t) = µt + σB(t)avec fonction génératrice <strong><strong>de</strong>s</strong> cumulants quadratique <strong>de</strong> la forme :κ(θ) = µθ + σ22 θ2s’appelle mouvement Brownien à tendance µ <strong>et</strong> variance σ 2 .129


Exercice 8.1.3 Calculer EX α t , α ∈ N pour le mouvement Brownien.Exercice 8.1.4 Consi<strong>de</strong>rez la marche aleatoire obtenue en discr<strong>et</strong>isant le mouvement Brownienstandard avec h = 1, ∆ = 1, i.e. avec p[Z i = k] = cte −k2 /2 . Calculer la constante <strong>de</strong>normalisation ct <strong>de</strong> c<strong>et</strong>te distribution. Combien <strong><strong>de</strong>s</strong> chiffres sont exactes ? R : 2.506628288.2 Problèmes <strong>de</strong> premier passage <strong>de</strong> Dirichl<strong>et</strong> <strong>et</strong> PoissonDecouvrons maintenant le générateur <strong>du</strong> mouvement Brownien, en étudiant le problème<strong>de</strong> premier passage pour <strong>les</strong> marches aléatoires infinitesima<strong>les</strong>.Exercice 8.2.1 La marche symm<strong>et</strong>rique. Soit X t = X (h,D)t = X 0 + ϵ 1 + ϵ 2 + · · · + ϵ n , n =[t/h], une marche aléatoire “infinitesimale” symm<strong>et</strong>rique sur R, i.e. une marche avec <strong><strong>de</strong>s</strong>p<strong>et</strong>its increments (indépendants) <strong>de</strong> loi P [ϵ n = D] = 1/2 = P [ϵ n = −D], arrivant aprés<strong><strong>de</strong>s</strong> interval<strong>les</strong> <strong>de</strong> longueur h. On supposera, en suivant Einstein, h = D 2 = t/n. Nousconsi<strong>de</strong>rons le processus X t conditionné sur X 0 = x pour x ∈ [0, B], jusq’au temps d’arrêtT = min[T 0 , T B ] quand le processus sort <strong>de</strong> c<strong>et</strong> intervalle.1. Pb. <strong>de</strong> Dirichl<strong>et</strong>. Obtenez l’équation <strong>de</strong> récurrence <strong>et</strong> <strong>les</strong> conditions frontière satisfaitespar b x = P x {X T = B} = E x I {XT =B}.2. Obtenez une équation différentielle qui est la limite <strong>de</strong> la récurrence, quand h → 0.3. Résolvez léquation différentielle.4. Pb. <strong>de</strong> Poisson. Résolvez léquation différentielle satisfaite par la fonction t x = E x [T ]}5. Pb. <strong>de</strong> Dirichl<strong>et</strong> avec discount (*). Résolvez <strong>les</strong> équations différentielle satisfaitespar <strong>les</strong> fonctions m x = E x e −sT , f x = E x e −sT I {XT =B}}. En <strong>de</strong><strong>du</strong>ire t (B)x =E x [T I {XT =B}}].R : c)e √ sx + e √ s(B−x)1 + e √ sB= 1 + st x + s22x(B 3 − 2Bx 2 + x 3 )12+ ...e √ s(B+x) − e √ s(B−x)e 2√ sB− 1= x B + sx(x2 − B 2 )6B+ ...Exercice 8.2.2 a) Calculez le temps esperé pour le mouvement Brownien reflechi en 0 jusqu’autemps <strong>de</strong> premier passage en B.b) Même pb. pour la marche simple symm<strong>et</strong>rique.R : a) t x = B2 −x 22b) a) t x = frB(B + 1) − x 2 2Exercice 8.2.3 La marche simple asymm<strong>et</strong>rique. Soit X t = X 0 + ϵ 1 + ϵ 2 + · · · + ϵ n unemarche aléatoire infinitesimale asymm<strong>et</strong>rique sur DZ, i.e. une marche avec (ϵ n ) une suite<strong>de</strong> variab<strong>les</strong> aléatoires réel<strong>les</strong> indépendantes <strong>de</strong> même loi P [ϵ n = D] = p <strong>et</strong> P [ϵ n = −D] =q = 1 − p, ou p, q = 1 ± µ D, D 2 = σ 2 h, <strong>et</strong> h → 0, n → ∞ <strong>et</strong> n h = t.2 2σ 2Pour tout x, l, u <strong>de</strong> la forme kD, k ∈ Z, consi<strong>de</strong>rons le processus ˜X t conditionné sur˜X 0 = x pour x ∈ [l, u], jusq’au temps d’arrêt τ quand le processus sort <strong>de</strong> l’intervalle [l, u].130


1. Montrez que l’ésperance <strong>et</strong> la variance <strong>de</strong> la marche aléatoire infinitesimale X t approchentceux d’un mouvement Brownien B µ,σ 2(t) <strong>de</strong> tendance µ <strong>et</strong> variabilité σ (B µ,σ 2(t) = x 0 + σB t + µt, où B t est le mouvement Brownien standard.)2. Montrez que la fonction génératrice <strong>de</strong> moments <strong>de</strong> X t , donné par Ee θX t, convergevers e tκ(θ) où κ(θ) = µθ + σ2 θ 2, <strong>et</strong> donc elle exhibe la linéarité en t charactèristique aux2processus <strong>de</strong> Levy.3. Obtenez l’équation <strong>de</strong> récurrence <strong>et</strong> <strong>les</strong> conditions frontière satisfaites par p x =P x { ˜X τ = K}, t x = E x τ, <strong>et</strong> f x = E x ˜Xτ <strong>et</strong> d x = E x e −rτ . Indication : Approximez par lamarche aléatoire “infinitesimale” X t , conditionez sur le premier pas ϵ 1 <strong>et</strong> utilisez <strong>les</strong>relations :E x [g(X τ ) | ϵ 1 = ±1] = p x±1 , E x [ ∑ τ−10c(X i ) | ϵ 1 = ±1] = c(x) + t x±1 , ...4. Résolvez <strong>les</strong> équations <strong>de</strong> récurrence qui en résultent pour p x , t x , f x <strong>et</strong> d x dans le casp = q = 1/2.5. (a) Obtenez l’équation différentielle <strong>et</strong> <strong>les</strong> conditions frontière satisfaites par le coûttotal esperé∫ τf σ (x) = E x c( ˜X t )dt(où ˜X t est un mouvement Brownien <strong>de</strong> tendance µ <strong>et</strong> variabilité σ). Indication :Prenez la limite d’une équation <strong>de</strong> récurrence semblable a celle obtenue dans leproblème 1 (a)i.(b) Résolvez l’équation dans le cas l = 0, u = ∞, µ < 0, pour la fonction <strong>de</strong> coûtunitaire c(x) = 1. Est-ce que le résultat <strong>de</strong>pend <strong>de</strong> σ ? Donnez une interpr<strong>et</strong>ationgeom<strong>et</strong>rique <strong>du</strong> cas σ = 0.(c) Résolvez l’équation dans le cas l = 0, u = ∞, µ < 0, pour la fonction <strong>de</strong> coûtunitaire c(x) = x. Donnez une interprétation geom<strong>et</strong>rique <strong>du</strong> cas σ = 0. Quelleest la limite lim x→∞f σ (x)f 0 (x) ?8.3 La formule <strong>de</strong> Black-Scho<strong>les</strong> pour <strong>les</strong> options d’achatLe mouvement Brownien exponentiel est le premier modèle à ramener <strong><strong>de</strong>s</strong> résultatsintéréssants dans <strong>les</strong> mathémathiques financières .1. Calculez l’esperance <strong>du</strong> mouvement Brownien exponentiel S t = s 0 e B (µ,σ 2 ) (t) .2. Donnez une formule pour sa distribution cumulative, en termes <strong>de</strong> la = distributioncumulative Φ(x) d’une variable normale standardisée.3. Calculez le ”mo<strong>de</strong>” <strong>de</strong> S t (le point où la <strong>de</strong>nsité prend sa valeur maximale).4. Calculez la ”mediane” <strong>de</strong> S t .5. Supposant r = 0, est-ce que un actif évoluant comme un mouvement Brownien exponentielS t = s 0 e B (µ,σ 2 ) (t) sera un bon investissement si − σ2 < µ < 0 ?26. a) Calculez lésperance actualisée d’une option d’achat Ee −rT (S T − K) + epour un actifS T évoluant comme un mouvement Brownien exponentiel S t = s 0 e B (µ,σ 2 ) (t).b) Supposant que µ = r − σ2 (”neutralité <strong>du</strong> risque”), <strong>de</strong><strong>du</strong>isez la formule <strong>de</strong> Black2Scho<strong>les</strong> :0c(T, s 0 , K, σ, r) = S 0 Φ( log ( S 0K ˜ ) + V TT 2√VT) − K ˜ T Φ( log ( S 0K ˜ ) − V TT 2√ )VT131


Solution :1. ES 0 e (g t+σB(t)) = ES 0 e g t e σ √ tN = S 0 e g t e 1 2 σ2t = S 0 e (g+ 1 2 σ2 )t2. P{S t ≤ x} = P{S 0 exp (g t + σB t ) ≤ x} = P{+σ √ tN) ≤ ln( x S 0) − g t} = Φ( ln( x S 0)−g t3. The <strong>de</strong>nsity p(x, t) is proportional to (called lognormal <strong>de</strong>nsity). L<strong>et</strong>tingE(x) <strong>de</strong>note the exponential (so that p(x, t) = E(x) ) and s<strong>et</strong>ting the <strong>de</strong>rivative to 0 wexg<strong>et</strong> E(x)(− (ln(x)−gt) 1x − 1) = 0 and we find that the mo<strong>de</strong> is )tσ 2 t x e(g−σ2 .4. We have to find m so that P{S t ≤ m} = P{e gt+σBt ≤ m} = P{gt + σB t ≤ ln(m)} =P{σB t ≤ ln(m) − gt} = 1. Since σB 2 t is a symm<strong>et</strong>ric normal variable, its median is 0and the last equation can only be satisfied if ln(m) − gt = 0 and m = e gt .(ln(x)−gt)2e− 2σ 2 txσ √ t132


Chapitre 9Laplace, Thiele, Levy <strong>et</strong> BachelierPierre-Simon <strong>de</strong> Laplace, 1749-1827, mathématicien, astronome <strong>et</strong> physicienfrançais, a profondément influencé <strong>les</strong> mathématiques, l’astronomie, la physique <strong>et</strong> la philosophie<strong><strong>de</strong>s</strong> sciences <strong>de</strong> son siècle.Son livre Théorie analytique <strong><strong>de</strong>s</strong> probabilités, Tome VII <strong><strong>de</strong>s</strong> uvres complètes, Paris, 1820,marque le début <strong><strong>de</strong>s</strong> probabilités mo<strong>de</strong>rnes.Après <strong><strong>de</strong>s</strong> étu<strong><strong>de</strong>s</strong> brillantes à l’Université <strong>de</strong> Caen <strong>de</strong> 16 à 18 ans, il obtient avec le soutien<strong>de</strong> d’Alembert un poste à l’Ecole militaire. Ses travaux en mathématiques <strong>et</strong> astronomielui valent d’entrer à 24 ans à l’Académie <strong><strong>de</strong>s</strong> Sciences, o l’éten<strong>du</strong>e <strong>de</strong> son savoir fait impression.Son travail vers 1782 avec Lavoisier sur la calorimétrie, sa théorie <strong>de</strong> la capillarité <strong>et</strong>ses formu<strong>les</strong> d’électromagnétisme ancrent sa réputation parmi <strong>les</strong> chimistes <strong>et</strong> physiciens.L’essentiel <strong>de</strong> son oeuvre scientifique s’attache à fournir un fon<strong>de</strong>ment soli<strong>de</strong> à sa théorie <strong>de</strong>mécanique cé<strong>les</strong>te, traitant <strong>de</strong> la stabilité <strong>du</strong> système solaire, <strong>de</strong> son origine, <strong>et</strong> qui motiveraen partie sa théorie <strong><strong>de</strong>s</strong> probabilités. Il participa à l’organisation <strong>de</strong> l’Ecole Polytechnique <strong>et</strong><strong>de</strong> l’Ecole Normale. Il fonda avec Bertholl<strong>et</strong> la Société d’Arcueil, creus<strong>et</strong> <strong>de</strong> rencontre entrejeunes physiciens <strong>et</strong> chimistes éminents <strong>et</strong> scientifiques proches <strong>du</strong> pouvoir. Politiquementopportuniste, il saura s’attirer aussi bien <strong>les</strong> faveurs <strong>de</strong> Napoléon que par la suite cel<strong>les</strong> <strong>de</strong>Louis XVIII qui le fit pair <strong>et</strong> marquis.En tant qu’examinateur <strong>du</strong> Corps Royal d’artillerie, Laplace fit passer avec succès le testen 1785 à un jeune homme <strong>de</strong> 16 ans : Napoléon Bonaparte.Laplace est nommé ministre <strong>de</strong> l’intérieur par Napoléon, puis sénateur. C’est égalementNapoléon qui le nomme Comte <strong>de</strong> l’Empire.La carrière <strong>de</strong> ministre <strong>de</strong> Laplace sera courte (6 semaines ?), <strong>et</strong> Napoléon le dém<strong>et</strong>trarapi<strong>de</strong>ment pour <strong>les</strong> raisons qu’il expose dans ses mémoires : ”Géomètre <strong>de</strong> premier rang,Laplace ne tarda pas à se montrer administrateur plus que médiocre ; dès son premier travailnous reconnmes que nous nous étions trompé. Laplace ne saisissait aucune questionsous son véritable point <strong>de</strong> vue : il cherchait <strong><strong>de</strong>s</strong> subtilités partout, n’avait que <strong><strong>de</strong>s</strong> idéesproblématiques, <strong>et</strong> portait enfin l’esprit <strong><strong>de</strong>s</strong> ‘infiniment p<strong>et</strong>its’ jusque dans l’administration.”Mais la versatilité politique <strong>de</strong> Laplace finira par l’emporter <strong>et</strong> lui faire signer le décr<strong>et</strong><strong>de</strong> bannissement <strong>de</strong> Napoléon à la chute <strong>de</strong> celui-ci en 1814.Rapporté par Victor Hugo : M. Arago avait une anecdote favorite. Quand Laplace eutpublié sa Mécanique cé<strong>les</strong>te, disait-il, l’empereur le fit venir. L’empereur était furieux. ” ?Comment, s’écria-t-il en apercevant Laplace, vous fait tout le système <strong>du</strong> mon<strong>de</strong>, vous donnez<strong>les</strong> lois <strong>de</strong> toute la création <strong>et</strong> dans tout votre livre vous ne parlez pas une seule fois <strong>de</strong>l’existence <strong>de</strong> Dieu ! Sire, répondit Laplace, je n’avais pas besoin <strong>de</strong> c<strong>et</strong>te hypothèse.”133


Remarque <strong>de</strong> Laplace à Napoléon, après que celui-ci a rapporté quelques résultats nouveau<strong>de</strong> géométrie élémentaire : ”la <strong>de</strong>rnière chose que nous attendions <strong>de</strong> vous, Général, estune leçon <strong>de</strong> géométrie !”Thorvald Nicolai Thiele, 1838 -1910, astronome, actuaire <strong>et</strong> mathématicienDanois est connu surtout pour ses travaux dans <strong>les</strong> domaines <strong><strong>de</strong>s</strong> statistiques, interpolation<strong>et</strong> le problème à trois corps. Il fut le premier à proposer une théorie mathématique<strong>du</strong> mouvement Brownien. Thiele a intro<strong>du</strong>its <strong>les</strong> cumulants <strong>et</strong> (en danois) la fonctions <strong>de</strong>vraisemblance, ces contributions n’ont pas été crédités à Thiele par Ronald A. Fisher, quia néanmoins placé Thiele dans sa liste <strong><strong>de</strong>s</strong> plus grands statisticiens <strong>de</strong> tous <strong>les</strong> temps surla bases d’autres contributions <strong>de</strong> Thiele. Thiele a également été le fondateur <strong>et</strong> directeurmathématique <strong>de</strong> la Société d’assurance Hafnia <strong>et</strong> a dirigé la fondation danoise <strong><strong>de</strong>s</strong> actuaires.C’est grce à son travail dans le domaine <strong><strong>de</strong>s</strong> assurances qu’il est entré en contactavec le mathématicien Jrgen Pe<strong>de</strong>rsen Gram.Paul Pierre Lévy, 1886- 1971, mathématicien français, figure, avec mile Borel,Andre Kolmogorov, Norbert Wiener, Joseph Leo Doob <strong>et</strong> Kiyoshi Ito, parmi <strong>les</strong> fondateurs<strong>de</strong> la théorie mo<strong>de</strong>rne <strong><strong>de</strong>s</strong> probabilités. On lui doit aussi <strong><strong>de</strong>s</strong> considérations importantes sur<strong>les</strong> lois stab<strong>les</strong> stochastiques qui portent son nom ainsi que sur <strong>les</strong> martinga<strong>les</strong>.Louis Bachelier, mathématicien français, 1870-1946 Issu d’une famille <strong>de</strong> commerçants<strong>et</strong> financiers habitués aux opérations boursières, Louis Bachelier, orphelin à 19 ans,poursuit tardivement <strong><strong>de</strong>s</strong> étu<strong><strong>de</strong>s</strong> <strong>de</strong> mathématique <strong>et</strong> physique à Paris (Sorbonne) <strong>et</strong> soutient(1900), <strong>de</strong>vant Henri Poincaré, une thèse <strong>de</strong> doctorat, intitulée Théorie <strong>de</strong> la spéculation,selon laquelle <strong>les</strong> fluctuations <strong><strong>de</strong>s</strong> cours <strong>de</strong> la Bourse s’apparentent au mouvement brownien(équation <strong>de</strong> la chaleur) <strong>et</strong> peuvent être prédits en partie par le calcul <strong><strong>de</strong>s</strong> probabilités : lemarché boursier obéit, à son insu, aux lois <strong>de</strong> probabilités .Toutefois, c<strong>et</strong>te théorie, sans doute trop avant-gardiste n’eut que peu d’influence dans lemon<strong>de</strong> scientifique <strong>de</strong> l’époque. Il fallut attendre <strong>les</strong> années 1960 avec le développement <strong>de</strong>la recherche opérationnelle pour que son uvre soit vraiment reconnue par <strong><strong>de</strong>s</strong> économistesaméricains tels que Paul A. Samuelson <strong>du</strong> MIT (Massachus<strong>et</strong>ts Institut of Technology),prix Nobel d’économie (1970). Bachelier est aujourd’hui considéré comme le fondateur <strong><strong>de</strong>s</strong>mathématiques financières mo<strong>de</strong>rnes.Il faut aussi tenir compte <strong>du</strong> fait, qu’au début <strong>du</strong> 20è siècle, la tendance est au formalisme,tendance principalement menée par Hilbert. Le calcul <strong><strong>de</strong>s</strong> probabilités n’est pasencore axiomatisé : ce sera l’oeuvre <strong>de</strong> Kolmogorov (1933), en Russie (le calcul ces probabilités<strong>de</strong>vient une branche <strong>de</strong> la théorie <strong>de</strong> la mesure) <strong>et</strong> <strong>de</strong> Paul Lévy, en France, avec quiBachelier eut <strong><strong>de</strong>s</strong> rapports ten<strong>du</strong>s (non reconnaissance <strong>de</strong> ses travaux). En Janvier 1926,candidate à Dijon, Bachelier est blackboulé suite à l’intervention <strong>de</strong> M. Gevrey <strong>et</strong> P. Levy,voir http ://hal.archives-ouvertes.fr/docs/00/44/75/92/PDF/BACHEL2.PDF134


Chapitre 10Qu’est ce qu’il y aura dans l’examen ?10.1 Examen d’entraînement 1.1. L’espace <strong><strong>de</strong>s</strong> états d’une chaîne est S = 1, 2, 3, 4, 5, 6, 7 <strong>et</strong> la matrice <strong>de</strong> transition est⎛⎞1 0 0 0 0 0 0a 0 b 0 0 1 − a − b 00 0 0 1 1 1 13 6 6 3P =0 1 0 0 0 0 0⎜ 0 1 0 0 0 0 0⎟⎝1 10 0 0 0 0 ⎠2 21 30 0 0 0 04 4(a) Tracez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez <strong>les</strong> classes <strong>de</strong> la chaîne. Classifier<strong>les</strong> classes en récurrentes <strong>et</strong> transitoires. Y’ a-t-il <strong><strong>de</strong>s</strong> classes périodiques ?(b) Trouvez la distribution stationnaire <strong><strong>de</strong>s</strong> classes récurrentes.(c) Trouvez la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n2. Pour une marche aléatoire X t , t = 0, 1, 2, ... sur le graphe cubique ci-<strong><strong>de</strong>s</strong>sous,calculer :BUAOFigure 10.1 – Marche aléatoire simple(a) L’ésperance en sortant <strong>de</strong> U <strong>du</strong> nombre <strong>de</strong> pas T O jusq’au noeud O. Indication :Utiliser la symm<strong>et</strong>rie.(b) <strong>Les</strong> probabilités stationnaires <strong>du</strong> chaque noeud.135


(c) L’ésperance en sortant <strong>de</strong> O <strong>du</strong> nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.(d) La probabilité p A = P A {X T = U}, ou T = min[T U , T O ].(e) La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.3. Soit (X n ) n∈Nune chaîne <strong>de</strong> Markov homogène sur l’ensemble({1, 2}, <strong>de</strong>)distribution1 − a ainitiale c 0 = (p, 1 − p) <strong>et</strong> <strong>de</strong> matrice <strong>de</strong> transition P =b 1 − b(a) Calculez P{X 0 = 2, X 1 = 2}, c 1 (2) = P{X 1 = 2} P{X 0 = 2|X 1 = 2}, <strong>et</strong> P{X 0 =2, X 1 = 1, X 4 = 2}.(b) Trouvez toutes <strong>les</strong> lois stationnaires π <strong>de</strong> la chaîne donnée (s’il y en a plusd’une seule). Spécifiez, en justifiant, si la limite lim n→∞ c 0 P n existe pour lachaîne donnée. Si c’est le cas, quel<strong>les</strong> sont <strong>les</strong> limites lim n→∞ P{X n = 2},lim n→∞ P{X n = 2, X n+1 = 2} <strong>et</strong> lim n→∞ P{X n = 2|X n+1 = 2} ?(c)Étant donné <strong><strong>de</strong>s</strong> coûts <strong>de</strong> stockage per unité <strong>de</strong> temps h(1), h(2), calculez le coûtmoyen stationnairen∑Eπ n −1 h(X i )ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.4. Soit Y i , i = 1, ..., une suite <strong><strong>de</strong>s</strong> lancées <strong>de</strong> dé indépendantes. Déterminer dans <strong>les</strong>exemp<strong>les</strong> suivantes si la suite X n est Markov, en donnant (si possible) la matrice d<strong>et</strong>ransition <strong>et</strong> le graph <strong>de</strong> communication. Classifier <strong>les</strong> classes en récurrents <strong>et</strong> transitoires<strong>et</strong> calculer si possible la limite P = lim n→∞ P n(a) Le maximum <strong>de</strong> résultats X n = max 1≤i≤n Y i(b) Le nombre cumulatif <strong>de</strong> non 6, aprés le temps n, jusqu’au prochaîne 6.(c) X n = Y n + Y n−1(d) X n = Max 1≤i≤n S i , ou S i = ∑ ik=1 Y i <strong>et</strong>(e) X n = S 1 + S 2 + ... + S nSolutions :1. (a) Classes récurrentes : (1) <strong>et</strong> (6, 7). Classe transitoire, nonpériodique : (2, 3, 4, 5).(b) <strong>Les</strong> distribution stationnaire <strong><strong>de</strong>s</strong> classes récurrentes sont (1) <strong>et</strong> ( 1 3 , 2 3 ).(c) La limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n estoù b 2,1 = 2a2−b , b 3,1 =⎛P ∞ =⎜⎝i=11 0 0 0 0 0 0b 2,1 0 0 0 0 1b 23 2,6b 3,1 0 0 0 0 1b 23 3,6b 2,1 0 0 0 0 1b 23 2,6b 2,1 0 0 0 0 1b 23 2,61 20 0 0 0 03 31 20 0 0 0 03 33 b 2,63 b 3,63 b 2,63 b 2,6a <strong>et</strong> b 2−b 2,6 = 1 − b 2,1 , b 3,6 = 1 − b 3,1 .136⎞⎟⎠


3) (a)(1 − p)(1 − b)(1 − p)(1 − b) + p a(1 − p)(1 − b)(1 − p)(1 − b) + p a(b) Loi stationnaire : ( ba+b , aa+b )aa + ba(1 − b)a + b1 − b(c)ba + b h(1) + aa + b h(2)10.2 Examen d’entrainement 21. Soit X t = x + ∑ ti=1 Z t une marche sur <strong>les</strong> nombres naturels, avec la distribution <strong>de</strong>chaque pas Z t donnée par p k = P [Z t = k], avec : { p 1 = 6, p 7 −1 = 0, p −2 = 7} 1 . a) Verifiersi E[Z t ] > 0. b) Calculer <strong>les</strong> probabilités <strong>de</strong> ruine ψ x , x ∈ N. c) Vérifier la positivité <strong>du</strong>résultat.d) Calculer l’espérance <strong>du</strong> temps <strong>de</strong> ruine pour la marche sur <strong>les</strong> nombres naturels,avec la distribution <strong>de</strong> chaque pas Z t donnée par : { p −1 = 6, p }7 1 = 0, p 2 = 1 7e) (*) Calculer l’espérance <strong>du</strong> temps <strong>de</strong> ruine pour la marche avec la distribution <strong>de</strong>chaque pas Z t donnée par : { p 1 = 6, p 7 −1 = 0, p −2 = 7} 1 , en supposant que ce temps estfini (en conditionnant sur le cas où la ruine arrive).2. La file d’attente d’un bus avec capacité infinie. Soit X t une file d’attenteM(λ)/M(µ)/1, dans la quelle le serveur sert chaque fois simultanément tous <strong>les</strong>clients qu’il trouve en attente dans le tampon (arrivés dans la file après le début <strong><strong>de</strong>s</strong>on <strong>de</strong>rnier service).(a) Dessinez le graph <strong>de</strong> transitions <strong>du</strong> processus X t , <strong>et</strong> donnez sa matrice génératrice.(b) Indiquer <strong>les</strong> valeurs <strong><strong>de</strong>s</strong> probabilités ˜λ <strong>et</strong> ˜µ pour que le nombre <strong>de</strong> clients augmente/diminue,au moment <strong>du</strong> premier saut à partir d’un état n ≥ 0.(c) Calculez la distribution stationnaire <strong>de</strong> X t .(d) Formulez un système <strong>de</strong> conditionnement pour <strong>les</strong> espérances t k en sortant <strong>de</strong> k<strong>du</strong> temps T k jusqu’a l’arrivée en 0 (la pause café <strong>du</strong> serveur).(e) Calculez l’ésperance t 0 <strong>du</strong> temps stationnaire (avec distribution initiale stationnaire)T S jusqu’à la première arrivée en 0.137


(f) Calculez, en utilisant un système <strong>de</strong> conditionnement, l’ésperance en sortant <strong>de</strong> 0<strong>du</strong> nombre <strong><strong>de</strong>s</strong> pas ˜T 0 jusqu’au premier r<strong>et</strong>our en 0.(g) (*) Reprenez <strong>les</strong> questions précé<strong>de</strong>ntes pour une file d’attente une chaîne <strong>de</strong> Markovreprésentant le nombre <strong>de</strong> clients en attente dans un arrêt <strong>de</strong> bus, en tempsdiscr<strong>et</strong>, en supposant qu’à chaque instant t = 1, 2, .. une seule personne arrive (oupas) avec probabilité p < 1, <strong>et</strong> en suite le bus arrive (ou pas) avec probabilitéq < 1, <strong>et</strong> prend tous <strong>les</strong> voyageurs (le <strong>de</strong>rnier arrivé inclu). Dessinez le graph d<strong>et</strong>ransitions <strong>de</strong> ce processus, en indiquant <strong>les</strong> probabilités λ <strong>et</strong> µ pour que le nombre<strong>de</strong> voyageurs augmente <strong>et</strong> diminue respectivement, ainsi que la probabilité z pourque ce nombre reste inchangé. Donnez la matrice <strong><strong>de</strong>s</strong> probabilités <strong>de</strong> transitionpour la chaîne X t .Reprenez ensuite <strong>les</strong> autres questions ci-<strong><strong>de</strong>s</strong>sus.3. On lance une pièce <strong>de</strong> monnaie biaisée, avec la probabilité <strong>de</strong> sortir face égale à q<strong>et</strong> celle <strong>de</strong> sortir pile égale à p = 1 − q, jusqu’à ce qu’on obtient une suite pile-facepile(arrivèes consécutivement). Trouvez l’espérance t <strong>du</strong> temps jusqu’à l’arrêt, (i.e. lenombre <strong>de</strong> j<strong>et</strong>s N, en incluant le <strong>de</strong>rnier). Indication : On peut utiliser un processus<strong>de</strong> Markov qui r<strong>et</strong>ient l’information minimale nécessaire pour déci<strong>de</strong>r si l’événementdésiré a eu lieu (<strong>et</strong> qui contient dans ce cas l état final <strong><strong>de</strong>s</strong>iré, <strong>et</strong> tous ses prefixes).Reprenez c<strong>et</strong>te question, en supposant que <strong>les</strong> temps d’arrivée d’un nouveau résultatont <strong><strong>de</strong>s</strong> distributions exponentiel<strong>les</strong> avec <strong><strong>de</strong>s</strong> paramètres λ P , λ F , λ P F (qui <strong>de</strong>pen<strong>de</strong>nt<strong><strong>de</strong>s</strong> <strong>de</strong>rnières <strong>de</strong>ux états).4. Soit X = (X t ; t ≥ 0) un processus <strong>de</strong> Markov en temps continu sur l’ensemble N, avecgénérateur infinitésimal Gf(x) = µ 1 (f(x+1)−f(x))+µ −1 (f(x−1)−f(x))+µ −2 (f(x−2) − f(x)), x ≥ 2 avec µ 1 = 1/2, µ −1 = 1/8, µ −2 = 3/8, <strong>et</strong> avec <strong>les</strong> passages impossib<strong>les</strong>en 1 <strong>et</strong> 0 étant anulés (i.e. Gf(1) = µ 1 (f(2) − f(1)) + µ −1 (f(0) − f(1)) <strong>et</strong> Gf(0) =µ 1 (f(1) − f(0))). Resolvez <strong>les</strong> équation <strong>de</strong> récurrence Gc(x) + h(x) = 0, x ≥ 1, c(0) = 0satisfaites par le temps <strong>de</strong> vidage T = T 0 = inf{t : X(t) ≤ 0} <strong>et</strong> le coût <strong>de</strong> vidagec(x) = E x∫ T0 X sds, obtenues respectivement pour h(x) = 1 <strong>et</strong> h(x) = x. Montrez quec(x) = t(x)( x + 12+ γ)ou γ = E ss X t est le côut moyen stationnaire <strong>de</strong> ce processus. Donnez une explicationprobabiliste <strong>de</strong> la partie w(x) = t(x) x+12= c(x) − γt(x).5. On lance une monnaie biaisée jusqu’à la premiére fois quand une pile arrive après unnombre impaire <strong>de</strong> faces. Trouvez l’espérance n <strong>du</strong> nombre <strong>de</strong> pas <strong>de</strong> ce jeu, tenantcompte aussi <strong>de</strong> la <strong>de</strong>rnière pile.Solutions :1. <strong>Les</strong> probabilités <strong>de</strong> ruine satisfont ψ x = 6 7 ψ x+1 + 1 7 ψ x−2, x ∈ N. El<strong>les</strong> sont <strong><strong>de</strong>s</strong> combinaisons<strong>de</strong> puissances ρ x , avec ρ une racine <strong>de</strong>67 ρ3 − ρ 2 + 1 7 = (ρ − 1)(6 7 ρ2 − 1 7 ρ − 1 7 ) = 6 (ρ − 1)(ρ − 1/2)(ρ + 1/3)7ψ x = A 1 ( 1 2 )x + A 2 ( −13 )x satisfait ψ 0 = ψ −1 = 1 ssi A 1 = 4/5, A 2 = 1/5.138


2. (a)⎛G =⎜⎝⎞−λ λ 0 · · ·µ − (λ + µ) λ 0µ 0 − (λ + µ) λ 0.µ 0 .. . .. . .. ⎟⎠. .. . .. . ..Le graph <strong>de</strong> communication est :λ λ λ λ0 1 2 nµµ µµFigure 10.2 – Exe 2 : Le serveur sert tous <strong>les</strong> clients(b) En temps continu, ˆλ =λ , ˆµ = µ .λ+µ λ+µEn temps discr<strong>et</strong>, la pb. que la file augmente est ˆλ = p(1 − q) <strong>et</strong> la pb. quela file se vi<strong>de</strong> est µ = q. La pb. que la file reste inchangé est z 0 = 1 − λ, <strong>et</strong>∀n ≥ 1, z n = z = 1 − λ − µ = (1 − p)(1 − q).(c) En temps discr<strong>et</strong>, on trouve π i = λπ i−1 + zπ i ⇐⇒ π i = ˜λπ i−1 , i = 1, 3, ..., avec˜λ =λ , <strong>et</strong> donc π λ+µ i = ˜λ i π 0 , où la constante <strong>de</strong> normalisation est π 0 = 1−˜λ = µ . λ+µEn temps continu, même reponse.(d) Le système λt k+1 − (λ + µ)t k + 1 = 0, k = 1, 2, ... donne t 1 = t 2 = ... = µ −1 .(e) t 0 = t (0) + t 1 où t (0) = λ −1 Remarquez l’i<strong>de</strong>ntité t 0 π 0 = t (0) valable pour toutes <strong>les</strong>chaînes ergodiques.Par exemple, en ajoutant arrivées <strong><strong>de</strong>s</strong> coup<strong>les</strong> à taux λ 2 t 0 = t (0) + µ −1 où t (0) =(λ + λ 2 ) −1 1, <strong>et</strong> π 0 = = µ1+µ −1 /t (0) µ+λ+λ 2⇐⇒ π 0 (λ + λ 2 ) = (1 − π 0 )µ.Note : Par recurrence, il suit que π 0 = ˆµ =µµ+λ+λ 2, π 1 = ˆλπ 0 =λµ+λ+λ 2π 0 ,π 2 = (ˆλ 2 + ˆλ 2 )π 0 , π 3 = (ˆλ 3 + 2ˆλ 2ˆλ)π0 , )... En general, le coefficient <strong>de</strong> ˆλ k 2ˆλ m en π noù n = m + 2k est le nb. <strong><strong>de</strong>s</strong> placements <strong><strong>de</strong>s</strong> k blocques contigus <strong>de</strong> longueur 2parmi n places.3. Le processus <strong>de</strong> Markov qui r<strong>et</strong>ient l’information minimale est donné par le ”mot”d’arrêt désiré, <strong>et</strong> par tous ses prefixes. On peut aussi consi<strong>de</strong>rer le processus <strong>de</strong> Markovsur <strong><strong>de</strong>s</strong> états specifiant <strong>les</strong> <strong>de</strong>ux <strong>de</strong>rnièrs résultats posib<strong>les</strong> : {P F }, {∗P }, {P c F }, ∅. <strong>Les</strong><strong>de</strong>ux inconnues x 1 = x {∗P } , x 2 = x {P c F } satisfont :x 1 = 1 + px 1 + q ∗ 0, x 2 = 1 + px 1 + q ∗ x 2 q ⇐⇒ x 1 = q −1 , x 2 = x 1 + p −1 = q −1 + p −14. Pour c(x) = E x [ ∫ T0X(t)dt] (coût totale <strong>de</strong> stockage) on trouve(Gc)(x) + x = 0c(0) = 0c(x)accroit non-exponentiellement quand x → ∞139


Comme Gx = λ−µ <strong>et</strong> Gx 2 = 2x(λ−µ)+λ+µ, on trouve par la m<strong>et</strong>ho<strong>de</strong> <strong><strong>de</strong>s</strong> coefficientsind<strong>et</strong>erminés que la solution est c(x) =x2 + x(µ+λ)2(µ−λ) 2(µ−λ) 2On trouve que c(x) = c r (x) + γt(x). Interpr<strong>et</strong>ation : La première partie, c r (x) =t(x)( x+1 ) est la solution ”flui<strong>de</strong>”, qui utilise precisement la moyenne arithm<strong>et</strong>ique <strong><strong>de</strong>s</strong>2valeurs (x, x − 1, ..., 1), comme si avant le vidage on aurait visité seulement ces valeurs,pour <strong><strong>de</strong>s</strong> <strong>du</strong>rées <strong>de</strong> temps egaux. La <strong>de</strong>uxième partie sugère un ”remplacement <strong>de</strong> lavaleur moyenne a long terme 0 (”vue <strong>de</strong> loin”) dans la solution flui<strong>de</strong> par la valeurmoyenne réelle a long terme γ.5. Consi<strong>de</strong>rons le processus <strong>de</strong> Markov sur <strong>les</strong> états : {F iP }, {P }, {F i}, {F p}, où le <strong>de</strong>rnierétat inclu le cas ∅. Soit N le nombre <strong>de</strong> pas jusqu’à la premiére fois quand unepile arrive après un nombre impaire <strong>de</strong> faces, <strong>et</strong> x i , i = 1, 2, 3 son espérance, à partir<strong><strong>de</strong>s</strong> états transitoires : x 1 = x {P } , x 2 = x {F i} , x 3 = x {F p} . <strong>Les</strong> trois inconnues satisfont :x 1 = 1 + px 1 + q ∗ x 2 , x 2 = 1 + q ∗ x 3 , x 3 = 1 + px 1 + q ∗ x 2 =⇒x 3 = x 1 , qx 1 = 1 + qx 2 = 1 + q(1 + qx 1 ) =⇒ x 1 =1 + qq(1 − q)Note : Le conditionnement sur le premier pas ne marche pas. Examinons l’espaced’états :E = {P, F P, F F P, F F F P, F F F F P, ..}en essayant <strong>de</strong> trouver une <strong>de</strong>composition en cas (ou un temps d’arrêt T ) qui perm<strong>et</strong>une approche recursive.Dans le premier, troisième, ...cas, on recommence. Dans le <strong>de</strong>xième, quatrième, ..., onconclut N = 2, 4, .... Le temps d’arrêt perm<strong>et</strong>tant une solution est donc le temps T <strong>de</strong>la premiére pile. En conditionnant sur T , on trouve :n = E[N] ==∞∑q 2k−1 p(2k) +k=1∞∑q 2k p((2k + 1) + n)k=02pq(1 − q 2 ) 2 + p(1 + q2 )(1 − q 2 ) 2 + n 11 + q = p(1 − q) 2 + n 11 + qoù on a utilisé ∑ ∞k=1 2kq2k−1 = ( 1 ) ′ =1−q 22q , ∑ ∞(1−q 2 ) 2 k=0 (2k + 1)q2k = 1 −(1−q) 2(1+q 2 )(1−q 2 ) 2 . On r<strong>et</strong>rouve finalement : n = 1+qq(1−q)Examen <strong>de</strong> processus stochastiques 12 Mai 2010Tous <strong>les</strong> documents d’ai<strong>de</strong> sont interdits2q(1−q 2 ) 2 =1. L’espace <strong><strong>de</strong>s</strong> états d’une chaîne est S = 1, 2, 3, 4, 5, 6 <strong>et</strong> la matrice <strong>de</strong> transition est⎛⎞1 0 0 0 0 0a 1 0 b c a 2 011P =0 0 0 0 2 211⎜ 0 0 0 0 2 2 ⎟⎝ 0 0 0 0 1 − c 1 c 1⎠0 0 0 0 c 2 1 − c 2où a, b, c, a 1 , a 2 , c 1 , c 2 ∈ [0, 1] <strong>et</strong> c = 1 − b − ∑ 2i=1 a i.140


(a) Tracez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez <strong>les</strong> classes <strong>de</strong> communication <strong>de</strong>la chaîne. Classifier <strong>les</strong> classes en récurrentes <strong>et</strong> transitoires. Y’ a-t-il <strong><strong>de</strong>s</strong> classespériodiques ?(b) Trouvez la distribution stationnaire <strong><strong>de</strong>s</strong> classes récurrentes.(c) Trouvez <strong>les</strong> probabilités d’absorbtion p i,ĵpour chaque état i transitoire <strong>et</strong> chaqueclasse d’états recurrents ĵ(d) Trouvez la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition après n étapes P n .2. Soit X t = x + ∑ ti=1 Z t une marche aléatoire sur <strong>les</strong> nombres naturels, avec la distribution<strong>de</strong> chaque pas Z t donnée par p k = P [Z t = k], avec : { p 1 = 6 7 , p −1 = 0, p −2 = 1 7}.a) Vérifier si E[Z t ] > 0. b) Soit T = inf{t : X t ≤ 0} le temps <strong>de</strong> ruine. Calculer <strong>les</strong>probabilités <strong>de</strong> ruine ψ x , x ∈ N. c) Vérifier la positivité <strong>du</strong> résultat.3. On lance une pièce <strong>de</strong> monnaie biaisée, avec la probabilité <strong>de</strong> sortir face égale à q <strong>et</strong>celle <strong>de</strong> sortir pile égale à p = 1 − q, jusqu’à ce qu’on obtient une suite pile-pile-face(arrivèes consécutivement).a) Trouvez l’espérance t = ET <strong>du</strong> temps T jusqu’à l’arrêt, (i.e. le nombre <strong>de</strong> j<strong>et</strong>s N,en incluant <strong>les</strong> <strong>de</strong>rniers pas). Indication : On pourrait utiliser un processus <strong>de</strong> Markovqui r<strong>et</strong>ient l’information minimale nécessaire pour déci<strong>de</strong>r si l’événement désiré a eulieu, <strong>et</strong> qui contient dans ce cas l’état final <strong><strong>de</strong>s</strong>iré, <strong>et</strong> tous ses prefixes.b) Reprenez c<strong>et</strong>te question, en supposant que <strong>les</strong> temps d’arrivée d’un nouveau résultatont <strong><strong>de</strong>s</strong> distributions exponentiel<strong>les</strong> avec <strong><strong>de</strong>s</strong> paramètres λ P , λ F (qui <strong>de</strong>pen<strong>de</strong>nt <strong>du</strong><strong>de</strong>rnier état P ou F).1.Solutions :2. a) L’espérance <strong><strong>de</strong>s</strong> sinistres est m 1 = 1 + 5 = 2 <strong>et</strong> le taux <strong>de</strong> profit p = 1.6×2 6×6 9 9b) <strong>Les</strong> probabilités <strong>de</strong> ruine sont ψ(u) = 4 1 n + 1 1 n .5 2 5 −33. Consi<strong>de</strong>rons le processus <strong>de</strong> Markov sur <strong>les</strong> états suivants, qui specifient une <strong>de</strong>compositionen trois cas possib<strong>les</strong> pour <strong>les</strong> trois <strong>de</strong>rnièrs résultats : A = {P P F }, P P ={P P }, P = {P c P }, F = {(P P ) c F }, <strong>et</strong> soit x P P , x P , x F , x A = 0 le nombre esperé <strong><strong>de</strong>s</strong>pas jusq’á l’arrêt, conditionné par ces états initiaux.Rq : La somme <strong><strong>de</strong>s</strong> probas <strong>de</strong> tous <strong>les</strong> états est : ppq + pq + q 2 + p(1 − pq) = p + q = 1,donc il s’agit⎛vraiment⎞d’une <strong>de</strong>composition <strong>de</strong> l’espace <strong><strong>de</strong>s</strong> états.q p 0Soit Q = ⎝q 0 p⎠. <strong>Les</strong> trois inconnues v = (x F , x P , x P P ) satisfont (Q−I)v +1 = 0.0 0 pLa réponse estx P P = q −1 , x P = q −1 + p −2 , x F = 1p 2 qExamen <strong>de</strong> processus stochastiques 17 Juin 2010Tous <strong>les</strong> documents d’ai<strong>de</strong> sont interdits1. a) Calculer <strong>les</strong> probabilités <strong>de</strong> bonheur p x = P x [T B < T 0 ] pour une marche simp<strong>les</strong>ymm<strong>et</strong>rique X t = x + ∑ ti=1 Z t, sur [1, 2, ..., B − 1], (avec p 1 = 1 = p 2 −1) absorbée en 0<strong>et</strong> B.141


) Soit ˜T z = inf[t > 0 : X t = z] le temps <strong>du</strong> premier ”r<strong>et</strong>our” en z ( en excluantt = 0).Calculer <strong>les</strong> probabilités <strong>de</strong> r<strong>et</strong>our pour z ∈ [1, B − 1], définies par p z = P z [ ˜T z 0. b) Calculer <strong>les</strong> probabilités <strong>de</strong> ruine ψ x , x ∈ N.c) Demontrer la positivité <strong>du</strong> résultat.d) Calculer l’espérance <strong>du</strong> temps <strong>de</strong> ruine pour la marche ”renversée”, avec la distribution<strong>de</strong> chaque pas Z t donnée par : { p −1 = 3, p 4 1 = 1 , p }12 2 = 1 6e) Calculer l’espérance <strong>du</strong> temps <strong>de</strong> ruine pour la marche initiale, en supposant quece temps est fini (en conditionnant sur le cas où la ruine arrive).Solutions :1. b) p z = P z [ ˜T z < min[T 0 , T B ]] = (f 1 (z − 1) + f 2 (z + 1)/2 = 2 − 1/z − 1/(B − z), oùf 1 (x) = x z , f 2(x) = B−xB−z .2. a) L’espérance <strong><strong>de</strong>s</strong> sinistres est m 1 = 2 9 <strong>et</strong> le taux <strong>de</strong> profit p = 1 9 .b) <strong>Les</strong> probabilités <strong>de</strong> ruine sont ψ(u) = ( − 1 3) nA(1) +( 23) nA(2), avec A ={ 19 , 8 9}.142


Examen <strong>de</strong> processus <strong>de</strong> Markov, 12 Mai 2011Tous <strong>les</strong> documents d’ai<strong>de</strong> sont interdits1. Soit X t = x + ∑ ti=1 Z t une marche aléatoire sur <strong>les</strong> nombres naturels, avec la distribution<strong>de</strong> chaque pas Z t donnée par p k = P [Z t = k], avec : { p 1 = 3, p 4 −1 = 1 , p 12 −2 = 6} 1 .(a) Vérifier si E[Z t ] > 0.(b) Calculer <strong>les</strong> probabilités <strong>de</strong> ruine ψ x , x ∈ N.(c) Calculer l’espérance <strong>du</strong> temps <strong>de</strong> ruine pour la marche ”renversée”, avec la distribution<strong>de</strong> chaque pas Z t donnée par : { p −1 = 3, p 4 1 = 1 , p }12 2 = 1 62. Soit X t une file M(λ)/M(µ)/1.(a) Donnez la matrice génératrice G pour le processus X t .(b) Indiquer <strong>les</strong> valeurs <strong><strong>de</strong>s</strong> probabilités p <strong>et</strong> q pour que le nombre <strong>de</strong> clients augmente/diminue,au moment <strong>du</strong> premier saut à partir d’un état n ≥ 0.(c) Calculez la distribution stationnaire <strong>de</strong> X t .(d) Calculez l’ésperance t i = E i [T 0 ] en sortant <strong>de</strong> i ≥ 1 <strong>du</strong> temps T 0 jusqu’à lapremière arrivée en 0 en utilisant le système <strong>de</strong> conditionnement 1+ ∑ j G(i, j)t j =0, ∀i ≥ 1.(e) Calculez l’ésperance en sortant <strong>de</strong> 0 <strong>du</strong> temps ˜T 0 jusqu’au premier r<strong>et</strong>our en 0.(f) Calculez l’ésperance t π,0 = E π [T 0 ] <strong>du</strong> temps stationnaire jusqu’à la première arrivéeen 0 (i.e. avec la distribution initiale stationnaire π).3. Soit X t la longueur <strong>de</strong> la file d’attente avec s serveurs qui prennent chacun <strong><strong>de</strong>s</strong> tempsexponentiel<strong>les</strong> <strong>de</strong> paramètre µ pour servir un client. Après avoir servi un client, <strong>les</strong>serveurs prennent <strong><strong>de</strong>s</strong> pauses café à <strong>du</strong>rée exponentielle <strong>de</strong> paramètre ν, <strong>et</strong> en suite ilsapportent un nouveau client, à partir d’un reservoir infini qui ne se vi<strong>de</strong> jamais.Specifier la matrice génératrice <strong>et</strong> calculer la distribution stationnaire <strong>du</strong> nombre <strong><strong>de</strong>s</strong>serveurs qui sont en pause café.143


4. Considérez une particule effectuant une marche aléatoire simple X t , t = 0, 1, 2, ...sur le graphe (A) ci-<strong><strong>de</strong>s</strong>sous : i.e. à chaque moment t = 1, 2, ..., la particule se déplacevers l’un <strong>de</strong> ses voisins sur le graphe à sa position actuelle, avec la même probabilitépour chaque choix.(A)(B)112 32 3005454(a) Calculer :<strong>Les</strong> probabilités stationnaires <strong>de</strong> chaque noeud. Indication : On peut utiliser <strong>les</strong>èquations d’équilibre d<strong>et</strong>aillé.(b)À un moment donné, le passage sur certaines arrêts <strong>du</strong> graphe <strong>de</strong>vient impossible,ou possible seulement dans une direction, comme indiqué par <strong><strong>de</strong>s</strong> flèches dansle graphe (B). Plus précisement, la particule continue <strong>de</strong> choisir <strong><strong>de</strong>s</strong> <strong><strong>de</strong>s</strong>tinationssuivant le graphe (A) (”aveuglement”), mais <strong>les</strong> choix qui ne sont plus disponib<strong>les</strong>résultent dans un pas annulé, donc sur place.i. Donnez la matrice <strong>de</strong> transition <strong>de</strong> la marche.ii. I<strong>de</strong>ntifiez <strong>les</strong> classes <strong>de</strong> la chaîne, <strong>et</strong> classifiez <strong>les</strong> en récurrentes <strong>et</strong> transitoires.iii. Trouvez la distribution stationnaire <strong>de</strong> chaque classe récurrente.iv. Est-ce que la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapesP n existe ? Le cas écheant, trouvez-la.144


Solutions :1. a) L’espérance <strong><strong>de</strong>s</strong> increments est m 1 = 5 12 .b) <strong>Les</strong> probabilités <strong>de</strong> ruine sont ψ(u) = ( − 1 3) nA(1) +( 23) nA(2), avec A ={ 19 , 8 9}.145

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!