17.07.2015 Views

Chaˆınes et processus de Markov. Part 1 Table des mati`eres

Chaˆınes et processus de Markov. Part 1 Table des mati`eres

Chaˆınes et processus de Markov. Part 1 Table des mati`eres

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

7 Analyse spectrale <strong>et</strong> comportement limite <strong>de</strong> chaînes <strong>de</strong> <strong>Markov</strong> 697.1 *Le théorème <strong>de</strong> Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . 697.2 Le comportement limite <strong>de</strong>s chaînes, à partir <strong>de</strong> la représentation spectrale . . . . . 707.3 L’existence <strong>de</strong> la matrice <strong>de</strong>s distributions à la longue P . . . . . . . . . . . . . . . . 727.4 Un exemple <strong>de</strong> chaîne non-ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . 747.5 La structure <strong>de</strong> la matrice <strong>de</strong> distributions a la longue P = lim n→∞ P n (i, j) . . . . . 777.5.1 La distribution limite dans le cas faiblement ergodique . . . . . . . . . . . . . 787.5.2 La distribution limite dans le cas purement absorbant . . . . . . . . . . . . . 797.5.3 La distribution limite dans le cas général . . . . . . . . . . . . . . . . . . . . 807.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 837.7 Exercices : TD 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 867.8 Controle continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 898 Examens d’entraînement 938.1 Examen d’entraînement 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 938.2 Examen d’entraînement 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 969 Examen d’entraînement 993


pprppFig. 1 – p,r sont les probabilités que les composantes fonctionnent1.3 Conditionnement par les valeurs <strong>de</strong>s variables continuesPROBABILITE ET ESPERANCE CONDITIONNELLE PAR RAPPORTA UN EVENEMENTDéfinition 1.1 Soit B un ensemble avec mesure positive dans un espace probabilisé (Ω, A, P ) .a) Pour tout ensemble A on appelle probablite conditionnelle <strong>de</strong> A en sachantB lafractionP (A ∩ B)P (A | B) =P (B)b) Pour toute variable aléatoire réelle intégrable X définie sur (Ω, A, P ) on appelleespérance conditionnelle en sachantB la moyenne pon<strong>de</strong>reE (Y | B) = 1 ∫Y dP = 1 ∫(Y 1 B )dPP (B)P (B)BL’i<strong>de</strong>e est claire : on “j<strong>et</strong>te” la partie <strong>de</strong> l’espace en <strong>de</strong>hors <strong>de</strong> B, on tiens conte seulement<strong>de</strong> la partie contenue en B.Finalement, avec X continu ça <strong>de</strong>vienne :∫P (A) = P (A | X = x) f X (x)dxxoû f X (x) dènote la fonction <strong>de</strong>nsitè <strong>de</strong> la variable X. Un exemple ici est la loi qui exprimela <strong>de</strong>nsite marginale comme une integrale <strong>de</strong> la <strong>de</strong>nsite conjointe :∫∫f Y (y) = f (X,Y ) (x, y)dx = f (Y |X) (y/x)f X (x)dxxLes lois PT <strong>et</strong> ET ont aussi <strong>de</strong>s versions pour le cas quand on conditionne sur les valeursprises par une variable discrète ou continue.6


Voir TP1 <strong>de</strong> Belisle, Exercice 2.EY = ∑ E(Y | X = x i ) P (X = x i )i∫EY = E(Y | X = x) f X (x)dxx1.4 Exercices1. On j<strong>et</strong>e trois monnaies <strong>de</strong> 10c, 20c, <strong>et</strong> 50c respectivement. Soît Y la somme <strong>de</strong>s monnaiestombées face. a) Quelle est l’espèrance <strong>de</strong> Y ? (40c) b) Quelle est l’espèrance <strong>de</strong>Y , en sachant que le nombre N <strong>de</strong>s monnaies tombées face est <strong>de</strong>ux ? (160/3 = 53.33)2. Une examen se présente sous la forme d’un questionnaire à choix multiples (Q.C.M.)comportant K = 20 questions. Pour chacune <strong>de</strong>s questions, il est proposé 4 réponsesdont une <strong>et</strong> une seule est bonne. Le correcteur compte 1 point pour une réponse juste<strong>et</strong> 0 en cas <strong>de</strong> mauvaise réponse. Un candidat se présente en n’ayant appris rien. Ilreçoit une note N egale au nombre <strong>de</strong>s questions auquelles il respond correctement(par chance).a) Déterminer la loi <strong>de</strong> sa note N.b) Calculer l’espérance mathématique <strong>et</strong> la variance <strong>de</strong> N.c) Rép<strong>et</strong>er les mêmes questions, si K est une variable aleatoire <strong>de</strong> loi <strong>de</strong> Poisson <strong>de</strong>paramètre λ = 20.3. On dispose d’un dé équilibré <strong>et</strong> d’une pièce <strong>de</strong> monnaie qui tombe sur pile avec uneprobabilité p = 1/3. On lance le dé une fois puis on lance la pièce un nombre <strong>de</strong> foiségal au chiffre obtenu avec le dé.(a) Si le dé est tombé sur le chiffre k, quelle est la probabilité <strong>de</strong> n’obtenir que <strong>de</strong>sfaces avec la pièce ? D’obtenir au moins un pile ? (il s’agit donc <strong>de</strong> probabilitésconditionnellement au chiffre k obtenu avec le dé).(b) Utiliser la formule <strong>de</strong>s probabilités totales pour déduire <strong>de</strong> a) la probabilité (nonconditionnelle) d’obtenir au moins un pile.(c) L’ésperance du nombre total <strong>de</strong>s piles.(a) Quelle est la loi <strong>de</strong> Z = X + Y ?(b) Pout tout entier n ≥ 0, déterminer la loi conditionelle <strong>de</strong> X sachant que Z =X + Y = n.(c) Déterminer E (X | X + Y ) .4. Trouver : a) la distribution du minimum <strong>de</strong> n variables exponentielles. b) la distributiondu maximum <strong>de</strong> n variables exponentielles avec paramètres egales. c) la distributiondu maximum <strong>de</strong> 2 variables exponentielles avec paramètres differents.7


5. Une banque a <strong>de</strong>ux caissières. Trois personnes (A,B, <strong>et</strong> C) entrent en même temps ; A<strong>et</strong> B vont directement aux <strong>de</strong>ux caissières libres <strong>et</strong> C attend.Quelle est la probabilité que A soit toujours dans la banque quand les <strong>de</strong>ux autres sontpartis, dans les trois cas suivants :(a) Les ”temps <strong>de</strong> service” sont exactement 2 mn pour les <strong>de</strong>ux caissières.(b) Pour les <strong>de</strong>ux caissières, ce temps est 1,2, ou 3 mn, avec probabilités 1/3 pourchaque cas.(c) Les ”temps <strong>de</strong> service” sont exponentielles a paramètres µ 1 , µ 2 .6. On considère <strong>de</strong>ux variables aléatoires réelles X <strong>et</strong> Y indépendantes <strong>de</strong> loi <strong>de</strong> Poisson<strong>de</strong> paramètres λ > 0 <strong>et</strong> µ > 0 respectivement.8


2 Marches aléatoires <strong>et</strong> récurrences2.1 Prélu<strong>de</strong> : la métho<strong>de</strong> du conditionnement sur le premier pasExercice 2.1 On lance une monnaie biaisée, avec la probabilité <strong>de</strong> sortir face égale à q <strong>et</strong>celle <strong>de</strong> sortir pile égale à p = 1 − q, jusqu’à ce qu’on obtient une pile. Soit Ñ le nombre <strong>de</strong>faces précedant la première pile (Ñ = 0, 1, 2, ...)1. Quelle est la valeur <strong>de</strong> Ñ si X 1...X k−1 = F <strong>et</strong> X k = P ?2. Quelle est la loi (distribution) <strong>de</strong> Ñ ?3. Trouvez l’espérance ¯N, par la métho<strong>de</strong> du conditionnement.4. (*) Trouvez l’espérance ¯N, par la métho<strong>de</strong> <strong>de</strong>s fonctions génératrices, i.e : calculer lafonction génératrice <strong>de</strong>s probabilités p ∗ (z) = ∑ ∞k=0 p kz k , en énumérant l’ensemble G<strong>de</strong> tous les cas possibles, <strong>et</strong> en observant une relation <strong>de</strong> recurrence qu’il satisfait. Ensuite, calculez p ′ (1).5. Calculez p k , en <strong>de</strong>veloppant la fonction génératrice en somme <strong>de</strong>s puissances.6. (*) Répéter l’exercice antérieur, en prenant pour Ñ le nombre <strong>de</strong> pas jusqu’à ce qu’onobtient <strong>de</strong>ux piles consécutives.Solutions : 2. On a à faire avec une distribution bien connue (la géométrique ! !).3. Il est quand mêmem intéressant <strong>de</strong> remarquer que l’espérance peut aussi se calculerpar un conditionnement sur le premier pas :¯N = p × 0 + q(1 + ¯N) ⇐⇒ ¯N = q pNt : Pour l’autre définition d’une variable g’eométrique N = Ñ + 1 ∈ {1, 2, ...} (enincluant la première face), on obtient directement EN = E(Ñ + 1) = 1.pOn peut aussi conditionner sur le premier pas :n = E[N|X 0 = 1] = P[X 1 = 2]E[N|{X 1 = 2, X 0 = 1}] + P[X 1 = 1]E[N|{X 1 = 1, X 0 = 1}]= P[X 1 = 2]1 + P[X 1 = 1](1 + E[N|{X 0 = 1}]) = p ∗ 1 + q ∗ (1 + n) = 1 + q ∗ n (1)Note : La <strong>de</strong>uxième ligne est une conséquence <strong>de</strong> la décomposition ”premier pas + lereste”N = 1 + N ′Après ça, on utilise le fait que les distributions conditionnées par départ du ”reste” N ′ |X 1 = isont connues :9


1. (N ′ |X 1 = 2) ≡ 0 <strong>et</strong>2.L(N ′ |X 1 = 1) = L(N|X 0 = 1)par la propri<strong>et</strong>é <strong>de</strong> <strong>Markov</strong>=oubli du passé, <strong>et</strong> par le fait que la seule difference entreles réalisations possibles <strong>de</strong> N ′ <strong>et</strong> ceux du N <strong>et</strong> le moment ”<strong>de</strong> départ <strong>de</strong> la montre”,qui est indifférent pour une chaîne avec matrice <strong>de</strong> transition stationnaire.4. G = {H, T H, T T H, T T T H, ...} = {H} ∪ T G (2)Remplaçons chaque terme par p nb.H q nb.T z nb.H+nb.T , <strong>et</strong> ajoutons tous les termes. Observonsqu’en rajoutant tous les termes avec nb.H + nb.T = n, on obtient precisement p n z n ,<strong>et</strong> donc la somme totale est la fonction génératrice p(z) = ∑ n p nz n . De l’autre coté, ladécomposition (2) implique p(z) = p + qzp(z), <strong>et</strong> p(z) =p . Finalement, ¯N1−qz = p ′ (1) = q . pp ∗ (z) =p∞1 − qz = p ∑q k z kk=05. En <strong>de</strong>veloppant p n = pq n , n = 0, 1, ..., on trouve la distribution d’une variableg’eométrique (plus gran<strong>de</strong> que 0).Exercice 2.2 Un spéolog est perdu dans une grotte, avec <strong>de</strong>ux sorties U, O, les chemins <strong>de</strong>la quelle forment le graphe papillon ci-<strong>de</strong>ssous. Il se trouve à present dans le point A, <strong>et</strong> àcause <strong>de</strong> la manque <strong>de</strong> visibilité, est obligé a faire une marche aléatoire entre les somm<strong>et</strong>sdu papillon.a) Calculez l’espérance du temps qu’il prendra à sortir, en sachant que les cheminsmenant à U prennent <strong>de</strong>ux heures, ceux menant à O trois heures, <strong>et</strong> les autres 5 heures.b) La grotte contient aussi un génie, qui frappe le spéolog <strong>de</strong>s nb. aléatoires <strong>de</strong>s coups,avec esperance 3 sur les chemins menant à U, 5 pour ceux menant à O, <strong>et</strong> 2 pour les autreschemins. Calculez l’espérance du nombre <strong>de</strong>s coups que le spéolog prendra avant <strong>de</strong> sortir.2.2 Marches aléatoiresDéfinition 2.1 Marches aléatoiresSoit Z = (Z n ) n∈Nune suite <strong>de</strong> variables aléatoires i.i.d (i.e. indépendantes <strong>et</strong> <strong>de</strong> mêmeloi), à valeurs dans un groupe G, <strong>et</strong> soit X 0 ∈ G indépendant <strong>de</strong> Z.Le <strong>processus</strong> X n ∈ G, n = 0, 1, ... donné par la somme <strong>de</strong> ces variablesX n = X 0 + Z 1 + Z 2 + · · · + Z n , n ∈ N (3)10


OUBAFig. 2 – Marche aléatoire simple sur le graphe papillonCs’appelle marche aléatoire. Comme alternative, la marche aléatoire peut-être <strong>de</strong>finie récursivementpar la récurrenceX n = X n−1 + Z n , n = 1, ... (4)Motivation : Les marches aléatoires sont parmi les <strong>processus</strong> stochastiques les plusutiles (par exemple en physique, mathématiques financières, files d’attente, statistique, <strong>et</strong>c...).Ils peuvent servir comme <strong>de</strong>s excellents exemples introductifs, qui motiveront un étu<strong>de</strong> plusapprofondi <strong>de</strong>s <strong>processus</strong> stochastiques. Finalement, ils sont aussi parmi les <strong>processus</strong> lesmeilleurs compris, car ils ramènent souvent à <strong>de</strong>s solutions analytiques, ce qui ren<strong>de</strong>nt lesrésultats plus transparents.Exemple : Les marches aléatoires sur ZDéfinition 2.2 Marches aléatoires sur Z.Soit Z = (Z n ) n∈Nune suite <strong>de</strong> variables aléatoires i.i.d (i.e. indépendantes <strong>et</strong> <strong>de</strong> mêmeloi), à valeurs en Z, ayant une distribution discrète p = (p i , i ∈ Z), <strong>et</strong> soit X 0 ∈ Zindépendant <strong>de</strong> Z <strong>et</strong> ayant aussi une distribution discrète.a) Le <strong>processus</strong> X n ∈ Z, n = 0, 1, ... donné par la somme <strong>de</strong> ces variablesX n = X 0 + Z 1 + Z 2 + · · · + Z n , n ∈ N (5)s’appelle marche aléatoire. Comme alternative, la marche aléatoire peut-être <strong>de</strong>finie récursivementpar la récurrenceX n = X n−1 + Z n , n = 1, ... (6)b) Si en plus |Z n | = 1, i.e. p i ≠ 0 ssi i = ±1, <strong>et</strong> le <strong>processus</strong> (20) est appelé marchealéatoire simple. On <strong>de</strong>notera p 1 par p <strong>et</strong> <strong>de</strong> lors la distribution <strong>de</strong> Z n est <strong>de</strong> la formepδ 1 + (1 − p) δ −1 , i.e. P [Z n = 1] = p <strong>et</strong> P [Z n = −1] = 1 − p avec 0 < p < 1.Si p = q = .5 on parle d’une marche aléatoire symm<strong>et</strong>rique, <strong>et</strong> avec p ≠ q on parled’une marche aléatoire biaisée.11


2.3 Moments <strong>et</strong> cumulantsExercice 2.3 Les moments <strong>et</strong> cumulants <strong>de</strong> la marche simple. Soit X 0 = 0 ∈ N lecapital initial d’un joueur. Au temps n = 1, 2, ..., le joueur gagnera Z n = 1 avec probabilité p<strong>et</strong> per<strong>de</strong>ra Z n = −1 avec probabilité 1 − p, où 0 < p < 1. Soit X n = X 0 + Z 1 + Z 2 + · · · + Z nson capital au temps n.Calculez :1. L’esperance du son gain e n = EX n .2. La variance du son gain v n = Var X n .3. La fonction génératrice <strong>de</strong>s moments M(u, n) = Ee uXn .4. La fonction génératrice <strong>de</strong>s cumulants κ(u, n) = log(Ee uXn ).Notes : 1) Il est clair que ces propriétés <strong>de</strong> linéarité (<strong>de</strong> l’espérance , <strong>de</strong> la variance,<strong>et</strong> <strong>de</strong> la fonction génératrice <strong>de</strong>s cumulants ), sont vraies pour chaque marche aléatoire.2) La connaissance <strong>de</strong> la distribution ou <strong>de</strong> la fonction génératrice <strong>de</strong>s moments d’unevariable X sont typiquement equivalents. Mais, pour une somme ∑ ni=1 Z i <strong>de</strong>s v.a. i.i.d.,pendant que la comme distribution est la n-ième convolution p ∗,n <strong>de</strong> la p distribution <strong>de</strong> Z i ,la fonction génératrice <strong>de</strong>s moments Ee θ P ni=1 Z iest beaucoup plus simple à obtenir (èatnt lan-i `me puissance <strong>de</strong> la fonction génératrice <strong>de</strong>s moments Ee θZ 1).Exercice 2.4 Soit m n , n = 0, 1, 2, ... les moments d’une va X, soit κ X (u) = log M X (u) =log( ∑ u nnm n! n) = ∑ u nnc n! X(n) la fonction génératrice <strong>de</strong>s cumulants, <strong>et</strong> soit C X (n) = ∂n κ(u)(∂u) n u=0les cumulants.a) Montrez, en utilisant un logiciel symbolyque, que ∀X, c x (0) = 0, c X (1) = m 1 , c X (2) =Var (X), c X (3) = m 3 − 3m 1 m 3 + 2m 3 1 .b) Montrez, en utilisant un logiciel symbolyque, que ∀X, m 2 = c(2) + c 2 1, m 3 = c(1) 3 +3c(1)c(2) + c 3 .Nt : 1) Le cumulant d’un ordre donné est un polynome dans les moments d’ordre plusp<strong>et</strong>it ou egale, <strong>et</strong> reciproquement.2) Les coefficients <strong>de</strong> l’expansion <strong>de</strong>s moments en fonction <strong>de</strong>s cumulants sont donnépar <strong>de</strong>s nombres <strong>de</strong>s partitions.3) Les cumulants d’une variable centré (m 1 = 0) coinci<strong>de</strong> avec les moments jusqu’autroisième ordre. C’est le quatrième cumulant, la ”kurtosis”, donné dans le cas centré parc(4) = m 4 − 3m 2 2 , qui joue un role important dans certaines tests statistiques (comme <strong>de</strong>nonnormalité, par exemple).12


Exercice 2.5 Demontrer le théorème <strong>de</strong> limite centrale :n∑(Z i − EZ i ) = N (0,Var Z)(d)limn→∞ n−1/2où lim (d) <strong>de</strong>note la convergence <strong>de</strong>s distributions, en utilisant :i=11. le fait que la convergence <strong>de</strong>s distributions est equivalente a celle <strong>de</strong>s fonctions génératrice<strong>de</strong>s moments, <strong>et</strong>2. le fait que Ee uN 0,v= e vu2 /2 , i.e. la variable normale a tous les cumulants d’ordre plusgrand que trois nuls.Exercice 2.6 Pour la marche simple, calculez1. Le premier, <strong>de</strong>uxième <strong>et</strong> troisième cumulants κ i (n), i = 1, 2, 3 <strong>de</strong> X n , i.e. les premierstrois coefficients dans l’expansion κ(u, n) = ∑ i κ i(n)u i en puissances <strong>de</strong> u.2. Le <strong>de</strong>uxième moment <strong>de</strong> X n . Quelle est la particularité du cas p = 1/2 ?3. Le troisième moment <strong>de</strong> X n .2.4 Ruine du joueur pour la marche aléatoire simpleNous étudiérons maintenant un problème concernant les probabilités d’absorbtion dansun ensemble d’arrêt <strong>et</strong> d’autres problèmes similaires, les solutions <strong>de</strong>s quelles sont disponiblesexplicitement dans le cas <strong>de</strong> la marche aléatoire simple unidimensionnelle.Exemple 2.1 La ruine du joueur <strong>et</strong> autres ”problèmes <strong>de</strong> Dirichl<strong>et</strong>” pour lamarche aléatoire simple. Considérons la marche aléatoire simpleX n = X 0 + Z 1 + Z 2 + · · · + Z n , X n ∈ Zavec (Z n ) une suite <strong>de</strong> variables aléatoires réelles indépendantes <strong>de</strong> même loi P [Z n = ±1] =p, q. Nous étudierons la marche jusqu’au ”temps d’arrêt/sortie” T = min[T 0 , T B ] quand leprocess sort <strong>de</strong> l’interval [0, B] pour B donné, i.e. on prend 0 <strong>et</strong> B comme états absorbants.On appelle ce problème la ruine du joueur, a cause <strong>de</strong> l’interpr<strong>et</strong>ation d’un joueur quis’engage dans une série <strong>de</strong> parties (indépendantes) à un jeu où à l’issue <strong>de</strong> chaque partieil gagne 1F avec une probabilité p <strong>et</strong> perd 1F avec une probabilité q = 1 − p, <strong>et</strong> qui déci<strong>de</strong><strong>de</strong> s’arrêter <strong>de</strong> jouer dès qu’il aura B francs en poche, ou dès qu’il n’a plus d’argent. Pourtout n ∈ N, on note X n la fortune du joueur au bout <strong>de</strong> n parties, <strong>et</strong> X 0 = i représentesa fortune à l’entrée dans le Casino. On dénotera par E i l’esperance en commençant <strong>de</strong> i(conditionnant sur X 0 = i), <strong>et</strong> on <strong>de</strong>signe par E l’événement que le joueur gagne, i.e.E = {x T = B} = [∃n ∈ N tel que X n = B, X i > 0, i = 1, ..., n − 1] .Pour tout i <strong>de</strong> {0, ..., B}, on pose :b i = P (E | [X 0 = i]) .13


1. Calculer b 0 <strong>et</strong> b B .2. Montrer que :∀ i ∈ {1, ..., B − 1} , b i = p b i+1 + q b i−1 (on rappelle que q = 1 − p).3. Obtener une expression explicite <strong>de</strong> b i pour tout i <strong>de</strong> {1, ..., B} . Indication : Remarquezque la solution satisfaisant b 0 = 0 est <strong>de</strong> la forme :{k (1 − (qb i =p )i ) quand p ≠ qk iquand p = q<strong>et</strong> déterminer k tq la condition frontière <strong>de</strong> b B soit satisfaite.4. Pour tout i <strong>de</strong> {0, ..., B} , on pose a i = P (F | [X 0 = i]) où F est l’événement ”le joueurrepart ruiné” . En procédant comme auparavant, montrer que :⎧⎪⎨a i =⎪⎩( q p) i −( q p) B1−( q p) B si p ≠ 1 2B−iB si p = 1 2Pour tout i <strong>de</strong> {0, ..., B} , calculer a i + b i . Que peut-on en déduire ?Calculez les probabilités <strong>de</strong> ruine quand B → ∞, pour p > q <strong>et</strong> pour p ≤ q. Expliquezla rélation avec le comportement <strong>de</strong> X t , t → ∞.5. Obtenez un système d’équations pour l’espérance du gain final f i = E i X T . Calculezc<strong>et</strong>te fonction pour p = q.6. Obtenez un système d’équations pour l’espérance du temps <strong>de</strong> jeu : t i = E i T . Calculezc<strong>et</strong>te fonction, pour p = q, <strong>et</strong> pour p < q, quand B → ∞.7. Obtenez un système d’équations pour l’espérance du ”coût cumulé d’inventoire” c i =E i∑ T −1t=0 X t. Calculez c<strong>et</strong>te fonction, pour p = q, <strong>et</strong> pour p < q, quand B → ∞.8. Obtenez un système d’équations pour w i = E i a T = ∑ k=0 P i[T = k]a k (qui est lafonction génératrice <strong>de</strong>s probabilités P i [T = k]). Calculez c<strong>et</strong>te fonction, pour p ≠ q.9. Obtenez les équations <strong>de</strong> récurrence <strong>et</strong> les conditions frontière satisfaites par u x =E x a T g(X T ), a ∈ (0, 1) <strong>et</strong> par v x = E x [a T g(X T ) + ∑ T −1t=0 h(X t)], a ∈ (0, 1).On resoudra ceci en utilisant la métho<strong>de</strong> du conditionnement sur le premier pas Z 1 ,l’idée <strong>de</strong> quelle est d’obtenir <strong>de</strong>s relations <strong>de</strong> récurrence qui lient les valeurs <strong>de</strong> l’espéranceconditionnée à partir <strong>de</strong> tous les points <strong>de</strong> départ possibles.2.5 L’operateur associé à la marche simple <strong>et</strong> ses fonctions harmoniquesNous verrons, en examinant les questions 2)-8) <strong>de</strong> c<strong>et</strong> exercice, qu’ils utilise toutes lemême opérateur(Gf) n := (P − I)(f) n = p f n+1 + q f n−1 − f n (7)la seule difference étant dans les conditions frontière <strong>et</strong> dans la partie nonhomogène. En plus,ils se regrouperont en <strong>de</strong>ux types <strong>de</strong> questions :14


1. ”Gain final esperé”, satisfaisant :f n = E n [g(X T )] = pf n+1 + qf n−1 ⇐⇒ (Gf) n = 0,F (0) = g(0), F (B) = g(B)2. ”Coût total accumulé esperé”∑T −1f n = E n [ h(X i )] = h(n) + pf n+1 + qf n−1 ⇐⇒ (Gf) n = 0, f(0) = 0, f(B) = 0Solution :1. b 0 = 0, b B = 102. Gain final esperé, g(x) = 1 x=B .En conditionnant, on trouve :b n = P n [X(T ) = B]= p P n [X(T ) = B/X(1) = n + 1] + q P n [X(T ) = B/X(1) = n − 1]= p b n+1 + q n−1 1 ≤ n ≤ B − 1carP n [X(T ) = B/X(1) = n ± 1] = P[X(T ) = B/X(0) = n, X(1) = n ± 1] =P[X(T ) = B/X(1) = n ± 1] = P[X(T ) = B/X(0) = n ± 1] = b n±1en utilisant la propri<strong>et</strong>é <strong>de</strong> <strong>Markov</strong> <strong>et</strong> l’homogeneité.3. Quand p = q = 1/2, b x = P x [X(T ) = B] satisfait :b n = b n+12 + b n−12b B = 1b 0 = 0for any 1 ≤ n ≤ B − 1La métho<strong>de</strong> <strong>de</strong> résolution <strong>de</strong>s équations <strong>de</strong> récurrence homogènes à coefficients constantscommence en cherchant <strong>de</strong>s solutions <strong>de</strong> la forme b n = r n . Si les racines <strong>de</strong> l’équationauxiliaire sont distinctes, la solution générale est :b n = k 1 r n 1 + k 2 r n 2où k 1 , k 2 sont déterminés en utilisant les conditions frontière.Ici, cherchant <strong>de</strong>s solutions puissances r x ramène à l’équation r 2 − 2r + 1 = 0 à <strong>de</strong>uxracines i<strong>de</strong>ntiques r 1,2 = 1. La solution générale est b x = A + Bx. Les conditionsfrontière donnent b x = x B .Solution finale si p ≠ q : b n = 1−(q/p)n1−(q/p) B .15


4. a i +b i = 1, <strong>et</strong> donc la marche sera eventuellement absorbé dans une <strong>de</strong>s <strong>de</strong>ux frontiéres(elle ne peut pas rester à l’intérieur indéfinimment).B−nPour p = q, lim B→∞ a n = lim B→∞ = 1. Autrement,B{lim a (q/p) n − (q/p) B (q/p) n , q < pn = lim=B→∞ B→∞ 1 − (q/p) B 1, q > p.5. f x = E x [X(T )] (valeur finale ésperée) satisfait Gf(x) = 0, f(0) = 0, f(B) = B. Pourp = q, la solution f x = x est obtenue comme ci-<strong>de</strong>ssus :f x = f x+12f B = Bf 0 = 0+ f x−12for any 1 ≤ x ≤ B − 1(C’est aussi une fonction ”harmonique”, mais avec conditions frontière différentes.)6. t x = E x [T ] (temps <strong>de</strong> sortie ésperé) est un coût total accumulé esperé (obtenu enprenant h(x) = 1), qui satisfait le système inhomogène Gt(x) + 1 = 0, t(0) = 0, t(B) =0.Pour p = qt x = t x+12 + t x−12t B = 0t 0 = 0+ 1 for any 1 ≤ x ≤ B − 1La solution d’une équation nonhomogène est donnée part x = t p (x) + h(x)où t p (x) est une solution particulière <strong>et</strong> h(x) est la solution générale <strong>de</strong> l’équationhomogène. Commençons par l’équation homogène.La solution générale homogène (”fonction harmonique”) h(x) = A + Bx pour c<strong>et</strong>opérateur a été déjà obtenue ci-<strong>de</strong>ssus.Nous aimerions maintenant trouver une solution particulière t p (x) <strong>de</strong> l’équation Gt p (x) =−1 <strong>de</strong> la même forme que la partie nonhomogène −1 <strong>de</strong> l’équation, donc t p (x) = C;mais, comme les constantes, <strong>et</strong> puis aussi les fonctions linéaires vérifient l’équationhomogène Gt p (x) = 0, nous <strong>de</strong>vrons modifier <strong>de</strong>ux fois c<strong>et</strong>te forme en multipliant parx, en arrivant donc à t ( x) = Cx 2 . Comme Gx 2 = 2x(p − q) + 1 = 1, on trouve C = −1<strong>et</strong> finalement la solution particulière t p (x) = −x 2 .La solution générale est donc t(x) = −x 2 + A + Bx <strong>et</strong> les conditions frontière ramènentà t x = x(B − x).16


Pour p ≠ qt x = pt x+1 + qt x−1 + 1 for any 1 ≤ x ≤ B − 1t B = 0t 0 = 0La solution generale homogène avec p ≠ q est h(x) = k 1 (q/p) n + k 2 <strong>et</strong> le termenonhomogène 1 sugere une solution particulière constante k, mais comme ça satisfaitl’équation homogène, on modifie à kn. Finalement, k = 1La solution particulière est t p (x) =x ; elle satisfait <strong>de</strong>ja t q−p p(0) = 0. La partie homogèneh(x) = t x − t p (x) <strong>de</strong>vra aussi satisfaire h(0) = 0 <strong>et</strong> donc elle sera <strong>de</strong> la forme h(x) =A˜h(x) où ˜h(x) = ((q/p) x − 1).En <strong>de</strong>mandant que t n =n + q−p A(q/p)n − 1) satisfait la condition frontière t B = 0 ontrouve :t n = t p (n) − t p (B) ˜h(n)˜h(B) = nq − p − B (q/p) n − 1q − p (q/p) B − 1 .{∞si p > qLa limite quand B → ∞ est t n =; on peut aussi obtenir c<strong>et</strong> p (n) =n si p < qq−presultat en utilisant l’approximation détérmiste X n − X 0 ∼ nE(Z 1 ), appellée aussilimite flui<strong>de</strong>.7. c x = E x [ ∑ T −10X(t)] (coût total d’inventaire ésperé) satisfait le système inhomogèneGc(x) + x = 0, c(0) = 0, c(B) = 0.Pour p = q :q−p .c x = c x+12 + c x−12c B = 0c 0 = 0+ x for any 1 ≤ x ≤ B − 1Une solution particulière est c p (x) = −x3 . Finalement, on arrive à c(x) = x(B2 −x 2 ).3 3Pour p ≠ q, une solution particulière est c p (x) =x2 (elle satisfait <strong>de</strong>ja c 2(q−p) p(0) = 0).La partie homogène satisfaisant h(0) = 0 sera toujours h(x) = A˜h(x) où ˜h(x) =((q/p) x − 1).En <strong>de</strong>mandant que c n = c p (n) + A(q/p) n − 1) satisfait la condition frontière c B = 0 ontrouve :c n = c p (n) − c p (B) ˜h(n)La limite quand B → ∞ est c n ={∞ si p > qc p (n) si p < q˜h(B).17


8. On arrive a w(x) = A 1 z1 x + A 2z2 x, où z i sont les racines <strong>de</strong> pz 2 − a −1 z + q = 0, <strong>et</strong> A isatisfont A 1 z1 B + A 2 z2 B = 1, A 1 + A 2 = 1 <strong>et</strong> w(x) = zx 1 −zx 2 +zx 1 zx 2 (zB−x 1 −z B−x2 )z1 Z−zB 29. On a u x = g(x), pour x ∈ {0, B}, <strong>et</strong> le conditionnement donne la relation : u x =E x [a T g(X τ )] = a(pu x+1 + qu x−1 ).v x = g(x), pour x ∈ {0, B}, <strong>et</strong> le conditionnement donne la relation : v x = a(pv x+1 +qv x−1 ) + h(x).Nous avons vue ici une <strong>de</strong>s idées les plus importantes <strong>de</strong> la modélisation <strong>Markov</strong>ienne: les ésperances, vues comme fonctions <strong>de</strong> l’état initial, satisfont certaineséquations qui font toujours intervenir un opérateur associé fixe, appelégénérateur du <strong>processus</strong>, même que les conditions frontière, termes non-homogènes,<strong>et</strong> d’autre ”d<strong>et</strong>ails” (comme la presence/absence d’une multiple <strong>de</strong> l’operateuri<strong>de</strong>ntité) peuvent varier.Il s’avère que les mêmes èquations décrivent la solution <strong>de</strong>s problèmes analogues pourtoutes les chaîne <strong>de</strong> <strong>Markov</strong> à espace d’états comptable, <strong>et</strong> avec <strong>de</strong>s états absorbants – voirla prochaîne section.Par exemple, pour les chaînes <strong>de</strong> <strong>Markov</strong>, l’operateur associé est G = P − I, où P estla matrice <strong>de</strong> transition, <strong>et</strong> pour le cas particulier d’une marche aléatoire X t = ∑ ti=1 Z i avecp k = P [Z i = k], k ∈ [−c, d] on a encore G = P − I, où P = ∑ k p kF k <strong>et</strong> F est l’operateur d<strong>et</strong>ranslation (F f) k = f k+1 , k ∈ Z.Alors, nous obtendrons <strong>de</strong>s èquations similaires pour les problèmes respectives, juste enremplaçant l’ancien operateur par le nouveau.On recontre la même situation pour toute la classe <strong>de</strong>s <strong>processus</strong> ”<strong>de</strong> <strong>Markov</strong>”, X t ,différents qu’elles soient, vivant sur <strong>de</strong>s espaces S consi<strong>de</strong>rablement plus compliqués, la seuledifference étant que l’operateur G X : F (S)− > F (S) associé a ces <strong>processus</strong> sera pluscompliqué !Par exemple, les problèmes <strong>de</strong> c<strong>et</strong>te section ont aussi <strong>de</strong>s versions à espace d’étatscontinu, obtenu en considérant <strong>de</strong>s marches avec incréments infinitésimaux ɛ, <strong>et</strong> en prenantla limite ɛ → 0. La marche aléatoire <strong>de</strong>vient ainsi un <strong>processus</strong> avec chemins continus, appelémouvement Brownien. Les équations resterons les mêmes, seul l’operateur G changera (dansun operateur differentiel).En conclusions, il existe une correspondance un á un entre les <strong>processus</strong> <strong>de</strong> <strong>Markov</strong> <strong>et</strong>une certaine classe <strong>de</strong>s operateurs d<strong>et</strong>erministes associés ; nous l’appellerons ”Le Dictionnaire”.18


2.6 Problème <strong>de</strong> premier passage sur un domaine semi-bornéSoit ψ n := lim B→∞ a n (B) la probabilité <strong>de</strong> ruine sur [0, ∞). Nous avons <strong>de</strong>ja vu, enpartant <strong>de</strong>s recurrences sur un domaine borné [0, B], que :{(q/p) n , q < pψ n =1, q ≥ p.C<strong>et</strong>te solution peut être trouvée aussi directement, sans passer par la probabilité <strong>de</strong>ruine sur [0, B], en s’appuyant sur <strong>de</strong>s <strong>de</strong>s arguments probabilistes. On remarque d’abordque c<strong>et</strong>te fonction est multplicative en n, i.e. ψ n = ρ n , <strong>et</strong> ensuite on choisit ρ selon la limite<strong>de</strong> X n quand n → ∞.La solution la plus simple est en eff<strong>et</strong> <strong>de</strong> remarquer que l’absence <strong>de</strong>s sauts strictementplus grands que 1 implique une propriété <strong>de</strong> multiplicativité, ce qui impose une solutionpuissance. Mais, bien-sur, c<strong>et</strong>te approche ne peut pas contribuer à l’étu<strong>de</strong> <strong>de</strong>s marches ”nonsimples”dans les <strong>de</strong>ux directions.Examinons maintenant la métho<strong>de</strong> <strong>de</strong> fonctions génératrices (analogues à la transformée<strong>de</strong> Laplace), qui n’est pas réellement necessaire pour la marche simple, mais qui est lamétho<strong>de</strong> la plus puissante pour la resolution <strong>de</strong>s èquations <strong>de</strong> differences (différentielles).On ajoute les équations ψ n = pψ n+1 + qψ n−1 multipliées respectivement par z n , n =1, 2, .. On obtient ainsi une èquation pour la fonction ψ ∗ (z) := ∑ ∞n=1 zn ψ n :où Φ(z) = Ez Z 1= pz −1 + qzDe lors,ψ ∗ (z) = pψ 1Φ(z) − 1ψ ∗ (z) = 11 − z − zpψ 1p + qz 2 − z = p − qz − pzψ 1(1 − z)(p − qz)=p − qz − z(p − q)(1 − z)(p − qz)= pp − qzcar le numerator s’annule en 1 (”métho<strong>de</strong> du noyau”) <strong>et</strong> donc pψ 1 = p − q.De lors, ψ n = (q/p) n .19


2.7 Equations differentielles <strong>et</strong> récurrences linéairesL’étu<strong>de</strong> <strong>de</strong>s marches aleatoires <strong>et</strong> <strong>de</strong>s <strong>processus</strong> <strong>Markov</strong>iens ramène souvent à <strong>de</strong>séquations differentielles ou <strong>de</strong> récurrence linéaires. Le cas <strong>de</strong>s coefficients constants est assezsimple, car toutes les solutions peuvent être construites à partir <strong>de</strong>s solutions basiquesexponentielles e rx .Comme le cas <strong>de</strong>s équations differentielles à coefficients constants est très bien connu,on rappelle ici seulement le cas <strong>de</strong> récurrences linéaires.2.7.1 L’équation <strong>de</strong> récurrence linéaire à coefficients constantsLes <strong>de</strong>ux équations <strong>de</strong> récurrence linéaire <strong>de</strong> <strong>de</strong>uxième ordre ci-<strong>de</strong>ssousau n+2 + bu n+1 + cu n = 0, (8)av n+2 + bv n+1 + cv n = d n , (9)sont appelées homogène <strong>et</strong> nonhomogène respectivement.L’équation homogèneSi les coefficients a, b <strong>et</strong> c sont constants, on sait qu’ils existent <strong>de</strong>s solutions <strong>de</strong> la formeu n = x n pour tout n ( fonctions exponentielles ). Pour trouver x on remplace x n en (8) <strong>et</strong>on trouve que x doit satisfaire l’équation auxiliaire :ax 2 + bx + c = 0. (10)Soient x 1 <strong>et</strong> x 2 les <strong>de</strong>ux racines <strong>de</strong> l’équation <strong>de</strong> <strong>de</strong>uxième <strong>de</strong>gré (10). On en déduit que lasolution générale <strong>de</strong> (8) est toujours <strong>de</strong> la forme1. Si x 1 ≠ x 2u n = Ax n 1 + Bx n 2 ,2. Si x 1 = x 2 ,u n = Ax n 1 + Bnx n 1 ,avec <strong>de</strong>s constantes A <strong>et</strong> B.Dans les <strong>de</strong>ux cas A <strong>et</strong> B doivent être déterminées à partir <strong>de</strong>s conditions supplémentairessur la frontière.L’équation nonhomogèneLa résolution du problème nonhomogène (9) comporte quatre pas :20


1. Trouver un basis pour l’espace vectoriel <strong>de</strong>s solutions <strong>de</strong> l’équation auxiliaire homogène(8), <strong>et</strong> donc la solution générale u n pour c<strong>et</strong>te équation.2. Déterminer une solution particulière <strong>de</strong> (9), par exemple en utilisant une expression”essai” ṽ n qui a la même forme générale que le membre droit d n ,, mais <strong>de</strong>s coefficientsnon-déterminés. Par exemple, si d n est un polynôme d’ordre k, on essaie un polynômegénéral d’ordre k.3. Néanmoins, si votre expression d’essai a <strong>de</strong>s termes qui sont inclus dans l’espace vectoriel<strong>de</strong>s solutions <strong>de</strong> l’équation homogène obtenue au pas 1 (<strong>et</strong> donc qui vont êtreannihilés par l’operateur <strong>de</strong>s différences), il faut multiplier l’expression d’essai parn, n 2 , ... jusqu’à ce qu’il n’y a plus <strong>de</strong>s termes inclus dans c<strong>et</strong>’espace .4. Aprés la <strong>de</strong>cision <strong>de</strong> la forme d’essai, on trouvent les valeurs <strong>de</strong>s coefficients <strong>de</strong> ṽ n àpartir <strong>de</strong> (9), par la métho<strong>de</strong> <strong>de</strong>s coefficients non-déterminés.5. La solution générale <strong>de</strong> (9) est <strong>de</strong> la forme v n = ṽ n + u n . On trouve finalement lescoeficients encore non déterminés en u n , en utilisant les conditions sur la frontièrepour v n .Exemple 2.2 Obtenez les formules analytiques <strong>de</strong>s suites décrites par les relations <strong>de</strong> récurrenceci-<strong>de</strong>ssous, <strong>et</strong> vérifiez-les en utilisant les premiers termes <strong>de</strong> la suite t 2 , t 3 .1. t i = 2t i−1 + i − 1, t 0 = 02. t i = 2t i−1 + 5 · 2 i , t 0 = 03. t i = 3t i−1 − 2t i−2 + 2, t 0 = 0, t 1 = 24. t i = 2t i−1 − t i−2 + 2, t 0 = 0, t 1 = 2Solution :1. C’est une équation nonhomogène, alors nous aurons :t i = ˜t i + A2 i , ˜t i = c 1 i + c 2 avec c 1 i + c 2 = 2(c 1 i − c 1 + c 2 ) + i − 1<strong>et</strong> alors c 1 = 2c 1 + 1 <strong>et</strong> c 1 = −1c 2 = −2c 1 + 2c 2 − 1 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i2. C’est une équation nonhomogène, alors :t i = ˜t i + A2 i , ˜t i = ci2 iavec ci2 i = 2(c(i − 1)2 i /2) + 52 i<strong>et</strong> alors c = 5, t i = 5i2 i + A2 i <strong>et</strong> finalement,t 0 = = 0 = A <strong>et</strong> A = 0t i = 5i2 i 21


3. C’est une équation <strong>de</strong> différences nonhomogène <strong>et</strong> l’équation quadratique attachée ales racines 1, 2, alors nous aurons :t i = ˜t i + A 1 2 i + A 2 , ˜t i = ci avec ci = 3(ci − c) − 2(ci − 2c) + 2<strong>et</strong> alors c = −2 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i4. C’est une équation <strong>de</strong> différences nonhomogène dont les racines <strong>de</strong> l’équation quadratiqueattachée sont confondues égales à 1 donc nous aurons :t i = ˜t i + A 1 + A 2 i, ˜t i = c 1 i + c 2 avec c 1 i + c 2 = 2(c 1 i − c 1 + c 2 ) + i − 1<strong>et</strong> alors c 1 = 2c 1 + 1 <strong>et</strong> c 1 = −1c 2 = −2c 1 + 2c 2 − 1 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i2.7.2 La métho<strong>de</strong> <strong>de</strong>s fonctions génératricesExercice 2.7 a) Calculez T (z) = ∑ n≥0 T nz n , oùT 0 = 0, T n = 2T n−1 + 1, n ≥ 1b) Trouvez T n .Exercice 2.8 a) Calculez T (z) = ∑ n≥0 T nz n , oùT 0 = 1, T n = 2T n−1 + n − 1, n ≥ 1b) Trouvez T n .2.7.3 Equations differentielles <strong>et</strong> récurrences linéaires à coefficients polynomiauxDans le cas <strong>de</strong>s coefficients polynomiaux la resolution est possible seulement dans <strong>de</strong>s casparticuliers, <strong>et</strong> en utilisant toute une hierarchie <strong>de</strong>s fonctions <strong>de</strong> base : hypergeom<strong>et</strong>riques,d’Alembertiennes <strong>et</strong> Liouvilliennes.22


3 Les chaînes <strong>de</strong> <strong>Markov</strong> à espace d’états finiOn considére maintenant le cas <strong>de</strong>s <strong>processus</strong> X n observés en temps discr<strong>et</strong> : n =0, 1, 2, ....La propriété <strong>de</strong> <strong>Markov</strong> a lieu quand la loi conditionnelle <strong>de</strong> X n sachant (X 0 , X 1 , ..., X n )est la même loi que la loi conditionnelle <strong>de</strong> X n sachant X n−1 .Ces <strong>processus</strong> sont entièrement characterisés par leur matrice <strong>de</strong> transition p i,j (1) =P ([X n = e j ] | [X n−1 = e i ]) après temps 1, qu’on <strong>de</strong>notera par p i,j .Définition 3.1 Une chaîne <strong>de</strong> <strong>Markov</strong> (X n ) n∈Nest dite homogène si :∀ e i , e j ∈ E , P ([X n = e j ] | [X n−1 = e i ]) ne dépend pas <strong>de</strong> n.La matrice P = (p ij ) i,j∈I, appellée matrice <strong>de</strong> transition, est la plus importantecharacteristique d’une chaîne. C<strong>et</strong>te matrice P est une matrice stochastique, c’est-à-dire unematrice telle que :1. ∀ i, j ∈ I , p ij ≥ 0 <strong>et</strong>2. ∀ i ∈ I , ∑ j∈Ip ij = 1 ; la somme <strong>de</strong>s termes <strong>de</strong> chaque ligne égale à 1. En notationvectorielle, on a P 1 = 1, ou 1 <strong>de</strong>note un vecteur avec tous les composantes 1.Rémarque : Même qu’on utilise parfois le terme ”matrice” si E est infini, la theorie dans cecas est un peu differente.3.1 L’évolution <strong>de</strong> la loi <strong>de</strong> probabilité d’une chaîneDéfinition 3.2 Pour tout n <strong>de</strong> N <strong>et</strong> tout i <strong>de</strong> I, on note µ i (n) = P [X n = e i ] <strong>et</strong> µ (n) =(µ i (n)) i∈I. Le vecteur µ (n) définit une probabilité sur (E, P (E)) appelée loi à l’instant n.On appelle loi initiale <strong>de</strong> la chaîne (X n ) n∈Nle vecteur µ (0) .Exemple 3.1 Calculer les distributions µ (1) , µ (2) pour une marche sur le graphe papillon,en sachant que :a) le départ est surement à 0b) le départ est avec probabilités egales en 0 ou en U, i.e. µ (0) = (1/2, 0, 0, 0, 1/2).En conditionnant sur la position k un pas en avant, on verifie que µ (1) = µ (0) P, <strong>et</strong>µ (n + 1) = µ (n) P (11)23


OUBAFig. 3 – Marche aléatoire simple sur le graphe papillonC<strong>et</strong> alors par induction on trouveµ (n) = µ (0) P n (12)Exemple 3.2 Soit (X n ) n∈Nune chaîne <strong>de</strong> <strong>Markov</strong> homogène sur(l’ensemble {1,)2}, <strong>de</strong> distributioninitiale µ(0) = (µ 1 , µ 2 ) <strong>et</strong> <strong>de</strong> matrice <strong>de</strong> transition P = 1 − a ab 1 − bCalculez P{X 0 = 2, X 1 = 2}, µ 2 (1) = P{X 1 = 2}, P{X 0 = 2|X 1 = 2}, P{X 0 = 2, X 1 =2, X 2 = 1}, µ 2 (2) <strong>et</strong> P{X 0 = 2, X 2 = 1}.Ce <strong>de</strong>rnier exercice nous sugère la necessité d’étudier la probabilité <strong>de</strong> transition aprèsn étapes.3.2 Probabilités <strong>de</strong> transition en n étapesDéfinition 3.3 Pour tout n <strong>de</strong> N , on définit la matrice <strong>de</strong>s probabilités <strong>de</strong> transition en n étapes,( )elle est notée P (n) = p (n)ij où p (n)ij = P ([X n = e j ] | [X 0 = e i ]) .i,j∈INote : La distribution <strong>de</strong> X 1 en partant <strong>de</strong> X 0 = i, est donné par la ligne i <strong>de</strong> lamatrice P , <strong>et</strong> la distribution <strong>de</strong> X n en partant <strong>de</strong> X n−1 = i est donné par la ligne i <strong>de</strong> lamatrice P n .Théorème 3.1 Les matrices <strong>de</strong> transition en n étapes ont une structure <strong>de</strong> semi-group, i.e.P (m+n) = P (m) P (n) (13)24


Ce resultat très important s’appelle l’equation <strong>de</strong> Chapman-Kolmogorov .Démonstration: Soit (X n ) n∈Nune chaîne <strong>de</strong> <strong>Markov</strong> homogène <strong>de</strong> matrice <strong>de</strong> transitionP <strong>et</strong> <strong>de</strong> loi initiale µ (0), à valeurs dans (E = {e i ; i ∈ I} , P (E)). En conditionnant surla position k après m pas, on a :∀ i, j ∈ I , ∀ m, n ∈ N , p (m+n)ij= ∑ k∈Ip (m)ikp(n) kjQEDCorollaire 3.1 P (n) = P n , i.e. le semi-groupe <strong>de</strong>s matrices <strong>de</strong> transition est ”generé” parla matrice P <strong>de</strong> transition après temps 1.Demonstration : on montre ça par récurrence sur n, en partant <strong>de</strong> P (1) = P , <strong>et</strong> entenant compte que P (n+1) = P (n) P (par l’equation <strong>de</strong> Chapman-Kolmogorov (13)).Rémarque Comme illustré dans les exemple ci-<strong>de</strong>ssus, en utilisant la distribution initaleµ (0) <strong>et</strong> la matrice <strong>de</strong> transition P on peut calculer la distribution µ (n) a n’importequel temps, par exemple µ (1) , µ (2) .... <strong>et</strong> aussi les distributions jointes pour n’importe quelensemble fini <strong>de</strong>s temps (en utilisant la loi <strong>de</strong> multiplication <strong>de</strong>s probabilités conditionnelles).En eff<strong>et</strong>, on peut donner une formule explicite pour les distributions jointes d’ordre fini d’unechaîne, en fonction <strong>de</strong> la matrice <strong>de</strong> transition P <strong>et</strong> la distribution initiale µ(0).Théorème 3.2 Pour une chaîne <strong>de</strong> <strong>Markov</strong>, les distribution jointes sont données pour :∀t 0 < t 1 < · · · < t k , t i ∈ R, <strong>et</strong> ∀ e i0 , e i1 , ..., e ik ∈ E explicitement parP [X t0 = e i0 , ..., X tk = e ik ] = µ i0 (t 0 )P t 1−t 0i 0 ,i 1...P t k−t k−1i k ,i k−1(14)Remarque 3.1 Il est convenable d’i<strong>de</strong>ntifier une chaîne <strong>de</strong> <strong>Markov</strong> avec sa matrice <strong>de</strong> transitionP , qui est l’element principal du ”duo” (P, µ(0)).Définition 3.4 La chaîne <strong>de</strong> <strong>Markov</strong> associé à une matrice stochastique P est la famille<strong>de</strong>s mesures P µ(0) définies par (14), avec operateurs d’esperance associés E µ(0) (donc pourobtenir une seule mesure, il faut encore specifiér la mesure initiale µ(0)).25


3.3 Quelques exemples <strong>de</strong> modélisation par les chaînes <strong>de</strong> <strong>Markov</strong>Pour modéliser une situation par une chaîne <strong>de</strong> <strong>Markov</strong>, on a besoin d’abord <strong>de</strong> choisirun espace d’états convenable tel que la propri<strong>et</strong>é <strong>de</strong> <strong>Markov</strong> est satisfaite, <strong>et</strong> ensuite <strong>de</strong>déterminer la matrice <strong>de</strong> transitions.Exemple 3.3 Un <strong>processus</strong> qui n’est pas une chaîne <strong>de</strong> <strong>Markov</strong> a priori, mais qu’on peut”rendre” <strong>Markov</strong> par un bon choix <strong>de</strong> l’espace d’états . Soit (X n ) n∈Nun <strong>processus</strong> à <strong>de</strong>uxétats, notés e 1 <strong>et</strong> e 2 . On suppose que les transitions entre les étapes n <strong>et</strong> n + 1 s’effectuentselon le procédé suivant :{Si Xn−1 = X n alors P ([X n+1 = e 1 ] | [X n = e i ]) = 3 4Si X n−1 ≠ X n alors P ([X n+1 = e 1 ] | [X n = e i ]) = 1 2a) Montrer que (X n ) n∈Nn’est pas une chaîne <strong>de</strong> <strong>Markov</strong>. b) Construire un espace d’étatsperm<strong>et</strong>tant <strong>de</strong> modéliser ce <strong>processus</strong> par une chaîne <strong>de</strong> <strong>Markov</strong> <strong>et</strong> donner alors son graphe.Solution : b) On construit l’espace d’états suivant : {e 1 ∗ e 1 , e 1 ∗ e 2 , e 2 ∗ e 1 , e 2 ∗ e 2 }. Surc<strong>et</strong>’espace, le <strong>processus</strong> <strong>de</strong>vient <strong>Markov</strong>ien, <strong>et</strong> la matrice <strong>de</strong> transition s’écrit :⎛⎞3 10 04 4 P = ⎜ 0 0 1 12 2 ⎟⎝ 1 10 0 ⎠2 20 0 3 14 4Exemple 3.4 Une companie d’assurance voiture a un système <strong>de</strong> bonus avec cinqniveau 1 : 0% réductionniveau 2 : 25%réductionniveaux pour les assurés sans sinistres déclarés : niveau 3 : 40% réduction Pourniveau 4 : 50% réductionniveau 5 : 60% réductionun assuré, la probabilité <strong>de</strong> ne pas avoir <strong>de</strong> sinistre dans un an est <strong>de</strong> 0.8. Les regles selonon passe d’un niveau (état)à l’autre sont :Apr`s une année sans sinistre on passe au niveau supérieur suivant ou on reste auniveau 5Apr`s une année avec un ou plusieurs sinistreson diminue d’un niveau si l’année préce<strong>de</strong>nte, il n’y a pas eu <strong>de</strong> déclaration <strong>de</strong>sinistre.on diminue <strong>de</strong> <strong>de</strong>ux niveaux si l’année préce<strong>de</strong>nte il y a eu au moins une déclaration<strong>de</strong> sinistre.1. Notons par X(t) le niveau,soit 1, 2, 3, 4 ou 5, <strong>de</strong> l’assuré pour l’année t. Expliquezpourquoi {X(t)} ∞ t=1 n’est pas une chaîne <strong>de</strong> <strong>Markov</strong>.26


2. En augmentant le nombre <strong>de</strong> niveaux, définissez un nouveau <strong>processus</strong> stochastique{Y (t)} ∞ t=1 qui soit <strong>Markov</strong> <strong>et</strong> <strong>de</strong> telle manière que Y (t) représente le niveau <strong>de</strong> réductionpour l’assuré dans l’année t.3. Déduire la matrice <strong>de</strong> transition pour la chaîne <strong>de</strong> <strong>Markov</strong> {Y (t)} ∞ t=1 .Solution :1. {X(t)} n’est pas <strong>Markov</strong> parce que, par exemple, P[X t+1 = 3 | X t = 4, X t−1 = 3, . . .]ne peut pas se réduire à P[X t+1 = 3 | X t = 4].2. Définition <strong>de</strong>s nouveaux niveaux :3=40% réduction c<strong>et</strong>te année, apr`s 25% l’année <strong>de</strong>rnière4=50% réduction c<strong>et</strong>te année, apr`s 40% l’année <strong>de</strong>rnière3a=40% réduction c<strong>et</strong>te année, apr`s 50% l’année <strong>de</strong>rnière4a=50% réduction c<strong>et</strong>te année, apr`s 60% l’ann’ee <strong>de</strong>rnière3. La matrice <strong>de</strong> transition est alors1 2 3 4 5 3a 4a1 0.2 0.8 0 0 0 0 02 0.2 0 0.8 0 0 0 03 0 0.2 0 0.8 0 0 04 0 0 0 0 0.8 0.2 05 0 0 0 0 0.8 0 0.23a 0.2 0 0 0.8 0 0 04a 0 0.2 0 0 0.8 0 0Exemple 3.5 Supposons que une pluie eventuelle <strong>de</strong>main <strong>de</strong>pend <strong>de</strong> la situation du tempsdans les trois jours précé<strong>de</strong>nts, ainsi : a) S’il y a eu <strong>de</strong> la pluie dans les <strong>de</strong>ux jours précé<strong>de</strong>nts,alors il va pleuvoir avec probabilité .8. b) S’il y a pas eu <strong>de</strong> la pluie dans aucun <strong>de</strong>s troisjours précé<strong>de</strong>nts, alors il va pleuvoir avec probabilité .2. c) Autrement, la situation va <strong>et</strong>rela meme comme dans le jour prece<strong>de</strong>nt avec probabilité .6. Modéliser c<strong>et</strong>te situation par unechaîne <strong>de</strong> <strong>Markov</strong>, en donnant l’espace <strong>de</strong>s états <strong>et</strong> la matrice <strong>de</strong> transition.3.4 Classification <strong>de</strong>s étatsDéfinition 3.5 Soient e i <strong>et</strong> e j <strong>de</strong>ux éléments <strong>de</strong> E. On dit que e i conduit à e j (on notee i → e j ) ssi il existe n > 0 tel que p (n)ij > 0 <strong>et</strong> on dit que e i <strong>et</strong> e j communiquent (<strong>et</strong> on notee i ↔ e j ) si e i conduit à e j <strong>et</strong> e j conduit à e i .Rémarque : la relation ” ↔ ” est clairement symétrique, reflexive <strong>et</strong> transitive. alors,elle partage l’espace d’états dans <strong>de</strong>s classe d’équivalence.Définition 3.6 On appelle classes <strong>de</strong> la chaîne : les classes d’équivalence induites par larelation ” ↔ ” sur E.Définition 3.7 Une classe d’equivalence dans une chaîne <strong>de</strong> <strong>Markov</strong> finie qui n’a pas d<strong>et</strong>ransitions vers l’exterieur est dite récurente ; les autres classes s’appellent transitoires.27


Rémarque : La distinction entre elements transients <strong>et</strong> recurents a une gran<strong>de</strong> portéesur la valeur <strong>de</strong>s limites lim n→∞ P n (i, j). On verra que pour j transient, elle est toujours 0.Définition 3.8 Le graphe <strong>de</strong> communication d’une chaîne est un graphe sur les états (indiquéspar <strong>de</strong>s points du plan), avec <strong>de</strong>s cotés représentant les transitions possibles (indiquéspar <strong>de</strong>s flèches, avec la valeur <strong>de</strong> la probabilité <strong>de</strong> transition notée au <strong>de</strong>ssus).4 Le comportement limite <strong>de</strong>s chaînes <strong>de</strong> <strong>Markov</strong>4.1 Lois invariantes <strong>et</strong> lois asymptotiquesUne question très importante pour les chaînes <strong>de</strong> <strong>Markov</strong> est <strong>de</strong> déterminer les distributions“asymptotiques/a la longue/limites” d’une chaîne specifié par µ(0) <strong>et</strong> P :π(∞) µ(0) = π(∞) = limn→∞µ (n) = limn→∞µ(0)P n (15)A priori, il pourrait y exister une limite asymptotiques différente (15) pour chaquedistribution <strong>de</strong> départ µ(0). Plus précisement, on pourrait avoir <strong>de</strong>s distributions limitedifférentes π(∞) i pour chaque point <strong>de</strong> départ sur µ(0) = δ i .Remarque 4.1 Comme δ i P n est précisement la ligne i <strong>de</strong> la matrice P n , on trouve par(15) que les limites asymptotiques π(∞) i pour chaque point <strong>de</strong> départ nonaléatoire possiblei = 1, ..., I sont précisement les lignes <strong>de</strong> la matriceP = lim P nn→∞. On appelera c<strong>et</strong>te matrice la matrice <strong>de</strong> transition asymptotique. En plus, ces vecteurs <strong>de</strong>probabilité sont les points extremaux <strong>de</strong> l’ensemble <strong>de</strong>s toutes les distributions asymptotiquespossibles.Alors, la question <strong>de</strong> l’ergodicité = existence + unicité <strong>de</strong> la distribution asymptotiquesest equivalente à la question :Question (ERG) : Est-ce-que la limite matrice P = lim n→∞ P n existe <strong>et</strong> estce-queelle a <strong>de</strong>s lignes i<strong>de</strong>ntiques, i.e. est-ce-que on a P = 1π ? (ici 1 <strong>de</strong>note unvecteur colonne <strong>et</strong> π un vecteur ligne).Les reponses aux questions (E),(U) <strong>et</strong> (ERG) peuvent-être abordées par la structurespectrale (valeurs propres, vecteurs propres) speciale <strong>de</strong> la matrice P , en utilisant le théorème<strong>de</strong> Perron-Frobenius pour les espace d’états finies.<strong>et</strong> encore <strong>de</strong>s autres limites données par l’ensemble convexe engendré par π(∞) i , i ∈ E.28


Définition 4.1 L’ensemble <strong>de</strong>s distributions limite π(∞) µ(0) d’une chaine P, obtenues envariant la distribution initiale µ(0), sera appellé l’ensemble <strong>de</strong>s distributions asymptotiques.4.1.1 Équations d’équilibre/stationnarité/invarianceRemarque 4.2 En supposant que la limite (15) existe (ce qu’il n’y est pas toujours le cas),on voit par µ(n+1) = µ(n)P que chacune <strong>de</strong> c<strong>et</strong>tes distributions “a la longue” doit satisfaireles équations π(∞) = π(∞)PDéfinition 4.2 Les équationsπ = πP (16)sont appelées équations d’équilibre/stationnarité/invariance, <strong>et</strong> un vecteur <strong>de</strong>s probabilitésqui les satisfait est appelé distribution stationnaire ou invariante.Autrement dit : une distribution stationnaire π est un vecteur <strong>de</strong> probabilités qui est aussivecteur propre a gauche <strong>de</strong> P associé à la valeur propre 1.Remarque 4.3 Le nom stationnaire vient du fait que si µ(0) = π, alors on a µ(n) = πpour chaque n.Par la rémarque (4.2), il suit que :Corollaire 4.1 Les distributions asymptotiques d’une chaîne <strong>de</strong> <strong>Markov</strong> homogène se trouventparmi les distributions stationnaires.Le système d’équilibre (16) est donc la clé du calcul <strong>de</strong>s distributions asymptotiques. Deuxquestions fondamentales ici sont celles <strong>de</strong> l’existence d’au moins une solution, <strong>et</strong> <strong>de</strong> l’unicité.Questions (E-U) : 1) Est-ce que c’est possible qu’il n’existent pas <strong>de</strong>s vecteurs<strong>de</strong>s probabilités qui satisfont le système d’équilibre (16) (i.e. est-ce que c’estpossible qu’il n’y ait pas <strong>de</strong>s vecteurs propres pour la valeur propre 1 qui onttoutes les composants nonnégatives) ? 2) Est-ce que c’est possible qu’il existentplusieurs vecteurs <strong>de</strong>s probabilités qui satisfont le système d’équilibre (16) ?Une autre question fondamentale est si dans la presence d’une solution unique dusystème d’équilibre (16), elle sera forcement ”attractive”, donc il y aura <strong>de</strong> la convergencelim n→∞ µ(0)P n = π pour n’importe quel µ(0).29


Dans la términologie <strong>de</strong>s systêmes dynamiques, c<strong>et</strong>te situation correspond au cas quandl’équation d’évolution µ(n + 1) = µ(n)P adm<strong>et</strong> un seul point invariant stable, le basind’attraction du quel est tout l’éspace (donc toutes les orbites qui partent <strong>de</strong> n’importe quelµ(0) convergent vers π). Mais, il y a aussi <strong>de</strong>s situations plus compliquées :Exemple 4.1 L’inexistence <strong>de</strong> la limite P = lim n→∞ P n pour les chaînes cycliques.La limite P n’existe pas toujours, comme on voit immediatement en examinant une chaîne<strong>de</strong> <strong>Markov</strong> qui bouge cycliquement sur les noeuds d’un graphe. Par exemple, pour n = 3,avec la matrice <strong>de</strong> transitionP =( 0 1 0010010), on a : P 3n = I 3 , P 3n+1 = P <strong>et</strong> P 3n+2 = P 2 =( 0 0 1100100On voit immediatement que la suite P, P 2 , P 3 = I, P 4 = P, ... est cyclique <strong>et</strong> donc sanslimite.Ici, la distribution stationnaire π = (1/3, 1/3, 1/3) est unique, mais instable, <strong>et</strong> toutl’espace se <strong>de</strong>compose dans <strong>de</strong>s cycles invariants instables d’ordre 3.).4.1.2 Les équations d’équilibre localExemple 4.2 Pour une marche aléatoire X t , t = 0, 1, 2, ... sur un graphe formé <strong>de</strong><strong>de</strong>ux t<strong>et</strong>rahèdres superposés, calculer :1. L’ésperance en partant <strong>de</strong> U du nombre <strong>de</strong> pas T O jusq’au coin opposé O.Indication :Utiliser la symm<strong>et</strong>rie.2. L’ésperance en sortant <strong>de</strong> O du nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.3. La probabilité p A = P A {X T = U}, ou T = min[T U , T O ].4. La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois (k =0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.5. Les probabilités stationnaires du chaque noeud. Indication : Devinez la rèponse <strong>et</strong>montrez qu’elle satisfait le systême <strong>de</strong>s équations d’équilibre.4.2 L’ergodicitéUn cas trés fréquent dans les applications <strong>et</strong> quand il n’y a qu’une distribution stationnaireπ, qui coinci<strong>de</strong> aussi avec la distribution limite pour toutes les points <strong>de</strong> départinitials possibles. Alors, par le corrollaire (4.1), la distribution limite est in<strong>de</strong>pendante <strong>de</strong> ladistribution <strong>de</strong> départ, est egale à π. Nous allons appeler ça le cas ergodique.Définition 4.3 On appelle une chaîne à matrice <strong>de</strong> transition P ergodique lorce’que ladistribution limite π(∞) = π(∞)(µ(0)) = lim n→∞ µ (n) existe <strong>et</strong> est unique, in<strong>de</strong>pen<strong>de</strong>ment<strong>de</strong> la distribution <strong>de</strong> départ.30


Note : Dans le cas <strong>de</strong>s espace d’états dénombrable, il est important <strong>de</strong> distinguerles <strong>de</strong>ux cas quand la distribution limite satisfait π i > 0, ∀i <strong>et</strong> le cas quand elle satisfaitπ i = 0, ∀i. Nous appelerons ces <strong>de</strong>ux cas ergodique positive <strong>et</strong> ergodique nul (ce <strong>de</strong>rniercas étant impossible pour <strong>de</strong>s espace d’états finies). Dans la literature, le terme ergodiquesignifie d’habitu<strong>de</strong> ce que nous appelons ici ergodique positive.Remarque 4.4 Une chaîne ayant <strong>de</strong>s distributions limite en partant <strong>de</strong> chaque point i,<strong>et</strong> ayant une distribution stationnaire unique π est ergodique (i.e. toutes les distributionasymptotiques doivent coinci<strong>de</strong>r avec π).L’abondance du cas ergodique est expliquée par la décomposition spectrale :Lemma 4.1 Une matrice A <strong>de</strong> dimension n ayant un ensemble <strong>de</strong> n vecteurs propres àdroite in<strong>de</strong>pendants d i , <strong>et</strong> donc aussi un ensemble <strong>de</strong> n vecteurs propres à gauche in<strong>de</strong>pendantsl ′ i , calculés en prenant les lignes <strong>de</strong> la matrice D−1 , où D = (d 1 | d 2 | ... d n )peut-être <strong>de</strong>composé :A = ∑ iλ i d i l ′ ioù λ i sont les valeurs propres.Ce cas a lieu par exemple quand tous les valeurs propres <strong>de</strong> P sont distincts (”le casgénérique”). Si en plus la seul valeur propre <strong>de</strong> module 1 est 1, <strong>et</strong> avec multiplicité 1 (”le casgénérique”), il suit immediatement quelim P n = 1 πn→∞Nous examinons maintenant pour ergodicité un exemple ou P n <strong>et</strong> π se calculent explicitement:Exemple 4.3 Chaîne a <strong>de</strong>ux ètats. Soient a, b ∈ [0, 1] <strong>et</strong> la matrice <strong>de</strong> transition :( )P = 1 − a ab 1 − ba) Montrer en calculant les valeurs <strong>et</strong> vecteurs propres queP n = 1a + b( b ab a)+(1 − a − b)na + b( a −a−b b)b) Montrez que avec a, b ∈ (0, 1), la limite P = lim n→∞ P n =calculez c<strong>et</strong>te limite dans tous les cas possibles.31( ba+bba+baa+baa+b). En suite,


En conclusion, on voit que avec a, b ∈ (0, 1), la limite matrice P = lim n→∞ P n existe<strong>et</strong> qu’elle a <strong>de</strong>s lignes i<strong>de</strong>ntiques, donc la chaîne est ergodique : la distribution limitebπ = (a + b , a) est unique. Elle est aussi l’unique distribution stationnaire.a + b4.3 Le théorème ergodiqueLe cas ergodique est le plus important dans les applications, a cause du :Théorème 4.1 Soit X(n) une chaîne <strong>de</strong> <strong>Markov</strong> ergodique à distribution asymptotiques π,<strong>et</strong> soit une fonction ”coût” f tel que la ”moyenne spatiale” Eπf(X . ) = ∑ j∈E π jf j est bien<strong>de</strong>finie. Alors, la moyenne temporelle <strong>de</strong>s coûts converge presque partout vers la moyennespatiale, for any initial distribution :n∑limn→∞ n−1 f(X n ) = ∑ π j f ji=1j∈ENous examinons maintenant un exemple ou P n n’est pas disponible explicitement ;quand même, la distribution stationnaire π est unique <strong>et</strong> donc la limite <strong>de</strong>s coûts moyenn<strong>et</strong>emporelles se calculent facilement :Exercice 4.1 Montrez que la marche aléatoire sur le graph papillon a une distributionstationnaire unique π. Calculez l’esperance du coût moyenne <strong>de</strong> c<strong>et</strong>te marche, si f(A) =10, f(B) = 1 <strong>et</strong> les autres coûts sont 0.4.4 Chaînes <strong>et</strong> <strong>processus</strong> a espace d’états infiniNote : Dans le cas <strong>de</strong>s <strong>processus</strong> a espace d’états dénombrable, c’est possible a prioriqu’il y’ait <strong>de</strong>s éléments e i <strong>de</strong> E tel que g ii = − ∑ j≠i g i,j = −∞ ; un tel état e i est ditinstantané (parce-que, comme on a vue, g i = −g ii est precisement le taux du temps <strong>de</strong> sortieexponentiel T (i) , <strong>et</strong> alors g ii = −∞ entraîne T (i) = 0.L’interêt principal en les chaînes avec espace d’<strong>et</strong>ats infini est dans le cas d’une seuleclasse <strong>de</strong> communication.Pour les chaînes avec espace d’<strong>et</strong>ats fini qui communique tous, toutes les états sontrecurrents. Par contre, pour les chaînes infinis, la communication <strong>de</strong>s états peut toujourscacher <strong>de</strong>s comportements diverses, <strong>et</strong> il convient d’adopter une nouvelle classification <strong>de</strong>s<strong>et</strong>ats (plus fine).32


4.4.1 Récurrence <strong>de</strong>s chaînes à espace d’états <strong>de</strong>nombrablePour les chaînes avec espace d’<strong>et</strong>ats fini qui communique tous, toutes les états sontrecurrents. Par contre, pour les chaînes infinis, la communication <strong>de</strong>s états peut toujourscacher <strong>de</strong>s comportements diverses, <strong>et</strong> il convien d’adopter une nouvelle classification <strong>de</strong>s<strong>et</strong>ats (plus fine).Pour les chaînes avec espace d’états discr<strong>et</strong> (fini où dénombrable), posonsf i,j = P i {∃t ≥ 1 : X t = j}On peut vérifier que pour les chaînes avec espace d’<strong>et</strong>ats fini qui communique tous, on af i,j = 1, ∀i, j.Définition 4.4 Soit e i dans E. L’état e i est dit récurrent si, <strong>et</strong> seulement si : f i,i = 1Dans le cas contraire, e i est dit transient (ou transitoire) 1 .Pour les états récurrents, on pose T i pour le temps du premier r<strong>et</strong>our en i ; on distingueencore entre états recurrents positifs, pour les quels E i T i < ∞, <strong>et</strong> états nul-recurrents, pourles quels E i T i = ∞Autrement dit : e i est récurrent si, <strong>et</strong> seulement si : en partant <strong>de</strong> e i , on est (presque) sûrd’y revenir en un temps fini (<strong>et</strong> donc par conséquent un nombre infini <strong>de</strong> fois) ; <strong>et</strong> il estrécurrent positif ssi en plus l’espace d’états du temps du premier r<strong>et</strong>our est fini.Remarque 4.5 La récurrence <strong>et</strong> la transience ne dépen<strong>de</strong>nt que <strong>de</strong> la classe. On parle alors<strong>de</strong>s classes récurrentes ou transitoires.Théorème 4.2 Dans le cas récurrent positif, on a (comme dans le cas d’espace d’étatsfini) pour les chaînes en temps discr<strong>et</strong>π(i) = 1ET ioù T i est le temps total <strong>de</strong> r<strong>et</strong>our au état i, <strong>et</strong> pour les <strong>processus</strong> en temps continuπ(i) =11 + ER ioù R i est le temps <strong>de</strong> r<strong>et</strong>our au état i, en partant du moment qu’on le quitte. Par contre,dans le cas récurrent nul, il n’y a pas <strong>de</strong> distribution stationnaire, <strong>et</strong> la distribution limite,si elle existe, est i<strong>de</strong>ntiquement 0.1 Pour un espace d’états continu, on <strong>et</strong>udie plutot la récurrence/transience <strong>de</strong>s ensembles.33


4.5 Exercices : TD 1ESPÉRANCE CONDITIONNELLE1. On dispose d’un dé équilibré <strong>et</strong> d’une pièce <strong>de</strong> monnaie qui tombe sur pile avec uneprobabilité 1/3. On lance le dé une fois puis on lance la pièce un nombre <strong>de</strong> fois égalau chiffre obtenu avec le dé.a. Si le dé est tombé sur le chiffre k, quelle est la probabilité <strong>de</strong> n’obtenir que <strong>de</strong>s facesavec la pièce ? D’obtenir au moins un pile ? (il s’agit donc <strong>de</strong> probabilités conditionnellementau chiffre k obtenu avec le dé).b. Utiliser la formule <strong>de</strong>s probabilités totales pour déduire <strong>de</strong> a) la probabilité (nonconditionnelle) d’obtenir au moins un pile.2. Une banque a <strong>de</strong>ux caissières. Trois personnes (A,B, <strong>et</strong> C) entrent en même temps ; A<strong>et</strong> B vont directement aux <strong>de</strong>ux caissières libres <strong>et</strong> C attend.Quelle est la probabilité que A soit toujours dans la banque quand les <strong>de</strong>ux autressont partis, dans les trois cas suivants : i. Le ”temps <strong>de</strong> service” est exactement 2 mnpour les <strong>de</strong>ux caissières. ii. Pour les <strong>de</strong>ux caissières, ce temps est 1,2, ou 3 mn, avecprobabilités 1/3 pour chaque cas.3. Fiabilité : Calculer la probabilité que le réseau suivant fonctionne :pprppFig. 4 – p,r sont les probabilités que les composantes fonctionnent4. Soit (X n ) n∈Nune chaîne <strong>de</strong> <strong>Markov</strong> homogène <strong>de</strong> matrice <strong>de</strong> transition P. Dans chaquecas, on <strong>de</strong>man<strong>de</strong> <strong>de</strong> voir s’il y a <strong>de</strong>s états absorbants, <strong>de</strong> déterminer les classes <strong>de</strong> lachaîne <strong>et</strong> d’étudier la périodicité <strong>et</strong> la récurrence (ou la transience) <strong>de</strong>s états. En plus,discuter : • existence <strong>et</strong> unicité ( ?) d’éventuelle(s) distribution(s) stationnaire(s)• existence d’une distribution limite (la déterminer le cas échéant)⎛1 0⎞0⎛(a) P = ⎝ 0 1 0 ⎠ b) P = ⎝1313130 1 2121 0 01 0 0⎞⎠34


⎛⎞1 0 0 0(b) P = ⎜ 0 1 1 13 3 3⎝ 1 10 1 30 1 3313313⎛⎟⎠ d) P = ⎝0 1⎞00 0 1 ⎠121025. Soit Y i , i = 1, ..., une suite <strong>de</strong>s lancées <strong>de</strong> dés indépen<strong>de</strong>nts. Déterminer dans lesexemples suivantes si la suite X n est <strong>Markov</strong>, en donnant (si possible) la matrice<strong>de</strong> transition <strong>et</strong> le graph <strong>de</strong> communication. Classifier les classes en récurrents <strong>et</strong> transitoires<strong>et</strong> calculer si possible la limite P = lim n→∞ P n(a) Le maximum <strong>de</strong> résultats X n = max 1≤i≤n Y i(b) Le nombre cumulatif <strong>de</strong> 6, X n = ∑ ni=1 1 {Y i =6}(c) Le nombre cumulatif <strong>de</strong> non 6, aprés le <strong>de</strong>rnière 6, jusqu’au temps n.(d) Le nombre cumulatif <strong>de</strong> non 6, aprés le temps n, jusqu’au prochaîne 6.(e) X n = Y n + Y n−1... + S nf) X n = Max 1≤i≤n S i , ou S i = ∑ ik=1 Y k <strong>et</strong> g) X n = S 1 + S 2 +6. Soit (X n ) n∈Nune chaîne <strong>de</strong> <strong>Markov</strong> homogène sur l’ensemble({1, 2}, <strong>de</strong> distribution2)1initiale µ 0 = (1/5, 4/5) <strong>et</strong> <strong>de</strong> matrice <strong>de</strong> transition P =3 3(a) Calculez P{X 0 = 2, X 1 = 2}, µ 1 (1) = P{X 1 = 2} <strong>et</strong> P{X 0 = 2|X 1 = 2}.(b) Démontrez que si la limite µ = lim n→∞ µ 0 P n existe, elle doit <strong>et</strong>re une distributionstationnaire, i.e. elle doit satisfaire léquation µ = µP .(c) Trouvez toutes les lois stationnaires π <strong>de</strong> la chaîne donnée (s’il y en a plus d’uneseule). Spécifiez, en justifiant, si la limite lim n→∞ µ 0 P n existe pour la chaînedonnée. Si c’est le cas, quelles sont les limites lim n→∞ P{X n = 2}, lim n→∞ P{X n =2, X n+1 = 2} <strong>et</strong> lim n→∞ P{X n = 2|X n+1 = 2} ?(d)Étant donné un coût <strong>de</strong> stockage per unité <strong>de</strong> temps h(1) = 0, h(2) = 3, calculezle coût moyen stationnairen∑Eπ n −1 h(X i )ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.Solution :(a)i=1P{X 0 = 2, X 1 = 2} = 4 5 · 56 = 2 316P{X 1 = 2} = 2030 + 2 30 = 2230P{X 0 = 2|X 1 = 2} = 2 3 /22 30 = 10115635


(b)(c) Un calcul imediat montre que le vecteur propre a gauche <strong>de</strong> P , i.e. la loi stationnaire,est unique π = ( 1 3 , 2 3 ). La limite lim n→∞µ 0 P n existe parce que la chaîneest apériodique ; par consequent, elle est egale a π.(d)lim P{X n = 2} = 2n→∞ 3lim P{X n = 2, X n+1 = 2} = 2n→∞ 3 · 56 = 1030Eπ n −1limn→∞ P{X n = 2|X n+1 = 2} = 5 6n∑h(X i ) = Eπh(X 1 ) = 3π(2) = 2i=1ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.7. Une agence <strong>de</strong> notation <strong>de</strong> titres évalue les différentes entreprises chaque trimèstre ; lesnotations sont, en ordre <strong>de</strong>croissante <strong>de</strong> mérite A, B, C <strong>et</strong> D (défaut). Les donnés historiquessuggérent qu’on peut modéliser l’évaluation <strong>de</strong> crédit d’une entreprise typiquepar une chaîne <strong>de</strong> <strong>Markov</strong> avec matrice <strong>de</strong> transitionP =⎛⎜⎝α 1 − α − α 2 α 2 0α α 1 − 2α − α 2 α 21 − 2α − α 2 α α α 20 0 0 1où α est un paramètre qui dépend <strong>de</strong> l’entreprise.(a) Trouvez les valeurs <strong>de</strong> α pour lesquelles la matrice P est une matrice <strong>de</strong> transitionvalable (i.e. ”stochastique”).(b) Tracez le graph <strong>de</strong> communication <strong>de</strong> la chaîne. I<strong>de</strong>ntifiez les classes <strong>de</strong> communication<strong>et</strong> classifiez-les en récurrents <strong>et</strong> transitoires, périodiques ou pas. Spécifiers’il y a <strong>de</strong>s valeurs <strong>de</strong> α pour lesquelles la structure est differente.(c) Trouvez toutes les lois stationnaires π <strong>de</strong> c<strong>et</strong>te chaîne, dans tous les cas trouvésci <strong>de</strong>ssus.Solution :(a) All transition probabilities must lie in [0, 1]. Now 1 − 2α − α 2 ≤ 1 − α − α 2 ≤ 1for α ≥ 0, so it suffices to ensure that 1 − 2α − α 2 ≥ 0 i.e. α ≤ √ 2 − 1. So therange of possible values of α is [0, √ 2 − 1].(b) Pour α > 0, la chaîne a une classe transiente (A, B, C) <strong>et</strong> une classe absorbante D,<strong>et</strong> est apériodique by inspection. Pour α = 0, nous avons <strong>de</strong>ux classes reccurrentes,la première périodique.36⎞⎟⎠


(c) Une probabilité stationnaire, si elle existe, doit satisfaire :απ A + απ B + (1 − 2α − α 2 )π C = π A(1 − α − α 2 )π A + απ B + απ C = π Bα 2 π A + (1 − 2α − α 2 .)π B + απ C = π Cα 2 π B + α 2 π C + π D = π DPour α > 0, la <strong>de</strong>rnière équation implies π B = π C = 0, and this in turn showsthat π A = 0. Des lors, la probabilité stationnaire π = (0, 0, 0, 1). est unique : il ya une seule classe recurrente <strong>et</strong> elle est apériodique.8. Soit Y i , i = 1, ..., une suite <strong>de</strong>s lancées <strong>de</strong> dé indépendantes. Déterminer dans lesexemples suivantes si la suite X n est <strong>Markov</strong>, en donnant (si possible) la matrice d<strong>et</strong>ransition <strong>et</strong> le graph <strong>de</strong> communication. Classifier les classes en récurrents <strong>et</strong> transitoires<strong>et</strong> calculer si possible la limite P = lim n→∞ P n(a) Le maximum <strong>de</strong> résultats X n = max 1≤i≤n Y i(b) Le nombre cumulatif <strong>de</strong> non 6, aprés le temps n, jusqu’au prochaîne 6.(c) X n = Y n + Y n−1(d) X n = Max 1≤i≤n S i , ou S i = ∑ ik=1 Y i <strong>et</strong>(e) X n = S 1 + S 2 + ... + S n5 Problèmes d’absorbtion/Dirichl<strong>et</strong> pour les chaînes<strong>de</strong> <strong>Markov</strong>Sommaire : Nous étendrons ici l’approche <strong>de</strong> la section precedante pour les problèmesd’absorbtion <strong>de</strong> marches aleatoires, aux cas <strong>de</strong>s chaînes <strong>de</strong> <strong>Markov</strong> <strong>de</strong> transition P . Brèvement,après avoir i<strong>de</strong>ntifié l’operateur associé comme G = P − I, on a exactement les mêmeséquations comme en avant, la seule difference étant que les solutions peuvent être rarementexplicitées.5.1 Les chaînes <strong>de</strong> <strong>Markov</strong> absorbantesDéfinition 5.1 Une chaîne s’apelle absorbante si tous ses états récurrents sont absorbants,i.e. P i,j = δ i,j pour chaque état i récurrent.Motivation : Parfois, une chaîne/marche est forcée <strong>de</strong> rester dans un sous-ensemble<strong>de</strong> son espace d’états initial par <strong>de</strong>s diverses méchanismes <strong>de</strong> contrainte. Par exemple, unemarche sur Z qui est contrainte à rester nonegative, donc en N, pourrait être absorbée en0 pour toujours, ou ”réfléchie”, i.e r<strong>et</strong>ournée en N dés qu’elle arrive dans le complement∂ = Z − N.37


Le méchanisme <strong>de</strong> contrainte le plus simple est l’absorbtion. On appellera l’ensemble <strong>de</strong>sétats absorbants ”cim<strong>et</strong>ière” ∂ ; ceux-ci sont characterisés par <strong>de</strong>s probabilités <strong>de</strong> transitionP i,j = δ i,j , ∀i ∈ ∂, ∀j.5.2 Les problèmes <strong>de</strong> Dirichl<strong>et</strong>Les problèmes <strong>de</strong> Dirichl<strong>et</strong> ont comme obj<strong>et</strong> l’étu<strong>de</strong> <strong>de</strong>s temps <strong>de</strong> sortie N, <strong>de</strong> la distributiondu point <strong>de</strong> sortie X N ∈ ∂, <strong>et</strong> <strong>de</strong>s diverses autres fonctions comme <strong>de</strong>s prix finauxou <strong>de</strong>s coûts accumulés par la marche jusqu’au moment <strong>de</strong> son absorbtion en ∂.Pour les marches aléatoires, on a vu que tous ces problèmes aboutissaient dans <strong>de</strong>séquations <strong>de</strong> différences (ou différentielles, si l’espace d’états était R d ). On verra maintenantque pour les chaînes <strong>de</strong> <strong>Markov</strong>, ces problèmes aboutissent dans <strong>de</strong>s équations impliquant lamatrice G = P − I. La métho<strong>de</strong> pour établir ces équations est toujours le conditionnementsur le premier pas.Soit X k une chaîne <strong>de</strong> <strong>Markov</strong> absorbante à espace d’états S = T ⋃ ∂ = {1, 2, ...I, C1, C2, ..},où les états en T sont transitoires, <strong>et</strong> les états ∂ = {C1, C2, ...} sont absorbants. Soit(T ,∂)Q Pla matrice <strong>de</strong> transition <strong>et</strong> soit β la distribution initiale.0 IDéfinition 5.2 Soit X t une chaîne absorbante, soit ∂ l’ensemble <strong>de</strong>s états absorbants, <strong>et</strong>soit T le sous-ensemble (complémentaire) d’états transitoires. On appélera temps <strong>de</strong> sortie/absorbtionN le premier temps quand le <strong>processus</strong> X t n’est plus en T (<strong>et</strong> donc estarrivé en ∂)N = inf{t : X t /∈ T } ∈ {1, 2, ...}Remarque 5.1 a) N est precisement le nombre <strong>de</strong> fois en T , en incluant la position initiale.b) On pourrait ègalement considérer le tempsétats transitoires, sans inclure la position initiale.Ñ = N − 1 ∈ {0, 1, 2, ...} pass’e en lesOn s’intéressera dans la distribution <strong>et</strong> l’espérance <strong>de</strong>s variables d’absorbtion, commele temps d’absorbtion N, la position après absorbtion X N <strong>et</strong> la position avant absorbtionX N−1 ; on vera qu’elles sont calculables en utilisant <strong>de</strong>s certaines relations entre leur distributionsconditionnées par le point <strong>de</strong> départ.Nous étudierons en suite plusieurs charactéristiques du temps N jusqu’au premier passagedans l’ensemble <strong>de</strong>s états l’absorbants ∂ :1. Les espérances <strong>de</strong>s temps d’absorbtion n = (n i , i ∈ T ), où n i = E i N.2. La distribution <strong>de</strong> N.3. Les probabilités d’absorbtion dans les différents états absorbants (s’il y en a plusieurs).38


5.3 Les espérances <strong>de</strong>s temps d’absorbtionThéorème 5.1 a) Les espérances <strong>de</strong>s temps d’absorbtion à partir <strong>de</strong>s états transitoires nsatisfont le système d’absorbtionn = Qn + 1b) Elles sont données explicitement par :n = (I − Q) −1 1c) Avec une distribution initiale β, l’espérance ¯n = E β N du temps d’absorbtion est :¯n = EN = β(I − Q) −1 1Corollaire 5.1 Soit ˜G := Q − I. Les espérances <strong>de</strong>s temps d’absorbtion à partir <strong>de</strong>s tousles états transitoires n satisfont le satisfont le systèmen i = 0,˜Gn + 1 = 0 (17)∀i ∈ ∂Ceci est notre premier exemple <strong>de</strong> système <strong>de</strong> Dirichl<strong>et</strong>. Rémarquez que la matrice ˜G aseulement ses valeurs propres avec partie réelle negative, étant par conséquent inversible.Demonstration : a) est équivalent au systèmen i = ∑ j∈TQ i,j (n j + 1) + ∑ j /∈T(T ,∂)P i,j ∗ 1qui généralise l’équation (1), <strong>et</strong> est obtenu par un conditionnement pareil.b) est simplement la solution du système donné en a).Exemple 5.1 Soit une chaîne sur {1, 2} définie par la matrice <strong>de</strong> transitionavec X 0 = 1 (i.e., la loi initiale est µ 0 = (1, 0)).(p |)1 − p0 | 1Soit N le nombre <strong>de</strong>s transitions jusqu’à l’absorbtion, en partant du temps 0a) Quelle est la valeur <strong>de</strong> N si X 0 = X 1 ...X k−1 = 1 <strong>et</strong> X k = 2 ? Quel est l’espace d’états<strong>de</strong> N ?b) Trouvez l’espérance n = EN du nombre <strong>de</strong>s pas N jusqu’à l’absorbtion, en partantdu premier état (i.e. X 0 = 1, β = (1, 0)).39


Rqs : 1) Le système donné au point a) est encore plus fondamental que la formule explicitedonnée en b), car l’inversion <strong>de</strong>s matrices est rarement la meilleure solution pour résoudreun système ; aussi, il existe beaucoup <strong>de</strong> variations <strong>de</strong> ce problème où le système (un peudifférent) sera facile à obtenir, par la même métho<strong>de</strong> <strong>de</strong> conditionnement sur le premierpas. Ce problème fournit une illustration du fait que conceptuellement <strong>et</strong> numériquement,les systèmes d’équations sont plus utiles que leurs solutions explicites !2)(*) La formule expliciten = (I − Q) −1 1 = [ ∑∞ (Q) i] 1a aussi une interprétation probabiliste importante. Remarquons d’abord la décompositionen indicateurs∞∑N =k=0où I k est l’indicateur d’être dans la partie transitoire au temps k. Donc, n i = ∑ ∞k=0 E iI k .Remarquons aussi la décomposition en indicateurs I k = ∑ j∈T I k,j, où I k,j est l’indicateurd’être en position j ∈ T au temps k. Ces décompositions nous ramènent finalement àI ki=1n i =∞∑ ∑E i I k,j =k=0 j∈T∞∑ ∑k=0 j∈T(Q) k i,j5.4 Les probabilités d’absorbtionDéfinition 5.3 Soit X t un <strong>processus</strong>, soit E un sous-ensemble arbitraire <strong>de</strong> l’espace d’états, <strong>et</strong> soit ∂ son complémentaire. On appelera <strong>processus</strong> absorbé en l’ensemble d’arrêt ∂le <strong>processus</strong> ˜X t obtenu à partir <strong>de</strong> X t en modifiant tous les états en ∂ en sorte qu’ils soientabsorbants.Dans le prochaine exemple, nous utilisérons plusieurs ensembles d’arrêt.Exemple 5.2 Pour une marche aléatoire X t , t = 0, 1, 2, ... sur le graphe papillonci-<strong>de</strong>ssous, calculer :1. L’espérance n U en sortant <strong>de</strong> U du nombre <strong>de</strong> pas N jusqu’au noeud O. Indication :Utiliser la symm<strong>et</strong>rie.2. Les probabilités stationnaires <strong>de</strong> chaque noeud.3. L’espérance en sortant <strong>de</strong> O du nombre <strong>de</strong> pas ÑO jusqu’au premier r<strong>et</strong>our à O.40


OUBAFig. 5 – Marche aléatoire simple sur le graphe papillonC4. La probabilité p A = P A {X N = O} = P A {N O < N U }, où N = min[N U , N O ].Solution : 4) En résolvant le système d’absorbtion pour p A , p B , p C , on trouve p A =3/4, p B = 1/2, p C = 1/4.Supposons qu’il y a plusieurs états absorbants à probabilités d’absorbtion p (j) , j ∈ S−∂,qui donnent <strong>de</strong>s ”prix finals” f = {f j , j ∈ ∂}, posons ˆp i = E i f(N), <strong>et</strong> ˆp = {ˆp i , i ∈ S − ∂}le vecteur <strong>de</strong> prix finals esperés. Le calcul <strong>de</strong> ˆp est le fameux problème <strong>de</strong> Dirichl<strong>et</strong>. Parexemple, pour f j = {0, ..., 0, 1, 0, ...} = {δ j (i), i = 1, 2, ...} (avec le 1 sur la position j) onobtient les probabilités d’absorbtion ˆp i (j) = P i {X N = j} = E i I {XN =j}.La théorie <strong>de</strong>s chaînes pour les quelles tous les états récurrents sont absorbants peutêtre utilisée pour étudier n’importe quelle chaîne, en modifiant certaines transitions.Théorème 5.2 Le vecteur d’espérances du prix final f satisfait le système d’absorbtionˆp = Qˆp + P (T ,∂) fEn particulierThéorème 5.3 Les probabilités d’absorbtion ˆp (j) dans un état absorbant fixe j satisfont lesystème d’absorbtionˆp (j) = Qˆp (j) + p (j)(T ,∂)où p (j)(T ,∂)<strong>de</strong>note le vecteur <strong>de</strong>s probabilités dans l’état absorbant j.La matrice P (abs) <strong>de</strong>s probabilités d’absorbtion satisfait :<strong>et</strong> doncP (abs) = QP (abs) (T ,∂)+ PP (abs) = (I − Q) −1 (T ,∂)P41


Corollaire 5.2 Soit G := P − I. Avec un prix final arbitraire f, les prix finaux espérés pà partir <strong>de</strong> tous les états satisfont le système d’absorbtionGp = 0 (18)p i = f i , ∀i ∈ ∂ (19)Corollaire 5.3 Avec une distribution initiale β, avec un prix final arbitraire f, on a l’espaced’états :ˆp = β(I − Q) −1 )P (T ,∂) fPour autres exemples <strong>de</strong>s problèmes d’absorbtion, voir Ruegg, 2.6.4-2.6.5.5.5 Les distributions <strong>de</strong>s temps d’absorbtion (<strong>de</strong> type phase/”matrixgeométric”Les distributions <strong>de</strong> temps d’absorbtion, appelées aussi ”distributions <strong>de</strong> phase”, sontdisponibles explicitement. Soitp(k) = (p x,y (k), x ∈ T ) := (P x,y {N = k}, x ∈ T , y ∈ ∂})P (k) = (P x,y (k), x ∈ T ) := (P x,y {N > k}, x ∈ T , y ∈ ∂})les matrices <strong>de</strong> dimension |T × |∂| ayant comme elements les probabilités jointes <strong>de</strong> k pasavant l’absorbtion, <strong>de</strong> départ en x <strong>et</strong> d’absorbtion en y.Théorème 5.4 a) Pour une chaîne <strong>de</strong> <strong>Markov</strong> absorbante à matrice <strong>de</strong> transitionles distributions du temps d’absorbtion N sont données par :Q P(T ,∂)0 Ip(k) = (Q) k−1 (T ,∂)PP (k) = (Q) k 1b) Avec distribution initiale β, on a :P{N = k} = β(Q) k−1 (T ,∂)PP{N > k} = β(Q) k 1Exercice 5.1 Démontrez le théorème. Ind : Les matrices p(k), P (k) satisfont les recurrences:p(k) = Qp(k − 1), <strong>et</strong> P (k) = QP (k − 1)qui ramènent (en itérant) au résultat :42


Démonstration alternative : I N=k = ∑ x 0 ,x 1 ,...,x k−1 ∈T ,y∈∂ I X 0 =x 0 ,X 1 =x 1 ,...,X k−1 =x k−1 ,X k =y∈∂∈T .Dès lors,P x0 {N = k, X k = y} =∑x 1 ,...,x j−1 ∈TQ x0 ,x 1Q x1 ,x 2...Q xk−2 ,x k−1P (tr)x k−1 ,y = (Q) k−1 P (tr) (x 0 , y)Les résultats sont obtenus en prenant somme en y <strong>et</strong> somme en x 0 , pon<strong>de</strong>ré par lespoids β. Exercice 5.2 Démontrez queEN = ∑ kP{N > k}c) :Rémarque : Ce théorème nous fournit une <strong>de</strong>uxième démonstration du Théorème 5.1EN = ∑ kP{N > k} = β(I − Q) −1 1( )q1 0 | p 1Exercice 5.3 Soit la matrice <strong>de</strong> transition 0 q 2 | p 2 <strong>et</strong> la distribution initiale (β 1 , β 2 , 0).0 0 | 1Trouvez l’espérance <strong>et</strong> la distribution <strong>de</strong> N.Exercice 5.4 Soit la matrice <strong>de</strong> transition( )q1 p 1 | 00 q 2 | p 20 0 | 1a) Trouvez l’espérance <strong>de</strong> N.b) Généralisez au cas <strong>de</strong>s matrices <strong>de</strong> ce type (série) <strong>de</strong> taille K + 1.c) Soit N = N 1 + N 2 , où N i est le nombre <strong>de</strong> fois qu’on reste en i. Montrez quela distribution <strong>de</strong> N 1 conditionné par N est uniforme <strong>et</strong> calculez la distribution <strong>de</strong> N, siq 1 = q 2 = q.Remarque 5.2 On peut aussi résoudre l’exercice en remarquant que N i sont <strong>de</strong>s variablesgéométriques, <strong>et</strong> donc N est hypergéométrique (une somme <strong>de</strong>s géométriques).43


Voir aussi Ruegg, 2.6.3.Conclusion : Les distributions <strong>de</strong> type phase <strong>de</strong>man<strong>de</strong>nt le calcul <strong>de</strong>s puissances/exponentielles<strong>de</strong> matrices. Ces expressions sont très vite obtenues par logiciels comme Matlab, <strong>et</strong>c, <strong>et</strong> leurformule a toutes les apparences d’une expression analytique ; mais, comme pour la plupart<strong>de</strong>s matrices, les valeurs propres ne sont pas accessible analytiquement, leur calcul <strong>de</strong>man<strong>de</strong>en eff<strong>et</strong> une évaluation numérique.5.6 L’opérateur associé à une chaîne <strong>de</strong> <strong>Markov</strong>L’opérateur associé (ou générateur) à une chaîne <strong>de</strong> <strong>Markov</strong> est la ”matrice génératrice”G = P − I.Définition 5.4 Une matrice G satisfaisant1. g ij ≥ 0 si i ≠ j, g ii ≤ 0 <strong>et</strong>2. g i,i + ∑ j≠i g i,j = 0sera appellée matrice génératrice.Une matrice G satisfaisant 1. <strong>et</strong> g i,i + ∑ j≠i g i,j ≤ 0 sera appellée sous-génératrice.Exercice 5.5 Pour une matrice (sous)stochastique arbitraire, la matrice G = P − I est unematrice (sous) génératrice.Remarque 5.3 Il est facile <strong>de</strong> verifier que la matrice G = P − I a les mêmes vecteurspropres comme P , <strong>et</strong> que ses valeurs propres sont translatées par −1.Les équations <strong>de</strong> Dirichl<strong>et</strong> –voir ci <strong>de</strong>ssus– concernant les chaînes <strong>de</strong> <strong>Markov</strong> en tempsdiscr<strong>et</strong> peuvent être formulées egalement en termes <strong>de</strong> P ou <strong>de</strong> G, mais l’avantage <strong>de</strong> la<strong>de</strong>rnière formulation <strong>et</strong> qu’elle generalise pour le temps continu.5.7 Une classification <strong>de</strong>s quelques problèmes concernant les <strong>processus</strong> <strong>de</strong> MNote:1) Les problèmes que nous venons <strong>de</strong> discuter concernent une chaîne <strong>de</strong> <strong>Markov</strong>avec une ou <strong>de</strong>ux états absorbants. Soit Q la matrice sous-stochastique <strong>de</strong>s probabilités d<strong>et</strong>ransition parmi les états transitiores. En m<strong>et</strong>tant G = Q − I, <strong>et</strong> F (S) = R S l’espace <strong>de</strong>sfonctions <strong>de</strong>finies sur l’espace <strong>de</strong>s états transitoires S, les équations trouvées ici pour les44


fonctions p, f, t, c, w ∈ F (S) sont :(Gp) x = 0, b B = 1, b 0 = 0(Gf) x = 0, f B = B, f 0 = 0(Gt) x + 1 = 0, t B = 0, t 0 = 0(Gc) x + x = 0, c B = 0, c 0 = 0(Gw) x + (1 − a −1 )w x = 0, w B = 1, w 0 = 1font tous intervenir le même opérateur G = P − I : F (S)− > F (S).La remarque importante resortant <strong>de</strong> ces examples est qu’une gran<strong>de</strong> partie <strong>de</strong>s problèmesrencontrés peuvent être classifiés comme apartenant à un nb. assez p<strong>et</strong>it <strong>de</strong> types <strong>de</strong> problèmes,qui sont associés aux formes specifiques <strong>de</strong>s conditions frontière <strong>et</strong> <strong>de</strong>s termes inhomogènes.Cela perm<strong>et</strong>, une fois que le générateur d’un <strong>processus</strong> <strong>et</strong> le type <strong>de</strong> problème ont été reconnu,une i<strong>de</strong>ntification méchanique <strong>de</strong>s équations associées – voir Corollaires 5.1, 5.2, ??.Nous avons analysé c<strong>et</strong>te correspondance dans le cadre le plus simple <strong>de</strong>s chaînes <strong>de</strong><strong>Markov</strong> finies, <strong>et</strong> pour les types <strong>de</strong> problèmes les plus faciles à dériver <strong>et</strong> résoudre : ceux <strong>de</strong>Dirichl<strong>et</strong>, corréspondant aux problèmes d’absorbtion. En suite, nous examinerons c<strong>et</strong>tecorrespondance pour <strong>de</strong>s modèles plus complexes en temps continu, <strong>et</strong> avec <strong>de</strong>s espace d’étatsdénombrable <strong>et</strong> même continu.5.8 Exercices⎛p 1 p 2 |⎞1 − p 1 − p 21. Soit une chaîne absorbante <strong>de</strong>finie par la matrice <strong>de</strong> transition ⎝ 0 p | 1 − p ⎠0 0 | 1<strong>et</strong> la distribution initiale (α 1 , α 2 ).Trouvez l’esperance du nombre <strong>de</strong>s pas N jusq’à l’absorbtion.2. Pour une marche aléatoire X t , t = 0, 1, 2, ... sur le graphe cubique ci-<strong>de</strong>ssous,calculer :(a) L’ésperance en sortant <strong>de</strong> U du nombre <strong>de</strong> pas T O jusq’au noeud O. Indication :Utiliser la symm<strong>et</strong>rie.(b) Les probabilités stationnaires du chaque noeud. Indication : Devinez la rèponse<strong>et</strong> montrez qu’elle satisfait le systême <strong>de</strong>s équations d’équilibre.(c) L’ésperance en sortant <strong>de</strong> O du nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.(d) La probabilité p A = P A {X T = U}, ou T = min[T U , T O ].(e) La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.3. Rélations <strong>de</strong> récurrence. Obtenez la formule analytique <strong>de</strong>s suites décrites par lesrelations <strong>de</strong> récurrence ci-<strong>de</strong>ssous, <strong>et</strong> verifiez-les en utilisant les premiers termes <strong>de</strong> lasuite t 2 , t 3 .45


BUAOFig. 6 – Marche aléatoire simple(a) t i = 2t i−1 + i − 1, t 0 = 0 (b) t i = 2t i−1 + 5 · 2 i , t 0 = 0(c) t i = 3t i−1 − 2t i−2 + 2, t 0 = 0, t 1 = 2 (d) t i = 2t i−1 − t i−2 + 2, t 0 = 0, t 1 = 24. La marche paresseuse : Soit X n = X 0 + Z 1 + Z 2 + · · · + Z n une marche aléatoiresur Z, avec (Z n ) une suite <strong>de</strong> variables aléatoires réelles indépendantes <strong>de</strong> même loiP [Z n = ±1] =p/q <strong>et</strong> P [Z n = 0] =1- p-q, avec 0 < p+q < 1. Pour tout x <strong>de</strong> N, on notepar E x l’espérance en commençant <strong>de</strong> x (conditionnant sur X 0 = x). Nous arrêtons le<strong>processus</strong> au temps d’arrêt T auquel le <strong>processus</strong> sort <strong>de</strong> l’intervalle [0, K] pour 0 < Kdonnés.Obtenez l’équation <strong>de</strong> récurrence <strong>et</strong> les conditions frontière satisfaites par p x = P x {X T =K}, f x = E x X T , t x = E x T , c x = E x [ ∑ T0 X(t)] <strong>et</strong> w x = E x a T .Résolvez les équations <strong>de</strong> récurrence qui en résultent pour a) p x , b) f x , c) t x , d) c x <strong>et</strong>e) w x , quand p = q < 1/2.5. a) Une mouche saute au hasard sur les somm<strong>et</strong>s d’un triangle. Donnez une formuleexplicite, aussi efficace que possible, pour la probabilité qu’après n étapes, la mouchesoit <strong>de</strong> r<strong>et</strong>our au somm<strong>et</strong> dont elle est partie.b) Résolvez le même problème, au cas d’une marche cyclique avec probabilités d<strong>et</strong>ransition b = P (1, 2), c = P (1, 3), a = P (1, 1) = 1 − b − c. En particulier, considérez lecas où la mouche a <strong>de</strong>ux fois plus <strong>de</strong> chances à sauter dans le sens <strong>de</strong>s aiguilles d’unemontre.c) Généraliser au cas d’une marche cyclique sur les somm<strong>et</strong>s d’un polygone avec ksomm<strong>et</strong>s, en utilisant votre language formel <strong>de</strong> choix.6. Ruegg, 2.9 :10,5,6,14,13,11.7. Marc <strong>et</strong> un groupe <strong>de</strong> n − 1 amis jouent un jeu. Chacun m<strong>et</strong> un euro, <strong>et</strong> ensuite lanceune monnaie biaisée, avec une probabilité <strong>de</strong> sortir ”face” égale à p. La totalité <strong>de</strong>l’argent est partagé égalemment entre ceux qui ont obtenu face (s’il n’y a aucune,l’argent est donné à une oeuvre charitaire), <strong>et</strong> les piles per<strong>de</strong>nt leur argent. a) Quelleest l’espérance du capital <strong>de</strong> Marc, après un tour ? b) (*) Quelle est l’espérance ducapital après un tour pour un joueur choisi aléatoirement ?46


8. a) Quelle est la probabilité que la marche aléatoire simple est <strong>de</strong> r<strong>et</strong>our an 0 après 2npas ? b) Approximer c<strong>et</strong>te quantité par la formule <strong>de</strong> Stirling lim n→∞n!(n/e) n√ n = √ 2π.c) (**) Démontrez la formule <strong>de</strong> Stirling.5.9 Solutions2) X(t) représente une marche aléatoire simple sur le cube [0, 1] 3 , ⃗0 est l’origine (0, 0, 0), lecoin oposé (1, 1, 1) est noté par u. On remarque que dans toutes les questions les voisins<strong>de</strong> l’origine ont un role sym<strong>et</strong>rique <strong>et</strong> cela nous perm<strong>et</strong> <strong>de</strong> le noter par la même l<strong>et</strong>trea = (0, 0, 1), .... . De la même manière on appelle les voisins <strong>de</strong> u par b = (0, 1, 1), ....a) Pour trouver t u = E u [T 0 ], on résout le système :t u = 1 + t bt b = 1 + 2 3 t a + 1 3 t ut a = 1 + 2 3 t bdont la solution est t a = 7, t b = 9, t u = 10.b) E 0 [ ¯T 0 ] où ¯T 0 représente le temps esperé jusqu’à la prochaîne visite <strong>de</strong> 0 en commencant<strong>de</strong> 0, est donné par 1 + t a = 1 + 7 = 8. A remarquer que c’est exactement l’inverse<strong>de</strong> la probabilité ”<strong>de</strong> long parcour” d’être à 0,ce qui est un résultat bien connu sur lestemps <strong>de</strong> r<strong>et</strong>ours espérés.c) P a [X(T ) = u], s’obtient <strong>de</strong> la solution du systèmep a = 2 3 p bp b = 2 3 p a + 1 3qui est p b = 3, p 5 a = 2.5d) Soit p k la probabilité d’avoir exactement k visites à U = (1, 1, 1) avant <strong>de</strong> r<strong>et</strong>ournerà 0. Alors p 0 c’est le même que la probabilité commencant en A que la marche revientà 0 avant <strong>de</strong> visiter (1, 1, 1), qui est 3.5Pour k = 1 visite, ”le chemin” observé seulement en O, l’état aprés B <strong>et</strong> U” estA,U,B,0. Donc, p 1 = P A [U, B, 0] = ( 2 5 )2 , p 2 = P A [U, B, U, B, 0] = ( 2 5 )2 ( 3 ), <strong>et</strong> en général5p k = 3 p 5 k−1 = ( 2 5 )2 ( 3 5 )k−1 , k ≥ 2. La distribution pour k ≥ 1 est geom<strong>et</strong>rique (verifiezque ∑ ∞k=1 p k = 2 , comme il faut).53) (a) C’est une équation nonhomogene, alors nous aurions :t i = ˜t i + A2 i , ˜t i = c 1 i + c 2 avec c 1 i + c 2 = 2(c 1 i − c 1 + c 2 ) + i − 147


<strong>et</strong> alors c 1 = 2c 1 + 1 <strong>et</strong> c 1 = −1c 2 = −2c 1 + 2c 2 − 1 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i(b) C’est une équation nonhomogène, alors :t i = ˜t i + A2 i , ˜t i = ci2 iavec ci2 i = 2(c(i − 1)2 i /2) + 52 i<strong>et</strong> alors c = 5, t i = 5i2 i + A2 i <strong>et</strong> finalement,t 0 = = 0 = A <strong>et</strong> A = 0t i = 5i2 i(c) C’est une équation differentielle nonhomogène <strong>et</strong> l’equation quadratique attachéea les racines 1, 2, alors nous aurions :t i = ˜t i + A 1 2 i + A 2 , ˜t i = ci avec ci = 3(ci − c) − 2(ci − 2c) + 2<strong>et</strong> alors c = −2 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i(d) C’est une équation différentielle nonhomogène avec <strong>de</strong>s racines confondues egalesa 1 <strong>de</strong> l’equation quadratique attachée, alors nous aurions :t i = ˜t i + A 1 + A 2 i, ˜t i = c 1 i + c 2 avec c 1 i + c 2 = 2(c 1 i − c 1 + c 2 ) + i − 1<strong>et</strong> alors c 1 = 2c 1 + 1 <strong>et</strong> c 1 = −1c 2 = −2c 1 + 2c 2 − 1 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i4) (a) Soit (Gf) x = p (f x+1 − f x ) + q (f x−1 − f x ) (formellement, la même expressioncomme dans le cas ”non-paresseux”, sauf que maintenant p + q < 1.48


Les équations sont respectivement :(Gp) x = 0, p K = 1, p 0 = 0(Gf) x = 0, f K = K, f 0 = 0(Gt) x + 1 = 0, t K = 0, t 0 = 0(Gc) x + x = 0, c K = 0, c 0 = 0(Gw) x = (a −1 − 1)w x , w K = 1, w 0 = 1Ces sont exactement les mêmes équations comme pour une marche non-paresseuse,sauf que l’opérateur est different.(b) Pour p x <strong>et</strong> f x on obtient donc les mêmes équations comme pour une marche symm<strong>et</strong>riqueavec p = 1/2, par exemple :2pp x = pp x+1 + pp x−1 for any 1 ≤ x ≤ K − 1p K = 1, p 0 = 00<strong>et</strong> donc les mêmes réponses p x = x , Kesperé) on trouve :t x = t x+12 + t x−12 + 12pt K = 0, t 0 = 0f x = x Pour t x = E x [T ] (temps <strong>de</strong> sortiefor any 1 ≤ x ≤ K − 1avec solution t x = x(K−x)2p.Remarque : Le fait que les équations sont i<strong>de</strong>ntiques pour ces <strong>de</strong>ux marches (paresseuse<strong>et</strong> non-paresseuse) n’est pas une coinci<strong>de</strong>nce. En fait, il s’avère que les réponsesobtenues sont les mêmes por n’importe quel <strong>processus</strong> <strong>Markov</strong>ien homogène, si on <strong>de</strong>finil’opérateur <strong>de</strong> la façon juste. Donc, la réponse pour tous les problèmes concernantespérances va impliquer un seul opérateur G (seulement les conditions frontière <strong>et</strong> lapartie non-homogène changent d’un problème à l’autre)- en fait, la famille <strong>de</strong>s <strong>processus</strong>aléatoires <strong>Markov</strong>iens est isomorphe à une famille d’opérateurs déterministes.En plus, la structure <strong>de</strong>s reponses en fonction <strong>de</strong> G est la même pour toutes les<strong>processus</strong> aléatoires <strong>Markov</strong>iens, malgré leur diversité ; c’est un fait remarquable, quidémontre la puissance <strong>de</strong> ce concept.5) a) L’équation <strong>de</strong> Chapman-Kolmogorov donne imédiatement une formule explicite :P n (1, 1). On note aussi que les marches cycliques ont la matrice <strong>de</strong> transition P circulante,<strong>et</strong> donc une <strong>de</strong>composition spectrale bien-connue explicite, qui utilise les racines(complexes) <strong>de</strong> l’unité. Mais, on peut faire mieux. La matrice P n est aussi circulante,<strong>et</strong> contient donc seulement <strong>de</strong>ux inconnues : b n = P n (1, 2), c n = P n (1, 3). Soitb = P (1, 2), c = P (1, 3), a = P (1, 1) = 1−b−c les probabilités après un pas. On trouvela récurrence : ( ) ( ) ( )bn+1 − 1/3 a − b c − b bn − 1/3=c n+1 − 1/3 b − c a − c c n − 1/349


Le cas b = c = 1/2 <strong>et</strong> a = b = c = 1/3 donnent <strong>de</strong>s récurences ”<strong>de</strong>couplées”. Le casb = 2/3, c = 1/3 est plus difficile. En utilisant l’ordinateur, on rémarque que :où v n = v n+12 est périodique.(b n − 1/3, c n − 1/3) = (1/3, 1/3) + 3 −1−n/2 v n1. a) X, le nombre total <strong>de</strong>s faces a une distribution binomiale B(n, p). Il y a <strong>de</strong>uxpossibiltés : - que Marc tire une pile <strong>et</strong> perd, dans quel cas son gain sera 0, <strong>et</strong> qu’iltire une face, dans quel cas le gain sera Y =n où X ′ a une distribution binomiale1+X ′B(n, p). Donc, l’espérance du gain estY = pEn = p1 + X ′=∑n−1k=0∑n−1k=0n1 + kn∑n−11 + k Ck n−1 pk q n−1−k = pk=0n1 + kn!(k + 1)!(n − k − 1)! pk+1 q n−1−k =(n − 1)!k!(n − k − 1)! pk q n−1−kn∑Cn j pj q n−j = 1 − q nb) Le gain esperé d’un ”joueur aléatoire” Y = Y (X) est 0 si X = 0, a.p. q n . Aucas contraire, le ”joueur aléatoire” est gagnant avec probabilité X <strong>et</strong> perdant avecnprobabilité 1 − X . Le gain esperé est toujours (1 − n qn )E[ X n] = (1 − n X qn ).Finalement, c<strong>et</strong> exercice suggère la question générale du calcul <strong>de</strong>s ”sommes binomiales”,comme par exempleS n =∑n−1i=01∑n−1(i + 1) 2 Ci n−1 xi =i=0j=11(i + 1) 2 Ci n−1 xioù x = p . Parfois, ces sommes peuvent être déduites à partir <strong>de</strong> l’i<strong>de</strong>ntité (1 + q x)m =∑ mi=0 Ci m xi en dérivant ou en intégrant. Mais, le proces d’integration n’abouti pastoujours à <strong>de</strong>s sommes closes. Une somme S n = ∑ n1 f n est une solution d’une relation<strong>de</strong> recurrence <strong>de</strong> premier ordre S n − S n−1 = f n <strong>et</strong> donc la question <strong>de</strong> l’existence<strong>de</strong>s formules closes pour f n polynomes ou fonctions rationelles est un cas particulier<strong>de</strong> la question <strong>de</strong> l’existence <strong>de</strong>s formules closes pour les recurrences avec coefficientspolynomiaux.C<strong>et</strong>te question est assez difficile, <strong>et</strong> le plus efficace est d’utiliser un logiciel symbolique.Ceux ci nous informent s’il y a <strong>de</strong>s formules closes dans la famille relativement simple<strong>de</strong>s solutions ”d’Alembertiennes”, ou si non.50


5.10 Proj<strong>et</strong>Soit X t une chaîne <strong>de</strong> <strong>Markov</strong> absorbante, soit ∂ l’ensemble <strong>de</strong> ses états absorbantes,soit B, A une <strong>de</strong>composition <strong>de</strong> l’ensemble <strong>de</strong>s états transitoires, <strong>et</strong> soitp(k, B) = (p x (k, B), x /∈ ∂)oùp x (k, B) := P x {exactement k visites en B avant l’absorbtion en ∂}, x /∈ ∂1. Quel type <strong>de</strong> distribution on trouve pour p x (k, B), quand B = {x} ? (Specifiez lesparamètres). Quel est le résultat pour la chaîne associé à :⎛⎞0 1 − a a 0 01 − b 0 b 0 0⎜ x 1 x 2 0 x 4 1 − x 1 − x 2 − x 4⎟ où B = {3}, <strong>et</strong> en particulier pour a =⎝ 0 0 c 0 1 − c ⎠0 0 0 0 1b = c = 1/2, x 1 = x 2 = x 4 = 1/4 (”le papillon”).OUBAFig. 7 – Marche aléatoire simple sur le graphe papillonC2. Pour B quelqonque, en conditionnant sur le premier pas, trouvez une relation entreles variables p x (k, B), x ∈ A, k ∈ N, <strong>et</strong> finalement une récurrence vectorielle p(k) =Mp(k − 1), en spécifiant comment obtenir la matrice M à partir <strong>de</strong> la matrice P d<strong>et</strong>ransition <strong>de</strong> la chaîne. Vérifiez votre formule avec le cas B = A.3. R<strong>et</strong>rouvez le résultat pour le ”papillon généralisé” ci-<strong>de</strong>ssus, dans le cas qu’on cherchela probabilité p k en partant <strong>de</strong> U = 5 que la marche visite O = 1 exactement kfois (k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à U) (les autres somm<strong>et</strong>s seront libelésA = 2, B = 3, C = 4), à partir <strong>de</strong> la formule générale.4. Consi<strong>de</strong>rez aussi le ”papillon généralisé”, en prenant B = {1, 2, 3}. Vérifiez pour c<strong>et</strong>exemple que la somme ∑ ∞k=0 p k(i, B) = 1, ∀i ∈ {1, 2, 3}.51


5. Ecrivez un program dans votre language <strong>de</strong> choix qui calcule p(k, B) <strong>et</strong> une approximationp(k, B) ≈ cλ k pour une chaîne <strong>et</strong> ensemble B arbitraires <strong>et</strong> démontrez saperformance sur les exemples 3.5, 3.6 (pages 23-24) <strong>et</strong> ensembles B <strong>de</strong> votre choix.Solution :1. Quand |B| = 1, on trouve une distribution geom<strong>et</strong>rique p x (k, {x}) = λ k−1 (1 − λ)où : 1 − λ = p x (1, {x}) = Q(x, ∂(A) + ∑ ∑y∈A−B p(x, y)P y[T ∂(A) < T x ] = Q(x, ∂(A) +y∈A−B p(x, y)(1 − P y[T ∂(A) > T x ]), <strong>et</strong> λ = Q B,B + ∑ y∈A−B p(x, y)P y[T ∂(A) > T x ] =Q B,B + Q B,A (I − Q A ) −1 Q A,B , car pour k ≥ 2 on a :p x (k, {x}) =∑p(x, y)P y [T ∂(A) > T x ]p x (k − 1, {x}) = λp x (k − 1, {x})y∈A−BPour le papillon, B = {3}, λ B = x 1 + x 2 + cx 4 = 5/8 <strong>et</strong> pour B = {1}, λ B = 3/8.2. Il est convenable <strong>de</strong> partager p k = (a k , b k ), où b k = (p x (k, B), x ∈ B), a k = (p x (k, B), x ∈A, x /∈ B). On peut supposer qu’il y a un seul état absorbant (en ”collant ensemble”tous les états absorbants), <strong>et</strong> soit⎛⎞Q A Q A,B | q AP = ⎝Q B,A Q B | q B⎠0 0 | 1la partition <strong>de</strong> la matrice <strong>de</strong> transition contenant les états dans l’ordre A − B, B, ∂.On a b 0 = 0, b 1 = q B + Q B,A a 0 <strong>et</strong>a 0 = q A + Q A a 0 =⇒ a 0 = (I − Q A ) −1 q A ,b 1 = q B + Q B,A (I − Q A ) −1 q APour k ≥ 2, x ∈ B, p x (k, B) = ∑ y∈A P (x, y)p y(k − 1, B), <strong>et</strong> doncb k = Q B b k−1 + Q B,A a k−1tant que pour x /∈ B, k ≥ 1, p x (k, B) = ∑ y∈A P (x, y)p y(k, B) <strong>et</strong> doncCommea k = Q A,B b k + Q A a k =⇒ a k = (I − Q A ) −1 Q A,B b kb 1 = (I B − Q B )1 B − Q B,A 1 A + Q B,A (I − Q A ) −1 ((I A − Q A )1 A − Q A,B 1 B ) = (I B − M)1 B )on trouveb k = (Q B + Q B,A (I − Q A ) −1 Q A,B )b k−1 =⇒ b k = M k−1 ((I B − M)1 B )où M = Q B + Q B,A (I − Q A ) −1 Q A,B est la matrice <strong>de</strong> transition <strong>de</strong> la ”chaîne induite”sur B (où ”complement <strong>de</strong> Shur” <strong>de</strong> A en Q).Quand B = A, on r<strong>et</strong>rouve b k = Q k−1B q B.52


3. En résolvant le système d’absorbtion pour p A , p B , p C , on trouve p A = 3/4, p B =1/2, p C = 1/4. 5) Soit p A,k = P A {exactement k visites en U avant le r<strong>et</strong>our en O},avec p B,k , p C,k définies pareillement, <strong>et</strong> p k = (p A,k , p B,k , p C,k ).Ainsi, p 0 = (p A , p B , p C ) <strong>et</strong> p 0 = 1(p 2 A,0 + p B,0 ) = 1(p 2 A + p B ).Pour k ≥ 1, on trouve :⎛0 1/2⎞0⎛0 0⎞0p k = ⎝1/4 0 1/4⎠ p k + ⎝0 1/8 1/8⎠ p k−10 1/2 0 0 1/8 1/8⎛⎞−1 ⎛⎞1 −1/2 0 0 0 0⇐⇒ p k = ⎝−1/4 1 −1/4⎠⎝0 1/8 1/8⎠ p k−10 −1/2 1 0 1/8 1/8⎛⎞0 1/8 1/8⇐⇒ p k = ⎝0 1/4 1/4⎠ p k−10 3/8 3/8⎛1 0⎞1/3Les vecp à droite sont les colonnes <strong>de</strong> ⎝0 −1 2/3/ ⎠, les valp correspondantes sont :0 1 10, 0, 5/8 <strong>et</strong> le vecp <strong>de</strong> PF à gauche est : (0, 3/5, 3/5).⎛ ⎞1/5Dés lors, p k = (5/8) k−1 (p B + p C ) ⎝2/5⎠ <strong>et</strong> p k = (5/8) k−1 (p B + p C )3/103/55.11 Exercices⎛p 1 p 2 |⎞1 − p 1 − p 21. Soit une chaîne absorbante <strong>de</strong>finie par la matrice <strong>de</strong> transition ⎝ 0 p | 1 − p ⎠0 0 | 1<strong>et</strong> la distribution initiale (α 1 , α 2 ).Trouvez l’esperance du nombre <strong>de</strong>s pas N jusq’à l’absorbtion.2. Pour une marche aléatoire X t , t = 0, 1, 2, ... sur le graphe cubique ci-<strong>de</strong>ssous,calculer :(a) L’ésperance en sortant <strong>de</strong> U du nombre <strong>de</strong> pas T O jusq’au noeud O. Indication :Utiliser la symm<strong>et</strong>rie.(b) Les probabilités stationnaires du chaque noeud. Indication : Devinez la rèponse<strong>et</strong> montrez qu’elle satisfait le systême <strong>de</strong>s équations d’équilibre.(c) L’ésperance en sortant <strong>de</strong> O du nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.(d) La probabilité p A = P A {X T = U}, ou T = min[T U , T O ].(e) La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.53


BUAOFig. 8 – Marche aléatoire simple3. Rélations <strong>de</strong> récurrence. Obtenez la formule analytique <strong>de</strong>s suites décrites par lesrelations <strong>de</strong> récurrence ci-<strong>de</strong>ssous, <strong>et</strong> verifiez-les en utilisant les premiers termes <strong>de</strong> lasuite t 2 , t 3 .(a) t i = 2t i−1 + i − 1, t 0 = 0 (b) t i = 2t i−1 + 5 · 2 i , t 0 = 0(c) t i = 3t i−1 − 2t i−2 + 2, t 0 = 0, t 1 = 2 (d) t i = 2t i−1 − t i−2 + 2, t 0 = 0, t 1 = 24. La marche paresseuse : Soit X n = X 0 + Z 1 + Z 2 + · · · + Z n une marche aléatoiresur Z, avec (Z n ) une suite <strong>de</strong> variables aléatoires réelles indépendantes <strong>de</strong> même loiP [Z n = ±1] =p/q <strong>et</strong> P [Z n = 0] =1- p-q, avec 0 < p+q < 1. Pour tout x <strong>de</strong> N, on notepar E x l’espérance en commençant <strong>de</strong> x (conditionnant sur X 0 = x). Nous arrêtons le<strong>processus</strong> au temps d’arrêt T auquel le <strong>processus</strong> sort <strong>de</strong> l’intervalle [0, K] pour 0 < Kdonnés.Obtenez l’équation <strong>de</strong> récurrence <strong>et</strong> les conditions frontière satisfaites par p x = P x {X T =K}, f x = E x X T , t x = E x T , c x = E x [ ∑ T0 X(t)] <strong>et</strong> w x = E x a T .Résolvez les équations <strong>de</strong> récurrence qui en résultent pour a) p x , b) f x , c) t x , d) c x <strong>et</strong>e) w x , quand p = q < 1/2.5. a) Une mouche saute au hasard sur les somm<strong>et</strong>s d’un triangle. Donnez une formuleexplicite, aussi efficace que possible, pour la probabilité qu’après n étapes, la mouchesoit <strong>de</strong> r<strong>et</strong>our au somm<strong>et</strong> dont elle est partie.b) Résolvez le même problème, au cas d’une marche cyclique avec probabilités d<strong>et</strong>ransition b = P (1, 2), c = P (1, 3), a = P (1, 1) = 1 − b − c. En particulier, considérez lecas où la mouche a <strong>de</strong>ux fois plus <strong>de</strong> chances à sauter dans le sens <strong>de</strong>s aiguilles d’unemontre.c) Généraliser au cas d’une marche cyclique sur les somm<strong>et</strong>s d’un polygone avec ksomm<strong>et</strong>s, en utilisant votre language formel <strong>de</strong> choix.6. Ruegg, 2.9 :10,5,6,14,13,11.7. Marc <strong>et</strong> un groupe <strong>de</strong> n − 1 amis jouent un jeu. Chacun m<strong>et</strong> un euro, <strong>et</strong> ensuite lanceune monnaie biaisée, avec une probabilité <strong>de</strong> sortir ”face” égale à p. La totalité <strong>de</strong>l’argent est partagé égalemment entre ceux qui ont obtenu face (s’il n’y a aucune,54


l’argent est donné à une oeuvre charitaire), <strong>et</strong> les piles per<strong>de</strong>nt leur argent. a) Quelleest l’espérance du capital <strong>de</strong> Marc, après un tour ? b) (*) Quelle est l’espérance ducapital après un tour pour un joueur choisi aléatoirement ?8. a) Quelle est la probabilité que la marche aléatoire simple est <strong>de</strong> r<strong>et</strong>our an 0 après 2npas ? b) Approximer c<strong>et</strong>te quantité par la formule <strong>de</strong> Stirling lim n→∞n!(n/e) n√ n = √ 2π.c) (**) Démontrez la formule <strong>de</strong> Stirling.5.12 Solutions2) X(t) représente une marche aléatoire simple sur le cube [0, 1] 3 , ⃗0 est l’origine (0, 0, 0), lecoin oposé (1, 1, 1) est noté par u. On remarque que dans toutes les questions les voisins<strong>de</strong> l’origine ont un role sym<strong>et</strong>rique <strong>et</strong> cela nous perm<strong>et</strong> <strong>de</strong> le noter par la même l<strong>et</strong>trea = (0, 0, 1), .... . De la même manière on appelle les voisins <strong>de</strong> u par b = (0, 1, 1), ....a) Pour trouver t u = E u [T 0 ], on résout le système :t u = 1 + t bt b = 1 + 2 3 t a + 1 3 t ut a = 1 + 2 3 t bdont la solution est t a = 7, t b = 9, t u = 10.b) E 0 [ ¯T 0 ] où ¯T 0 représente le temps esperé jusqu’à la prochaîne visite <strong>de</strong> 0 en commencant<strong>de</strong> 0, est donné par 1 + t a = 1 + 7 = 8. A remarquer que c’est exactement l’inverse<strong>de</strong> la probabilité ”<strong>de</strong> long parcour” d’être à 0,ce qui est un résultat bien connu sur lestemps <strong>de</strong> r<strong>et</strong>ours espérés.c) P a [X(T ) = u], s’obtient <strong>de</strong> la solution du systèmep a = 2 3 p bp b = 2 3 p a + 1 3qui est p b = 3, p 5 a = 2.5d) Soit p k la probabilité d’avoir exactement k visites à U = (1, 1, 1) avant <strong>de</strong> r<strong>et</strong>ournerà 0. Alors p 0 c’est le même que la probabilité commencant en A que la marche revientà 0 avant <strong>de</strong> visiter (1, 1, 1), qui est 3.5Pour k = 1 visite, ”le chemin” observé seulement en O, l’état aprés B <strong>et</strong> U” estA,U,B,0. Donc, p 1 = P A [U, B, 0] = ( 2 5 )2 , p 2 = P A [U, B, U, B, 0] = ( 2 5 )2 ( 3 ), <strong>et</strong> en général5p k = 3p 5 k−1 = ( 2 5 )2 ( 3 5 )k−1 , k ≥ 2. La distribution pour k ≥ 1 est geom<strong>et</strong>rique (verifiezque ∑ ∞k=1 p k = 2 , comme il faut).53) (a) C’est une équation nonhomogene, alors nous aurions :t i = ˜t i + A2 i , ˜t i = c 1 i + c 2 avec c 1 i + c 2 = 2(c 1 i − c 1 + c 2 ) + i − 155


<strong>et</strong> alors c 1 = 2c 1 + 1 <strong>et</strong> c 1 = −1c 2 = −2c 1 + 2c 2 − 1 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i(b) C’est une équation nonhomogène, alors :t i = ˜t i + A2 i , ˜t i = ci2 iavec ci2 i = 2(c(i − 1)2 i /2) + 52 i<strong>et</strong> alors c = 5, t i = 5i2 i + A2 i <strong>et</strong> finalement,t 0 = = 0 = A <strong>et</strong> A = 0t i = 5i2 i(c) C’est une équation differentielle nonhomogène <strong>et</strong> l’equation quadratique attachéea les racines 1, 2, alors nous aurions :t i = ˜t i + A 1 2 i + A 2 , ˜t i = ci avec ci = 3(ci − c) − 2(ci − 2c) + 2<strong>et</strong> alors c = −2 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i(d) C’est une équation différentielle nonhomogène avec <strong>de</strong>s racines confondues egalesa 1 <strong>de</strong> l’equation quadratique attachée, alors nous aurions :t i = ˜t i + A 1 + A 2 i, ˜t i = c 1 i + c 2 avec c 1 i + c 2 = 2(c 1 i − c 1 + c 2 ) + i − 1<strong>et</strong> alors c 1 = 2c 1 + 1 <strong>et</strong> c 1 = −1c 2 = −2c 1 + 2c 2 − 1 <strong>et</strong> c 2 = 2c 1 + 1 = −1˜t i = −i − 1 Finalement,t 0 = = 0 = −1 + A <strong>et</strong> A = 1t i = −i − 1 + 2 i4) (a) Soit (Gf) x = p (f x+1 − f x ) + q (f x−1 − f x ) (formellement, la même expressioncomme dans le cas ”non-paresseux”, sauf que maintenant p + q < 1.56


Les équations sont respectivement :(Gp) x = 0, p K = 1, p 0 = 0(Gf) x = 0, f K = K, f 0 = 0(Gt) x + 1 = 0, t K = 0, t 0 = 0(Gc) x + x = 0, c K = 0, c 0 = 0(Gw) x = (a −1 − 1)w x , w K = 1, w 0 = 1Ces sont exactement les mêmes équations comme pour une marche non-paresseuse,sauf que l’opérateur est different.(b) Pour p x <strong>et</strong> f x on obtient donc les mêmes équations comme pour une marche symm<strong>et</strong>riqueavec p = 1/2, par exemple :2pp x = pp x+1 + pp x−1 for any 1 ≤ x ≤ K − 1p K = 1, p 0 = 00<strong>et</strong> donc les mêmes réponses p x = x , Kesperé) on trouve :t x = t x+12 + t x−12 + 12pt K = 0, t 0 = 0f x = x Pour t x = E x [T ] (temps <strong>de</strong> sortiefor any 1 ≤ x ≤ K − 1avec solution t x = x(K−x)2p.Remarque : Le fait que les équations sont i<strong>de</strong>ntiques pour ces <strong>de</strong>ux marches (paresseuse<strong>et</strong> non-paresseuse) n’est pas une coinci<strong>de</strong>nce. En fait, il s’avère que les réponsesobtenues sont les mêmes por n’importe quel <strong>processus</strong> <strong>Markov</strong>ien homogène, si on <strong>de</strong>finil’opérateur <strong>de</strong> la façon juste. Donc, la réponse pour tous les problèmes concernantespérances va impliquer un seul opérateur G (seulement les conditions frontière <strong>et</strong> lapartie non-homogène changent d’un problème à l’autre)- en fait, la famille <strong>de</strong>s <strong>processus</strong>aléatoires <strong>Markov</strong>iens est isomorphe à une famille d’opérateurs déterministes.En plus, la structure <strong>de</strong>s reponses en fonction <strong>de</strong> G est la même pour toutes les<strong>processus</strong> aléatoires <strong>Markov</strong>iens, malgré leur diversité ; c’est un fait remarquable, quidémontre la puissance <strong>de</strong> ce concept.5) a) L’équation <strong>de</strong> Chapman-Kolmogorov donne imédiatement une formule explicite :P n (1, 1). On note aussi que les marches cycliques ont la matrice <strong>de</strong> transition P circulante,<strong>et</strong> donc une <strong>de</strong>composition spectrale bien-connue explicite, qui utilise les racines(complexes) <strong>de</strong> l’unité. Mais, on peut faire mieux. La matrice P n est aussi circulante,<strong>et</strong> contient donc seulement <strong>de</strong>ux inconnues : b n = P n (1, 2), c n = P n (1, 3). Soitb = P (1, 2), c = P (1, 3), a = P (1, 1) = 1−b−c les probabilités après un pas. On trouvela récurrence : ( ) ( ) ( )bn+1 − 1/3 a − b c − b bn − 1/3=c n+1 − 1/3 b − c a − c c n − 1/357


Le cas b = c = 1/2 <strong>et</strong> a = b = c = 1/3 donnent <strong>de</strong>s récurences ”<strong>de</strong>couplées”. Le casb = 2/3, c = 1/3 est plus difficile. En utilisant l’ordinateur, on rémarque que :où v n = v n+12 est périodique.(b n − 1/3, c n − 1/3) = (1/3, 1/3) + 3 −1−n/2 v n1. a) X, le nombre total <strong>de</strong>s faces a une distribution binomiale B(n, p). Il y a <strong>de</strong>uxpossibiltés : - que Marc tire une pile <strong>et</strong> perd, dans quel cas son gain sera 0, <strong>et</strong> qu’iltire une face, dans quel cas le gain sera Y =n où X ′ a une distribution binomiale1+X ′B(n, p). Donc, l’espérance du gain estY = pEn = p1 + X ′=∑n−1k=0∑n−1k=0n1 + kn∑n−11 + k Ck n−1 pk q n−1−k = pk=0n1 + kn!(k + 1)!(n − k − 1)! pk+1 q n−1−k =(n − 1)!k!(n − k − 1)! pk q n−1−kn∑Cn j pj q n−j = 1 − q nb) Le gain esperé d’un ”joueur aléatoire” Y = Y (X) est 0 si X = 0, a.p. q n . Aucas contraire, le ”joueur aléatoire” est gagnant avec probabilité X <strong>et</strong> perdant avecnprobabilité 1 − X . Le gain esperé est toujours (1 − n qn )E[ X n] = (1 − n X qn ).Finalement, c<strong>et</strong> exercice suggère la question générale du calcul <strong>de</strong>s ”sommes binomiales”,comme par exempleS n =∑n−1i=01∑n−1(i + 1) 2 Ci n−1 xi =i=0j=11(i + 1) 2 Ci n−1 xioù x = p . Parfois, ces sommes peuvent être déduites à partir <strong>de</strong> l’i<strong>de</strong>ntité (1 + q x)m =∑ mi=0 Ci m xi en dérivant ou en intégrant. Mais, le proces d’integration n’abouti pastoujours à <strong>de</strong>s sommes closes. Une somme S n = ∑ n1 f n est une solution d’une relation<strong>de</strong> recurrence <strong>de</strong> premier ordre S n − S n−1 = f n <strong>et</strong> donc la question <strong>de</strong> l’existence<strong>de</strong>s formules closes pour f n polynomes ou fonctions rationelles est un cas particulier<strong>de</strong> la question <strong>de</strong> l’existence <strong>de</strong>s formules closes pour les recurrences avec coefficientspolynomiaux.C<strong>et</strong>te question est assez difficile, <strong>et</strong> le plus efficace est d’utiliser un logiciel symbolique.Ceux ci nous informent s’il y a <strong>de</strong>s formules closes dans la famille relativement simple<strong>de</strong>s solutions ”d’Alembertiennes”, ou si non.58


5.13 Proj<strong>et</strong>Soit X t une chaîne <strong>de</strong> <strong>Markov</strong> absorbante, soit ∂ l’ensemble <strong>de</strong> ses états absorbantes,soit B, A une <strong>de</strong>composition <strong>de</strong> l’ensemble <strong>de</strong>s états transitoires, <strong>et</strong> soitp(k, B) = (p x (k, B), x /∈ ∂)oùp x (k, B) := P x {exactement k visites en B avant l’absorbtion en ∂}, x /∈ ∂1. Quel type <strong>de</strong> distribution on trouve pour p x (k, B), quand B = {x} ? (Specifiez lesparamètres). Quel est le résultat pour la chaîne associé à :⎛⎞0 1 − a a 0 01 − b 0 b 0 0⎜ x 1 x 2 0 x 4 1 − x 1 − x 2 − x 4⎟ où B = {3}, <strong>et</strong> en particulier pour a =⎝ 0 0 c 0 1 − c ⎠0 0 0 0 1b = c = 1/2, x 1 = x 2 = x 4 = 1/4 (”le papillon”).OUBAFig. 9 – Marche aléatoire simple sur le graphe papillonC2. Pour B quelqonque, en conditionnant sur le premier pas, trouvez une relation entreles variables p x (k, B), x ∈ A, k ∈ N, <strong>et</strong> finalement une récurrence vectorielle p(k) =Mp(k − 1), en spécifiant comment obtenir la matrice M à partir <strong>de</strong> la matrice P d<strong>et</strong>ransition <strong>de</strong> la chaîne. Vérifiez votre formule avec le cas B = A.3. R<strong>et</strong>rouvez le résultat pour le ”papillon généralisé” ci-<strong>de</strong>ssus, dans le cas qu’on cherchela probabilité p k en partant <strong>de</strong> U = 5 que la marche visite O = 1 exactement kfois (k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à U) (les autres somm<strong>et</strong>s seront libelésA = 2, B = 3, C = 4), à partir <strong>de</strong> la formule générale.4. Consi<strong>de</strong>rez aussi le ”papillon généralisé”, en prenant B = {1, 2, 3}. Vérifiez pour c<strong>et</strong>exemple que la somme ∑ ∞k=0 p k(i, B) = 1, ∀i ∈ {1, 2, 3}.59


5. Ecrivez un program dans votre language <strong>de</strong> choix qui calcule p(k, B) <strong>et</strong> une approximationp(k, B) ≈ cλ k pour une chaîne <strong>et</strong> ensemble B arbitraires <strong>et</strong> démontrez saperformance sur les exemples 3.5, 3.6 (pages 23-24) <strong>et</strong> ensembles B <strong>de</strong> votre choix.Solution :1. Quand |B| = 1, on trouve une distribution geom<strong>et</strong>rique p x (k, {x}) = λ k−1 (1 − λ)où : 1 − λ = p x (1, {x}) = Q(x, ∂(A) + ∑ ∑y∈A−B p(x, y)P y[T ∂(A) < T x ] = Q(x, ∂(A) +y∈A−B p(x, y)(1 − P y[T ∂(A) > T x ]), <strong>et</strong> λ = Q B,B + ∑ y∈A−B p(x, y)P y[T ∂(A) > T x ] =Q B,B + Q B,A (I − Q A ) −1 Q A,B , car pour k ≥ 2 on a :p x (k, {x}) =∑p(x, y)P y [T ∂(A) > T x ]p x (k − 1, {x}) = λp x (k − 1, {x})y∈A−BPour le papillon, B = {3}, λ B = x 1 + x 2 + cx 4 = 5/8 <strong>et</strong> pour B = {1}, λ B = 3/8.2. Il est convenable <strong>de</strong> partager p k = (a k , b k ), où b k = (p x (k, B), x ∈ B), a k = (p x (k, B), x ∈A, x /∈ B). On peut supposer qu’il y a un seul état absorbant (en ”collant ensemble”tous les états absorbants), <strong>et</strong> soit⎛⎞Q A Q A,B | q AP = ⎝Q B,A Q B | q B⎠0 0 | 1la partition <strong>de</strong> la matrice <strong>de</strong> transition contenant les états dans l’ordre A − B, B, ∂.On a b 0 = 0, b 1 = q B + Q B,A a 0 <strong>et</strong>a 0 = q A + Q A a 0 =⇒ a 0 = (I − Q A ) −1 q A ,b 1 = q B + Q B,A (I − Q A ) −1 q APour k ≥ 2, x ∈ B, p x (k, B) = ∑ y∈A P (x, y)p y(k − 1, B), <strong>et</strong> doncb k = Q B b k−1 + Q B,A a k−1tant que pour x /∈ B, k ≥ 1, p x (k, B) = ∑ y∈A P (x, y)p y(k, B) <strong>et</strong> doncCommea k = Q A,B b k + Q A a k =⇒ a k = (I − Q A ) −1 Q A,B b kb 1 = (I B − Q B )1 B − Q B,A 1 A + Q B,A (I − Q A ) −1 ((I A − Q A )1 A − Q A,B 1 B ) = (I B − M)1 B )on trouveb k = (Q B + Q B,A (I − Q A ) −1 Q A,B )b k−1 =⇒ b k = M k−1 ((I B − M)1 B )où M = Q B + Q B,A (I − Q A ) −1 Q A,B est la matrice <strong>de</strong> transition <strong>de</strong> la ”chaîne induite”sur B (où ”complement <strong>de</strong> Shur” <strong>de</strong> A en Q).Quand B = A, on r<strong>et</strong>rouve b k = Q k−1B q B.60


3. En résolvant le système d’absorbtion pour p A , p B , p C , on trouve p A = 3/4, p B =1/2, p C = 1/4. 5) Soit p A,k = P A {exactement k visites en U avant le r<strong>et</strong>our en O},avec p B,k , p C,k définies pareillement, <strong>et</strong> p k = (p A,k , p B,k , p C,k ).Ainsi, p 0 = (p A , p B , p C ) <strong>et</strong> p 0 = 1 (p 2 A,0 + p B,0 ) = 1 (p 2 A + p B ).Pour k ≥ 1, on trouve :⎛0 1/2⎞0⎛0 0⎞0p k = ⎝1/4 0 1/4⎠ p k + ⎝0 1/8 1/8⎠ p k−10 1/2 0 0 1/8 1/8⎛⎞−1 ⎛⎞1 −1/2 0 0 0 0⇐⇒ p k = ⎝−1/4 1 −1/4⎠⎝0 1/8 1/8⎠ p k−10 −1/2 1 0 1/8 1/8⎛⎞0 1/8 1/8⇐⇒ p k = ⎝0 1/4 1/4⎠ p k−10 3/8 3/8⎛1 0⎞1/3Les vecp à droite sont les colonnes <strong>de</strong> ⎝0 −1 2/3/ ⎠, les valp correspondantes sont :0 1 10, 0, 5/8 <strong>et</strong> le vecp <strong>de</strong> PF à gauche est : (0, 3/5, 3/5).⎛ ⎞1/5Dés lors, p k = (5/8) k−1 (p B + p C ) ⎝2/5⎠ <strong>et</strong> p k = (5/8) k−1 (p B + p C )3/103/56 Marches aléatoires sur Z d <strong>et</strong> relations <strong>de</strong> récurrenceMotivation : Les marches aléatoires sont parmi les modèles probabilistes les plus utiles(par exemple en physique, mathématiques financières, files d’attente, statistique, <strong>et</strong>c...). Ilssont aussi parmi les modèles les meilleurs compris, car ils perm<strong>et</strong>tent souvent <strong>de</strong>s solutionsanalytiques.6.1 Marches aléatoires sur R dDéfinition 6.1 Marches aléatoires sur R d .Soit (Z n ) n∈Nune suite <strong>de</strong> variables aléatoires réelles i.i.d (i.e. indépendantes <strong>et</strong> <strong>de</strong>même loi), à valeurs en R d .Le <strong>processus</strong> X n ∈ R d , n = 0, 1, ... donné par la somme <strong>de</strong> ces variablesX n = X 0 + Z 1 + Z 2 + · · · + Z n , n ∈ N (20)61


s’appelle marche aléatoire. Comme alternative, la marche aléatoire peut-être <strong>de</strong>finie récursivementpar la récurrenceX n = X n−1 + Z n (21)Exemple 6.1 Marches aléatoires sur Z d Typiquement, on s’interesse au cas où l’espaced’états est un maillage régulier comme Z d , i.e. X 0 , Z n ∈ Z d ont une distribution discrètep = (p i , i ∈ Z d ). Dans ce cas, nous avons à faire à une chaîne à espace d’états dénombrable.Exemple 6.2 Si en plus |Z n | = 1, i.e. p i ≠ 0 ssi i est un voisin <strong>de</strong> l’origine, le <strong>processus</strong>(20) est appelé une marche aléatoire simple.Exemple 6.3 Marches aléatoires sur Z Pour les marches sur Z, la matrice <strong>de</strong> transitionP = (p ij = P{X n = j/X n−1 = i} = P{Z n = j − i}) i,j∈Na aussi la propriété que P i,j =p i−j , où p k = P{Z n = k} ; les matrices <strong>de</strong> c<strong>et</strong>te forme, i.e. à “diagonales” constantes,s’appellent matrices Toeplitz.Exemple 6.4 Pour une marche aléatoire simple en dimension d = 1, la distribution <strong>de</strong> Z nest <strong>de</strong> la forme pδ 1 + (1 − p) δ −1 , i.e. P [Z n = 1] = p <strong>et</strong> P [Z n = −1] = 1 − p avec 0 < p < 1.Si p = q = .5 on parle d’une marche aléatoire symm<strong>et</strong>rique, <strong>et</strong> avec p ≠ q on parled’une marche aléatoire biaisée.Rq : Lire les exemples 4-6, Belisle.Théorème 6.1 Les marches aléatoires sur R d ont la propriété <strong>de</strong> <strong>Markov</strong>.Démonstration: Ce résultat est assez facile à démontrer en général, en partant <strong>de</strong>(21), mais nous allons considérer seulement les marches aléatoires sur Z d , pour rester dansle cadre <strong>de</strong>s <strong>processus</strong> à espace d’états dénombrable. Dans ce cas, il est suffisant d’exhiberla matrice <strong>de</strong> transition .Notes : 1) On a à faire ici à <strong>de</strong>s sommes <strong>de</strong>s v.a. i.i.d.. Donc, P n (0, :) la distribution<strong>de</strong> la somme ∑ ni=1 Z i, est donnée par la n-ième convolution <strong>de</strong> la distribution p <strong>de</strong> Z i (<strong>et</strong> lafonction génératrice <strong>de</strong>s moments est la puissance n <strong>de</strong> la fonction génératrice <strong>de</strong>s moments<strong>de</strong> p). Le comportement <strong>de</strong>s puissances P n pour n → ∞ est lié au théorème <strong>de</strong> la limitecentrale.2) Il y a plusieurs résultats interessants concernant l’ergodicité <strong>de</strong>s chaînes à espaced’états dénombrable ; par exemple, les marches simples sur Z d sont récurrents ssi d ≤ 2.62


6.2 Solutions explicites <strong>de</strong>s problèmes <strong>de</strong> Dirichl<strong>et</strong> pour la marchealéatoire unidimensionnelle simpleNous considérons maintenant un exemple unidimensionnel, dans le quel les probabilitésd’absorbtion (appelées aussi fonctions harmoniques) <strong>et</strong> les solutions d’autres problèmes <strong>de</strong>Dirichl<strong>et</strong> sont disponibles explicitement.Exemple 6.5 La ruine du joueur <strong>et</strong> autres problèmes <strong>de</strong> Dirichl<strong>et</strong> pour la marchealéatoire simple. Nous allons étudier la marche aléatoire simpleX n = X 0 + Z 1 + Z 2 + · · · + Z n , X n ∈ Zavec (Z n ) une suite <strong>de</strong> variables aléatoires réelles indépendantes <strong>de</strong> même loi P [Z n = ±1] =p, q. On considère la marche jusqu’au ”temps d’arrêt/sortie” T = min[T 0 , T N ] quand leprocess sort <strong>de</strong> l’interval [0, N] pour N donné, i.e. on prend 0 <strong>et</strong> N comme états absorbants.On appelle ce problème la ruine du joueur, a cause <strong>de</strong> l’interpr<strong>et</strong>ation d’un joueur quis’engage dans une série <strong>de</strong> parties (indépendantes) à un jeu où à l’issue <strong>de</strong> chaque partieil gagne 1F avec une probabilité p <strong>et</strong> perd 1F avec une probabilité q = 1 − p, <strong>et</strong> qui déci<strong>de</strong><strong>de</strong> s’arrêter <strong>de</strong> jouer dès qu’il aura N francs en poche, ou dès qu’il n’a plus d’argent. Pourtout n ∈ N, on note X n la fortune du joueur au bout <strong>de</strong> n parties, <strong>et</strong> X 0 = i représentesa fortune à l’entrée dans le Casino. On dénotera par E i l’esperance en commençant <strong>de</strong> i(conditionnant sur X 0 = i), <strong>et</strong> on <strong>de</strong>signe par E l’événement que le joueur gagne, i.e.E = {x T = N} = [∃n ∈ N tel que X n = N, X i > 0, i = 1, ..., n − 1] .Pour tout i <strong>de</strong> {0, ..., N}, on pose :1. Calculer p 0 <strong>et</strong> p N .2. Montrer que :p i = P (E | [X 0 = i]) .∀ i ∈ {1, ..., N − 1} , p i = p p i+1 + q p i−1 (on rappelle que q = 1 − p).3. Obtener une expression explicite <strong>de</strong> p i pour tout i <strong>de</strong> {1, ..., N} . Indication : Remarquezque la solution satisfaisant p 0 = 0 est <strong>de</strong> la forme :{p i = k (1 − ρ i ) quand p ≠ qk i quand p = q<strong>et</strong> déterminer k tq la condition frontière <strong>de</strong> p N soit satisfaite.4. Pour tout i <strong>de</strong> {0, ..., N} , on pose a i = P (F | [X 0 = i]) où F est l’événement ”le joueurrepart ruiné” . En procédant comme auparavant, montrer que :⎧⎪⎨a i =⎪⎩( q p) i −( q p) N1−( q p) N si p ≠ 1 2N−iN si p = 1 2Pour tout i <strong>de</strong> {0, ..., N} , calculer a i + p i . Que peut-on en déduire ?63


5. Obtenez un système d’équations pour l’espérance du gain final f i = E i X T . Calculezc<strong>et</strong>te fonction, (i) pour p = q, <strong>et</strong> (ii) pour p < q, quand N → ∞.6. Obtenez un système d’équations pour l’espérance du temps <strong>de</strong> jeu : t i = E i T . Calculezc<strong>et</strong>te fonction, pour p = q, <strong>et</strong> pour p < q, quand N → ∞.7. Obtenez un système d’équations pour l’espérance du ”coût cumulé d’inventoire” c i =E i∑ T −1t=0 X t. Calculez c<strong>et</strong>te fonction, pour p = q, <strong>et</strong> pour p < q, quand N → ∞.8. Obtenez un système d’équations pour la fonction génératrice <strong>de</strong>s probabilitées w i =E i a T = sum k=0 P i T = ka k . Calculez c<strong>et</strong>te fonction, (i) pour p = q, <strong>et</strong> (ii) pour p < q,quand N → ∞.9. Obtenez les équations <strong>de</strong> récurrence <strong>et</strong> les conditions frontière satisfaites wg x = E x a τ g(X τ ), a ∈(0, 1).Solution : Note : Toutes les questions ci-<strong>de</strong>ssous utiliseront le même opérateur(Gf) n = (P − I)(f) n = p f n+1 + q f n−1 − f n (22)la seule difference étant dans les conditions frontière <strong>et</strong> dans la partie nonhomogène.L’idée <strong>de</strong> la métho<strong>de</strong> du conditionnement sur le premier pas Z 1 est d’obtenir <strong>de</strong>srelations <strong>de</strong> récurrence qui lient les valeurs <strong>de</strong> l’espérance conditionnée à partir <strong>de</strong> tous lespoints <strong>de</strong> départ possibles.Nous verrons en examinant les points 2)-8) <strong>de</strong> c<strong>et</strong> exercice qu’ils se regroupent en <strong>de</strong>uxtypes <strong>de</strong> questions :1. Gain final esperé, satisfaisant :F x = E x [g(X T )] = pF x+1 + qF x−1 ,F (0) = g(0), F (N) = g(N)2. Coût total accumulé esperé1. p 0 = 0, p N = 1∑T −1F x = E x [ h(X i )] = h(x) + pF x+1 + qF x−1 , F (0) = 0, F (N) = 02. Gain final esperé, g(x) = 1 x=N .En conditionnant, on trouve :p n = P n [X(T ) = K]0= p P n [X(T ) = K/X(1) = n + 1] + q P n [X(T ) = K/X(1) = n − 1]= p p n+1 + q n−1 1 ≤ n ≤ N − 164


carP n [X(T ) = K/X(1) = n ± 1] = P[X(T ) = K/X(0) = n, X(1) = n ± 1] =P[X(T ) = K/X(1) = n ± 1] = P[X(T ) = K/X(0) = n ± 1] = b n±1en utilisant la propri<strong>et</strong>é <strong>de</strong> <strong>Markov</strong> <strong>et</strong> l’homogeneité.3. Quand p = q = 1/2, p x = P x [X(T ) = N] satisfait :p n = p n+12p N = 1p 0 = 0+ p n−12for any 1 ≤ n ≤ K − 1La métho<strong>de</strong> <strong>de</strong> résolution <strong>de</strong>s équations <strong>de</strong> récurrence homogènes à coefficients constantscommence en cherchant <strong>de</strong>s solutions <strong>de</strong> la forme p n = r n . Si les racines <strong>de</strong> l’équationauxiliaire sont distinctes, la solution générale est :p n = k 1 r n 1 + k 2r n 2 + ...où k 1 , k 2 sont déterminés en utilisant les conditions frontière.Ici, cherchant <strong>de</strong>s solutions puissances r x ramène à l’équation r 2 − 2r + 1 = 0 à <strong>de</strong>uxracines i<strong>de</strong>ntiques r 1,2 = 1. La solution générale est p x = A + Bx. Les conditionsfrontière donnent p x = x N .Solution finale si p ≠ q : b n = (q/p)n −1(q/p) K −1 .4. a i +p i = 1. La marche ne peut pas rester toujours à l’intérieur. Elle sera eventuellementabsorbé dans une <strong>de</strong>s <strong>de</strong>ux frontiéres.5. f x = E x [X(T )] (valeur finale ésperée) satisfait Gf(x) = 0, f(0) = 0, f(N) = N. Pourp = q, la solution f x = x est obtenue comme ci-<strong>de</strong>ssus :f x = f x+12f N = Nf 0 = 0+ f x−12for any 1 ≤ x ≤ N − 1(C’est aussi une fonction ”harmonique”, mais avec conditions frontière différentes.)6. t x = E x [T ] (temps <strong>de</strong> sortie ésperé) est un coût total accumulé esperé (obtenu enprenant h(x) = 1), qui satisfait le système inhomogène Gt(x) + 1 = 0, t(0) = 0, t(N) =0.Pour p = qt x = t x+12 + t x−12t N = 0t 0 = 0+ 1 for any 1 ≤ x ≤ N − 165


La solution d’une équation nonhomogène est donnée part x = t p (x) + h(x)où t p (x) est une solution particulière <strong>et</strong> h(x) est la solution générale <strong>de</strong> l’équationhomogène. Commençons par l’équation homogène.La solution générale homogène (”fonction harmonique”) h(x) = A + Bx pour c<strong>et</strong>opérateur a été déjà obtenue ci-<strong>de</strong>ssus.Nous aimerions maintenant trouver une solution particulière t p (x) <strong>de</strong> l’équation Gt p (x) =−1 <strong>de</strong> la même forme que la partie nonhomogène −1 <strong>de</strong> l’équation, donc t p (x) = C;mais, comme les constantes, <strong>et</strong> puis aussi les fonctions linéaires vérifient l’équationhomogène Gt p (x) = 0, nous <strong>de</strong>vrons modifier <strong>de</strong>ux fois c<strong>et</strong>te forme en multipliant parx, en arrivant donc à t ( x) = Cx 2 . Comme Gx 2 = 2x(p − q) + 1 = 1, on trouve C = −1<strong>et</strong> finalement la solution particulière t p (x) = −x 2 .La solution générale est donc t(x) = −x 2 + A + Bx <strong>et</strong> les conditions frontière ramènentà t x = x(N − x).Pour p ≠ qt x = pt x+1 + qt x−1 + 1 for any 1 ≤ x ≤ N − 1t N = 0t 0 = 0La solution generale homogène avec p ≠ q est h(x) = k 1 (q/p) n + k 2 <strong>et</strong> le termenonhomogène 1 sugere une solution particulière constante k, mais comme ça satisfaitl’équation homogène, on modifie à kn. Finalement, k = 1 . q−pLa solution particulière est t p (x) =x ; elle satisfait <strong>de</strong>ja t q−p p(0) = 0. La partie homogèneh(x) = t x − t p (x) <strong>de</strong>vra aussi satisfaire h(0) = 0 <strong>et</strong> donc elle sera <strong>de</strong> la forme h(x) =A˜h(x) où ˜h(x) = ((q/p) x − 1).En <strong>de</strong>mandant que t n =n + q−p A(q/p)n − 1) satisfait la condition frontière t N = 0 ontrouve :t n = t p (n) − t p (N) ˜h(n)˜h(N) = nq − p − N (q/p) n − 1q − p (q/p) N − 1 .{∞ si p > qLa limite quand N → ∞ est t n =nsi p < q .q−p7. c x = E x [ ∑ T0X(t)] (coût total d’inventaire ésperé) satisfait le système inhomogèneGc(x) + x = 0, c(0) = 0, c(N) = 0.Pour p = q :c x = c x+12 + c x−1+ x for any 1 ≤ x ≤ N − 12c N = 0c 0 = 0La solution particulière est −x33 . Finalement, on arrive à c(x) = x(K2 −x 2 )3.66


8. On arrive a w(x) = A 1 z1 x + A 2z2 x, où z i sont les racines <strong>de</strong> pz 2 − a −1 z + q = 0, <strong>et</strong> A isatisfont A 1 z1 K + A 2 z2 K = 1, A 1 + A 2 = 1 <strong>et</strong> w(x) = zx 1 −zx 2 +zx 1 zx 2 (zK−x 1 −z K−x2 )z1 Z−zK 2Pour p ≠ q la solution particulière est c p (x) =x2 + ... ; elle satisfait <strong>de</strong>ja c 2(q−p) p(0) = 0.La partie homogène satisfaisant h(0) = 0 sera toujours h(x) = A˜h(x) où ˜h(x) =((q/p) x − 1).En <strong>de</strong>mandant que c n = c p (n) + A(q/p) n − 1) satisfait la condition frontière c N = 0 ontrouve :c n = c p (n) − c p (N) ˜h(n)La limite quand N → ∞ est c n ={∞ si p > qc p (n) si p < q˜h(N)9. Le conditionnement donne la relation : w x = E x [a τ g(X τ )] = a(pw x+1 + qw x−1 ).Remarque : Les problèmes <strong>de</strong> c<strong>et</strong>te section ont <strong>de</strong>s versions à espace d’états continu,obtenu en considérant <strong>de</strong>s marches avec incréments infinitésimaux ɛ, <strong>et</strong> en prenant la limiteɛ → 0. La marche aléatoire <strong>de</strong>vient ainsi un <strong>processus</strong> avec chemins continus, appelémouvement Brownien.Conclusion : Une <strong>de</strong>s idées les plus importantes <strong>de</strong> la modélisation <strong>Markov</strong>ienne estson équivalence à la résolution <strong>de</strong>s certaines familles d’équations (Chapman-Kolmogorov,Dirichl<strong>et</strong>, <strong>et</strong>c) liées a un operateur appellé générateur du <strong>processus</strong>, qui intervient danstous les problèmes concernant le <strong>processus</strong>. Le cas qui ramène aux équations les plus facilesà résoudre est celui <strong>de</strong>s équations <strong>de</strong> Dirichl<strong>et</strong>, corréspondant aux problèmes <strong>de</strong> premierpassage/absorbtion/Dirichl<strong>et</strong>.Les équations trouvées ici :(Gp) x = 0, p K = 1, p 0 = 0(Gf) x = 0, f K = K, f 0 = 0(Gt) x + 1 = 0, t K = 0, t 0 = 0(Gc) x + x = 0, c K = 0, c 0 = 0(Gw) x + (1 − a −1 )w x = 0, w K = 1, w 0 = 1auront la même forme pour <strong>de</strong>s <strong>processus</strong> <strong>de</strong> <strong>Markov</strong> très différents <strong>de</strong> la marche aleatoiresimple <strong>et</strong>udiée ci-<strong>de</strong>ssous, vivant sur <strong>de</strong>s espaces S consi<strong>de</strong>rablement plus compliqués, avecla seule difference que l’operateur sera remplacé par d’autres opérateurs G : 2 S − > 2 S ..6.3 Les fonctions harmoniques d’un couple (A, ∂(A))Théorème 6.2 Les fonctions harmoniques d’un couple A, ∂(A) constituent un espace vectoriel.67


Une généralisation <strong>de</strong>s probabilités d’absorbtion est le calcul <strong>de</strong>s prix finaux esperés :f g (x) := Eg(X T ),f g : A− > Roù g y , y ∈ ∂ est un ”prix” ou condition frontière donné. On vérifie par CPP (conditionnementsur le premier pas) qu’elles satisfont :f(x) = g(x), x ∈ ∂,(Gf) x = 0 ⇐⇒ f x = (P f) x , x ∈ int(A)<strong>et</strong> sont donc aussi <strong>de</strong>s fonctions harmoniques. Ces fonctions harmoniques ”à conditionsfrontière données” sont en corréspondance biunivoques avec les conditions <strong>de</strong> frontière g :∂(A)− > R <strong>et</strong> la rélationf g (x) = ∑ y∈∂p x (y)g(y) ⇐⇒ f g (.) = ∑ y∈∂p . (y)g(y)démontre qu’elles appartiennent à l’espace vectoriel engendré par les probabilités d’absorbtionp . (y), y ∈ ∂. Il s’avère que c<strong>et</strong> espace contient tous les fonctions harmoniques.Théorème 6.3 L’espace vectoriel <strong>de</strong>s fonctions harmoniques d’un couple A, ∂(A) est engendrépar les probabilités d’absorbtion p x (y).6.4 ConclusionsUn <strong>de</strong>s outils les plus importants <strong>de</strong> la théorie <strong>de</strong>s chaînes <strong>de</strong> <strong>Markov</strong> est l’étu<strong>de</strong> <strong>de</strong>svariables d’absorbtion, qui réflechissent le comportement d’une chaîne X jusqu’au temps <strong>de</strong>premier passage T dans un ensemble <strong>de</strong>s états l’absorbants ∂. Cinq types <strong>de</strong>s problèmesfondamentaux rencontrés sont :1. La distribution <strong>de</strong> la position d’absorbtion X Tp x (y) := P x {X T = y}, y ∈ ∂(A), x ∈ int(A) := A − ∂(A)parmi les différents états absorbants y ∈ ∂.Quand x varie, ces probabilités satisfont le systèmep x (y) = δ y (x), x ∈ ∂,(Gp) x = 0 ⇐⇒ p x = (P p) x , x ∈ int(A)Définition 6.2 Une fonction f : A− > R s’appelle harmonique sur int(A) := A −∂(A) si elle satisfait(Gf) x = 0 ⇐⇒ f x = (P f) x , x ∈ int(A)est sont appelées (à cause <strong>de</strong> la <strong>de</strong>rnière rélation).68


Corollaire 6.1 Pour chaque y ∈ ∂(A) fixe, les probabilités d’absorbtion p x (y) sont <strong>de</strong>sfonctions harmoniques en x.∫ T2. Les espérances <strong>de</strong>s temps d’absorbtion t x = E x T = E x 1ds, x ∈ ∫ (A) ou <strong>de</strong>s coûts0accumulés esperés :∫ Tc x = E x h(X s )ds(le cas particulier h(x) = 1 rends les espérances <strong>de</strong>s temps d’absorbtion t x ).Quand x varie, ces coûts satisfont le système0c x = 0, x ∈ ∂,(Gg) x + h(x) = 0 ⇐⇒ c x = (P c) x + h(x), x ∈ int(A)3. La distribution <strong>de</strong> TP x (k) = P x {T ≥ kDans le cas k ∈ N, elle satisfait une recurrence simple.4. Probabilités <strong>et</strong> coûts d’absorption ”actualisés” :E x e −rT g(X T ),∫ TE x e −rs h(X s )dsimportants dans les mathématiques financières ; ceux ci ren<strong>de</strong>nt en particulier la fonctiongénératrice <strong>de</strong> la distribution jointe <strong>de</strong> la position <strong>et</strong> du temps d’absorbtion.5. ”Autres problèmes”, comme le calcul <strong>de</strong>p x (k, B) := P x {exactement k visites en B avant l’absorbtion en ∂(A)}Dans ce <strong>de</strong>rnier cas, nous cherchons <strong>de</strong>s recurrences liant p x (k, B), x ∈ A à p x (k −1, B), x ∈ A.07 Analyse spectrale <strong>et</strong> comportement limite <strong>de</strong> chaînes<strong>de</strong> <strong>Markov</strong>7.1 *Le théorème <strong>de</strong> Perron-FrobeniusExercice 7.1 Est-ce qu’il existent <strong>de</strong>s matrices réeles 2 × 2, sans éléments négatifs, <strong>et</strong> avec<strong>de</strong>s valeurs propres complexes ?La réponse est un cas particulier du :Théorème 7.1 (Perron-Frobenius) Soit P une matrice sans éléments négatifs. Alors :69


1. Parmi les valeurs propres <strong>de</strong> module maximal il existe toujours une, λ = λ P F qui estréelle positive, qu’on apellera la valeur propre PF (<strong>de</strong> Perron-Frobenius). Dèslors, toutes les autres valeurs propres ont une valeur absolue inférièure ou égale à lavaleur propre λ P F .2. Le bloque <strong>de</strong> Jordan correspondant à λ P F a une structure diagonale (i.e. la multiciplitéalgebrique ν P F <strong>de</strong> λ P F est égale à la dimension <strong>de</strong> son espace <strong>de</strong> vecteurs propres), <strong>et</strong> lesespaces <strong>de</strong>s vecteurs propres à droite <strong>et</strong> à gauche <strong>de</strong> λ P F contiennent chacun une base<strong>de</strong> vecteurs propres v (P F )i , π (P F )i , i = 1, 2, ..., ν P F ayant toutes leurs composantesnonnégatives.3. S’il y a d’autres valeurs propres égales à λ P F en valeur absolue, elles doivent être <strong>de</strong>sracines <strong>de</strong> λ P F , i.e. <strong>de</strong> la forme λ 1/pP F , p ∈ N.Rémarque : Le théorème <strong>de</strong> PF a plusieurs implications pour l’analyse <strong>de</strong>s chaînes<strong>de</strong> <strong>Markov</strong> homogènes à espace d’états fini. Par exemple, l’existance <strong>de</strong>s valeurs propresqui sont <strong>de</strong>s racines <strong>de</strong> λ P F est équivalente à la presence <strong>de</strong>s périodicités dans la suite <strong>de</strong>spuissances P n , n = 1, 2, ...Exercice 7.2 Démontrer qu’une matrice stochastique n’a pas <strong>de</strong> valeurs propres avec moduleplus grand que 1, <strong>et</strong> donc sa valeur propre PF est égale à 1.Exercice 7.3 1. Montrez qu’une chaîne homogène à espace d’états fini a au moins unedistribution stationnaire.2. Montrez que la dimension <strong>de</strong> l’espace d’états <strong>de</strong>s distributions stationnaires coinci<strong>de</strong>avec le nb <strong>de</strong>s classes <strong>de</strong> récurrence.7.2 Le comportement limite <strong>de</strong>s chaînes, à partir <strong>de</strong> la représentationspectraleLe comportement limite <strong>de</strong> chaînes <strong>de</strong> <strong>Markov</strong>, i.e. le calcul <strong>de</strong>lim p 0P n := p 0 Pn→∞est facile à obtenir via une approche compl<strong>et</strong>ement algébrique, en utilisant :1. le théorème PF. Plus precisément, le fait que 1 est la valeur propre PF pour toutesles matrices stochastiques P (exercice (7.2), <strong>et</strong> que donc dans l’absence <strong>de</strong>s classespériodiques, toutes les autres valeurs propres sont strictement inférièures à 1 en valeurabsolue.2. La décomposition spectrale. Rappelons ici le cas le plus simple d’une matrice diagonalisableP , avec valeurs propres λ i <strong>et</strong> vecteurs propres à droite/gauche v i <strong>et</strong> π i , normaliséstq π i v j = δ i,j . Soit Λ la matrice diagonale <strong>de</strong>s valeurs propres, V une matrice ayant v icomme colonnes, <strong>et</strong> Π une matrice ayant π i comme lignes.70


Remarquons que la diagonalisationΛ = V −1 P V = ΠP V ⇐⇒ P = V ΛΠnous perm<strong>et</strong> aussi ! ! ! <strong>de</strong> représenter P commeP = ∑ iλ i v i π iOn trouve alors dans le cas diagonalisable queP n = V Λ n Π = ∑ iλ n i v i π i<strong>et</strong> que convergence peut avoir lieu seulement dans l’absence <strong>de</strong>s valeurs propres λ i ≠ λ P F tq|λ i | = λ P F (i.e., <strong>de</strong> périodicités). Dans ce cas,P n =⇒ P →∑ν P Fi:λ i =1v (P F )i π (P F )i (23)Pareillement, dans le cas général, en utilisant la décomposition <strong>de</strong> Jordan, <strong>et</strong> le fait queles chaînes <strong>de</strong> Jordan associées à <strong>de</strong>s valeurs propres tq |λ (i) | < 1 disparaissent dans la limiten → ∞, on obtient encore que dans l’absence <strong>de</strong>s périodicités, la limite <strong>de</strong> P n est donnéepar (23). On démontre ainsi :Théorème 7.2 1. La limite P = lim n→∞ P n existe ssi la matrice P n’a pas <strong>de</strong>s valeurspropres avec |λ| = 1 à part la valeur propre <strong>de</strong> Perron-Frobenius λ P F = 1 (i.e. s’il n ya pas <strong>de</strong>s périodicités), dans quel cas elle est donnée par (23).2. La distribution stationnaire est unique ssi la valeur propre <strong>de</strong> Perron-Frobenius λ = 1a multiplicité 1.3. Une chaîne <strong>de</strong> <strong>Markov</strong> est ergodique, i.e. P n =⇒ 1π ssi les <strong>de</strong>ux conditions ci <strong>de</strong>ssussont verifiées.En conclusion, l’étu<strong>de</strong> <strong>de</strong> l’existence <strong>et</strong> l’unicité <strong>de</strong> distributions à la longue, <strong>et</strong> l’étu<strong>de</strong>du comportement asymptotique <strong>de</strong> P n , peuvent être abordés algébriquement.Il convient quand même <strong>de</strong> s’intéresser aussi aux interprétations probabilistes, commepar exemple, au fait que ν P F coinci<strong>de</strong> avec le nombre <strong>de</strong> classes récurrentes, <strong>et</strong> nous abor<strong>de</strong>ronsensuite plusieurs aspects probabilistes du théorème <strong>de</strong> Perron-Frobenius (en fait, lathéorie <strong>de</strong>s chaînes <strong>de</strong> <strong>Markov</strong> finies/dénombrables peut être conçue comme une explicationprobabiliste du théorème <strong>de</strong> Perron-Frobenius).71


7.3 L’existence <strong>de</strong> la matrice <strong>de</strong>s distributions à la longue PNous attaquons maintenant la question <strong>de</strong> l’existence <strong>de</strong>s distributions “à la longue”(ou simplement limites) d’une chaîne spécifiée par µ(0) <strong>et</strong> P :π ∞ = limn→∞µ (n) = limn→∞µ(0)P npour n’importe quelle distribution initiale µ(0). Il est évi<strong>de</strong>nt que c<strong>et</strong>te question est équivalenteà l’existence <strong>de</strong> la limite P = lim n→∞ P n .On analysera maintenant, pour chaque état e i , l’ensemble A i <strong>de</strong> temps pour lequels ilest possible <strong>de</strong> se trouver en i en partant <strong>de</strong> i, i.e.A i = {n ∈ N : p (n)ii > 0}Remarque 7.1 C<strong>et</strong> ensemble est fermé sous l’opération d’addition, i.e. c<strong>et</strong> ensemble est unsous groupe <strong>de</strong> N.{}Définition 7.1 Soit e i dans E. On appelle pério<strong>de</strong> <strong>de</strong> e i l’entier d (i) = p gcd n > 0 ; p (n)ii > 0(autrement dit : p (n)ii > 0 ⇒ ∃m ∈ N ∗ tel que n = md (i) ).Si d (i) = 1 , l’état e i est dit apériodique.Remarque 7.2 La pério<strong>de</strong> ne dépend que <strong>de</strong> la classe. Une classe <strong>de</strong> pério<strong>de</strong> 1 est diteapériodique.Remarque 7.3 L’existence d’une boucle, i.e. p ii > 0, assure l’apériodicité.Exemple 7.1 Une classe <strong>de</strong> communication à matrice <strong>de</strong> transition ˜P , pour laquelle il existeun entier c tel que ˜P c = I, apellée cyclique d’ordre c, est forcement périodique, <strong>et</strong> la pério<strong>de</strong>d est parmi les diviseurs <strong>de</strong> c. Par exemple, en changeant la classe transitoire dans l’exempleci-<strong>de</strong>ssus en sorte qu’elle contient un cycle <strong>de</strong> longueur 4 <strong>et</strong> un <strong>de</strong> longueur 2, on obtientune classe cyclique d’ordre 4 <strong>et</strong> pério<strong>de</strong> 2.L’existence <strong>de</strong> la matrice <strong>de</strong>s distributions à la longue est liée à la question <strong>de</strong> lapériodicité.Exemple 7.2⎛P =⎜⎝1 10 0 0 0 02 20 0 1 0 0 0 0⎞0 0 0 1 1 1 14 4 4 40 1 0 0 0 0 00 1 0 0 0 0 0⎟0 0 0 0 0 1 2 ⎠3 30 0 0 0 0 1 12 272


On aperçoit immédiatement la classe récurrente 6, 7 <strong>et</strong> les classes transitoires 1 <strong>et</strong>2, 3, 4, 5. La <strong>de</strong>rnière classe est le collage <strong>de</strong>s <strong>de</strong>ux cycles <strong>de</strong> pério<strong>de</strong> 3, ce que donne immédiatementque A 2 = {3k, k ≥ 0} = {3, 6, 9, ...}. Si par contre un <strong>de</strong> ces cycles avait une longueur pasdivisible par 3, par exemple 4, on aurait eu : A 2 = {3k + 4l, k, l ≥ 0} = {3, 4, 6, 7, 8, 9, ...},dans quel cas A 2 contien tous les nombres en partant <strong>de</strong> 6.On voit que les ensembles A i contiennent toujours tous les nombres <strong>de</strong> la forme k d(i),pour k assez grand (cela est un résultat valable pour n’importe quel semigroup <strong>de</strong> N). En cequi concerne la périodicité, il y a <strong>de</strong>ux possibilités pour A i , en dépendant <strong>de</strong> d=p.g.c.d <strong>de</strong>la longueur <strong>de</strong>s <strong>de</strong>ux cycles :1. Dans le cas d = 1, c<strong>et</strong> ensemble contien “tous les nombres assez grands” (en partantd’un certain point).2. Dans le cas d > 1, c<strong>et</strong> ensemble est un sous ensemble du sous groupe d N. Donc, lamatrice P (n) = P n ne peut converger quand n → ∞ (car il y aura <strong>de</strong>s 0 qui alternentavec <strong>de</strong>s nombres positives pour toujours : voir par exemple la marche cyclique surZ 3 ).Remarque 7.4 On vera que la périodicité <strong>de</strong>s classes transitoires n’empêche pas du toutle calcul <strong>de</strong> la matrice <strong>de</strong> distributions à la longue, parce que la masse totale <strong>de</strong> la parti<strong>et</strong>ransitoire d’une chaîne converge vers 0 (voir la troisième remarque qui suit le théorème??).Par contre, la périodicité dans une classe récurrente rend la convergence impossible. Onpeut démontrer que son absence assure la convergence, car cela est équivalent à l’absence<strong>de</strong>s valeurs propres qui sont racines <strong>de</strong> l’unité, <strong>et</strong> à l’absence <strong>de</strong>s valeurs propres <strong>de</strong> valeurabsolue |λ| = 1, sauf λ = 1 (par Perron-Frobenius). Finalement, le fait que λ n converge pourchaque valeur propre λ assure l’existence <strong>de</strong> la limite lim n→∞ P n .Donc, la limite à la longue P = lim n→∞ P n (i, j) d’une chaîne existe ssi il n’y apas <strong>de</strong>s classes récurrentes périodiques.En conclusion, dans l’exemple suivant 7.3, comme la périodicite est présente seulementdans une classe transitoire <strong>et</strong> il y a une seule classe récurrente, on peut immédiatementcalculer la distribution à la longue en utilisant (24).Exemple 7.3⎛P =⎜⎝0 1 0 0 0 0140 1 0 3 400 1 0 0 0 0340 1 40 0 00 0 0 1 30 2 30 0 1 20 1 20⎞⎟⎠Calculer la décomposition spectrale, en utilisant un logiciel si nécessaire.73


7.4 Un exemple <strong>de</strong> chaîne non-ergodiqueNous allons examiner maintenant une chaîne non-ergodique, pour la quelle la distributionstationnaire n’est pas unique.Exemple 7.4 Exemple <strong>de</strong> non unicité <strong>de</strong> la distribution stationaire π : Dans l’exemple5∑défini par la matrice ci <strong>de</strong>ssous, cherchons π ∈ (R + ) 5 tel que πP = π <strong>et</strong> π i = 1.⎛⎞10 1 0 02 2 0 1 0 1 1{2 4 4πP = π ⇐⇒ (π 1 π 2 π 3 π 4 π 5 )1⎜ 0 1 0 02 2 ⎟⎝ 0 0 0 1 1 ⎠ = π ⇐⇒ π2 = 0π 1 = π 3π 5 = 2π 42 20 0 0 1 34 4i=1On voit clairement qu’il n’y a pas unicité (par exemple ( 12 , 0, 1 2 , 0, 0) <strong>et</strong> ( 0, 0, 0, 1 3 , 2 3)sont<strong>de</strong>s distributions stationnaires).C<strong>et</strong>te chaîne étale <strong>de</strong>s “pathologies”, qu’on peut percevoir en examinant le graphe <strong>de</strong>communication <strong>de</strong> la chaîne :Remarque : afin d’apercevoir la structure <strong>de</strong> la chaîne <strong>et</strong> <strong>de</strong> calculer plus facilementP n , il peut être intéressant <strong>de</strong> renuméroter les états en sorte que <strong>de</strong>s états qui conduisentl’un à l’autre) soient groupés ensemble.Dans c<strong>et</strong> exemple, si on échange les états e 2 <strong>et</strong> e 3 , on obtient, après le rangementfacilitant <strong>de</strong>s éléments dans l’ordre 1, 3, 2, 4, 5, la matrice <strong>de</strong> transition :⎛⎞1 10 0 02 2 1 10 0 02 2 ⎜ 0 0 1 1 12 4 4 ⎟⎝ 0 0 0 1 1 ⎠2 20 0 0 1 34 4à structure : P =⎛P = ⎝A 0 0⎞0 B 1 B 1,2(A 00 B)avec A =( 12121212)<strong>et</strong> B =⎛⎝1 12 40 1 20 1 4141234⎞⎠ <strong>et</strong> encore⎠ où A, correspondant aux états (1, 3) (qui conduisent l’un à l’autre)<strong>et</strong> B 2 , correspondant aux états (4, 5) (qui conduisent l’un à l’autre aussi) sont <strong>de</strong>s matrices74


stochastiques, <strong>et</strong> B 1 , correspondant aux transitions entre les états transitoires ((2) est unematrices sous-stochastique.Il y’a ici <strong>de</strong>ux pathologies :1. il existe un élément “transitoire” 2 (qu’on peut quitter sans r<strong>et</strong>our pour toujours)2. le graph <strong>de</strong> communication se décompose en <strong>de</strong>ux classes : (1, 3) <strong>et</strong> (2, 4, 5) qui necommuniquent pas <strong>et</strong> la matrice <strong>de</strong> transition a une structure block diagonale, appellée“réducibilité” en probas.Le fait que la réducibilité se traduise dans une structure <strong>de</strong> matrice à ”bloques”, montreimmédiatement qu’on peut traiter (1, 3) <strong>et</strong> (2, 4, 5) séparément. Aussi, en enlevant l’élément“ transitoire” 2, il nous restent <strong>de</strong>ux ”classes <strong>de</strong> communication fermées”, (1, 3) <strong>et</strong> (4, 5),appellées ”classes <strong>de</strong> récurrence”, où on reste pour toujours une fois entré.⎛On verifie facilement que : P n = ⎝A n 0 00 B n 1 B 1,2,(n)0 0 B n 2en reflexion du fait qu’on peut étudier les trois chaînes correspondant aux A, B 1 <strong>et</strong> B 2séparément.Concernant la matrice B 1 contenant les probabilités <strong>de</strong> transition entre les élémentstransitoires (appellée aussi projection <strong>de</strong> la matrice P sur la réunion <strong>de</strong>s classes transitoires),remarquons d’abord que elle est une matrice sous-stochastique.Définition 7.2 Une matrice Q s’appelle sous-stochastique si la somme <strong>de</strong>séléments <strong>de</strong> chaqueligne est ≤ 1, avec inegalité stricte dans au moins une ligne.⎞⎠Théorème 7.3 Toutes les valeurs propres d’une matrice sous-stochastique Q ont valeursabsolues inferieurs à 1. Par conséquentlimn→∞ Qn = 0i.e. la limite <strong>de</strong>s probabilités <strong>de</strong> transition entre les états transitoires est 0.On verifie ici que P n (2, 2) = (1/2) n , en illustrant le théorème ci-<strong>de</strong>ssus. En conclusion,⎛⎞1 10 0 02 2 1 10 0 0P = lim P n 2 2 =n→∞ ⎜ 0 0 0 x 1 x 2⎟⎝1 20 0 0 ⎠3 31 20 0 03 3Il reste encore à déterminer x 1 , x 2 . Une approche directe par un systéme <strong>de</strong>s récurrencesnous montrera que ces <strong>de</strong>ux quantités sont aussi x 1 = 1 3 , x 2 = 2 3 .75


En general, ce <strong>de</strong>rnier problème peut être abordé algébriquement via la décompositionspectrale, ou par une approche probabiliste qui décompose la vie d’une particule dans lapartie qui préce<strong>de</strong> l’absorbtion, <strong>et</strong> la partie qui s’ensuit.Définition 7.3 Soit i un élément transitoire d’une chaîne X n , <strong>et</strong> soit j un élément apartenantà une classe <strong>de</strong> récurrence ĵ. On appelera probabilité d’absorbtion p i (ĵ) la probabilitéque la chaîne commençée en i finisse en ĵ.Le calcul <strong>de</strong>s probabilités d’absorbtion sera abordé en d<strong>et</strong>ail plus tard.Finalement, on arrivera à la conclusion que si la limite P = lim n→∞ P n existe, ellesatisfait :lim n→∞ P n (i, j) = p i (ĵ) π(j)où on a dénoté par p i (ĵ) la probabilité d’absorption dans la classe <strong>de</strong> récurrence <strong>de</strong> j <strong>et</strong> parπ(j) la probabilité stationnaire <strong>de</strong> j dans sa classe (qui coinci<strong>de</strong> avec lim n→∞ P n (i, j) pouri ∈ ĵ). Ce <strong>de</strong>uxième facteur reflète le fait évi<strong>de</strong>nt qu’une fois absorbée dans une classe fermée,la marche oubliera sa position initiale <strong>et</strong> donc aura exactement les probabilités limites <strong>de</strong> laclasse.Dans notre exemple, le fait qu’il existe une seule classe <strong>de</strong>stination possible pourl’élément transitoire 2, <strong>et</strong> donc que l’absorption dans c<strong>et</strong>te classe est sûre, implique p 2 (ˆ4) =p 2 (ˆ5) = 1. En conclusion⎛⎞1 10 0 02 2 1 10 0 02 2 P =⎜ 0 0 0 1 23 3 ⎟⎝ 0 0 0 1 2 ⎠3 30 0 0 1 23 3Mais, si dans l’exemple 7.4 l’élément transitoire aurait eu <strong>de</strong>s possibilités <strong>de</strong> passagevers les <strong>de</strong>ux classes récurrentes existantes, ça nous aurait obligé <strong>de</strong> résoudre un problèmed’absorbtion avant <strong>de</strong> calculer la limite lim n→∞ P n .En conclusion, une procédure qui fournisse la limite P doit :1. établir si elle existe, ce qui n’est pas toujours le cas, comme on voit en examinant leschaînes <strong>de</strong> <strong>Markov</strong> qui bougent cycliquement sur les noeuds d’un graphe2. inclure la résolution <strong>de</strong>s problèmes <strong>de</strong> Dirichl<strong>et</strong> concernant l’absorbtion <strong>de</strong> la chaîne<strong>de</strong> <strong>Markov</strong> dans les classes récurentes3. calculer la distribution stationnaire <strong>de</strong>s classes récurentes.76


7.5 La structure <strong>de</strong> la matrice <strong>de</strong> distributions a la longue P =lim n→∞ P n (i, j)Nous donnerons maintenant une métho<strong>de</strong> pour la détermination <strong>de</strong>s distributions “a lalongue” d’une chaîne, dans l’absence <strong>de</strong>s classes récurrentes périodiques. Soit⎛⎞Q t T 1 ... ... T I0 P 1 0 ... 0P =0 0 P 2 0 .⎜⎝ .0 0 .. . ⎟ .. . ⎠0 0 ... ... P Iune décomposition <strong>de</strong> la matrice <strong>de</strong> transition P , avec P i , i = 1, ..., I étant les projections <strong>de</strong>la matrice P sur les classes récurrentes, <strong>et</strong> avec Q t étant la projection <strong>de</strong> la matrice P surles classes transitoires. Il est facile <strong>de</strong> verifier que la puissance P n est <strong>de</strong> la forme :⎛Q n ⎞t T 1,n ... ... T I,n0 P1 n 0 ... 0P n =0 0 P2 n 0 .⎜⎝ .0 0 .. . ⎟ .. . ⎠0 0 ... ... PInC<strong>et</strong>te formule <strong>de</strong> décomposition reflète les idées suivantes :1. Les classes récurrentes ”ne savent” pas du tout qu’il existe un ”mon<strong>de</strong> extérieur” ;par conséquent, la projection P i <strong>de</strong> la matrice P sur une classe récurrente î est ellemême une matrice stochastique <strong>et</strong> la projection <strong>de</strong> la puissance P n sur la classe iest précisément Pin ; ce calcul peut être effectué en ignorant le reste <strong>de</strong>s éléments. Lemême est vrai pour les probabilités <strong>de</strong> transition Q n (i, j) entre i <strong>et</strong> j transitoires, i.e.la projection <strong>de</strong> la puissance P n sur les classes transitoires est précisément Q n <strong>et</strong> peutêtre donc aussi calculée en ignorant le reste <strong>de</strong>s éléments.2. Les probabilités P n (i, j) pour i, j récurrentes mais dans <strong>de</strong>s classes différentes sonttoujours 0 (comme pour n = 1) <strong>et</strong> alors la limite est aussi 0. Le même est vrai pourles probabilités P n (i, j) pour i récurrent <strong>et</strong> j transitoire.3. La limite <strong>de</strong> Q n sera toujours 0, parce que la matrice Q est sous-stochastique, <strong>et</strong> leslimites <strong>de</strong> Pin seront donné par le théorème ergodique.En conclusion, si la limite P existe, elle est <strong>de</strong> la forme :⎛⎞0 X 1 ... ... X I0 Π 1 0 ... 0P =0 0 Π 2 0 .⎜⎟⎝0 0.. ... . . ⎠0 0 ... ... Π I77


où X 1 , ..., X Id’absorbtion.sont encore à détérminer, cf. la lemme 7.2 ci-<strong>de</strong>ssous, en résolvant un pbExercice 7.4 Que <strong>de</strong>vient la décomposition spectrale (23) dans le cas décomposable <strong>et</strong> sanséléments transitoires ?Avant le cas général, nous analyserons encore <strong>de</strong>ux cas particuliers :1. les chaînes (faiblement) ergodiques, donc avec I = 1 classes récurrentes2. les chaînes absorbantes, i.e avec les classes récurrentes étant toutes <strong>de</strong> cardinalité 1.7.5.1 La distribution limite dans le cas faiblement ergodiqueExercice 7.5 Calculez par l’approche algébrique (donc en résolvant les équations P v =v, πP = π, πv = 1) la matrice limite P si⎛⎞0 a 1 0 a 00 0 b 1 0 bP = ⎜c ⎝ 1 0 0 0 c ⎟0 0 0 2/3 1/3⎠0 0 0 1/4 3/4Théorème 7.4 Soit X n une chaîne <strong>de</strong> <strong>Markov</strong> finie avec une seule classe récurrente, quiest apériodique.a) Cela est algébriquement équivalent à une multiplicité un pour la valeur propre λ = 1,<strong>et</strong> à l’absence <strong>de</strong>s autres valeurs propres <strong>de</strong> valeur absolue |λ| = 1.b) La distribution limite est unique <strong>et</strong> la limite P est une matrice <strong>de</strong> rang 1 :P = limn→∞P n = 1 × (0 |π ∞ ) (24)où π ∞ est la distribution stationnaire <strong>de</strong> la classe récurrente.La démonstration du( théorème ) 7.4 b) par l’approche algébrique est immédiate. En eff<strong>et</strong>,Q Tprenons v = 1. Soit P = <strong>et</strong> cherchons a trouver un vecteur propre à gauche <strong>de</strong> la0 P 1forme p = (p t , p 1 ), donc satisfaisantp t Q = p t , p t T + p 1 P 1 = p 1 ⇐⇒p t = (I − Q) −1 0 = 0, p 1 = π78


En conclusion, la structure <strong>de</strong> la matrice limite P pour les chaînes faiblement ergodiquesest assez simple, pareille à celle du théorème fondamental ergodique ; il suffit <strong>de</strong> trouver ladistribution stationnaire π ∞ <strong>de</strong> la seule classe récurrente, <strong>et</strong> a ”l’étendre” par <strong>de</strong>s zeros surles classes transitoires. En suite on utilise la formuleP = 1 poù p est le vecteur π ∞ compl<strong>et</strong>é avec <strong>de</strong>s zeros. Rémarquons encore que 1, p sont <strong>de</strong>s vecteurspropres à droite <strong>et</strong> gauche, normalisés tel que p est un vecteur <strong>de</strong>s probabilités <strong>et</strong> tel que< p, 1 >= 1, <strong>et</strong> donc la décomposition ci-<strong>de</strong>ssus est un cas particulier <strong>de</strong> la forme specifiéeen (23).7.5.2 La distribution limite dans le cas purement absorbantUn( autre cas ) simple est celui <strong>de</strong>s chaînes qui n’ont que <strong>de</strong>s états récurrents absorbants,Q Toù P = <strong>et</strong> où T contient comme colonnes les probabilités d’absorption immédiate0 Idans les états absorbants.Nous savons que P est <strong>de</strong> la formeP =( ) 0 X0 IEn utilisant P P = P , on trouve explicitement, la solution estX = (I − Q) −1 T = P (abs)qui est précisément la formule <strong>de</strong> la matrice <strong>de</strong>s probailités d’absorption (pratiquement, il estplus convenable <strong>de</strong> les obtenir en résolvant le ”système d’absorption” trouvé en conditionnantsur le premier pas.Lemma 7.1 Pour une chaîne absorbante, les probabilités limite P (abs)i,j := P i,j , ∀i transitoire,∀j absorbant sont égales aux probabilités d’absorption p i (j) = P i {X τ = j}.En conclusion, on trouve que la matrice limite est( )0 P(abs)P =0 IExercice 7.6 Que <strong>de</strong>vient la décomposition spectrale (23) <strong>et</strong> les vecteurs propres à droite <strong>et</strong>gauche <strong>de</strong> la valeur 1 dans le cas absorbant ?79


Solution : Cherchons à trouver un vecteur propre à droite v j <strong>et</strong> un vecteur propre àgauche π j pour chaque élément absorbant j.On trouve π j = e j = (0, 0, ..., 1, ..., 0). Décomposant v j = (v t , 0, 0, ..., 1, ..., 0) on trouvev j = p j , où p j sont les probabilités d’absorbtion dans la classe j.7.5.3 La distribution limite dans le cas généralNous consi<strong>de</strong>rons maintenant le cas général à plusieurs classes récurrentes. Il nous resteseulement <strong>de</strong> calculer les limites X(i, j) := lim n→∞ P n (i, j) pour i transitoire <strong>et</strong> j récurrent.Nous avons vu dans nos exemples qu’il y a <strong>de</strong>ux vecteurs <strong>de</strong> probabilités à déterminer :a) p i (ĵ), <strong>de</strong> finir dans la classe <strong>de</strong> récurrence <strong>de</strong> j à partir <strong>de</strong> l’élément transitoire i, <strong>et</strong>b) π(j) la probabilité stationnaire que la chaîne soit observée dans l’état j (ou la proportion<strong>de</strong> temps passé dans l’état j.Pour cela, on utilisera :Lemma 7.2lim n→∞ P n (i, j) = p i (ĵ) π(j) (25)où on a dénoté par p i (ĵ) la probabilité d’absorption dans la classe <strong>de</strong> récurrence <strong>de</strong> j (<strong>et</strong> parπ(j) la probabilité stationnaire <strong>de</strong> j dans sa classe).En forme matricielle, Xĵ = pĵ × πĵC<strong>et</strong>te loi multiplicative est assez claire intuitivement : elle reflète l’indépendance entrele comportement avant <strong>et</strong> après absorption, <strong>et</strong> se verifie facilement 2 .Donc, le calcul <strong>de</strong>s limites lim n→∞ P n (i, j) pour i transitoire <strong>et</strong> j récurrent <strong>de</strong>man<strong>de</strong> lecalcul <strong>de</strong>s probabilités d’absorbtion p i (ĵ) <strong>et</strong> l’application <strong>de</strong> la lemme 7.2.2 En conditionnant sur la position k d’arrivée dans la classe <strong>de</strong> récurrence ĵ <strong>de</strong> j après le temps T d<strong>et</strong>ransition <strong>de</strong> la partie transitoire, on trouve que :lim n→∞ P n (i, j) = ∑ k∈ĵP i {X T = k} lim n→∞ P n (k, j) (par propr. <strong>Markov</strong>) (26)= ∑ k∈ĵP i {X T = k} π(j)(par ergodicité <strong>de</strong> la classe récurrente) (27)= π(j) ∑ k∈ĵP i {X T = k} = p i (ĵ) π(j) (28)80


Exemple 7.5 Calculer la matrice P = lim n→∞ P n pour l’exemple :⎛⎞0 a b 1 − a − b 0 00 1 0 0 0 0P =0 0 1 10 02 2 ⎜ 0 0 0 0 0 1 ⎟⎝0 0 1 10 0⎠2 21 0 0 0 0 0Solution : Après le rangement facilitant <strong>de</strong>s éléments dans l’ordre 1, 4, 6, 2, 3, 5 la matrice<strong>de</strong> transition <strong>de</strong>vient :⎛0 1 − a − b 0 a b 00 0 1 0 0 01 0 0 0 0 00 0 0 1 0 0P =⎜⎝ 0 0 0 0 1 20 0 0 0 1 2On aperçoit par la structure <strong>de</strong> matrice à ”bloques” qu’on peut traiter les classes (2)<strong>et</strong> (3, 5) séparément. Ici, l’absorption dans les classes récurrentes se fait toujours en partant<strong>de</strong> 1, <strong>et</strong> alors les probabilités d’absorption <strong>de</strong> 4 <strong>et</strong> 6 sont i<strong>de</strong>ntiques aux celles <strong>de</strong> 1. En plus,l’absorption se fait avec les probabilités données a, b dans les classes récurrentes (2) <strong>et</strong> (3, 5),respectivement.Finalement, on trouve par la lemme (7.2)1212⎞⎟⎠⎛P =⎜⎝aa+b0 0 0a0 0 0a+bb 1a+bb21a+b 2ba+bb121a+bb21a+b 2a b 10 0 0a+b a+b 20 0 0 1 0 010 0 0 0210 0 0 021212⎞⎟⎠Le problème du calcul <strong>de</strong> P a été simplifié ci-<strong>de</strong>ssus par la connaisance immédiate <strong>de</strong>sprobabilités d’absorption p i (ĵ) dans chaqune <strong>de</strong>s classes récurrentes.En applications, il faudra calculer les probabilités d’absorption p i (ĵ) séparément pourchaque classe, sauf une, en résolvant un système d’absorption correspondant, obtenu en”collant ensemble” toutes les éléments <strong>de</strong> chaque classe (pour la <strong>de</strong>rnière classe, on peutobtenir les probabilités d’absorption comme complémentaires <strong>de</strong> celles dans les autres classes)81


Exemple 7.6 Calculer la matrice P = lim n→∞ P n pour l’exemple :⎛⎞P =⎜⎝0 1 316131060 1 0 0 0 00 0 1 − a 0 a 00 1 20 0 0120 0 b 0 1 − b 01 0 0 0 0 0⎟⎠Solution : Aprés le rangement <strong>de</strong>s éléments dans l’ordre 1, 4, 6, 2, 3, 5 la matrice d<strong>et</strong>ransition <strong>de</strong>vient :Le système d’absorption :⎛⎞0 1 0 1 1 13 3 6 60 0 1 10 02 2 P =1 0 0 0 0 0⎜ 0 0 0 1 0 0⎟⎝ 0 0 0 0 1 − a a ⎠0 0 0 0 b 1 − bp 1 (2) = 1 3 p 4(2) + 1 3 1 + 1 3 0p 4 (2) = 1 2 p 4(2) + 1 2 1p 6 (2) = p 1 (2)donne p 1 (2) = 3/5 = p 6 (2) <strong>et</strong> p 4 (2) = 4/5, <strong>et</strong> alors les probabilités complémentaires sont :p 1 (ˆ3) = 2/5 = p 6 (ˆ3) <strong>et</strong> p 4 (ˆ3) = 1/5 (les résultats auraient pu être dévinés, en observant quel’absorption dans les classes récurrentes se fait seulement en partant <strong>de</strong> 1 <strong>et</strong> <strong>de</strong> 4, tandis que6 a les mêmes probabilités d’abs. que 1. Posant ã = aa+b , ˜b =ba+bon trouve finalement :⎛P =⎜⎝0 0 0 3 2 25 5˜b 5ã0 0 0 4 1 15 5˜b 5ã0 0 0 3 2 25 5˜b 5ã0 0 0 1 0 01 10 0 0 02 21 10 0 0 02 2⎞⎟⎠Exercice 7.7 Démontrer la lemme, à partir <strong>de</strong>s <strong>de</strong>ux équations P P = P , P P = P . Que<strong>de</strong>vient la décomposition (23), i.e. les vecteurs propres à droite <strong>et</strong> gauche <strong>de</strong> la valeur 1 dansle cas général ?82


Solution : Cherchons à trouver un vecteur propre à droite v (j) <strong>et</strong> un vecteur propre àgauche π (j) pour chaque élément absorbant j.On trouve π (j) = (0, 0, ..., π j , ..., 0), la distribution stationnaire <strong>de</strong> la classe j. Décomposantv (j) = (v t , 0, 0, ..., 1, .., 1, 0, ..., 0) on trouve v t = p j , où p j sont les probabilités d’absorbtiondans la classe j.En travaillant en forme matricielle, on trouve les matrices <strong>de</strong> rangue 1 X j = p j × π j .Conclusion : On voit que la connaissance <strong>de</strong> la structure du graphe <strong>de</strong> communicationsimplifie consi<strong>de</strong>rablement le problème du calcul <strong>de</strong> la limite P .7.6 Exercices1. L’espace <strong>de</strong>s <strong>et</strong>ats d’une chaine est S = 1, 2, 3, 4, 5, 6 <strong>et</strong> la matrice <strong>de</strong> transition est⎛P =⎜⎝0 1 41210 040 1 0 0 0 00 0 1 30 2 300 0 0 0 0 10 0 1 40 3 40140 0 0 3 40(a) Dessinez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez les classes <strong>de</strong> la chaîne. Classifierles classes en récurrents <strong>et</strong> transitoires. Y’ a-t-il <strong>de</strong>s classes periodiques ?(b) Trouvez la distribution stationnaire <strong>de</strong>s classes récurrentes.(c) Trouvez la limite quand n → inf <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n2. Pour une marche aléatoire X t , t = 0, 1, 2, ... sur le graphe cubique ci-<strong>de</strong>ssous,calculer :(a) L’ésperance en partant <strong>de</strong> U du nombre <strong>de</strong> pas T O jusq’au coin opposé O.Indication :Utiliser la symm<strong>et</strong>rie.(b) L’ésperance en sortant <strong>de</strong> O du nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.(c) La probabilité p A = P A {X T = U}, ou T = min[T U , T O ].(d) La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.(e) Les probabilités stationnaires du chaque noeud. Indication : Devinez la rèponse<strong>et</strong> montrez qu’elle satisfait le systême <strong>de</strong>s équations d’équilibre.Solution : 2) X(t) représente une marche aléatoire simple sur le cube [0, 1] 3 , ⃗0 estl’origine (0, 0, 0), le coin oposé (1, 1, 1) est noté par u. On remarque que dans toutes lesquestions les voisins <strong>de</strong> l’origine ont un role sym<strong>et</strong>rique <strong>et</strong> cela nous perm<strong>et</strong> <strong>de</strong> le noter⎞⎟⎠83


BUAOFig. 10 – Marche aléatoire simplepar la même l<strong>et</strong>tre a = (0, 0, 1), .... . De la même manière on appelle les voisins <strong>de</strong> u parb = (0, 1, 1), ....a) Pour trouver t u = E u [T 0 ], on résout le systeme :t u = 1 + t bt b = 1 + 2 3 t a + 1 3 t udont la solution est t a = 7, t b = 9, t u = 10.t a = 1 + 2 3 t bb) E 0 [ ¯T 0 ] où ¯T 0 représente le temps esperé jusqu’à la prochaine visite <strong>de</strong> 0 en commencant<strong>de</strong> 0, est donné par 1 + t a = 1 + 7 = 8. A remarquer que c’est exactement l’inverse <strong>de</strong>la probabilité ”<strong>de</strong> long parcour” d’être à 0,ce qui est un résultat bien connu sur les temps<strong>de</strong> r<strong>et</strong>ours espérés.c) P a [X(T ) = u], s’obtient <strong>de</strong> la solution du systèmep a = 2 3 p bqui est p b = 3 5 , p a = 2 5 .p b = 2 3 p a + 1 3d) Soit p k la probabilité d’avoir exactement k visites à (1, 1, 1) avant <strong>de</strong> r<strong>et</strong>ourner à 0.Alors p 0 c’est le même que la probabilité commencant en a que la marche revient à 0 avant84


<strong>de</strong> visiter (1, 1, 1), qui est 3 5 . p 1 = ( 2 5 )2 , p 2 = ( 2 5 )2 ( 3 5 ), <strong>et</strong> en général p k = ( 2 5 )2 ( 3 5 )k−1 . (verifiezque ∑ ∞k=1 p k = 2 5 , comme il faudrait). 85


7.7 Exercices : TD 31. Considérez une particule effectuant une marche aléatoire simple X t , t = 0, 1, 2, ...sur le graphe (A) ci-<strong>de</strong>ssous : i.e. à chaque moment t = 1, 2, ..., la particule se déplacevers l’un <strong>de</strong> ses voisins sur le graphe à sa position actuelle, avec la même probabilitépour chaque choix.(A)(B)112 32 3005454(a) Calculer :(b)i. L’ésperance en sortant <strong>de</strong> 1 du nombre <strong>de</strong> pas T 0 jusq’au noeud 0. Indication :Utiliser la symm<strong>et</strong>rie.ii. L’ésperance en sortant <strong>de</strong> 0 du nombre <strong>de</strong> pas ˜T 0 jusq’au premier r<strong>et</strong>our en0.iii. Les probabilités stationnaires <strong>de</strong> chaque noeud. Indication : On peut utiliserles èquations d’équilibre d<strong>et</strong>aillé.iv. La probabilité x 2 = P 2 {X T = 1}, où T = min[T 1 , T 0 ].v. Les probabilités p k en partant <strong>de</strong> 1 que la marche visite 0 exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our en 1.À un moment donné, le passage sur certaines arrêts du graphe <strong>de</strong>vient impossible,ou possible seulement dans une direction, comme indiqué par <strong>de</strong>s flèches dansle graphe (B). Plus précisement, la particule continue <strong>de</strong> choisir <strong>de</strong>s <strong>de</strong>stinationssuivant le graphe (A) (”aveuglement”), mais les choix qui ne sont plus disponiblesrésultent dans un pas annulé, donc sur place.i. Donnez la matrice <strong>de</strong> transition <strong>de</strong> la marche.ii. I<strong>de</strong>ntifiez les classes <strong>de</strong> la chaîne, <strong>et</strong> classifiez les en récurrentes <strong>et</strong> transitoires.Y’ a-t-il <strong>de</strong>s classes périodiques ?86


iii. Trouvez la distribution stationnaire <strong>de</strong>s classes récurrentes.iv. Est-ce que la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapesP n existe ? Le cas écheant, trouvez-la.Solution :(a) i. Soitt i = E i T 0 = E i [ nombre <strong>de</strong> pas jusq’au noeud 0]La symm<strong>et</strong>rie implique t 2 = t 3 , t 5 = t 4 , donc trois équations suffiront (au lieu<strong>de</strong> 5). En conditionnant sur le premier pas, on trouve que t i satisfont :t 1 = 1 + t 2t 2 = 1 + 1 4 t 1 + 1 4 t 2 + 1 4 t 5t 5 = 1 + 1 3 t 5 + 1 3 t 2Ça donne : t 5 = 11 3 , t 2 = 13 3 , t 1 = 16 3ii. E ˜T 0 = 1 + 1 4 (t 2 + t 3 + t 4 + t 5 ) = 1 + 12 3 = 5 (= 1 π 0)iii. π i =v i Pj v jdonne (2/(2 + 4 ∗ 3 + 3 ∗ 2) = 1 , 4/20 = 1, 3 ) (en vérifiant ainsi10 5 20le théorème E ˜T 0 = 1 π 0).iv. Le système d’absorption donne : x 2 = 2 5 , x 5 = 1 5 .v.2. L’espace <strong>de</strong>s états d’une chaîne est S = 0, 1, 2, 3, 4, 5 <strong>et</strong> la matrice <strong>de</strong> transition est⎛⎞1 0 0 0 0 00 0 1 10 02 2 1 1P =0 1 0 1 4 4 4 41 1 1⎜ 0 1 04 4 4 4 ⎟⎝ 0 0 0 0 2 1 ⎠3 30 0 0 0 1 23 3(a) Tracez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez les classes <strong>de</strong> la chaîne. Classifierles classes en récurrents <strong>et</strong> transitoires. Y’ a-t-il <strong>de</strong>s classes périodiques ?(b) Trouvez la distribution stationnaire <strong>de</strong>s classes récurrentes.(c) Trouvez la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n3. L’espace <strong>de</strong>s états d’une chaine est S = 1, 2, 3, 4, 5 <strong>et</strong> la matrice <strong>de</strong> transition est⎛0 a 1 1− a 0 0 ⎞2 2 0 1 0 0 0 0P =0 0 1 20 03 3 ⎜ 0 0 0 0 0 1⎟⎝ 0 0 1 30 0 ⎠4 4130 0 0 04 487


(a) Dessinez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez les classes <strong>de</strong> la chaîne. Classifierles classes en récurrents <strong>et</strong> transitoires. Y’ a-t-il <strong>de</strong>s classes periodiques ?(b) Trouvez la distribution stationnaire <strong>de</strong>s classes récurrentes.(c) Trouvez la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n4. L’espace <strong>de</strong>s <strong>et</strong>ats d’une chaine est S = 1, 2, 3, 4, 5, 6 <strong>et</strong> la matrice <strong>de</strong> transition est⎛P =⎜⎝0 1 41210 040 1 0 0 0 00 0 1 − a 0 a 00 0 0 0 0 10 0 b 0 1 − b 0140 0 0340(a) Dessinez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez les classes <strong>de</strong> la chaîne. Classifierles classes en récurrents <strong>et</strong> transitoires. Y’ a-t-il <strong>de</strong>s classes periodiques ?(b) Trouvez la distribution stationnaire <strong>de</strong>s classes récurrentes.(c) Trouvez la limite quand n → inf <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n⎞⎟⎠Solutions :1. (a) La matrice <strong>de</strong> transition est :⎛P =⎜⎝⎞1 0 0 0 0 00 0 1 10 02 2 1 10 1 0 1 4 4 4 41 1 10 1 04 4 4 4 ⎟0 0 0 0 2 1 ⎠3 30 0 0 0 1 23 3Classes récurrentes : (0) <strong>et</strong> (4, 5). Classe transitoire, périodique : (1, 2, 3).(b) Les distributions stationnaires <strong>de</strong>s classes récurrentes sont (1) <strong>et</strong> ( 1 2 , 1 2 ).(c) La limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n existe. Elleest :⎛P =⎜⎝1 0 0 0 0 0b 1,0 0 0 0 1b 12 1,ˆ4b 2,0 0 0 0 1b 12 2,ˆ4b 3,0 0 0 0 1b 12 3,ˆ41 10 0 0 02 21 10 0 0 02 22 b 1,ˆ42 b 2,ˆ42 b 3,ˆ4où b 2,0 = b 3,0 = b 1,0 = 1 (en résolvant le système d’absorption) <strong>et</strong> donc leurs2complementaires sont aussi : b = 1 = b 1,ˆ4 2 2,ˆ4 = b 3,ˆ4⎞⎟⎠88


7.8 Controle continu1. La marche paresseuse : Soit X n = X 0 + Z 1 + Z 2 + · · · + Z n une marche aléatoiresur Z, avec (Z n ) une suite <strong>de</strong> variables aléatoires réelles indépendantes <strong>de</strong> même loiP [Z n = 1] =p, P [Z n = −1] =q <strong>et</strong> P [Z n = 0] =1- p-q, avec 0 < p + q < 1. Pour toutx <strong>de</strong> N, on note par E x l’espérance en commençant <strong>de</strong> x (conditionnant sur X 0 = x).Nous arrêtons le <strong>processus</strong> au temps d’arrêt T auquel le <strong>processus</strong> sort <strong>de</strong> l’intervalle[0, K] pour 0 < K donnés.(a) Quelles sont les équations <strong>de</strong> récurrence <strong>et</strong> conditions frontière satisfaites parp x = P x {X T = K}, f x = E x [X 2 T ], t x = E x T <strong>et</strong> c x = E x [ ∑ T0 X t] ?(b) Obtenez l’équation <strong>de</strong> récurrence <strong>et</strong> les conditions frontière satisfaites par w x =E x a T .(c) Résolvez les premières <strong>de</strong>ux équations <strong>de</strong> a) dans le cas p = q, <strong>et</strong> les <strong>de</strong>rnières<strong>de</strong>ux équations <strong>de</strong> a) dans le cas p < q, K = ∞, en sachant que les résultats dansce cas ne peuvent pas contenir <strong>de</strong>s termes qui augmentent exponentiellement.2. Considérez une particule effectuant une marche aléatoire simple X t , t = 0, 1, 2, ...sur le graphe (A) ci-<strong>de</strong>ssous : i.e. à chaque moment t = 1, 2, ..., la particule se déplacevers l’un <strong>de</strong> ses voisins sur le graphe à sa position actuelle, avec la même probabilitépour chaque choix.(A)(B)112 32 3005454(a) Calculer :i. L’ésperance en sortant <strong>de</strong> 0 du nombre <strong>de</strong> pas T 1 jusq’au noeud 1. Indication :Utiliser la symm<strong>et</strong>rie.ii. L’ésperance en sortant <strong>de</strong> 1 du nombre <strong>de</strong> pas ˜T 1 jusq’au premier r<strong>et</strong>our en1.89


(b)iii. Les probabilités stationnaires <strong>de</strong> chaque noeud.iv. Les probabilités x i = P i {X T = 1}, où T = min[T 1 , T 0 ], i = 2, 3, 4, 5.v. Les probabilités p k en partant <strong>de</strong> 2 que la marche visite 1 exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our en 0.vi. Les probabilités p k en partant <strong>de</strong> 5 que la marche visite 1 exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our en 0. Vérifier la somme ∑ ∞k=0 p k.À un moment donné, le passage sur certaines arrêts du graphe <strong>de</strong>vient impossible,ou possible seulement dans une direction, comme indiqué par <strong>de</strong>s flèches dansle graphe (B). Plus précisement, la particule continue <strong>de</strong> choisir <strong>de</strong>s <strong>de</strong>stinationssuivant le graphe (A) (”aveuglement”), mais les choix qui ne sont plus disponiblesrésultent dans un pas annulé, donc sur place.i. Donnez la matrice <strong>de</strong> transition <strong>de</strong> la nouvelle marche.Solution :ii. I<strong>de</strong>ntifiez les classes <strong>de</strong> la chaîne, <strong>et</strong> classifiez les en récurrentes <strong>et</strong> transitoires.iii. Trouvez la distribution stationnaire <strong>de</strong>s classes récurrentes.iv. Est-ce que la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapesP n existe ? Le cas écheant, trouvez-la.1. (a,b) Soit (Gf) x = p (f x+1 − f x ) + q (f x−1 − f x ) (formellement, la même expressioncomme dans le cas ”non-paresseux”, sauf que maintenant p + q < 1.Les équations sont respectivement :(Gp) x = 0, p K = 1, p 0 = 0(Gf) x = 0, f K = K 2 , f 0 = 0(Gt) x + 1 = 0, t K = 0, t 0 = 0(Gc) x + x = 0, c K = 0, c 0 = 0(Gw) x + (1 − a −1 )w x , w K = 1, w 0 = 1Ces sont exactement les mêmes équations comme pour une marche non-paresseuse,sauf que l’opérateur est different.(c) Pour p x <strong>et</strong> f x on obtient donc les mêmes équations comme pour une marche symm<strong>et</strong>riqueavec p = 1/2, par exemple :2pp x = pp x+1 + pp x−1 for any 1 ≤ x ≤ K − 1p K = 1, p 0 = 00<strong>et</strong> donc les mêmes réponses p x = x , f K x = K 2 x = xK.KPour t x = E x [T ] (temps <strong>de</strong> sortie esperé) on trouve :0 = pt x+1 − (p + q)t x + qt x−1 + 1 for any 1 ≤ x ≤ K − 1t K = 0, t 0 = 090


Soit t 0 (x) =x une solution particulière qui satisfait t q−p 0(0) = 0. La solution estt x = t 0 (x) − t 0 (K) h(x) où h(x) = 1 − h(K) (q/p)x est une solution homogène satisfaisanth(0) = 0. Pour K = ∞, q > p on obtient t(x) = t 0 (x).Pour c x on trouve :0 = pc x+1 − (p + q)c x + qc x−1 + x for any 1 ≤ x ≤ K − 1c K = 0, c 0 = 0Soit c 0 (x) =une solution particulière qui satisfait c 0 (0) = 0. Lasolution estc x = c 0 (x) − c 0 (K) h(x) où h(x) = 1 − h(K) (q/p)x est une solution homogène satisfaisanth(0) = 0. Pour K = ∞, q > p on obtient c(x) = c 0 (x).2. (a) Soitt i = E i T 1 = E i [ nombre <strong>de</strong> pas jusq’au noeud 1]x2 + x(q+p)2(q−p) 2(q−p) 2La symm<strong>et</strong>rie implique t 2 = t 3 , t 5 = t 4 , donc trois équations suffiront (au lieu <strong>de</strong>5). En conditionnant sur le premier pas, on trouve que t i satisfont :t 0 = 1 + 1 2 t 2 + 1 2 t 5t 2 = 1 + 1 4 t 2 + 1 4 t 0 + 1 4 t 5t 5 = 1 + 1 3 t 5 + 1 3 t 2 + 1 3 t 0t 0 − 1 2 t 2 − 1 2 t 5 = 1− 1 4 t 0 + 3 4 t 2 − 1 4 t 5 = 1− 1 3 t 0 − 1 3 t 2 + 2 3 t 5 = 1t 0 − 1 2 t 2 − 1 2 t 5 = 1−t 0 + 3t 2 − t 5 = 4−t 0 − t 2 + 2t 5 = 3t 0 − 1 2 t 2 − 1 2 t 5 = 10 + 5 2 t 2 − 3 2 t 5 = 50 − 3 2 t 2 + 3 2 t 5 = 4Ça donne : t 5 = t 2 + 8 3 , t 2 = 9, t 5 = 353 , t 0 = 34 3 .91


(b) E ˜T 1 = 1 + t 2 = 10 (= 1 π 1)(c) La distribution stationnaire (obtenue en utilisant les èquations d’équilibre d<strong>et</strong>aillé)donne π i =v i Pj <strong>et</strong> donc π v 1 = (2/(2 + 4 ∗ 3 + 3 ∗ 2) = 1 , πj 10 0 = 4/20 = 1, π 5 5 = 3 ) 20(en vérifiant ainsi le théorème E ˜T 1 = 1 π 1).(d) Le système d’absorption donne : x 2 = 2 5 , x 5 = 1 5 .(e) Soit p k la probabilité d’avoir exactement k visites à 1 avant <strong>de</strong> visiter 0, à partir<strong>de</strong> 2. Alors p 0 c’est la probabilité commençant en 2 que la marche visite 0 avant<strong>de</strong> visiter 1, qui est 3 5 , <strong>et</strong> pour k ≥ 1, p k = 2 5 )p k−1, <strong>et</strong> p k = 3 5 ( 2 5 )k−1 , donc unedistribution geom<strong>et</strong>rique.(f) Soit p k la probabilité d’avoir exactement k visites à 1 avant <strong>de</strong> visiter 0, à partir<strong>de</strong> 5. Alors, p 0 c’est la probabilité commençant en 5 que la marche visite 0 avant<strong>de</strong> visiter 1, qui est 4.5Pour k = 1 visite, ”le chemin” observé seulement en O, 1 <strong>et</strong> l’état aprés 1”est 5,1,2,0. Donc, p 1 = P 5 [1, 2, 0] = 1 3, p 5 5 2 = P 5 [1, 2, 1, 0] = 1 2 3, <strong>et</strong> en général5 5 5p k = 2p 5 k−1 = ( 1 3∑ )( 2 5 5 5 )k−1 , k ≥ 1. La distribution pour k ≥ 1 est geom<strong>et</strong>rique, <strong>et</strong>∞k=1 p k = 1 , comme il faut.53. (a) En numerotant 1, 2, 3, 4, 5, 0 :⎛⎞0 1 10 0 02 2 10 1 0 1 14 4 4 41 1P =0 1 0 1 4 4 4 4⎜0 0 0 2 103 3 ⎟⎝0 0 0 1 20⎠3 30 0 0 0 0 1La limite est⎛⎞0 0 0 1 1 14 4 20 0 0 1 1 14 4 2P =0 0 0 1 1 14 4 2⎜0 0 0 1 102 2 ⎟⎝0 0 0 1 10⎠2 20 0 0 0 0 14. a) Une mouche effectue une marche cyclique sur les somm<strong>et</strong>s {1, 2, 3} d’un triangle,avec matrice <strong>de</strong> transition ”circulante”⎛a b⎞cP = ⎝c a b⎠b c aoù a, b, c ≥ 0 <strong>et</strong> a + b + c = 1. Il est facile <strong>de</strong> verifier que la matrice <strong>de</strong> transitionP n est aussi ”circulante” (i.e. chaque ligne est déduite <strong>de</strong> la ligne précé<strong>de</strong>nte par unepermutation cyclique <strong>de</strong> ses éléments vers la droite ) <strong>et</strong> on dénote par (a n , b n , c n ) leséléments <strong>de</strong> sa première ligne.92


(a) Quelles sont les valeurs limites <strong>de</strong> (a n , b n , c n ) quand n → ∞ ?(b) On cherche une formule explicite, aussi simple que possible, pour la probabilitéa n = P n (1, 1) qu’après n étapes, la mouche soit r<strong>et</strong>ournée au somm<strong>et</strong> 1 d’où elleest partie. Soit v n = (b n , c n ). Trouvez une récurrence pour le vecteur v n .(c) Résolvez c<strong>et</strong>te récurrence <strong>et</strong> trouvez a n , au cas a = b = c = 1/3 <strong>et</strong> au casb = c = 1/2.(d) Résolvez la récurrence, au cas où la mouche a <strong>de</strong>ux fois plus <strong>de</strong> chances <strong>de</strong> sauterdans le sens <strong>de</strong>s aiguilles d’une montre, i.e. b = 2/3, c = 1/3.5. La matrice P n est aussi circulante, <strong>et</strong> contient donc seulement <strong>de</strong>ux inconnues : b n =P n (1, 2), c n = P n (1, 3). Soit b = P (1, 2), c = P (1, 3), a = P (1, 1) = 1 − b − c lesprobabilités après un pas. On trouve la récurrence :( ) ( ) ( )bn+1 − 1/3 a − b c − b bn − 1/3=c n+1 − 1/3 b − c a − c c n − 1/3Le cas b = c = 1/2 <strong>et</strong> a = b = c = 1/3 donnent <strong>de</strong>s récurences ”<strong>de</strong>couplées”. Le casb = 2/3, c = 1/3 est plus difficile. En utilisant l’ordinateur, on rémarque que :où v n = v n+12 est périodique.(b n − 1/3, c n − 1/3) = (1/3, 1/3) + 3 −1−n/2 v n8 Examens d’entraînement8.1 Examen d’entraînement 1.1. L’espace <strong>de</strong>s états d’une chaîne est S = 1, 2, 3, 4, 5, 6, 7 <strong>et</strong> la matrice <strong>de</strong> transition est⎛⎞1 0 0 0 0 0 0a 0 b 0 0 1 − a − b 00 0 0 1 1 1 13 6 6 3P =0 1 0 0 0 0 0⎜ 0 1 0 0 0 0 0⎟⎝1 10 0 0 0 0 ⎠2 21 30 0 0 0 04 4(a) Tracez le graphe <strong>de</strong> communication <strong>et</strong> i<strong>de</strong>ntifiez les classes <strong>de</strong> la chaîne. Classifierles classes en récurrentes <strong>et</strong> transitoires. Y’ a-t-il <strong>de</strong>s classes périodiques ?(b) Trouvez la distribution stationnaire <strong>de</strong>s classes récurrentes.(c) Trouvez la limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n2. Pour une marche aléatoire X t , t = 0, 1, 2, ... sur le graphe cubique ci-<strong>de</strong>ssous,calculer :93


BUAOFig. 11 – Marche aléatoire simple(a) L’ésperance en sortant <strong>de</strong> U du nombre <strong>de</strong> pas T O jusq’au noeud O. Indication :Utiliser la symm<strong>et</strong>rie.(b) Les probabilités stationnaires du chaque noeud.(c) L’ésperance en sortant <strong>de</strong> O du nombre <strong>de</strong> pas ˜T O jusq’au premier r<strong>et</strong>our à O.(d) La probabilité p A = P A {X T = U}, ou T = min[T U , T O ].(e) La probabilité p k en partant <strong>de</strong> O que la marche visite U exactement k fois(k = 0, 1, 2, ...) avant le premier r<strong>et</strong>our à O. Vérifier la somme ∑ ∞k=0 p k.3. Soit (X n ) n∈Nune chaîne <strong>de</strong> <strong>Markov</strong> homogène sur l’ensemble({1, 2}, <strong>de</strong>)distribution1 − a ainitiale µ 0 = (p, 1 − p) <strong>et</strong> <strong>de</strong> matrice <strong>de</strong> transition P =b 1 − b(a) Calculez P{X 0 = 2, X 1 = 2}, µ 1 (2) = P{X 1 = 2} P{X 0 = 2|X 1 = 2}, <strong>et</strong>P{X 0 = 2, X 1 = 1, X 4 = 2}.(b) Trouvez toutes les lois stationnaires π <strong>de</strong> la chaîne donnée (s’il y en a plus d’uneseule). Spécifiez, en justifiant, si la limite lim n→∞ µ 0 P n existe pour la chaînedonnée. Si c’est le cas, quelles sont les limites lim n→∞ P{X n = 2}, lim n→∞ P{X n =2, X n+1 = 2} <strong>et</strong> lim n→∞ P{X n = 2|X n+1 = 2} ?(c)Étant donné <strong>de</strong>s coûts <strong>de</strong> stockage per unité <strong>de</strong> temps h(1), h(2), calculez le coûtmoyen stationnairen∑Eπ n −1 h(X i )ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.Soit Y i , i = 1, ..., une suite <strong>de</strong>s lancées <strong>de</strong> dé indépendantes. Déterminer dans lesexemples suivantes si la suite X n est <strong>Markov</strong>, en donnant (si possible) la matrice d<strong>et</strong>ransition <strong>et</strong> le graph <strong>de</strong> communication. Classifier les classes en récurrents <strong>et</strong> transitoires<strong>et</strong> calculer si possible la limite P = lim n→∞ P ni=1(a) Le maximum <strong>de</strong> résultats X n = max 1≤i≤n Y i94


(b) Le nombre cumulatif <strong>de</strong> non 6, aprés le temps n, jusqu’au prochaîne 6.(c) X n = Y n + Y n−1(d) X n = Max 1≤i≤n S i , ou S i = ∑ ik=1 Y i <strong>et</strong>(e) X n = S 1 + S 2 + ... + S nSolutions :1. (a) Classes récurrentes : (1) <strong>et</strong> (6, 7). Classe transitoire, nonpériodique : (2, 3, 4, 5).3) (a)(b) Les distribution stationnaire <strong>de</strong>s classes récurrentes sont (1) <strong>et</strong> ( 1 3 , 2 3 ).(c) La limite quand n → ∞ <strong>de</strong> la matrice <strong>de</strong> transition apres n étapes P n estoù b 2,1 = 2a2−b , b 3,1 =⎛P ∞ =⎜⎝(b) Loi stationnaire : ( ba+b , aa+b )(c)1 0 0 0 0 0 0b 2,1 0 0 0 0 1 b 23 2,6b 3,1 0 0 0 0 1b 23 3,6b 2,1 0 0 0 0 1b 23 2,6b 2,1 0 0 0 0 1b 23 2,61 20 0 0 0 03 30 0 0 0 0133 b 2,63 b 3,63 b 2,63 b 2,6a <strong>et</strong> b 2−b 2,6 = 1 − b 2,1 , b 3,6 = 1 − b 3,1 .(1 − p)(1 − b)(1 − p)(1 − b) + p a(1 − p)(1 − b)(1 − p)(1 − b) + p aaa + ba(1 − b)a + b1 − bba + b h(1) + aa + b h(2)23⎞⎟⎠95


8.2 Examen d’entraînement 21. Soit (X n ) n∈Nune chaîne <strong>de</strong> <strong>Markov</strong> homogène sur l’ensemble({1, 2}, <strong>de</strong> distribution2)1initiale µ 0 = (1/5, 4/5) <strong>et</strong> <strong>de</strong> matrice <strong>de</strong> transition P = 3 3(a) Calculez P{X 0 = 2, X 1 = 2}, µ 1 (1) = P{X 1 = 2} <strong>et</strong> P{X 0 = 2|X 1 = 2}.(b) Démontrez que si la limite µ = lim n→∞ µ 0 P n existe, elle doit <strong>et</strong>re une distributionstationnaire, i.e. elle doit satisfaire léquation µ = µP .(c) Trouvez toutes les lois stationnaires π <strong>de</strong> la chaîne donnée (s’il y en a plus d’uneseule). Spécifiez, en justifiant, si la limite lim n→∞ µ 0 P n existe pour la chaînedonnée. Si c’est le cas, quelles sont les limites lim n→∞ P{X n = 2}, lim n→∞ P{X n =2, X n+1 = 2} <strong>et</strong> lim n→∞ P{X n = 2|X n+1 = 2} ?(d)Étant donné un coût <strong>de</strong> stockage per unité <strong>de</strong> temps h(1) = 0, h(2) = 3, calculezle coût moyen stationnairen∑Eπ n −1 h(X i )ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.Solution :(a)(b)i=1P{X 0 = 2, X 1 = 2} = 4 5 · 56 = 2 316P{X 1 = 2} = 2030 + 2 30 = 2230P{X 0 = 2|X 1 = 2} = 2 3 /22 30 = 1011(c) Un calcul imediat montre que le vecteur propre a gauche <strong>de</strong> P , i.e. la loi stationnaire,est unique π = ( 1 3 , 2 3 ). La limite lim n→∞µ 0 P n existe parce que la chaîneest apériodique ; par consequent, elle est egale a π.56(d)lim P{X n = 2} = 2n→∞ 3lim P{X n = 2, X n+1 = 2} = 2n→∞ 3 · 56 = 1030Eπ n −1limn→∞ P{X n = 2|X n+1 = 2} = 5 6n∑h(X i ) = Eπh(X 1 ) = 3π(2) = 2i=1ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.96


2. Une agence <strong>de</strong> notation <strong>de</strong> titres évalue les différentes entreprises chaque trimèstre ; lesnotations sont, en ordre <strong>de</strong>croissante <strong>de</strong> mérite A, B, C <strong>et</strong> D (défaut). Les donnés historiquessuggérent qu’on peut modéliser l’évaluation <strong>de</strong> crédit d’une entreprise typiquepar une chaîne <strong>de</strong> <strong>Markov</strong> avec matrice <strong>de</strong> transitionP =⎛⎜⎝α 1 − α − α 2 α 2 0α α 1 − 2α − α 2 α 21 − 2α − α 2 α α α 20 0 0 1où α est un paramètre qui dépend <strong>de</strong> l’entreprise.(a) Trouvez les limites <strong>de</strong>s valeurs <strong>de</strong> α pour lesquelles la matrice P est une matrice<strong>de</strong> transition valable (i.e. ”stochastique”).(b) Tracez le graph <strong>de</strong> communication <strong>de</strong> la chaîne. I<strong>de</strong>ntifiez les classes <strong>de</strong> communication<strong>et</strong> classifiez-les en récurrents <strong>et</strong> transitoires, périodiques ou pas. Spécifiers’il y a <strong>de</strong>s valeurs <strong>de</strong> α pour lesquelles la structure est differente.(c) Trouvez toutes les lois stationnaires π <strong>de</strong> c<strong>et</strong>te chaîne, dans tous les cas trouvésci <strong>de</strong>ssus.Solution :(a) All transition probabilities must lie in [0, 1]. Now 1 − 2α − α 2 ≤ 1 − α − α 2 ≤ 1for α ≥ 0, so it suffices to ensure that 1 − 2α − α 2 ≥ 0 i.e. α ≤ √ 2 − 1. So therange of possible values of α is [0, √ 2 − 1].(b) Pour α > 0, la chaîne a une classe transiente (A, B, C) <strong>et</strong> une classe absorbante D,<strong>et</strong> est apériodique by inspection. Pour α = 0, nous avons <strong>de</strong>ux classes reccurrentes,la première périodique.(c) A stationary probability distribution, if it exists must obeyαπ A + απ B + (1 − 2α − α 2 )π C = π A(1 − α − α 2 )π A + απ B + απ C = π Bα 2 π A + (1 − 2α − α 2 .)π B + απ C = π Cα 2 π B + α 2 π C + π D = π DPour α > 0, la <strong>de</strong>rnière équation implies π B = π C = 0, and this in turn showsthat π A = 0. Hence the stationary probability distribution is π = (0, 0, 0, 1) T .It is unique : there is just one recurrent class and it is apériodique.3. Soit X n = X 0 + Z 1 + Z 2 + · · · + Z n une marche aléatoire sur Z, avec (Z n ) une suite <strong>de</strong>variables aléatoires réelles indépendantes <strong>de</strong> même loi P [Z n = ±1] =p <strong>et</strong> P [Z n = 0]=1- 2 p, avec 0 < p < 1/2. Pour tout x <strong>de</strong> N, on note par E x l’espérance en commençant<strong>de</strong> x (conditionnant sur X 0 = x). Nous arrêtons le <strong>processus</strong> au temps d’arrêt T auquelle <strong>processus</strong> sort <strong>de</strong> l’intervalle [0, K] pour 0 < K donnés.(a) Obtenez l’équation <strong>de</strong> récurrence <strong>et</strong> les conditions frontière satisfaites par p x =P x {X T = K}, t x = E x T , <strong>et</strong> f x = E x X T Indication : Conditionez sur le premierpas Z 197⎞⎟⎠


(b) Résolvez les équations <strong>de</strong> récurrence qui en résultent pour p x , t x <strong>et</strong> f x dans le casp = q = 1/2.Solution :(a) Pour p x <strong>et</strong> f x on obtient les mêmes équations comme pour une marche symm<strong>et</strong>riqueavec p = 1/2, (ca veut dire qu’on arrive a manipuler l’équation <strong>de</strong> reccurence a lamême forme). Par exemple, p x satisfait :2pp x = pp x+1 + pp x−1 for any 1 ≤ x ≤ K − 1p K = 1p 0 = 0t x = E x [T ] (temps <strong>de</strong> sortie esperé) satisfaitt x = t x+12 + t x−12 + 12pt K = 0t 0 = 0for any 1 ≤ x ≤ K − 1(b) On trouv<strong>et</strong> x =x(K − x), p x = x 2pK , f x = x4. Soit X = (X t ; t ≥ 0) une chaîne <strong>de</strong> <strong>Markov</strong> en temps continu sur l’ensemble S ={1, 2, 3}. Supposons que la matrice infinitésimale (<strong>de</strong> taux <strong>de</strong> transitions) <strong>de</strong> X estdonnée par⎛Q = ⎝−5 2 31 −3 21 1 −2(a) Donnez les probabilités <strong>de</strong> transition infinitesimales P i {X dt = j} <strong>de</strong> la chaîne, ensachant que l’état initial est i = 2. Quelles sont les probabilités <strong>de</strong> transition <strong>de</strong>la chaîne au moment du premier saut, en sachant que l’état initial est i = 2 ?(b) Quelle est la loi conditionelle <strong>de</strong> U = inf{t ≥ 0 : X t ≠ 2}, en sachant que X 0 = 2 ?(c) Posant V = inf{t ≥ U : X t = 2}, calculez E[V |X 0 = 2]Solution :(a) Les probabilités <strong>de</strong> transition infinitesimales en sachant que l’état initial <strong>et</strong> i = 2sont P 2,1 (dt) = dt, P 2,3 (dt) = 2dt, P 2,2 (dt) = 1−3dt. Les probabilités <strong>de</strong> transitionau moment du premier saut sont : P 2,1 = 1 3 , P 2,3 = 1 3 , P 2,2 = 0.(b) La loi conditionelle <strong>de</strong> U = inf{t ≥ 0 : X t ≠ 2}, en sachant que X 0 = 2, estExpo(2).⎞⎠98


(c) Posant V = inf{t ≥ U : X t = 2}, nous avonsE[V |X 0 = 2] = EU + E(V − U) = 1 3 + 1 3 x 1 + 2 3 x 3ou x i , les éspérances du temps jusqu’on arrive en 2, en sachant que X 0 = i,satisfont le système :x 1 = 1 5 + 3 5 x 3x 3 = 1 2 + 1 2 x 1De lors, x 1 = 5 7 , x 3 = 6 7 . <strong>et</strong> E[V |X 0 = 2] = 8 79 Examen d’entraînement1. Soit (X n ) n∈Nune chaîne <strong>de</strong> <strong>Markov</strong> homogène sur l’ensemble({1, 2}, <strong>de</strong> distribution2)1initiale µ 0 = (1/5, 4/5) <strong>et</strong> <strong>de</strong> matrice <strong>de</strong> transition P =3 3(a) Calculez P{X 0 = 2, X 1 = 2}, µ 1 (1) = P{X 1 = 2} <strong>et</strong> P{X 0 = 2|X 1 = 2}.(b) Démontrez que si la limite µ = lim n→∞ µ 0 P n existe, elle doit <strong>et</strong>re une distributionstationnaire, i.e. elle doit satisfaire léquation µ = µP .(c) Trouvez toutes les lois stationnaires π <strong>de</strong> la chaîne donnée (s’il y en a plus d’uneseule). Spécifiez, en justifiant, si la limite lim n→∞ µ 0 P n existe pour la chaînedonnée. Si c’est le cas, quelles sont les limites lim n→∞ P{X n = 2}, lim n→∞ P{X n =2, X n+1 = 2} <strong>et</strong> lim n→∞ P{X n = 2|X n+1 = 2} ?(d)Étant donné un coût <strong>de</strong> stockage per unité <strong>de</strong> temps h(1) = 0, h(2) = 3, calculezle coût moyen stationnairen∑Eπ n −1 h(X i )ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.Solution :(a)i=1P{X 0 = 2, X 1 = 2} = 4 5 · 56 = 2 316P{X 1 = 2} = 2030 + 2 30 = 2230P{X 0 = 2|X 1 = 2} = 2 3 /22 30 = 10119956


(b)(c) Un calcul imediat montre que le vecteur propre a gauche <strong>de</strong> P , i.e. la loi stationnaire,est unique π = ( 1 3 , 2 3 ). La limite lim n→∞µ 0 P n existe parce que la chaîneest apériodique ; par consequent, elle est egale a π.(d)lim P{X n = 2} = 2n→∞ 3lim P{X n = 2, X n+1 = 2} = 2n→∞ 3 · 56 = 1030Eπ n −1limn→∞ P{X n = 2|X n+1 = 2} = 5 6n∑h(X i ) = Eπh(X 1 ) = 3π(2) = 2i=1ou Eπ <strong>de</strong>note l’espérance avec distribution initiale <strong>de</strong> X 0 egale à π.2. Une agence <strong>de</strong> notation <strong>de</strong> titres évalue les différentes entreprises chaque trimèstre ; lesnotations sont, en ordre <strong>de</strong>croissante <strong>de</strong> mérite A, B, C <strong>et</strong> D (défaut). Les donnés historiquessuggérent qu’on peut modéliser l’évaluation <strong>de</strong> crédit d’une entreprise typiquepar une chaîne <strong>de</strong> <strong>Markov</strong> avec matrice <strong>de</strong> transitionP =⎛⎜⎝α 1 − α − α 2 α 2 0α α 1 − 2α − α 2 α 21 − 2α − α 2 α α α 20 0 0 1où α est un paramètre qui dépend <strong>de</strong> l’entreprise.(a) Trouvez les limites <strong>de</strong>s valeurs <strong>de</strong> α pour lesquelles la matrice P est une matrice<strong>de</strong> transition valable (i.e. ”stochastique”).(b) Tracez le graph <strong>de</strong> communication <strong>de</strong> la chaîne. I<strong>de</strong>ntifiez les classes <strong>de</strong> communication<strong>et</strong> classifiez-les en récurrents <strong>et</strong> transitoires, périodiques ou pas. Spécifiers’il y a <strong>de</strong>s valeurs <strong>de</strong> α pour lesquelles la structure est differente.(c) Trouvez toutes les lois stationnaires π <strong>de</strong> c<strong>et</strong>te chaîne, dans tous les cas trouvésci <strong>de</strong>ssus.Solution :(a) All transition probabilities must lie in [0, 1]. Now 1 − 2α − α 2 ≤ 1 − α − α 2 ≤ 1for α ≥ 0, so it suffices to ensure that 1 − 2α − α 2 ≥ 0 i.e. α ≤ √ 2 − 1. So therange of possible values of α is [0, √ 2 − 1].(b) Pour α > 0, la chaîne a une classe transiente (A, B, C) <strong>et</strong> une classe absorbante D,<strong>et</strong> est apériodique by inspection. Pour α = 0, nous avons <strong>de</strong>ux classes reccurrentes,la première périodique.100⎞⎟⎠


(c) A stationary probability distribution, if it exists must obeyαπ A + απ B + (1 − 2α − α 2 )π C = π A(1 − α − α 2 )π A + απ B + απ C = π Bα 2 π A + (1 − 2α − α 2 .)π B + απ C = π Cα 2 π B + α 2 π C + π D = π DPour α > 0, la <strong>de</strong>rnière équation implies π B = π C = 0, and this in turn showsthat π A = 0. Hence the stationary probability distribution is π = (0, 0, 0, 1).It is unique : there is just one recurrent class and it is apériodique.3. Soit X n = X 0 + Z 1 + Z 2 + · · · + Z n une marche aléatoire sur Z, avec (Z n ) une suite <strong>de</strong>variables aléatoires réelles indépendantes <strong>de</strong> même loi P [Z n = ±1] =p <strong>et</strong> P [Z n = 0]=1- 2 p, avec 0 < p < 1/2. Pour tout x <strong>de</strong> N, on note par E x l’espérance en commençant<strong>de</strong> x (conditionnant sur X 0 = x). Nous arrêtons le <strong>processus</strong> au temps d’arrêt T auquelle <strong>processus</strong> sort <strong>de</strong> l’intervalle [0, K] pour 0 < K donnés.(a) Obtenez l’équation <strong>de</strong> récurrence <strong>et</strong> les conditions frontière satisfaites par p x =P x {X T = K}, t x = E x T , <strong>et</strong> f x = E x X T Indication : Conditionez sur le premierpas Z 1(b) Résolvez les équations <strong>de</strong> récurrence qui en résultent pour p x , t x <strong>et</strong> f x dans le casp = q = 1/2.Solution :(a) Pour p x <strong>et</strong> f x on obtient les mêmes équations comme pour une marche symm<strong>et</strong>riqueavec p = 1/2, (ca veut dire qu’on arrive a manipuler l’équation <strong>de</strong> reccurence a lamême forme). Par exemple, p x satisfait :2pp x = pp x+1 + pp x−1 for any 1 ≤ x ≤ K − 1p K = 1p 0 = 0t x = E x [T ] (temps <strong>de</strong> sortie esperé) satisfaitt x = t x+12 + t x−12 + 12pt K = 0t 0 = 0for any 1 ≤ x ≤ K − 1(b) On trouv<strong>et</strong> x =x(K − x), p x = x 2pK , f x = x4. Soit X = (X t ; t ≥ 0) une chaîne <strong>de</strong> <strong>Markov</strong> en temps continu sur l’ensemble S ={1, 2, 3}. Supposons que la matrice infinitésimale (<strong>de</strong> taux <strong>de</strong> transitions) <strong>de</strong> X estdonnée par101


⎛Q = ⎝−5 2 31 −3 21 1 −2(a) Donnez les probabilités <strong>de</strong> transition infinitesimales P i {X dt = j} <strong>de</strong> la chaîne, ensachant que l’état initial est i = 2. Quelles sont les probabilités <strong>de</strong> transition <strong>de</strong>la chaîne au moment du premier saut, en sachant que l’état initial est i = 2 ?(b) Quelle est la loi conditionelle <strong>de</strong> U = inf{t ≥ 0 : X t ≠ 2}, en sachant que X 0 = 2 ?(c) Posant V = inf{t ≥ U : X t = 2}, calculez E[V |X 0 = 2]Solution :(a) Les probabilités <strong>de</strong> transition infinitesimales en sachant que l’état initial <strong>et</strong> i = 2sont P 2,1 (dt) = dt, P 2,3 (dt) = 2dt, P 2,2 (dt) = 1−3dt. Les probabilités <strong>de</strong> transitionau moment du premier saut sont : P 2,1 = 1 3 , P 2,3 = 1 3 , P 2,2 = 0.(b) La loi conditionelle <strong>de</strong> U = inf{t ≥ 0 : X t ≠ 2}, en sachant que X 0 = 2, estExpo(2).(c) Posant V = inf{t ≥ U : X t = 2}, nous avons⎞⎠E[V |X 0 = 2] = EU + E(V − U) = 1 3 + 1 3 x 1 + 2 3 x 3ou x i , les éspérances du temps jusqu’on arrive en 2, en sachant que X 0 = i,satisfont le système :x 1 = 1 5 + 3 5 x 3x 3 = 1 2 + 1 2 x 1De lors, x 1 = 5 7 , x 3 = 6 7 . <strong>et</strong> E[V |X 0 = 2] = 8 7102

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!