PROCESSUS`A TEMPS DISCRET. — EXAMEN

math.univ.poitiers.fr

PROCESSUS`A TEMPS DISCRET. — EXAMEN

Université de Poitiers

Département de Mathématiques

2M12–Processus à temps discret

MMAS 1, Année 2009–10

PROCESSUS

À TEMPS DISCRET. — EXAMEN

12 mai 2010, 8h30–12h30, IFMI 07

Tout document est interdit. L’usage d’une calculatrice est autorisé. Les différents exercices

sont indépendants. La qualité de la rédaction sera prise en compte dans l’évaluation des

copies.

x , PÔx, x 1Õp

0

Exercice 1. — SoientÔp xÕxÈÆune suite à valeurs dansÖ0, 1×et q x1¡p x pour tout x0.

Nous considérons la matrice, ou noyau, de transition P sur EÆdéfinie par PÔ0, 0Õq ,

PÔ0, 1Õp 0 , et

PÔx, x¡1Õq x , pour tout x1,

tous les autres coefficients étant nuls.

q 0

p 0

p 1

0 1 2 x − 1 x x + 1

q 1

q 2

Notons la chaîne de Markov associéeÔΩ, A, F, X,ÔÈxÕxÈEÕ. Le temps d’atteinte de 0 est

H 0infØn0:X n0Ùet

Ô¦Õ

soit h0ÔxÕÈxØH 0Ùla probabilité que la chaîne issue de

xÈÆatteigne 0 en temps fini.

(i) En utilisant la propriété de Markov simple, établir que le vecteur h0Ôh 0ÔxÕÕxÈÆvérifie

le système d’équations linéaires :

hÔ0Õ1 et hÔxÕq p x hÔx 1Õpour tout x1.

(ii) Supposons qu’il existe au moins un rang x1tel que q x0. Soit x 01le plus petit

de ces rangs. Que vaut h 0ÔxÕpour xx 0 ?

hÔx¡1Õ x

(iii) Supposons qu’il existe au moins un rang x1 tel que p x0. Soit x 01 le plus petit

de ces rangs. Nous supposons de plus que q x0 pour tout 1xx 0 . Que vaut h 0ÔxÕpour

0xx 0 ?

Pour toute la suite, nous supposerons p x0 pour tout x1.

(iv) Pour x1, posons uÔxÕh0Ôx¡1Õ¡h0ÔxÕ. Déterminer uÔxÕ, x2, en fonction de

uÔ1Õet des paramètres de la chaîne.

(v) En utilisant le principe des dominos, pour x1, exprimer h 0ÔxÕen fonction de h 0Ô0Õet

uÔ1Õ, et finalement en fonction de uÔ1Õseulement.

(vi) Notons S la somme de la série à termes positifs

1

ôy1

q 1

p 1¢¤¤¤¢q

y

En se rappelant que h 0 est la solution positive minimale du systèmeÔ¦Õ, quelle est cette

Déterminer en fonction de S la fonction h 0 .

solution si S?

(vii) Supposons maintenant S.

p x−1

q x

p y

.

p x

q x+1


2 Processus à temps discret. — Examen

x

(viii) Nous appliquons ces résultats au problème de la ruine du joueur pour lequel p

1¡q xpÈ×0, 1Ö. Expliciter complètement la fonction h 0 suivant que p1ß2, p1ß2 et

p1ß2.

(ix) Nous supposons maintenant que le point 0 exerce une attraction de plus en plus faible à

mesure qu’on s’en éloigne, de sorte qu’à l’infini on a p xq x1ß2. Nous écrivons p x1ß2¡r x

avecÔr xÕx1 suite positive tendant vers 0 quand x. Par comparaison avec la ruine du

joueur dans le cas équitable p1ß2, quelle devrait être la solution h 0 ? Par des minorations

simples, obtenir la valeur de S et celles de la fonction h 0 .

(x) Changeons de signe pour considérer, ce qui est plus naturel, que la ruine est répulsive.

Nous écrivons donc p x1ß2 r x avec toujoursÔr xÕx1 suite positive tendant vers 0 quand

x. Que dire de h 0 si la sériex0 r x est convergente ? (Le cas de sa divergence ne sera

pas abordé.)

Exercice 2. — Nous considérons le graphe suivant

1

2

4

3

5

6

c’est-à-dire que tout sommet de l’hexagone est relié à ses deux points voisins et au sommet

opposé. La chaîne de Markov X considérée (ou plus précisémentÔΩ, A, F, X,ÔÈxÕ6 x1Õ) est

définie par le fait que de tout sommet on a probabilité 1ß3 de transiter vers chacun des 3

sommets adjacents.

(i)

Écrire la matrice de transition P associée à cette description.

(ii) Expliquer pourquoi la matrice de transition P est irréductible. Justifier l’existence et

l’unicité de sa mesure de probabilité invariante, déterminer cette mesure.

(iii) La chaîne est-elle apériodique? On pourra utiliser la numérotation des sommets pour

justifier sa réponse.

(iv) Soit H 6infØn0:X n6Ùle temps d’atteinte de 6. Déterminer kÔxÕxÖH6×le

temps moyen d’atteinte de 6 partant de xÈEØ1, . . ., 6Ù. Pour cela, on montrera que pour

tout x6,

ôyÈE kÔxÕ1 PÔx, yÕkÔyÕ,

puis on résoudra le système linéaire obtenu.

(v) On s’intéresse maintenant à lÔxÕÈxØH5H6Ùla probabilité d’atteinte de 5 avant

d’atteindre 6 en étant parti de xÈE. Établir avec justifications le système linéaire satisfait

par lÔxÕ, xÈE. Le résoudre.

(vi) Sans calculer le polynôme caractéristique de P, déterminer, justifications à l’appui, les

valeurs propres de P ainsi que leur ordres.

(vii) En déduire l’expression des puissances de P.


MMAS 1 3

(viii) Conclure sur la question de la convergence vers l’équilibre en lien avec la réponse sur

l’apériodicité de P.

Exercice 3. — Nous considérons l’urne de Polya : une urne contient initialement a boules

rouges et b boules blanches ; on tire au hasard une boule ; on la remet dans l’urne avec en

plus c boules de la même couleur (l’urne contient alors a b c boules en tout) où c est

y½ÕÈ

un

entier strictement positif fixé ; puis, on continue. . .

Nous allons décrire l’évolution du contenu de l’urne à l’aide d’une chaîne de Markov

ZÔX, YÕd’espace d’états EÆ¢ÆÞØÔ0, 0ÕÙet de noyau de transition P : E¢EÖ0, 1×,

où X n , respectivement Y n , est le nombre de boules rouges, respectivement blanches, à l’instant

n0.

(i) Expliciter le noyau P, i.e. préciser ce que vaut PÔz, z½Õpour tout zÔx, yÕ, z½Ôx½,

E. En déduire l’expression de Pf : EÊen fonction de f : EÊune application bornée,

ou de signe constant.

nÕn0

n

(ii) Nous supposons l’urne initialement non vide. Soit M nX nßÔX Y nÕla proportion de

boules rouges à l’instant n0. Montrer que MÔM est une martingale de l’espace

probabilisé filtréÔΩ, A,È­, FÕoù F est la filtration naturelle de la chaîne etÈ­est la mesure

de probabilité correspondant à la condition initiale envisagée.

(iii) Pour une condition initialeÔa, bÕÈE donnée, que peut-on dire de simple sur le comportement

asymptotique de la chaîne de Markov Z ? Qu’en est-il de la martingale M ?

(iv) Définir en pseudo-langage (voisin de Scilab) une commande polyastep d’arguments

Ôa, b, cÕretournant l’état de l’urneÔx, yÕaprès tirage aléatoire. L’utiliser dans un pseudoscript

destiné à observer la convergence le long d’une trajectoire. L’utiliser dans un autre

pseudo-script destiné à voir l’allure de la loi de la variable limite. Ces pseudo-programmes

doivent virtuellement fonctionner, il faudra notamment donner des paramètres de simulation.


Université de Poitiers

Département de Mathématiques

2M12–Processus à temps discret

MMAS 1, Année 2009–10

0

PROCESSUS À TEMPS DISCRET. — CORRECTION DE L’EXAMEN

12 mai 2010, 8h30–12h30, IFMI 07

Exercice 1. — (i) SousÈ0 , nous avons H 00 presque sûrement. Donc h0Ô0ÕÈ0ØH Ù1. Soit x1. SousÈx , il faut au moins 1 pas pour rejoindre 0 et donc H 01 presque

sûrement. En appliquant la propriété de markov

1y´ 1y´

simple au temps 1,

h

0ÔxÕÈxH 0´Èx1H 0´ôyÈEÈx1H 0, X

ôyÈEÈxØX 1yÙ¢Èx1H 0´ 0´ 0§X Ôformule des probabilités totalesÕ

PÕ ôyÈEÈxØX 1yÙ¢Èy0H Ôpropriété de Markov simple de la chaîneÕ

ôyÈE PÔx, yÕ¢ÈyH Ôtransitions décrites par le noyau

ôyÈE PÔx, yÕ¢h 0ÔyÕ,

0Ôx¡1Õ

ce qui se résume ici à

h 0ÔxÕPÔx, x¡1Õh PÔx, x 1Õh 0Ôx 1Õq La fonction h 0 vérifie donc le systèmeÔ¦Õ.

0Ôx¡1Õ x h

p

x h 0Ôx 1Õ.

(ii) La chaîne issue de xx 0 ne peut plus retourner en 0. On a donc h 0ÔxÕ0pour tout

xx 0 .

(iii) La chaîne issue de xx 0 ne peut pas dépasser x 0 , elle reste dans le sous-ensemble

Ø0, . . ., x 0Ù. Le graphique suivant illustre cette affirmation et rappelle les hypothèses :

q 0

p 0

p 1 > 0

p x0 −1 > 0

0 1 2 x 0 − 1 x 0 q x0 +1 x0 + 1

0 < q 1 0 < q 2 1 = q x0

On peut lire sur ce graphique que tous les états deØ1, . . ., x 0Ùcommuniquent, ils sont donc

dans la même classe communicante. De plus ils mènent tous à 0. Si 0 mène à 1, alors la

restriction de P àØ0, . 0ÔxÕ . ., x 0Ùest irréductible, en particulier elle est récurrente et le temps

d’atteinte de 0 depuis toute valeur initiale est presque sûrement fini. Si 0 ne mène pas à

1, alors 0 est absorbant,Ø1, . . ., x 0Ùest 0Ôx¡1Õ 0Ôx¡1Õ 1ÕÕ

transiente, et le temps d’atteinte de 0 depuis toute

valeur initiale est presque sûrement fini. Finalement, dans les deux cas, h 0ÔxÕ1 pour tout

0xx 0 .

(iv) D’après le systèmeÔ¦Õ, nous avons pour tout x1, h 0ÔxÕq x h p x h 0Ôx 1Õ, et

comme q x q x1, p x h q x h 0ÔxÕq x h p x h 0Ôx 1Õp xÔh0ÔxÕ¡h0Ôx q xÔh 0Ôx¡1Õ¡h 0ÔxÕÕp x uÔx 1Õq 1¢uÔ1Õ

x uÔxÕuÔx 1Õq xßp x¢uÔxÕ. De proche

en proche, on obtient uÔx 1Õq xßp x¢¤¤¤¢q 1ßp 1¢uÔ1Õ, soit

uÔxÕq x¡1

x¡1¢¤¤¤¢q 1

pour tout x2.

p p


0ÔxÕuÔ1Õ ¤¤¤

6 Processus à temps discret. — Correction de l’examen

(v) Pour x2, on a 1¡h0ÔxÕh0Ô0Õ¡h yÅ ¤¤¤

uÔxÕuÔ1ÕÔ1 q 1ßp 1

q 1ßp 1¢¤¤¤¢q x¡1ßp x¡1Õ, soit

h 0ÔxÕ1¡uÔ1Õ¢1 x¡1

y

p

ôy1

formule valide pour x2, mais aussi pour x1 en convenant qu’une somme vide est nulle

(on a toujours h 0Ô0Õ1).


(vi) Pour v0, la fonction h v définie par

x¡1

h

ôy1

vÔxÕ1¡v¢¢1 y

p

tend vers¡quand x, elle n’est donc pas positive. On doit donc avoir uÔ1Õ0, et la

solution minimale est alors obtenue pour v0. Donc uÔ1Õ0et h 0ÔxÕ1pour tout x0.

(vii) Une solution est positive si et seulement v1ßS. On constate immédiatement que la

solution minimale sous cette condition est obtenue pour v1ßS, donc

h 0ÔxÕ1¡1

p yÅ.

(viii) Pour la ruine du joueur, on a

x¡1 ôy1

S¢¢1

q 1

p 1¢¤¤¤¢q

q 1

p 1¢¤¤¤¢q

q 1

p 1¢¤¤¤¢q

y

S1 ôy1ÔqßpÕyôy0ÔqßpÕy

qui est convergente si et seulement si qp, c’est-à-dire si p1ß2. Ainsi, pour p1ß2, on a

h 0ÔxÕ1 pour tout x0 : la ruine est sûre. Lorsque p1ß2, on a S1ßÔ1¡qßpÕet

h 0ÔxÕ1¡Ô1¡qßpÕ¢¢1 x¡1

1¡Ô1¡qßpÕ¢1¡ÔqßpÕx 1¡qßpÔqßpÕx

ôy1ÔqßpÕyÅ1¡Ô1¡qßpÕ¢x¡1 ôy0ÔqßpÕy

pour tout x0,

notamment h 0ÔxÕ1 pour tout x1 : la ruine n’est pas certaine.

(ix) En comparant avec la ruine du joueur pour p1ß2, l’attraction de 0 est plus forte, donc

la ruine devrait être plus sûre. Comme elle est certaine pour p1ß2, elle doit l’être aussi

lorsque p x1ß2¡r x , x0. On a

q x r x

p x1ß2 1ß2¡r x1.

Ainsi, chacun des produits figurant dans série définissant S est supérieur ou égal à 1 et donc

la série est divergente : S. Ainsi la ruine est-elle sûre : h 0ÔxÕ1 pour tout x0.

(x) Nous avons

q x

x x

x

x quand

p x1ß2¡r r x1¡2r

1 x1¡4r

1¡2r x1¡4r x,

l’équivalence résultant du fait que r x tend vers 0 quand x tend vers l’infini. Par conséquent

le produitx1 q xßp x est de même nature que la sériex1 r x (on passe au logarithme,

constate que lnÔq xßp xÕ¡4r puisque r x tend vers 0, utilise le fait que deux séries à termes

x


MMAS 1 7

de signes constants équivalents sont de même nature). Ainsi, si cette série converge, le produit

infini converge vers une limite finie non nulle. La somme S de la série

1

ôx1

q 1

p 1¢¤¤¤¢q

x

p x

est infinie puisque son terme général, positif, ne tend pas vers 0. Ainsi, six1 r x, la

ruine est sûre, h 0ÔxÕ1 pour tout x0.

Évidemment, si la sériex1 r x diverge, le produit infini diverge aussi, plus précisément,

les produits partiels tendent vers 0. La convergence ou non de la série de ces produits partiels

dépend de leur vitesse de convergence vers 0 qui est liée à la vitesse de divergence dex1 r x.

En discuter en toute généralité ne nous paraît pas intéressant dans le contexte d’un examen.

Exercice 2. — (i) Voici la matrice

P1

3

0¬ ¤¦¥0 1 0 1 0 1

1 0 1 0 1 0

0 1 0 1 0 1

1 0 1 0 1 0

0 1 0 1 0 1

1 0 1 0 1 0

0 1 0 1 0 1

1 0 1 0 1

(ii) Le graphe est clairement connexe, donc la matrice P est irréductible. La matrice P est

symétrique, donc on sait que la mesure uniforme est invariante. Par irréductibilité, la mesure

de probabilité invariante est unique, c’est donc πÔ1ß6, 1ß6, 1ß6, 1ß6, 1ß6, 1ß6Õ.

(iii) D’un sommet impair on transite à un sommet pair et réciproquement. Ainsi, on ne peut

retourner à son sommet initial qu’après un nombre pair de pas. Réciproquement, pour tout

sommet x, P 2nÔx, xÕÔ1ß3Õn0, ce minorant étant la probabilité de ne faire que des allers

et retours avec les trois sommets voisins de x. DoncØnÈÆ:P nÔx, xÕ0Ù2Æ. La chaîne

n’est pas apériodique (elle est périodique de période 2).

(iv) Soit kÔxÕxÖH6×. On a bien sûr kÔ6Õ0. Pour x6, on a H 61,Èx -presque

sûrement. Par application de la propriété

1yÙ 6

de Markov (les détails ont été vus assez souvent)

1yÙy1 H

kÔ4Õ¨

ôyÈEÈxØX ôyÈEÈxØX 1yÙyH 61 PÔx, yÕkÔyÕ.

ôyÈE kÔ3Õ

On obtient spécifiquement (en

kÔ4Õ¨kÔ5Õ¨

kÔ4Õ¨

notant que kÔ6Õ0) et sans malice

kÔ3Õ kÔ4Õ¨kÔ5Õ¨

kÔ4ÕkÔ2Õ kÔ5ÕkÔ1Õ

1

kÔ2Õ1

kÔxÕxÖH 6×ôyÈEÈxØX 1yÙxH 6§X 1yôyÈEÈxØX

°³²³±kÔ1Õ1 1

3

kÔ2Õ

kÔ2Õ1 1

3

kÔ1Õ

kÔ3Õ1 1

3

kÔ2Õ

kÔ4Õ1 1

3

kÔ1Õ

kÔ5Õ1 1

3

kÔ2Õ

Æ ­

°³²³±kÔ1Õ1 1

3

kÔ2Õ

kÔ3ÕkÔ1Õ3 kÔ1Õ kÔ3Õ kÔ5Õ¨


kÔ1Õ kÔ2Õ

kÔ1Õ¨

kÔ3ÕkÔ1Õ

8 Processus à temps discret. — Correction de l’examen

kÔ4ÕkÔ2Õ

°³²³±kÔ1Õ1 kÔ5ÕkÔ1Õ kÔ3ÕkÔ1Õ kÔ4ÕkÔ2ÕkÔ1Õ

2

°³²³±kÔ1Õ1 kÔ5ÕkÔ1Õ

2 °³²³±kÔ1Õ5

1

3 3

kÔ2Õ1 kÔ2Õ1 1y´

kÔ2Õ6 kÔ3Õ5 kÔ4Õ6 kÔ5Õ5

(v) On a évidemment lÔ5Õ1 et lÔ6Õ0. Maintenant si xÈE est différent de 5 et de 6, on

peut faire un pas et ainsi puis regarder ce qu’il se passe (propriété de Markov)

1yÙÈxH 5H 6§X

ôyÈEÈxØX 1yÙÈyH 5H 6´ôyÈE PÔx, yÕlÔyÕ.

lÔ1Õ lÔ4Õ¨

Ainsi, en notant

lÔ2Õ lÔ3Õ

que lÔ5Õ1 lÔ4Õ¨1Õ

lÔ4Õ¨

et lÔ6Õ0, on a

lÔ1Õ lÔ3Õ 1Õ lÔ3ÕlÔ1Õ lÔ4ÕlÔ2Õ lÔ1Õ lÔ3Õ 1Õ °³²³±lÔ1Õ2

lÔ4ÕlÔ2Õ lÔ3ÕlÔ1Õ

lÔ2Õ lÔ1Õ lÔ2Õ1

3

lÔ2Õ1

lÔ2Õ2 1

3

lÔ3Õ1

3 3 3

3

lÔ4Õ1

3

D’où

P

lÔ1ÕlÔ3Õ2ß5, lÔ2ÕlÔ4Õ3ß5 U ¤ et toujours lÔ5Õ1 et lÔ6Õ0.

(vi) La matrice est de rang 2 de manière évidente puisqu’elle s’écrit

¦¥0

1

0

U, V, U, V, U, V¨avec ­linéairement indépendants.

1

0

0

1

1

lÔxÕÈxH 5H 6´ôyÈEÈxØX

lÔ2Õ °³²³±lÔ1Õ1

3

lÔ2Õ °³²³±lÔ1Õ1

3

V ¤ ¬Æ­et ¦¥1

0

1

Ceci implique que 0 est valeur propre d’ordre 4. C’est une matrice de transition, donc 1 est

valeur propre d’ordre supérieur ou égal à 1. Sa trace est nulle, la somme des valeurs propres

étant égale à la trace, il faut au moins une valeur propre strictement négative. Comme la

somme des ordres est égal à 6, il ne peut y avoir qu’une


valeur propre négative, qui tout

comme 1 est d’ordre 1, cette valeur propre négative est donc¡1.

(vii) D’après la théorie générale, nous avons P nÔx, yÕaÔx, yÕ¢1n bÔx, yÕ¢Ô¡1Õn , pour

n1, la valeur propre 0 n’apportant aucune contribution (attention, pour n1mais pas

n0). Nous avons donc P 2n 1P et P 2 nP 2 où

¥1 0 1 0 1 0

0 1 0 1 0 1

P 21 1 0 1 0 1 0

0 1 0 1 0 1

1 0 1 0 1 0

0 1 0 1 0

3¤ ¦

0¬ Æ

Æ ­


MMAS 1 9

(alors que P 0Id). En raisonnant par blocs (produit tensoriel), nous avons

1 1

2¢0 1

1 1 1 J

1 0Å.

1 1 1¬­et

P1

3 U 3J 2 avec U 3¤¥1

Comme J2Id 2 2 etÔ1

3 U 3Õ21

3 U 3, on a

P 2¡1 2©¢¡1 2©¡1

3 U 3J 3 U 3J 2Õ21

3 U 3©2ÔJ 3 U 3Id 2 ,

ce qui est écrit plus haut, et permet de voir de plus comment se calculent les puissances

successives.

(viii) Il est clair que si on part d’une mesure initiale qui ne charge pas les sommets pairs autant

que les sommets impairs, il n’y aura pas convergence vers l’équilibre, ici la mesure uniforme,

puisque ces charges ne ferons qu’osciller.

y½Õ¨ °

La périodicité de la chaîne laissait suspecter qu’il

n’y aurait pas convergence vers l’équilibre.

Exercice 3. — (i) Assez clairement, pour toutÔz, z½ÕÈE 2 ,

³²³±x

yÕ¨

PÔz, z½ÕP Ôx, yÕ,Ôx½, x y si x½x

cÕ¨

c, y½y,

y

si x½x, y½y c,

x y

0 sinon.

yÕô

ou plus clairement

z½ÕfÔz½Õ yÕ cÕ

x

y

P Ôx, yÕ,Ôx c, et P Ôx, yÕ,Ôx, y

x y

x y .

Si f : EÊest une application bornée ou de signe constant, par définition Pf est

l’application définie par

x

y

PfÔzÕPfÔx, PÔz, c, y

x y¢fÔx x y¢fÔx,

z½ÈE

pour zÔx, yÕÈE.

(ii) Puisque F est la filtration naturelle de Z, Z nÔX n×

n , Y nÕest F n -mesurable et donc

M nX nßÔX n Y nÕfÔZnÕqui est une fonction mesurable de Z n l’est aussi. De plus M n

est intégrable puisque bornée.

nÕPour n0, par la propriété

nÕ cÕ

de Markov on a


n


1ÕF n×ÖfÔZ n 1ÕZ X n

Y n

PfÔZ n c, Y n , Y n

X n Y n¢fÔX X n Y n¢fÔX X n X X n

X n Y X n Y n c

X n n Y n c

X n Y n¢X X n Y n c

M n

ÖM n 1F n×ÖfÔZ

n c

X n Y n c

Y n

X n Y n¢

È-presque sûrement. Ce qui montre que M est une martingale.

(iii) Nous avons X n Y na c n¢c pour tout n0qui tend vers l’infini. Les deux

composantes de ZÔX, YÕétant croissantes, l’une au moins tend vers l’infini, c’est donc

aussi le cas de Z. En ce qui concerne la martingale M, elle est bornée. Nous savons qu’elle

converge alors dans tous les espaces L pÔΩ, A,ÈÕ, p1, et que de plus elle converge presque

sûrement, et donc aussi en loi. (Ce que nous ne savons pas est que la loi de la variable aléatoire

limite est la loi Beta BÔaßc, bßcÕ.)


10 Processus à temps discret. — Correction de l’examen


(iv) Puisque l’auteur de ce corrigé a un clavier d’ordinateur sous les doigts, en fait de pseudolangage,

ce sera du Scilab. On pourra d’ailleurs tester le programme... il n’est pas long après

tout ! et il contient une ou deux idées intéressantes (paramétrage des titres de figures).

On a une probabilité aßÔa bÕde tirer une boule rouge et donc de passer à l’étatÔa c, bÕ,

sinon on passe à l’étatÔa, b cÕ. Le choix se fait en tirant un nombre uniformément dansÖ0,

à l’aide de la fonctionrand() (ougrand(1,1,"def")) et en le comparant à cette probabilité.

mode(0); clear;

function [x, y] = polyastep(a, b, c);

if rand() < a/(a+b) then x = a+c; y = b; else x = a; y = b+c; end

endfunction

Pour faire une simulation, on a besoin des conditions initialesÔa, bÕet du paramètre c. Le

reste est clair. Notons qu’on ne changera pas en cours de simulation les valeurs de a et de b.

Nous tracerons 4 trajectoires stockées dans M(1:T+1, i), i1, . . ., 4.

a = 2; b = 3; c = 1; T = 500;

M = [];

for i = 1:4;

x = a; y = b;

M(1,i) = x/(x+y);

for t = 1:T;

[x, y] = polyastep(x, y, c);

M(t+1, i) = x/(x+y);

end

end

scf(0); clf();

plot2d([0:T]’, M);

xtitle("Quelques trajectoires de M pour a = "..

+string(a)+", b = "+string(b)+", c = "+string(c));

1

Quelques trajectoires de M pour a = 2, b = 3, c = 1

0.8

0.6

0.4

0.2

0

0 50 100 150 200 250 300 350 400 450 500

Passons à l’allure de la loi limite. Nous nous plaçons à T grand en espérant que la loi de M T

est proche de celle de M. Puis nous simulons un nombre n grand de valeurs de M T , valeurs

dont nous traçons un histogramme.

n = 500;

M = [];

for i = 1:n;

x = a; y = b;

for t = 1:T; [x, y] = polyastep(x, y, c); end


MMAS 1 11

M(i) = x/(x+y);

end

function y = betapdf(x, a, b);

if x = 1 then y = 0;

else y = x^(a-1)*(1-x)^(b-1)/beta(a,b);

end

endfunction

scf(1); clf();

histplot(ceil(1+3.322*log10(n)), M);// r\‘egle de Sturges

x = linspace(0,1,100)’; y = [];

for i = 1:size(x,1); y(i) = betapdf(x(i), a/c, b/c); end

plot2d(x, y);

xtitle("Loi observee de M au temps T = "+string(T));

2.2

Loi observée de M au temps T = 500

2

1.8

1.6

1.4

1.2

1

0.8

0.6

0.4

0.2

0

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

On notera qu’on a tenu compte de l’information supplémentaire selon laquelle la loi limite

est la loi BÔaßc, bßcÕ. Nous savons que la commande beta(a,b) retourne la valeur de

÷1

0

x a¡1Ô1¡xÕb¡1 dx.

Nous nous serons servi de cette fonction pour définir betapdf (Beta probability density function)

et ainsi tracer la densité de la loi limite.


Université de Poitiers

Département de Mathématiques

2M12–Processus à temps discret

MMAS 1, Année 2009–10

PROCESSUS

À TEMPS DISCRET. — EXAMEN DE SECONDE SESSION

14 juin 2010, 8h30–12h30, IFMI 12

Exercice 1 (semi-groupe de Poisson). — Soit P tÔx, dyÕe¡λtn0ÔλtÕn

n !

δØx nÙÔdyÕoù

λ0 est une constante, t0 et xÈÊ.

(i) Montrer que pour chaque t0, P t est un noyau de probabilité (ou markovien) surÊ.

(ii) Montrer queÔP tÕt0 est un semi-groupe de transition surÊ.

Exercice 2. — Nous considérons le graphe suivant

1 2

5 6

4

La chaîne de Markov X considérée (ou plus précisémentÔΩ, A, F, X,ÔÈxÕ6 x1Õ) est définie

par le fait que de tout sommet on a probabilité 1ß3 de transiter vers chacun des 3 sommets

adjacents.

(i)

Écrire la matrice de transition P associée à cette description.

(ii) Expliquer pourquoi la matrice de transition P est irréductible. Justifier l’existence et

l’unicité de sa mesure de probabilité invariante, déterminer cette mesure.

(iii) La chaîne est-elle apériodique?

(iv) Soit H 1infØn0:X n1Ùle temps d’atteinte de 1. Déterminer kÔxÕxÖH1×le

temps moyen d’atteinte de 1 partant de xÈEØ1, . . ., 6Ù. Pour cela, on montrera que pour

tout x1,

ôyÈE kÔxÕ1 PÔx, yÕkÔyÕ,

3

puis on résoudra le système linéaire obtenu.

(v) Déterminer1ÖT 1 e×le temps de retour moyen en 1, où T 1 einfØn0:X n1Ù, en se

servant des résultats précédents.

(vi) On s’intéresse maintenant à la probabilité lÔxÕd’atteinte de 5 avant d’atteindre 6 en

étant parti de xÈE. Établir avec justifications le système linéaire satisfait par lÔxÕ, xÈE.

Le résoudre.

(vii) Calculer le polynôme caractéristique χ P de P et déterminer les valeurs propres de P

ainsi que leur ordres.

(viii) Établir à l’aide des résultats de la question précédente que la suite des puissances

ÔP nÕn0 converge lorsque n tend vers l’infini.

(ix) Sans calcul supplémentaire, mais avec justifications, déterminer la limite Pde la suite

des puissances de P.


14 Processus à temps discret. — Examen de seconde session

(x) Conclure sur la question de la convergence vers l’équilibre en lien avec la réponse sur

l’apériodicité de P.

Exercice 3 (le modèle de Wright–Fisher). — Une population de taille constante N

évolue sans mutation au cours du temps. Les individus sont de deux types, A et B. La

génération initiale comporte m individus du type A et N¡m individus du type B. Chaque

individu de laÔn 1Õ-ième génération a un parent tiré au sort avec équiprobabilité parmi

les N individus de la génération précédente et hérite du type de son unique parent. Tous les

tirages sont supposés indépendants.

Soit X n le nombre d’individus de type A dans la n-ième génération.

(i) Pour n1, quelle est la loi de X n conditionnellement à X n¡1 ?

(ii) En admettant que le processus XÔX nÕn0 forme une chaîne de Markov homogène

d’espace d’états EØ0, 1, . . ., NÙdans une certaine filtration F, et de valeur initiale m,

préciser sa matrice de transition P.

(iii) Déterminer les classes communicantes de la chaîne ainsi que leur classification.

(iv) En déduire que la chaîne est presque sûrement convergente de valeurs limites possibles

0 ou N.

(v) Montrer que X est une martingale bornée dans cette certaine filtration F.

(vi) Notons TinfØn0:X TÈØ0, NÙÙ, le temps de « fixation » de la chaîne. En utilisant

le théorème d’arrêt de Doob, déterminerÈmØX TNÙetÈmØX T0Ù.

(vii) Définir en pseudo-langage (voisin de Scilab) une commande wrightstep d’arguments

Ôx, NÕ, x étant le nombre d’individus de type A, N la taille totale de la population, retournant

le nombre d’individus y de type A à la génération suivante. L’utiliser dans un

pseudo-script destiné à observer la convergence le long d’une trajectoire. L’utiliser dans un

autre pseudo-script destiné à estimer les probabilités calculées à la question précédente. Ces

pseudo-programmes doivent virtuellement fonctionner, il faudra notamment donner des paramètres

de simulation.


Université de Poitiers

Département de Mathématiques

2M12–Processus à temps discret

MMAS 1, Année 2009–10

PROCESSUS

À TEMPS DISCRET. — CORRECTION

DE L’EXAMEN DE SECONDE SESSION

14 juin 2010, 8h30–12h30, IFMI 12

Exercice 1. — (i) Soit t0.

Pour xÈÊfixé, P tÔx, dyÕest la somme d’une série de mesures positives surÔÊ, BÔÊÕÕ.

C’est donc une mesure positive et on a :

P tÔx,ÊÕe¡λtôn0ÔλtÕn

n !1.

Ainsi P tÔx, dyÕest une mesure de probabilité.

Pour f :ÊÊmesurable bornée fixée, on a

P t fÔxÕe¡λtôn0ÔλtÕn

fÔx nÕ.

n !

Comme pour tout n0, xÈÊÔx nÕfÔx nÕest mesurable par composition,

P t f :ÊÊest une série convergente de fonctions mesurables, elle est donc mesurable. En

particulier, si f½B pour B borélien deÊ, xÈÊP tÔx, BÕest mesurable.

Donc P t


est un noyau de probabilité surÊ.

(ii) Soient s, t0. Par définition de la composition des noyaux, pour xÈÊet BÈBÔÊÕ,

on a

P s P tÔx, BÕ÷ÊP sÔx, dyÕP tÔy,

nÕ nÕ

δØx mÙÔdyÕe¡λtôn0ÔλtÕn

n !½BÔy nÕ nÕ

mÙÔdyÕ½BÔy tÕôm0ôn0ÔλsÕmÔλtÕn

e¡λÔs m

m! n !½BÔx

÷Êe¡λsôm0ÔλsÕm

m!

tÕôm0ôn0ÔλsÕmÔλtÕn

÷Êe¡λÔs δØx mÙÔdyÕ½BÔy m! n !

e¡λÔs tÕôm0ôn0ÔλsÕmÔλtÕn

m! n !

÷ÊδØx

tout étant positif, on aura interverti les sens de sommation en utilisant le théorème de Fubini–

Tonelli. En changeant d’indices km n, lm (ce changement d’indices a été vu en L3

et en M1 premier semestre, des erreurs ne sont donc pas pardonnables), par convergence



16 Processus à temps discret. — Correction de l’examen de seconde session

commutative, on a

P s P tÔx,


kôl0ÔλsÕlÔλtÕk¡l

BÕe¡λÔs tÕôk0

l !Ôk¡lÕ!½BÔx BÕ


1 k !

e¡λÔs tÕôk0 !Ôk¡lÕ!ÔλsÕlÔλtÕk¡lŽBÔx k l !¢kôl0

tÕôk0Ôλs λtÕk

e¡λÔs ½BÔx k !

P s tÔx,

La famille de noyaux de transitionÔP tÕt0 0¬

vérifie donc la propriété de semi-groupe, c’est un

semi-groupe de transition.

Exercice 2. — (i) Voici la matrice¥0 1 0 1 1 0

1 0 1 0 0 1

0 1 0 1 0 1

P1

­.

1 0 1 0 1 0

1 0 0 1 0 1

0 1 1 0 1

3¤ ¦

(ii) Le graphe est clairement connexe, donc la matrice P est irréductible. La matrice P est

symétrique, donc on sait que la mesure uniforme est invariante. Par irréductibilité, la mesure

de probabilité invariante est unique, c’est donc πÔ1ß6, 1ß6, 1ß6, 1ß6, 1ß6, 1ß6Õ.

(iii) Elle est apériodique. En effet, on peut retourner en tout sommet x en 2 pas ou en 3 pas.

Ainsi pour n3, si n est pair, en faisant des allers-retours entre x et l’un de ses sommets

voisins, on a P nÔx, xÕÔ1ß3Õnß20, et si n est impair, on commence par faire une boucle de

longueur 3 donnée, puis on fait des allers-retours, ainsi P nÔx, xÕÔ1ß3Õ3¢Ô1ß3ÕÔn¡3Õß20.

(iv) Soit kÔxÕxÖH1×. On a bien sûr kÔ1Õ0. Pour x1, on a H 11,Èx -presque

sûrement. Par application de la propriété

1yÙ 1

de Markov (les détails ont été vus assez souvent)

1yÙy1 H

kÔ6Õ¨

ôyÈEÈxØX ôyÈEÈxØX 1yÙyH 11 PÔx, yÕkÔyÕ.

ôyÈE kÔ4Õ

On obtient spécifiquement (en notant que kÔ1Õ0)

kÔ5Õ¨kÔ6Õ¨

et sans malice

kÔ6Õ¨ kÔ3Õ kÔ5Õ¨

kÔxÕxÖH 1×ôyÈEÈxØX 1yÙxH 1§X 1yôyÈEÈxØX

°³²³±kÔ2Õ1 1

3

kÔ3Õ

kÔ3Õ1 1

3

kÔ2Õ

kÔ4Õ1 1

3

kÔ3Õ

kÔ5Õ1 1

3

kÔ4Õ

kÔ6Õ1 1

3

kÔ2Õ

Æ


6´ôyÈE

MMAS 1 17

Redessinons le graphe

6

2

1

5

4

kÔ3Õ

3

kÔ2Õ kÔ3Õ kÔ4Õ¨

kÔ3Õ kÔ3Õ kÔ4Õ¨

ce qui fait apparaître une symétrie qui implique (sous réserve d’unicité des solutions au

système) que kÔ4ÕkÔ5Õet kÔ3ÕkÔ6Õ. On a donc

°³²³±kÔ2Õ1 2

°³²³±kÔ2Õ1 2

3 3

kÔ6ÕkÔ3Õ

1

kÔ3Õ1 3

1

kÔ4Õ3

kÔ4Õ1 kÔ3Õ

kÔ5ÕkÔ4Õ kÔ6ÕkÔ3Õ kÔ3Õ 1

2 2 kÔ3Õ

kÔ3Õ© °³²³±kÔ2Õ1 2

°³²³±kÔ2Õ1 kÔ5ÕkÔ4Õ

3

kÔ6ÕkÔ3Õ

kÔ5ÕkÔ4Õ

kÔ3Õ 2

3

kÔ6ÕkÔ3Õ kÔ3Õ

kÔ3Õ33

2 5

kÔ4Õ3 1

2 2 2

d’où finalement

kÔ5ÕkÔ4Õ3 kÔ3Õ kÔ4Õ¨

kÔ3Õ 1 2

kÔ3Õ1 3¡1

3

kÔ4Õ3 1

2

kÔ3Õ

3

2

1

kÔ3Õ1 1

3

kÔ2Õ

kÔ2Õ27

5 , kÔ3Õ33

5 , kÔ4Õ24

5 , kÔ5Õ24

5 , kÔ6Õ33

5 .

Qu’on se rassure, la symétrie a été vue par la résolution directe du système. Utiliser cet

argument aura seulement simplifié la saisie en TEX des calculs.

3ÔkÔ2Õ

(v) En utilisant la propriété de Markov après 1 pas,

1ÖT e×ôyÈEÈ1ØX 1

1yÙ1ÖT kÔ4Õ

eX 1 1y×ôyÈEÈ1ØX 1yÙyÖ1 H 1×1 PÔ1, yÕkÔyÕ.

ôyÈE Soit1ÖT e×1 1 1

kÔ5ÕÕ6.

(vi) On a évidemment lÔ5Õ1et lÔ6Õ0. Maintenant si xÈE est différent de 5 et de 6,

1y´

on peut faire un pas et ainsi puis regarder ce qu’il se passe (propriété de Markov)

1yÙÈxH 5H 6§X

lÔxÕÈxH 5H 6´ôyÈEÈxØX

ôyÈEÈxØX 1yÙÈyH 5H

PÔx, yÕlÔyÕ.


18 Processus à

lÔ1Õ lÔ4Õ 1¨

temps discret. — Correction de l’examen de seconde session

Ainsi, en notant que lÔ5Õ1 lÔ2Õ lÔ3ÕÕ lÔ4Õ¨ °³²³±2lÔ1ÕlÔ2Õ 2lÔ2ÕlÔ1Õ

et lÔ6Õ0, on a

lÔ1Õ lÔ3Õ 1Õ lÔ3ÕlÔ2Õ lÔ4ÕlÔ1Õ lÔ4ÕlÔ1Õ lÔ3ÕlÔ2Õ

lÔ2Õ1

1

lÔ2Õ1

3

lÔ3Õ1

3

3

lÔ4Õ1

3

D’où lÔ1ÕlÔ4Õ2ß3, lÔ2ÕlÔ3Õ1ß3 et toujours lÔ5Õ1 et lÔ6Õ0.

(vii) On peut calculer le polynôme caractéristique de 3P — matrice de 0 et de 1 —, puis

obtenir χ PÔxÕ1

3

χ 3PÔ3xÕ. Par exemple avec Scilab,

6

P=[0, 1, 0, 1, 1, 0;

1, 0, 1, 0, 0, 1;

0, 1, 0, 1, 0, 1;

1, 0, 1, 0, 1, 0;

1, 0, 0, 1, 0, 1;

0, 1, 1, 0, 1, 0];

chi = det(P-%s*eye(6,6))

lÔ2Õ °³²³±lÔ1Õ1

3

x 4¡4 x 3 12 x 2 et χ PÔxÕx

°³²³±lÔ1Õ2

3

Le calcul donne

χ 3PÔxÕx 6¡9 6¡x 4¡4 4

27 x3 27 x2 .

Pour ses racines, nous savons déjà que 1 est racine et il est visible que 0 l’est aussi avec pour

ordre 2. On a donc, après une division euclidienne par exemple

χ PÔxÕx 2¡

2Ôx¡1Õ¡x 3 x 2¡4

27©.

Pour le dernier facteur, on s’en remet à la recherche de racines « évidentes » : 4ß27 est le

produit des racines, on les recherche sous la forme xß3, ce qui donne pour équation x 3 3x

40 ; 1 est solution, alors x 3 3x 2¡4Ôx¡1ÕÔx2 4x 4ÕÔx¡1ÕÔx 2Õ20; ainsi

les 3 racines restantes de χ P sont 1ß3 d’ordre 1 et¡2ß3 d’ordre 2. On a donc les racines avec

leur ordre :

ØÔ1, 1Õ,Ô1ß3, 1Õ,Ô0, 2Õ,Ô¡2ß3,2ÕÙ

(viii) Les coefficients de P n sont de la forme

P nÔx, yÕa 1Ôx, yÕ¢1 n a 1ß3Ôx, yÕ¢Ô1ß3Õn

a 0Ôx,


yÕ¢0 n b 0Ôx, yÕ¢n¢0 b¡2ß3Ôx, yÕ¢n¢Ô¡2ß3Õn

soit, pour n1,

P nÔx, yÕa 1Ôx, a 1ß3Ôx, yÕß3 b¡2ß3Ôx, yÕ¢n¢Ô¡2ß3Õn

et on constate sans calcul que P nÔx, yÕconverge lorsque n tend vers l’infini vers le coefficient

a 1Ôx, yÕ. Donc, la suiteÔP nÕn1 est convergente.

(ix) Nous savons que siÔP nÕn0 converge, chaque ligne de sa limite Pest une mesure de

probabilité invariante. D’après la question (ii) chaque ligne est égale à π et donc P1

6 U 6

n a¡2ß3Ôx, yÕ¢Ô¡2ß3Õn

n a¡2ß3Ôx, yÕ¢Ô¡2ß3Õn

où U 6 est la matrice unaire de dimensions 6¢6.


λP

MMAS 1 19

(x) Nous savons déjà que P est irréductible, (positivement) récurrente, apériodique, et donc

qu’il y a convergence vers l’équilibre : pour toute loi initiale λ la suite des lois de la chaîne

ÔλP nÕconverge vers π. C’est ce que nous retrouvons avec les calculs précédents :

1ß6λU 61ß6Ô1, 1, 1, 1, 1, 1, 1Õπ.

Exercice 3 (le modèle de Wright–Fisher). — (i) La détermination du type des N

individus de la génération n est un schéma de Bernoulli de paramètre N et X n¡1ßN (le

« succès » correspondant à avoir le type A). Ainsi, conditionnellement à X n¡1, la loi de X n

est la loi binomiale de paramètres N et X n¡1ßN.

(ii) La matrice de transition P sur EØ0, . . ., NÙest donnée par

PÔx, yÕÈØX

nyX n¡1xÙC

d’après la question précédente.

NÔxßNÕyÔ1¡xßNÕN¡y y ,

x, yÈE

(iii) On constate que 0 et N ne communiquent qu’avec eux-mêmes, ainsiØ0ÙetØNÙsont

deux classes fermées (ou absorbantes), alors que si xÈØ1, . . ., N¡1Ù, x mène en 1 pas à

tout yÈE. On en déduit queØ1, . . ., N¡1Ùest une classe communicante, mais qu’elle est

transiente car non fermée.

(iv) Si m0ou mN, la chaîne est stationnaire. Si mÈØ1, . . ., N¡1Ù, alors le temps

de sortie deØ1, . . ., N¡1Ùest fini presque sûrement par transience, la chaîne atteint alors

0 ou N pour y demeurer. Dans tous les cas la chaîne stationne à partir d’un certain temps

aléatoire en 0 ou N, notamment, elle converge presque sûrement.

(v) Chaque variable X n étant bornée, elles sont intégrables. Comme la loi de X n conditionnellement

à X n¡1 est la loi binomiale de paramètres N et X n¡1ßN, on a, d’une part par la

propriété de Markov, ensuite parce que l’espérance d’une variable de loi BÔN, pÕest Np,

mÖX nF n¡1×mÖX nX n¡1×N¢X n¡1ßNX n¡1 presque sûrement.

Ainsi, X est bien une martingale dans la filtration F.

(vi) On sait que X T est à valeurs dansØ0, NÙ, et ainsi

T0Ù

mÖX T×0¢ÈmØX N¢ÈmØX TNÙN¢ÈmØX TNÙ.

La martingale X étant bornée et T étant un temps d’arrêt, le théorème d’arrêt de Doob nous

permet d’affirmer que

0×m.

Ainsi,ÈmØX TNÙmßN et

ÈmØX T0Ù1¡ÈmØX TNÙÔN¡mÕßN.

(vii) Finissons en programmant.

clear(); mode(0);

mÖX T×mÖX

function y = wrightstep(x, N);// nom plus sympa sans fisher

y = 0;

for i = 1:N; if rand() < x/N then y = y +1; end end

endfunction

// quelques param\‘etres

N = 100;// taille totale

m = 40;// valeur initiale

n = 1000;// taille d’\’echantillon

T = 100;// horizon temporel pour repr\’esenter quelques trajectoires

k = 10;// nombre de trajectoires


20 Processus à temps discret. — Correction de l’examen de seconde session

// quelques trajectoires

x = zeros(T+1, k);

for i = 1:k;

x(1, i) = m;

for t = 1:T;

x(t+1, i) = wrightstep(x(t, i), N);

end

end

clf();

plot2d([0:T]’, x); xtitle("Modele de Wright-Fisher");

// estimation des probabilit\’es

p = 0;

for i = 1:n;

x = m;

while(x > 0 & x < N); x = wrightstep(x, N); end

if x == N then p = p+1; end

end

p = p/n;

mprintf("Probabilite d’’atteinte de N = %.4f\n", m/N);

mprintf("Proportion observee = %.4f\n", p);

Ce qui aura pu donner :

100

90

80

70

60

50

40

30

20

10

Modèle de Wright–Fisher

0

0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100

Probabilite d’atteinte de N = 0.4000

Proportion observee = 0.4000

More magazines by this user
Similar magazines