10.02.2015 Views

Chaînes de Markov.

Chaînes de Markov.

Chaînes de Markov.

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

DÉFINITION « ÉQUIVALENTE »<br />

DÉFINITION (CHAÎNE DE MARKOV (ν, P))<br />

Une chaîne <strong>de</strong> <strong>Markov</strong>, <strong>de</strong> distribution initiale ν et matrice <strong>de</strong> transition<br />

P, à valeurs dans E est une suite <strong>de</strong> v.a. (X n ) n∈N définies sur<br />

(Ω, F, P), telle que :<br />

1 X 0 a pour loi ν,<br />

2 et pour n ≥ 0, conditionnellement à X n = x, la loi <strong>de</strong> X n+1 est<br />

donnée par (P(x, y), y ∈ E) et est indépendante <strong>de</strong> X 0 , . . . , X n−1 .<br />

TRADUCTION MATHÉMATIQUE<br />

Pour tout n ≥ 0 et tout y 0 , . . . , y n+1 dans E :<br />

1 P(X 0 = y 0 ) = ν 0 ;<br />

2 P(X n+1 = y n+1 |X 0 = y 0 , . . . , X n = y n ) = P(y n , y n+1 ).<br />

A. Popier (ENSAI) Chaînes <strong>de</strong> <strong>Markov</strong>. Janvier-Mars 2011 18 / 51

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!