16.07.2014 Views

martingales discrètes, chaines de Markov, processus de Poisson

martingales discrètes, chaines de Markov, processus de Poisson

martingales discrètes, chaines de Markov, processus de Poisson

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

(c’est le pus long)<br />

(iii)L est stable par limite croissante (Tonelli)<br />

Conclusion : L est l’ensemble <strong>de</strong> toutes les variables aléatoires boréliennes bornées et X<br />

est un <strong>Markov</strong> fort.<br />

•<br />

Notation Soit T : Ω → R + ; ω ↦→ inf{t > 0, X t (ω) ≠ X 0 (ω)}.<br />

Proposition 3.20 Soit (X t , t ≥ 0) un <strong>processus</strong> stochastique à valeurs dans E, càd, T<br />

est un F X -temps d’arrêt.<br />

Preuve : On remarque que {ω : T (ω) > t} = {ω : X u (ω) = X 0 (ω) ∀u ≤ t}. Comme X<br />

est cà d, cet événement est ∩ tn≤t,tn∈Q{X tn )X 0 } qui est bien dans F t .<br />

•<br />

Théorème 3.21 Soit (X t , t ≥ 0) un <strong>processus</strong> stochastique càd, à valeurs dans E discret<br />

contenu dans R, <strong>de</strong> <strong>Markov</strong>, homogène et tel que X t − X 0 est indépendant <strong>de</strong> X 0 . Alors<br />

(i)) T = inf{t > 0, X t ≠ X 0 } suit une loi exponentielle.<br />

(ii) T et X T − X 0 sont <strong>de</strong>ux variables aléatoires indépendantes.<br />

Preuve :les hypothèses donnent que T est indépendant <strong>de</strong> X 0<br />

(i) Soit F : t ↦→ P(T ≥ t), on a F (0) = 1, X càd entraine que F l’est aussi. De plus<br />

F (s + t) = P(T > s + t) = P(T > s et T ◦ θ s > t) car sur (T > s), X s = X 0 et<br />

T ◦ θ s > t = inf{u > 0, X s+u ≠ X s = X 0 } et réciproquement.<br />

Donc par la propriété <strong>de</strong> <strong>Markov</strong><br />

F (t + s) = E[1 T >s 1 T >t ◦ θ s ] = F (s)F (t)<br />

puisque P(T > t/X 0 = x) = P(T > t) par l’indépendance. Et on peut conclure (i).<br />

(ii) P(T > t, X T − X 0 = x) = E[1 T >t E[1 XT −X 0 =x/F t ]] qui par la propriété <strong>de</strong> <strong>Markov</strong> est<br />

E[1 T >t P Xt {X T − X 0 = x}]. Or sur (T > t), on a X t = X 0 et donc P(T > t, X T − X 0 =<br />

x) = F (t)P X0 {X T − X 0 = x}<br />

•<br />

58

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!