martingales discrètes, chaines de Markov, processus de Poisson
martingales discrètes, chaines de Markov, processus de Poisson
martingales discrètes, chaines de Markov, processus de Poisson
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
- Soit C ∈ F ⊗ G : y ↦→ f(y) = ∫ G R(y, dz)1 C(y, z) est F-mesurable positive, alors<br />
Q ⊗ R(x, C) = (Qf)(x) est E mesurable d’après le premier exercice.<br />
- Soit x fixé dans E. Q ⊗ R(x, F × G) = ∫ F Q(x, dy) ∫ G R(y, dz) = 1.<br />
Si C 1 ∩ C 2 = ∅ dans F ⊗ G, 1 C1 ∪C 2<br />
= 1 C1 + 1 C2 et les <strong>de</strong>ux mesures successives sont<br />
additives.<br />
∫<br />
G R(y, dz)1 C n<br />
(y, z)<br />
Soit C n suite croissante d’événements <strong>de</strong> F⊗G, lim n 1 Cn = 1 C , ∀y ∈ F,<br />
croit vers ∫ G R(y, dz)1 C(y, z) où C n (y, .) = {z ∈ G, (y, z) ∈ C n } par définition <strong>de</strong> la tribu<br />
produit.<br />
2.4 Transitions et lois conditionnelles<br />
Soient <strong>de</strong>ux variables aléatoires X et Y sur l’espace <strong>de</strong> probabilité (Ω, F, P), à valeurs<br />
respectivement dans (E, E) et (F, F). On note µ la loi <strong>de</strong> X et Q une probabilité <strong>de</strong><br />
transition <strong>de</strong> (E, E) dans (F, F) telle que pour tout B ∈ F, Q(X, B) est une version <strong>de</strong><br />
P{Y ∈ B/X}. Ainsi, Q est une version <strong>de</strong> la loi conditionnelle <strong>de</strong> Y sachant X. (cf. cours<br />
<strong>de</strong> F. Barthe).<br />
On a alors pour f fonction mesurable sur (F, F) :<br />
E[f(Y )/X] = Qf(X).<br />
Cette <strong>de</strong>rnière égalité montre que la loi <strong>de</strong> Y est µQ. En effet, E[f(Y )/X = x] = Qf(x)<br />
que l’on intègre sur E selon la loi µ soit E[f(Y )] = ∫ E Qf(x)µ(dx) c’est à dire E[f(Y )] =<br />
µQ(f).<br />
En conclusion, un noyau <strong>de</strong> transition permet <strong>de</strong> définir une loi conditionnelle.<br />
Bien entendu, si X et Y sont indépendantes, Q(x, B) ne dépend pas <strong>de</strong> x et vaut<br />
P(Y ∈ B).<br />
2.5 Chaînes <strong>de</strong> <strong>Markov</strong><br />
Définition 2.2 On appelle chaînes <strong>de</strong> <strong>Markov</strong> sur l’espace <strong>de</strong> probabilité (Ω, F, P), un<br />
<strong>processus</strong> (X n , n ∈ N) à valeurs dans (E, E) tel que pour tout B ∈ F, et tout n ∈ N,<br />
P(X n+1 ∈ B/X 0 , · · · , X n ) = P(X n+1 ∈ B/X n ).<br />
Si E est fini ou dénombrable,<br />
P{X n+1 = j/X 0 , · · · , X n } = Q(X n , j) ; P{X n+1 = j/X 0 = x 0 , · · · , X n = x n } = Q(x n , j)<br />
avec Q la matrice <strong>de</strong> transition.<br />
25