17.11.2013 Views

Processus de Markov, de Levy, Files d'attente, Actuariat et Fiabilité ...

Processus de Markov, de Levy, Files d'attente, Actuariat et Fiabilité ...

Processus de Markov, de Levy, Files d'attente, Actuariat et Fiabilité ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

FILES D’ATTENTE, FIABILITÉ, ACTUARIAT<br />

1.2 Marches aléatoires <strong>et</strong> récurrences<br />

Définition 1.2.1 Marches aléatoires<br />

Soit Z = (Z n ) n∈N<br />

une suite <strong>de</strong> variables aléatoires i.i.d (i.e. indépendantes <strong>et</strong> <strong>de</strong> même<br />

loi), à valeurs dans un groupe G, <strong>et</strong> soit X 0 ∈ G indépendant <strong>de</strong> Z.<br />

Le processus X n ∈ G, n = 0, 1, ... donné par la somme <strong>de</strong> ces variables<br />

X n = X 0 + Z 1 + Z 2 + · · · + Z n , n ∈ N (1.1) rw<br />

s’appelle marche aléatoire. Comme alternative, la marche aléatoire peut-être <strong>de</strong>finie<br />

récursivement par la récurrence<br />

X n = X n−1 + Z n , n = 1, ... (1.2) <strong>de</strong>fr<br />

Motivation : Les marches aléatoires sont parmi les processus stochastiques les plus utiles<br />

(par exemple en physique, mathématiques financières, files d’attente, statistique, <strong>et</strong>c...). Ils<br />

peuvent servir comme <strong>de</strong>s excellents exemples introductifs, qui motiveront un étu<strong>de</strong> plus<br />

approfondi <strong>de</strong>s processus stochastiques. Finalement, ils sont aussi parmi les processus les<br />

meilleurs compris, car ils ramènent souvent à <strong>de</strong>s solutions analytiques, ce qui ren<strong>de</strong>nt les<br />

résultats plus transparents.<br />

Exemple : Les marches aléatoires sur Z<br />

Définition 1.2.2 Marches aléatoires sur Z.<br />

Soit Z = (Z n ) n∈N<br />

une suite <strong>de</strong> variables aléatoires i.i.d (i.e. indépendantes <strong>et</strong> <strong>de</strong> même<br />

loi), à valeurs en Z, ayant une distribution discrète p = (p j = P[Z n = j], j ∈ Z), <strong>et</strong> soit<br />

X 0 ∈ Z indépendant <strong>de</strong> Z <strong>et</strong> ayant aussi une distribution discrète.<br />

a) Le processus X n ∈ Z, n = 0, 1, ... donné par la somme <strong>de</strong> ces variables<br />

X n = X 0 + Z 1 + Z 2 + · · · + Z n , n ∈ N (1.3) rw<br />

s’appelle marche aléatoire. Comme alternative, la marche aléatoire peut-être <strong>de</strong>finie<br />

récursivement par la récurrence<br />

X n = X n−1 + Z n , n = 1, ... (1.4) <strong>de</strong>fr<br />

b) Si en plus |Z n | = 1, i.e. p i ≠ 0 ssi i = ±1, <strong>et</strong> le processus (1.3) est appelé marche<br />

aléatoire simple. On <strong>de</strong>notera p 1 par p <strong>et</strong> <strong>de</strong> lors la distribution <strong>de</strong> Z n est <strong>de</strong> la forme<br />

pδ 1 + (1 − p)δ −1 , i.e. P [Z n = 1] = p <strong>et</strong> P [Z n = −1] = 1 − p avec 0 < p < 1.<br />

Si p = q = .5 on parle d’une marche aléatoire symm<strong>et</strong>rique, <strong>et</strong> avec p ≠ q on parle<br />

d’une marche aléatoire biaisée.<br />

Extension : Si on remplace les probabilités p j par <strong>de</strong>s probabilités p i,j := P Xn−1 =i[X n −<br />

X n−1 = j] on arrive à une chaine <strong>de</strong> <strong>Markov</strong>.<br />

1.2.1 Moments <strong>et</strong> cumulants<br />

Exercice 1.2.1 Les moments <strong>et</strong> cumulants <strong>de</strong> la marche simple. Soit X 0 = 0 ∈ N le<br />

capital initial d’un joueur. Au temps n = 1, 2, ..., le joueur gagnera Z n = 1 avec probabilité p<br />

<strong>et</strong> per<strong>de</strong>ra Z n = −1 avec probabilité 1 − p, où 0 < p < 1. Soit X n = X 0 + Z 1 + Z 2 + · · · + Z n<br />

son capital au temps n.<br />

Calculez :<br />

1. L’esperance du son gain e n = EX n .<br />

2. La variance du son gain v n = VarX n .

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!