25.12.2012 Views

Dispense

Dispense

Dispense

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

268 CAPITOLO 5. SISTEMI MARKOVIANI<br />

e così via. Indicando con p (n) il vettore p (n)<br />

i<br />

, vale in forma vettoriale<br />

i2S<br />

p (n) = p (n 1) P = ::: = p (0) P n :<br />

Le potenze della matrice di transizione, applicate a sinistra al vettore di stato iniziale,<br />

forniscono le probabilità di stato ad ogni istante successivo.<br />

Potrebbe sembrare che il processo (Xn) n2N sia così univocamente determinato. Non è<br />

così. Serve imporre una regola altrimenti non è possibile calcolare univocamente probabilità<br />

del tipo P (X2 = k; X1 = j; X0 = i). Si assume che valga la seguente regola, detta proprietà<br />

di Markov:<br />

P (Xn+1 = in+1jXn = in)<br />

= P (Xn+1 = in+1jXn = in; Xn 1 = in 1; :::; X0 = i0)<br />

per ogni valore degli indici e degli stati. Essa signi…ca che la conoscenza dello stato “presente”<br />

in oppure la conoscenza del “presente” e di tutto il passato, producono le stesse previsioni<br />

sul futuro. Il futuro è idipendente dal passato, noto il presente. Se pensiamo al grafo ed al<br />

processo costruito su di esso, l’idea è che quando il processo occupa, al tempo n, lo stato<br />

i, per la determinazione futura del moto (cioè degli stati che verranno occupati) serve solo<br />

sapere che ci troviamo in i, non serve ricordare da quali stati siamo passati precedentemente.<br />

Se così non fosse, la descrizione algebrica tramite grafo crollerebbe, bisognerebbe introdurre<br />

delle complicazioni per tenere memoria del passato.<br />

Le catene di Markov sono quindi sistemi senza memoria.<br />

Assunta la proprietà di Markov, vale, per ogni valore di stati e tempi<br />

P (Xn = in; Xn 1 = in 1; :::; X0 = i0)<br />

= P (Xn = injXn 1 = in 1; :::; X0 = i0) P (Xn 1 = in 1; :::; X0 = i0)<br />

= P (Xn = injXn 1 = in 1) P (Xn 1 = in 1; :::; X0 = i0)<br />

= pin 1inP (Xn 1 = in 1; :::; X0 = i0)<br />

da cui si può ripetere il conto ricorsivamente ed ottenere<br />

Vediamo quindi che:<br />

P (Xn = in; Xn 1 = in 1; :::; X0 = i0) = p (0)<br />

i0 pi0i1 pin 1in:<br />

Proposizione 27 Sotto la proprietà di Markov, la matrice di transizione P ed il vettore p (0)<br />

determinano tutte le marginali P (Xn = in; Xn 1 = in 1; :::; X0 = i0), quindi determinano<br />

univocamente il processo stocastico (Xn) n2N .<br />

Nota per gli esercizi. Per calcolare in un dato esempio la probabilità p (n)<br />

i con i ed n<br />

(basso) speci…cati si può procedere in due modi. Il primo è puramente algebrico e consiste<br />

nel calcolo della potenza P n . L’altro consiste nel capire gra…camente la formula (5.1), identi…cando<br />

tutti i cammini che in n passi portano nello stato i, cammini che conviene elencare<br />

esplicitamente, calcolando poi le probabilità lungo ciascun cammino e poi la loro somma. Se

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!