23.02.2015 Views

lez 1_ processi stocastici

lez 1_ processi stocastici

lez 1_ processi stocastici

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Metodi Computazionali<br />

Enza Messina<br />

A.A. 2009/10<br />

Ragionamento probabilistico nel tempo<br />

Il compito di prendere una decisione<br />

dipende da:<br />

Informazioni parziali<br />

Informazioni rumorose<br />

Incertezza sui cambiamenti dell’ambiente nel<br />

corso del tempo<br />

E. Messina Metodi Computazionali


Metodi Computazionali<br />

- Processi <strong>stocastici</strong> e <strong>processi</strong> Markoviani<br />

- Tecniche per la generazione di numeri casuali<br />

. generazione di realizzazioni di variabili<br />

discrete<br />

. generazione di realizzazioni di variabili<br />

continue<br />

-<br />

Tecniche di simulazione<br />

o Costruzione e validazione di modelli di simulazione<br />

o Metodi Monte Carlo<br />

o Tecniche di riduzione della varianza<br />

o Analisi dei risultati<br />

-<br />

Metodi per la stima dei parametri<br />

Ragionamento probabilistico nel tempo<br />

Per descrivere un mondo mutevole si<br />

usano:<br />

una serie di variabili casuali<br />

descritte da uno stato<br />

in ogni istante temporale<br />

Le relazioni fra variabili casuali in istanti<br />

temporali diversi descrivono l’evoluzione<br />

dello stato!<br />

E. Messina Metodi Computazionali


Tempo e Incertezza<br />

Modelli statici:<br />

Il valore delle variabili non cambia nel tempo<br />

Modelli dinamici<br />

Il valore delle variabili cambia nel tempo<br />

Lo stato corrente dipende dalla storia<br />

Il processo di cambiamento e’ descritto da una<br />

serie di “fotografie” (time slice) ognuna delle<br />

quali contiene un insieme di variabili casuali<br />

E. Messina Metodi Computazionali<br />

Metodi Computazionali<br />

Processi <strong>stocastici</strong> e <strong>processi</strong> Markoviani<br />

Tecniche per la generazione di numeri casuali<br />

generazione di realizzazioni di variabili discrete<br />

generazione di realizzazioni di variabili continue<br />

Tecniche di simulazione<br />

Costruzione e validazione di modelli di simulazione<br />

Metodi Monte Carlo<br />

Tecniche di riduzione della varianza<br />

Analisi dei risultati<br />

Metodi per la stima dei parametri<br />

E. Messina Metodi Computazionali


Processo Stocastico<br />

Un processo stocastico { X ( t),<br />

t T}<br />

è:<br />

un insieme di variabili casuali, (per ogni t, X(t) e’ una variabile casuale)<br />

una variabile casuale che evolve nel tempo<br />

L’insieme T degli indici e lo spazio X degli stati possono essere continui o discreti.<br />

• Processi <strong>stocastici</strong> a tempo continuo<br />

• Processi <strong>stocastici</strong> a tempo discreto<br />

• Processi <strong>stocastici</strong> a stati continui<br />

• Processi <strong>stocastici</strong> a stati discreti<br />

{ X ( t),<br />

t > 0}<br />

{ X ( t),<br />

t = 0,1,... }<br />

{ , n = 0,1,... }<br />

X n<br />

E. Messina<br />

Metodi Computazionali<br />

7<br />

Processo Stocastico<br />

X(t) = Valore di una caratteristica del sistema al tempo t, ovvero valore di<br />

una variabile casuale che descrive lo stato del sistema al tempo t<br />

X(t)<br />

X(t)<br />

X(t)<br />

numero di visitatori di una pagina web al tempo t<br />

numero di visitatori di una pagina web fino al tempo t<br />

numero di prodotti venduti fino al tempo t<br />

X(t)<br />

valore di un portafoglio di titoli al tempo t<br />

E. Messina<br />

Metodi Computazionali<br />

8


Esempio<br />

Random Walk<br />

discrete-time, discrete-state<br />

Xt X t<br />

= 1 t=1,2,3,...<br />

+ t<br />

where t = {1,1} and<br />

p( t<br />

= 1)<br />

= p(<br />

t<br />

= + 1) = 0,5<br />

3<br />

2<br />

1<br />

0<br />

-1<br />

-2<br />

-3<br />

-4<br />

-5<br />

-6<br />

-7<br />

-8<br />

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16<br />

E. Messina Metodi Computazionali<br />

9<br />

Esempio<br />

Changing p>0,5<br />

we obtain a random walk with drift<br />

12<br />

10<br />

p=0,8<br />

8<br />

6<br />

4<br />

2<br />

0<br />

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18<br />

Another way to generalize this process is to let <br />

(discrete time continuous state stochastic process)<br />

t<br />

assume continuous values<br />

t<br />

N(0,1)<br />

5<br />

4<br />

3<br />

2<br />

1<br />

E. Messina<br />

0<br />

-1<br />

-2<br />

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18<br />

Metodi Computazionali<br />

1<br />

0


Esempio<br />

The first order autoregressive process given by the equation<br />

Xt<br />

= aXti<br />

+ b + t<br />

where a and b are constant, with -1


Proprietà dei Processi Markoviani<br />

Una importante proprietà dei <strong>processi</strong> <strong>stocastici</strong> è la<br />

Proprietà Markoviana<br />

Tale proprietà assicura che la distribuzione di probabilità per tutti i possibili<br />

valori futuri del processo dipende solo dal loro valore corrente non dai valori<br />

passati o da altre informazioni correnti<br />

P( X t+1 = i t+1 | X t = i t , X t-1 = i t-1 , …, X 1 = i 1 , X 0 = i 0 )<br />

= P( X t+1 = i t+1 | X t = i t )<br />

I <strong>processi</strong> <strong>stocastici</strong> che soddisfano questa proprietà sono detti Processi di Markov<br />

E. Messina<br />

Metodi Computazionali<br />

13<br />

Catene di Markov<br />

Un processo stocastico a tempi discreti è una catena di Markov se,<br />

per t = 1, 2, 3, … e per tutti gli stati, si ha che:<br />

P( X t+1 = j | X t = i , X t-1 = i t-1 , …, X 1 = i 1 , X 0 = i 0 )<br />

= P( X t+1 = j| X t = i )<br />

Se P(X 0 = i) = q i<br />

q = [q 1 … q i … q n ] distribuzione probabilità iniziale<br />

E. Messina Metodi Computazionali


Catene di Markov<br />

Se la probabilità di un certo evento è indipendente dal tempo t la<br />

catena di Markov si definisce stazionaria e si ha che:<br />

P( X t+1 = j | X t = i) = p ij<br />

p ij =<br />

probabilità che al tempo t+1 il sistema sarà nello stato j,<br />

essendo nello stato i al tempo t.<br />

Attenzione: non confondere stazionario con statico !!!!!<br />

E. Messina Metodi Computazionali<br />

Matrice delle probabilità<br />

p ij rappresenta la probabilità di raggiungere uno stato j<br />

partendo da uno stato i della catena.<br />

n<br />

p 0 i, j 0<br />

= 1<br />

ij<br />

<br />

j=<br />

0<br />

p ij<br />

P =<br />

p 11 p 12 …. p 1n<br />

p 21 p 22 …. p 2n<br />

p n1 p n2 …. p nn<br />

MATRICE DI TRANSIZIONE<br />

(a un passo)<br />

E. Messina Metodi Computazionali


Rappresentazione grafica<br />

Una matrice P delle probabilità di transizione è rappresentabile<br />

graficamente da un grafo. Ogni nodo rappresenta uno stato e l’arco<br />

(i,j) rappresenta la probabilità di transizione p ij .<br />

p ij<br />

p jk<br />

i<br />

j<br />

k<br />

p ii<br />

E. Messina Metodi Computazionali<br />

Esempio<br />

Supponiamo che un’industria produca due tipi di Cola.<br />

Una persona che, all’acquisto precedente, ha comprato Cola1, per il 90% di<br />

possibilità comprerà ancora Cola1.<br />

Chi ha comprato invece Cola2, per l’80% di possibilità comprerà ancora Cola2.<br />

Matrice di transizione:<br />

P =<br />

Cola1<br />

Cola2<br />

Cola1<br />

0.90<br />

0.20<br />

Cola2<br />

0.10<br />

0.80<br />

E. Messina Metodi Computazionali


Esercizi<br />

1. Definire la matrice di transizione dell’esempio del gioco d’azzardo<br />

2. Si consideri un sistema si stoccaggio nel quale la sequenza di eventi lungo<br />

ogni periodo e’ la seguente:<br />

- si osserva il livello i di magazzino all’inizio del periodo;<br />

- se i =2 non viene emesso<br />

nessun ordine.<br />

Le consegne degli ordini sono immediate.<br />

- la domanda d segue la seguente distribuzione di probabilità:<br />

con probabilità 1/3 d=0<br />

con probabilità 1/3 d= 1<br />

con probabilità 1/3 d=2<br />

- si osserva quindi il livello di magazzino all’inizio del prossimo periodo.<br />

Determinare la matrice di transizione che caratterizza tale sistema di<br />

stoccaggio.<br />

E. Messina Metodi Computazionali<br />

Esercizi<br />

1. In un’urna sono contenute due palline, inizialmente bianche.<br />

Ad ogni estrazione si procede come segue:<br />

- se la pallina è bianca si lancia una moneta: se esce testa la dipingo di rosso<br />

altrimenti la dipingo di nero.<br />

- se la pallina estratta è rossa la dipingo di nero<br />

- se la pallina estratta è nera la dipingo di rosso<br />

Determinare la matrice di transizione che descrive questo “gioco”.<br />

E. Messina Metodi Computazionali


Probabilità di transizione a n-passi<br />

Domanda: Se una catena di Markov è in uno stato i al tempo m,<br />

qual è la probabilità che dopo n passi sarà in uno stato j ?<br />

P( X m+n = j | X m = i) = P( X n = j | X 0 = i) =P ij (n)<br />

Si avrà che:<br />

Risposta<br />

P ij (2) = p ik · p kj<br />

n<br />

k=1<br />

P ij (n) = ij-simo elemento di P n<br />

prodotto scalare riga i colonna j<br />

E. Messina Metodi Computazionali<br />

Esempio (2)<br />

1. Se una persona usualmente compra Cola2, qual è la probabilità<br />

che compri Cola1 dopo due acquisti ?<br />

P( X 2 = 1 | X 0 = 2) =P 21 (2)<br />

0.90<br />

0.10<br />

P 2 = =<br />

0.20<br />

0.80<br />

0.90<br />

0.20<br />

0.10<br />

0.80<br />

0.83<br />

0.34<br />

0.17<br />

0.66<br />

E. Messina Metodi Computazionali


Esempio (3)<br />

1. Se una persona usualmente compra Cola1, qual è la probabilità<br />

che compri ancora Cola1 dopo tre acquisti ?<br />

P( X 1 = 1 | X 0 = 1) =P 11 (3)<br />

0.90<br />

0.10<br />

P 3 = =<br />

0.20<br />

0.80<br />

0.83<br />

0.34<br />

0.17<br />

0.66<br />

0.781<br />

0.438<br />

0.219<br />

0.562<br />

E. Messina Metodi Computazionali<br />

Equazioni Chapman-Kolmogorov<br />

La probabilità di transizione a n-passi<br />

P<br />

n<br />

ij<br />

{ X = j | X = i} n 0, i,<br />

0<br />

= P<br />

+<br />

j<br />

n<br />

k<br />

k<br />

può essere calcolata tramite le equazioni di Chapman-Kolmogorov<br />

P<br />

n+<br />

m<br />

ij<br />

= <br />

k =<br />

0<br />

P<br />

n<br />

ik<br />

P<br />

m<br />

kj<br />

n,<br />

m 0,<br />

i,<br />

j 0<br />

P ( n + m)<br />

= P(<br />

n)<br />

P(<br />

m)<br />

E. Messina Metodi Computazionali


Equazioni Chapman-Kolmogorov<br />

{ X = j | X i}<br />

n+<br />

m<br />

Pij = P<br />

n+<br />

m<br />

0<br />

=<br />

=<br />

{ X = j,<br />

X = k | X i}<br />

P<br />

= n+ m n<br />

=<br />

k<br />

0 0<br />

=<br />

{ X = j | X = k,<br />

X = i} P{ X = k X i}<br />

P<br />

= n+ m<br />

n 0 n<br />

| =<br />

k<br />

0 0<br />

= k =0<br />

m n<br />

P kj<br />

Pik<br />

E. Messina Metodi Computazionali<br />

Probabilità di transizione<br />

La probabilità di essere in un certo stato j al tempo n, non<br />

conoscendo lo stato di una catena di Markov al tempo 0, è:<br />

dove:<br />

q i P ij (n) = q · (colonna j di P n )<br />

i<br />

q i = probabilità che la catena sia nello stato i al tempo 0.<br />

E. Messina Metodi Computazionali


Esempio (1)<br />

1. Supponiamo che il 60% delle persone beva Cola1 e il 40%<br />

beva Cola2. Dopo tre acquisti, qual è la percentuale delle<br />

persone che berranno Cola1?<br />

p = q · (colonna 1 di P 3 )<br />

0.781<br />

p = 0.60 0.40 = 0.6438<br />

0.438<br />

E. Messina Metodi Computazionali<br />

Classificazione degli stati<br />

Uno stato j è raggiungibile da uno stato i se esiste un cammino<br />

che da i arriva a j :<br />

n<br />

Pij<br />

> 0<br />

per qualche n0<br />

Due stati i e j si dice che comunicano se j è raggiungibile da i e<br />

viceversa.<br />

Ogni stato comunica con se stesso per definizione e vale anche la<br />

proprietà transitiva.<br />

Una catena di Markov è detta irriducibile se tutti i suoi stati sono<br />

comunicanti fra loro<br />

E. Messina Metodi Computazionali


Classificazione degli stati<br />

Un insieme di stati S in una catena di Markov è un insieme<br />

chiuso se nessuno stato fuori S è raggiungibile dagli stati in S.<br />

Uno stato i si definisce stato assorbente se p ii = 1.<br />

E. Messina Metodi Computazionali<br />

Classificazione degli stati<br />

• Uno stato i si definisce stato transiente se esiste uno stato j<br />

raggiungibile da i, ma i non è raggiungibile da j.<br />

<br />

n=1<br />

n<br />

P ii<br />

< <br />

•Uno stato che non è transiente viene definito stato ricorrente.<br />

<br />

n=1<br />

n<br />

P ii<br />

= <br />

E. Messina Metodi Computazionali


Classificazione degli stati<br />

• La ricorrenza è una proprietà di classe: se lo stato i è<br />

ricorrente e lo stato j comunica con i allora lo stato j è ricorrente<br />

• Anche essere transiente è una proprietà di classe.<br />

• Tutti gli stati di una catena di Markov finita (n. stati finito)<br />

irriducibile sono ricorrenti<br />

E. Messina Metodi Computazionali<br />

Classificazione degli stati<br />

•Uno stato i è periodico di periodo k>1 se k è il più piccolo<br />

numero tale che tutti i cammini che dallo stato i ritornano ad i<br />

hanno una lunghezza che è un multiplo di k.<br />

• Se uno stato non è periodico si definisce aperiodico.<br />

• Se tutti gli stati in una catena sono ricorrenti, aperiodici e<br />

comunicano l’uno con l’altro, la catena si definisce ergodica.<br />

E. Messina Metodi Computazionali


Esempio (catena ergodica)<br />

Una catena ergodica è, per esempio, la seguente:<br />

P =<br />

0.3 0.7 0<br />

0.5 0 0.5<br />

0 0.25 0.75<br />

0.7<br />

0.25<br />

0.3<br />

1 2<br />

3<br />

0.75<br />

0.5<br />

0.5<br />

E. Messina Metodi Computazionali<br />

Esercizi<br />

Quali stati sono transienti e quali ricorrenti ?<br />

0 0 1/2 1/2<br />

1 0 0 0<br />

0 1 0 0<br />

0 1 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 0<br />

0 0 <br />

E. Messina Metodi Computazionali


Esercizi (catena ergodica)<br />

Quali di queste matrici sono associabili a catene ergodiche ?<br />

1/3 2/3 0<br />

1/2 0 1/2<br />

0 1/4 3/4<br />

1/2 1/2 0 0<br />

1/2 1/2 0 0<br />

0 0 2/3 1/3<br />

0 0 1/4 3/4<br />

1/4 1/2 1/4<br />

2/3 1/3 0<br />

0 2/3 1/3<br />

E. Messina Metodi Computazionali<br />

Distribuzione d’equilibrio (steady state)<br />

Sia P una matrice delle probabilità per una catena ergodica di n<br />

stati, vale che:<br />

lim P ij (n) = j<br />

n +<br />

= [ 1 2 3 …. n ]<br />

Dove:<br />

vettore distribuzione d’equilibrio<br />

= ·P<br />

E. Messina Metodi Computazionali


Esempio (Steady State)<br />

P=<br />

0.90 0.10<br />

0.20 0.80<br />

n<br />

P 11<br />

(n)<br />

P 12<br />

(n)<br />

P 21<br />

(n)<br />

P 22<br />

(n)<br />

1<br />

.90<br />

.10<br />

.20<br />

.80<br />

2<br />

.83<br />

.17<br />

.34<br />

.66<br />

3<br />

.78<br />

.22<br />

.44<br />

.56<br />

5<br />

.72<br />

.28<br />

.56<br />

.44<br />

10<br />

.68<br />

.32<br />

.65<br />

.35<br />

20<br />

30<br />

.67<br />

.67<br />

.33<br />

.33<br />

.67<br />

.67<br />

.33<br />

.33<br />

STEADY STATE<br />

40<br />

.67<br />

.33<br />

.67<br />

.33<br />

E. Messina Metodi Computazionali<br />

Esempio (Steady State)<br />

P=<br />

0.90 0.10<br />

0.20 0.80<br />

{<br />

0 + <br />

0<br />

= .9<br />

0<br />

0. 2<br />

0 + <br />

1<br />

= .1<br />

0<br />

0. 8<br />

0<br />

+1<br />

=<br />

1<br />

1<br />

1<br />

E. Messina Metodi Computazionali


Esercizi<br />

1. Una macchina è utilizzata per produrre strumenti di precisione.<br />

Se la macchina è in buone condizioni oggi allora lo sarà anche domani con una<br />

probabilità del 90%.<br />

Se la macchina non è in buone condizioni oggi allora sarà mal funzionante anche<br />

domani con una probabilità dell’80%.<br />

Quando la macchina è in buone condizioni produce 100 pezzi al giorno.<br />

Quando la macchina è mal funzionante produce 60 pezzi al giorno.<br />

In media quanti pezzi al giorno verrano prodotti ?<br />

E. Messina Metodi Computazionali<br />

Transitorio<br />

Il comportamento di una catena di Markov prima di raggiungere la<br />

distribuzione d’equilibrio è chiamato transitorio.<br />

TRANSITORIO<br />

<br />

E. Messina Metodi Computazionali


Passaggio Intermedio<br />

Numero di transizioni attese prima di raggiungere lo stato j<br />

essendo nello stato i in una catena ergodica:<br />

m ij = p ij (1)+ p ik· (1+m kj )<br />

kj<br />

m ij = 1+ p ik· m kj<br />

m ii =<br />

1<br />

i<br />

E. Messina Metodi Computazionali<br />

Esempio (passaggio intermedio)<br />

Calcolo di quante bottiglie, in media, berrà un compratore di<br />

Cola1 prima di cambiare a Cola2:<br />

• m 12 = 1+ p 11 · m 12 = 1+ 0.90 · m 12 m 12 = 10<br />

Viceversa, per un compratore di Cola2 si avrà:<br />

• m 21 = 1+ p 22· m 21 = 1+ 0.80 · m 21 m 21 = 5<br />

E. Messina Metodi Computazionali


Catene assorbenti (1)<br />

Le catene assorbenti sono catene di Markov nelle quali<br />

alcuni stati sono assorbenti, mentre tutti gli altri sono<br />

stati transienti.<br />

Definizione:<br />

Uno stato i si definisce stato assorbente se p ii = 1<br />

E. Messina Metodi Computazionali<br />

Catene assorbenti (2)<br />

Possibili domande:<br />

1. Qual’è il numero di passi che intercorrono prima<br />

che, da uno stato transiente, venga raggiunto uno stato<br />

assorbente ?<br />

2. Se una catena parte da uno stato transiente, qual è la<br />

probabilità che termini in uno stato assorbente ?<br />

E. Messina Metodi Computazionali


Matrice di transizione<br />

La matrice di transizione per una catena assorbente può<br />

essere scritta come:<br />

P =<br />

Q<br />

R<br />

0 I<br />

Q matrice che rappresenta le relazioni tra gli stati transienti.<br />

R matrice che rappresenta le transizioni da stati transienti a<br />

stati assorbenti.<br />

E. Messina Metodi Computazionali<br />

Matrice fondamentale<br />

1. Se siamo in uno stato transiente i, il numero di periodi<br />

che si trascorreranno in uno stato transiente j prima<br />

dell’assorbimento è:<br />

ij-simo elemento della matrice (I-Q) -1<br />

E. Messina Metodi Computazionali


Esempio<br />

In una fabbrica le tre tipologie d’impiegati sono: junior, senior e partner.<br />

Ci sono inoltre due stati assorbenti che riguardano due modalità per lasciare la<br />

fabbrica: come non-partner o come partner. La matrice delle probabilità è la<br />

seguente:<br />

Junior<br />

Senior<br />

Partner<br />

Lascia NP<br />

Lascia P<br />

Junior<br />

0.80<br />

0<br />

0<br />

0<br />

0<br />

Q<br />

0<br />

Senior<br />

0.15<br />

0.70<br />

0<br />

0<br />

0<br />

Partner<br />

0<br />

0.20<br />

0.95<br />

0<br />

0<br />

Lascia NP<br />

0.05<br />

0.10<br />

0<br />

1<br />

0<br />

R<br />

I<br />

Lascia P<br />

0<br />

0<br />

0.05<br />

0<br />

1<br />

E. Messina Metodi Computazionali<br />

Esempio (1)<br />

Quanto tempo passa un dipendente Junior nella fabbrica?<br />

(I-Q) -1 =<br />

5 2.5 10<br />

0 3.3 13.3<br />

0 0 20<br />

• tempo che passa come Junior : m 11 = 5<br />

• tempo che passa come Senior : m 12 = 2.5<br />

• tempo che passa come Partner : m 13 = 10<br />

TOT.<br />

17.5 anni<br />

E. Messina Metodi Computazionali


Probabilità d’assorbimento<br />

2. Se siamo in uno stato transiente i, la probabilità di<br />

arrivare in uno stato assorbente j è:<br />

ij-simo elemento della matrice (I-Q) -1·R<br />

E. Messina Metodi Computazionali<br />

Esempio (2)<br />

Qual è la probabilità che un dipendente Junior lasci la<br />

fabbrica come Partner?<br />

(I-Q) -1· R =<br />

0.5 0.5<br />

0.3 0.7<br />

0 1<br />

RISPOSTA<br />

m 12 = 0.5<br />

E. Messina Metodi Computazionali


Esempio: The Drunkard’s walk<br />

Un uomo cammina lungo Park Avenue, dove abita. Per raggiungere il bar deve<br />

passare vicino a 3 lampioni. Ogni volta che arriva ad un lampione si appoggia e<br />

poi riprende il cammino proseguendo in avanti o tornardo indietro con uguale<br />

probabilità. Se arriva a casa o al bar si ferma.<br />

Home<br />

1<br />

2<br />

3<br />

Bar<br />

Home 1 2 3 Bar<br />

1<br />

1/2<br />

0<br />

0<br />

0<br />

Q<br />

0<br />

0<br />

0<br />

1/2<br />

0<br />

0<br />

0<br />

1/2<br />

0<br />

1/2<br />

0<br />

0<br />

0<br />

1/2<br />

0<br />

0<br />

R<br />

I<br />

0<br />

0<br />

0<br />

1/2<br />

1<br />

E. Messina Metodi Computazionali<br />

Esempio: The Drunkard’s walk<br />

1<br />

2<br />

3<br />

Home<br />

Bar<br />

1 2 3 Home Bar<br />

0<br />

1/2<br />

0<br />

0<br />

0<br />

Q<br />

0<br />

1/2<br />

0<br />

1/2<br />

0<br />

0<br />

0<br />

1/2<br />

0<br />

0<br />

0<br />

1/2<br />

0<br />

0<br />

1<br />

0<br />

R<br />

I<br />

0<br />

0<br />

1/2<br />

0<br />

1<br />

E. Messina Metodi Computazionali


Esempio: The Drunkard’s walk<br />

Quante volte passa per lo stesso lampione?<br />

1 -1/2 0<br />

-1/2 1 -1/2<br />

0 -1/2 1<br />

(I-Q)= (I-Q) -1 =<br />

3/2 1 1/2<br />

1 2 1<br />

1/2 1 3/2<br />

Se parte dallo stato 2 il numero atteso di volte che passa per i<br />

lampioni 1 2 e 3 prima di venire “assorbito” sono 1, 2 e 1.<br />

E. Messina Metodi Computazionali<br />

Esempio: The Drunkard’s walk<br />

1/2 0<br />

R = 0 0 (I-Q) -1·R =<br />

0 1/2<br />

3/4 1/4<br />

1/2 1/2<br />

1/4 3/4<br />

Se parte dallo stato 2 la probabilità di tornare a casa è 3/4 e quella<br />

di finire al bar è 1/4.<br />

E. Messina Metodi Computazionali


Courtsey of Michael Littman<br />

Example: Academic Life<br />

0.6<br />

A. Assistant<br />

Prof.: 20<br />

0.2<br />

0.2<br />

0.2<br />

B. Associate<br />

Prof.: 60<br />

0.6<br />

0.2<br />

T. Tenured<br />

Prof.: 90<br />

0.7<br />

S. Out on the 0.2<br />

Street: 10 D. Dead: 0<br />

0.8<br />

0.3<br />

1.0<br />

What is the expected lifetime income of an academic?<br />

Solving for Total Reward<br />

L(i) is expected total reward received<br />

starting in state i.<br />

How could we compute L(A)?<br />

Would it help to compute L(B), L(T), L(S),<br />

and L(D) also?


Solving the Academic Life<br />

The expected income at state D is 0<br />

L(T)=90+0.7x90+0.7 2 x90+…<br />

L(T)=90+0.7xL(T)<br />

L(T)=300<br />

0.7<br />

T. Tenured<br />

Prof.: 90<br />

0.3<br />

D. Dead: 0<br />

Working Backwards<br />

287.5<br />

A. Assistant<br />

Prof.: 20<br />

0.6<br />

0.2<br />

50<br />

0.2<br />

0.2<br />

0.2<br />

325<br />

B. Associate<br />

Prof.: 60<br />

0.6<br />

0<br />

S. Out on the<br />

Street: 10 D. Dead: 0<br />

0.2<br />

0.7<br />

T. Tenured<br />

Prof.: 90<br />

0.3<br />

300<br />

0.8<br />

1.0<br />

Another question: What is the life expectancy of professors?


Stepping Stone Model<br />

Let A be a nxn array of squares<br />

Each square is initially any one of k different colors<br />

For each step, a square is chosen at random<br />

This square chooses one of its 8 neighbors at random and assumes its color<br />

(boundary conditions …)<br />

This is an example of absorbing Markov Chain: with probability 1 all the squares<br />

will eventually all be the same color<br />

Credit Rating: Typical Transition Matrix (1-Year)<br />

Initial<br />

Rating<br />

Year-End Rating<br />

AAA AA A BBB BB B CCC D<br />

AAA 90.81 8.33 0.68 0.06 0.12 0 0 0<br />

AA 0.70 90.65 7.79 0.64 0.06 0.14 0.02 0<br />

A 0.09 2.27 91.05 5.52 0.74 0.26 0.01 0.06<br />

BBB 0.02 0.33 5.95 86.93 5.30 1.17 0.12 0.18<br />

BB 0.03 0.14 0.67 7.73 80.53 8.84 1.00 1.06<br />

B 0 0.11 0.24 0.43 6.48 83.46 4.07 5.20<br />

CCC 0.22 0 0.22 1.30 2.38 11.24 64.86 19.79


Example of Rating Transition Matrix*<br />

* Moody’s Investors Service, July 1997. “Moody’s Rating Migration and Credit<br />

Quality Correlation, 1920-1996”<br />

Google’s Search Engine<br />

Assumption: A link from page A to page B is a<br />

recommendation of page B by the author of A<br />

(we say B is successor of A)<br />

Quality of a page is related to its in-degree<br />

Recursion: Quality of a page is related to<br />

its in-degree, and to<br />

the quality of pages linking to it<br />

PageRank [Brin and Page ‘98]<br />

E. Messina Metodi Computazionali


Definition of PageRank<br />

Consider the following infinite random walk<br />

(surf):<br />

Initially the surfer is at a random page<br />

At each step, the surfer proceeds<br />

to a randomly chosen web page with probability p<br />

to a randomly chosen successor of the current page with<br />

probability 1-p<br />

The PageRank of a page d is the fraction of<br />

steps the surfer spends at d in the limit.<br />

E. Messina Metodi Computazionali<br />

Random Web Surfer<br />

What’s the probability of a page being visited?<br />

E. Messina Metodi Computazionali


Markov Chains<br />

Theorem: Under certain conditions:<br />

There exists a unique stationary distribution q with q i > 0<br />

for all i<br />

Let N(i,t) be the number of times the Markov chain visits<br />

state i in t steps. Then,<br />

lim<br />

t<br />

N(<br />

i,<br />

t)<br />

t<br />

= <br />

i<br />

E. Messina Metodi Computazionali<br />

PageRank<br />

PageRank = the probability for this Markov chain,<br />

i.e.<br />

PageRank(<br />

u)<br />

= p / n + (1 p)<br />

where n is the total number of nodes in the graph<br />

p is the probability of making a random jump.<br />

Query-independent<br />

Summarizes the “web opinion” of the page<br />

importance<br />

<br />

( v,<br />

u)<br />

E<br />

PageRank(<br />

v) / outdegree(<br />

v)<br />

E. Messina Metodi Computazionali


PageRank<br />

A<br />

B<br />

D<br />

PageRank of D is<br />

(1-p)* ( 1/4 th the PageRank of A + 1/3 rd the PageRank of B ) +p/n<br />

E. Messina Metodi Computazionali<br />

Kth-Order Markov Chain<br />

What we have discussed so far is the first-order<br />

Markov Chain.<br />

More generally, in kth-order Markov Chain, each<br />

state transition depends on previous k states.<br />

What’s the size of transition probability matrix?<br />

X1<br />

X2 X3 X4<br />

E. Messina Metodi Computazionali


Add-ins Excel<br />

Per la risoluzione delle operazioni relative alle catene di<br />

Markov sono presenti in rete add-ins free di Excel:<br />

Sito per il download:<br />

http://www.stanford.edu/~savage/software.htm<br />

E. Messina Metodi Computazionali

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!