lez 1_ processi stocastici
lez 1_ processi stocastici
lez 1_ processi stocastici
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Metodi Computazionali<br />
Enza Messina<br />
A.A. 2009/10<br />
Ragionamento probabilistico nel tempo<br />
Il compito di prendere una decisione<br />
dipende da:<br />
Informazioni parziali<br />
Informazioni rumorose<br />
Incertezza sui cambiamenti dell’ambiente nel<br />
corso del tempo<br />
E. Messina Metodi Computazionali
Metodi Computazionali<br />
- Processi <strong>stocastici</strong> e <strong>processi</strong> Markoviani<br />
- Tecniche per la generazione di numeri casuali<br />
. generazione di realizzazioni di variabili<br />
discrete<br />
. generazione di realizzazioni di variabili<br />
continue<br />
-<br />
Tecniche di simulazione<br />
o Costruzione e validazione di modelli di simulazione<br />
o Metodi Monte Carlo<br />
o Tecniche di riduzione della varianza<br />
o Analisi dei risultati<br />
-<br />
Metodi per la stima dei parametri<br />
Ragionamento probabilistico nel tempo<br />
Per descrivere un mondo mutevole si<br />
usano:<br />
una serie di variabili casuali<br />
descritte da uno stato<br />
in ogni istante temporale<br />
Le relazioni fra variabili casuali in istanti<br />
temporali diversi descrivono l’evoluzione<br />
dello stato!<br />
E. Messina Metodi Computazionali
Tempo e Incertezza<br />
Modelli statici:<br />
Il valore delle variabili non cambia nel tempo<br />
Modelli dinamici<br />
Il valore delle variabili cambia nel tempo<br />
Lo stato corrente dipende dalla storia<br />
Il processo di cambiamento e’ descritto da una<br />
serie di “fotografie” (time slice) ognuna delle<br />
quali contiene un insieme di variabili casuali<br />
E. Messina Metodi Computazionali<br />
Metodi Computazionali<br />
Processi <strong>stocastici</strong> e <strong>processi</strong> Markoviani<br />
Tecniche per la generazione di numeri casuali<br />
generazione di realizzazioni di variabili discrete<br />
generazione di realizzazioni di variabili continue<br />
Tecniche di simulazione<br />
Costruzione e validazione di modelli di simulazione<br />
Metodi Monte Carlo<br />
Tecniche di riduzione della varianza<br />
Analisi dei risultati<br />
Metodi per la stima dei parametri<br />
E. Messina Metodi Computazionali
Processo Stocastico<br />
Un processo stocastico { X ( t),<br />
t T}<br />
è:<br />
un insieme di variabili casuali, (per ogni t, X(t) e’ una variabile casuale)<br />
una variabile casuale che evolve nel tempo<br />
L’insieme T degli indici e lo spazio X degli stati possono essere continui o discreti.<br />
• Processi <strong>stocastici</strong> a tempo continuo<br />
• Processi <strong>stocastici</strong> a tempo discreto<br />
• Processi <strong>stocastici</strong> a stati continui<br />
• Processi <strong>stocastici</strong> a stati discreti<br />
{ X ( t),<br />
t > 0}<br />
{ X ( t),<br />
t = 0,1,... }<br />
{ , n = 0,1,... }<br />
X n<br />
E. Messina<br />
Metodi Computazionali<br />
7<br />
Processo Stocastico<br />
X(t) = Valore di una caratteristica del sistema al tempo t, ovvero valore di<br />
una variabile casuale che descrive lo stato del sistema al tempo t<br />
X(t)<br />
X(t)<br />
X(t)<br />
numero di visitatori di una pagina web al tempo t<br />
numero di visitatori di una pagina web fino al tempo t<br />
numero di prodotti venduti fino al tempo t<br />
X(t)<br />
valore di un portafoglio di titoli al tempo t<br />
E. Messina<br />
Metodi Computazionali<br />
8
Esempio<br />
Random Walk<br />
discrete-time, discrete-state<br />
Xt X t<br />
= 1 t=1,2,3,...<br />
+ t<br />
where t = {1,1} and<br />
p( t<br />
= 1)<br />
= p(<br />
t<br />
= + 1) = 0,5<br />
3<br />
2<br />
1<br />
0<br />
-1<br />
-2<br />
-3<br />
-4<br />
-5<br />
-6<br />
-7<br />
-8<br />
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16<br />
E. Messina Metodi Computazionali<br />
9<br />
Esempio<br />
Changing p>0,5<br />
we obtain a random walk with drift<br />
12<br />
10<br />
p=0,8<br />
8<br />
6<br />
4<br />
2<br />
0<br />
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18<br />
Another way to generalize this process is to let <br />
(discrete time continuous state stochastic process)<br />
t<br />
assume continuous values<br />
t<br />
N(0,1)<br />
5<br />
4<br />
3<br />
2<br />
1<br />
E. Messina<br />
0<br />
-1<br />
-2<br />
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18<br />
Metodi Computazionali<br />
1<br />
0
Esempio<br />
The first order autoregressive process given by the equation<br />
Xt<br />
= aXti<br />
+ b + t<br />
where a and b are constant, with -1
Proprietà dei Processi Markoviani<br />
Una importante proprietà dei <strong>processi</strong> <strong>stocastici</strong> è la<br />
Proprietà Markoviana<br />
Tale proprietà assicura che la distribuzione di probabilità per tutti i possibili<br />
valori futuri del processo dipende solo dal loro valore corrente non dai valori<br />
passati o da altre informazioni correnti<br />
P( X t+1 = i t+1 | X t = i t , X t-1 = i t-1 , …, X 1 = i 1 , X 0 = i 0 )<br />
= P( X t+1 = i t+1 | X t = i t )<br />
I <strong>processi</strong> <strong>stocastici</strong> che soddisfano questa proprietà sono detti Processi di Markov<br />
E. Messina<br />
Metodi Computazionali<br />
13<br />
Catene di Markov<br />
Un processo stocastico a tempi discreti è una catena di Markov se,<br />
per t = 1, 2, 3, … e per tutti gli stati, si ha che:<br />
P( X t+1 = j | X t = i , X t-1 = i t-1 , …, X 1 = i 1 , X 0 = i 0 )<br />
= P( X t+1 = j| X t = i )<br />
Se P(X 0 = i) = q i<br />
q = [q 1 … q i … q n ] distribuzione probabilità iniziale<br />
E. Messina Metodi Computazionali
Catene di Markov<br />
Se la probabilità di un certo evento è indipendente dal tempo t la<br />
catena di Markov si definisce stazionaria e si ha che:<br />
P( X t+1 = j | X t = i) = p ij<br />
p ij =<br />
probabilità che al tempo t+1 il sistema sarà nello stato j,<br />
essendo nello stato i al tempo t.<br />
Attenzione: non confondere stazionario con statico !!!!!<br />
E. Messina Metodi Computazionali<br />
Matrice delle probabilità<br />
p ij rappresenta la probabilità di raggiungere uno stato j<br />
partendo da uno stato i della catena.<br />
n<br />
p 0 i, j 0<br />
= 1<br />
ij<br />
<br />
j=<br />
0<br />
p ij<br />
P =<br />
p 11 p 12 …. p 1n<br />
p 21 p 22 …. p 2n<br />
p n1 p n2 …. p nn<br />
MATRICE DI TRANSIZIONE<br />
(a un passo)<br />
E. Messina Metodi Computazionali
Rappresentazione grafica<br />
Una matrice P delle probabilità di transizione è rappresentabile<br />
graficamente da un grafo. Ogni nodo rappresenta uno stato e l’arco<br />
(i,j) rappresenta la probabilità di transizione p ij .<br />
p ij<br />
p jk<br />
i<br />
j<br />
k<br />
p ii<br />
E. Messina Metodi Computazionali<br />
Esempio<br />
Supponiamo che un’industria produca due tipi di Cola.<br />
Una persona che, all’acquisto precedente, ha comprato Cola1, per il 90% di<br />
possibilità comprerà ancora Cola1.<br />
Chi ha comprato invece Cola2, per l’80% di possibilità comprerà ancora Cola2.<br />
Matrice di transizione:<br />
P =<br />
Cola1<br />
Cola2<br />
Cola1<br />
0.90<br />
0.20<br />
Cola2<br />
0.10<br />
0.80<br />
E. Messina Metodi Computazionali
Esercizi<br />
1. Definire la matrice di transizione dell’esempio del gioco d’azzardo<br />
2. Si consideri un sistema si stoccaggio nel quale la sequenza di eventi lungo<br />
ogni periodo e’ la seguente:<br />
- si osserva il livello i di magazzino all’inizio del periodo;<br />
- se i =2 non viene emesso<br />
nessun ordine.<br />
Le consegne degli ordini sono immediate.<br />
- la domanda d segue la seguente distribuzione di probabilità:<br />
con probabilità 1/3 d=0<br />
con probabilità 1/3 d= 1<br />
con probabilità 1/3 d=2<br />
- si osserva quindi il livello di magazzino all’inizio del prossimo periodo.<br />
Determinare la matrice di transizione che caratterizza tale sistema di<br />
stoccaggio.<br />
E. Messina Metodi Computazionali<br />
Esercizi<br />
1. In un’urna sono contenute due palline, inizialmente bianche.<br />
Ad ogni estrazione si procede come segue:<br />
- se la pallina è bianca si lancia una moneta: se esce testa la dipingo di rosso<br />
altrimenti la dipingo di nero.<br />
- se la pallina estratta è rossa la dipingo di nero<br />
- se la pallina estratta è nera la dipingo di rosso<br />
Determinare la matrice di transizione che descrive questo “gioco”.<br />
E. Messina Metodi Computazionali
Probabilità di transizione a n-passi<br />
Domanda: Se una catena di Markov è in uno stato i al tempo m,<br />
qual è la probabilità che dopo n passi sarà in uno stato j ?<br />
P( X m+n = j | X m = i) = P( X n = j | X 0 = i) =P ij (n)<br />
Si avrà che:<br />
Risposta<br />
P ij (2) = p ik · p kj<br />
n<br />
k=1<br />
P ij (n) = ij-simo elemento di P n<br />
prodotto scalare riga i colonna j<br />
E. Messina Metodi Computazionali<br />
Esempio (2)<br />
1. Se una persona usualmente compra Cola2, qual è la probabilità<br />
che compri Cola1 dopo due acquisti ?<br />
P( X 2 = 1 | X 0 = 2) =P 21 (2)<br />
0.90<br />
0.10<br />
P 2 = =<br />
0.20<br />
0.80<br />
0.90<br />
0.20<br />
0.10<br />
0.80<br />
0.83<br />
0.34<br />
0.17<br />
0.66<br />
E. Messina Metodi Computazionali
Esempio (3)<br />
1. Se una persona usualmente compra Cola1, qual è la probabilità<br />
che compri ancora Cola1 dopo tre acquisti ?<br />
P( X 1 = 1 | X 0 = 1) =P 11 (3)<br />
0.90<br />
0.10<br />
P 3 = =<br />
0.20<br />
0.80<br />
0.83<br />
0.34<br />
0.17<br />
0.66<br />
0.781<br />
0.438<br />
0.219<br />
0.562<br />
E. Messina Metodi Computazionali<br />
Equazioni Chapman-Kolmogorov<br />
La probabilità di transizione a n-passi<br />
P<br />
n<br />
ij<br />
{ X = j | X = i} n 0, i,<br />
0<br />
= P<br />
+<br />
j<br />
n<br />
k<br />
k<br />
può essere calcolata tramite le equazioni di Chapman-Kolmogorov<br />
P<br />
n+<br />
m<br />
ij<br />
= <br />
k =<br />
0<br />
P<br />
n<br />
ik<br />
P<br />
m<br />
kj<br />
n,<br />
m 0,<br />
i,<br />
j 0<br />
P ( n + m)<br />
= P(<br />
n)<br />
P(<br />
m)<br />
E. Messina Metodi Computazionali
Equazioni Chapman-Kolmogorov<br />
{ X = j | X i}<br />
n+<br />
m<br />
Pij = P<br />
n+<br />
m<br />
0<br />
=<br />
=<br />
{ X = j,<br />
X = k | X i}<br />
P<br />
= n+ m n<br />
=<br />
k<br />
0 0<br />
=<br />
{ X = j | X = k,<br />
X = i} P{ X = k X i}<br />
P<br />
= n+ m<br />
n 0 n<br />
| =<br />
k<br />
0 0<br />
= k =0<br />
m n<br />
P kj<br />
Pik<br />
E. Messina Metodi Computazionali<br />
Probabilità di transizione<br />
La probabilità di essere in un certo stato j al tempo n, non<br />
conoscendo lo stato di una catena di Markov al tempo 0, è:<br />
dove:<br />
q i P ij (n) = q · (colonna j di P n )<br />
i<br />
q i = probabilità che la catena sia nello stato i al tempo 0.<br />
E. Messina Metodi Computazionali
Esempio (1)<br />
1. Supponiamo che il 60% delle persone beva Cola1 e il 40%<br />
beva Cola2. Dopo tre acquisti, qual è la percentuale delle<br />
persone che berranno Cola1?<br />
p = q · (colonna 1 di P 3 )<br />
0.781<br />
p = 0.60 0.40 = 0.6438<br />
0.438<br />
E. Messina Metodi Computazionali<br />
Classificazione degli stati<br />
Uno stato j è raggiungibile da uno stato i se esiste un cammino<br />
che da i arriva a j :<br />
n<br />
Pij<br />
> 0<br />
per qualche n0<br />
Due stati i e j si dice che comunicano se j è raggiungibile da i e<br />
viceversa.<br />
Ogni stato comunica con se stesso per definizione e vale anche la<br />
proprietà transitiva.<br />
Una catena di Markov è detta irriducibile se tutti i suoi stati sono<br />
comunicanti fra loro<br />
E. Messina Metodi Computazionali
Classificazione degli stati<br />
Un insieme di stati S in una catena di Markov è un insieme<br />
chiuso se nessuno stato fuori S è raggiungibile dagli stati in S.<br />
Uno stato i si definisce stato assorbente se p ii = 1.<br />
E. Messina Metodi Computazionali<br />
Classificazione degli stati<br />
• Uno stato i si definisce stato transiente se esiste uno stato j<br />
raggiungibile da i, ma i non è raggiungibile da j.<br />
<br />
n=1<br />
n<br />
P ii<br />
< <br />
•Uno stato che non è transiente viene definito stato ricorrente.<br />
<br />
n=1<br />
n<br />
P ii<br />
= <br />
E. Messina Metodi Computazionali
Classificazione degli stati<br />
• La ricorrenza è una proprietà di classe: se lo stato i è<br />
ricorrente e lo stato j comunica con i allora lo stato j è ricorrente<br />
• Anche essere transiente è una proprietà di classe.<br />
• Tutti gli stati di una catena di Markov finita (n. stati finito)<br />
irriducibile sono ricorrenti<br />
E. Messina Metodi Computazionali<br />
Classificazione degli stati<br />
•Uno stato i è periodico di periodo k>1 se k è il più piccolo<br />
numero tale che tutti i cammini che dallo stato i ritornano ad i<br />
hanno una lunghezza che è un multiplo di k.<br />
• Se uno stato non è periodico si definisce aperiodico.<br />
• Se tutti gli stati in una catena sono ricorrenti, aperiodici e<br />
comunicano l’uno con l’altro, la catena si definisce ergodica.<br />
E. Messina Metodi Computazionali
Esempio (catena ergodica)<br />
Una catena ergodica è, per esempio, la seguente:<br />
P =<br />
0.3 0.7 0<br />
0.5 0 0.5<br />
0 0.25 0.75<br />
0.7<br />
0.25<br />
0.3<br />
1 2<br />
3<br />
0.75<br />
0.5<br />
0.5<br />
E. Messina Metodi Computazionali<br />
Esercizi<br />
Quali stati sono transienti e quali ricorrenti ?<br />
0 0 1/2 1/2<br />
1 0 0 0<br />
0 1 0 0<br />
0 1 0 0<br />
0 0 0<br />
0 0 0<br />
0 0 0<br />
0 0 0<br />
0 0 <br />
E. Messina Metodi Computazionali
Esercizi (catena ergodica)<br />
Quali di queste matrici sono associabili a catene ergodiche ?<br />
1/3 2/3 0<br />
1/2 0 1/2<br />
0 1/4 3/4<br />
1/2 1/2 0 0<br />
1/2 1/2 0 0<br />
0 0 2/3 1/3<br />
0 0 1/4 3/4<br />
1/4 1/2 1/4<br />
2/3 1/3 0<br />
0 2/3 1/3<br />
E. Messina Metodi Computazionali<br />
Distribuzione d’equilibrio (steady state)<br />
Sia P una matrice delle probabilità per una catena ergodica di n<br />
stati, vale che:<br />
lim P ij (n) = j<br />
n +<br />
= [ 1 2 3 …. n ]<br />
Dove:<br />
vettore distribuzione d’equilibrio<br />
= ·P<br />
E. Messina Metodi Computazionali
Esempio (Steady State)<br />
P=<br />
0.90 0.10<br />
0.20 0.80<br />
n<br />
P 11<br />
(n)<br />
P 12<br />
(n)<br />
P 21<br />
(n)<br />
P 22<br />
(n)<br />
1<br />
.90<br />
.10<br />
.20<br />
.80<br />
2<br />
.83<br />
.17<br />
.34<br />
.66<br />
3<br />
.78<br />
.22<br />
.44<br />
.56<br />
5<br />
.72<br />
.28<br />
.56<br />
.44<br />
10<br />
.68<br />
.32<br />
.65<br />
.35<br />
20<br />
30<br />
.67<br />
.67<br />
.33<br />
.33<br />
.67<br />
.67<br />
.33<br />
.33<br />
STEADY STATE<br />
40<br />
.67<br />
.33<br />
.67<br />
.33<br />
E. Messina Metodi Computazionali<br />
Esempio (Steady State)<br />
P=<br />
0.90 0.10<br />
0.20 0.80<br />
{<br />
0 + <br />
0<br />
= .9<br />
0<br />
0. 2<br />
0 + <br />
1<br />
= .1<br />
0<br />
0. 8<br />
0<br />
+1<br />
=<br />
1<br />
1<br />
1<br />
E. Messina Metodi Computazionali
Esercizi<br />
1. Una macchina è utilizzata per produrre strumenti di precisione.<br />
Se la macchina è in buone condizioni oggi allora lo sarà anche domani con una<br />
probabilità del 90%.<br />
Se la macchina non è in buone condizioni oggi allora sarà mal funzionante anche<br />
domani con una probabilità dell’80%.<br />
Quando la macchina è in buone condizioni produce 100 pezzi al giorno.<br />
Quando la macchina è mal funzionante produce 60 pezzi al giorno.<br />
In media quanti pezzi al giorno verrano prodotti ?<br />
E. Messina Metodi Computazionali<br />
Transitorio<br />
Il comportamento di una catena di Markov prima di raggiungere la<br />
distribuzione d’equilibrio è chiamato transitorio.<br />
TRANSITORIO<br />
<br />
E. Messina Metodi Computazionali
Passaggio Intermedio<br />
Numero di transizioni attese prima di raggiungere lo stato j<br />
essendo nello stato i in una catena ergodica:<br />
m ij = p ij (1)+ p ik· (1+m kj )<br />
kj<br />
m ij = 1+ p ik· m kj<br />
m ii =<br />
1<br />
i<br />
E. Messina Metodi Computazionali<br />
Esempio (passaggio intermedio)<br />
Calcolo di quante bottiglie, in media, berrà un compratore di<br />
Cola1 prima di cambiare a Cola2:<br />
• m 12 = 1+ p 11 · m 12 = 1+ 0.90 · m 12 m 12 = 10<br />
Viceversa, per un compratore di Cola2 si avrà:<br />
• m 21 = 1+ p 22· m 21 = 1+ 0.80 · m 21 m 21 = 5<br />
E. Messina Metodi Computazionali
Catene assorbenti (1)<br />
Le catene assorbenti sono catene di Markov nelle quali<br />
alcuni stati sono assorbenti, mentre tutti gli altri sono<br />
stati transienti.<br />
Definizione:<br />
Uno stato i si definisce stato assorbente se p ii = 1<br />
E. Messina Metodi Computazionali<br />
Catene assorbenti (2)<br />
Possibili domande:<br />
1. Qual’è il numero di passi che intercorrono prima<br />
che, da uno stato transiente, venga raggiunto uno stato<br />
assorbente ?<br />
2. Se una catena parte da uno stato transiente, qual è la<br />
probabilità che termini in uno stato assorbente ?<br />
E. Messina Metodi Computazionali
Matrice di transizione<br />
La matrice di transizione per una catena assorbente può<br />
essere scritta come:<br />
P =<br />
Q<br />
R<br />
0 I<br />
Q matrice che rappresenta le relazioni tra gli stati transienti.<br />
R matrice che rappresenta le transizioni da stati transienti a<br />
stati assorbenti.<br />
E. Messina Metodi Computazionali<br />
Matrice fondamentale<br />
1. Se siamo in uno stato transiente i, il numero di periodi<br />
che si trascorreranno in uno stato transiente j prima<br />
dell’assorbimento è:<br />
ij-simo elemento della matrice (I-Q) -1<br />
E. Messina Metodi Computazionali
Esempio<br />
In una fabbrica le tre tipologie d’impiegati sono: junior, senior e partner.<br />
Ci sono inoltre due stati assorbenti che riguardano due modalità per lasciare la<br />
fabbrica: come non-partner o come partner. La matrice delle probabilità è la<br />
seguente:<br />
Junior<br />
Senior<br />
Partner<br />
Lascia NP<br />
Lascia P<br />
Junior<br />
0.80<br />
0<br />
0<br />
0<br />
0<br />
Q<br />
0<br />
Senior<br />
0.15<br />
0.70<br />
0<br />
0<br />
0<br />
Partner<br />
0<br />
0.20<br />
0.95<br />
0<br />
0<br />
Lascia NP<br />
0.05<br />
0.10<br />
0<br />
1<br />
0<br />
R<br />
I<br />
Lascia P<br />
0<br />
0<br />
0.05<br />
0<br />
1<br />
E. Messina Metodi Computazionali<br />
Esempio (1)<br />
Quanto tempo passa un dipendente Junior nella fabbrica?<br />
(I-Q) -1 =<br />
5 2.5 10<br />
0 3.3 13.3<br />
0 0 20<br />
• tempo che passa come Junior : m 11 = 5<br />
• tempo che passa come Senior : m 12 = 2.5<br />
• tempo che passa come Partner : m 13 = 10<br />
TOT.<br />
17.5 anni<br />
E. Messina Metodi Computazionali
Probabilità d’assorbimento<br />
2. Se siamo in uno stato transiente i, la probabilità di<br />
arrivare in uno stato assorbente j è:<br />
ij-simo elemento della matrice (I-Q) -1·R<br />
E. Messina Metodi Computazionali<br />
Esempio (2)<br />
Qual è la probabilità che un dipendente Junior lasci la<br />
fabbrica come Partner?<br />
(I-Q) -1· R =<br />
0.5 0.5<br />
0.3 0.7<br />
0 1<br />
RISPOSTA<br />
m 12 = 0.5<br />
E. Messina Metodi Computazionali
Esempio: The Drunkard’s walk<br />
Un uomo cammina lungo Park Avenue, dove abita. Per raggiungere il bar deve<br />
passare vicino a 3 lampioni. Ogni volta che arriva ad un lampione si appoggia e<br />
poi riprende il cammino proseguendo in avanti o tornardo indietro con uguale<br />
probabilità. Se arriva a casa o al bar si ferma.<br />
Home<br />
1<br />
2<br />
3<br />
Bar<br />
Home 1 2 3 Bar<br />
1<br />
1/2<br />
0<br />
0<br />
0<br />
Q<br />
0<br />
0<br />
0<br />
1/2<br />
0<br />
0<br />
0<br />
1/2<br />
0<br />
1/2<br />
0<br />
0<br />
0<br />
1/2<br />
0<br />
0<br />
R<br />
I<br />
0<br />
0<br />
0<br />
1/2<br />
1<br />
E. Messina Metodi Computazionali<br />
Esempio: The Drunkard’s walk<br />
1<br />
2<br />
3<br />
Home<br />
Bar<br />
1 2 3 Home Bar<br />
0<br />
1/2<br />
0<br />
0<br />
0<br />
Q<br />
0<br />
1/2<br />
0<br />
1/2<br />
0<br />
0<br />
0<br />
1/2<br />
0<br />
0<br />
0<br />
1/2<br />
0<br />
0<br />
1<br />
0<br />
R<br />
I<br />
0<br />
0<br />
1/2<br />
0<br />
1<br />
E. Messina Metodi Computazionali
Esempio: The Drunkard’s walk<br />
Quante volte passa per lo stesso lampione?<br />
1 -1/2 0<br />
-1/2 1 -1/2<br />
0 -1/2 1<br />
(I-Q)= (I-Q) -1 =<br />
3/2 1 1/2<br />
1 2 1<br />
1/2 1 3/2<br />
Se parte dallo stato 2 il numero atteso di volte che passa per i<br />
lampioni 1 2 e 3 prima di venire “assorbito” sono 1, 2 e 1.<br />
E. Messina Metodi Computazionali<br />
Esempio: The Drunkard’s walk<br />
1/2 0<br />
R = 0 0 (I-Q) -1·R =<br />
0 1/2<br />
3/4 1/4<br />
1/2 1/2<br />
1/4 3/4<br />
Se parte dallo stato 2 la probabilità di tornare a casa è 3/4 e quella<br />
di finire al bar è 1/4.<br />
E. Messina Metodi Computazionali
Courtsey of Michael Littman<br />
Example: Academic Life<br />
0.6<br />
A. Assistant<br />
Prof.: 20<br />
0.2<br />
0.2<br />
0.2<br />
B. Associate<br />
Prof.: 60<br />
0.6<br />
0.2<br />
T. Tenured<br />
Prof.: 90<br />
0.7<br />
S. Out on the 0.2<br />
Street: 10 D. Dead: 0<br />
0.8<br />
0.3<br />
1.0<br />
What is the expected lifetime income of an academic?<br />
Solving for Total Reward<br />
L(i) is expected total reward received<br />
starting in state i.<br />
How could we compute L(A)?<br />
Would it help to compute L(B), L(T), L(S),<br />
and L(D) also?
Solving the Academic Life<br />
The expected income at state D is 0<br />
L(T)=90+0.7x90+0.7 2 x90+…<br />
L(T)=90+0.7xL(T)<br />
L(T)=300<br />
0.7<br />
T. Tenured<br />
Prof.: 90<br />
0.3<br />
D. Dead: 0<br />
Working Backwards<br />
287.5<br />
A. Assistant<br />
Prof.: 20<br />
0.6<br />
0.2<br />
50<br />
0.2<br />
0.2<br />
0.2<br />
325<br />
B. Associate<br />
Prof.: 60<br />
0.6<br />
0<br />
S. Out on the<br />
Street: 10 D. Dead: 0<br />
0.2<br />
0.7<br />
T. Tenured<br />
Prof.: 90<br />
0.3<br />
300<br />
0.8<br />
1.0<br />
Another question: What is the life expectancy of professors?
Stepping Stone Model<br />
Let A be a nxn array of squares<br />
Each square is initially any one of k different colors<br />
For each step, a square is chosen at random<br />
This square chooses one of its 8 neighbors at random and assumes its color<br />
(boundary conditions …)<br />
This is an example of absorbing Markov Chain: with probability 1 all the squares<br />
will eventually all be the same color<br />
Credit Rating: Typical Transition Matrix (1-Year)<br />
Initial<br />
Rating<br />
Year-End Rating<br />
AAA AA A BBB BB B CCC D<br />
AAA 90.81 8.33 0.68 0.06 0.12 0 0 0<br />
AA 0.70 90.65 7.79 0.64 0.06 0.14 0.02 0<br />
A 0.09 2.27 91.05 5.52 0.74 0.26 0.01 0.06<br />
BBB 0.02 0.33 5.95 86.93 5.30 1.17 0.12 0.18<br />
BB 0.03 0.14 0.67 7.73 80.53 8.84 1.00 1.06<br />
B 0 0.11 0.24 0.43 6.48 83.46 4.07 5.20<br />
CCC 0.22 0 0.22 1.30 2.38 11.24 64.86 19.79
Example of Rating Transition Matrix*<br />
* Moody’s Investors Service, July 1997. “Moody’s Rating Migration and Credit<br />
Quality Correlation, 1920-1996”<br />
Google’s Search Engine<br />
Assumption: A link from page A to page B is a<br />
recommendation of page B by the author of A<br />
(we say B is successor of A)<br />
Quality of a page is related to its in-degree<br />
Recursion: Quality of a page is related to<br />
its in-degree, and to<br />
the quality of pages linking to it<br />
PageRank [Brin and Page ‘98]<br />
E. Messina Metodi Computazionali
Definition of PageRank<br />
Consider the following infinite random walk<br />
(surf):<br />
Initially the surfer is at a random page<br />
At each step, the surfer proceeds<br />
to a randomly chosen web page with probability p<br />
to a randomly chosen successor of the current page with<br />
probability 1-p<br />
The PageRank of a page d is the fraction of<br />
steps the surfer spends at d in the limit.<br />
E. Messina Metodi Computazionali<br />
Random Web Surfer<br />
What’s the probability of a page being visited?<br />
E. Messina Metodi Computazionali
Markov Chains<br />
Theorem: Under certain conditions:<br />
There exists a unique stationary distribution q with q i > 0<br />
for all i<br />
Let N(i,t) be the number of times the Markov chain visits<br />
state i in t steps. Then,<br />
lim<br />
t<br />
N(<br />
i,<br />
t)<br />
t<br />
= <br />
i<br />
E. Messina Metodi Computazionali<br />
PageRank<br />
PageRank = the probability for this Markov chain,<br />
i.e.<br />
PageRank(<br />
u)<br />
= p / n + (1 p)<br />
where n is the total number of nodes in the graph<br />
p is the probability of making a random jump.<br />
Query-independent<br />
Summarizes the “web opinion” of the page<br />
importance<br />
<br />
( v,<br />
u)<br />
E<br />
PageRank(<br />
v) / outdegree(<br />
v)<br />
E. Messina Metodi Computazionali
PageRank<br />
A<br />
B<br />
D<br />
PageRank of D is<br />
(1-p)* ( 1/4 th the PageRank of A + 1/3 rd the PageRank of B ) +p/n<br />
E. Messina Metodi Computazionali<br />
Kth-Order Markov Chain<br />
What we have discussed so far is the first-order<br />
Markov Chain.<br />
More generally, in kth-order Markov Chain, each<br />
state transition depends on previous k states.<br />
What’s the size of transition probability matrix?<br />
X1<br />
X2 X3 X4<br />
E. Messina Metodi Computazionali
Add-ins Excel<br />
Per la risoluzione delle operazioni relative alle catene di<br />
Markov sono presenti in rete add-ins free di Excel:<br />
Sito per il download:<br />
http://www.stanford.edu/~savage/software.htm<br />
E. Messina Metodi Computazionali