Serie Storiche e Processi Stocastici
Serie Storiche e Processi Stocastici
Serie Storiche e Processi Stocastici
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>Processi</strong> <strong>Stocastici</strong><br />
<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />
Rifacendoci alla definizione presentata nell‟introduzione di processo stocastico, andiamo a<br />
fornirne ora una sorta di classificazione, sulla base delle v.c. componenti un processo e dei loro<br />
legami.<br />
Una prima distinzione può essere fatta con riguardo all‟indipendenza o meno delle v.c.<br />
componenti il processo. Tale stato difficilmente si riscontra nella realtà, l‟unico processo a<br />
componenti incorrelate che tratteremo sarà il processo definito White Noise (rumore bianco) di<br />
valor medio nullo e varianza costante (cioè non dipendente da t). In seguito verrà indicato con<br />
A t e siglato con<br />
2<br />
t (0, A)<br />
2<br />
A<br />
A WN . Un processo stocastico WN è quindi caratterizzato come segue:<br />
EA ( ) 0<br />
t<br />
E( A ) Var( A ) <br />
2 2<br />
t t A<br />
0<br />
t s<br />
Cov( At , As ) E( At , As<br />
) 2<br />
<br />
A t s<br />
Non vengono fatte a priori ipotesi sulla distribuzione di A1, A 2,...<br />
, ma qualora si supponga<br />
che, per ogni t, A t sia anche una v.c. Normale, allora si parla di Processo White Noise Gaussiano.<br />
Poiché l‟incorrelazione di v.c. Normali implica l‟indipendenza, un processo WN Gaussiano è a<br />
componenti indipendenti.<br />
Una seconda distinzione riguarda la legge di probabilità delle v.c. componenti. Possiamo<br />
infatti ipotizzare una prefissata funzione di densità (nel caso continuo) per tali variabili e definire di<br />
conseguenza il processo risultante (un risultato teorico noto come Teorema di Kolmogorov ci<br />
garantisce che, per ogni n intero, note che siano le densità di probabilità n-variate<br />
f ( x , x ,..., x ; t , t ,..., t ) , il processo stocastico è completamente caratterizzato). L‟ipotesi più<br />
1 2 n 1 2 n<br />
comune è quella di suppore che le v.c. ( Xt , X ,..., )<br />
1 t X 2 t costituiscano una variabile aleatoria<br />
k<br />
Multinormale per ogni ( t1, t2,..., t k ) e per ogni k 1.<br />
In tal caso il processo stocastico X t si<br />
definisce processo Gaussiano e possiede funzione di densità multivariata<br />
<br />
f ( x , x ,..., x ) (2 ) exp ( x ) ( x ) <br />
1 2<br />
k<br />
2<br />
<br />
N 1 1<br />
2<br />
<br />
2 1<br />
x t t t t t<br />
dove ( EX ( )) è il vettore dei valori medi e [ Cov( X , X )] la matrice delle varianze e<br />
t ti<br />
ti tj<br />
covarianze del processo.<br />
E‟ interessante soffermarsi sul fatto che un processo Gaussiano è caratterizzato solo da t e<br />
e quindi, per esempio, un processo Gaussiano di valore medio 0 per ogni t è caratterizzato<br />
esclusivamente dalla matrice delle varianze e covarianze delle v.c. X , X componenti il<br />
ti tj<br />
processo. Questa osservazione è di particolare rilievo perché ci dice che in una classe particolare e<br />
limitata di processi stocastici (quella Gaussiana ad esempio) la conoscenza del processo stocastico<br />
(e quindi di tutte le funzioni del processo) può essere ricondotta alla conoscenza di una particolare<br />
categoria di funzioni (quali possono essere i momenti misti ad esempio), a loro volta stimabili dalle<br />
realizzazioni finite (e quindi dalle serie storiche).<br />
Altre distinzioni possono essere fatte con riguardo al comportamento della successione di<br />
v.c. rispetto al parametro t. Si tratta dunque di andare a vedere se le variabili risultino o meno in un