20.05.2013 Views

Serie Storiche e Processi Stocastici

Serie Storiche e Processi Stocastici

Serie Storiche e Processi Stocastici

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Processi</strong> <strong>Stocastici</strong><br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Rifacendoci alla definizione presentata nell‟introduzione di processo stocastico, andiamo a<br />

fornirne ora una sorta di classificazione, sulla base delle v.c. componenti un processo e dei loro<br />

legami.<br />

Una prima distinzione può essere fatta con riguardo all‟indipendenza o meno delle v.c.<br />

componenti il processo. Tale stato difficilmente si riscontra nella realtà, l‟unico processo a<br />

componenti incorrelate che tratteremo sarà il processo definito White Noise (rumore bianco) di<br />

valor medio nullo e varianza costante (cioè non dipendente da t). In seguito verrà indicato con<br />

A t e siglato con<br />

2<br />

t (0, A)<br />

2<br />

A<br />

A WN . Un processo stocastico WN è quindi caratterizzato come segue:<br />

EA ( ) 0<br />

t<br />

E( A ) Var( A ) <br />

2 2<br />

t t A<br />

0<br />

t s<br />

Cov( At , As ) E( At , As<br />

) 2<br />

<br />

A t s<br />

Non vengono fatte a priori ipotesi sulla distribuzione di A1, A 2,...<br />

, ma qualora si supponga<br />

che, per ogni t, A t sia anche una v.c. Normale, allora si parla di Processo White Noise Gaussiano.<br />

Poiché l‟incorrelazione di v.c. Normali implica l‟indipendenza, un processo WN Gaussiano è a<br />

componenti indipendenti.<br />

Una seconda distinzione riguarda la legge di probabilità delle v.c. componenti. Possiamo<br />

infatti ipotizzare una prefissata funzione di densità (nel caso continuo) per tali variabili e definire di<br />

conseguenza il processo risultante (un risultato teorico noto come Teorema di Kolmogorov ci<br />

garantisce che, per ogni n intero, note che siano le densità di probabilità n-variate<br />

f ( x , x ,..., x ; t , t ,..., t ) , il processo stocastico è completamente caratterizzato). L‟ipotesi più<br />

1 2 n 1 2 n<br />

comune è quella di suppore che le v.c. ( Xt , X ,..., )<br />

1 t X 2 t costituiscano una variabile aleatoria<br />

k<br />

Multinormale per ogni ( t1, t2,..., t k ) e per ogni k 1.<br />

In tal caso il processo stocastico X t si<br />

definisce processo Gaussiano e possiede funzione di densità multivariata<br />

<br />

f ( x , x ,..., x ) (2 ) exp ( x ) ( x ) <br />

1 2<br />

k<br />

2<br />

<br />

N 1 1<br />

2<br />

<br />

2 1<br />

x t t t t t<br />

dove ( EX ( )) è il vettore dei valori medi e [ Cov( X , X )] la matrice delle varianze e<br />

t ti<br />

ti tj<br />

covarianze del processo.<br />

E‟ interessante soffermarsi sul fatto che un processo Gaussiano è caratterizzato solo da t e<br />

e quindi, per esempio, un processo Gaussiano di valore medio 0 per ogni t è caratterizzato<br />

esclusivamente dalla matrice delle varianze e covarianze delle v.c. X , X componenti il<br />

ti tj<br />

processo. Questa osservazione è di particolare rilievo perché ci dice che in una classe particolare e<br />

limitata di processi stocastici (quella Gaussiana ad esempio) la conoscenza del processo stocastico<br />

(e quindi di tutte le funzioni del processo) può essere ricondotta alla conoscenza di una particolare<br />

categoria di funzioni (quali possono essere i momenti misti ad esempio), a loro volta stimabili dalle<br />

realizzazioni finite (e quindi dalle serie storiche).<br />

Altre distinzioni possono essere fatte con riguardo al comportamento della successione di<br />

v.c. rispetto al parametro t. Si tratta dunque di andare a vedere se le variabili risultino o meno in un

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!