20.05.2013 Views

Serie Storiche e Processi Stocastici

Serie Storiche e Processi Stocastici

Serie Storiche e Processi Stocastici

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Introduzione<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Desiderando introdurre intuitivamente il concetto di serie storica basta fare riferimento a<br />

qualsiasi fenomeno misurabile che varia nel tempo e la cui registrazione costituisce, appunto, la<br />

serie storica. Tale successione di dati rappresenta una informazione statistica sulla quale potremmo<br />

avere interesse, oltre che nel descrivere, anche nell‟inferire (ovvero all‟applicare gli strumenti<br />

propri dell‟analisi statistica con scopi di previsione).<br />

Più precisamente, per serie storica o serie temporale intendiamo una successione di<br />

osservazioni ordinate logicamente secondo una variabile t, la quale nella maggior parte dei casi<br />

rappresenta il tempo. Risulta quindi di interesse lo studio della dinamica temporale di tale serie<br />

(analisi univariata) e delle eventuali connessioni con altre serie storiche ad essa collegate (analisi<br />

multivariata). Confluiscono in questa analisi gli strumenti e i contributi della statistica, del calcolo<br />

della probabilità, dell‟econometria e dell‟analisi matematica.<br />

Per questa trattazione le nozioni richieste in questi campi sono quelle di base di normali corsi<br />

universitari di analisi matematica, statistica descrittiva e inferenziale e qualche conoscenza di<br />

calcolo delle probabilità, principalmente con riguardo alle variabili casuali.<br />

Volendo fare un primo banale esempio di serie storica si può considerare la successione<br />

{ X t}<br />

dei prezzi di un titolo quotato in borsa nel periodo t 1,2,...,10 ; questo risulterà<br />

dall‟osservazione e dalla registrazione di un totale di n 10 quotazioni, e ne potrà seguire<br />

un‟opportuna rappresentazione grafica.<br />

x ( x , x ,..., x ) (8.5, 10.3, 9.6, 8.7, 11.2, 9.9, 7.9, 10, 9, 11.1)<br />

1 2 10<br />

Passiamo ora a definire la serie storica da una angolazione differente. Per fare questo ci<br />

serviremo della nozione di processo stocastico, uno strumento probabilistico ampiamente impiegato<br />

in molteplici ambiti, dalla fisica alla finanza, dall‟economia al controllo statistico della qualità, e in<br />

molti altri campi.<br />

Definizione: Un processo stocastico X t (detto anche processo aleatorio e talvolta indicato con<br />

Xt () ) è una famiglia di variabili casuali descritte da un parametro t appartenente ad un<br />

insieme parametrico T.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Cosa significa tutto questo? Significa che un processo stocastico è una successione di<br />

variabili aleatorie ordinate secondo un parametro t T , solitamente identificato con il tempo. La<br />

conoscenza di un processo stocastico equivale alla conoscenza della distribuzione di probabilità<br />

multipla (multivariata) per qualsiasi sottoinsieme di T e per qualsiasi valore delle variabili casuali.<br />

Occorre caratterizzare però ulteriormente questa nozione di processo stocastico; per fare<br />

questo introduciamo delle distinzioni. Parleremo di processo stocastico continuo qualora le variabili<br />

casuali che lo compongono siano di natura continua, di processo stocastico discreto in caso<br />

contrario; distingueremo inoltre fra processi stocastici a tempo continuo e a tempo discreto, nei casi,<br />

rispettivamente, che il parametro t T abbia supporto continuo o discreto.<br />

Esempio: sia X t un processo stocastico che descrive le rilevazioni negli istanti temporali<br />

tT {1,2,3,...} di una qualche grandezza fisica e le cui realizzazioni siano<br />

caratterizzate da leggi di distribuzione gaussiane. Allora il processo in esame sarà da<br />

definirsi come processo stocastico continuo a tempo discreto.<br />

Un tale processo è quindi la famiglia di variabili casuali { X1, X 2,...}<br />

, per la cui conoscenza<br />

occorre specificare le funzioni di densità congiunte di ciascuna combinazione di esse. Formalmente<br />

un processo t X è noto se è nota la funzione di densità ( Xt , X ,..., )<br />

1 t X 2 t per ogni k e per ogni k-pla<br />

k<br />

di valori ( t1, t2,..., t k ) di variabili casuali (d‟ora in poi v.c.). Da questo si può già intuire l‟estrema<br />

complicazione dello studio di un processo stocastico nella sua generalità, e in particolare la pratica<br />

impossibilità di inferire direttamente su di esso.<br />

Volendo descrivere meglio la struttura probabilistica di X t possiamo osservare che, per<br />

esempio, fissando t 3,<br />

si ottiene la v.c. X 3 , che possiede una sua propria funzione di densità di<br />

probabilità (nel caso continuo, di massa di probabilità nel caso discreto) che sarà correlata oppure<br />

no alle altre, e così via. Su X 3 possiamo effettuare un esperimento e rilevare dei valori appartenenti<br />

al suo campo di variazione.<br />

Estendendo a tutto il processo, se fissiamo una prova da effettuare su X t (ovvero<br />

osserviamo la successione dei risultati campionari x1, x 2,...<br />

) otterremo una successione di valori,<br />

funzione della variabile t, chiamata realizzazione o traiettoria del processo. Risulta evidente che,<br />

dato un processo X t , esistono infinite possibili realizzazioni che sono precisamente tutte quelle<br />

osservabili ripetendo indefinitamente l‟esperimento. Segue un esempio grafico di due realizzazioni<br />

campionarie dal medesimo processo.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Infine, se in X t fissiamo t e contemporaneamente fissiamo la prova sperimentale (per<br />

esempio fissiamo t 3 ed osserviamo il valore risultante per X 3 ) otteniamo, ovviamente, un<br />

numero reale: cioè il valore realizzato per la v.c. fissata, ovvero il valore della realizzazione al<br />

tempo t fissato.<br />

Possiamo quindi introdurre a questo punto l‟intendimento di serie storica { x , t 1,2,..., N}<br />

come una parte finita di una realizzazione di un processo stocastico X t .<br />

Tale definizione concorda con quella fornita nell‟introduzione di serie storica come<br />

“successione di osservazioni ordinate logicamente secondo una variabile t” e qualifica inoltre in<br />

senso probabilistico la natura dei problemi che ci proponiamo di affrontare. Per esempio la<br />

previsione di un valore del fenomeno in esame al tempo t N 1 note che siano le osservazioni<br />

fino a t N diventa uno specifico problema di Calcolo delle Probabilità. Cioè: qual è la probabilità<br />

X assuma un determinato valore (e qui entra, ad esempio, la teoria dei test statistici)<br />

che la v.c. N 1<br />

se su tale variabile si hanno informazioni derivate dall‟insieme di v.c. ( X1, X 2,...,<br />

X N ) che hanno<br />

generato la realizzazione finita ( x1, x2,..., x N ) .<br />

Si noti d‟altro canto che una simile definizione mette in luce anche la limitazione delle<br />

informazioni sul processo le quali sono, in generale, desumibili dalla conoscenza della serie storica.<br />

Difatti essa non è altro che una parte finita di una singola realizzazione del processo; ci troviamo<br />

quindi a lavorare non solo con un campione unico della famiglia delle v.c. che caratterizzano il<br />

processo, ma si tratta anche di un campione troncato, poiché si osserva solo per t 1,2,..., N.<br />

Tutto<br />

questo impone quindi una limitazione della classe dei processi stocastici, perché solo per una parte<br />

più ristretta di essi sarà possibile dedurre informazioni “consistenti” dalle realizzazioni finite di cui<br />

disponiamo nelle applicazioni reali.<br />

Passiamo ora ad analizzare in modo più formale i processi stocastici e le loro<br />

caratterizzazioni fondamentali.<br />

t


<strong>Processi</strong> <strong>Stocastici</strong><br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Rifacendoci alla definizione presentata nell‟introduzione di processo stocastico, andiamo a<br />

fornirne ora una sorta di classificazione, sulla base delle v.c. componenti un processo e dei loro<br />

legami.<br />

Una prima distinzione può essere fatta con riguardo all‟indipendenza o meno delle v.c.<br />

componenti il processo. Tale stato difficilmente si riscontra nella realtà, l‟unico processo a<br />

componenti incorrelate che tratteremo sarà il processo definito White Noise (rumore bianco) di<br />

valor medio nullo e varianza costante (cioè non dipendente da t). In seguito verrà indicato con<br />

A t e siglato con<br />

2<br />

t (0, A)<br />

2<br />

A<br />

A WN . Un processo stocastico WN è quindi caratterizzato come segue:<br />

EA ( ) 0<br />

t<br />

E( A ) Var( A ) <br />

2 2<br />

t t A<br />

0<br />

t s<br />

Cov( At , As ) E( At , As<br />

) 2<br />

<br />

A t s<br />

Non vengono fatte a priori ipotesi sulla distribuzione di A1, A 2,...<br />

, ma qualora si supponga<br />

che, per ogni t, A t sia anche una v.c. Normale, allora si parla di Processo White Noise Gaussiano.<br />

Poiché l‟incorrelazione di v.c. Normali implica l‟indipendenza, un processo WN Gaussiano è a<br />

componenti indipendenti.<br />

Una seconda distinzione riguarda la legge di probabilità delle v.c. componenti. Possiamo<br />

infatti ipotizzare una prefissata funzione di densità (nel caso continuo) per tali variabili e definire di<br />

conseguenza il processo risultante (un risultato teorico noto come Teorema di Kolmogorov ci<br />

garantisce che, per ogni n intero, note che siano le densità di probabilità n-variate<br />

f ( x , x ,..., x ; t , t ,..., t ) , il processo stocastico è completamente caratterizzato). L‟ipotesi più<br />

1 2 n 1 2 n<br />

comune è quella di suppore che le v.c. ( Xt , X ,..., )<br />

1 t X 2 t costituiscano una variabile aleatoria<br />

k<br />

Multinormale per ogni ( t1, t2,..., t k ) e per ogni k 1.<br />

In tal caso il processo stocastico X t si<br />

definisce processo Gaussiano e possiede funzione di densità multivariata<br />

<br />

f ( x , x ,..., x ) (2 ) exp ( x ) ( x ) <br />

1 2<br />

k<br />

2<br />

<br />

N 1 1<br />

2<br />

<br />

2 1<br />

x t t t t t<br />

dove ( EX ( )) è il vettore dei valori medi e [ Cov( X , X )] la matrice delle varianze e<br />

t ti<br />

ti tj<br />

covarianze del processo.<br />

E‟ interessante soffermarsi sul fatto che un processo Gaussiano è caratterizzato solo da t e<br />

e quindi, per esempio, un processo Gaussiano di valore medio 0 per ogni t è caratterizzato<br />

esclusivamente dalla matrice delle varianze e covarianze delle v.c. X , X componenti il<br />

ti tj<br />

processo. Questa osservazione è di particolare rilievo perché ci dice che in una classe particolare e<br />

limitata di processi stocastici (quella Gaussiana ad esempio) la conoscenza del processo stocastico<br />

(e quindi di tutte le funzioni del processo) può essere ricondotta alla conoscenza di una particolare<br />

categoria di funzioni (quali possono essere i momenti misti ad esempio), a loro volta stimabili dalle<br />

realizzazioni finite (e quindi dalle serie storiche).<br />

Altre distinzioni possono essere fatte con riguardo al comportamento della successione di<br />

v.c. rispetto al parametro t. Si tratta dunque di andare a vedere se le variabili risultino o meno in un


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

qualche equilibrio dinamico rispetto al tempo, in termini di valore atteso, di varianza, di entrambi o<br />

di altre misure ancora. Se un processo stocastico X t presenta una distribuzione di equilibrio quando<br />

t , ovvero sul piano delle realizzazioni è presente una certa “omogeneità temporale” di natura<br />

stocastica, allora potremo parlare di processo stocastico stazionario.<br />

Più precisamente parleremo di processo stocastico stazionario in senso stretto o forte<br />

qualora la distribuzione multivariata delle v.c. ( Xt , X ,..., )<br />

1 t X 2 t non sia funzione di ( t k<br />

1, t2,..., t k )<br />

per ogni k 1.<br />

Formalmente:<br />

( X , X ,..., X ) ( X , X ,..., X ) ( t , t ,..., t ) e j<br />

t1 t2 tk t1 j t2 j tk j 1 2 k<br />

Ne consegue, per k 1,<br />

che XtXt j , e quindi tutte le “marginali” del processo sono<br />

identicamente distribuite, da cui avranno uguale media e varianza<br />

2<br />

Var( Xt ) , t .<br />

EX ( t ) ,<br />

Analogamente, per k 2 , ( X , X ) ( X , X )<br />

t t t jt j . La distribuzione congiunta dipende<br />

1 2 1 2<br />

solamente da t2 t1<br />

e non dalla traslazione j. E così via crescendo in dimensione.<br />

Ne consegue che se si considerano le componenti ( Xt, Xt h)<br />

, ed esistono i momenti fino al secondo<br />

ordine, la covarianza dipende solo da h:<br />

Cov( X , X ) E[( X E( X ))][( X E( X ))] <br />

t th t t th th E[( X )( X )]<br />

<br />

<br />

h<br />

t th Per h 0 la covarianza coincide con la varianza di t X<br />

2<br />

0 Cov( Xt , Xt ) Var( Xt<br />

) <br />

Le covarianze di un processo stocastico stazionario in senso stretto sono funzioni di h 0, 1, 2,... .<br />

La funzione h appena introdotta viene denominata funzione di autocovarianza del processo<br />

ed è una funzione simmetrica, infatti<br />

<br />

Cov( X , X ) Cov( X , X ) <br />

h t th th t<br />

Cov( X s, X sh ) h<br />

(posto t h s )<br />

Si definisce analogamente anche una funzione di autocorrelazione come segue:<br />

{ : h 0, 1, 2,...}<br />

h<br />

Cov( X , X )/[ Var( X ) Var( X )] <br />

h t thtth ( ) <br />

12<br />

h 0 0 h 0<br />

Ed essendo inoltre 0 1 ed ancora h h.<br />

1<br />

2


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

La verifica dell‟ipotesi di stazionarietà in senso stretto è nella maggior parte dei casi reali<br />

quasi impossibile, ci si limita dunque spesso a controllare che siano verificate delle condizioni<br />

meno forti e riguardanti solo i momenti fino al secondo ordine (media, varianza, covarianza). Un<br />

processo che rispetti tali proprietà è definito processo stocastico stazionario in senso lato o debole.<br />

Generalmente si considera solo quest‟ultimo tipo di stazionarietà nelle applicazioni, riconducendo<br />

la verifica alle proprietà di media, varianza e autocovarianza. In particolare diremo che un processo<br />

è stazionario in senso lato se verifica le seguenti condizioni:<br />

1. EX ( t ) , per ogni t<br />

2. EX (<br />

2<br />

) 2<br />

, per ogni t<br />

t<br />

3. E[( Xt )( X s )] st , per ogni coppia ( ts , )<br />

La prima condizione richiede che il valor medio del processo sia costante e pari a al<br />

2<br />

finita e costante al variare di t;<br />

variare di t; la seconda impone che il processo abbia varianza<br />

l‟ultima condizione infine implica che per ogni t e s esista la funzione di autocovarianza fra le<br />

variabili t X e X s . Tutto questo implica l‟esistenza dei momenti fino al secondo ordine, ma non<br />

viene imposta alcuna condizione necessaria sulle funzioni di densità multivariate che caratterizzano<br />

il processo X t . Da questo discende che mentre la stazionarietà in senso stretto implica, quando<br />

esistano i momenti fino al secondo ordine, quella in senso lato, non vale il contrario.<br />

Per quale motivo nella pratica risultano solitamente sufficienti le condizioni deboli di<br />

stazionarietà del processo? Questo è giustificato dal ruolo fondamentale giocato dalla distribuzione<br />

Normale nello studio di molti fenomeni fisici e naturali, per i quali è valido il Teorema del Limite<br />

Centrale: dal momento che, sotto ipotesi di gaussianità, le condizioni di stazionarietà debole sono<br />

sufficienti per avere anche la stazionarietà in senso forte, questo garantisce di potere evitare la<br />

complicata (quando non impossibile) verifica in molteplici situazioni.<br />

Un‟altra proprietà che, come le precedenti, un processo può possedere o meno, è<br />

l‟invertibilità. Si tratta della possibilità di esprimere un processo X t tramite le v.c. precedenti<br />

secondo l‟ordine logico imposto dal parametro t (e quindi ad esempio precedenti temporalmente);<br />

formalmente significa che esistono una funzione lineare h () ed un processo WN A t tali che, per<br />

ogni t, sia possibile scrivere<br />

X h( X , X ,...) A<br />

t t1 t2 t<br />

Quindi la funzione h () collega X t con le variabili X s ( s t)<br />

, e a tale relazione si aggiunge il<br />

processo A t per rendere la stocasticità il processo (in assenza si tratterebbe né più né meno che di<br />

una funzione deterministica di t). L‟invertibilità diventa particolarmente rilevante nello studio di<br />

alcuni modelli che presenteremo in seguito, ma già da qui si può intuire come possa risultare<br />

importante in un‟ottica di previsione, in effetti si tratta della possibilità di regredire il nostro<br />

processo stocastico sui suoi valori passati.<br />

Esiste anche un‟altra classificazione che distingue i cosiddetti processi periodici.<br />

Formalmente diremo che X t è un processo periodico se esiste un valore s tale che, per ogni t<br />

Pr{ Xt Xts} <br />

1


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Dunque un processo periodico si ripete identicamente dopo s unità temporali. Se questo s è<br />

esattamente parti all‟anno solare ( s 1 per dati annuali, s 2 per dati semestrali, s 4 per dati<br />

trimestrali, e così via) allora diremo che il processo periodico è stagionale.<br />

Esistono altri tipi di classificazione di cui non tratteremo, ad eccezione della proprietà di<br />

ergodicità che verrà presentata in seguito. Tutte queste definizioni fanno riferimento ai processi<br />

stocastici e non alle serie storiche, che ne costituiscono solo una realizzazione finita. Si consideri<br />

però che serie storiche stazionarie sono quelle generate da processi stazionari e che processi<br />

gaussiani producono realizzazioni finite che, statisticamente, possono essere ben approssimate da<br />

distribuzioni Normali, e così via. Tranne l‟invertibilità (che è soprattutto una caratteristica teorica<br />

che viene resa operativa dal problema della previsione) le condizioni di stazionarietà e Normalità<br />

del processo sono in genere agevolmente deducibili dalle serie storiche osservate.<br />

Verifica di Stazionarietà (debole) di un Processo<br />

La funzione di autocovarianza introdotta precedentemente ci fornisce uno strumento teorico<br />

per verificare se un processo stocastico X t sia stazionario o meno. Tale procedura può essere<br />

applicata ai dati della serie storica che noi supponiamo essere la realizzazione finita del processo.<br />

La verifica si articola nei seguenti tre passi:<br />

1. Verificare che il valor medio di X t non dipenda da t<br />

2. Calcolare 0 , ovvero Var( X t ) e verificare che sia finita<br />

3. Verificare che h , per h 1,2,... sia una funzione solo di h e non di t<br />

L‟autocovarianza misura il segno e l‟intensità del legame lineare che intercorre fra X t e<br />

X t hal<br />

variare di h; dunque esprime le connessioni fra le v.c. che compongo il processo stocastico<br />

al variare della distanza tra di esse.<br />

D‟ora in avanti considereremo soddisfatta l‟ipotesi di stazionarietà, la quale verrà sottintesa<br />

e non più ovunque specificata.<br />

Nell‟ottica di poter effettuare dei confronti fra più processi stocastici risulta più comodo<br />

affidarsi alla funzione di autocorrelazione la quale ha un campo di variazione ben definito, a<br />

differenza di quella di autocovarianza che ha come dominio tutto il campo reale. Richiamiamo<br />

quindi tale funzione già definita in precedenza come<br />

{ : h 0, 1, 2,...}<br />

h<br />

Cov( X t, X th )<br />

h<br />

<br />

Var( X ) Var( X )<br />

h h<br />

<br />

<br />

0 0<br />

t th 0


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Questa funzione possiede proprietà notevoli, le più importanti delle quali sono:<br />

1. 0 1 <br />

Si tratta infatti di fare il rapporto tra 0 e sé stesso, inoltre 0 è il coefficiente di<br />

correlazione di X t con sé stesso.<br />

2. h h, per ogni h 0,1,2,...<br />

Difatti, come dimostrato in precedenza, h h per la simmetria della covarianza.<br />

3. h 1,<br />

per ogni h 0,1,2,...<br />

Da un punto di vista statistico, sappiamo che la correlazione è definita nel dominio [ 1,1] .<br />

4. ( aX b) ( X ) , per ogni h 0,1,2,... e per qualsiasi coppia reale ( ab , )<br />

h t h t<br />

Questo poiché essendo<br />

proprietà della covarianza, e dal momento che<br />

proprietà di cui sopra.<br />

Cov aX b aX b a Cov X X a X per le<br />

( t , th) 2<br />

( t, th) 2<br />

h( t )<br />

Var( aX t b) 2<br />

a Var( Xt )<br />

2<br />

a 0(<br />

X t )<br />

segue la<br />

5. La matrice di Toeplitz di ordine m associata alla funzione di autocorrelazione di un<br />

processo stazionario è definita positiva.<br />

Ricordiamo brevemente che la matrice di Toeplitz di ordine m, associata a h , è definita per<br />

ogni m 1,2,3,... come<br />

1 1 2 ... m1<br />

<br />

<br />

1 ... <br />

<br />

1 1 m2<br />

<br />

2 1 1 ... m3<br />

<br />

P( m) [ ], ( i, j) 1,2,..., m<br />

ij <br />

. . . ... .<br />

<br />

. . . ... . <br />

<br />

... 1 <br />

m1 m2 m3<br />

<br />

Si tratta quindi di una matrice simmetrica contenente i valori della funzione di<br />

autocorrelazione fino all‟ordine m 1.<br />

Commentiamo brevemente queste proprietà: la 1. e la 3. affermano che la funzione di<br />

autocorrelazione è normalizzata ad 1 e che questo massimo è raggiunto per h 0 . La 2. mostra<br />

che h è simmetrica, per cui la sua analisi viene sempre intrapresa per valori di h positivi. La<br />

proprietà 4. esplicita che l‟autocorrelazione è invariante per traslazione e cambiamento di scala,<br />

per cui un processo X t può essere studiato sotto l‟unità di misura di volta in volta più


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

conveniente. La 5. enuncia una serie di condizioni necessarie e sufficienti affinché una<br />

{1, , ,..., ,...} sia effettivamente la funzione di autocorrelazione di un processo<br />

successione 1 2<br />

m<br />

stazionario. In altri termini, mentre è necessario che sia verificata la 3. per ogni h affinché h<br />

sia una funzione di autocorrelazione, solo la condizione che la matrice di Toeplitz sia definita<br />

positiva per ogni m garantisce che esista un processo stazionario X t che possegga<br />

{ h, 0,1,2,...} h come propria funzione di autocorrelazione. Come è noto una matrice è<br />

definita positiva se e solo se tutti i minori principali di qualsiasi ordine sono positivi; svolgendo<br />

P definita sopra si nota per m 1,2 non risultano particolari<br />

i calcoli sulla generica matrice ( m)<br />

limitazioni sulla funzione h , mentre invece per m 3 discendono condizioni particolarmente<br />

restrittive. In effetti<br />

P<br />

(1)<br />

10 1 <br />

1 0 1 1<br />

1 2<br />

(2) 11 1<br />

1<br />

P<br />

1<br />

1 2<br />

(3) 1 1 2 2 2<br />

1<br />

P<br />

1 (1 )(1 2 ) 0<br />

<br />

2 1<br />

<br />

1<br />

121<br />

<br />

2<br />

2<br />

21 1<br />

E così via per P( ) 0, m<br />

4,5,... . Si nota quindi subito come, mentre per i primi due<br />

m<br />

ordini le condizioni sono banali o ricalcano altre proprietà, già da m 3 la questione si fa più<br />

complicata. La soluzione della disuguaglianza porta ad un vincolo ben preciso, che restringe in<br />

modo consistente lo spazio di definizione della funzione h (per essere precisi lo restringe<br />

esattamente da un‟area di definizione pari a 4 ad una di 10/3, riducendolo quindi di 1/6; per<br />

rendersene conto basti disegnare negli assi cartesiani ( xy , ) ( 2, 1)<br />

le condizioni per m 2 e<br />

m 3,<br />

ne risulterà un quadrato di lato 2 avente baricentro nell‟origine ed una parabola di vertice<br />

(0, 1) che porta l‟area di definizione a coincidere con la sua intersezione con il quadrato.<br />

Per fare un esempio numerico ed intuitivo, se 1 1 2 0,7071<br />

, allora 2 0 (poiché<br />

dalle condizioni per 3<br />

m risulta che dovrà aversi 2<br />

2<br />

<br />

2 1 2 1 2 1 2 2 1 0).<br />

2 1<br />

Questo è senz‟altro notevole ma risulta comunque ragionevole con riguardo all‟aspettativa che<br />

se la correlazione fra t X e X t<br />

1 (a distanza di una unità temporale l‟una dall‟altra, o 1 lag) è<br />

così elevata (circa 70,71%) risulta ragionevole pensare che la correlazione fra t X e X t<br />

2<br />

(distanti 2 lags) non può essere negativa; questo perché il processo in esame possiede quella<br />

omogeneità temporale che abbiamo identificato come la stazionarietà.<br />

Portiamo ora un semplice esercizio che serva ad applicare le nozioni finora acquisite. Sarà<br />

dato un processo stocastico e dovremo verificarne la stazionarietà e costruirne la matrice di<br />

Toeplitz.


Esempio<br />

e<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Siano e due v.c. Normali, indipendenti, di media zero e varianze, rispettivamente,<br />

2<br />

. Definiamo il processo stocastico<br />

X costsin t,<br />

t 1,2,...<br />

t<br />

In cui 0 2<br />

è un numero reale fissato. Trattandosi di una combinazione lineare di due v.c.<br />

Normali e indipendenti, il processo X t è ben definito e si potrebbe calcolarne la generale<br />

funzione di densità multivariata. Calcoliamone però i primi momenti che, dalla definizione del<br />

processo, risulteranno funzione dei momenti di e .<br />

Ricordiamo che, per ipotesi, vale<br />

E( ) E(<br />

) 0 ;<br />

Cov( , ) E(<br />

, ) 0<br />

Avremo quindi per il processo che<br />

Var( ) <br />

2<br />

;<br />

2<br />

Var( ) <br />

E( X ) cos tE( ) sin tE(<br />

) 0 t<br />

t<br />

2 2 2 2<br />

Var( X t ) cos t sin t t<br />

Cov( X , X ) E[( cos t sin t)( cos ( t h) sin (<br />

t h))]<br />

<br />

t th 2 2<br />

cost cos ( t h) E( ) sint sin (<br />

t h) E(<br />

) <br />

cos t cos ( t h) sin t sin ( t h)<br />

2 2<br />

<br />

Come si vede il valor medio è nullo e quindi costante ma varianza e autocovarianza variano<br />

al variare di t, pertanto, in generale, il processo X t è non stazionario.<br />

2<br />

Se tuttavia supponessimo che Var( ) Var( ) allora le espressioni precedenti<br />

diventerebbero<br />

2 2 2 2<br />

Var( X t ) (cos t sin t) t<br />

Cov X X t t h t t h <br />

2<br />

( t, th ) [cos cos ( ) sin sin (<br />

)]<br />

2 2<br />

cos[ ( )] cos<br />

<br />

t k t h t<br />

In definitiva, se Var( ) Var( ) il nostro processo risulta essere stazionario, dal momento<br />

che valgono la condizione 1. di costanza della media, la 2. di costanza e finitezza della varianza<br />

quale che sia t ed infine la 3., ovvero l‟autocovarianza tra t e t h dipende solamente dal lag e<br />

non dall‟istante temporale t.<br />

Sempre sotto le ipotesi suddette la funzione di autocorrelazione del processo risulterà essere<br />

definita da<br />

2


2<br />

h cos<br />

h<br />

2<br />

cos<br />

0 2<br />

<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

h<br />

cos h,<br />

h0,1,2,3,...<br />

h<br />

h<br />

La funzione è esattamente periodica e risulta evidente come non sia funzione di t ma solo<br />

del lag h.<br />

A conferma della proprietà 5. riguardante la matrice di Toeplitz si osservi che<br />

P<br />

P<br />

(1)<br />

2 2<br />

(2) 1 cos sin 0 <br />

P<br />

(3)<br />

10 1 cos<br />

cos 1<br />

1 cos cos2<br />

2<br />

cos 1 cos (1 cos2 )(1 cos2 2cos ) 0<br />

cos2 cos 1<br />

1<br />

cos20 <br />

<br />

2<br />

1 cos2 2cos 0<br />

<br />

<br />

2<br />

Dal momento che cos2 2cos 1 l‟ultimo sistema è verificato per ogni appartenente<br />

all‟insieme di definizione che abbiamo fornito, ovvero 0 2<br />

.<br />

Stima della Funzione di Autocorrelazione e Concetto di Ergodicità<br />

Dal momento che la funzione di autocorrelazione h è una misura della struttura interna del<br />

processo stazionario X t assume particolare importanza la sua stima statistica a partire da una<br />

realizzazione finita, ovvero la nostra serie storica { xt , t 1,2,..., N}<br />

. Una considerazione va fatta<br />

prima di considerare i metodi di stima: i dati di cui disponiamo costituiscono una informazione<br />

congiunta sulle v.c. ( X1, X 2,...,<br />

X N ) e non sulla generica X t che definisce, al variare di t, il<br />

processo. La serie storica è quindi una successione ordinata di N campioni di dimensione<br />

unitaria su N distinte v.c. le quali, generalmente, fra loro non sono indipendenti né somiglianti.<br />

La complicazione di stima dei parametri di un processo si presenta quindi già nello studio dei<br />

primi momenti; si immagini cosa può succedere passando a intere funzioni dei parametri (quali<br />

ad esempio, appunto, l‟autocorrelazione). Le procedure classiche di stima da un campione non<br />

sono quindi generalmente utilizzabili, ma risulta d‟altra parte intuitivo supporre che, una volta<br />

verificata la stazionarietà del processo in esame, sia ragionevole aspettarsi che si possa<br />

pervenire ad utili informazioni sui parametri delle v.c. componenti il processo tramite le<br />

informazioni contenute nella serie storica, e questo in virtù della “omogeneità temporale” che<br />

identifichiamo con la stazionarietà, che garantisce una certa qual “stabilità” nei legami<br />

temporali fra le variabili.<br />

L‟esigenza di poter giungere a risultati utili disponendo di un insieme limitato di<br />

informazioni (la nostra serie storica) ha portato alla definizione dell‟importantissimo concetto di<br />

ergodicità, termine originario delle scienze fisiche che nello studio dei processi stocastici<br />

assume il seguente significato:


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Definizione: Un processo stocastico X t è ergodico rispetto ad un parametro se la stima<br />

temporale del parametro, ottenuta da una serie storica, converge in media<br />

quadratica a quel parametro.<br />

Formalmente, dato ˆ( X T ) T 1,2,..., N stimatore del vero parametro e funzione dei dati della<br />

serie storica, diremo che la condizione di ergodicità è verificata qualora<br />

ˆ<br />

2<br />

lim E[ ( XT)<br />

] 0<br />

T<br />

Cos‟è dunque l‟ergodicità? Può essere intesa come una condizione che limita la memoria del<br />

processo: un processo non ergodico è tale da avere caratteristiche di persistenza così accentuate<br />

da far sì che un segmento del processo (nel nostro caso la serie storica) per quanto lungo, sia<br />

insufficiente a dire alcunché sulle sue caratteristiche distributive. In un processo ergodico, al<br />

contrario, la memoria del processo può essere intesa debole su lunghi orizzonti e all‟aumentare<br />

dell‟ampiezza del campione aumenta in modo significativo anche l‟informazione in nostro<br />

possesso. La considerazione che possiamo fare è quella di reputare virtualmente indipendenti<br />

eventi distanti tra di loro sull‟asse temporale in caso di ergodicità: sotto una simile ipotesi<br />

possiamo supporre possibile l‟osservazione di una parte consistente delle traiettorie che il<br />

processo può generare posta una evidenza campionaria sufficientemente grande. Formalmente<br />

la considerazione enunciata poco fa sull‟incorrelazione di eventi distanti nel tempo si traduce<br />

nella seguente condizione necessaria e sufficiente affinché il processo sia ergodico rispetto al<br />

valor medio è che la sua funzione di autocorrelazione tenda a zero al crescere del lag h.<br />

Esiste inoltre un teorema (detto appunto ergodico) che garantisce che se un processo è ergodico<br />

l‟osservazione di una sua realizzazione “abbastanza” lunga è equivalente, per i fini inferenziali,<br />

all‟osservazione di un grande numero di osservazioni.<br />

In linea generale possiamo dire che solo per processi ergodici e stazionari (nota: la<br />

stazionarietà non implica l‟ergodicità! ne è una prova l‟esempio di prima, in cui il processo era<br />

sì stazionario, ma la sua funzione di autocorrelazione era periodica e non tendeva a zero al<br />

divergere del lag) può porsi correttamente il problema dell‟inferenza statistica sulle serie<br />

storiche. L‟ergodicità garantisce che dall‟unica informazione disponibile, appunto le<br />

osservazioni che compongono la nostra serie storica, sarà possibile risalire a stime consistenti in<br />

senso statistico del processo stazionario X t .<br />

D‟ora in avanti supporremo che i processi con cui lavoreremo siano stazionari ed erodici<br />

fino almeno ai momenti del secondo ordine, di modo da dare un senso all‟approccio<br />

inferenziale.<br />

Passiamo dunque alla stima vera a propria della funzione di autocorrelazione h h 0 . Si<br />

tratta semplicemente di trovare uno stimatore soddisfacente per , 0,1,2,... e di lì ricavare<br />

. Premettiamo che per stimare il valor medio del processo EX ( ) impiegheremo la<br />

h<br />

media campionaria<br />

N<br />

t<br />

t1<br />

asintoticamente normale. Si noti però che la varianza di tale stimatore, che solitamente vale<br />

2<br />

N , viene ad essere alterata da un fattore moltiplicativo a causa della correlazione esistente<br />

h h<br />

x X N , il quale, come è noto, è non distorno, consistente ed<br />

fra le X t .<br />

Per comodità di notazione considereremo il processo scarto Zt Xt , il quale possiede<br />

media nulla e la stessa varianza, autocovarianza e autocorrelazione di X t ( trattandosi di una<br />

t


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

semplice traslazione). In letteratura sono stati proposti diversi stimatori dell‟autocovarianza, fra<br />

i quali citiamo<br />

ˆ <br />

ˆ <br />

ˆ <br />

1<br />

N<br />

(1)<br />

h ZZ t th N t1<br />

1<br />

Nh (2)<br />

h ZZ t th N h t1<br />

1<br />

Nh (3)<br />

h ZZ t th N t1<br />

Lo stimatore per l‟autocorrelazione sarà in ogni caso<br />

ˆ ih , i 1,2,3<br />

ˆ <br />

i h<br />

i<br />

0<br />

(1) ˆ h è dotato di notevoli proprietà teoriche, ma implica una condizione molto<br />

Lo stimatore<br />

restrittiva per il suo utilizzo, ovvero il processo deve ripetersi esattamente dopo N unità<br />

temporali, cioè deve essere del tipo ZN 1 Z1, ZN 2 Z2,..., ZN i<br />

Zi,...<br />

.<br />

Per quanto riguarda gli altri due stimatori si osservi che per N elevato rispetto a k vale<br />

(3) (2) ˆ ˆ , dunque la differenza risulta evidente solo nei piccoli campioni. E‟ stato dimostrato<br />

h h<br />

inoltre che<br />

(2) ˆ h è stimatore corretto per h ma<br />

(3) ˆ h , pur essendo distorto, garantisce un errore<br />

(2) ˆ h , risultando dunque più efficiente e, soprattutto,<br />

quadratico medio inferiore a quello di<br />

verifica la condizione per la quale P ˆ<br />

( m)<br />

, ovvero la matrice di Toeplitz stimata, è definita<br />

positiva, proprio come P ( m)<br />

; questo non avviene necessariamente costruendo P ˆ<br />

( m)<br />

con lo<br />

(2) ˆ h . Per questi motivi di norma la preferenza cade su<br />

stimatore<br />

funzione di autocorrelazione nel modo seguente:<br />

N hNh <br />

Z Z ( X x)( X x)<br />

ˆ <br />

ˆ , h 0,1,2,...<br />

(3)<br />

t thtth h t1 t1<br />

h (3) ˆ 0<br />

N<br />

2<br />

Zt N<br />

(<br />

X t<br />

2<br />

x)<br />

t1 t1<br />

(3) ˆ h e dunque si stima la<br />

Lo stimatore è simmetrico ( ˆ ˆ h h) e pertanto la stima viene effettuata solo per h positivo.<br />

In pratica come si procede? Nota la serie storica ( x1, x2,..., x N ) si costruisce la serie degli<br />

scarti z1 x1 x, calcola<br />

z2 x2 x, ..., zN xN x (dove x è la usuale media campionaria) quindi si<br />

Nh 1<br />

ˆ z z , h 0,1,2,...<br />

<br />

h t th N t1


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

fino ad un lag massimo che l‟esperienza pone pari a N 4 o al suo intero successivo. Fatto<br />

questo si costruiscono i rapporti ˆ ˆ ˆ<br />

h h 0 per h 0,1,2,..., N 4 e si riportano su di un grafico<br />

denominato correlogramma, solitamente a barre verticali per ciascun h per sottolineare che si<br />

tratta di stime in punti discreti; talvolta si uniscono i punti della funzione di autocorrelazione per<br />

evidenziarne l‟andamento complessivo.<br />

Esempio<br />

Sia xt (8.5, 10.3, 9.6, 8.7, 11.2, 9.9, 7.9, 10.9, 11.1, 10.4) la nostra serie storica il cui<br />

grafico è illustrato di qui di seguito<br />

e la quale media campionaria vale x 9.79 (tratteggiata nel grafico). La serie degli scarti è<br />

z ( 1.35, 0.45, 0.25, 1.15, 1.35, 0.05, -1.95, 1.05, 1.25, 0.55) . Dal momento che<br />

t<br />

N=10 N4 2.5 dunque avrà senso calcolare ˆ h solo per h 0,1,2,3 . Dunque<br />

1 1<br />

ˆ 0 <br />

N<br />

N<br />

10<br />

2 2<br />

zi zi<br />

i1 10 t1<br />

1 1.82250.20250.06251.32251.8225 <br />

10 0.0025 3.8025 1.1025 1.5625 0.3025<br />

<br />

1<br />

12.005 1.2<br />

10<br />

N 1<br />

9<br />

1 1<br />

ˆ z z z z <br />

<br />

1 t t1tt1 N i1 10 t1<br />

1 0.60750.11250.28751.55250.0675 <br />

10 0.0975 2.0475 1.3125 0.6875<br />

<br />

1<br />

2.0625 0.21<br />

10


N 2<br />

8<br />

1 1<br />

ˆ z z z z <br />

<br />

2 t t2tt2 N i1 10 t1<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

1 0.33750.51750.33750.0575 <br />

10 2.6325 0.0525 2.4375 0.5775<br />

<br />

1<br />

5.015 0.5<br />

10<br />

N 3<br />

7<br />

1 1<br />

ˆ z z z z <br />

<br />

3 t t3 t 3<br />

N i1 10 t1<br />

1 1.55250.60750.01252.2425 <br />

10 1.4175 0.0625 1.0725<br />

<br />

1<br />

4.7975 0.48<br />

10<br />

Dunque le stime della funzione di autocorrelazione saranno:<br />

ˆ ˆ ˆ 1<br />

0 0 0<br />

ˆ ˆ ˆ 0.21 1.2 0.18<br />

1 1 0<br />

ˆ ˆ ˆ 0.5 1.2 0.42<br />

2 2 0<br />

ˆ ˆ ˆ 0.48 1.2 0.40<br />

3 3 0<br />

Il correlogramma sarà quindi, per i lags h 0,1,2,3 , il seguente:<br />

Le linee tratteggiate delimitano la regione di confidenza approssimata per l‟ipotesi<br />

0 : H Xt WN e si ottengono da 2 N 2 10 0.6325 . In ambiente R, ovvero il software<br />

impiegato per tracciare questi grafici, tale precisazione viene eseguita in automatico nel<br />

momento del calcolo della funzione di autocorrelazione; le bande così ampie, che porterebbero a<br />

non poter rifiutare l‟ipotesi di cui sopra, sono dovute ad un N così piccolo.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Passiamo ora a parlare di un altro importantissimo strumento dell‟analisi dei processi<br />

stazionari, ovvero la funzione di autocorrelazione parziale, il cui ruolo fondamentale risulterà<br />

più chiaro nel seguito, quando tratteremo dei cosiddetti modelli autoregressivi.<br />

Definiamo quindi la funzione di autocorrelazione parziale h al lag h, per h 0, 1, 2,... ,<br />

come la correlazione esistente fra t X e X t h al netto della correlazione esistente fra le v.c.<br />

“intermedie” tra t X e X t h.<br />

Se la definizione può risultare di non semplicissima comprensione, la forma analitica della<br />

funzione è estremamente semplice: la funzione di autocorrelazione parziale è data dal rapporto<br />

fra due determinanti<br />

Con<br />

P<br />

( h)<br />

P<br />

*<br />

( h)<br />

*<br />

P(<br />

h)<br />

h , h 0,1,2,...<br />

P<br />

( h)<br />

1 1 2 ... h1<br />

<br />

<br />

1 ... <br />

<br />

1 1 h2<br />

<br />

2 1 1 ... h3<br />

<br />

;<br />

<br />

. . . ... .<br />

<br />

. . . ... . <br />

<br />

... 1 <br />

h1 h2 h3<br />

<br />

1 1 2 ... 1<br />

<br />

<br />

1 ... <br />

<br />

1 1 2 <br />

2 1 1 ... 3<br />

<br />

<br />

<br />

. . . ... .<br />

<br />

. . . ... . <br />

<br />

... <br />

h1 h2 h3 h <br />

Dove P ( h)<br />

è la matrice di Toeplitz di ordine h, mentre<br />

P è la stessa matrice alla cui ultima<br />

colonna è stato sostituito il vettore composto dai valori della funzione di autocorrelazione fino al<br />

lag h. Dalla proprietà di simmetria di h discende anche quella di h , difatti vale h h,<br />

quindi anche in questo caso i calcoli verranno effettuati esclusivamente per valori positivi di h.<br />

E‟ ovviamente vero che 0 1 , mentre applicando la definizione per h 1,2,3 otteniamo:<br />

1<br />

1 1<br />

1<br />

<br />

1<br />

1<br />

2 <br />

1<br />

1<br />

2<br />

1 <br />

2<br />

2 1<br />

2<br />

1<br />

1<br />

1<br />

<br />

<br />

<br />

1<br />

*<br />

( h)


1<br />

1 1<br />

1 <br />

1 2<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

1 2 2<br />

<br />

2<br />

2 <br />

<br />

2 1 3 3 1 1 1 2 2<br />

3 <br />

2 2<br />

1 1 2 1 1 1 2 21<br />

1 <br />

1 1<br />

2 1<br />

<br />

<br />

<br />

1<br />

<br />

Risultano inoltre univocamente determinabili i valori della funzione di autocorrelazione in<br />

funzione delle autocorrelazioni parziali fino allo stesso lag h:<br />

<br />

1 1<br />

1 <br />

<br />

2 2<br />

2<br />

1 2<br />

2 2 3<br />

2<br />

1 1 1 2 <br />

<br />

3 3 2 1 1 2 1 2 2<br />

E‟ possibile (per quanto non immediato) ricavare una forma analitica generale in modo da<br />

esplicitare h in funzione di h, h<br />

1,..., 1<br />

e viceversa; tale problema è sempre risolubile, per<br />

quanto non molto semplice.<br />

Come si può vedere dalla teoria esposta sino a qui h e h sono l‟una funzione dell‟altra:<br />

h non aggiunge nulla sulla conoscenza del processo che non sia già teoricamente deducibile da<br />

h ; come già accennato l‟importanza della funzione di autocorrelazione parziale risulterà<br />

evidente più avanti, nell‟ambito della stima dei modelli autoregressivi.<br />

Per quanto riguarda la stima della funzione di autocorrelazione parziale il metodo più<br />

immediato consiste nel ricavare le stime di h , ad esempio tramite lo stimatore introdotto<br />

prima, ed andarle a sostituire all‟interno delle matrici definite sopra, di modo da ottenere<br />

*<br />

Pˆ<br />

( h)<br />

ˆ h , h 0,1,2,...<br />

Pˆ<br />

( h)<br />

ˆ *<br />

P ( h)<br />

e P ˆ<br />

( h)<br />

sono, rispettivamente, la matrice di Toeplitz e la stessa modificata di cui già si è<br />

parlato, nelle quali sono stati inseriti i valori stimati della funzione di autocorrelazione.<br />

Analogamente al caso della funzione di autocorrelazione si rappresenta graficamente anche<br />

ˆ h per lo stesso numero di lags per cui è stata stimata h . Tale grafico viene denominato<br />

talvolta come correlogramma parziale.<br />

Esempio<br />

Riprendiamo i dati derivati dalla serie storica dell‟esempio precedente, per la quale avevamo<br />

già stimato i valori della funzione di autocorrelazione fino al lag h 3.


1 1 0<br />

2 2 0<br />

3 3 0<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

ˆ ˆ ˆ 0.21 1.2 0.18<br />

ˆ ˆ ˆ 0.5 1.2 0.42<br />

ˆ ˆ ˆ 0.48 1.2 0.40<br />

Procedendo con i calcoli e sfruttando i risultati presentati in precedenza otteniamo le stime<br />

dell‟autocorrelazione parziale:<br />

ˆ 1<br />

ˆ ˆ<br />

1 1<br />

0.18<br />

1<br />

1 ˆ 1<br />

ˆ <br />

ˆ <br />

ˆ ˆ 0.42 ( 0.18)<br />

0.468<br />

2 2<br />

1 2 2 1<br />

2<br />

1 ˆ 1 2<br />

1 ˆ 1<br />

2<br />

1 ( 0.18)<br />

ˆ 1<br />

1<br />

1 ˆ 1 ˆ 1<br />

ˆ 1 1 ˆ 2<br />

ˆ <br />

ˆ <br />

ˆ ˆ <br />

<br />

ˆ ˆ ˆ ˆ ˆ <br />

<br />

1 2 2<br />

<br />

2<br />

2 <br />

1 1 2 <br />

2 1 3 3 1 1 1 2 2<br />

3<br />

1 ˆ 1 ˆ 2 2 ˆ 1 ˆ 2 2 ˆ 1<br />

ˆ 1 1 ˆ 1<br />

ˆ ˆ 1<br />

2 1<br />

<br />

2 <br />

2<br />

<br />

2<br />

<br />

2 2<br />

1 ( 0.18) 1 ( 0.42) 2( 0.18)<br />

<br />

0.40 1 ( 0.18) 0.18 ( 0.18) ( 0.42) 2( 0.42)<br />

0.398<br />

Come si può notare le stime delle due funzioni sono praticamente coincidenti, a meno di<br />

approssimazioni minime. Nel grafico che segue è riportato il correlogramma parziale del<br />

processo sulla base della serie storica data.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Anche in questo caso sono presenti i limiti approssimati della regione di confidenza al 95%<br />

H X WN . La costruzione è analoga a quella relativa alla funzione di<br />

per l‟ipotesi 0 : t<br />

autocorrelazione, le bande di confidenza sono poste a 2 N 2 10 0.6325 intorno allo<br />

zero; chiaramente nel nostro caso tale specificazione è superflua, dal momento che la serie<br />

storica che è stata impiegata per l‟esercizio è artificiale.<br />

La Classe dei Modelli ARMA<br />

Come si è già visto in precedenza lo scopo dell‟analisi delle serie storiche è quella di risalire<br />

ai processi stocastici che si suppone le abbiano generate; operativamente questo si traduce<br />

nell‟identificazione e nella stima di modelli statistici che garantiscano un accettabile grado di<br />

approssimazione della realtà in esame. Dunque dai dati non si perviene al processo bensì se ne<br />

costruisce una descrizione valida sino a prova contraria: una sintesi cioè ottimale solo fino a che<br />

nuovi dati non porteranno a costruire modelli più convincenti. In generale la conoscenza di un<br />

processo a partire dai dati è proibitiva, dunque si ripiega su di un particolare modello: il<br />

processo stocastico genera la serie storica quale sua realizzazione finita, il modello statistico si<br />

adegua alla serie storica secondo criteri di ottimalità e genera dati che sono simulazioni ottenute<br />

dal modello. Nel seguito presenteremo una classe di modelli statistici che trova il suo impiego<br />

nella descrizione dei processi stocastici, i modelli ARMA. Il passo seguente all‟identificazione è<br />

chiaramente costituito dalla validazione del modello scelto tramite opportune verifiche di<br />

ipotesi; una volta assicurata la bontà del modello si può infine passare alla previsione.<br />

Il Processo a Media Mobile<br />

Sia A t un processo white noise come già definito in precedenza e si consideri il seguente<br />

processo stocastico<br />

Yt At At dove , . Questa serie storica è definita processo a media mobile del primo ordine, e si<br />

indica con MA (1) . Il termine “media mobile” deriva dal fatto che Y t è costruito da una somma<br />

pesata, simile ad una media, dei due più recenti valori di A .<br />

Il valore atteso di Y t è dato da<br />

<br />

E Y E A A E A E A <br />

t t t1 t t1<br />

dal momento che abbiamo definito A t come un white noise, e quindi a media nulla per ogni t.<br />

La varianza di Y t , che coincide chiaramente con la funzione autocovarianza calcolata per un<br />

lag nullo, vale<br />

2 2 2 2 2<br />

t t t1 t 2<br />

t t1 t1<br />

<br />

E Y E A A E A A A A <br />

2 2 2<br />

0 <br />

1 <br />

<br />

2 2<br />

0<br />

1


La prima autocovarianza è<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

<br />

E Y Y E A A A A <br />

t t1 t t1 t1 t2<br />

2 2 2<br />

t t1 t1 t t2 t1 t2<br />

<br />

E A A A A A A A <br />

0 0 0 <br />

2 2<br />

1<br />

Le autocovarianze di ordine superiore sono tutte identicamente nulle.<br />

Dal momento che la media e le autocovarianze non sono funzioni del tempo t, un processo<br />

MA (1) à stazionario quale che sia il valore di . Inoltre è chiaramente soddisfatta la seguente<br />

condizione di ergodicità rispetto alla media<br />

<br />

h<br />

<br />

,<br />

difatti h<br />

2 2 2<br />

1 <br />

<br />

h0<br />

h0<br />

supponendo finito (ed è una assunzione quasi scontata, altrimenti non avrebbe senso la<br />

2<br />

costruzione di un modello) e sapendo che è finito poiché stiamo considerando un disturbo di<br />

tipo white noise (analogo è il discorso sulla condizione di asintoticità verso lo zero: dal<br />

momento che h 0, h 1 è verificata anche quest‟ultima). Inoltre se supponiamo che il<br />

processo di rumore bianco sia anche gaussiano, allora l‟ergodicità è valida con rispetto a tutti i<br />

momenti.<br />

La funzione di autocorrelazione è pari all‟unità per h 0 , mentre per h 1 vale<br />

<br />

2<br />

1 <br />

1 <br />

2 2<br />

2<br />

0 1<br />

1 <br />

le autocorrelazioni di ordine superiore sono tutte identicamente nulle ed è possibile<br />

rappresentare h in un correlogramma.<br />

E‟ interessante notare come esistano sempre due distinti valori di tali da restituire il<br />

medesimo valore della funzione di autocorrelazione. Difatti se andiamo a sostituire a il valore<br />

1 notiamo che<br />

<br />

<br />

<br />

<br />

2<br />

11 <br />

11 11 1<br />

<br />

1 2<br />

2<br />

2<br />

2<br />

Per esempio, i processsi Yt autocorrelazione data da<br />

At 0.5At<br />

1<br />

e Yt At 2At<br />

1<br />

hanno la medesima funzione di<br />

2 0.5<br />

1 0.4<br />

2 2<br />

1210.5


Il grafico di 1<br />

2<br />

1<br />

è il seguente:<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Sono stati simulati quattro processi a media mobile del primo ordine sotto ipotesi di media<br />

nulla e con rumore bianco gaussiano (la stazionarietà non è richiesta in quanto sempre<br />

verificata); di seguito le rappresentazioni grafiche delle serie storiche per un totale di 300<br />

realizzazioni, con i rispettivi correlogrammi (ACF) e correlogrammi parziali (Partial ACF).<br />

Le funzioni di autocorrelazione (ACF) mostrano come, dopo il primo lag, i valori possano<br />

ritenersi ragionevolmente nulli (dal momento che non superano le bande di confidenza; è<br />

accettabile inoltre un valore “anomalo” ogni 20 lag, purché superi in modo non significativo i<br />

valori limite). Questo significa che abbiamo a che fare con modelli a media mobile di ordine 1<br />

(come in effetti sono per costruzione); la vera utilità di questo genere di considerazioni grafiche<br />

risiede nel fatto che nella cosiddetta fase di identificazione dei modelli possiamo essere in<br />

grado, semplicemente costruendo i correlogrammi campionari dalla nostra serie storica, di<br />

orientarci verso un tipo di modello o verso un altro a seconda della “forma” della funzione di<br />

autocorrelazione .<br />

Le funzioni di autocorrelazione parziale (Partial ACF), invece, mostrano un andamento<br />

decrescente e convergente verso lo zero: questo è tipico dei modelli a media mobile.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Definiamo ora il processo a media mobile di ordine q, che indicheremo con MA( q ) , nel<br />

seguente modo:<br />

Y A A A A<br />

t t 1 t1 2 t2 ... q<br />

tq Ovvero estendiamo ad un numero di q termini la somma pesata dei white noise che riteniamo<br />

descrivano la nostra Y t . In pratica viene aumentato il peso delle informazioni fornite dai disturbi<br />

più lontani nel tempo, fino ad un lag, appunto, pari a q. MA (1) è chiaramente un caso<br />

particolare di processo a media mobile di ordine q nel quale i pesi j risultino pari a zero per<br />

j 1.<br />

Calcoliamo il valore atteso del processo<br />

La varianza sarà<br />

t t 1 t1 2 t2 ... q<br />

tq <br />

E At 1EAt1... qE At<br />

q<br />

E Y E A A A A <br />

<br />

2<br />

2<br />

<br />

0 E Yt E At 1At 1 2At 2 ... q At<br />

q<br />

dal momento che, per ipotesi, i rumori bianchi sono incorrelati tra di loro la varianza della<br />

somma sarà semplicemente pari alla somma delle varianze, ovvero<br />

<br />

... 1 ... <br />

2 2 2 2 2 2 2 2 2 2 2<br />

0 1 2 q 1 2<br />

q<br />

Si ricava inoltre (non lo dimostriamo ma è semplice ottenerlo) che<br />

2<br />

h h h q qh 1 1 2 2 ... h1,2,..., q<br />

h <br />

0<br />

hq Per esempio in un processo MA (3) avremo che:<br />

1 <br />

<br />

<br />

2 2 2 2<br />

0 1 2 3<br />

<br />

2<br />

2<br />

2<br />

<br />

<br />

1 1 2 1 3 2<br />

<br />

2 2 3 1<br />

<br />

3 3<br />

... 0<br />

4 5<br />

La funzione di autocorrelazione segue automaticamente rapportando i valori di h alla<br />

varianza, ed è identicamente nulla per h q,<br />

dunque anche il processo MA( q ) risulta essere<br />

stazionario, quali che siano i valori dei parametri j ; inoltre, come già per il processo di ordine


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

1, se il disturbo è di tipo white noise gaussiano è rispettata anche l‟ergodicità rispetto a tutti i<br />

momenti.<br />

Di seguito quattro esempi di processo (2)<br />

MA ; le considerazioni sono le medesime già fatte<br />

per il caso del modello a media mobile di primo ordine e ancora una volta supponiamo valor<br />

medio nullo e disturbi di tipo white noise gaussiano.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis


Il processo MA( q ) può essere scritto come<br />

Si consideri cosa succede quando q :<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Y A , 1<br />

t j t j<br />

j0<br />

q<br />

<br />

<br />

Y A A A A ...<br />

<br />

t j t j 0 t 1 t1 2 t2<br />

j0<br />

Questo può essere considerato un processo MA( ) , che risulta essere stazionario se è verificata<br />

la seguente condizione:<br />

<br />

<br />

j0<br />

<br />

2<br />

j<br />

<br />

Spesso si considera la condizione leggermente più restrittiva<br />

Una sequenza di coefficienti j<br />

j<br />

0<br />

<br />

<br />

<br />

j0<br />

<br />

j<br />

<br />

0<br />

che rispetti le condizioni sopraelencate viene definita,<br />

rispettivamente, di quadrato sommabile e assolutamente sommabile. Questo garantisce anche<br />

che sia rispettata la condizione di ergodicità rispetto alla media (<br />

<br />

<br />

h0<br />

<br />

h<br />

),<br />

in effetti anche le<br />

covarianze sono assolutamente sommabili. Il valor medio del processo MA( ) rimane<br />

comunque , mentre i momenti di ordine superiore basta far tendere ad infinito l‟ordine q nelle<br />

espressioni già ricavate e calcolare il limite.<br />

Il Processo Autoregressivo<br />

Un processo autoregressivo del primo ordine, indicato con AR (1) , soddisfa la seguente<br />

equazione:<br />

Y c Y A<br />

t t1 t<br />

Ancora una volta A t è il rumore bianco che soddisfa tutte le proprietà già discusse e c, .<br />

Come si può vedere si tratta di una equazione alle differenze finite di ordine 1, ed è noto<br />

dalla teoria che se 1 la conseguenza degli t A sulla Y t tenderanno ad accumularsi nel tempo<br />

piuttosto che tendere a zero. Dovrebbe risultare dunque sufficientemente intuitivo comprendere<br />

la seguente affermazione: qualora 1,<br />

allora non esiste un processo stazionario Y t che<br />

soddisfi l’equazione Yt Yt1 At<br />

.<br />

In caso invece sia 1,<br />

allora esiste un processo stazionario Y t che soddisfi l‟equazione e<br />

che sarà dato dalla soluzione stabile


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

1 2<br />

2 3<br />

3<br />

<br />

c1 <br />

A A<br />

2<br />

A<br />

3<br />

A ...<br />

Y c A c A c A c A ... <br />

t t t t t<br />

tt1<br />

t2 t3<br />

<br />

j<br />

Tale soluzione può essere vista come un processo MA( ) con . Qualora la condizione<br />

1 sia soddisfatta, allora avremo<br />

j 1<br />

<br />

1<br />

<br />

<br />

<br />

j<br />

j0 j0<br />

La convergenza di questa serie garantisce l‟esistenza della rappresentazione MA( ) e<br />

l‟ergodicità rispetto alla media del processo AR (1) .<br />

Calcolando il valore atteso della soluzione otteniamo che<br />

Dunque la media di un processo (1)<br />

La varianza invece è<br />

mentre la h-esima autocovarianza vale<br />

<br />

E Yt c1 0 0 ...<br />

AR stazionario vale c 1 <br />

.<br />

t<br />

2<br />

t t1 2<br />

t2 3<br />

t3<br />

... <br />

2 4 6 2<br />

1 ... <br />

<br />

2<br />

<br />

2 1 0<br />

E Y E A A A A <br />

t th t t1 2<br />

t2 ...<br />

h<br />

th h1 th 1 h2<br />

th 2<br />

... <br />

2<br />

At h Ath1 At<br />

h2 ... <br />

E Y Y E A A A A A A <br />

<br />

<br />

<br />

<br />

h h2h4 2<br />

... <br />

<br />

<br />

<br />

<br />

h 2 4 2<br />

1 ... <br />

1 <br />

<br />

<br />

<br />

h 2 2<br />

h<br />

Segue immediatamente l‟espressione della funzione di autocorrelazione, pari a<br />

0<br />

<br />

<br />

<br />

<br />

h 2 2 h 2 2<br />

<br />

11 h<br />

h<br />

h <br />

<br />

2 2 2 2<br />

11 j<br />

2


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

la quale rispetta la condizione di convergenza a 0, sotto ipotesi di stazionarietà, dal momento<br />

che si è supposto 1.<br />

Sono stati simulati quattro processi autoregressivi del primo ordine sotto ipotesi di<br />

stazionarietà, media nulla e con rumore bianco gaussiano; di seguito le rappresentazioni<br />

grafiche delle serie storiche per un totale di 300 realizzazioni, con i rispettivi correlogrammi<br />

(ACF) e correlogrammi parziali (Partial ACF).<br />

Si noti come le funzioni di autocorrelazione decrescono progressivamente e lentamente<br />

verso lo zero (l‟alternanza dei segni dipende unicamente dal segno del parametro ), questa è<br />

una caratteristica tipica dei processi di tipo AR ; le funzioni di autocorrelazione parziale invece<br />

presentano un solo valore significativamente al di fuori delle bande di confidenza, il primo,<br />

questo ci fornisce l‟indicazione che si tratti di processi del primo ordine. Nelle Partial ACF i<br />

valori successivi al primo non sono nulli come vorrebbe la teoria, ma questo è imputabile al<br />

caso, possiamo accettare l‟ipotesi di in correlazione temporale per lag superiori a 1 dal<br />

momento che, appunto, i valori della funzione non superano le bande di confidenza (è<br />

accettabile inoltre un valore “anomalo” ogni 20 lag, purché superi in modo non significativo i<br />

valori limite)


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Cosa succede però se la condizione di stazionarietà non è rispettata (ovvero se il parametro è<br />

tale che 1)?<br />

Il processo esplode. Nel grafico che segue sono state rappresentate le<br />

simulazioni di due processi autoregressivi con parametri superiori in modulo a 1, seppure di<br />

pochissimo.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Chiaramente la stazionarietà non è più rispettata, e sebbene le funzioni di autocorrelazione<br />

ed autocorrelazione parziale conservino un andamento che potremmo definire “ideale”, risulta<br />

evidente come l‟esplosione dei valori renda il modello assolutamente instabile.<br />

Analogamente al caso del processo a media mobile, possiamo estendere il concetto di<br />

autoregressione ad ordini superiori; rendiamo, cioè, significative informazioni sul processo più<br />

lontane nel tempo, fornendo loro pesi non nulli.<br />

Si definisce processo autoregressivo di ordine p e si indica con AR( p ) il seguente:<br />

Y c Y Y Y A<br />

t 1 t1 2 t2 ... p t p t<br />

Ovvero estendiamo ad un numero di p termini la somma pesata dei valori passati della nostra Y t ,<br />

con l‟aggiunta di un termine di disturbo white noise A t . Risulta evidente come il processo<br />

AR (1) presentato in precedenza altro non sia che un caso particolare di quest‟ultimo, con 0<br />

per 1<br />

j .<br />

A differenza del processo a media mobile, come si è già detto, la stazionarietà non è<br />

necessariamente rispettata; dobbiamo dunque imporre delle condizioni sui parametri del<br />

j


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

modello. In particolare richiederemo che i coefficienti j associati alle radici dell‟equazione<br />

omogenea associata<br />

2<br />

p<br />

1 12... p<br />

0<br />

siano tali da garantire che 1 j . In questo caso il processo non esplode e si mantiene<br />

j<br />

stazionario.<br />

Nel caso di un processo AR (2) questa condizione è graficamente rappresentabile in modo<br />

comprensibile; si tratta infatti della condizione che i due parametri 1 e 2 si trovino all‟interno<br />

del triangolo tratteggiato nella figura sottostantante.<br />

Sotto l‟ipotesi di stazionarietà il valore atteso del processo è:<br />

c<br />

EY <br />

t 1 ... <br />

1 2<br />

e sfruttando questa espressione l‟equazione che descrive il processo può essere riscritta nel<br />

modo seguente:<br />

<br />

Y Y Y Y A<br />

t 1 t 1 2 t 2 ... p t p t<br />

Le autocovarianze si possono quindi ottenere semplicemente moltiplicando ambo i membri<br />

Y e prendendone i valori attesi; ne risulta che:<br />

dell‟ultima equazione per <br />

th 1 h1 2 h2 ... p h p h 1,2,...<br />

h <br />

2<br />

1 1 2 2 ... pp h 0<br />

p<br />

) questo<br />

Sfruttando la nota proprietà di simmetria della funzione di autocovarianza ( h h<br />

sistema di equazioni può essere risolto per<br />

2<br />

0, 1,..., p in funzione di , 1, 2,..., p . Per<br />

ricavare la funzione di autocorrelazione basterà dividere per 0 , quindi:


chiaramente 0 1 .<br />

<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

<br />

h 1 h1 2 h2 ... p h p<br />

L‟espressione precedente, esplicitata per h 1,2,... , dà origine al cosiddetto sistema di<br />

equazioni di Yule-Walker, che costituisce lo strumento fondamentale per la stima dei parametri<br />

del modello autoregressivo. Come già detto è possibile, noti che siano i parametri e la varianza<br />

del disturbo, stimare i valori della funzione di autocovarianza (e quindi di autocorrelazione); ciò<br />

che risulta invece di effettivo interesse operativo è proprio l‟operazione inversa, in effetti noi<br />

disponiamo della serie storica dei dati dalla quale, come si è già mostrato negli esempi, si<br />

possono stimare i valori della funzione di autocorrelazione. Tramite il sistema di equazioni di<br />

Yule-Walker abbiamo quindi la possibilità di stimare i parametri (ignoti) del modello<br />

autoregressivo che meglio approssimi il processo stocastico (a tutti gli effetti inconoscibile nella<br />

sua completezza) di cui la serie storica rappresenta una realizzazione finita.<br />

Il sistema di equazioni di Yule-Walker si presenta in forma lineare per il processo<br />

autoregressivo, e può essere esplicitato come segue:<br />

1 1 2 1 3 2 ... <br />

pp1 <br />

2 11 2 3 1 ... <br />

pp2 <br />

<br />

.....<br />

<br />

.....<br />

<br />

p 1 p1 2 p2 3 p3 ... <br />

<br />

p<br />

Dunque potremo sostituire ai valori j le loro stime ˆ j ottenute dalla serie storica, ed<br />

ottenere quindi le stime ˆ j dei parametri del modello. Si noti inoltri che la soluzione è unica, dal<br />

momento che la matrice del sistema altro non è che la matrice di Toeplitz di ordine p, P ( p)<br />

, la<br />

quale è definita positiva per ogni p quando il processo è stazionario.<br />

L‟approccio di Yule-Walker per la stima dei parametri è applicabile anche ai processi a<br />

media mobile, si ricava però un sistema non lineare di equazioni, che richiede una procedura di<br />

calcolo iterativa particolare. Risulta così più laborioso determinare le stime ˆ j, j 1,2,..., q in<br />

base a stime delle autocorrelazioni ˆ j, j 1,2,..., q determinate dall‟evidenza campionaria (la<br />

nostra serie storica).<br />

Seguono alcuni esempi di processi autoregressivi del secondo ordine; le considerazioni sono<br />

esattamente le stesse già presentate per quelli del primo ordine (stazionarietà, media nulla,<br />

disturbo white noise gaussiano). Le quattro simulazioni sono state effettuate con alternanza di<br />

segni dei parametri 1, 2 per rendere evidenti le differenti forme delle funzioni di<br />

autocorrelazione.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Abbiamo presentato in precedenza la condizione affinché un processo autoregressivo del<br />

, si trovi all‟interno del<br />

secondo ordine sia stazionario, ovvero che il punto di coordinate 1 2<br />

triangolo tratteggiato in figura. Analogamente al caso dei processi di tipo AR 1 anche quelli di<br />

ordine superiore esplodono qualora non siano rispettate le condizioni sui parametri, ne vediamo<br />

di seguito qualche esempio grafico:


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Volendo riassumere brevemente quanto detto finora possiamo sottolineare il carattere di<br />

dualità tra i processi AR e MA .<br />

I processi di tipo AR rispondono al tentativo di spiegare il presente in funzione del<br />

passato, fino ad una certa “distanza” p, per contro i modelli di tipo MA rappresentano un<br />

tentativo di spiegare il presente come risultante da una successione incontrollata di<br />

impulsi casuali, statisticamente riassunti nel white noise A t .<br />

In un processo AR( p ) non sono imposte condizioni per i parametri in modo da<br />

assicurare l‟invertibilità, mentre si richiedono per la stazionarietà.<br />

In un processo MAq non sono imposte condizioni sui parametri per quanto riguarda la<br />

stazionarietà, mentre le si impongono per l‟invertibilità.<br />

Per ogni processo AR( p ) stazionario esiste una rappresentazione unica del tipo<br />

MA , e per ogni processo MAq invertibile ne esiste una del tipo AR .<br />

Nei processi MAq teorici il correlogramma si annulla bruscamente per h q,<br />

il<br />

correlogramma parziale invece decresce lentamente con andamento dipendente dal<br />

segno dei parametri j .<br />

Nei processi AR( p ) teorici il correlogramma parziale si annulla bruscamente per h q<br />

mentre il correlogramma decresce lentamente con andamento dipendente dal segno dei<br />

parametri j .<br />

All‟atto pratico si considerano come nulle, al fine dell‟identificazione del modello a<br />

partire dai dati, quelle autocorrelazioni che restino comprese fra le due bande tratteggiate<br />

nei correlogrammi, con un livello di confidenza del 95%.<br />

I Modelli Autoregressivi a Media Mobile<br />

Un modello del tipo autoregressivo a media mobile di ordini p e q, indicato con<br />

ARMA( p, q ) , è un costrutto statistico che comprende sia termini autoregressivi che a media<br />

mobile e può essere espresso come segue:<br />

Y c Y Y ... Y A A A ... A<br />

t 1 t1 2 t2 p t p t 1 t1 2 t2 q tq Per comodità di rappresentazione introduciamo ora l‟operatore retrocessore o backward B<br />

secondo la seguente definizione:<br />

0<br />

B X t Yt<br />

BX Y<br />

t t1<br />

2<br />

B X t Yt2<br />

...<br />

k<br />

B X t Yt<br />

k<br />

Trattandosi di un operatore lineare vale la seguente: <br />

0 1B Xt 0X t 1X t1<br />

.<br />

Se consideriamo il processo MA( q ) Y t con media supposta nulla possiamo scriverlo<br />

sfruttando l‟operatore B come


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Y A A A ... <br />

A<br />

t t 1 t1 2 t2 q tq Y A BA B A ... <br />

B A<br />

2<br />

q<br />

t t 1 t 2 t q t<br />

Y<br />

<br />

B<br />

<br />

A<br />

<br />

Y B A<br />

q<br />

t 1j j1<br />

j<br />

t<br />

t t<br />

mentre un processo AR( p ) Y t con termine c pari a zero può essere rappresentato come<br />

Y Y Y ... Y A<br />

t 1 t1 2 t2 p t p t<br />

Y BY B Y ... B Y A<br />

2<br />

p<br />

t 1 t 2 t p t t<br />

<br />

p<br />

j<br />

1jBYt At<br />

j1<br />

<br />

<br />

B Y A<br />

t t<br />

Notiamo anche in questa sede la dualità già discussa in precedenza: le funzioni B e<br />

B sono dei filtri lineari che, in questa formulazione, nel caso dei modelli AR( p ) filtrano<br />

l‟informazione passata e restituiscono “l‟innovazione” sotto forma di un rumore bianco, nel<br />

caso dei modelli MA( q ) filtrano i disturbi passati e restituiscono l‟informazione al tempo<br />

presente. L‟utilità di questa rappresentazione risulta evidente qualora ci interessasse ricavare i<br />

parametri del modello di ordine infinito di tipo AR associato al MA di ordine finito (qualora<br />

sia rispettata l‟invertibilità) o viceversa; si noti infatti che le relazioni definite prima permettono<br />

di scrivere:<br />

B Yt<br />

At<br />

B B At At<br />

BB1 B 1BB1B <br />

<br />

<br />

<br />

Seguendo la notazione appena introdotta potremo quindi esprimere il processo di tipo<br />

ARMA( p, q ) come segue:<br />

Y Y Y ... Y c A A A ... <br />

A<br />

t 1 t1 2 t2 p t p t 1 t1 2 t2 q tq <br />

1 <br />

<br />

<br />

<br />

<br />

<br />

1 <br />

<br />

<br />

<br />

B Y c B A<br />

p q<br />

j<br />

jBYtc j<br />

jBAt<br />

j1 j1<br />

<br />

t t<br />

I modelli ARMA dunque altro non sono che combinazioni dei modelli autoregressivo e a<br />

media mobile. L‟importanza pratica del modello misto risiede nel fatto che per molte serie


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

temporali esso richiede un numero di parametri inferiore a quelli necessari per un modello<br />

autoregressivo puro.<br />

ARMA p, q sia stazionario è legata alle radici<br />

La condizione affinché un processo <br />

dell‟equazione caratteristica della parte autoregressiva del modello, che si ottiene uguagliando a<br />

B . Si tratta esattamente delle stesse condizioni imposte per il modello<br />

zero l‟operatore <br />

AR p e già discusse in precedenza, e rileggendole alla luce della nuova formulazione<br />

richiedono che le radici B , j 1,..., p dell‟operatore siano tutte in modulo superiori ad 1 (nel<br />

j<br />

caso AR 2 questa condizione si riflette sui parametri in modo da costringerli all‟interno del<br />

triangolo di cui in precedenza). In questo caso per il processo esiste anche una rappresentazione<br />

del tipo MA .<br />

Analogamente la condizione per l‟invertibilità coincide con quella già presentata relativa al<br />

modello MAq , ovvero è legata alle radici dell‟equazione caratteristica della parte a media<br />

mobile, che si ottiene uguagliando a zero l‟operatore B . Le radici B , j 1,..., q dovranno<br />

essere tutte in modulo superiori ad 1. In questo caso per il processo esiste anche una<br />

rappresentazione del tipo AR .<br />

In sostanza: se il processo ARMA p, q è stazionario ed invertibile lo si può approssimare,<br />

trascurando un certo numero di termini, in un processo AR p o in un MAq .<br />

Risulta inoltre chiaramente che i processi autoregressivo di ordine p e a media mobile di<br />

ARMA p, q , infatti:<br />

ordine q sono casi particolari del più generale <br />

p 0 ARMA p, q MAq <br />

q 0 ARMA p, q AR p<br />

Il valore atteso del processo risulta essere:<br />

t 1 t1ptp E Y c E Y ... E Y 0 0 ... 0<br />

c<br />

EY t <br />

1 ... <br />

1 2<br />

La funzione di autocovarianza è fornita dalle seguenti due relazioni:<br />

dove <br />

<br />

h 1 h1 ... p h p h 1 h1 ... q hq hq <br />

h 1 h1 2 h2 ... p h p<br />

hq <br />

h E Yt E Yt At E At<br />

<br />

è la covarianza incrociata tra le variabili t Y e A t .<br />

La varianza ha quindi, per le note proprietà di simmetria della covarianza, la seguente<br />

espressione:<br />

... ... <br />

<br />

2 <br />

0 1 1 p p 1 1<br />

q p<br />

p<br />

j


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

si noti che è possibile calcolare la varianza soltanto se sono note 1 ,..., p , che si trovano<br />

risolvendo la funzione di autocovarianza espressa nel sistema precedente.<br />

L‟autocorrelazione risulta immediatamente dalla seconda equazione del sistema e vale<br />

<br />

h 1 h1 2 h2 ... p h p h q<br />

La funzione di autocorrelazione può avere andamenti molto diversi, la regola generale è che<br />

i primi q coefficienti sono sostanzialmente arbitrari, dopo di che la ACF converge verso lo zero<br />

come fa, a partire da zero, la funzione di autocorrelazione di un AR p . Dunque la ACF è<br />

composta da un numero infinito di termini, e così anche la funzione di autocorrelazione parziale,<br />

che si comporta nello stesso modo ma invertendo i termini (a q si sostituisce p e ad AR p <br />

MA( q ) . Di seguito i grafici teorici delle funzioni di autocorrelazione e autocorrelazione parziale<br />

per alcuni processi di tipo ARMA p, q .


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

E‟ importante notare che, a parte per la „regola generale‟ di prima, non arrestandosi ad un<br />

certo lag queste funzioni non ci forniscono indicazioni sull‟ordine di un eventuale modello<br />

autoregressivo a media mobile da applicare ai dati.<br />

Vediamo ora il caso più semplice ed impiegato di modello misto, l‟ ARMA 1,1 , che è<br />

esprimibile nella forma<br />

Y c YA A<br />

t 1 t1t1t1 La condizione di stazionarietà di un processo ARMA p, q coincide con quella di un<br />

modello del tipo <br />

1.<br />

AR p , dunque il processo è stazionario a condizione che 1


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

La condizione di invertibilità è la stessa di un processo MAq , dunque nel nostro caso sarà<br />

verificata qualora 1 1.<br />

Il valor medio risulta essere EY <br />

t<br />

c<br />

, mentre la funzione di autocovarianza vale<br />

1<br />

1<br />

12 <br />

0 <br />

2<br />

1 0 <br />

2<br />

<br />

2<br />

1<br />

2<br />

2 1 1<br />

2<br />

0 <br />

2<br />

1<br />

2<br />

1<br />

1<br />

1 1 2<br />

2<br />

1 1 0 1<br />

h 1 h1<br />

h1<br />

1 1<br />

L‟autocorrelazione segue immediatamente rapportando h a 0 . In generale (per h 2 )<br />

varrà che h 1h1. In condizioni di stazionarietà questa funzione decresce verso lo zero al<br />

crescere del lag h secondo un andamento smorzato di tipo esponenziale con segni dipendenti dal<br />

segno di 1.<br />

Di seguito si riportano i grafici di quattro simulazioni di processi ARMA 1,1 al variare dei<br />

parametri 1<br />

e 1<br />

. Si mostra anche cosa succede qualora la condizione di stazionarietà non sia<br />

rispettata.


<strong>Serie</strong> <strong>Storiche</strong> e <strong>Processi</strong> <strong>Stocastici</strong> – Federico Andreis<br />

Se invece non è rispettata la condizione di stazionarietà 1 1 il software si rifiuta di<br />

rappresentare i modelli facendo notare che non sono stazionari, ma per farci un‟idea possiamo<br />

imporre un valore di 1 molto prossimo ad 1, diciamo 0.999:

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!