20.05.2013 Views

lezione 8

lezione 8

lezione 8

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

1 Modelli per serie storiche univari-<br />

ate<br />

Caratteristiche delle serie storiche:<br />

fytg<br />

l’ordine t non puo’essere variato; v.c. non indipendenti;<br />

non replicabili (i dati si ottengono da una sola realizzazione)<br />

bisogna dunque essere rigorosi nello speci…care<br />

la natura stocastica del modello, i.e. valora atteso, varianza,<br />

covarianza, autocovarianza, autocorrelazione.<br />

Le serie storiche sono soprattutto utili a fare previsioni<br />

Un processo tipico e fra l’altro già incontrato e’il processo<br />

Autoregressivo di ordine uno<br />

yt = + yt 1 + "t (1)<br />

non ha un interpretazione casuale. Assumendo che


1. j j < 1<br />

2. "t e’un processo white noise, omoschedastico e privo<br />

di autocorrelazione.<br />

Otteniamo:<br />

= E(yt) = + E(yt 1) + "t<br />

E(yt) = + E(yt 1)<br />

= 1<br />

de…nendo cyt come yt centrato cyt = yt<br />

la (1) come<br />

cyt = cyt 1 + "t<br />

V (yt) = V ( + yt 1 + "t)<br />

= ( 2 V (yt 1) + 2 )<br />

dato che V (yt) = V (yt 1)<br />

V (yt) =<br />

1 2<br />

Cov(ytyt 1) = E(cyt cyt 1)<br />

2<br />

riscriviamo


= E [( cyt 1 + "t) (cyt 1)]<br />

= V (yt)<br />

=<br />

1 2<br />

potete ottenere allo stesso modo che<br />

2<br />

Cov(ytyt k) = k<br />

1 2<br />

cioe’la Cov(ytyt k) dipende solo da k e non da t.<br />

Processo a Media Mobile di ordine uno<br />

yt = + "t + "t 1<br />

V (yt) = E("t + "t 1) 2<br />

= E("t) 2 + 2 E("t 1) 2<br />

= (1 + 2 ) 2<br />

Cov(ytyt 1) = E [("t + "t 1) ("t 1 + "t 2)]<br />

= E h i<br />

=<br />

Cov(ytyt 2) = 0<br />

2<br />

" 2 t 1<br />

Cov(yty t k) = 0 per k = 2; 3; 4::<br />

2


Se j j < 1 un processo AR puo’essere riscritto come un<br />

processo MA per sostituzione di yt 1 = + yt 2+"t 1;<br />

yt 1 = (yt 2 ) + "t 1 in (1) otteniamo<br />

yt = + 2 (yt 2 ) + "t + "t 1<br />

sostituendo ancora yt 2 = (yt 3 ) + "t 2<br />

abbiamo<br />

yt = + 2 ( (yt 3 ) + "t 2) + "t + "t 1<br />

= + 3 (yt 3 ) + "t + "t 1 + 2 "t 2<br />

continuando le sostituzioni si ottiene<br />

dove<br />

n 1<br />

P<br />

j=0<br />

yt = + n (yt n ) +<br />

n 1<br />

P<br />

j=0<br />

j "t j e’una componente MA<br />

j "t j


1.0.1 Operatore ritardo<br />

Un modo alternativo di rappresentazione<br />

Lyt = yt 1<br />

L j yt = yt j<br />

AR(1) ) yt = 1yt 1 + "t<br />

yt 1yt 1 = "t<br />

(1 1L)yt = "t<br />

1.1 Stazionarieta’<br />

yt =<br />

"t<br />

1 1L<br />

La stazionarieta’e’importantissima per la previsione


In senso stretto l’intera distribuzione di probabilita’congiunta<br />

a qualsiasi insieme di date non e’in‡uenzata da<br />

uno slittamento arbitrario lungo l’asse del tempo.<br />

In senso debole Media, Varianza e Covarianza sono indipendenti<br />

dal tempo. La covarianza dipende solo dalla<br />

lunghezza dell’intervallo che separa due osservazioni.<br />

E(yt) = < 1<br />

V (yt) = 0 < 1<br />

Cov(yty t k) = k; k = 1; 2; 3::<br />

Stazionarieta’in senso debole. Esempio Processo White<br />

Noise<br />

autocovarianza<br />

autocorrelazione<br />

"t N(0; 2 " )<br />

k = Cov(yt; y t k) = Cov(y t k; yt)<br />

k = Cov(yt; y t k)<br />

V (yt)<br />

= k<br />

0


Funzione di autocorrelazione ACF: autocorrelazioni in funzione<br />

di k. Descrive la dipendenza fra le osservazioni.<br />

Per k = 2; 3; 4::<br />

processo AR(1)<br />

yt = + yt 1 + "t<br />

k = k<br />

0<br />

=<br />

k<br />

2<br />

1 2<br />

2<br />

1 2<br />

= k


processo MA(1)<br />

yt = + "t + "t 1<br />

1 = 1<br />

0<br />

e k = k<br />

0<br />

2<br />

=<br />

(1 + 2 ) 2 = 1 + 2<br />

0<br />

=<br />

(1 + 2 = 0<br />

) 2


1.2 Stazionarieta’e radici unitarie<br />

I processi MA(1) sono sempre stazionari.<br />

Un processo AR(1) si dice stazionario quando j j < 1<br />

yt = + yt 1 + "t<br />

Processi autoregressivi non stazionari:


1. Processi Di¤erenza Stazionari (DS), (in (1) =<br />

1)<br />

Es.:<br />

Random Walk yt = yt 1 + "t<br />

Random Walk plus drift yt = + yt 1 + "t<br />

V (cyt) = V (cyt 1) + 2<br />

Non c’è soluzione a meno che 2 = 0, la varianza è<br />

in…nita sia che = 1 e > 1.<br />

In alcuni casi e’ su¢ ciente calcolare le di¤erenze per<br />

trasformare una serie non stazionaria in stazionaria. Un<br />

random walk (processo non stazionario) si trasforma in<br />

un white noise ( processo stazionario)<br />

yt yt 1 = + "t<br />

Integrato di ordine uno I(1) yt = (yt yt 1)<br />

Integrato di ordine due I(2)<br />

2<br />

yt = ( yt yt 1)


1. Processi Trend Stazionari (TS). Processi di lungo<br />

periodo che hanno la media non costante nel tempo.<br />

yt = + t + "t<br />

f + tg trend deterministico. E’un processo trend<br />

stazionario nel senso che basta inserire un trend e<br />

diventa stazionario. Detrendizzazione


1.3 Test di radice unitaria<br />

Per il processo AR(1)<br />

yt = + yt 1 + "t<br />

= 1 corrisponde al test di radice unitaria. Dickey Fuller<br />

(1979) dimostrano che, dato che yt non e’stazionario, lo<br />

stimatore OLS di ^ non ha una distribuzione t. Dunque<br />

in alternativa e’stata proposta la seguente statistica<br />

DF =<br />

1<br />

s:e:(^)<br />

dove ^ e’stimato tramite un OLS ma i valori critici sono<br />

ricavati da una distribuzione corretta.<br />

H0 : = 1 Random Walk DS<br />

H1 : j j < 1 Stazionario<br />

al 5% t DF = 2; 86


Per convenienza di solito si riscrive il modello come<br />

dato che<br />

yt = + ( 1) yt 1 + "t (2)<br />

yt yt 1 = + yt 1 yt 1 + "t<br />

e si sottopone a test H0 : ( 1) = 0: Nota che questa<br />

speci…cazione e’ robusta a problemi di autocorrelazione<br />

dei residui.<br />

Di solito siamo interessati a 2 casi in particolare:<br />

1. Processo stazionario attorno ad una intercetta<br />

yt = + yt 1 + "t<br />

H0 : Random Walk<br />

H1 : Stazionario con intercetta<br />

yt = + ( 1) yt 1 + "t<br />

H0 : = ( 1) = 0<br />

si procede con un F test


2. Processo stazionario attorno ad un trend con intercetta<br />

yt = + yt 1 + t + "t<br />

H0 : Random Walk<br />

H1 : Stazionario ad un trend con intercetta<br />

yt = + ( 1) yt 1 + t + "t<br />

H0 : = ( 1) = = 0<br />

Le statistiche di DW sono dunque , , t ed F<br />

Nota che poiche’i test di radice unitaria hanno potenza<br />

piu’bassa dei test di signi…cativita’dei coe¢ cienti e’stata


proposta una alternativa: il KPSS. Questo test si basa<br />

sull’idea che ogni serie storica e’una somma di un trend<br />

deterministico, un random walk e un termine d’errore<br />

stazionario. Sotto H0 di processo stazionario attorno ad<br />

un trend o no<br />

1. primo passo OLS yt = + t + "t ) ^"t = et<br />

2. somme parziali st = P t s=1 es per ogni t:<br />

KP SS =<br />

P Tt=1 s 2 t<br />

^ 2<br />

e’una statistica LM:^ 2 Newey West standard error.<br />

1.4 Processi AR di ordine superiore al primo<br />

yt = c + 1yt 1 + 2yt 2 + "t<br />

"t W N(0; 2 ")


e’un AR(2). Utilizzando gli operatori del ritardo ricaviamo<br />

le condizioni necessarie e su¢ cienti per la stazionarita’.<br />

Un processo AR(2) si dice stazionario se tutte le radici<br />

di<br />

(1 1L 2L 2 ) = 0<br />

cadono al di fuori del cerchio unitario nel campo complesso.<br />

yt = c + 1yt 1 + 2yt 2 + ::: pyt p + "t<br />

"t W N(0; 2 " )<br />

e’un AR(p).<br />

(1 1L 2L 2 ::: pL p ) = 0<br />

(L)yt = c + "t<br />

cioe’ le cui radici devono cadere al di fuori del cerchio<br />

unitario nel campo complesso<br />

AR(p) e’un processo stazionario solo se<br />

1P<br />

i=0<br />

j ij < 1


se almeno una radice e’uguale a 1 1P<br />

i=0<br />

j ij = 1<br />

Il Test di Dickey Fuller per un AR(p) si basa sulla seguente<br />

speci…cazione (seguendo gli stessi passaggi visti per (2))<br />

yt = + t + 'yt 1 +<br />

dove ' =<br />

pP<br />

i=1 i<br />

!<br />

1.5 Processi ARMA<br />

ARMA(1,1)<br />

ARMA(p,q)<br />

p 1<br />

P<br />

1; i = p P<br />

i=1 i<br />

yt = + yt 1 + "t + "t 1<br />

i=1 i yt i + "t<br />

yt = + 1yt 1 + 2yt 2 + :: + pyt p<br />

+"t + 1"t 1 + :: + q"t q


1.6 Funzione di autocorrelazione parziale<br />

Autocorrelazione parziale fra yt e yt p denominata pp e’<br />

un legame di correlazione fra yt e yt p al netto dell’in‡uenza<br />

esercitata dai termini intermedi yt 1; :::yt p+1<br />

yt = + 1yt 1 + "t ) ^ 11<br />

yt = + 1yt 1 + 2yt 2 + "t ) ^ 22 stima di 2<br />

Nota che per un AR(p) il ^ kk = 0 8k > p .<br />

Per esempio AR(1) il ^ 22 = ^ 33 = ::: = 0<br />

Per un MA(1) PACF convergono verso zero piu’o meno<br />

rapidamente<br />

In un ARMA (p,q) sia la ACF che la PACF non tagliano<br />

mai zero ma convergono a zero asintoticamente.


2 Speci…cazione stima e controllo<br />

diagnostico - Regole generali<br />

1) Identi…cazione<br />

2) Stima<br />

3) Controllo diagnostico<br />

2.1 Identi…cazione<br />

E’una procedura iterativa<br />

Scelta del tipo di modello AR o MA e del loro ordine.<br />

Guardare le AFC e PACF e confrontare


1. AR (p) stazionaria la ACF decade geometricamente<br />

la PACF taglia dopo p periodi<br />

2. MA(q) ACF taglia dopo q periodi mentre la PACF<br />

decade geometricamente<br />

3. ARMA(p,q) non c’è in nessuno dei due casi un taglio<br />

netto<br />

2.2 Stima ARMA<br />

1. AR(p) OLS corretto consistente ed e¢ ciente MLE<br />

2. MA(q) OLS non e’possibile perche’i regressori sono<br />

incogniti. Si utilizza la stima MLE che richiede<br />

un’ipotesi sulla distribuzione dei termini di disturbo<br />

e procedure numeriche di massimizzazione<br />

3. ARMA(p,q) vedi punto 2


2.3 Controllo diagnostico<br />

La speci…cazione scelta e’adatta ai …ni previsivi?<br />

1. SOVRAPARAMETRIZZATO i coe¢ cienti sono signi…cativi?<br />

coe¢ cienti relativi all’ordine p o q scelti<br />

! se i coe¤ relativi agli ordini troppo alti sono non<br />

signi…cativi si possono ridurre i parametri da stimare<br />

t test o F test<br />

2. SOTTOPARAMETRIZZATO<br />

yt = ^c + ^ 1yt 1 + ^ 2yt 2 + ^ 3yt 3 +<br />

^"t + ^ 1^"t 1 + ^ 2^"t 2 + ^ 3^"t 3 + ^ 4^"t 4<br />

^ 4 e’ signi…cativo? La parsimonia e’ un principio<br />

fondamentale<br />

Veri…care l’ipotesi di autocorrelazione dei residui<br />

=)errata speci…cazione


Model selection criteria: Akaike Information Criterion<br />

e Schwarz Bayesian Criterion<br />

AIC(p) = T log(^ 2 ) + 2p<br />

SBC(p) = T log(^ 2 ) + p log T<br />

^ 2 = RSS=(n p). La regole e’ di scegliere il<br />

modello con piu’basso AIC e SBC<br />

3 Modelli dinamici con variabili stazionar<br />

Modello autoregressivo a ritardi distribuiti<br />

yt = + yt 1 + 0xt + 1xt 1 + "t (3)<br />

dove "t W N indipendente da yt 1; yt 2 e xt; xt 1.<br />

Calcolando le derivate parziali possiamo calcolare il moltiplicatore<br />

d’impatto. E¤etto di xt su yt<br />

@yt<br />

@xt<br />

= 0


L’e¤etto dopo un periodo e’dato da<br />

@yt+1<br />

@xt<br />

dopo due periodi<br />

= @yt<br />

@xt<br />

@yt+2<br />

+ 1 = 0 + 1<br />

= ( 0 + 1)<br />

@xt<br />

Se j j < 1 gli e¤etti superiori al primo sono decrescent.<br />

iIl moltiplicatore di lungo periodo (o moltiplicatore di<br />

equilibrio) e’<br />

@yt<br />

@xt<br />

+ @yt+1<br />

@xt<br />

+ @yt+2<br />

@xt<br />

+ ::: =<br />

0 + ( 0 + 1) + ( ( 0 + 1)) + ::: = 0 + 1<br />

1<br />

Allo stesso risultato si giunge calcolando il valore atteso<br />

della (3)<br />

E(yt) = + E(yt 1) + 0E(xt) + 1E(xt 1)<br />

= 1<br />

+ 0 + 1<br />

E(xt)<br />

1<br />

Il modello (3) puo’essere stimato con il metodo OLS a<br />

condizione che E(xt"t) = 0

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!