20.05.2013 Views

1 Modelli per serie storiche univariate

1 Modelli per serie storiche univariate

1 Modelli per serie storiche univariate

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

1 <strong>Modelli</strong> <strong>per</strong> <strong>serie</strong> <strong>storiche</strong> <strong>univariate</strong><br />

Caratteristiche delle <strong>serie</strong> <strong>storiche</strong>:<br />

{yt}<br />

l’ordine t non puo’ essere variato; v.c. non indipendenti; non replicabili (i dati si<br />

ottengono da una sola realizzazione) bisogna dunque essere rigorosi nello specificare<br />

la natura stocastica del modello, i.e. valora atteso, varianza, covarianza, autocovar-<br />

ianza, autocorrelazione.<br />

Le <strong>serie</strong> <strong>storiche</strong> sono soprattutto utili a fare previsioni<br />

1.1 Processo autoregressivo di ordine 1<br />

Un processo tipico e fra l’altro già incontrato e’ il processo Autoregressivo di<br />

ordine uno<br />

yt = δ + θyt−1 + εt<br />

θ non ha un interpretazione casuale. Assumendo che<br />

1. |θ| < 1<br />

2. εt e’ un processo white noise, omoschedastico e privo di autocorrelazione.<br />

E(yt) = δ + θE(yt−1)<br />

µ = E(yt) =<br />

δ<br />

1 − θ<br />

definendo cyt come yt centrato cyt = yt − µ riscriviamo la (1) come<br />

cyt = θcyt−1 + εt<br />

Dal punto di vista della notazione spesso piu’ utile specificare i modelli <strong>per</strong> <strong>serie</strong><br />

<strong>storiche</strong> in termini di cyt piuttosto che di yt<br />

V (yt) = V (δ + θyt−1 + εt)<br />

= (θ 2 V (yt−1) + σ 2 )<br />

1<br />

(1)


dato che V (yt) = V (yt−1)<br />

V (yt) =<br />

σ 2<br />

1 − θ 2<br />

Cov(ytyt−1) = E(cyt cyt−1)<br />

= E [(θcyt−1 + εt) (cyt−1)]<br />

= θV (yt)<br />

= θ σ2<br />

1 − θ 2<br />

potete ottenere allo stesso modo che<br />

k σ2<br />

Cov(ytyt−k) = θ<br />

1 − θ2 cioe’ la Cov(ytyt−k) dipende solo da k e non da t.<br />

1.2 Processo a Media Mobile di ordine uno<br />

yt = µ + εt + αεt−1<br />

V (yt) = E(εt + αεt−1) 2<br />

= E(εt) 2 + α 2 E(εt−1) 2<br />

= (1 + α 2 )σ 2<br />

Cov(ytyt−1) = E [(εt + αεt−1) (εt−1 + αεt−2)]<br />

= αE ε 2 <br />

t−1<br />

= ασ 2<br />

Cov(ytyt−2) = 0<br />

Cov(ytyt−k) = 0 <strong>per</strong> k = 2, 3, 4..<br />

Se |θ| < 1 un processo AR puo’ essere riscritto come un processo MA infinito <strong>per</strong><br />

sostituzione di yt−1 = δ + θyt−2 + εt−1 in (1) otteniamo<br />

continuando le sostituzioni si ottiene<br />

dove n−1 <br />

θjεt−j e’ una componente MA<br />

j=0<br />

yt = µ + θ 2 (yt−2 − µ) + εt + θεt−1<br />

<br />

yt = µ + θ n n−1<br />

(yt−n − µ) + θ j εt−j<br />

2<br />

j=0


1.3 O<strong>per</strong>atore ritardo<br />

Un modo alternativo di rappresentazione<br />

AR(1) ⇒ yt = φ1yt−1 + εt<br />

1.4 Stazionarieta’<br />

Lyt = yt−1<br />

L j yt = yt−j<br />

yt − φ1yt−1 = εt<br />

(1 − φ1L)yt = εt<br />

yt =<br />

εt<br />

1 − φ1L<br />

La stazionarieta’ e’ importantissima <strong>per</strong> la previsione<br />

In senso stretto l’intera distribuzione di probabilita’ congiunta a qualsiasi<br />

insieme di date non e’ influenzata da uno slittamento arbitrario lungo l’asse del<br />

tempo.<br />

In senso debole Media, Varianza e Covarianza (e non l’intera distribuzione)<br />

sono indipendenti dal tempo. La covarianza dipende solo dalla lunghezza dell’intervallo<br />

che separa due osservazioni.<br />

E(yt) = µ < ∞<br />

V (yt) = γ0 < ∞<br />

Cov(ytyt−k) = γk, k = 1, 2, 3..<br />

Esempio Processo White Noise: Siamo in presenzadi stazionarieta’ in senso forte<br />

<strong>per</strong>che’ la distribuzione normale dipende solo dalla media e dalla varianza che sono<br />

costanti nel tempo.<br />

εt ∼ N(0, σ 2 ε)<br />

3


In questo caso abb autocovarianza<br />

autocorrelazione<br />

γk = Cov(yt, yt−k) = Cov(yt−k, yt)<br />

ρk = Cov(yt, yt−k)<br />

V (yt)<br />

= γk<br />

γ0<br />

Funzione di autocorrelazione ACF: autocorrelazioni in funzione di k. Descrive la<br />

dipendenza fra le osservazioni.<br />

Per k = 2, 3, 4..<br />

processo AR(1)<br />

processo MA(1)<br />

yt = δ + θyt−1 + εt<br />

θ<br />

=<br />

k<br />

<br />

σ2 1−θ2 <br />

= θ k<br />

ρk = γk<br />

γ0<br />

σ 2<br />

1−θ 2<br />

yt = µ + εt + αεt−1<br />

ρ1 = γ1 ασ<br />

=<br />

2<br />

(1 + α2 α<br />

=<br />

)σ2 1 − α2 γ0<br />

e ρk = γk<br />

γ0<br />

=<br />

0<br />

(1 + α2 = 0<br />

)σ2 1.5 Stazionarieta’ e radici unitarie<br />

I processi MA(1) sono sempre stazionari.<br />

Un processo AR(1) si dice stazionario quando |θ| < 1<br />

Processi autoregressivi non stazionari:<br />

yt = δ + θyt−1 + εt<br />

1. Processi Differenza Stazionari (DS), (in (1) θ = 1)<br />

Es.:<br />

Random Walk yt = yt−1 + εt<br />

Random Walk plus drift yt = δ + yt−1 + εt<br />

V (cyt) = V (cyt−1) + σ 2<br />

4


Non c’è soluzione a meno che σ 2 = 0, la varianza è infinita sia che θ = 1 e<br />

θ > 1.<br />

In alcuni casi e’ sufficiente calcolare le differenze <strong>per</strong> trasformare una <strong>serie</strong> non<br />

stazionaria in stazionaria. Un random walk (processo non stazionario) si trasforma<br />

in un white noise ( processo stazionario)<br />

yt − yt−1 = δ + εt<br />

Integrato di ordine uno I(1) ∆yt = (yt − yt−1)<br />

Integrato di ordine due I(2) ∆ 2 yt = (∆yt − ∆yt−1)<br />

1. Processi Trend Stazionari (TS). Processi di lungo <strong>per</strong>iodo che hanno la<br />

media non costante nel tempo.<br />

yt = δ + γt + εt<br />

{δ + γt} trend deterministico. E’ un processo trend stazionario nel senso che<br />

basta eliminare un trend (detrendizzare) e diventa stazionario.<br />

1.6 Test di radice unitaria: Test di Dickey Fuller<br />

Per il processo AR(1)<br />

yt = δ + θyt−1 + εt<br />

il test θ = 1 corrisponde al test di radice unitaria. Dickey Fuller (1979) dimostrano<br />

che, dato che yt non e’ stazionario, lo stimatore OLS di ˆ θ non ha una distribuzione<br />

t. Dunque in alternativa e’ stata proposta la seguente statistica<br />

DF = ˆ θ − 1<br />

s.e.( ˆ θ)<br />

dove ˆ θ e’ stimato tramite un OLS ma i valori critici sono ricavati da una distribuzione<br />

corretta.<br />

H0 : θ = 1 Random Walk DS<br />

H1 : |θ| < 1 Stazionario<br />

al 5% tDF = 2, 86<br />

5


Per convenienza di solito si riscrive il modello come<br />

dato che<br />

∆yt = δ + (θ − 1) yt−1 + εt<br />

yt − yt−1 = δ + θyt−1 − yt−1 + εt<br />

e si sottopone a test H0 : (θ − 1) = 0. Nota che questa specificazione e’ robusta a<br />

problemi di autocorrelazione dei residui.<br />

Di solito siamo interessati a 2 casi in particolare:<br />

1. Processo stazionario attorno ad una intercetta<br />

si procede con un F − test<br />

yt = δ + θyt−1 + εt<br />

H0 : Random Walk<br />

H1 : Stazionario con intercetta<br />

∆yt = δ + (θ − 1) yt−1 + εt<br />

H0 : δ = (θ − 1) = 0<br />

2. Processo stazionario attorno ad un trend con intercetta<br />

H0 : Random Walk<br />

yt = δ + θyt−1 + γt + εt<br />

H1 : Stazionario ad un trend con intercetta<br />

∆yt = δ + (θ − 1) yt−1 + γt + εt<br />

H0 : δ = (θ − 1) = γ = 0<br />

Nota che poiche’ i test di radice unitaria hanno potenza piu’ bassa dei test di<br />

significativita’ dei coefficienti e’ stata proposta una alternativa: il KPSS. Questo<br />

test si basa sull’idea che ogni <strong>serie</strong> storica e’ una somma di un trend deterministico,<br />

un random walk e un termine d’errore stazionario. Sotto H0 di processo stazionario<br />

attorno ad un trend o no<br />

6<br />

(2)


1. primo passo OLS yt = δ + γt + εt ⇒ ˆεt = et<br />

2. somme parziali st = t<br />

s=1 es <strong>per</strong> ogni t.<br />

KP SS =<br />

7<br />

T<br />

t=1 s2 t<br />

ˆσ 2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!