1 Modelli per serie storiche univariate
1 Modelli per serie storiche univariate
1 Modelli per serie storiche univariate
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
1 <strong>Modelli</strong> <strong>per</strong> <strong>serie</strong> <strong>storiche</strong> <strong>univariate</strong><br />
Caratteristiche delle <strong>serie</strong> <strong>storiche</strong>:<br />
{yt}<br />
l’ordine t non puo’ essere variato; v.c. non indipendenti; non replicabili (i dati si<br />
ottengono da una sola realizzazione) bisogna dunque essere rigorosi nello specificare<br />
la natura stocastica del modello, i.e. valora atteso, varianza, covarianza, autocovar-<br />
ianza, autocorrelazione.<br />
Le <strong>serie</strong> <strong>storiche</strong> sono soprattutto utili a fare previsioni<br />
1.1 Processo autoregressivo di ordine 1<br />
Un processo tipico e fra l’altro già incontrato e’ il processo Autoregressivo di<br />
ordine uno<br />
yt = δ + θyt−1 + εt<br />
θ non ha un interpretazione casuale. Assumendo che<br />
1. |θ| < 1<br />
2. εt e’ un processo white noise, omoschedastico e privo di autocorrelazione.<br />
E(yt) = δ + θE(yt−1)<br />
µ = E(yt) =<br />
δ<br />
1 − θ<br />
definendo cyt come yt centrato cyt = yt − µ riscriviamo la (1) come<br />
cyt = θcyt−1 + εt<br />
Dal punto di vista della notazione spesso piu’ utile specificare i modelli <strong>per</strong> <strong>serie</strong><br />
<strong>storiche</strong> in termini di cyt piuttosto che di yt<br />
V (yt) = V (δ + θyt−1 + εt)<br />
= (θ 2 V (yt−1) + σ 2 )<br />
1<br />
(1)
dato che V (yt) = V (yt−1)<br />
V (yt) =<br />
σ 2<br />
1 − θ 2<br />
Cov(ytyt−1) = E(cyt cyt−1)<br />
= E [(θcyt−1 + εt) (cyt−1)]<br />
= θV (yt)<br />
= θ σ2<br />
1 − θ 2<br />
potete ottenere allo stesso modo che<br />
k σ2<br />
Cov(ytyt−k) = θ<br />
1 − θ2 cioe’ la Cov(ytyt−k) dipende solo da k e non da t.<br />
1.2 Processo a Media Mobile di ordine uno<br />
yt = µ + εt + αεt−1<br />
V (yt) = E(εt + αεt−1) 2<br />
= E(εt) 2 + α 2 E(εt−1) 2<br />
= (1 + α 2 )σ 2<br />
Cov(ytyt−1) = E [(εt + αεt−1) (εt−1 + αεt−2)]<br />
= αE ε 2 <br />
t−1<br />
= ασ 2<br />
Cov(ytyt−2) = 0<br />
Cov(ytyt−k) = 0 <strong>per</strong> k = 2, 3, 4..<br />
Se |θ| < 1 un processo AR puo’ essere riscritto come un processo MA infinito <strong>per</strong><br />
sostituzione di yt−1 = δ + θyt−2 + εt−1 in (1) otteniamo<br />
continuando le sostituzioni si ottiene<br />
dove n−1 <br />
θjεt−j e’ una componente MA<br />
j=0<br />
yt = µ + θ 2 (yt−2 − µ) + εt + θεt−1<br />
<br />
yt = µ + θ n n−1<br />
(yt−n − µ) + θ j εt−j<br />
2<br />
j=0
1.3 O<strong>per</strong>atore ritardo<br />
Un modo alternativo di rappresentazione<br />
AR(1) ⇒ yt = φ1yt−1 + εt<br />
1.4 Stazionarieta’<br />
Lyt = yt−1<br />
L j yt = yt−j<br />
yt − φ1yt−1 = εt<br />
(1 − φ1L)yt = εt<br />
yt =<br />
εt<br />
1 − φ1L<br />
La stazionarieta’ e’ importantissima <strong>per</strong> la previsione<br />
In senso stretto l’intera distribuzione di probabilita’ congiunta a qualsiasi<br />
insieme di date non e’ influenzata da uno slittamento arbitrario lungo l’asse del<br />
tempo.<br />
In senso debole Media, Varianza e Covarianza (e non l’intera distribuzione)<br />
sono indipendenti dal tempo. La covarianza dipende solo dalla lunghezza dell’intervallo<br />
che separa due osservazioni.<br />
E(yt) = µ < ∞<br />
V (yt) = γ0 < ∞<br />
Cov(ytyt−k) = γk, k = 1, 2, 3..<br />
Esempio Processo White Noise: Siamo in presenzadi stazionarieta’ in senso forte<br />
<strong>per</strong>che’ la distribuzione normale dipende solo dalla media e dalla varianza che sono<br />
costanti nel tempo.<br />
εt ∼ N(0, σ 2 ε)<br />
3
In questo caso abb autocovarianza<br />
autocorrelazione<br />
γk = Cov(yt, yt−k) = Cov(yt−k, yt)<br />
ρk = Cov(yt, yt−k)<br />
V (yt)<br />
= γk<br />
γ0<br />
Funzione di autocorrelazione ACF: autocorrelazioni in funzione di k. Descrive la<br />
dipendenza fra le osservazioni.<br />
Per k = 2, 3, 4..<br />
processo AR(1)<br />
processo MA(1)<br />
yt = δ + θyt−1 + εt<br />
θ<br />
=<br />
k<br />
<br />
σ2 1−θ2 <br />
= θ k<br />
ρk = γk<br />
γ0<br />
σ 2<br />
1−θ 2<br />
yt = µ + εt + αεt−1<br />
ρ1 = γ1 ασ<br />
=<br />
2<br />
(1 + α2 α<br />
=<br />
)σ2 1 − α2 γ0<br />
e ρk = γk<br />
γ0<br />
=<br />
0<br />
(1 + α2 = 0<br />
)σ2 1.5 Stazionarieta’ e radici unitarie<br />
I processi MA(1) sono sempre stazionari.<br />
Un processo AR(1) si dice stazionario quando |θ| < 1<br />
Processi autoregressivi non stazionari:<br />
yt = δ + θyt−1 + εt<br />
1. Processi Differenza Stazionari (DS), (in (1) θ = 1)<br />
Es.:<br />
Random Walk yt = yt−1 + εt<br />
Random Walk plus drift yt = δ + yt−1 + εt<br />
V (cyt) = V (cyt−1) + σ 2<br />
4
Non c’è soluzione a meno che σ 2 = 0, la varianza è infinita sia che θ = 1 e<br />
θ > 1.<br />
In alcuni casi e’ sufficiente calcolare le differenze <strong>per</strong> trasformare una <strong>serie</strong> non<br />
stazionaria in stazionaria. Un random walk (processo non stazionario) si trasforma<br />
in un white noise ( processo stazionario)<br />
yt − yt−1 = δ + εt<br />
Integrato di ordine uno I(1) ∆yt = (yt − yt−1)<br />
Integrato di ordine due I(2) ∆ 2 yt = (∆yt − ∆yt−1)<br />
1. Processi Trend Stazionari (TS). Processi di lungo <strong>per</strong>iodo che hanno la<br />
media non costante nel tempo.<br />
yt = δ + γt + εt<br />
{δ + γt} trend deterministico. E’ un processo trend stazionario nel senso che<br />
basta eliminare un trend (detrendizzare) e diventa stazionario.<br />
1.6 Test di radice unitaria: Test di Dickey Fuller<br />
Per il processo AR(1)<br />
yt = δ + θyt−1 + εt<br />
il test θ = 1 corrisponde al test di radice unitaria. Dickey Fuller (1979) dimostrano<br />
che, dato che yt non e’ stazionario, lo stimatore OLS di ˆ θ non ha una distribuzione<br />
t. Dunque in alternativa e’ stata proposta la seguente statistica<br />
DF = ˆ θ − 1<br />
s.e.( ˆ θ)<br />
dove ˆ θ e’ stimato tramite un OLS ma i valori critici sono ricavati da una distribuzione<br />
corretta.<br />
H0 : θ = 1 Random Walk DS<br />
H1 : |θ| < 1 Stazionario<br />
al 5% tDF = 2, 86<br />
5
Per convenienza di solito si riscrive il modello come<br />
dato che<br />
∆yt = δ + (θ − 1) yt−1 + εt<br />
yt − yt−1 = δ + θyt−1 − yt−1 + εt<br />
e si sottopone a test H0 : (θ − 1) = 0. Nota che questa specificazione e’ robusta a<br />
problemi di autocorrelazione dei residui.<br />
Di solito siamo interessati a 2 casi in particolare:<br />
1. Processo stazionario attorno ad una intercetta<br />
si procede con un F − test<br />
yt = δ + θyt−1 + εt<br />
H0 : Random Walk<br />
H1 : Stazionario con intercetta<br />
∆yt = δ + (θ − 1) yt−1 + εt<br />
H0 : δ = (θ − 1) = 0<br />
2. Processo stazionario attorno ad un trend con intercetta<br />
H0 : Random Walk<br />
yt = δ + θyt−1 + γt + εt<br />
H1 : Stazionario ad un trend con intercetta<br />
∆yt = δ + (θ − 1) yt−1 + γt + εt<br />
H0 : δ = (θ − 1) = γ = 0<br />
Nota che poiche’ i test di radice unitaria hanno potenza piu’ bassa dei test di<br />
significativita’ dei coefficienti e’ stata proposta una alternativa: il KPSS. Questo<br />
test si basa sull’idea che ogni <strong>serie</strong> storica e’ una somma di un trend deterministico,<br />
un random walk e un termine d’errore stazionario. Sotto H0 di processo stazionario<br />
attorno ad un trend o no<br />
6<br />
(2)
1. primo passo OLS yt = δ + γt + εt ⇒ ˆεt = et<br />
2. somme parziali st = t<br />
s=1 es <strong>per</strong> ogni t.<br />
KP SS =<br />
7<br />
T<br />
t=1 s2 t<br />
ˆσ 2