25.12.2012 Views

Dispense

Dispense

Dispense

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

4.4. METODI REGRESSIVI 225<br />

4.3.6 Esercizi sul confronto tra modelli previsionali<br />

Gli esercizi che seguono si riferiscono all’esercizio n. 9 della sezione seguente.<br />

Esercizio 28 Applicare la cross-validation come nell’esercizio n. 9, ma prevedendo un paio<br />

di anni attorno al 2007, a partire dai precedenti.<br />

Esercizio 29 Usare il metodo SET per l’esempio dell’esercizio n. 9 e valutare le sue prestazioni<br />

rispetto a HW, tramite cross-validation.<br />

Esercizio 30 Usare il metodo SET ed il metodo HW sulla serie dei cereali e valutare le<br />

prestazioni con la cross-validation.<br />

Esercizio 31 Relativamente ai dati dell’esercizio dell’esercizio n. 9,<br />

i) estrarre i residui dai metodi HW, AR, stl<br />

ii) ritagliare una …nestra comune (escludere un tratto iniziale comune)<br />

iii) calcolare la varianza spiegata nei tre casi, osservando quale è migliore.<br />

4.4 Metodi regressivi<br />

L’esposizione qui di questo argomento pone dei problemi di consequenzialità, in quanto si basa<br />

tecnicamente sulla regressione lineare multipla che verrà descritta nel capitolo di statistica<br />

multivariata. Ci limitiamo quindi ad alcune idee, che devono essere riprese.<br />

4.4.1 AR come regressione lineare multipla<br />

Un modello di regressione lineare multipla è un modello della forma<br />

Y = a1X1 + ::: + apXp + b + "<br />

dove le v.a. X1; :::; Xp sono dette fattori, predittori, input, la v.a. Y è l’output, la grandezza<br />

da predire, da spiegare, la variabile dipendente, " è un termine aleatorio di errore, e<br />

a1; :::; ap; b sono i coe¢ ciendi del modello (b è l’intercetta). La logica è quella di avere una<br />

v.a. Y di cui vorremmo capire di più; nel momento in cui valga un modello regressivo del<br />

tipo descritto, capiamo che Y è in‡uenzata dai fattori X1; :::; Xp, secondo l’ampiezza dei coe¢<br />

cienti a1; :::; ap. La variabilità di Y , precedentemente oscura, viene parzialmente spiegata<br />

dal modello (parzialmente, in quanto c’è sempre il termine di errore casuale ").<br />

La forma algebrica di queste equazioni è evidentemente molto simile a quella dei modelli<br />

AR(p):<br />

Xt = 1Xt 1 + ::: + pXt p + b + "t<br />

solo che qui le diverse variabili compongono un unico processo stocastico. Ma la logica è<br />

la stessa appea descritta per la regressione: si immagina che i valori assunti da Xt siano<br />

in‡uenzati, spiegati dai valori di Xt 1; :::; Xt p, tramite i pesi 1; :::; p, a meno dell’errore<br />

"t.<br />

E’quindi chiaro che, una volta che saranno note le procedure di calcolo della regressione<br />

lineare, queste possono essere applicate ai modelli AR(p). Siccome quelle procedure sono<br />

improntate al metodo dei minimi quadrati, in sostanza è come se si stesse applicando il<br />

comando ar.ols ad una serie storica.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!