02.05.2013 Views

Prognosemetoder – en oversikt - Telenor

Prognosemetoder – en oversikt - Telenor

Prognosemetoder – en oversikt - Telenor

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

h<strong>en</strong>ges additivt på d<strong>en</strong> lineære modell<strong>en</strong><br />

(2.1) og multiplikativt på modell<strong>en</strong> (2.4).<br />

D<strong>en</strong>ne variabel<strong>en</strong> angir det vi ikke greier<br />

å forklare i modell<strong>en</strong>. Det kan være<br />

variasjon i variable som ikke er spesifisert<br />

i modell<strong>en</strong>, avvik mellom faktisk<br />

funksjonsform og d<strong>en</strong> vi har valgt, ev<strong>en</strong>tuelt<br />

målefeil i variabl<strong>en</strong>e samt tilfeldige<br />

avvik. Målet er selvsagt at støyledd<strong>en</strong>e<br />

skal være små i forhold til observasjon<strong>en</strong>e.<br />

Det er viktig under modellbygging<strong>en</strong><br />

å velge ut variable og finne frem til<br />

<strong>en</strong> funksjonsform av variabler og parametere<br />

som inngår i modell<strong>en</strong> som gjør at<br />

det vi ikke greier å forklare <strong>–</strong> støy<strong>en</strong> <strong>–</strong> er<br />

minst mulig.<br />

Residual<strong>en</strong>e er realisering<strong>en</strong> av støy<strong>en</strong>.<br />

Det er med andre ord de kvantitative<br />

verdi<strong>en</strong>e på støy<strong>en</strong> som fremkommer når<br />

modell<strong>en</strong> er gitt og de tilpassede verdier<br />

beregnet.<br />

Et krav til prognosemodeller er selvsagt<br />

at støy<strong>en</strong> er minst mulig. I regresjonsmodeller<br />

ivaretas dette i estimering<strong>en</strong><br />

ved bruk av minste kvadraters metode.<br />

For øvrig må det ivaretas i selve modellarbeidet<br />

ved riktig valg av forklaringsvariable<br />

og funksjonsform.<br />

De krav som stilles til støyleddet, er:<br />

i) E εt = 0 for alle t (3.1)<br />

ii) Var εt = σ2 for alle t (3.2)<br />

iii) Cov (εt , εt+k ) = 0 for alle t≠k (3.3)<br />

iv) εt skal være Normalfordelt (3.4)<br />

Med innføring av disse forutsetning<strong>en</strong>e<br />

for støyledd<strong>en</strong>e sier vi at modell<strong>en</strong>e er<br />

gitt <strong>en</strong> stokastisk formulering.<br />

Med h<strong>en</strong>syn til krav nr i) om at støy<strong>en</strong><br />

skal ha forv<strong>en</strong>tningsverdi 0, så ivaretas<br />

dette automatisk i regresjonsanalys<strong>en</strong>.<br />

Minste kvadraters metode estimerer parametr<strong>en</strong>e<br />

i modell<strong>en</strong> slik at gj<strong>en</strong>nomsnittet<br />

av alle residual<strong>en</strong>e i <strong>en</strong> regresjonsmodell<br />

er lik 0.<br />

Som sagt må residual<strong>en</strong>e analyseres for å<br />

undersøke om de tilfredsstiller disse<br />

krav<strong>en</strong>e. Dersom ett eller flere krav ikke<br />

er tilfredsstilt, betyr det at estimering<strong>en</strong><br />

av parametr<strong>en</strong>e i modell<strong>en</strong> blir mer<br />

usikker. Dette kan eksempelvis føre til<br />

forv<strong>en</strong>tningsskjevhet i parametr<strong>en</strong>e.<br />

4 Minste kvadraters<br />

metode og estimering i<br />

multippel regresjon<br />

En lineær multippel regresjonsmodell<br />

kan skrives på form:<br />

y t = β 0 + β 1 X 1,t + β 2 X 2,t<br />

+ ... + β p-1 X p-1,t + ε t<br />

(4.1)<br />

I d<strong>en</strong>ne likning<strong>en</strong> har vi p parametere, β,<br />

og p-1 forklaringsvariable X. D<strong>en</strong> første<br />

parameter<strong>en</strong> angir konstantleddet i modell<strong>en</strong>.<br />

De øvrige parametr<strong>en</strong>e er relatert<br />

til de p-1 forklaringsvariable som er<br />

trukket inn i modell<strong>en</strong>. Anta nå at vi har<br />

n observasjoner. Da vil vi ha n slike<br />

likninger for t = 1, t = 2, ..., t =nsom er<br />

angitt i (4.1) Disse kunne vi plassere rett<br />

under hverandre. Dette likningssystemet<br />

med n likninger kan da skrives på vektorform<br />

ved:<br />

y = Xβ + ε (4.2)<br />

Her er y <strong>en</strong> n-dim<strong>en</strong>sjonal vektor som<br />

består av tidsrekk<strong>en</strong> (observasjon<strong>en</strong>e),<br />

m<strong>en</strong>s X er <strong>en</strong> (n x p) dim<strong>en</strong>sjonal matrise<br />

som består av de respektive verdier på<br />

forklaringsvariabl<strong>en</strong>e i hvert av de n tidspunkt<strong>en</strong>e.<br />

β er <strong>en</strong> p-dim<strong>en</strong>sjonal vektor<br />

som består av parametr<strong>en</strong>e, og ε er ndim<strong>en</strong>sjonal<br />

vektor med støyledd<strong>en</strong>e.<br />

En konsekv<strong>en</strong>s av kravet (3.1) om at forv<strong>en</strong>tning<strong>en</strong><br />

til støyleddet skal være lik 0<br />

(E ε = 0) er:<br />

E y = Xβ (4.3)<br />

En konsekv<strong>en</strong>s av krav<strong>en</strong>e (3.2) og (3.3)<br />

er<br />

Cov y = Cov ε = σ2 I (4.4)<br />

der I er <strong>en</strong> (n x n) dim<strong>en</strong>sjonal diagonalmatrise<br />

med bare 1-ere på diagonal<strong>en</strong><br />

og 0 ellers i matris<strong>en</strong>.<br />

I multippel regresjon er da regresjonsmodell<strong>en</strong><br />

gitt ved matriselikning<strong>en</strong> (4.2),<br />

m<strong>en</strong>s krav<strong>en</strong>e til modell<strong>en</strong> er gitt ved<br />

likning (4.3) og (4.4). I tillegg kreves det<br />

at ε er Normalfordelt.<br />

Minste kvadraters estimator<strong>en</strong>e finnes<br />

ved å minimere uttrykket:<br />

n<br />

Q = ( yt − Ey t )2 ∑<br />

t=1<br />

(4.5)<br />

Her er y t observasjon<strong>en</strong>e og Ey t er forv<strong>en</strong>tet<br />

observasjonsverdi gitt ved likning<br />

(4.3) eller (4.1) når ε t = 0. Minste kvadraters<br />

estimator<strong>en</strong>e vil være de verdier på<br />

β som minimerer likning (4.5). I likning<br />

(4.5) inngår det p parametere. For å finne<br />

de optimale verdier på β må likning (4.5)<br />

deriveres med h<strong>en</strong>syn på hver <strong>en</strong>kelt β og<br />

settes lik 0. Vi vil da ha et lineært<br />

likningssystem med p likninger og p<br />

ukj<strong>en</strong>te parametere. Løsning<strong>en</strong> av dette<br />

likningssystemet gir minste kvadraters<br />

estimator<strong>en</strong>e. På matriseform kan likning<br />

(4.5) uttrykkes på følg<strong>en</strong>de måte:<br />

Q = (y - Xβ)'(y - Xβ) (4.6)<br />

Derivasjon av dette uttrykket med h<strong>en</strong>syn<br />

på β og så sette det deriverte uttrykket lik<br />

0 gir:<br />

0 = -2y'X + 2βX'X<br />

Av dette uttrykket følger minste kvadraters<br />

estimator<strong>en</strong>e på vektorform:<br />

β = (X'X) -1X'y (4.7)<br />

Selv om dette uttrykket på matriseform<br />

ser forholdsvis <strong>en</strong>kelt ut, er det svært<br />

komplisert å løse. I [13] er det angitt løsninger<br />

i <strong>en</strong> regresjonsmodell med <strong>en</strong> forklaringsvariabel.<br />

Der går det frem at selv<br />

disse løsning<strong>en</strong>e krever <strong>en</strong> god del regnearbeid.<br />

Det er først nå når vi har fått elektroniske<br />

regnemaskiner at vi har fått<br />

mulighet til <strong>en</strong>kelt å løse regresjonsmodeller<br />

med mange parametere. Regnearbeidet<br />

går i hovedsak ut på å beregne d<strong>en</strong><br />

inverse til matris<strong>en</strong> (X'X).<br />

Det kan her oppstå spesielle problemer<br />

under estimering<strong>en</strong> (beregning<strong>en</strong>e) hvis<br />

no<strong>en</strong> av kolonn<strong>en</strong>e i X tilnærmet er<br />

lineært avh<strong>en</strong>gig av hverandre. Da vil<br />

determinant<strong>en</strong> til (X'X) nærme seg 0, og<br />

vi vil få stor instabilitet i beregning<strong>en</strong>e.<br />

Dette betyr at <strong>en</strong> ikke bør inkludere forklaringsvariable<br />

i modell<strong>en</strong> som er sterkt<br />

avh<strong>en</strong>gig av hverandre. Dette problemet<br />

betegnes i regresjonsanalyse som multikolinearitet.<br />

Dersom dette problemet<br />

oppstår, kan <strong>en</strong> omgå det ved f eks å<br />

b<strong>en</strong>ytte “Ridge regresjon” der det adderes<br />

til <strong>en</strong> diagonalmatrise under estimering<strong>en</strong><br />

for å unngå instabilitet<strong>en</strong>, se<br />

kapittel 5.6.<br />

5 Tester for å evaluere<br />

aktuelle modeller<br />

Anv<strong>en</strong>delse av test<strong>en</strong>e vil vi se nærmere<br />

på i kapittel 7 og 8 i tilknytning til modellbygging<strong>en</strong>.<br />

De tester og kriterier som<br />

spesielt er viktig i regresjonsanalys<strong>en</strong>, er<br />

- Multippel regresjonskoeffisi<strong>en</strong>t<br />

- Signifikanstest på hver <strong>en</strong>kelt parameter<br />

- Standardavviket til residual<strong>en</strong>e<br />

- Durbin-Watson test<br />

- Autokorrelasjonsfunksjon<br />

- Korrelasjonsmatrise for parametr<strong>en</strong>e<br />

- Prediksjons- og konfid<strong>en</strong>sintervall.<br />

I tillegg vil forskjellige plott av residual<strong>en</strong>e<br />

være viktig både for å vurdere kvalitet<strong>en</strong><br />

på modell<strong>en</strong> og for å få underlag for<br />

91

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!