Prognosemetoder – en oversikt - Telenor
Prognosemetoder – en oversikt - Telenor
Prognosemetoder – en oversikt - Telenor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
h<strong>en</strong>ges additivt på d<strong>en</strong> lineære modell<strong>en</strong><br />
(2.1) og multiplikativt på modell<strong>en</strong> (2.4).<br />
D<strong>en</strong>ne variabel<strong>en</strong> angir det vi ikke greier<br />
å forklare i modell<strong>en</strong>. Det kan være<br />
variasjon i variable som ikke er spesifisert<br />
i modell<strong>en</strong>, avvik mellom faktisk<br />
funksjonsform og d<strong>en</strong> vi har valgt, ev<strong>en</strong>tuelt<br />
målefeil i variabl<strong>en</strong>e samt tilfeldige<br />
avvik. Målet er selvsagt at støyledd<strong>en</strong>e<br />
skal være små i forhold til observasjon<strong>en</strong>e.<br />
Det er viktig under modellbygging<strong>en</strong><br />
å velge ut variable og finne frem til<br />
<strong>en</strong> funksjonsform av variabler og parametere<br />
som inngår i modell<strong>en</strong> som gjør at<br />
det vi ikke greier å forklare <strong>–</strong> støy<strong>en</strong> <strong>–</strong> er<br />
minst mulig.<br />
Residual<strong>en</strong>e er realisering<strong>en</strong> av støy<strong>en</strong>.<br />
Det er med andre ord de kvantitative<br />
verdi<strong>en</strong>e på støy<strong>en</strong> som fremkommer når<br />
modell<strong>en</strong> er gitt og de tilpassede verdier<br />
beregnet.<br />
Et krav til prognosemodeller er selvsagt<br />
at støy<strong>en</strong> er minst mulig. I regresjonsmodeller<br />
ivaretas dette i estimering<strong>en</strong><br />
ved bruk av minste kvadraters metode.<br />
For øvrig må det ivaretas i selve modellarbeidet<br />
ved riktig valg av forklaringsvariable<br />
og funksjonsform.<br />
De krav som stilles til støyleddet, er:<br />
i) E εt = 0 for alle t (3.1)<br />
ii) Var εt = σ2 for alle t (3.2)<br />
iii) Cov (εt , εt+k ) = 0 for alle t≠k (3.3)<br />
iv) εt skal være Normalfordelt (3.4)<br />
Med innføring av disse forutsetning<strong>en</strong>e<br />
for støyledd<strong>en</strong>e sier vi at modell<strong>en</strong>e er<br />
gitt <strong>en</strong> stokastisk formulering.<br />
Med h<strong>en</strong>syn til krav nr i) om at støy<strong>en</strong><br />
skal ha forv<strong>en</strong>tningsverdi 0, så ivaretas<br />
dette automatisk i regresjonsanalys<strong>en</strong>.<br />
Minste kvadraters metode estimerer parametr<strong>en</strong>e<br />
i modell<strong>en</strong> slik at gj<strong>en</strong>nomsnittet<br />
av alle residual<strong>en</strong>e i <strong>en</strong> regresjonsmodell<br />
er lik 0.<br />
Som sagt må residual<strong>en</strong>e analyseres for å<br />
undersøke om de tilfredsstiller disse<br />
krav<strong>en</strong>e. Dersom ett eller flere krav ikke<br />
er tilfredsstilt, betyr det at estimering<strong>en</strong><br />
av parametr<strong>en</strong>e i modell<strong>en</strong> blir mer<br />
usikker. Dette kan eksempelvis føre til<br />
forv<strong>en</strong>tningsskjevhet i parametr<strong>en</strong>e.<br />
4 Minste kvadraters<br />
metode og estimering i<br />
multippel regresjon<br />
En lineær multippel regresjonsmodell<br />
kan skrives på form:<br />
y t = β 0 + β 1 X 1,t + β 2 X 2,t<br />
+ ... + β p-1 X p-1,t + ε t<br />
(4.1)<br />
I d<strong>en</strong>ne likning<strong>en</strong> har vi p parametere, β,<br />
og p-1 forklaringsvariable X. D<strong>en</strong> første<br />
parameter<strong>en</strong> angir konstantleddet i modell<strong>en</strong>.<br />
De øvrige parametr<strong>en</strong>e er relatert<br />
til de p-1 forklaringsvariable som er<br />
trukket inn i modell<strong>en</strong>. Anta nå at vi har<br />
n observasjoner. Da vil vi ha n slike<br />
likninger for t = 1, t = 2, ..., t =nsom er<br />
angitt i (4.1) Disse kunne vi plassere rett<br />
under hverandre. Dette likningssystemet<br />
med n likninger kan da skrives på vektorform<br />
ved:<br />
y = Xβ + ε (4.2)<br />
Her er y <strong>en</strong> n-dim<strong>en</strong>sjonal vektor som<br />
består av tidsrekk<strong>en</strong> (observasjon<strong>en</strong>e),<br />
m<strong>en</strong>s X er <strong>en</strong> (n x p) dim<strong>en</strong>sjonal matrise<br />
som består av de respektive verdier på<br />
forklaringsvariabl<strong>en</strong>e i hvert av de n tidspunkt<strong>en</strong>e.<br />
β er <strong>en</strong> p-dim<strong>en</strong>sjonal vektor<br />
som består av parametr<strong>en</strong>e, og ε er ndim<strong>en</strong>sjonal<br />
vektor med støyledd<strong>en</strong>e.<br />
En konsekv<strong>en</strong>s av kravet (3.1) om at forv<strong>en</strong>tning<strong>en</strong><br />
til støyleddet skal være lik 0<br />
(E ε = 0) er:<br />
E y = Xβ (4.3)<br />
En konsekv<strong>en</strong>s av krav<strong>en</strong>e (3.2) og (3.3)<br />
er<br />
Cov y = Cov ε = σ2 I (4.4)<br />
der I er <strong>en</strong> (n x n) dim<strong>en</strong>sjonal diagonalmatrise<br />
med bare 1-ere på diagonal<strong>en</strong><br />
og 0 ellers i matris<strong>en</strong>.<br />
I multippel regresjon er da regresjonsmodell<strong>en</strong><br />
gitt ved matriselikning<strong>en</strong> (4.2),<br />
m<strong>en</strong>s krav<strong>en</strong>e til modell<strong>en</strong> er gitt ved<br />
likning (4.3) og (4.4). I tillegg kreves det<br />
at ε er Normalfordelt.<br />
Minste kvadraters estimator<strong>en</strong>e finnes<br />
ved å minimere uttrykket:<br />
n<br />
Q = ( yt − Ey t )2 ∑<br />
t=1<br />
(4.5)<br />
Her er y t observasjon<strong>en</strong>e og Ey t er forv<strong>en</strong>tet<br />
observasjonsverdi gitt ved likning<br />
(4.3) eller (4.1) når ε t = 0. Minste kvadraters<br />
estimator<strong>en</strong>e vil være de verdier på<br />
β som minimerer likning (4.5). I likning<br />
(4.5) inngår det p parametere. For å finne<br />
de optimale verdier på β må likning (4.5)<br />
deriveres med h<strong>en</strong>syn på hver <strong>en</strong>kelt β og<br />
settes lik 0. Vi vil da ha et lineært<br />
likningssystem med p likninger og p<br />
ukj<strong>en</strong>te parametere. Løsning<strong>en</strong> av dette<br />
likningssystemet gir minste kvadraters<br />
estimator<strong>en</strong>e. På matriseform kan likning<br />
(4.5) uttrykkes på følg<strong>en</strong>de måte:<br />
Q = (y - Xβ)'(y - Xβ) (4.6)<br />
Derivasjon av dette uttrykket med h<strong>en</strong>syn<br />
på β og så sette det deriverte uttrykket lik<br />
0 gir:<br />
0 = -2y'X + 2βX'X<br />
Av dette uttrykket følger minste kvadraters<br />
estimator<strong>en</strong>e på vektorform:<br />
β = (X'X) -1X'y (4.7)<br />
Selv om dette uttrykket på matriseform<br />
ser forholdsvis <strong>en</strong>kelt ut, er det svært<br />
komplisert å løse. I [13] er det angitt løsninger<br />
i <strong>en</strong> regresjonsmodell med <strong>en</strong> forklaringsvariabel.<br />
Der går det frem at selv<br />
disse løsning<strong>en</strong>e krever <strong>en</strong> god del regnearbeid.<br />
Det er først nå når vi har fått elektroniske<br />
regnemaskiner at vi har fått<br />
mulighet til <strong>en</strong>kelt å løse regresjonsmodeller<br />
med mange parametere. Regnearbeidet<br />
går i hovedsak ut på å beregne d<strong>en</strong><br />
inverse til matris<strong>en</strong> (X'X).<br />
Det kan her oppstå spesielle problemer<br />
under estimering<strong>en</strong> (beregning<strong>en</strong>e) hvis<br />
no<strong>en</strong> av kolonn<strong>en</strong>e i X tilnærmet er<br />
lineært avh<strong>en</strong>gig av hverandre. Da vil<br />
determinant<strong>en</strong> til (X'X) nærme seg 0, og<br />
vi vil få stor instabilitet i beregning<strong>en</strong>e.<br />
Dette betyr at <strong>en</strong> ikke bør inkludere forklaringsvariable<br />
i modell<strong>en</strong> som er sterkt<br />
avh<strong>en</strong>gig av hverandre. Dette problemet<br />
betegnes i regresjonsanalyse som multikolinearitet.<br />
Dersom dette problemet<br />
oppstår, kan <strong>en</strong> omgå det ved f eks å<br />
b<strong>en</strong>ytte “Ridge regresjon” der det adderes<br />
til <strong>en</strong> diagonalmatrise under estimering<strong>en</strong><br />
for å unngå instabilitet<strong>en</strong>, se<br />
kapittel 5.6.<br />
5 Tester for å evaluere<br />
aktuelle modeller<br />
Anv<strong>en</strong>delse av test<strong>en</strong>e vil vi se nærmere<br />
på i kapittel 7 og 8 i tilknytning til modellbygging<strong>en</strong>.<br />
De tester og kriterier som<br />
spesielt er viktig i regresjonsanalys<strong>en</strong>, er<br />
- Multippel regresjonskoeffisi<strong>en</strong>t<br />
- Signifikanstest på hver <strong>en</strong>kelt parameter<br />
- Standardavviket til residual<strong>en</strong>e<br />
- Durbin-Watson test<br />
- Autokorrelasjonsfunksjon<br />
- Korrelasjonsmatrise for parametr<strong>en</strong>e<br />
- Prediksjons- og konfid<strong>en</strong>sintervall.<br />
I tillegg vil forskjellige plott av residual<strong>en</strong>e<br />
være viktig både for å vurdere kvalitet<strong>en</strong><br />
på modell<strong>en</strong> og for å få underlag for<br />
91