23.11.2014 Views

Note til 28. februar

Note til 28. februar

Note til 28. februar

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

og godt nok kender vi ikke p i , men vi kan indsætte estimatet, ̂p i = y i og<br />

bestemme det vægtede mindste kvadraters estimat, hvor vægten<br />

w ∗ i = V (̂p i) × n i (4.56)<br />

angiver estimatet for præcisionen (den reciprokke varians).<br />

Og når man har fået det første estimat, (̂α, ̂β), kan bruge dette estimat <strong>til</strong><br />

beregning af fittede værdier, ̂p i , i analogi med (4.55), og så kan vi genberegne<br />

vægten, w ∗ i , jvf (4.56) svarende <strong>til</strong> dette forbedrede estimat ̂p i.Ogsådan<br />

fortsætter man.<br />

Denne fremgangsmåde kaldes iterativt genvægtet mindste kvadraters metode,<br />

(IRWLS). Fremgangsmåden illustrerer netop den væsentlige egenskab ved de<br />

generaliserede lineære modeller, at de <strong>til</strong>godeser at variansen for de enkelte<br />

observationer afhænger af middelværdien.<br />

Det gælder generelt for den kanoniske link, at mindste kvadraters vægten er<br />

w ∗ i = V (̂µ i) × w i<br />

hvor w i angiver den eventuelle vægt jvf (4.19), idet nemlig<br />

V[g(Y )] ≈ V[Y ]<br />

V (µ) 2 = 1<br />

V (µ)w i<br />

4.7 Fordeling af fittede værdier og residualer<br />

4.7.1 Fittede værdier og residualer<br />

Vi indfører først<br />

Definition 4.7.1 Fittede værdier for generaliseret lineær model<br />

Betragt den generaliserede lineære model, der blev behandlet i sætning 4.6.1.<br />

Lad ̂β angive maksimum-likelihood estimatet for parameteren β.<br />

Ved de fittede værdier under hypotesen (4.30) vil vi forstå værdierne<br />

̂µ = µ(X̂β) , (4.57)<br />

134

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!