Introduktion Till Statistiken
Introduktion Till Statistiken
Introduktion Till Statistiken
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
The Title<br />
The Author<br />
The Date
ii<br />
c Mikael Möller
Innehåll<br />
1 Vad statistik handlar om 1<br />
1.1 Modeller . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />
1.2 Tre typer av medelvärden . . . . . . . . . . . . . . . . . . 4<br />
1.2.1 Median . . . . . . . . . . . . . . . . . . . . . . . . 5<br />
1.2.2 Typvärde . . . . . . . . . . . . . . . . . . . . . . . 5<br />
1.2.3 Aritmetiskt medelvärde . . . . . . . . . . . . . . . 6<br />
1.3 Tre typer av avvikelser . . . . . . . . . . . . . . . . . . . . 10<br />
1.3.1 Varians –standardavvikelse . . . . . . . . . . . . . 11<br />
1.3.2 Skevhet . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
1.3.3 Toppighet . . . . . . . . . . . . . . . . . . . . . . . 14<br />
1.4 Tre typer av gram . . . . . . . . . . . . . . . . . . . . . . 16<br />
1.4.1 Stolpdiagram och kumulerat stolpdiagram . . . . . 16<br />
1.4.2 Histogram och kumulerat histogram . . . . . . . . 19<br />
2 Stokastiska variabler, väntevärden och sannolikheter 23<br />
2.1 Diskret och kontinuerlig . . . . . . . . . . . . . . . . . . . 23<br />
2.2 Väntevärden . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
2.3 Sannolikhet . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />
2.4 Mera om sannolikheter . . . . . . . . . . . . . . . . . . . . 32<br />
2.5 Betingade sannolikheter . . . . . . . . . . . . . . . . . . . 35<br />
2.6 Betingade väntevärden . . . . . . . . . . . . . . . . . . . . 41<br />
2.7 Betingade varianser . . . . . . . . . . . . . . . . . . . . . . 43<br />
2.8 Oberoende . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />
3 Diskreta modeller 49<br />
3.1 Betygssättning . . . . . . . . . . . . . . . . . . . . . . . . 49<br />
3.2 Optionsmodell . . . . . . . . . . . . . . . . . . . . . . . . 55<br />
3.2.1 Binomial optionsmodell –ett tidssteg . . . . . . . 56<br />
3.2.2 Binomial optionsmodell –‡era tidssteg . . . . . . . 59<br />
3.3 Epostmodell . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />
iii
iv INNEHÅLL<br />
3.4 Spelmodeller . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />
3.5 Kvalitetskontroll . . . . . . . . . . . . . . . . . . . . . . . 75<br />
3.6 Sammanfattning . . . . . . . . . . . . . . . . . . . . . . . 80<br />
3.7 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 81<br />
4 Kontinuerliga modeller 87<br />
4.1 Bussmodell . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
4.2 Försäkringsmodell . . . . . . . . . . . . . . . . . . . . . . 90<br />
4.2.1 Fördelning för antal skador . . . . . . . . . . . . . 95<br />
4.2.2 En försäkrings premie . . . . . . . . . . . . . . . . 96<br />
4.3 Normalfördelningen . . . . . . . . . . . . . . . . . . . . . . 97<br />
4.3.1 Centrala gränsvärdessatsen . . . . . . . . . . . . . 101<br />
4.4 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 108<br />
5 Stickprov och skattningar 111<br />
5.1 Stickprov . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />
5.1.1 Vad ett stickprov kan ge . . . . . . . . . . . . . . . 112<br />
5.2 Skattningar . . . . . . . . . . . . . . . . . . . . . . . . . . 115<br />
5.2.1 Önskade egenskaper hos skattningar . . . . . . . . 116<br />
5.3 Metoder för att …nna skattningar . . . . . . . . . . . . . . 124<br />
5.3.1 Momentmetoden . . . . . . . . . . . . . . . . . . . 124<br />
5.3.2 Minsta kvadrat metoden . . . . . . . . . . . . . . . 126<br />
5.3.3 Maximum likelihood metoden . . . . . . . . . . . . 130<br />
5.4 Tankeväckande exempel . . . . . . . . . . . . . . . . . . . 135<br />
5.5 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 140<br />
6 Passar vår fördelning 141<br />
6.1 Funktionen ^ F . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />
6.2 Fördelningsdiagram . . . . . . . . . . . . . . . . . . . . . 143<br />
6.2.1 P-P diagram . . . . . . . . . . . . . . . . . . . . . 144<br />
6.2.2 K-K diagram . . . . . . . . . . . . . . . . . . . . . 146<br />
6.2.3 Exempel . . . . . . . . . . . . . . . . . . . . . . . . 147<br />
6.3 Rörvik Timber B . . . . . . . . . . . . . . . . . . . . . . . 157<br />
6.4 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 160<br />
7 Trovärdiga intervall 163<br />
7.1 Normalfördelningen . . . . . . . . . . . . . . . . . . . . . . 164<br />
7.1.1 Fall 1: Kon…densintervall för när är känt . . . 165<br />
7.1.2 Fall 2: Kon…densintervall för med okänt väntevärde<br />
. . . . . . . . . . . . . . . . . . . . . . . 167<br />
7.1.3 Fall 3: Kon…densintervall för när är okänt . . . 168<br />
7.2 Kon…densintervall vid normalapproximation . . . . . . . . 170<br />
c Mikael Möller
INNEHÅLL v<br />
7.2.1 Kon…densintervall vid Poissonfördelning . . . . . . 170<br />
7.2.2 Kon…densintervall vid binomialfördelning . . . . . 171<br />
7.3 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 174<br />
8 Prövning av antaganden 177<br />
8.1 <strong>Introduktion</strong> . . . . . . . . . . . . . . . . . . . . . . . . . 177<br />
8.2 Test av vid normalfördelning . . . . . . . . . . . . . . . 177<br />
8.2.1 Steg 1: Formulera lämplig hypotes . . . . . . . . . 178<br />
8.2.2 Steg 2: Bestäm en testvariabel . . . . . . . . . . . 179<br />
8.2.3 Steg 3: Bestäm en beslutsregel . . . . . . . . . . . 180<br />
8.2.4 Steg 4: Besluta . . . . . . . . . . . . . . . . . . . . 181<br />
8.2.5 Jämförelse mellan kon…densintervall och test . . . 184<br />
8.3 Test av 1 2 vid normalfördelning . . . . . . . . . . . . 184<br />
8.4 Test av p . . . . . . . . . . . . . . . . . . . . . . . . . . . 190<br />
8.5 Test av vid normalfördelning . . . . . . . . . . . . . . . 195<br />
8.6 Olika typer av fel . . . . . . . . . . . . . . . . . . . . . . . 198<br />
8.6.1 Styrkefunktion . . . . . . . . . . . . . . . . . . . . 198<br />
8.7 p-värden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199<br />
8.8 Test av fördelningar . . . . . . . . . . . . . . . . . . . . . 201<br />
8.8.1 2-testet . . . . . . . . . . . . . . . . . . . . . . . . 201<br />
8.8.2 Ett enklare exempel . . . . . . . . . . . . . . . . . 202<br />
8.8.3 Fördelningar –diskreta . . . . . . . . . . . . . . . 206<br />
8.8.4 Fördelningar –kontinuerliga . . . . . . . . . . . . . 208<br />
8.8.5 Test av oberoende . . . . . . . . . . . . . . . . . . 210<br />
8.9 Övningar och Problem . . . . . . . . . . . . . . . . . . . . 214<br />
8.10 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 215<br />
9 Linjär regression –enkel 217<br />
10 Linjär regression –multipel 219<br />
11 Icke linjär regresion 221<br />
12 Logistisk regression 223<br />
12.1 När är logistisk regression användbart . . . . . . . . . . . 223<br />
12.2 Hur ser p(x1; : : : ; xm) ut . . . . . . . . . . . . . . . . . . . 228<br />
12.2.1 Logistisk regressionsmodell via odds . . . . . . . . 228<br />
12.2.2 Logistisk regressionsmodell via tillväxtmodell . . . 231<br />
12.3 Hur bestäms parametrarna 0 och 1 . . . . . . . . . . . . 233<br />
12.3.1 För att summera och generalisera . . . . . . . . . . 235<br />
12.4 <strong>Till</strong>baks till exemplen . . . . . . . . . . . . . . . . . . . . 236<br />
12.5 Hur man tolkar parametrar . . . . . . . . . . . . . . . . . 240<br />
c Mikael Möller
vi INNEHÅLL<br />
12.6 Övningar . . . . . . . . . . . . . . . . . . . . . . . . . . . 242<br />
12.7 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 249<br />
13 Tidsserier 251<br />
13.1 <strong>Introduktion</strong> . . . . . . . . . . . . . . . . . . . . . . . . . 251<br />
13.2 Glidande medelvärden . . . . . . . . . . . . . . . . . . . . 252<br />
13.3 Komponentmodeller . . . . . . . . . . . . . . . . . . . . . 255<br />
13.3.1 Modell . . . . . . . . . . . . . . . . . . . . . . . . . 255<br />
13.3.2 Konstruktion av en tidsserie . . . . . . . . . . . . . 257<br />
13.3.3 Analys av tidsserien ovan . . . . . . . . . . . . . . 259<br />
13.3.4 Enkel exponentiell utjämning . . . . . . . . . . . . 264<br />
13.3.5 Dubbel exponentiell utjämning à la Holt . . . . . . 267<br />
13.4 ARMA-modeller . . . . . . . . . . . . . . . . . . . . . . . 269<br />
13.4.1 <strong>Introduktion</strong> . . . . . . . . . . . . . . . . . . . . . 269<br />
13.4.2 Hur ser en stationär tidsserie ut . . . . . . . . . . 271<br />
13.4.3 Autokorrelationsfunktionen . . . . . . . . . . . . . 274<br />
13.4.4 Partiella autokorrelationsfunktionen . . . . . . . . 275<br />
13.4.5 Modellen AR(1) . . . . . . . . . . . . . . . . . . . 277<br />
13.4.6 Modellen MA(1) . . . . . . . . . . . . . . . . . . . 278<br />
13.5 Lösningar till uppgifter . . . . . . . . . . . . . . . . . . . . 282<br />
14 ARMA processer 287<br />
15 Beslutsteori 289<br />
15.1 Beslutsprocessen . . . . . . . . . . . . . . . . . . . . . . . 290<br />
15.2 Enkla beslutsproblem . . . . . . . . . . . . . . . . . . . . 292<br />
15.2.1 Minimax . . . . . . . . . . . . . . . . . . . . . . . . 293<br />
15.2.2 Maximax . . . . . . . . . . . . . . . . . . . . . . . 293<br />
15.2.3 Förlorade möjligheter . . . . . . . . . . . . . . . . 294<br />
15.3 Enkla beslut baserade på väntevärden . . . . . . . . . . . 296<br />
15.4 Enkla beslutsträd . . . . . . . . . . . . . . . . . . . . . . . 299<br />
15.5 Aposteriorisannolikheter . . . . . . . . . . . . . . . . . . . 301<br />
15.6 Allmäna beslutsträd . . . . . . . . . . . . . . . . . . . . . 303<br />
c Mikael Möller
1. Vad statistik handlar<br />
om<br />
Människans ojämförligt största upp…nning är språket och därefter kommer<br />
matematik och statistik. Utan det förra skulle vi inte kunna utväxla<br />
ideer och utan det senare skulle våra ideer vara fördunklade av allehanda<br />
övernaturligt tankebråte. Ett samhälle utan matematik kan förvisso existera<br />
men dömer sig självt till evigt stillastående. Matematiken och i<br />
dess förlängning statistiken är två speciella universiella språk som hjälper<br />
oss att reda ut vad som är sant och vad som är tro. Matematiken gör<br />
modeller som utgår från "odelbara sanningar" och härleder därur statiska<br />
beskrivningar av verkligheten. Det statistiska språket lägger till<br />
en osäkerhetsaspekt till det matematiska språket, slumpen, som gör det<br />
möjligt att även ge beskrivningar av en kaotisk, dynamisk, verklighet.<br />
Statistik har gett uphov till och/eller understött utvecklingen av<br />
många intressanta verksamheter som nationalekonomi, sociologi, marknadsföring,<br />
fysik, …nans, medicin, farmakologi, psykologi, dataalgoritmer<br />
o s v.<br />
Statistik har även använts för att förklara hur slumpen kan skapa<br />
mönster där inga …nnes. I bästsäljaren Bibelkoden presenterar författaren<br />
[7, Michael Drosnin] följande resultat: Tag bibelns text och skriv<br />
ned den med exakt lika många bokstäver i varje rad. I den så erhållna<br />
textmassan kan man nu, vertikalt eller diagonalt, hitta en mängd intressanta<br />
saker. Vid ett sådant försök lyckades man para ihop 34 rabbiners<br />
namn med deras födelsedata. Något så märkligt kan inte vara en slump<br />
utan måste vara ett hemligt meddelande från Gud. Alltså …nns Gud<br />
(vilka dumheter man får höra). Nu kan man med statistiska metoder<br />
bevisa att slumpen faktiskt ger dylika e¤ekter (se [8, Qvartilen Vol 19-<br />
3, Olle Häggström]). Statistik kan därför även användas för att avslöja<br />
direkt felaktiga påståenden och blir därmed ett utmärkt verktyg för att<br />
hålla ’koll’på medvetet/omedvetet ’ljug’från både politiker, astrologer<br />
och andra.<br />
För att kunna fungera som ett verktyg för utveckling och renhållning<br />
behöver statistiken matematiken ty med matematikens hjälp kan en statistiker<br />
visa att t ex aritmetiska medelvärden uppträder på ett speciellt<br />
sätt när antalet mätningar ökar. Detta betyder att den som vill stud-<br />
1
2<br />
era statistik måste, för att få verklig behållning av och självständigt<br />
kunna använda de statistiska verktygen, börja med att studera matematik.<br />
Har man inte elementa inom matematik klart för sig så blir<br />
statistiken knastertorr (utantillärning) och, utanför den deskriptiva statistikens<br />
värld, totalt obegriplig. Av denna anledning …nns till denna bok<br />
en nätbok, <strong>Introduktion</strong> till matematik för ekonomer, som innehåller det<br />
minimum av kunskaper i matematik som behövs för att med god behållning<br />
kunna tillägna sig denna bok.<br />
Jaha vad handlar nu statistik om? <strong>Till</strong>spetsat kan man säga att<br />
statistik handlar om två saker 1) Hur man beräknar medelvärden och<br />
2) begreppet oberoende händelser. Sannolikt får jag en massa belackare<br />
som hävdar annat så jag får likt biskop Brask skriva en liten lapp:<br />
Hur man sedan använder dessa kunskaper är fram till var och en.<br />
Olle Sjöström påminner om statistikens tre ben (se [9, Qvartilen Vol<br />
20-2, Olle Sjöström])<br />
Svårigheterna att svara på frågan ”Vad är statistik?”beror<br />
inte minst på att statistikens idéhistoriska framväxt är komplex<br />
och svårfångad. Ett sätt att söka beskriva denna utveckling<br />
är att skilja på tre olika linjer.<br />
1) Statistik som kritisk samhällslära med rötter i Upplysningen.<br />
2) Statistik som generell metod, i dagens statistiska språkbruk<br />
en metod för surveyundersökningar, i allmänt språkbruk<br />
”statistisk undersökning”. En teori formulerades i slutet av<br />
1800-talet.<br />
3) Statistik som tillämpning av sannolikhetsmodeller, som<br />
har haft en stark utveckling under 1900-talet. Det är fråga<br />
om en mer utbyggd statistiskt orienterad matematik, även<br />
kallad ”matematisk statistik”.<br />
Dessa tre traditioner lever kvar i dag. Alla tre …nns med<br />
i statistikens olika tillämpningar, den tredje dominerar undervisning<br />
och forskning inom universitet och högskolor nästan<br />
helt. Även i det samhällsvetenskapliga ämnet statistik<br />
c Mikael Möller
1. Vad statistik handlar om 3<br />
har denna uppfattning fått insteg och intresset har glidit mer<br />
mot andra tillämpningar än de samhällsvetenskapliga. I det<br />
följande vill jag söka visa, att alla dessa tre traditioner är<br />
relevanta . . . .<br />
Ovanstående beskrivning stämmer bra med de faktiska förhållandena<br />
och det är onekligen så att det första benet har haft en tendens till att bli<br />
bortglömt och det andra har den statliga myndigheten SCB tagit hand<br />
om. Men både det första och andra benet behöver det tredje för att få<br />
hjälp att undvika fällor och fel.<br />
1.1 Modeller<br />
Innan vi börjar räkna på medelvärden måste vi göra mätningar och dessa<br />
mätningar måste ha någon form av relevans för oss. Detta betyder att<br />
innan vi börjar mäta måste vi bestämma varför vi skall mäta, vad vi<br />
skall mäta och hur vi skall mäta. För att bli lite mer konkret tänker<br />
vi oss ett företag som sysslar med guldprospektering. Den första frågan<br />
’varför’får då svaret: För att hitta lönsam guldmalm. Vi kommer sedan<br />
över på frågan vad vi skall mäta – guld så klart! Ja men hur? Så<br />
hamnade vi på den sista frågan ’hur’ innan vi besvarat ’vad’. Detta<br />
är egentligen inget att förundras över – de två frågorna hänger intimt<br />
samman. Hur prospekterar man guld? Min naiva tanke är att man<br />
i lämpligt område utför borrningar som ger borrkärnor. På lämpliga<br />
ställen på dessa borrkärnor gör man analyser av guldförekomsten hos,<br />
säg, en kubikcentimeter. Nu börjar det bli komplicerat ty vad du just<br />
läst innebär dels en metod för att välja borrhål och dels en metod för att<br />
välja ut de delar av borrkärnan som skall analyseras. Men vi har i varje<br />
fall kommit fram till svaret på frågan ’vad’och det blev: Guldhalten i<br />
en (sammanhängande) kubikcentimeter borrkärna. Detta leder mig till<br />
att skapa följande storhet<br />
X = guldhalten i en cm 3 borrkärna.<br />
Eftersom vi kommer att analysera ‡er prov, säg n, så erhåller vi n stycken<br />
guldhalter X1; X2; : : : ; Xn. När vi så har erhållit dessa n guldhalter så<br />
måste vi fatta beslut om brytning eller ej och det är självklart så att om<br />
alla prov innehåller 100% guld så tar vi fram spaden och börjar gräva<br />
och om inget prov innehåller guld packar vi ihop vår utrustning för att<br />
pröva vår lycka annorstädes. Någonstans däremellan …nns gänsen för<br />
brytvärd respektive ej brytvärd malm.<br />
c Mikael Möller
4 1.2. Tre typer av medelvärden<br />
Vad vi nu har gjort är att skapa början till en modell av det som vi<br />
är intresserade av, i detta fall guldhalten, och vi har infört beteckningen<br />
X för att beteckna guldhalten hos en cm3 malm innan vi ens har mätt<br />
denna halt. En naturlig beteckning för den faktiska uppmätta halten<br />
blir x så vi …nner alltså de faktiska procentvärdena x1; x2; : : : ; xn t ex<br />
0:001; 0:002; : : : ; 0:000. Nästa fråga är hur vi på bästa sätt skall hantera<br />
denna information för att avgöra om det …nns brytvärt guld eller ej när<br />
vi tagit säg n = 1000 prov. Detta blir för många värden för hjärnan<br />
att överblicka och vi behöver någon form av samlingsmått. Här skall<br />
vi endast ange ett (man kan tänka sig hur många som helst) som har<br />
blivit mycket grundligt studerat under århundrandenas lopp nämligen<br />
det aritmetiska medelvärdet<br />
X = 1<br />
n<br />
och dess observerade motsvarighet<br />
x = 1<br />
n<br />
nX<br />
i=1<br />
Xi<br />
nX<br />
xi.<br />
Vårt beslut att bryta eller ej kommer således att basera sig på talet x<br />
men hur beslutet skall fattas blir en senare historia.<br />
Vi skall nu gå över till att studera det aritmetiska medelvärdet och<br />
dess egenskaper men innan vi börjar med denna studie noterar vi ytterligare<br />
en sak om vårt exempel, nämligen: De värden som är möjliga att<br />
observera ligger alla mellan 0 och 100. Mängden av dessa tal betecknar<br />
vi med X och det gäller<br />
i=1<br />
X = fx j 0 x 100g .<br />
Detta utläses "mängden omega-X där X antar alla reella tal mellan 0<br />
och 100". Mängden X kallas X:s utfallsrum och anger precis de värden<br />
som är möjliga att erhålla vid en mätning av X.<br />
Sammanfattning Vi har infört beteckningen stor bokstav för det<br />
som vi skall mäta och liten bokstav för det som är uppmätt. De<br />
möjliga mätvärdena, utfallsrummet, betecknas med X eller alternativt<br />
(X).<br />
1.2 Tre typer av medelvärden<br />
Ovan nämnde vi att det …nns en uppsjö av samlingsmått men namngav<br />
bara ett –det aritmetiska medelvärdet. Här skall vi börja med att kort<br />
c Mikael Möller
1. Vad statistik handlar om 5<br />
ta upp ytterligare två samlingsmått –median och typvärde –för att<br />
därefter ta itu med analysen av det aritmetiska medelvärdet.<br />
1.2.1 Median<br />
Om vi ordnar alla värden i växande storleksordning och sedan tar det<br />
mittersta värdet (om antalet mätningar är jämnt tar vi summan av de två<br />
mittersta värdena och delar med 2) så får vi ett medelvärde som kallas<br />
median. Denna storhet har egenskapen att precis hälften av guldhalterna<br />
understiger medianen och den resterande hälften är större än medianen.<br />
Medianen är därför, för oss, en bra kandidat till ett medelvärde.<br />
Ovan har vi betecknat våra mätvärden med x1; x2; : : : ; xn och om vi<br />
ordnar dessa i växande storleksordning och inför beteckningen (i) för<br />
att beteckna det storleksmässigt i:te mätvärdet har vi för den ordnade<br />
mätmängden följande beteckning<br />
där det gäller att<br />
x (1); x (2); : : : ; x (n)<br />
x (1) x (2) x (n).<br />
Med detta skrivsätt de…nerar vi nu medianen enligt<br />
De…nition 1 (Median) Med medianen, M (x), till mängden av mätvärden<br />
fx1; x2; : : : ; xng menas talet<br />
8<br />
<<br />
M (x) =<br />
:<br />
x (k)<br />
x (k) + x (k+1)<br />
2<br />
n = 2k + 1<br />
n = 2k<br />
Medianen är således ett bra förslag på medelvärde och det är ett uppriktigt<br />
värde ty det är just det mittersta värdet av de givna värdena.<br />
1.2.2 Typvärde<br />
Ett annat uppriktigt värde är det så kallade typvärdet, T (x), som helt<br />
enkelt är det vanligast förekommande värdet. Detta värde kan dock vara<br />
svårt att de…niera för många typer av mätvärden. Tag t ex längder av<br />
män och antag att vi mäter längden, i cm, hos 10 män och att vi då får<br />
längderna<br />
173; 165; 178; 151; 173; 173; 179; 169; 189; 173.<br />
c Mikael Möller
6 1.2. Tre typer av medelvärden<br />
Vi ser direkt att fyra av dem är 173 cm långa. Typvärdet skulle i detta<br />
fall bli just 173 cm. Men om vi nu tar och mäter längden av dessa 4 i mm<br />
så skulle vi troligtvis få att alla fyra har olika längd och typvärdet blir<br />
då ode…nierat. Typvärdet är således inget bra mått för genomsnittligt<br />
värde eftersom det blir beroende av sorten. Ibland kan det dock ge en<br />
viss information.<br />
1.2.3 Aritmetiskt medelvärde<br />
Det artitmetiska medelvärdet är grundbulten inom statistik och denna<br />
bok. För att se detta måste vi ha ett ‡exibelt exempel (eller snarare<br />
‡era) där vi kan exempli…era olika egenskaper på sätt som är lätta att<br />
förstå. Eftersom detta är en bok i statistik, för ekonomer, med en speciell<br />
inriktning mot grunderna inom …nansiell statistik så skall vi som utfallsrum<br />
betrakta Den Nordiska Börsen 1 under 100 dagar. Detta utfallsrum<br />
är ändligt om än mycket stort och ändligheten behövs för att enkelt<br />
införa vissa storheter och begrepp. Bilda nu följande storheter<br />
X1 = Broström B, slutkurs mätt i ören,<br />
X2 = Atlas Copco B, slutkurs mätt i ören,<br />
X3 = Rörvik Timber B, slutkurs mätt i ören.<br />
Observera här min petighet med angivande av mått och tidpunkt (statistiker<br />
blir lätt lite petiga eftersom de lärt sig att ’skit in blir skit ut’,<br />
ursäkta svenskan). Den i:te dagens slutkurser ger vi beteckningarna X1i,<br />
X2i och X3i där i = 1; 2; : : : ; 100.<br />
Statistiker har ett speciellt sätt att kalla sådana storheter: stokastiska<br />
variabler. Stokastisk betyder slumpmässig, så vi har slumpmässiga<br />
variabler eller kort och gott slumpvariabler. Ett alternativt sätt att<br />
uttrycka sig blir då: X1, X2 och X3 är tre stokastiska variabler. Detta<br />
uttryckssätt kommer att spara en hel del trycksvärta framöver samt underlätta<br />
införandet av nya begrepp, men visst blir det mer abstrakt. Men<br />
med abstraktionen följer å andra sidan en betydligt ökad tillämplighet<br />
ty jag behöver inte nämna några aktier – dessa ingår som specialfall.<br />
Vårt exempel med en aktieportfölj kan då innefattas i de tre stokastiska<br />
variablerna X1, X2 och X3 på det ändliga utfallsrummet 2<br />
(X) = fx j x 2 f0; 0:01; 0:02; : : : ; 300:00gg<br />
= f0; 0:01; 0:02; : : : ; 300:00g .<br />
1 Den Nordiska Börsen …nns på adressen http://www.omxgroup.com/omxcorp/<br />
(20070116).<br />
2 Atlas Copco B kostade i skrivande stund mest ca 245 kronor.<br />
c Mikael Möller
1. Vad statistik handlar om 7<br />
Med detta exempel i bakhuvudet betraktar vi nu det abstrakta men<br />
ändliga utfallsrummet<br />
(X) = fx1; x2; : : : ; xNg<br />
av storlek N. Det aritmetiska medelvärdet, A (X), de…nieras av att man<br />
summerar alla mätvärden och dividerar med antalet summerade värden<br />
d v s man bildar<br />
A (X) = x1 + x2 + + xN<br />
N<br />
och vi skall närmast undersöka vilka egenskaper denna storhet har.<br />
Balanseringspunkt<br />
Antag att vi har två lika vikter om v kg utplacerade på en homogen<br />
planka. Den första vikten be…nner sig på avståndet x1 från plankans<br />
vänstra ändpunkt och den andra på avståndet x2 från samma punkt.<br />
Hur kan vi nu bestämma den punkt (jämviktspunkt, balanseringspunkt)<br />
på plankan där de två vikternas inverkan tar ut varandra d v s där vi<br />
skall placera en bock för att erhålla balans.<br />
v<br />
(a)<br />
v1<br />
v2<br />
(c)<br />
x1<br />
x1<br />
x<br />
?<br />
x<br />
?<br />
x2<br />
x2<br />
v<br />
(b)<br />
v3<br />
v1<br />
v2<br />
(d)<br />
x<br />
?<br />
x1 x2 x3<br />
Figur 1.1: Balanseringspunkter i fyra olika typfall<br />
x1<br />
x<br />
?<br />
x2<br />
x3<br />
c Mikael Möller
8 1.2. Tre typer av medelvärden<br />
Beteckna denna balanspunkt med x. Vi vet enligt fysikens lagar<br />
(eller om man så vill enligt lekparkens) att följande jämviktsekvation<br />
(…gur 1.1a) måste gälla<br />
(x x1) v = (x2 x) v.<br />
Ur denna ekvation är det lätt att lösa ut den sökta punkten,<br />
x = x1 + x2<br />
.<br />
2<br />
Men vi skall också skriva jämviktsekvationen på ett annat sätt nämligen<br />
(x1 x) v + (x2 x) v = 0<br />
ty denna form låter sig lätt generaliseras både till ett godtyckligt antal<br />
vikter och godtyckliga vikter. Antag först att vikterna är v1 och v2<br />
istället för v (…gur 1.1c). För att jämvikt skall gälla måste fortfarande<br />
(x x1) v1 = (x2 x) v2 , (x1 x) v1 + (x2 x) v2 = 0<br />
och ur denna ekvation erhålls<br />
x = v1x1 + v2x2<br />
.<br />
v1 + v2<br />
Antag nu att vi har tre lika vikter v på avstånden x1, x2 och x3 och<br />
söker jämviktspunkten för dessa tre vikter (…gur 1.1b). Vi konstaterar<br />
då först att de två första vikterna kan ersättas med vikten 2v i x2 (där<br />
vi lagt till index 2 i x för att markera två vikter). Därefter har vi ånyo<br />
två vikter men denna gång med vikterna 2v på avståndet x2 respektive<br />
v på avståndet x3. Detta ger jämviktsekvationen<br />
varur vi erhåller<br />
(x2 x3) 2v + (x3 x3) v = 0<br />
x3 = 2vx2 + vx3<br />
3v<br />
= v (x1 + x2) + vx3<br />
3v<br />
= x1 + x2 + x3<br />
.<br />
3<br />
Man övertygar sig lätt (?) om att jämviktsekvationen i detta senare fall<br />
kan skrivas<br />
(x1 x) v + (x2 x) v + (x3 x) v = 0.<br />
c Mikael Möller
1. Vad statistik handlar om 9<br />
Den allmäna jämviktsekvationen med tre olika vikter v1, v2 och v3 på<br />
avstånden x1, x2 och x3 blir analogt<br />
varur vi erhåller<br />
(x1 x3) v1 + (x2 x3) v2 + (x3 x3) v3 = 0<br />
x3 = v1x1 + v2x2 + v3x3<br />
v1 + v2 + v3<br />
=<br />
3X<br />
vi<br />
xi P3 i=1 j=1 vj<br />
Medelst ett enkelt induktionsbevis (se <strong>Introduktion</strong> till den ekonomiska<br />
matematiken) kan man nu visa (för dem som inte tror på sanningshalten)<br />
att det allmänt gäller<br />
nX<br />
vi<br />
xn = xi Pn i=1 j=1 vj<br />
=<br />
.<br />
nX<br />
i=1<br />
xipi<br />
för n olika vikter på olika avstånd. Den införda storheten pi kommer vi<br />
behandla utförligt längre fram.<br />
Storheten xn kallas det aritmetiska medelvärdet och för specialfallet<br />
vi = v erhålls, som ett specialfall, den storhet som vanligtvis<br />
förknippas med A (x), det aritmetiska medelvärdet baserat på n mätvärden.<br />
Tre egenskaper<br />
Funktionen A (X) har tre viktiga egenskaper som alla synes vara självklara<br />
men som inte desto mindre är av stor betydelse. För den vidare<br />
framställningen behöver vi<br />
De…nition 2 Med X avses följden av tal fx1; x2; : : : ; xN g = fxig N<br />
i=1 .<br />
Vi skriver nu<br />
X 0 när alla Xi 0.<br />
X = 1 när alla Xi = 1.<br />
Den första egenskapen hos funktionen A (X) kan nu skrivas: 1) om<br />
X 0 så gäller att A (X) 0. Trivialt sant ty summerar man positiva<br />
tal så blir summan positiv. Den andra egenskapen är 2) om X1 och X2<br />
är två stokastiska variabler och c1 och c2 är två rella tal så gäller att<br />
A (c1X1 + c2X2) = c1A (X1) + c2A (X2) .<br />
c Mikael Möller
10 1.3. Tre typer av avvikelser<br />
Tänk bara på en portfölj som består av två aktier. Oavsett om vi betraktar<br />
protföljen som helhet eller varje aktie för sig så skall ju slutresultatet<br />
bli detsamma. Den tredje och sista egenskapen är 3) Om X = 1 så gäller<br />
att A (1) = 1. Sätt Xi = 1 i uttrycket för A (X) varvid påståendet följer<br />
direkt.<br />
Funktionen A (X) kallas inom matematiken, en normaliserad linjär<br />
operator och till dessa har vi anledning att återkomma många<br />
gånger. Vidare noterar vi att alla resonemang går igenom även om utfallsrummet<br />
är oändligt.<br />
Ofta har vi inte tillgång till hela utfallsrummet utan endast en del av<br />
det, säg n värden, d v s vi har ett urval. Vi kan då inte beräkna A (X)<br />
men väl A (x) där<br />
Här gäller för subindex Ii att<br />
x = fxIi gn<br />
i=1 .<br />
Ii = 1 om det i:e värdet i X är med i urvalet,<br />
0 annars.<br />
Detta senare värde A (x) används sedan som en approximation av det<br />
förra A (X). Det gäller naturligtvis att för olika urval x erhålls olika<br />
värden på A (x) och dessa är med säkerhet skilda från det sanna värdet<br />
A (X). Då uppstår två naturliga frågor: 1) hur utspridda är de olika<br />
värdena på A (x) och 2) hur nära kan A (x) tänkas vara det sanna värdet<br />
A (X).<br />
1.3 Tre typer av avvikelser<br />
Under denna rubrik kommer vi uteslutande betrakta det aritmetiska medelvärdet<br />
och lämnar de två andra medelvärdena median och typvärde åt<br />
sitt öde. I och med detta kan vi också kalla det aritmetiska medelvärdet<br />
för medelvärdet kort och gott.<br />
Medelvärdet ger oss en balanseringspunkt för vikter på en planka.<br />
Denna bild förs nu enkelt över till ett två-dimensionellt koordinatsystem<br />
där vikterna symboliseras av pinnar, med olika höjd, utplacerade på xaxeln.<br />
Pinne nummer i be…nner sig på avstånd xi från origo (Detta har<br />
vi egentligen redan gjort i …gur 1.1). För att vara helt generella från<br />
början räknar vi avstånd med tecken. Om vi nu normerar pinnarnas<br />
sammanlagda höjd, pi, till 1 d v s så att PN till att jag införde beteckningen pi för<br />
c Mikael Möller<br />
vi<br />
P N<br />
j=1 vj<br />
i=1 pi = 1 så ser vi ett skäl<br />
(p för ’normerad pinne’)
1. Vad statistik handlar om 11<br />
ovan ty för vikterna gäller att<br />
NX<br />
i=1<br />
vi<br />
P N<br />
j=1 vj<br />
=<br />
P N<br />
i=1 vi<br />
P N<br />
j=1 vj<br />
= 1.<br />
De…nition 3 (Aritmetiskt medelvärde) Med det aritmetiska medelvärdet<br />
förstås den storhet (operator) som beskrivs av uttrycket<br />
där pi =<br />
vi<br />
P N<br />
j=1 vj<br />
A (X) =<br />
och fxig N<br />
i=1 = X.<br />
NX<br />
i=1<br />
xipi<br />
Det är nu klart att två olika uppsättningar pinnar kan ha samma balanseringspunkt<br />
men till sin struktur vara helt olika. Vi skall därför<br />
införa tre olika mått (varians, skevhet och toppighet), som beskriver tre<br />
ytterligare egenskaper, för en uppsättning pinnar.<br />
1.3.1 Varians –standardavvikelse<br />
I nedanstående …gur ser vi dels två lika stora pinnar nära varandra och<br />
dels samma pinnar långt ifrån varandra (pinnen i mitten är inte en pinne<br />
utan en pil –y-axeln).<br />
(a)<br />
x1 = 1 x2 = +1<br />
x1 = 100 x2 = +100<br />
(b)<br />
Figur 1.2: Variansen i två olika typfall<br />
Vi …nner lätt de två …gurernas medelvärden till<br />
x1 =<br />
2X<br />
i=1<br />
xipi = x1 + x2<br />
2<br />
respektive x2 =<br />
4X<br />
i=3<br />
xipi = x3 + x4<br />
2<br />
c Mikael Möller
12 1.3. Tre typer av avvikelser<br />
och dessa medelvärden hamnar båda mittemellan de två positionerna, x1<br />
och x2 respektive x3 och x4, men ändock ger …gurerna helt olika intryck.<br />
Ett mått som mäter detta intryck är variansen (standardavvikelse) som<br />
för dessa två fall de…nieras av<br />
2<br />
1 =<br />
2X<br />
i=1<br />
(xi x1) 2 pi respektive<br />
2<br />
2 =<br />
4X<br />
(xi x2) 2 pi.<br />
För att övertyga oss om att variansen är ett mått på den visuella skillnaden<br />
i …gurerna 1.2a och 1.2b beräknar vi varianserna för de storheter<br />
som ingår i respektive …gur (med de angivna valen blir x1 = 0 och x2 = 0)<br />
och erhåller<br />
2<br />
1 =<br />
2<br />
2 =<br />
2X<br />
i=1<br />
4X<br />
i=3<br />
(xi) 2 1<br />
2 = ( 1)2 + (1) 2<br />
= 1<br />
2<br />
i=3<br />
(xi) 2 1<br />
2 = ( 100)2 + (100) 2<br />
= 10 000<br />
2<br />
En tydligare skillnad än den mellan 1 och 10 000, kan vi inte önska oss.<br />
För att få samma sort som för medelvärdet brukar man dra roten ur<br />
variansen och får då standardavvikelsen. Man erhåller vårt exempels<br />
standardavvikelser till 1 respektive 100.<br />
Allmänt gör vi följande de…nition<br />
De…nition 4 (Varians) Variansen för den stokastiska variabeln X med<br />
utfallsrummet X, med N element, de…nieras av<br />
där X = A (X).<br />
2 =<br />
NX<br />
i=1<br />
xi X 2 pi<br />
Med den ovan införda linjära operatorn A (X) kan variansen även skrivas<br />
3<br />
2 = A X X 2 = A X X 2<br />
och vi …nner följande identitet<br />
A X X 2 = A X 2<br />
= A X 2<br />
2XX + X 2 = A X 2<br />
A 2 (X)<br />
3 Det är lite otympligt att skriva A (X c) 2<br />
2XA (X) + X 2 A (1)<br />
så det …nns en oskriven överenskom-<br />
melse att man istället skriver A (X c) 2 vidare skriver man A 2 (X) för att beteckna<br />
A (X) A (X).<br />
c Mikael Möller
1. Vad statistik handlar om 13<br />
ty A (X) = X.<br />
1.3.2 Skevhet<br />
Nästa steg är att beskriva begreppet skevhet och i …gur 1.3 sid 13 är<br />
a) skev åt vänster, b) symmetrisk och c) skev åt höger.<br />
1<br />
3<br />
(a)<br />
p<br />
1 2 9<br />
1<br />
3<br />
(c)<br />
p<br />
1<br />
3<br />
(b)<br />
p<br />
1 2 9<br />
3 4 5<br />
Figur 1.3: Skevheten i tre olika typfall<br />
Liksom ovan betraktar vi avståndet till medelvärdet och den allmäna<br />
de…nitionen av skevhet i utfallsrummet X är talet A X X 3 . För<br />
detta tal kan vi visa följande identitet<br />
A X X 3 = A X 3<br />
= A X 3<br />
För alla tre …gurer ovan gäller att pi = 1<br />
3<br />
tre fallen i …gur 1.3 till:<br />
3XA X 2 + 3X 2 A (X) X 3<br />
3XA X 2 + 2X 3 .<br />
. Vi …nner nu skevheten i de<br />
c Mikael Möller
14 1.3. Tre typer av avvikelser<br />
a) x1 = 1, x2 = 2 och x3 = 9 vilket ger x = 4 och skevhetens värde<br />
blir<br />
(1 4) 3 1<br />
3 + (2 4)3 1<br />
3 + (9 4)3 1<br />
= 30,<br />
3<br />
b) x1 = 3, x2 = 4 och x3 = 5 vilket ger x = 4 och skevhetens värde<br />
blir<br />
(3 4) 3 1<br />
3 + (4 4)3 1<br />
3 + (5 4)3 1<br />
= 0,<br />
3<br />
c) x1 = 1, x2 = 8 och x3 = 9 vilket ger x = 6 och skevhetens värde<br />
blir<br />
(1 6) 3 1<br />
3 + (8 6)3 1<br />
3 + (9 6)3 1<br />
= 30.<br />
3<br />
Det gäller således att om den största tyngden …nns till vänster om<br />
medelvärdet så erhåller vi en positiv skevhet, om tyngden är jämnt utspridd,<br />
d v s vi har symmetri, så erhåller vi skevheten 0 och slutligen om<br />
den största delen av tyngden ligger till höger om medelvärdet så har vi<br />
en negativ skevhet.<br />
För att få en dimensionslös storhet på skevheten används vanligen<br />
följande de…nition på skevhet:<br />
De…nition 5 (Skevhet) Skevheten för den stokastiska variabeln X med<br />
utfallsrummet X, med N element, de…nieras av<br />
1.3.3 Toppighet<br />
3<br />
A X X<br />
1 = .<br />
Sista steget är att beskriva begreppet toppighet och om vi fortsätter<br />
på den inslagna vägen med högre potenser så de…nerar vi toppigheten i<br />
utfallsrummet X som talet A X X 4 .<br />
För toppigheten gäller följande identitet<br />
A X X 4 = A X 4<br />
= A X 4<br />
3<br />
4XA X 3 + 6X 2 A X 2<br />
4XA X 3 + 6X 2 A X 2<br />
4X 3 A (X) + X 4<br />
3X 4 .<br />
För alla fyra del…gurer i …gur 1.4 sid 15 gäller att x1 = 1; x2 = 2 och<br />
x3 = 3 vilket, tillsammans med värdena på p1, p2 och p3, ger x = 2 i<br />
samtliga fall. Vi …nner nu toppigheten i de fyra fallen till:<br />
c Mikael Möller
1. Vad statistik handlar om 15<br />
6<br />
8<br />
1<br />
8<br />
(a)<br />
1<br />
3<br />
(c)<br />
p<br />
p<br />
1 2 3<br />
1 2 3<br />
2<br />
4<br />
1<br />
4<br />
(b)<br />
2<br />
5<br />
1<br />
5<br />
(d)<br />
p<br />
p<br />
1 2 3<br />
1 2 3<br />
Figur 1.4: Toppigheten för fyra olika typfall<br />
a) p1 = 1<br />
8 , p2 = 3<br />
4 och p3 = 1<br />
8<br />
ger värdet<br />
(1 2) 4 1<br />
8 + (2 2)4 3<br />
4 + (3 2)4 1<br />
= 0:25,<br />
8<br />
b) p1 = 1<br />
4 , p2 = 2<br />
4 och p3 = 1<br />
4<br />
ger värdet<br />
(1 2) 4 1<br />
4 + (2 2)4 1<br />
8 + (3 2)4 1<br />
= 0:5,<br />
4<br />
c) p1 = 1<br />
3 , p2 = 1<br />
3 och p3 = 1<br />
3<br />
ger värdet4<br />
(1 2) 4 1<br />
3 + (2 2)4 1<br />
3 + (3 2)4 1<br />
= 0:666,<br />
3<br />
d) p1 = 3<br />
8 , p2 = 2<br />
8 och p3 = 3<br />
8<br />
ger värdet<br />
(1 2) 4 3<br />
8 + (2 2)4 2<br />
8 + (3 2)4 3<br />
= 0:75.<br />
8<br />
4 ett streck över talet, som i 6, betyder att 6 skall upprepas i all oändlighet.<br />
c Mikael Möller
16 1.4. Tre typer av gram<br />
Figur a) ger ett spetsigare intryck än …gur b) och har även ett mindre<br />
värde på toppigheten. Figur b) är i sin tur spetsigare än …gur c) som i<br />
sin tur är spetsigare än d) (som är urgröpt) och vi får hela tiden störra<br />
värden. Toppighet mäter således en …gurs spetsighet.<br />
För att få en dimensionslös storhet på toppigheten används vanligen<br />
följande de…nition på toppighet<br />
De…nition 6 (Toppighet) Toppigheten för den stokastiska variabeln<br />
X med utfallsrummet X, med N element, de…nieras av<br />
4<br />
A X X<br />
2 =<br />
där trean inte kan förklaras på nuvarande stadium (egentligen är den helt<br />
onödig) utan vi får återkomma till den längre fram.<br />
1.4 Tre typer av gram<br />
Vi skall nu undersöka den information som …nns i pi:na i operatorn<br />
A (X). Låt oss göra det utifrån exemplet med 100 dagars slutkurser i<br />
aktien Rörvik Timber B (period 0102-0601 år 2006). För denna har vi<br />
modellen<br />
X3 = Rörvik Timber B, slutkurs mätt i 10-ören.<br />
där utfallsrummet är en uppräkning av de kurser som faktiskt noterats<br />
(X) = f16:8; 16:9; 17:1; 17:2; 17:3; 17:4; 17:5; 17:8; 17:9; 21:8; 22; : : : ;<br />
4<br />
22:2; 22:4; 22:5; 22:6; 23:5; 23:6; 23:7; 23:8; 23:9; 24; 24:4; 24:5g<br />
Slutkurserna i tidsordning kan ses i tabellen nedan (vilken skall läsas<br />
från vänster till höger, uppifrån och ned)<br />
1.4.1 Stolpdiagram och kumulerat stolpdiagram<br />
Om vi beräknar medelvärdet av dessa slutkurser så erhålls<br />
A (X) = x1 + x2 + + x100<br />
100<br />
3<br />
= 20:869.<br />
Nu är det väl inte så intelligent att räkna ut medelvärdet av aktiekurser 5<br />
men i detta läge är vi ute efter något annat. Vi vet nämligen också att<br />
5 Aktiekurser vandrar och man är mer intresserad av vart de är på väg.<br />
c Mikael Möller
1. Vad statistik handlar om 17<br />
Tabell 1.1: Slutkurser Rörvik Timber B, 2006-01-02–2006-05-29<br />
18:0 17:3 18:0 17:5 17:3 17:2 17:1 16:8 17:1 17:1<br />
16:9 17:4 17:2 17:1 17:3 17:2 17:8 17:5 18:7 18:4<br />
18:0 18:2 17:9 19:5 19:3 19:4 20:8 20:7 21:2 21:3<br />
21:2 21:0 20:6 20:9 21:3 21:3 20:8 22:4 22:2 22:5<br />
21:8 20:7 20:5 20:7 21 21:2 20:5 20:1 20:3 20:0<br />
20:6 20:8 20:6 21:1 21:3 21:1 20:7 20:5 21:0 21:8<br />
21:3 21:5 21:8 21:3 20:9 20:5 20:5 21:3 22:4 22:4<br />
22:4 22:6 22:8 23:0 23:1 24:0 23:5 23:8 23:9 23:6<br />
23:6 23:0 22:0 22:4 22:9 23:0 24:0 23:7 24:0 24:4<br />
24:5 23:5 23:8 22:7 23:0 21:2 22:7 23:0 24:0 23:2<br />
vårt medelvärde kan skrivas<br />
X100<br />
A (X) =<br />
vi<br />
xi PN i=1 j=1 vj<br />
X100<br />
=<br />
i=1<br />
xipi<br />
där talen vi står för vikter. Genom att sortera ovanstående slutkurser i<br />
stigande ordning och därefter räkna antalet gånger en kurs inträ¤ar kan<br />
vi bilda paren (xi; vi) och medelst ett stolpdiagram beskriva hur ofta<br />
t ex kursen 18 förekommer. Vi ser i …gur 1.5 att detta värde förekommer<br />
precis 3 gånger. Detta betyder att att värdet 18 förekommer 3 gånger<br />
bland de 100 värdena d v s att chansen för att få 18 vid lottdragning<br />
bland de 100 slutkurserna är 3 på 100 eller som vi också säger 3%. Nu<br />
kan vi resonera på samma sätt för vart och ett av de i (X) ingående<br />
talen och erhåller då en följd av procentsi¤ror: p1 = 1%, p2 = 1%,<br />
p3 = 4%, o s v speciellt ser vi att p28 = 7%.<br />
Om vi nu istället för Antal på y-axeln inför Procent, eller helt enkelt<br />
bara talet p, så erhåller vi vad vi skall kalla det relativa stolpdiagrammet<br />
och det är detta diagram som kommer att användas framöver. Givet<br />
detta diagram kan vi snabbt utläsa påståenden av typen<br />
Sannolikheten för att X3 = 20:9 är 0:02. 6<br />
Vi ritar inte om det relativa stolpdiagrammet utan nöjer oss med att<br />
konstatera att de ändringar som behöver göras är att byta ut si¤rorna<br />
på y-axeln (t ex 7 ! 0:7) samt skriva p istället för Antal.<br />
Ett annat viktigt diagram som i sig innehåller materialet till ett<br />
mycket viktigt verktyg, som vi har anledning att återkomma till längre<br />
0:02.<br />
6 I matematiken lär vi oss att procent kan skrivas som hundradelar d v s att 2% =<br />
c Mikael Möller
18 1.4. Tre typer av gram<br />
Antal<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
17 18 19 20 21 22 23 24 25<br />
Rörvik<br />
Timber<br />
Figur 1.5: Stolpdiagram över slutkurser i Rörvik Timber B,<br />
period 2006-01-02–2006-05-29<br />
fram, är det relativa kumulerade stolpdiagrammet. Detta diagram<br />
bestäms av punkterna<br />
nX<br />
!<br />
xn; ; n = 1; 2; 3; : : : ; 100.<br />
i=1<br />
xipi<br />
Vi skriver inte upp dess matematiska de…nition, som bara blir krånglig,<br />
utan nöjer oss med …gur 1.6.<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
p<br />
17 18 19 20 21 22 23 24 25<br />
Rörvik<br />
Timber<br />
Figur 1.6: Kumulerat stolpdiagram över slutkurser i Rörvik Timber B,<br />
period 2006-01-02–2006-05-29<br />
Observera att det kumulativa relativa stolpdiagrammet alltid är växande<br />
och går från 0 till 1.<br />
c Mikael Möller
1. Vad statistik handlar om 19<br />
Exempel 1 (SQL-anrop) <strong>Till</strong> en resebyrås databasserver inkommer<br />
SQL-anrop och den dataansvarige har under dagens brådaste timme noterat<br />
hur många anrop som anländer varje minut (och varje anrops<br />
svarstid) och därvid erhållit bland annat följande tabell över anropen<br />
3 5 7 7 8 6 12 8 7 4 2 9<br />
4 9 3 9 8 9 9 5 10 5 9 2<br />
4 6 6 5 4 7 5 7 6 8 5 5<br />
6 5 8 5 2 2 2 6 7 2 5 8<br />
6 4 4 7 9 7 6 6 4 2 5 8<br />
Materialet är tänkt att användas för att söka svar på frågor som: Klarar<br />
servern alltid av att besvara frågorna inom rimlig tid? Hur stor andel av<br />
tiden har servern inga frågor att besvara? Finns det risk för att servern<br />
kan bli överbelastad, så att svarstiderna blir orimliga, och i så fall hur<br />
stor är denna risk? Vi har ännu inte alla de verktyg som behövs för<br />
att kunna besvara dylika frågor men för en första analys kan vi alltid<br />
uttnyttja de vi har. <strong>Till</strong> att börja med beräknar vi de fyra måtten<br />
x s 2 g1 g2<br />
Medelvärde Varians Skevhet Toppighet<br />
5:90 5:41 0:08 0:39<br />
Vidare …nner vi materialets relativa stolpdiagram och relativa kumulerade<br />
stolpdiagram –se …gur 1.7a och 1.7b.<br />
0 .2<br />
0 .1<br />
p<br />
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2<br />
(a) Stolpdiagram<br />
A n r o p<br />
1 .0<br />
0 .8<br />
0 .6<br />
0 .4<br />
0 .2<br />
p<br />
1 2 3 4 5 6 7 8 9 1 0 1 1 1 2<br />
(b) Kumulerat stolpdiagram<br />
Figur 1.7: SQL-anrop till en server<br />
1.4.2 Histogram och kumulerat histogram<br />
A n r o p<br />
Hitills har vi betraktat de möjliga slutkurserna för Rörvik Timber B<br />
som varande ett ändligt antal men en stunds eftertanke ger att detta<br />
c Mikael Möller
20 1.4. Tre typer av gram<br />
utfallsrum bara är en approximation av alla de möjligheter som …nns.<br />
Det skulle därför inte vara helt fel att för Rörvik Timber B tänka sig ett<br />
utfallsrum av typen<br />
X = fx j 16:8 x 24:5g .<br />
Detta utfallsrum består då av oändligt många punkter och idén med<br />
stolpdiagram fungerar inte längre. Vad vi då kan göra är att fösa ihop<br />
alla observationer i ett intervall t ex kan vi notera antalet observationer<br />
mellan 16:8 x < 16:9, mellan 16:9 x < 17 o s v. Den uppmärksamme<br />
ser nu att vi i princip är tillbaks till stolpdiagrammet men nu från en<br />
annan utgångspunkt. Vidare är valet av intervall godtyckligt ty jag<br />
kunde lika gärna ha valt intervallen 16:8 x < 17, 17 x < 17:2 o s v<br />
eller varför inte olika intervalllängder 16:7 x < 17:3, 17:3 x < 17:7<br />
o s v. Alla varianter kan förekomma och vissa av dem är bättre på att<br />
avslöja inneboende strukturer hos data än andra. För att komma fram<br />
till en avslöjande intervallindelning …nns ingen annan metod än att göra<br />
intelligenta prövningar.<br />
<strong>Till</strong> varje indelning hör ett histogram och dess kumulerade histogram<br />
och vi skall för vår illustration välja indelningen 16 x < 17, 17 x <<br />
18 o s v –se …gur 1.8a och b.<br />
Exempel 2 (Skogsområde) Vid försäljning av ett skogsområde skall<br />
områdets värde i form av avverkningsbart timmer uppmätas. För att göra<br />
detta indelades området i ett rutnät om N rutor ur vilka 49 rutor togs<br />
slumpmässigt. I varje utvald ruta uppmättes därefter volymen timmer<br />
varvid följande avrundade värden, i något mått, erhölls<br />
0:7 0:9 1:0 1:3 1:9 2:7 3:2<br />
3:4 3:4 3:5 3:5 4:3 5:2 5:9<br />
6:0 6:3 6:5 6:6 7:1 7:4 7:6<br />
7:9 8:3 8:3 8:3 8:3 8:7 10:0<br />
10:0 10:3 12:0 13:4 14:1 14:8 16:7<br />
16:8 17:1 17:7 18:9 19:0 19:4 19:7<br />
24:3 26:2 26:2 28:3 31:7 39:3 44:8<br />
Analysera materialet och skatta den totala mängden timmer i skogsområdet.<br />
Data är de…nierat på ett sådant sätt, volymmått, att det kan<br />
betraktas som kontinuerligt. De fyra måtten blir<br />
c Mikael Möller<br />
x s 2 g1 g2<br />
Medelvärde Varians Skevhet Toppighet<br />
12:0 100:0 1339:5 45121
1. Vad statistik handlar om 21<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
p<br />
(a) Histogram<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
p<br />
17 18 19 20 21 22 23 24 25<br />
17 18 19 20 21 22 23 24 25<br />
(b) Kumulerat histogram<br />
Rörvik<br />
Timber<br />
Rörvik<br />
Timber<br />
Figur 1.8: Två typer av …gurer över slutkurser i Rörvik Timber,<br />
period 2006-01-02–2006-05-29<br />
Vi ser att standardavvikelsen (roten ur variansen) är stor jämfört med<br />
medelvärdet och det är därför av vikt att …nna data:s underliggande struktur.<br />
Skevheten säger oss att det mesta av data ligger till vänster om<br />
medelvärdet. Vårt nästa steg blir att rita några lämpliga histogram – se<br />
…gur 1.9 på sid 22. Observera att data självt informerar oss om att en<br />
symmetrisk fördelning inte kan föreligga. I det vänstra histogrammet har<br />
vi lika stor bas på alla rektanglar (vilket är olämpligt vid skeva fördelningar)<br />
och i det högra histogrammet gäller istället att varje rektangel<br />
har lika stor yta.Det vänstra diagrammet är förvisso skevt men alltför<br />
grovt för att ge en bra bild över data. I det högra diagrammet ger vi<br />
varje rektangel en lika stor yta och detta ger en bättre bild över hur data<br />
fördelar sig på ytor med lite respektive mycket timmer. De två första<br />
diagrammen bekräftar således den skevhet som anges av talet g1. Vårt<br />
nästa steg blir att pröva med en …nare indelning som tar hänsyn till att<br />
det …nns mer data i början. Därvid erhålls digram (c) som, av ännu ej<br />
diskuterade skäl, ger en bra beskrivning av data.<br />
c Mikael Möller
22 1.4. Tre typer av gram<br />
0.06<br />
0.05<br />
0.04<br />
0.03<br />
0.02<br />
0.01<br />
0.00<br />
5 10 15 20 25 30 35 40 45<br />
(a) Lika intervall, total yta=1<br />
c Mikael Möller<br />
0.06<br />
0.05<br />
0.04<br />
0.03<br />
0.02<br />
0.01<br />
0.00<br />
0 10 20 30 40 50<br />
(c) Olika intervall, total yta=1<br />
0.07<br />
0.06<br />
0.05<br />
0.04<br />
0.03<br />
0.02<br />
0.01<br />
0.00<br />
5 10 15 20 25 30 35 40 45<br />
(b) Lika ytor, total yta=1<br />
Figur 1.9: Försäljning av ett markområde
2. Stokastiska variabler,<br />
väntevärden och<br />
sannolikheter<br />
I avsnittet om Vad statistik handlar om infördes en mängd nya begrepp<br />
på intuitiv grund och vi skall nu ägna ett par kapitel åt att formalisera<br />
och exakt de…niera vad vi menar med begrepp som stokastisk<br />
variabel, väntevärde (synonym till vårt aritmetiska medelvärde), sannolikhet<br />
(våra pinnar) och fördelningsfunktion (våra diagram). Observera<br />
att om man inte är noggrann inom statistik så kan man bevisa vad som<br />
helst t ex att gud …nns eller att medlemmarna i Stockholms Kooperativa<br />
Hyresförening vill ha höga hyror och många andra tokigheter. I detta<br />
kapitel börjar vi med att diskutera begreppet stokastisk variabel.<br />
2.1 Diskret och kontinuerlig<br />
Trot det eller ej men en stokastisk variabel är faktiskt en funktion så<br />
egentligen verkar benämningen variabel helt korkad. Men för er som<br />
läst lite matematik och speciellt då funktionslära vet att man kan skapa<br />
en funktion av en funktion och då är den ena funktionen en variabel till<br />
den andra (i matematisk formalism blir det att funktionerna f(x) och<br />
g(x) båda med variabeln x ger upphov till funktionen f(g(x)) och g(x)<br />
som faktiskt är en funktion blir en variabel till f(x)). För att erhålla en<br />
intuitiv förståelse för detta tänker vi på situationen kast med en tärning<br />
där vi intresserar oss för antalet prickar som kommer upp d v s vi bildar<br />
den stokastiska variabeln<br />
X = antal prickar som erhålls vid kast med en tärning.<br />
Vad vi oftast tänker på i denna situation är antalet prickar men det<br />
egentliga utfallsrummet innehåller sådana händelser som att tärningen<br />
hamnar på kanten eller hörnet. Även hur tärningen är vriden i förhållande<br />
till något godtyckligt koordinatsystem kommer in. Vår hjärna<br />
applicerar dock en funktion som bortser från dessa möjligheter, den …lterar<br />
bort dem, och det enda som återstår är "antalet prickar". En mer<br />
23
24 2.1. Diskret och kontinuerlig<br />
korrekt beskrivning av vår variabel X är därför<br />
X (!) = antal prickar som erhålls vid kast med en tärning.<br />
för alla ! i mängden av alla möjliga utfall.<br />
Detta ger oss nu en anledning att ta upp skillnaden mellan utfallsrummen<br />
och X. Med utfallsrummet menar vi de…nitionsmängden<br />
till den stokastiska variabeln X och med X avses X:s värdemängd.<br />
Om t ex = f!1; !2; : : :g så blir X = fX (!1) ; X (!2) ; : : :g och om<br />
är uppräkneligt så blir också X det. Vidare …nns inget slumpmässigt<br />
i talet X (!k) och vi betcknar det därför med xk och har därför att<br />
X = fx1; x2; : : :g. Observera att mycket väl kan vara större än X<br />
ty det kan t ex gälla att X (!i) = X (!j). Om vi t ex intresserar oss<br />
för familjer så består dessa ofta av ‡er än en person men varje person<br />
i familjen är en representant för familjen. Detta resonemang är även<br />
giltigt för icke-uppräkneliga utfallsrum t ex kan sex, vid kast med tärning,<br />
komma upp på ett oändligt antal sätt om man beaktar vridningar i<br />
förhållande till något …xerat koordinatsystem.<br />
Stokastiska variabler delar naturligt in sig i två grupper – dels de<br />
som är diskreta och dels de som är kontinuerliga. 1 Vårt nästa steg är<br />
att de…niera vad vi menar med de två orden diskret och kontinuerlig och<br />
för att de…niera dem använder vi oss av utfallsrummets struktur.<br />
Om utfallsrummet för den stokastiska variabeln X kan skrivas<br />
X = fxi j i 2 N \ Bg<br />
där N är de naturliga talen (de positiva heltalen) d v s 1; 2; 3; : : : och B<br />
någon form av begränsning säges utfallsrummet vara diskret (uppräkneligt).<br />
<strong>Till</strong> denna typ av utfallsrum hör mängden av de naturliga talen,<br />
de hela talen, de rationella talen och många ‡er mängder. Mängderna<br />
behöver inte ens bestå av tal utan kan vara alla pilsnerkorvar i ett snabbköp.<br />
Det enda kravet är att elementen (talen, pilsnerkorvarna m m)<br />
i vårt utfallsrum inte får vara ‡er än de naturliga talen (märkligt men<br />
sannt men de hela talen är lika många som den naturliga talen).<br />
Med en diskret stokastisk variabel avses sålunda den funktion som har<br />
ett diskret utfallsrum (X). 2 Med begränsningen B = f1; 2; 3; 4; 5; 6g<br />
svarar vårt (X) ovan de…nitivt mot en diskret stokastisk variabel.<br />
Om utfallsrummet kan skrivas<br />
X = fx j x 2 R \ Bg<br />
1 Detta är vid en noggrannare analys inte helt korrekt men synsättet duger mer<br />
än väl.<br />
2 I löpande text skriver vi (X) och i formelområden X om vi nu överhuvudtaget<br />
bryr oss om att ange X.<br />
c Mikael Möller
2. Stokastiska variabler, väntevärden och sannolikheter 25<br />
där R är de reella talen och B någon form av begränsning säges utfallsrummet<br />
vara kontinuerligt (icke-uppräkneligt). Ett exempel på en<br />
stokastisk variabel som ger upphov till ett kontinuerligt utfallsrum är<br />
X = längden hos en homo sapiens.<br />
Här är en möjlig begränsning på längden 1 cm till 400 cm (även om<br />
längden 1 cm måste vara en kort rackare) ty längden måste vara positiv<br />
och människan kan inte bli hur lång som helst. Vi har således<br />
X = fx j x 2 R \ (1; 400)g<br />
där begränsningen B är intervallet 1 cm till 400 cm. Detta utfallsrum<br />
kan även skrivas<br />
X = fx j 1 x 400g<br />
och det behövs mycken eftertanke för att visa att punkterna i denna<br />
mängd ej är möjlig att räkna upp. Än mer märkligt är att antalet punkter<br />
i intervallet (1; 400) är lika många som antalet punkter i intervallet<br />
(0; 1). 3<br />
De…nition 7 En stokastisk variabel säges vara diskret om dess utfallsrum<br />
är uppräkneligt och kontinuerlig om dess utfallsrum är ickeuppräkneligt.<br />
2.2 Väntevärden<br />
I vår de…nition av A (X) utgick vi ifrån ett ändligt utfallsrum och kunde<br />
visa att funktionen A (X) uppfyller följande tre egenskaper<br />
1. Om X 0 ) A (X) 0<br />
2. Om X1 och X2 är två stokastiska variabler och c1; c2 2 R så gäller<br />
att<br />
A (c1X1 + c2X2) = c1A (X1) + c2A (X2) .<br />
3. A (1) = 1.<br />
Vi skall nu utvidga storheten A (X) till att gälla för godtyckliga<br />
diskreta (d v s även sådana med uppräkneligt oändliga utfallsrum) och<br />
kontinuerliga stokastiska variabler och vi gör detta axiomatiskt (med<br />
icke bevisbara påståenden som vi tror på) genom att stipulera att väntevärdet<br />
(ett generaliserat medelvärde, även kallat det förväntade värdet)<br />
E (X) är en storhet som uppfyller följande<br />
3 Beviset för detta påstående är dock helt elementärt bara man skapar rätt<br />
geometrisk bild.<br />
c Mikael Möller
26 2.2. Väntevärden<br />
Axiom 8 (Väntevärde) För en godtycklig stokastisk variabel X gäller<br />
1. Om X 0 ) E (X) 0.<br />
2. Om X1 och X2 är två stokastiska variabler och c1; c2 2 R så gäller<br />
att<br />
E (c1X1 + c2X2) = c1E (X1) + c2E (X2) .<br />
3. E (1) = 1.<br />
Detta betyder att även E (X) är en normaliserad positiv linjär operator<br />
(på samma sätt som A (X)).<br />
Eftersom vi nu tillåter oändliga utfallsrum behöver vi ytterligare ett<br />
"axiom"<br />
4. Givet stokastiska variabler fXig som växer monotont (Xi Xi+1)<br />
mot en …x gräns X då gäller för dessa stokastiska variabler att<br />
lim<br />
i!1 E (Xi) = E lim Xi = E (X)<br />
i!1<br />
d v s att vi kan låta symbolerna E och lim byta plats.<br />
Nu behövs egentligen inte detta fjärde axiom ty det går att visa att<br />
det, under vissa förutsättningar, gäller och därmed är det inte ett axiom<br />
utan ett bevisbart påstående.<br />
Axiomen ger oss direkt följande viktiga samband.<br />
Theorem 9 För väntevärdesoperatorn E har vi att<br />
1. för godtyckliga Xi 2 (X) och ci 2 R så gäller<br />
E<br />
nX<br />
!<br />
nX<br />
= ciE (Xi) .<br />
i=1<br />
ciXi<br />
i=1<br />
2. om X1 Y X2 så gäller E (X1) E (Y ) E (X2).<br />
Bevis 1 1) Axiom 2 och induktionsbevis ger påståendet. 2) Den första<br />
olikheten följer av axiom 1 och 2 eftersom<br />
varav det följer<br />
Y X1 0 ) E (Y X1) 0 ) E (Y ) E (X1) 0<br />
E (Y ) E (X1) .<br />
Den andra olikheten följer på samma sätt.<br />
c Mikael Möller
2. Stokastiska variabler, väntevärden och sannolikheter 27<br />
Ibland kan det inträ¤a att E (X1) = +1 och E (X2) = 1 så att<br />
E (X1 + X2) = +1 1.<br />
Detta är ett obestämt tal. Vi löser detta problem genom att helt enkelt<br />
inskränka oss till de variabler där detta inte kan inträ¤a (prata om<br />
gordisk lösning) genom att kräva att<br />
2.3 Sannolikhet<br />
E (jXj) < +1.<br />
Hitills har vi undvikit begreppet sannolikhet även om vi pratat om chans<br />
och ’pinnar’vilka båda i princip är synonyma med detta begrepp. Detta<br />
beror på att vi vill sätta den sannolikhet vi skall prata om på en objektiv<br />
och matematiskt formell grund.<br />
Låt vara ett utfallsrum och tag en delmängd A . 4 Bilda nu<br />
den stokastiska variabeln (en s k indikatorvariabel)<br />
IA (!) =<br />
1 ! 2 A<br />
0 ! =2 A<br />
som indikerar om ! …nns i mängden A eller ej. De…niera sedan sannolikheten<br />
för A genom relationen<br />
P (A) = E IA (!) . (2.1)<br />
Notera att P –sannolikheten –i sig är en funktion vars de…nitionsområde<br />
är alla (ja de viktigaste i varje fall) delmängder i utfallsrummet .<br />
En indikatorfunktion har ett par trevliga egenskaper. Om A och B<br />
är två delmängder i så ger …gur 2.1 på sid 28 och en stunds eftertanke<br />
att<br />
1. IA[B (!) = IA (!) + IB (!) om A och B är disjunkta,<br />
2. IA\B (!) = IA (!) IB (!).<br />
Dessa egenskaper låter sig lätt utvidgas, med hjälp av induktion, till att<br />
gälla för n disjunkta mängder.<br />
I följande exempel, baserat på ett diskret utfallsrum, skall ordet ’symmetri’tolkas<br />
som att ’ha identiska egenskaper’.<br />
4 Läsaren må se upp här därför att beteckningen A, nu och framledes, står för två<br />
olika saker. Sammanhanget avgör om vi betraktar en delmängd eller ett medelvärde.<br />
c Mikael Möller
28 2.3. Sannolikhet<br />
A B<br />
(a) Union A [ B<br />
A B<br />
(b) Snitt A \ B<br />
Figur 2.1: Illustration av union och snitt<br />
Exempel 3 Bilda den stokastiska variabeln<br />
X = antalet prickar vid kast med en symmetrisk tärning.<br />
Det gäller då att<br />
X = f1; 2; 3; 4; 5; 6g<br />
ty det är endast dessa tal vi intresserar oss för. Eftersom X kan delas<br />
upp i sex disjunkta delmängder<br />
X = f1g [ f2g [ f3g [ f4g [ f5g [ f6g<br />
erhålls med upprepad användning av 1. ovan och axiom 2 för väntevärdet<br />
att<br />
6X<br />
!<br />
P ( X) = E (I (!)) = E I X fig (!)<br />
=<br />
=<br />
6X<br />
E Ifig (!) =<br />
i=1<br />
6X<br />
pi.<br />
i=1<br />
i=1<br />
6X<br />
P (fig)<br />
Att tärningen är symmetrisk betyder att varje möjligt utfall har samma<br />
sannolikhet (identisk egenskap) d v s pi = p och detta tillsammans med<br />
axiom 3 för väntevärdet ger oss<br />
c Mikael Möller<br />
1 = E (I X (!)) = P ( X) =<br />
i=1<br />
6X<br />
pi =<br />
i=1<br />
6X<br />
p = 6p<br />
i=1
2. Stokastiska variabler, väntevärden och sannolikheter 29<br />
varför sannolikheten p erhålls till (förvånad?)<br />
p = 1<br />
6 .<br />
I detta exempel har vi att elementarmängden 5 ! är en av mängderna<br />
fig, för något i. Observera att det är skillnad på fig och i –den första<br />
storheten är en mängd och den andra ett tal.<br />
Detta gör att vi kan ställa och besvara frågor av typen ’vad är sannolikheten<br />
att få mer än tre prickar vid kast med en symmetrisk tärning’.<br />
Exempel 4 Bilda den stokastiska variabeln<br />
X = antal prickar vid kast med en symmetrisk tärning<br />
där X = f1; 2; 3; 4; 5; 6g. Vi har nu att den efterfrågade sannolikheten<br />
kan skrivas<br />
P (X > 3) = P (f4g [ f5g [ f6g)<br />
6X<br />
!<br />
= E Ifig (!)<br />
=<br />
i=4<br />
6X<br />
E Ifig (!)<br />
i=4<br />
= P (f4g) + P (f5g) + P (f6g)<br />
= 3<br />
= 0:5.<br />
6<br />
Nåväl, inte orkar man skriva hela uppsatser för de enklaste problem så<br />
istället skriver man kortare<br />
P (X > 3) =<br />
gynnsamma utfall för fX > 3g<br />
möjliga utfall<br />
= 3<br />
6 .<br />
Med hjälp av de fyra axiomen, för väntevärdet, kan vi nu generellt<br />
ange sannolikheterna för alla delmängder A, på det diskreta utfallsrummet<br />
= f!kg k2N , till<br />
P (A) = E IA (!) = X<br />
!k2A<br />
P (!k) . (2.2)<br />
5 En av de minsta möjliga delmängderna d v s den innehåller ingen annan delmängd<br />
än sig själv.<br />
c Mikael Möller
30 2.3. Sannolikhet<br />
Sannolikheten pk = P (!k) är sannolikheten för en av de ömsesidigt uteslutande<br />
händelserna (kallade elementarhändelser 6 , t ex att få en sexa)<br />
och denna sannolikhet kan vara godtycklig så länge som axiomen ovan<br />
är uppfyllda d v s den behöver inte anta ett och samma värde för alla k.<br />
Ovanstående ger oss följande alternativa, komplementära, sätt att<br />
beräkna sannolikheter som vi kommer ha stor nytta av framöver.<br />
Theorem 10 För varje utfallsrum<br />
= f!1; !2; : : : ; !Ng<br />
där de tillhörande sannolikheterna p1; p2; : : : ; pN alla är rationella tal så<br />
gäller för en godycklig delmängd A i att<br />
P (A) =<br />
gynnsamma utfall för A<br />
möjliga utfall<br />
Bevis 2 Vi kan i ett första steg betrakta utfallsrummet<br />
0 = !1; f!2; : : : ; !Ng = f!1; ! 0 2g<br />
med sannolikheterna p1 och p 0 2. Det gäller nu att kvoten<br />
p1<br />
p0 2<br />
är ett rationellt tal och det …nns därför tal k och l sådana att i utfallsrummet<br />
00<br />
= f!11; : : : ; !1k; ! 0 21; : : : ; ! 0 2lg ,<br />
där !11 = = !1k och ! 0 21 = = ! 0 2l , har alla elementarhändelser<br />
samma sannolikheter – p00 = 1<br />
k+l . Sålunda inses att varje utfallsrum<br />
= f!1; !2; : : : ; !Ng kan utvidgas till ett nytt och större utfallsrum 0 =<br />
f! 0 1; ! 0 2; : : : ; ! 0 N 0g där varje elementarhändelse har samma sannolikhet<br />
p = 1<br />
N 0 . Det gäller därför att<br />
P (A) = X<br />
E I (! 0 i) = X<br />
p =<br />
= gynnsamma utfall för A<br />
i2A<br />
i2A<br />
möjliga utfall<br />
antal elemtarhändelser i A<br />
N 0<br />
6 Händelse och mängd är synonyma ord för samma sak. Händelse är vardagsspråk<br />
och mängd matematikspråk.<br />
c Mikael Möller
2. Stokastiska variabler, väntevärden och sannolikheter 31<br />
Låt nu X vara en godtycklig stokastisk variabel på utfallsrummet<br />
och If!kg (!) vara indikatorfunktionen för elementarhändelsen !k. Observera<br />
att X är en funktion på utfallsrummet varav följer att uttrycket<br />
X (!) = X<br />
I (!k) X (!k) för ! 2<br />
!k2<br />
är välde…nierat för diskreta utfallsrum. Om vi nu använder förväntningsoperatorn<br />
E på detta uttryck så erhålls<br />
E X (!) = X<br />
E If!kg (!) X (!k) = X<br />
E If!kg (!) X (!k)<br />
!k2<br />
= X<br />
!k2<br />
X (!k) pk<br />
ty X (!k) är ett …xt reellt tal. Detta innebär att vi nu har en metod för<br />
att räkna ut väntevärdet för en diskret stokastisk variabel om vi känner<br />
till de enskilda sannolikheterna pk.<br />
Exempel 5 Bilda den stokastiska variabeln<br />
!k2<br />
X = antal prickar vid kast med en symmetrisk tärning<br />
där X = f1; 2; 3; 4; 5; 6g. För denna variabel gäller att<br />
pk = P (X = k) = 1<br />
6 ; k 2 X<br />
och vi …nner det förväntade antalet prickar till<br />
E (X) =<br />
6X<br />
x<br />
x=1<br />
1<br />
= 3:5.<br />
6<br />
Ett resultat som vi intuitivt känner för ty det är inget annat än balanseringspunkten<br />
för talen 1; 2; 3; 4; 5; 6 – alla med lika sannolikhet (vikt).<br />
Vi har nu ett uttryck för sannolikheten av en mängd A i ett diskret<br />
utfallsrum men vi saknar motsvarande uttryck för de kontinuerliga<br />
utfallsrummen. När det gäller diskreta utfallsrum så är dessa hanterbara<br />
på en elementär nivå ty vi kan alla räkna 1; 2; 3; : : : och det är allt som<br />
behövs. Men de kontinuerliga utfallsrummen skapar problem av en helt<br />
annan dimension (vi behöver t ex måtteori – en av många grenar på<br />
matematikens träd) och vi skall därför nöja oss med att de…niera denna<br />
sannolikhet.<br />
c Mikael Möller
32 2.4. Mera om sannolikheter<br />
De…nition 11 Låt A där är ett kontinuerligt utfallsrum. Det<br />
…nns då en funktion f sådan att<br />
Z<br />
P (A) = E IA (!) = f (!) d!. (2.3)<br />
Funktionen f kallas täthetsfunktion.<br />
Nu säger den matematiska teorin att integraler uppfyller axiom 1 och 2<br />
(de är linjära operatorer). Axiom 3 begränsar valet av möjliga funktioner<br />
f och man kan bevisa "axiom 4" med ytterligare begränsningar på f.<br />
Detta är dock knepigt.<br />
2.4 Mera om sannolikheter<br />
Vi skall nu titta på en del kända satser, som vi kommer ha stor användning<br />
av framöver, vilka gäller oavsett om vi har ett diskret eller<br />
kontinuerligt utfallsrum. I det följande utgår vi ifrån ett utfallsrum<br />
och tre delmängder i detta: A, B och C d v s A; B; C . <strong>Till</strong> varje<br />
delmängd hör dess komplementmängd, som också är en delmängd i ,<br />
och denna tecknas med tecknet { framför mängdsymbolen, t ex tecknas<br />
komplementmängden till A som {A och dessa två mängder har egenskapen<br />
att de uttömmer d v s att de tillsammans ger hela<br />
A [ {A = .<br />
Vår framställningen kommer att vara helt algebraisk men på sid 35 …nns<br />
de …gurer som brukar användas för en geometrisk framställning av bevisen.<br />
Vår första sats handlar om komplementet:<br />
Theorem 12 (Komplementsatsen) Om det gäller att A [ {A = så<br />
gäller P {A = 1 P (A).<br />
Bevis 3 Det …nns en stokastisk variabel (indikatorvariabel) sådan att<br />
och för denna gäller att<br />
c Mikael Möller<br />
IA (!) =<br />
A<br />
1 ! 2 A<br />
0 ! =2 A<br />
P (A) = E IA (!) .
2. Stokastiska variabler, väntevärden och sannolikheter 33<br />
Nu gäller, som man lätt övertygar sig om, att<br />
I (!) = I A[{A (!) = IA (!) + I {A (!)<br />
ty A och {A har per de…nition inget gemensamt och eftersom<br />
följer påståendet omedelbart.<br />
P ( ) = E I (!) = 1<br />
Om vi som specialfall tar A = så erhålls att<br />
P { = 1 P ( ) = 0.<br />
För komplementet till inför vi den speciella mängdsymbolen ; = {<br />
och detta är en mängd som inte innehåller någonting, den är tom och<br />
kallas därför för den tomma mängden. För den tomma mängden gäller<br />
P (;) = 0 och för våra två mängder A och {A gäller<br />
A \ {A = ;.<br />
Om det gäller för två mängder A och B att A \ B = ; säger vi att<br />
mängderna är disjunkta.<br />
Den andra satsen studerar unioner av mängder:<br />
Theorem 13 (Additionssatsen) Om det gäller att A; B så gäller<br />
att P (A [ B) = P (A) + P (B) P (A \ B).<br />
Bevis 4 Vi kan antingen angripa problemet direkt eller utnyttja Komplementsatsen.<br />
Det direkta angrepssättet konstaterar att det …nns två indikatorvariabler<br />
IA (!) och IB (!) sådana att<br />
varav följer att<br />
IA[B (!) = IA (!) + IB (!) IA (!) IB (!)<br />
= IA (!) + IB (!) IA\B (!)<br />
E (IA[B (!)) = E (IA (!)) + E (IB (!)) E (IA\B (!))<br />
vilket är ekvivalent med påståendet att<br />
P (A [ B) = P (A) + P (B) P (A \ B) .<br />
Detta sätt är ej enkelt att generalisera till unioner av ‡era mängder.<br />
c Mikael Möller
34 2.4. Mera om sannolikheter<br />
Det indirekta angrepssättet konstater att enligt Komplementsatsen<br />
gäller<br />
Härav följer att<br />
Resten är som ovan.<br />
1 IA[B (!) = I {(A[B) (!) = I {A\{B (!)<br />
= I {A (!) I {B (!)<br />
= 1 IA (!) 1 IB (!) .<br />
IA[B (!) = 1 1 IA (!) 1 IB (!)<br />
= IA (!) + IB (!) IA\B (!) .<br />
I det specialfall då mängderna A och B inte har en enda gemensam<br />
punkt måste det gälla att<br />
P (A \ B) = E IA\B (!) = E (0) = E (0 1) = 0 E (1) = 0<br />
och vi har då den speciella additionssatsen<br />
P (A [ B) = P (A) + P (B) .<br />
Det indirekta angreppssättet är enkelt att generalisera till en union<br />
av ett godtyckligt antal mängder och vi illustrerar nedan med unionen<br />
av tre mängder A, B och C. För dessa erhålls (för att inte tynga texten<br />
skriver vi inte ut variabeln (!)) liksom ovan att<br />
och härav följer att<br />
varför<br />
1 IA[B[C = (1 IA) (1 IB) (1 IC)<br />
IA[B[C = 1 (1 IA) (1 IB) (1 IC)<br />
= IA + IB + IC IA\B IA\C IB\C + IA\B\C<br />
P (A [ B [ C) = P (A) + P (B) + P (C)<br />
P (A \ B) P (A \ C) P (B \ C)<br />
+ P (A \ B \ C) .<br />
Att generalisera detta till ett godtyckligt antal mängder är med denna<br />
metod en trivialitet –ren algebra.<br />
Vår tredje sats studerar skillnaden mellan två mängder:<br />
c Mikael Möller
2. Stokastiska variabler, väntevärden och sannolikheter 35<br />
Theorem 14 (Di¤erenssatsen) Om det gäller att A; B så gäller<br />
att<br />
P (A n B) = P (A) P (A \ B) . 7<br />
Bevis 5 Av additionssatsen följer att<br />
P (A) = P (A n B) [ (A \ B) = P (A n B) + P (A \ B)<br />
varav påståendet följer.<br />
A B<br />
(a) Union A [ B<br />
A<br />
(c) Komplement {A<br />
{A<br />
A B<br />
(b) Snitt A \ B<br />
A B<br />
(d) Di¤erens A n B<br />
Figur 2.2: Illustration av union och snitt<br />
2.5 Betingade sannolikheter<br />
Mycket ofta har man en del förhandskunskap om den situation man betraktar.<br />
Denna kunskap kan utnyttjas för att beräkna den sannolikhet<br />
7 Tecknet n skall läsas ’tag bort alla elementarhändelser i A som också …nns i B’<br />
eller kort och gott ’A minus B’.<br />
c Mikael Möller
36 2.5. Betingade sannolikheter<br />
man söker. Ett mycket enkelt exempel är att fråga sig vad är sannolikheten<br />
för att få en sexa, vid kast med en symmetrisk tärning, när man<br />
vet att resultatet är större än tre. Bilda följande mängder<br />
A = sex prickar erhålls,<br />
B = antalet prickar är ‡er än 3.<br />
Först en beteckning för sannolikheten för A när man vet att B inträ¤at<br />
P (A j B) = P (för A när man vet att B inträ¤at) .<br />
Det statistiska sättet att uttrycka sig är att man söker sannolikheten för<br />
A betingat B och vi skall här …nna en formel för detta uttryck.<br />
Vi resonerar på följande sätt: Eftersom B har inträ¤at så är alla<br />
andra utfall än B ointressanta. Vi vet också att A har inträ¤at och<br />
båda dessa villkor kan bara vara uppfyllda i A\B så det sökta uttrycket<br />
på sannolikheten P (A j B) måste innehålla P (A \ B). Om nu A av<br />
en ren händelse skulle vara B så söker vi sannolikheten att B inträ¤ar<br />
när B inträ¤at och kan den vara annat än 1. Vidare erhålls då att<br />
P (A \ B) = P (B \ B) = P (B) varav följer att en rimlig de…nition av<br />
betingad sannolikhet är<br />
De…nition 15 (Betingad sannolikhet)<br />
P (A j B) =<br />
P (A \ B)<br />
P (B)<br />
ty detta utryck har just egenskapen att bli 1 när A = B. Speciellt ger<br />
det att<br />
P (A j ) = P (A) .<br />
Eftersom att betinga är att begränsa utfallsrummet, d v s att ta ett nytt<br />
och mindre utfallsrum, och räkna utifrån detta accepterar vi på intuitiv<br />
grund ovanstående de…nition.<br />
Det …nns nu två användbara satser för betingade sannolikheter varav<br />
den första är<br />
Theorem 16 (Lagen om total sannolikhet) Om utfallsrummet, ,<br />
kan delas upp i n ömsesidigt uteslutande mängder Ai, i = 1; 2; : : : ; n,<br />
som tillsammans utgör hela så gäller att sannolikheten för en mängd<br />
B kan skrivas<br />
nX<br />
P (B) = P (B j Ai) P (Ai) .<br />
c Mikael Möller<br />
i=1
2. Stokastiska variabler, väntevärden och sannolikheter 37<br />
Bevis 6 Eftersom mängderna B \ A1; : : : ; B \ An är disjunkta gäller<br />
följande likheter<br />
P (B) = P (B \ ) = P B \ ([ n i=1Ai) = P [ n i=1 (B \ Ai)<br />
=<br />
nX<br />
P (B \ Ai) =<br />
i=1<br />
nX<br />
P (B j Ai) P (Ai)<br />
i=1<br />
där den sista likheten följer av de…nitionen av betingning. Denna algebraiska<br />
härledning blir uppenbar om man betraktar …guren nedan<br />
A3<br />
A2<br />
A4<br />
B<br />
A1<br />
: : :<br />
An 1<br />
An<br />
Figur 2.3: Lagen om total sannolikhet<br />
Den andra satsen som rör betingning är egentligen ‡era men de är alla<br />
endast omskrivningar av de…nitionen på betingad sannolikhet. Därför<br />
överlåtes bevisen åt läsaren.<br />
Theorem 17 (Bayes sats) Låt A och B vara två delmängder i då<br />
gäller:<br />
1) Om P (B) > 0 så<br />
så<br />
P (A j B) =<br />
P (B j A) P (A)<br />
P (B)<br />
2) Om [ n i=1 Ai = och P (Ai \ Aj) = ; för i 6= j och om P (B) > 0<br />
P (A j B) =<br />
P (B j A) P (A)<br />
P n<br />
i=1 P (B j Ai) P (Ai)<br />
3) Om P (B) > 0 och P (B j A) > 0 så<br />
P (A j B) P (A)<br />
=<br />
P (B j A) P (B)<br />
c Mikael Möller
38 2.5. Betingade sannolikheter<br />
Det som gör Bayes sats så viktig är att den ger en metod att ska¤a sig<br />
ny kunskap baserad på gammal kunskap enligt följande algoritm<br />
Gammal<br />
Ny<br />
+<br />
+ Bayes Ny<br />
!<br />
sannolikhet information sats sannolikhet<br />
För att bara nämna ett modernt exempel på när denna gamla sats från<br />
1763 behövs; Skräp…lter. Vår tids gissel är den skräppost som skickas<br />
till alla som har en epostadress. Moderna epostprogram hjälper användarna<br />
att ta bort denna post automatiskt och för att avgöra om ett ebrev<br />
är skräp eller ej används just Bayes sats.<br />
Här skall vi inte ange hur algoritmen för att ta bort skräpost fungerar<br />
utan vara lite mer pedagogiska d v s ge några exempel på när Bayes sats<br />
är användbar.<br />
Exempel 6 ett<br />
Begreppet betingning infördes här på sannolikheter eftersom jag personligen<br />
tycker det faller sig mest naturligt. Nu skall vi överföra begreppet<br />
betingning till väntevärden.<br />
Theorem 18 (Betingat väntevärde, introduktion) Givet en mängd<br />
A i det diskreta utfallsrummet och en stokastiska variabel X på detta<br />
utfallsrum. Det gäller då<br />
E (X) = E (X j A) P (A) + E X j {A P {A<br />
Bevis 7 Enligt tidigare kan vi skriva<br />
X (!) = X<br />
!k2<br />
I f!kg (!) X (!k)<br />
och om vi nu vill infoga kunskapen A så gör vi det med en indikatorvariabel<br />
för A. Därvid erhålls uppdelningen<br />
X (!) = X<br />
!k2<br />
= X<br />
!k2<br />
c Mikael Möller<br />
I f!kg (!) IA (!) X (!k) + X<br />
I f!kg\A (!) X (!k) + X<br />
!k2<br />
!k2<br />
I f!kg (!) I {A (!) X (!k)<br />
I f!kg\{A (!) X (!k) .
2. Stokastiska variabler, väntevärden och sannolikheter 39<br />
För väntevärdet erhålls nu, eftersom X (!k) är …xa tal, att<br />
E (X (!)) = X<br />
!k2<br />
+ X<br />
!k2<br />
= X<br />
!k2<br />
+ X<br />
!k2<br />
= X<br />
!k2<br />
+ X<br />
!k2<br />
fxk = X (!k)g = X<br />
!k2<br />
E I f!kg\A (!) X (!k)<br />
E I f!kg\{A (!) X (!k)<br />
P (f!kg \ A) X (!k)<br />
P f!kg \ {A X (!k)<br />
P (f!kg j A) P (A) X (!k)<br />
P f!kg j {A P {A X (!k)<br />
xkP (f!kg j A)<br />
| {z }<br />
E(X(!)jA)<br />
+ X<br />
xkP f!kg j {A<br />
!k2<br />
| {z }<br />
E(X(!)j{A)<br />
Nyttan av denna sats följer av följande<br />
P (A)<br />
P {A<br />
= E (X (!) j A) P (A) + E X (!) j {A P {A<br />
Exempel 7 En säljare av dagstidningar har sin kiosk i Humlegården.<br />
Varje dag köper han n stycken för b kronor stycket och antalet kunder<br />
som under dagen köper sin tidning hos honom betecknar vi med X d v s<br />
X = antalet sålda tidningar under en dag<br />
och (X) = f0; 1; 2; 3; : : : ; ng. Tidningen säljs för a kronor och om han<br />
har slut på tidningar när en kund efterfrågar en gör han en förlust om<br />
c kronor (kostnaden för förlorad förtjänst och förlorad ’goodwill’). Hur<br />
skall säljaren välja n för att maximera sin vinst? För att bestämma n<br />
c Mikael Möller
40 2.5. Betingade sannolikheter<br />
sätter vi först upp följande tabell:<br />
Tidningar Vinst<br />
X n X > n<br />
Sålda aX an<br />
Osålda b (n X) 0<br />
Missade 0 c (X n)<br />
Denna tabell ger oss följande vinstfunktion<br />
v (n; X) =<br />
(a + b) X bn X n<br />
(a + c) n cX X > n<br />
men eftersom antalet sålda exemplar X är okänt fram till dagens slut<br />
skall vi betrakta denna funktions förväntade värde och utnyttjar då satsen<br />
om betingat väntevärde med avseende på mängderna fX ng och<br />
fX > ng. Vi erhåller<br />
V (n) = E v (X; n)<br />
= E v (X; n) j X n P (X n)<br />
+ E v (X; n) j X > n P (X > n)<br />
= (a + b) E (X j X n) bn P (X n)<br />
+ (a + c) n cE (X j X > n) P (X > n) .<br />
Bilda nu den förväntade marginalvinsten för en ytterligare såld tidning<br />
d v s beräkna<br />
V (n + 1) V (n) = = b + bP (X > n) + (a + c) P (X > n)<br />
= b + (a + b + c) P (X > n) .<br />
Om nu n är stort så blir P (X > n) liten och vice versa och detta tillsammans<br />
med ett studium av marginalvinsten medför att för något n så<br />
bör det gälla<br />
V (n + 1) V (n) 0.<br />
Detta ger att vi skall välja n så att<br />
b<br />
P (X > n)<br />
a + b + c .<br />
Via ett relativt elementärt resonemang har vi således kommit fram till<br />
ett tröskelvärde och genom att approximera<br />
f<br />
P (X > n)<br />
m<br />
där f = antal gånger av m där efterfrågan översteg tillgången n så kan<br />
vi genom att testa olika värden på n komma fram till ett optimalt val.<br />
c Mikael Möller
2. Stokastiska variabler, väntevärden och sannolikheter 41<br />
2.6 Betingade väntevärden<br />
I satsen om Betingat väntevärde, introduktion gjorde vi en uppdelning<br />
av utfallsrummet i två disjunkta delmängder, A och {A, och vi skall<br />
nu föra denna idé vidare till ett resultat som har stor betydelse när det<br />
gäller att förenkla räkningar. Antag att vi har två stokastiska variabler<br />
(X och Y ) som är relaterade till varandra i den meningen att kunskap<br />
om den ena är värdefull vid uttalande om den andra. Vi har då följande<br />
Theorem 19 (Betingat väntevärde) Om X och Y är två diskreta<br />
stokastiska variabler med utfallsrummen<br />
X = f!1; !2; : : :g och Y = f 1; 2; : : :g<br />
där Y är en grövre indelning av X, d v s varje i innehåller minst en<br />
av elementarhändelserna !j, så gäller att<br />
E (X) = E E (X j Y ) .<br />
Bevis 8 Eftersom Y är en grövre indelning av X gäller att fX = kg<br />
i för något i. Härav följer den andra likheten nedan. Det följande är<br />
direkta omskrivningar.<br />
E (X) = X<br />
kP (X = k) = X<br />
kP (fX = kg \ Y )<br />
k2 X<br />
= X<br />
k2 X<br />
= X<br />
k2 X<br />
= X<br />
k2 X<br />
l2 Y<br />
k2 X<br />
kP fX = kg \ f[l2 fY = lgg<br />
Y<br />
kP [l2 Y fX = kg \ fY = lg<br />
k X<br />
P fX = kg \ fY = lg<br />
l2 Y<br />
= X<br />
" #<br />
X<br />
kP (X = k j Y = l) P (Y = l)<br />
k2 X<br />
och därmed har vi visat att<br />
| {z }<br />
E(XjY )<br />
E (X) = E E (X j Y ) .<br />
Vad satsen säger är att om vi har ett uttryck som innehåller två beroende<br />
stokastiska variabler och vi skall bestämma väntevärdet för detta uttryck<br />
c Mikael Möller
42 2.6. Betingade väntevärden<br />
så kan vi i ett första steg tänka oss att den ena stokastiska variabeln är<br />
en konstant. I det följande steget tar vi så väntevärdet över denna andra<br />
stokastiska variabel och resultatet blir detsamma som om vi beräknade<br />
väntevärdet för hela utrycket på en gång.<br />
Exempel 8 (Försäkring) Ett försäkringsbolag i Sverige har sålt bilförsäkringar<br />
(personbilar) under en mycket lång tid och har en stor portfölj<br />
av sådana. Försäkringsköparna kommer från hela landet och alla<br />
sociala skikt. Denna portfölj drabbas då och då av skador vilka genererar<br />
kostnader för bolaget. Dessa kostnader (tillsammans med administrationskostnader)<br />
måste på lång sikt täckas av intäkterna och med lång<br />
sikt förstås att den förväntade kostnaden skall vara minst lika stor som<br />
den förväntade intäkten. Bolaget vill nu i ett första steg få en uppskattning<br />
av den totala årliga förväntade kostnaden.<br />
Lösning 1 Börja med att bilda följande två stokastiska variabler för<br />
försäkringsportföljen<br />
Ci = kostnad skada i,<br />
N = antal skador under året.<br />
Om dessa skadekostnader antar vi att de ej påverkar varandra samt alla<br />
har samma väntevärde c och varians 2 C . Det förväntade antalet skador<br />
sätts till n och deras varians till 2 N . Den totala kostnaden för årets<br />
försäkringsfall kan skrivas<br />
C =<br />
NX<br />
i=1<br />
och med hjälp av betingad förväntan erhålls den förväntade kostnaden<br />
till<br />
E (C) = E E (C j N) .<br />
Eftersom E (Ci) = c och E (N) = n samt att antalet skador är oberoende<br />
av skadekostnadernas storlek erhålls<br />
NX<br />
!<br />
E (C) = E E (C j N) = E E (Ci j N)<br />
fCi och N oberoendeg = E<br />
c Mikael Möller<br />
= E<br />
Ci<br />
NX<br />
!<br />
E (Ci)<br />
i=1<br />
i=1<br />
NX<br />
!<br />
c = cE (N) = cn.<br />
i=1
2. Stokastiska variabler, väntevärden och sannolikheter 43<br />
Vi ser således att om storleken på alla skador följer en och samma fördelning<br />
samt om det totala antalet skador är oberoende av skadestorleken<br />
så erhålls den förväntade totala kostnaden under ett år till<br />
E (C) = cn.<br />
Är dessa antaganden rimliga? Ja det är sådana frågor som aktuarier<br />
arbetar med.<br />
Exempel 9 Betrakta kast med ett symmetriskt mynt. Sätt<br />
N = antal kast till och med klave<br />
vad blir då det förväntade antalet kast?<br />
Lösning 2 Sätt (detta är ett trick) för det första kastet<br />
Y =<br />
där p = P (Y = 1). Vi …nner nu att<br />
E (N) = E E (N j Y )<br />
1 om klave<br />
0 annars<br />
= E (N j Y = 1) P (Y = 1) + E (N j Y = 0) P (Y = 0)<br />
= 1 p + (1 + E (N)) (1 p)<br />
ty i det första fallet får vi en klave redan i första kastet och i det andra<br />
har vi gjort ett kast men sedan är situationen exakt likadan som före<br />
kastet. Detta är en ekvation med den sökta storheten i både vänster och<br />
högerled och den ger ekvationen<br />
E (N) (1 1 + p) = p + 1 p<br />
varav det förväntade antalet kast till och med klave blir<br />
E (N) = 1<br />
p .<br />
2.7 Betingade varianser<br />
Med hjälp av avsnittet om betingade väntevärden kan vi med elementära<br />
metoder visa hur vi beräknar betingade varianser eftersom en varians är<br />
skillnaden mellan två väntevärden. Allmänt gäller följande sats.<br />
c Mikael Möller
44 2.7. Betingade varianser<br />
Theorem 20 (Betingad varians) För två godtyckliga stokastiska variabler<br />
X och Y gäller<br />
V (X) = V E (X j Y ) + E V (X j Y )<br />
Bevis 9 Vi ger ett generellt bevis baserat på satsen om betingade väntevärden.<br />
Beviset är därför allmängiltigt bara om vi tror på att satsen om<br />
betingade väntevärden gäller för alla stokastiska variabler. Vi noterar<br />
först att<br />
V (X) = E X 2<br />
E (X) E (X)<br />
och därefter tillämpar vi satsen om betingat väntevärde på de två termerna<br />
till höger om likheten vilket ger oss första raden nedan<br />
V (X) = E E X 2 j Y E E (X j Y ) E E (X j Y )<br />
= E E X 2 j Y E 2 E (X j Y )<br />
E E 2 (X j Y ) + E E 2 (X j Y )<br />
= E E X 2 j Y E E 2 (X j Y )<br />
+ E E 2 (X j Y ) E 2 E (X j Y )<br />
= E V (X j Y ) + V E (X j Y )<br />
Exempel 10 (Försäkring (forts)) Bestäm skadekostnadens variation<br />
i försäkringsexemplet ovan<br />
Lösning 3 Variationen hos den totala skadekostnaden kan skrivas<br />
V (C) = V E (C j N) + E V (C j N) .<br />
Vi beräknar de ingående termerna var för sig. För term 1 erhålls<br />
varför<br />
E (C j N) =<br />
NX<br />
E (Ci j N) = cN<br />
i=1<br />
V E (C j N) = V (cN) = c 2 V (N) .<br />
För term 2 erhålls om skadestorlekarna kan anses vara oberoende att<br />
NX<br />
!<br />
NX<br />
V (C j N) = V Ci j N = V (Ci j N) .<br />
c Mikael Möller<br />
i=1<br />
i=1
2. Stokastiska variabler, väntevärden och sannolikheter 45<br />
Eftersom den enskilda skadestorleken och det totala antalet skador kan<br />
anses vara oberoende så gäller om alla enskilda skador har samma varians<br />
(t ex vid likafördelning) att<br />
varför<br />
V (C j N) = V (Ci) N<br />
E V (C j N) = E V (Ci) N = V (Ci) E (N) .<br />
Det gäller således att den totala skadekostnaden har väntevärdet cn och<br />
variansen<br />
V (C) = c 2 2 N + 2 Cn.<br />
2.8 Oberoende<br />
Betingning har en mycket viktig roll när det gäller att förstå hur begreppet<br />
oberoende skall de…nieras. Intuitivt är det så att två mängder<br />
(händelser) är oberoende av varandra om kunskap om den ena inte påverkar<br />
vår kunskap om den andra d v s om<br />
P (A j B) = P (A) .<br />
Av detta samband och de…nitionen av betingad sannolikhet följer att två<br />
mängder A och B är oberoende om<br />
P (A \ B) = P (A) P (B)<br />
och det är just denna relation som man utgår ifrån när man talar om<br />
oberoende ty den kan ’enkelt’generaliseras till ‡era oberoende mängder.<br />
De…nition 21 (Oberoende mängder) Två mängder A och B säges<br />
vara oberoende om och endast om<br />
P (A \ B) = P (A) P (B) .<br />
Tre mängder A, B och C säges vara oberoende om och endast om det<br />
samtidigt gäller<br />
P (A \ B) = P (A) P (B) ,<br />
P (A \ C) = P (A) P (C) ,<br />
P (B \ C) = P (B) P (C) ,<br />
P (A \ B \ C) = P (A) P (B) P (C) .<br />
c Mikael Möller
46 2.8. Oberoende<br />
Det …nns tyvärr ingen intuitiv bild av vad oberoende är utan man får<br />
lita till ovanstående de…nition. Begreppet oberoende är centralt inom<br />
statistiken och utan detta begrepp funnes icke statistik, som vi känner<br />
den.<br />
Exempel 11 I en vanlig kortlek med 52 kort och fyra färger drar man<br />
på måfå ett kort.<br />
1. Är händelserna "det dragna kortet är hjärter" och "det dragna<br />
kortet är ett ess" oberoende?<br />
2. Tag nu bort följande spader kort –f2; 3; 4; 5g. Är händelserna ovan<br />
oberoende?<br />
Lösning 4 Vi börjar med att beräkna sannolikheterna för den fullständiga<br />
kortleken<br />
P (A) = P (det dragna kortet är hjärter) = 13<br />
52<br />
P (B) = P (det dragna kortet är ett ess) = 4<br />
52<br />
Snitthändelsen är nu "det dragna kortet är hjärter ess" som har sannolikheten<br />
P (A [ B) = 1 13 4<br />
= = P (A) P (B)<br />
52 52 52<br />
och således är de…nitionen för oberoende uppfylld. För den ofullständiga<br />
kortleken …nner vi<br />
P (det dragna kortet är hjärter) = 13<br />
48<br />
P (det dragna kortet är ett ess) = 4<br />
48<br />
Snitthändelsen är nu "det dragna kortet är hjärter ess" som har sannolikheten<br />
1 13 4<br />
6=<br />
48 48 48<br />
och således är de…nitionen för oberoende ej uppfylld. Märkligt! Strider<br />
inte detta mot sunt förnuft?<br />
Vi har tidigare angett två additionssatser för sannolikheter – den<br />
allmäna och den speciella. Vi skall nu formulera två multiplikationssatser<br />
för sannolikheter –den allmäna och den speciella.<br />
c Mikael Möller
2. Stokastiska variabler, väntevärden och sannolikheter 47<br />
Theorem 22 (Multiplikationssatsen) Om det gäller att A; B<br />
så gäller<br />
1. P (A \ B) = P (A j B) P (B).<br />
2. om dessutom A och B är oberoende mängder så gäller<br />
P (A \ B) = P (A) P (B) .<br />
Bevis 10 Punkt 1 gäller per de…nition och punkt 2 följer av att P (A j B) =<br />
P (A) eftersom A och B är oberoende.<br />
Med hjälp av förväntningsoperatorn …nner vi för indikatorvariablerna<br />
för två oberoende mängder att<br />
E IA\B (!) = P (A \ B) = P (A) P (B)<br />
= E IA (!) IB (!) = E IA (!) E IB (!)<br />
och denna relation kommer att vara av betydelse längre fram.<br />
c Mikael Möller
48 2.8. Oberoende<br />
c Mikael Möller
3. Diskreta modeller<br />
I föregående kapitel har vi infört ‡era olika begrepp och vi skall här<br />
använda oss av dessa för att dels lösa ett rätt så knepigt problem och<br />
dels under lösandets gång skapa ytterligare, allmänt användbara, statistiska<br />
verktyg. Med hjälp av dessa nya verktyg skall vi sedan ge en<br />
första elementär lösning på hur man i det diskreta fallet kan prissätta<br />
en köpoption –en föregångare till Black-Scholes formel.<br />
Därefter tar vi itu med några andra problem – epost, försäkring,<br />
spel och kvalitetskontroll –vilka alla kan ges lösningar inom de diskreta<br />
modellernas ram.<br />
3.1 Betygssättning<br />
Vårt första exempel tar upp hur man kan sätta betyg på en 5-veckors<br />
kurs i t ex statistik (ja egentligen vilken kurs som helst) genom att ge<br />
ett antal, i vårt fall 5, småskrivningar allteftersom kursen går igenom<br />
avsnitt för avsnitt. Vi utgår ifrån att varje skrivning skall ha totalt<br />
10 frågor och detta antal skall vi dela upp på ett par olika sätt. I det<br />
första fallet har vi helt enkelt 10 frågor och i det andra fallet har vi två<br />
grupper om 5 frågor vardera. I båda fallen är gränsen för godkänt 6<br />
rätt av 10. Därefter tillåter vi en omtentamen på de skrivningar som<br />
ej blev godkända vid första tillfället. Frågan vi nu ställer oss är: Vad<br />
är sannolikheten att, om vi svarar helt slumpmässigt på varje fråga, bli<br />
godkänd på kursen med denna examinationsform?<br />
Exempel 12 (10 frågor) En skrivning består av 10 frågor och det …nns<br />
4 möjliga svar per fråga – men bara ett svar är rätt. Bestäm sannolikheterna<br />
för 0; 1; 2; 3; 4; 5; 6, 7; 8; 9 och 10 rätt om man för varje fråga<br />
väljer svar helt slumpmässigt.<br />
Lösning 5 Först skapar vi en modell över situationen d v s vi sätter<br />
Xi =<br />
X =<br />
10X<br />
i=1<br />
1 om rätt svar fråga i<br />
0 annars<br />
Xi = antal rätta svar<br />
49<br />
i = 1; 2; : : : ; 10
50 3.1. Betygssättning<br />
där (X) = f0; 1; 2; 3; 4; 5; 6; 7; 8; 9; 10g. Eftersom svaren väljs slumpmässigt<br />
följer att fråga 1 har sannolikheten 0:25 att bli rätt och 0:75<br />
att bli fel. Av slumpmässigheten följer även att resultatet på fråga 2 ej<br />
påverkas av svaret på fråga 1. Med andra ord så föreligger oberoende<br />
resultat för de olika frågorna. I det statistiska språkbruket har vi därför<br />
för händelsen<br />
fXi = 1; Xj = 0g = ffråga i besvaras rätt och fråga j felg<br />
att dess sannolikhet blir<br />
P (Xi = 1; Xj = 0) = P (Xi = 1 j Xj = 0) P (Xj = 0)<br />
Med hjälp av induktion följer nu att<br />
= P (Xi = 1) P (Xj = 0) i 6= j.<br />
P (X1 = i1; X2 = i2; : : : ; X10 = i10) =<br />
10Y<br />
j=1<br />
P (Xj = ij)<br />
där ij är antingen 0 eller 1. För denna modell skall vi nu bestämma<br />
sannolikheterna att få totalt k rätt på en skrivning d v s P (X = k) för<br />
k 2 (X). Det är nu helt trivialt att beräkna P (X = 0) och P (X = 10)<br />
ty i det första fallet måste alla frågor vara fel och i det andra fallet måste<br />
alla frågor vara rätt. Vi har därför<br />
P (X = 0) =<br />
P (X = 10) =<br />
10Y<br />
j=1<br />
10Y<br />
j=1<br />
P (Xj = 0) = 3<br />
4<br />
P (Xj = 1) = 1<br />
4<br />
Det blir dock problem vid beräknande av P (X = 1) ty vi kan få ett rätt på<br />
10 olika sätt: den första är rätt eller den andra är rätt eller eller den<br />
tionde är rätt. Nåväl detta går att hålla reda på och det blir 10 stycken.<br />
Lösningen inses nu lättast genom att helt enkelt räkna upp de möjliga<br />
c Mikael Möller<br />
10<br />
,<br />
10<br />
.
3. Diskreta modeller 51<br />
fallen i en matris<br />
Antal rätt=1<br />
1 2 3 4 5 6 7 8 9 10<br />
1 1 0 0 0 0 0 0 0 0 0<br />
2 0 1 0 0 0 0 0 0 0 0<br />
U 3 0 0 1 0 0 0 0 0 0 0<br />
t 4 0 0 0 1 0 0 0 0 0 0<br />
f 5 0 0 0 0 1 0 0 0 0 0<br />
a 6 0 0 0 0 0 1 0 0 0 0<br />
l 7 0 0 0 0 0 0 1 0 0 0<br />
l 8 0 0 0 0 0 0 0 1 0 0<br />
9 0 0 0 0 0 0 0 0 1 0<br />
10 0 0 0 0 0 0 0 0 0 1<br />
och för vart och ett av fallen har vi sannolikheten<br />
1<br />
4<br />
3<br />
4<br />
Vi har att addera 10 sådana sannolikheter varför den sökta sannolikheten<br />
blir<br />
P (X = 1) = 10 1<br />
4<br />
3<br />
4<br />
9<br />
.<br />
Genom att låta 0 och 1 byta plats i schemat ovan så ser vi att<br />
P (X = 9) = 10<br />
9<br />
.<br />
1<br />
4<br />
9 3<br />
4 .<br />
Nästa steg är att söka sannolikheten för två rätt men eftersom vi då<br />
behöver ett schema med 45 rader ger vi upp denna metod (vi måste ju<br />
även ta hand om tre rätt, fyra rätt o s v). Vårt problem här är att ange<br />
på hur många olika sätt vi kan välja säg 2 platser bland de 10 som står<br />
till förfogande. Nu …nns det en allmän metod för att …nna antalet delmängder<br />
av storlek k i en mängd om n element ([5]) och denna metod<br />
anger antalet till<br />
n<br />
k =<br />
n!<br />
k! (n k)! .<br />
Sannolikheten för två rätt, två ettor och åtta nollor, blir då<br />
P (X = 2) = 10<br />
2<br />
1<br />
4<br />
2<br />
3<br />
4<br />
8<br />
= 45<br />
1<br />
4<br />
2<br />
3<br />
4<br />
8<br />
.<br />
c Mikael Möller
52 3.1. Betygssättning<br />
Allmänt gäller att sannolikheten för k rätt bland de 10 uppgifterna blir<br />
P (X = k) = 10<br />
k<br />
1<br />
4<br />
k<br />
3<br />
4<br />
10 k<br />
, k 2 X.<br />
Ovanstående exempel kan enkelt generaliseras. Om sannolikheten för<br />
en etta är p och sannolikheten för en nolla är q, där p + q = 1, så blir<br />
sannolikheten att få k ettor bland n möjliga densamma som<br />
P (X = k) = n<br />
k pk q n k , k 2 X.<br />
De…nition 23 (Binomialfördelning) När sannolikhetsfunktionen för<br />
den stokastiska variabeln X kan skrivas<br />
P (X = k) = n<br />
k pk q n k , k 2 X<br />
där (X) = f0; 1; 2; : : : ; ng så säges den vara binomialfördelad med parametrarna<br />
n och p. Vi skriver<br />
X 2 Bin (n; p) .<br />
Uppgift 1 Visa att för en binomialfördelad variabel så gäller<br />
1. Pn i=0 P (X = k) = 1,<br />
2. E (X) = np,<br />
3. V (X) = npq.<br />
Eftersom vi kräver att man skall ha minst 6 rätt för att få godkänt så<br />
…nner vi, med hjälp av komplementsatsen, att sannolikheten för godkänt<br />
blir<br />
P (godkänt) = P (X 6) =<br />
10X<br />
k=6<br />
= 1 P (X 5) = 1<br />
10<br />
k<br />
5X<br />
k=0<br />
1<br />
4<br />
k<br />
10<br />
k<br />
3<br />
4<br />
1<br />
4<br />
10 k<br />
k<br />
3<br />
4<br />
10 k<br />
= 1 (0:056 + 0:188 + 0:282 + 0:250 + 0:146 + 0:058)<br />
= 0:02.<br />
Det är således en ganska stor chans att få godkänt även om slumpen får<br />
1<br />
bestämma. Det förväntade antalet rätt blir 10 4 = 2:5 med varians<br />
1 3 10 4 4 = 1:875. Detta ser betryggande ut, men är det inte, och vi<br />
skall utveckla examinationsmetoden lite mer.<br />
c Mikael Möller
3. Diskreta modeller 53<br />
Exempel 13 (Teori och Problem) En skrivning om 10 ‡ervalsfrågor<br />
delas upp i två delar – en teoridel om 5 frågor och en problemdel om 5<br />
frågor. För att få godkänt på skrivningen krävs minst 3 rätt på varje<br />
del och varje fråga har 4 möjliga svar varav endast ett är rätt. Om en<br />
tentand låter kast med två mynt besvara frågorna vad är då sannolikheten<br />
att denne får skrivningen godkänd.<br />
Lösning 6 Sätt<br />
då gäller att<br />
XT = antal rätta svar på teoridelen<br />
XP = antal rätta svar på problemdelen<br />
XT 2 Bin(5; 0:25),<br />
XP 2 Bin(5; 0:25).<br />
Sannolikheten för att få skrivningen godkänd kan skrivas<br />
P (godkänd) = P fXT 3g \ fXP 3g<br />
fty oberoendeg = P (XT 3) P (XP 3)<br />
och vi har därför att bestämma P (XT 3) och P (XP 3). Sannolikheten<br />
för godkänt på teoridelen är<br />
P (XT 3) = 1 P (XT 2)<br />
= 1<br />
2X<br />
k=0<br />
= 1 0:89648<br />
= 0:10352<br />
och på samma sätt för problemdelen<br />
P (XP 3) = 0:10352.<br />
5<br />
k 0:25k 5 k<br />
0:75<br />
Sannolikheten att få en skrivning godkänd är därför<br />
P fXT 3g \ fXP 3g = P (XT 3) P (XP 3)<br />
=<br />
5X<br />
k=3<br />
= 0:0107.<br />
Denna sannolikhet är ungefär hälften av den förra.<br />
5<br />
k 0:25k !2<br />
5 k<br />
0:75<br />
c Mikael Möller
54 3.1. Betygssättning<br />
Uppgift 2 Bestäm väntevärde och varians för denna nya modell.<br />
I exemplet skärpte vi kravet på godkänt genom att införa två delar<br />
men metoden kan utvecklas ytterligare. Antag att en 5 veckors kurs<br />
naturligen delas in i 5 moment.<br />
Exempel 14 (5 skrivningar) En kurs examineras genom att ge 5 skrivningar<br />
av tidigare beskriven typ. För godkänt på kursen krävs nu att alla<br />
5 skrivningar blir godkända. För de skrivningar som blivit underkända<br />
erhålls en ytterligare möjlighet (i samband med den sista skrivningen)<br />
att försöka en gång till. Vad är sannolikheten att bli godkänd på kursen<br />
om slumpen får avgöra? Observera att den sista skrivningen ej kan omtenteras.<br />
Lösning 7 Sätt<br />
då gäller att<br />
för något p samt<br />
Vi söker nu<br />
X4 = antal godkända skrivningar bland de 4 första<br />
X5 = sista skrivningen godkänd<br />
X5 =<br />
X4 2 Bin (4; p)<br />
1 om godkänd,<br />
0 annars.<br />
P (godkänd kurs) = P (X4 = 4; X5 = 1)<br />
fty oberoendeg = P (X4 = 4)P (X5 = 1)<br />
= 4<br />
4 p4 4 4<br />
(1 p)<br />
= p 4<br />
0:0107<br />
0:0107<br />
Här bestäms p av möjligheten att få skrivningen godkänd ’direkt’ eller<br />
vid ’omtentamen’till<br />
p = P (direkt [ omtentamen)<br />
fty disjunkta mängderg = P (direkt) + P (omtentamen)<br />
c Mikael Möller<br />
fbetingningg = 0:0107 + P ( godkänd j första ej godkänd )<br />
P ( första ej godkänd )<br />
= 0:0107 + 0:0107 (1 0:0107)<br />
= 0:021286
3. Diskreta modeller 55<br />
Sannolikheten att få 5 godkända skrivningar medelst rena chansningar<br />
blir nu<br />
P (godkänd kurs) = 0:02129 4<br />
En försvinnande liten sannolikhet.<br />
0:0107 = 0:000 000 002.<br />
Med hjälp av enkla metoder har vi nu kunnat lösa ett relativt komplicerat<br />
problem och när vi gjort det har vi introducerat en hel del nya<br />
storheter och begrepp:<br />
1. Binomialfördelningen.<br />
2. För första gången fördelningen –ja åtminstone dess början.<br />
3. Sannolikhetsfunktionen P (X = k).<br />
4. Fördelningsfunktionen P (X k).<br />
3.2 Optionsmodell<br />
En option är ett kontrakt där utställaren av optionen förbinder sig att<br />
utföra någon speciell handling vid optionens lösendag. Dylika kontrakt<br />
förekommer i två olika varianter, här exempli…erade med köp respektive<br />
försäljning av en aktie.<br />
Köpoption: Utställaren förbinder sig att sälja en aktie till angivet<br />
pris. Den som köper köpoptionen behöver dock ej köpa utan har<br />
valfrihet att avstå –köparen (köparen av aktien) har köpt rätten<br />
att köpa till angivet pris.<br />
Säljoption: Utställaren förbinder sig att köpa en aktie till angivet<br />
pris. Den som köper en säljoption behöver dock ej sälja utan har<br />
valfrihet att avstå –köparen (säljaren av aktien) har köpt rätten<br />
att sälja till angivet pris.<br />
Vi börjar vår analys av optioner med att först dela in tiden i diskreta<br />
tidssteg (inte någon större approximation eftersom vi ändock delar in<br />
tiden i dagar, veckor m m) och vid varje sådant tidssteg har vår aktie ett<br />
marknadspris,<br />
Xt = aktiens marknadspris vid tidpunkt t, t = 0; 1; 2; : : : ; n.<br />
Här svarar tidpunkt 0 mot värdet just nu och eftersom detta värde är<br />
känt tecknar vi det x0 istället för X0. För aktier …nns det som bekant<br />
c Mikael Möller
56 3.2. Optionsmodell<br />
två möjligheter att utvecklas – antingen går de upp eller så går de ner<br />
(att aktiens pris ligger stilla räknar vi som att den går ner). Denna<br />
iakttagelse ger följande stokastiska modell för en akties pris vid tidpunkt<br />
t givet aktiens pris vid närmast föregående tidpunkt (t 1):<br />
Xt = utXt 1 med sannolikheten pt<br />
dtXt 1 med sannolikheten 1 pt<br />
där ut 1 (upp) och 0 dt 1 (ned, negativa aktievärden förekommer<br />
ej – därför är dt 0). Denna modell är dock för generell för att vara<br />
hanterbar och vi inför därför följande förenklingar: I varje tidssteg antages<br />
pt = p, ut = u och dt = d. Detta betyder att aktien anses be…nna<br />
sig i en oföränderlig värld där den underliggande sannolikhetsstrukturen<br />
liksom värdestrukturen är en och densamma hela tiden. Sannolikheten<br />
för att en aktie skall gå upp är p hela tiden och den går alltid upp med<br />
proportionen u respektive ned med proportionen d. Dessa antaganden<br />
gör att vi kan behandla optioner med hjälp av standard binomialresonemang.<br />
3.2.1 Binomial optionsmodell –ett tidssteg<br />
Vi börjar med att bestämma en options pris när vi endast betraktar det<br />
första tidssteget. I detta fall har vi modellen<br />
X1 = ux0 med sannolikheten p,<br />
dx0 med sannolikheten 1 p.<br />
Nu erbjuds vi rätten att i morgon köpa en aktie, som idag är värd x0<br />
kronor, för priset (lösenpriset). Om vi köper denna rätt idag så vet<br />
vi imorgon om vi tjänade på a¤ären eller ej. Om vi låter Y1 beteckna<br />
morgondagens förtjänst så gäller att förtjänsten kan skrivas<br />
Alternativa beteckningar för Y1 är<br />
Y1 = 0 om X1 ,<br />
X1 om X1 > .<br />
Y1 = max(0; X1 ) = (X1 ) + .<br />
Hur skall vi nu bestämma priset för rätten att i morgon köpa aktien till<br />
priset ? På något sätt skall vi välja det pris som känns rättvist för båda<br />
parter, för annars blir det ingen a¤är, och det naturliga valet är att välja<br />
ett pris c1 sådant att om a¤ären görs många gånger så skall ingen tjäna<br />
c Mikael Möller
3. Diskreta modeller 57<br />
på a¤ären. Men eftersom n a¤ärer ger vinsten Pn i=1 y1i så bör priset för<br />
optionen vid varje a¤är vara 1 Pn n i=1 y1i (observera att det verkligen är<br />
fråga om en vinst ty y1i 0 per de…nition). Eftersom det aritmetiska<br />
medelvärdet är en approximation av det underliggande förväntade värdet<br />
har vi följande preliminära de…nition.<br />
De…nition 24 En options rättvisa pris efter ett tidssteg är<br />
c 0 1 = E(Y1) = E max(0; X1<br />
Om vi utvecklar väntevärdet ovan kan köpoptionens pris skrivas om<br />
på följande sätt<br />
c 0 1 = E(Y1) = E max(0; X1<br />
)<br />
) .<br />
= max(0; ux0 )p + max(0; dx0 )(1 p)<br />
= c u 1p + c d 1(1 p).<br />
Där vi för optionens sanna pris infört beteckningen<br />
c u 1 = max (0; ux0<br />
om värdet går upp och beteckningen<br />
c d 1 = max (0; dx0<br />
om värdet går ned –båda beräknade vid tidpunkt 1.<br />
Antag nu att det även …nns möjlighet att under perioden köpa ett<br />
riskfritt värdepapper (t ex en ränteobligation) till räntan r. Detta betyder<br />
att om vi för c 0 1 kronor köper detta papper så har vi säkert c 0 1(1 + r)<br />
kronor efter ett tidssteg. För att vi skall köpa en option måste därför<br />
dess förväntade vinst åtminstone vara minst lika stor som den riskfria<br />
investeringen. 1 Ekvationen ovan måste därför korrigeras så att hänsyn<br />
till detta tas och det görs enligt nuvärdesprincipen. Korrigering enligt<br />
denna princip ger nu upphov till följande korrigerade de…nition av en<br />
options rättvisa pris<br />
De…nition 25 En options rättvisa pris efter ett tidssteg, korrigerat för<br />
den riskfria räntan r, är<br />
c1 = E(Y1)<br />
1 + r<br />
)<br />
)<br />
E max (0; X1 )<br />
=<br />
1 + r<br />
1 Det som gör att man väljer att köpa en option är att den slänger betydligt mer<br />
– chansen till en betydande avkastning är stor – d v s man är en spelare.<br />
.<br />
c Mikael Möller
58 3.2. Optionsmodell<br />
För en options rättvisa nuvärdespris gäller således<br />
c1 = c0 1<br />
1 + r = cu1p + cd 1(1 p)<br />
. (3.1)<br />
1 + r<br />
Observera att storheterna u; d och p är för oss okända men däremot<br />
förutsätts vi känna till den riskfria räntan r.<br />
De tre okända storheterna måste skattas 2 men medelst en enkel observation<br />
kan en av dem uttryckas i de andra två. Vi har nämligen<br />
följande resonemang: Under förutsättning att vi erhåller samma förväntade<br />
ersättning genom att köpa en aktie till priset x0 som om vi sätter<br />
x0 kronor på banken, till ränta r, så gäller, efter ett tidssteg, likheten<br />
(1 + r)x0 = E(X1)<br />
= ux0p + dx0(1 p)<br />
= p(u d) + d x0.<br />
Om vi nu förkortar med x0 och löser ut p så erhålls följande samband<br />
mellan 3 p; u; d och r<br />
p = p(u; d; r) =<br />
1 + r d<br />
. (3.2)<br />
u d<br />
Eftersom storheterna u och d kan skattas med hjälp av historiskt material<br />
kan även sannolikheten p skattas. Denna skattning tar hänsyn till<br />
storleken på r, u och d.<br />
Exempel 15 Antag att det gäller<br />
x0 = 100 = 100<br />
u = 1:1 d = 0:9<br />
r = 0:07<br />
2 Det enklaste sättet att skatta p torde vara med<br />
antal uppgångar under n dagar<br />
^pobs =<br />
n<br />
och för u och d har man skattningarna<br />
P<br />
i procentuell uppgång i:s storlek<br />
^uobs = 1 +<br />
n<br />
samt<br />
P<br />
^dobs<br />
i procentuell nedgång i:s storlek<br />
= 1 +<br />
.<br />
n<br />
3 Här förutsätts u > 1 + r ty annars ger den riskfria räntan en större förväntad<br />
avkastning än aktien.<br />
c Mikael Möller
3. Diskreta modeller 59<br />
då erhålls köpoptionens pris enligt ekvation 3.1 till<br />
max (0; 110 100) 1 + 0:07 0:9<br />
c1 =<br />
1 + 0:07 1:1 0:9<br />
+ max (0; 90 100)<br />
1 + 0:07<br />
1<br />
1 + 0:07 0:9<br />
1:1 0:9<br />
= 7:94<br />
3.2.2 Binomial optionsmodell –‡era tidssteg<br />
För att få en indikation på vart det bär hän med våra formler, när vi<br />
tillåter ett godtyckligt antal tidssteg, n, så skall vi börja med att betrakta<br />
fallet med två tidssteg d v s vi skall beräkna c2. Under två tidssteg kan en<br />
aktie gå upp två gånger, gå ned två gånger eller gå upp en gång och ned<br />
en gång detta ger oss följande möjliga värden på aktien efter 2 tidssteg<br />
8<br />
<<br />
X2 =<br />
:<br />
u 2 x0 med sannolikhet p 2 ,<br />
udx0 med sannolikhet 2p (1 p) ,<br />
d 2 x0 med sannolikhet (1 p) 2 .<br />
Uppgift 3 Visa att P (X2 = udx0) = 2p(1 p).<br />
Om vi låter Y2 beteckna övermorgondagens förtjänst på optionen,<br />
efter två tidssteg, så gäller att<br />
Y2 =<br />
0 om X2<br />
X2 om X2 ><br />
eller med de alternativa beteckningarna<br />
Y2 = max (0; X2 ) = (X2 ) + .<br />
Värdet på en köpoption vid 2 tidssteg blir därför<br />
c 0 2 = E(Y2) = E max (0; X2<br />
= max 0; u 2 x0 p 2 + max (0; udx0 ) 2p (1 p)<br />
+ max 0; d 2 x0 (1 p) 2 .<br />
)<br />
c Mikael Möller
60 3.2. Optionsmodell<br />
Genom att para ihop exponenterna och använda oss av binomialkoe¢ -<br />
cienter kan c 0 2 skrivas om på följande sätt<br />
c 0 2 = max 0; u 2 x0<br />
+ max 0; d 2 x0<br />
=<br />
2X<br />
k=0<br />
max 0; u k d 2 k x0<br />
2<br />
2 p2 + max (0; udx0 ) 2<br />
1<br />
2<br />
0<br />
(1 p)2<br />
2<br />
k pk (1 p) 2 k .<br />
p(1 p)<br />
Vi ser att det …nns en formel för att beräkna c 0 2, optionens pris vid lösen<br />
2 tidssteg framåt.<br />
Genom att helt enkelt byta ut alla 2:or mot n bör denna formel kunna<br />
generaliseras till ett godtyckligt antal tidssteg, n, . För att visa detta<br />
resonerar vi på följande sätt. Efter n steg har vi haft k uppgångar och<br />
n k nedgångar och vid varje steg ökar eller minskar aktien i värde med<br />
proportionen u eller d. De möjliga vinsterna efter n tidssteg kan därför<br />
skrivas<br />
max 0; u k d n k x0 , k = 0; 1; : : : ; n<br />
där vi multiplicerar aktiens ursprungliga pris x0 med k stycken u för de<br />
k uppgångarna och med n k stycken d för de n k nedgångarna. Dessa<br />
vinster är de möjliga utfallen av den stokastiska variabeln<br />
Yn =<br />
0 Xn<br />
Xn<br />
Xn ><br />
= max(0; Xn<br />
För att hitta sannolikheten för det k:te utfallet<br />
ynk = max 0; u k d n k x0<br />
har vi därför att bestämma P(Yn = ynk). Men denna sannolikhet är<br />
densamma som sannolikheten att erhålla k uppgångar bland n möjliga<br />
när sannolikheten för en uppgång är p d v s<br />
P(Yn = ynk) = n<br />
k pk (1 p) n k .<br />
Den förväntade vinsten efter n tidssteg (köpoptionens pris) kan därför<br />
skrivas<br />
nX<br />
E(Yn) = ynkP (Yn = ynk)<br />
c Mikael Möller<br />
=<br />
k=0<br />
nX<br />
k=0<br />
max 0; u k d n k x0<br />
).<br />
n<br />
k pk n k<br />
(1 p)
3. Diskreta modeller 61<br />
och köpoptionens nuvärde för n tidssteg blir, om den riskfria räntan är<br />
r,<br />
cn =<br />
1<br />
(1 + r) n<br />
nX<br />
k=0<br />
max 0; u k d n k x0<br />
n<br />
k pk (1 p) n k .<br />
Ovanstående uttryck är rätt ogenomskinligt och komplicerat. Vi skall<br />
därför först skriva om det till ett mer hanterbart uttryck.<br />
För ynk = max 0; u k d n k x0 gäller att det …nns ett tal m sådant<br />
att för alla k m så gäller att ynk > 0. Detta måste gälla ty annars<br />
vore förtjänsten alltid 0 och vi skulle knappast gå in i en dylik a¤är.<br />
Ett annat sätt att se på m är att m är det minsta antal uppgångar som<br />
krävs för att optionen skall ge vinst. Talet m kommer naturligtvis bero<br />
på optionens lösenpris och vi borde därför skriva m eller m( ) men detta<br />
blir så otympligt så vi skriver rätt och slätt m. Det statistiska sättet att<br />
uttrycka detta påstående på är<br />
ynk =<br />
0 om k m,<br />
u k d n k x0 om k > m.<br />
Uppgift 4 Visa att det för något heltal m gäller att<br />
0 < ynk < y n(k+1)<br />
för alla k m d v s visa att vinsten är strikt växande.<br />
För att beräkna talet m har vi att lösa ut det minsta k sådant att<br />
u k d n k x0 > 0.<br />
Enkla omskrivningar ger (observera att alla storheter är positiva samt<br />
att u antages vara större än d)<br />
n u<br />
d<br />
d<br />
u<br />
d<br />
k<br />
><br />
x0<br />
k<br />
><br />
dnx0 k ln u<br />
d > ln d n x0<br />
c Mikael Möller
62 3.2. Optionsmodell<br />
varför4 l<br />
m = ln u<br />
m<br />
1<br />
d ln dn är det värde på k som för första gången<br />
x0<br />
uppfyller olikheten. För detta värde m gäller nu följande likheter5 cn =<br />
fynk = 0 för k < mg =<br />
=<br />
1<br />
(1 + r) n<br />
1<br />
(1 + r) n<br />
x0<br />
(1 + r) n<br />
= x0<br />
(1 + r) n<br />
nX<br />
k=m<br />
nX<br />
k=0<br />
nX<br />
k=m<br />
nX<br />
k=m<br />
n<br />
k<br />
(1 + r) n<br />
Nu gäller det (se uppgift 5) att<br />
nX<br />
k=m<br />
nX<br />
k=m<br />
n<br />
k pk (1 p) n k ynk<br />
n<br />
k pk (1 p) n k u k d n k x0<br />
n<br />
k (up)k d (1 p)<br />
up<br />
1 + r<br />
up d (1 p)<br />
+ = 1<br />
1 + r 1 + r<br />
n<br />
k pk n k<br />
(1 p)<br />
k<br />
d (1 p)<br />
1 + r<br />
n<br />
k pk (1 p) n k .<br />
d v s att up<br />
1+r kan tolkas som en sannolikhet. Härav följer att köpoptionens<br />
nuvärdespris cn kan skrivas om till<br />
cn = x0P (B1 m)<br />
(1 + r) n P (B2 m)<br />
där de två stokastiska variablerna B1 och B2 båda kan tolkas som två<br />
binomialfördelade stokastiska variabler men med olika parametrar<br />
B1 2 Bin n; up<br />
1 + r<br />
B2 2 Bin(n; p) .<br />
Båda variablerna mäter antalet uppgångar och speciellt mäter B1 antal<br />
uppgångar under förutsättningen att sannolikheten för en uppgång är<br />
4 Beteckningen d e betyder det närmaste högre heltalet, t ex gäller d3:14e = 4 och<br />
för negativa tal gäller d 2:9e = 2.<br />
5 Observera att papper och penna förenklar när man följer de olika stegen.<br />
c Mikael Möller<br />
,<br />
n k<br />
n k
3. Diskreta modeller 63<br />
up<br />
1+r > p och B2 är antal uppgångar där sannolikheten för uppgång är p.<br />
Det är intuitivt självklart att P (B1 m) > P (B2 m) när u > 1 + r.<br />
Uppgift 5 Visa att<br />
Exempel 16 Antag att det gäller<br />
up d (1 p)<br />
+ = 1<br />
1 + r 1 + r<br />
x0 = 100 = 100<br />
u = 1:1 d = 0:9<br />
r = 0:07<br />
samt att lösen sker efter 100 tidssteg. Vad är det förväntade nuvärdespriset<br />
av en köpoption.<br />
Lösning 8 Vi bestämmer först hur stort k behöver vara för att<br />
max 0; u k d n k x0<br />
skall vara större än 0. Det gäller att<br />
För p …nner vi<br />
m = ln u<br />
d<br />
&<br />
= ln 1:1<br />
0:9<br />
= 53.<br />
p =<br />
1<br />
ln d n x0<br />
1<br />
100<br />
ln<br />
0:9100100 1 + 0:07 0:9<br />
1:1 0:9<br />
= 0:85.<br />
'<br />
c Mikael Möller
64 3.2. Optionsmodell<br />
Det sökta optionspriset kan på grund av ovanstående nu skrivas<br />
1<br />
c100 =<br />
(1 + r) n<br />
nX<br />
k=0<br />
max(0; u k d n k x0 ) n<br />
k pk n k<br />
(1 p)<br />
= obs max(0; u k d n k x0 ) = 0 när 0 k 52<br />
=<br />
1<br />
(1 + 0:07) 100<br />
100<br />
k<br />
= 99:885<br />
X100<br />
k=53<br />
0:85 k 100 k<br />
(1 0:85)<br />
max(0; 1:1 k 100 k<br />
0:9<br />
100 100)<br />
Låt oss nu uppfylla det outtalade löftet att förklara uppbyggnaden av<br />
köpoptionens pris i lite mer detalj. Det gäller att optionens förväntade<br />
pris vid n tidssteg är<br />
cn = x0P (B1 m)<br />
och vi noterar att faktorn<br />
(1 + r) n P (B2 m)<br />
(1 + r) n<br />
är en diskontering av lösenpriset till nu och detta pris blir därför direkt<br />
jämförbart med kapitalet x0.<br />
Om vi först antar att uppgången u exakt svarar mot den riskfria<br />
räntan, d v s att u = 1 + r, då erhålls att<br />
Uppgift 6 Visa att<br />
när u = 1 + r.<br />
P (B1 m) = P (B2 m).<br />
P (B1 m) = P (B2 m)<br />
Under ovanstående antagande kan därför köpoptionens pris skrivas<br />
cn = x0<br />
(1 + r) n P (B1 m)<br />
och vi ser att detta pris är skillnaden mellan ursprungskapitalet x0 och<br />
det diskonterade lösenpriset viktat med sannolikheten för att aktien<br />
skall gå upp. Denna senare sannolikhet blir 1 ty (se ekvation 3.2 sid 58)<br />
c Mikael Möller<br />
p = p(1 + r; d; r) =<br />
1 + r d<br />
= 1<br />
1 + r d
3. Diskreta modeller 65<br />
varför det gäller att P (B1 m) = 1 varav följer att optionens pris blir<br />
cn = x0<br />
.<br />
(1 + r) n<br />
Antag nu att u > 1 + r, d v s att uppgångarna är större än bankräntan,<br />
då erhålls att<br />
P (B1 m) > P (B2 m).<br />
I detta fall har kapitalet större chans att förränta sig vid köp av aktier<br />
än vid köp av ränteobligationer eftersom sannolikheten för uppgång då<br />
blir större än p. Lösenpriset däremot<br />
(1 + r) n<br />
ligger fortfarande fast eftersom sannolikheten för uppgång fortfarande<br />
är p. Vi ser således att det är sannolikheten P (B1 m) som korrigerar<br />
köpoptionens pris. Endast denna faktor innehåller direkt det aktiespeci-<br />
…ka värdet u.<br />
Uppgift 7 Visa att<br />
om u = 1 + r.<br />
Uppgift 8 Visa att<br />
om u > 1 + r.<br />
3.3 Epostmodell<br />
P (B1 m) = 1<br />
P (B1 m) > P (B2 m)<br />
Av våra diskussioner ovan framgår klart att modellen som baseras på<br />
binomialfördelningen är en mycket viktig och användbar modell och vi<br />
skall nu titta på ett exempel som inte har ett dugg med ekonomi eller<br />
…nansiella transaktioner att göra. Anledningen till det är att jag ytterligare<br />
vill poängtera modellens användbarhet samt att detta exempel<br />
låter oss införa ytterligare två fördelningar, ’för första gången’och ’negativ<br />
binomial’, på ett naturligt sätt.<br />
I detta exempel betraktar vi internet och frågar oss hur många sändningsförsök<br />
som behövs för att ett typiskt ebrev skall bli korrekt överfört.<br />
Brevets minsta beståndsdel är ett tecken och varje tecken beskrivs av 8<br />
c Mikael Möller
66 3.3. Epostmodell<br />
bitar men det blir inte svårare att betrakta ett tecken om n bitar så det<br />
är vad vi kommer att göra. Den som så önskar kan överallt ersätta n<br />
med 8.<br />
Exempel 17 (Kommunikationsmodell) Kommunikation över internet<br />
sker i form av paket med n ettor och nollor (bit) per paket. Bestäm<br />
sannolikheten för att ett paket om n bitar skall bli felaktigt överfört.<br />
Beteckna sannolikheten för att en bit blir felaktigt överförd med q1.<br />
Lösning 9 De…niera de stokastiska variablerna<br />
Xi =<br />
X =<br />
1<br />
0<br />
om bit i blev fel överförd<br />
annars<br />
q1<br />
p1<br />
i = 1; 2; : : : ; n<br />
nX<br />
Xi = antal felaktigt överförda bitar av n<br />
i=1<br />
Händelsen ”Det mottagna paketet är felaktigt överfört” är nu ekvivalent<br />
med händelsen fX > 0g. Vi antager nu att den slumpmekanism som gör<br />
att den mottagna biten blir felaktigt överförd fungerar på samma slumpmässiga<br />
sätt för alla bitarna –detta antagande är ett likafördelnings- och<br />
oberoendeantagande. Vi har nu att söka P (X > 0) men redan i exemplet<br />
om Betygssättning har vi noterat att omskrivningen<br />
P (X > 0) = 1 P (X = 0)<br />
är mycket användbar. Vi bestämmer därför först<br />
P (X = 0) = P (X1 = 0; : : : ; Xn = 0)<br />
= P fX1 = 0g \ \ fXn = 0g<br />
fty oberoendeg = P fX1 = 0g P fXn = 0g<br />
= P (X1 = 0) P (Xn = 0)<br />
fty likafördelningg = (1 q1) (1 q1)<br />
= (1 q1) n<br />
Sannolikheten för att vårt paket skall vara felaktigt överfört kan därför<br />
skrivas<br />
P (X > 0) = 1 (1 q1) n .<br />
Detta var den enkla biten och den kunde modelleras med hjälp av<br />
modellen för en binomialfördelning. I …gur 3.1 ser vi hur sannolikheten<br />
qn för ett felaktigt överfört paket om n bitar beror på felsannolikheten<br />
c Mikael Möller
3. Diskreta modeller 67<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
n=32<br />
n=16<br />
n=8<br />
0.0<br />
0.0 0.1 0.2 0.3<br />
Figur 3.1: Sannolikheten P (X > 0) som funktion av p.<br />
q1 vid tre olika paketstorlekar –n = 8; 16; 32. Vi ser att felsannolikheten<br />
måste vara mycket liten för att ett paket skall överföras korrekt.<br />
Låt oss nu för…na modellen genom att antaga att det …nns en kontrollmekanism<br />
som kan avgöra om ett mottaget paket är fel eller rätt<br />
överfört. Om det klassas som felaktigt så genomförs en omsändning av<br />
hela paketet..<br />
Exempel 18 (För första gången modell) Ett meddelande över internet<br />
delas upp i paket av storlek n och varje paket har en viss sannolikhet<br />
pn att komma fram felfritt. Om paketet ej kommer fram felfritt<br />
begär mottagaren omsändning. Denna begäran sker automatiskt av mottagande<br />
epostdator när den upptäcker ett fel. Vad är sannolikheten för<br />
att ett paket måste sändas k gånger?<br />
Lösning 10 Sannolikheten för att ett paket skall komma fram felfritt<br />
första gången är pn. För att paketet skall komma fram felfritt den<br />
andra gången krävs att det ej kom fram felfritt första gången men väl<br />
i andra och vi erhåller sannolikheten (1 pn) pn för denna händelse.<br />
För att paketet skall komma fram felfritt den tredje gången krävs att det<br />
ej kom fram felfritt första och andra gången och vi erhåller sannolikheten<br />
(1 pn) 2 pn. Det gäller således med<br />
X = antal sändningar<br />
att sannolikhetsfunktionen för X blir<br />
P (X = 1) = pn<br />
P (X = 2) = (1 pn) pn<br />
P (X = 3) = (1 pn) 2 pn; : : : .<br />
q<br />
c Mikael Möller
68 3.3. Epostmodell<br />
Om vi nu skriver om sannolikhetsfunktionen för 3 sändningar till<br />
P (X = 3) = (1 pn) 3 1 pn<br />
så ger en stunds begrundan (induktion) att sannolikheten för k sändningar<br />
blir<br />
P (X = k) = (1 pn) k 1 pn; k = 1; 2; : : :<br />
Denna sannolikhetsfunktion kallas för första gången fördelningen och<br />
och den de…nieras enligt<br />
De…nition 26 (För första gången fördelning) En stokastisk variabel<br />
X som uppfyller<br />
P (X = k) = (1 p) k 1 p, k 2 X<br />
där X = f1; 2; : : :g säges vara för första gången fördelad med parametern<br />
p. Vi skriver<br />
X 2 F fg(p) .<br />
Uppgift 9 Visa att det för F fg(p) gäller<br />
1. P 1<br />
k=1 (1 p)k 1 p = 1.<br />
2. E (X) = 1<br />
p .<br />
3. V (X) =<br />
1 p<br />
p 2<br />
Vi har nu verktygen för att bestämma sannolikheten att, över internet,<br />
överföra ett paket korrekt i mindre än säg k steg. Självklart är<br />
det även mycket intressant att bestämma hur många steg, eller snarare<br />
det förväntade antalet steg, som måste ske för att ett epostbrev skall bli<br />
korrekt överfört. Vi börjar med att bestämma sannolikhetsfunktionen<br />
för att ett epostbrev om exakt l paket skall bli korrekt överfört.<br />
Exempel 19 (Negativ binomialmodell) Epostbrev som skickas över<br />
internet delas upp i ett antal paket av …x längd vilka sedan skickas till<br />
adressaten. Om ett epostbrev består av l paket vad blir då sannolikhetsfunktionen<br />
för det antal sändningar som behövs för att hela brevet skall<br />
komma fram felfritt. Sannolikheten för att ett paket skall bli felfritt överfört<br />
är pn.<br />
c Mikael Möller
3. Diskreta modeller 69<br />
Lösning 11 Vi börjar med att bygga modellen d v s att först de…niera<br />
den stokastiska variabeln<br />
X = antalet sändningar som behövs för att överföra l paket felfritt.<br />
Om vi betecknar att paketet är korrekt överfört med c och felaktigt överfört<br />
med f så kan en möjlig sändning av l = 5 paket beskrivas av<br />
fcffcfcfffcffc = fcffcfcfffcffjc<br />
vilket svarar mot 14 paketsändningar. Den sista sändningen måste vara<br />
korrekt och det är den med sannolikheten pn. Bland de övriga 13 sändningarna<br />
skall det …nnas 4 korrekta och 9 felaktiga och detta kan erhållas<br />
på 13<br />
4 olika sätt där varje sätt har sannolikheten p4n (1 p) 9<br />
n att inträ¤a.<br />
Härav följer, eftersom oberoende förutsätts,<br />
P (X = 14) = 13<br />
4 p4 n (1 pn) 9<br />
= 13<br />
4 p5 n (1 pn) 9<br />
Observera att det sista paketet måste behandlas för sig och att man inte<br />
kan föra resonemanget för alla 14 på en gång ty då skulle även fall som<br />
fcffcfcffcfcff<br />
beaktas. Men detta är inte en möjlig händelse ty efter 5 lyckade överföringar<br />
avslutas sändningen. Sannolikheten för 5 korrekta och 9 felaktiga<br />
överföringar kan skrivas om på följande sätt<br />
P (X = 5 + 9) =<br />
= l + r 1<br />
= l + r 1<br />
5 + 9 1<br />
5 1<br />
l 1<br />
l 1<br />
pn<br />
p 5 5+9 5<br />
n (1 pn)<br />
p l l+r l<br />
n (1 pn)<br />
p l n (1 pn) r<br />
där l = 5 är antalet paket och r = 9 är antalet felsändningar. Sannolikheten<br />
för att antalet sända paket skall vara k = l + r kan därför<br />
skrivas<br />
P (X = k) =<br />
k 1<br />
l 1 pl k l<br />
(1 p)<br />
k = l; l + 1; : : :<br />
c Mikael Möller
70 3.3. Epostmodell<br />
Och därmed har vi funnit ytterligare en ny sannolikhetsfunktion och<br />
liksom tidigare beskriver vi den i en de…nition.<br />
De…nition 27 (Negativ binomial fördelning) En stokastisk variabel<br />
X som uppfyller<br />
P (X = k) =<br />
k 1<br />
l 1 pl k l<br />
(1 p)<br />
k 2 X; k l<br />
där X = fl; l + 1; : : :g säges vara negativt binomialfördelad med parametrarna<br />
l och p. Vi skriver<br />
X 2 Neg(l; p) .<br />
Med hjälp av denna fördelning kan vi bestämma det förväntade antalet<br />
sändningar för att korrekt överföra ett epost-meddelande med felsannolikheten<br />
q, för en enstaka bit. Se vidare uppgift nedan.<br />
Uppgift 10 Visa att för Neg(l; p) gäller<br />
1. (svår) P 1<br />
k=l<br />
2. E(X) = l<br />
p .<br />
3. V (X) =<br />
l(1 p)<br />
p 2<br />
k 1<br />
l 1 pl (1 p) k l = 1.<br />
Uppgift 11 (Svår) Bestäm väntevärde och varians för Neg(l; p) utgående<br />
från sannolikhetsfunktionen.<br />
Exempel 20 En tidningsartikel består utav 817 tecken (n = 8) och<br />
denna vill vi skicka till en tidning. Hur många sändningsförsök kan vi<br />
förvänta oss innan denna artikel …nns hos tidningen i oförvanskat skick?<br />
Felsannolikheten på bitnivå är q1 = 0:001.<br />
Lösning 12 Sannolikheten för ett korrekt överfört tecken blir<br />
p8 = (1 0:001) 8 = 0:99203.<br />
Antalet förväntade paketsändningar blir<br />
817<br />
0:99203<br />
= 824<br />
d v s vi kan förvänta oss att behöva sända om upp till 8 tecken. 6<br />
6 d e betyder närmast högre heltal.<br />
c Mikael Möller
3. Diskreta modeller 71<br />
Innan vi lämnar epostmodellen bör vi kanske ge ett skäl till namnet<br />
negativ binomialfördelning ty det …nns inget negativt i den. Däremot<br />
innehåller den samma komponenter som binomialfördelningen. Ordet<br />
negativt kommer sig av identiteten<br />
k 1<br />
l 1 pl (1 p) k l =<br />
där r = k l och q = 1 p.<br />
3.4 Spelmodeller<br />
l + r 1<br />
l 1<br />
p l (1 p) r =<br />
r<br />
l<br />
p l ( q) r<br />
Nästa exempel handlar om kortspel. Då dessa nu ‡orerar på nätet kan<br />
det vara bra att känna till lite om sannolikheterna att vinna i dessa spel.<br />
Exempel 21 (Black Jack) Dagens Black jack, eller 21 som vi säger<br />
i Sverige, är en vidareutveckling av det black jack som sedan länge har<br />
varit ett av de populäraste casinospelen. Black jack betraktas som ett<br />
amerikanskt kortspel men är egentligen ett franskt hasardspel från mitten<br />
av 1700-talet, vingt-et-un (”tjugoett”), som uppnådde stjärnstatus vid<br />
Ludvig XV:s hov i Versailles. Under 1800-talet spred sig tjugoett, i ‡era<br />
snarlika varianter, över västvärlden inklusive Sverige och kom att utövas<br />
‡itigt inte bara på spelhus och casinon utan även i privata spelpartier<br />
om pengar. Varianten Black Jack uppstod i USA på 1910-talet, enligt<br />
trovärdiga källor år 1912 i staden Evanstown i Illinois där man bland<br />
annat införde nymodigheten att ett svart ess och en svart knekt (”Black<br />
Jack”) i given gav spelaren en extra vinstbonus. Sedan andra världskriget<br />
har Black Jack blivit världens vanligaste kortspel på casinon och dess<br />
popularitet ökar i lavinartad form på internet. Reglerna är mycket enkla:<br />
Black Jack spelas oftast med sex kortlekar innehållande 52 kort var och<br />
varje spelare får två kort vilka värdesätts på följande sätt<br />
1. Korten 2 till och med 10 är värda det poängtal som står angivet på<br />
spelkorten.<br />
2. Kung, dam och knekt är värda tio poäng.<br />
3. Ess är värt antingen ett poäng eller elva.<br />
Du spelar Black Jack, med en kortlek om 52 kort, och får två kort.<br />
Bestäm sannolikheterna för följande händelser:<br />
1. Båda korten är värda 10 eller 11 poäng.<br />
c Mikael Möller
72 3.4. Spelmodeller<br />
2. Båda korten är Ess.<br />
3. Båda korten är värda 10 poäng.<br />
4. Vad är sannolikheten för en Black Jack d v s 21 poäng.<br />
Lösning 13 För att lösa dessa frågeställningar bildar vi den stokastiska<br />
modellen<br />
Xi = kort i:s värde i = 1; 2 xi 2 X<br />
där utfallsrummet är X = f1; 2; : : : ; 11g.<br />
1. Denna sannolikhet kan erhållas medelst två metoder där den första<br />
betraktar båda korten på en gång. Den andra metoden utnyttjar<br />
betingning och betraktar ett kort i taget. Sätt<br />
varvid har<br />
p = P (10 X1 11; 10 X2 11)<br />
båda på en gång metoden<br />
p =<br />
20<br />
2<br />
52<br />
2<br />
0:14<br />
ty det …nns 16 kort värda 10 och 4 värda 11 poäng.<br />
ett i taget metoden<br />
p = P (10 X1 11 j 10 X2 11) P (10 X1 11)<br />
= 19 20<br />
51 52<br />
0:14.<br />
2. Den sökta sannolikheten blir (’ett i taget’)<br />
P (X1 = 11; X2 = 11) = 3 4<br />
51 52<br />
3. Den sökta sannolikheten blir (’båda på en gång’)<br />
c Mikael Möller<br />
P (X1 = 10; X2 = 10) =<br />
16<br />
2<br />
52<br />
2<br />
0:005<br />
0:09
3. Diskreta modeller 73<br />
4. Här använder vi oss av betingat väntevärde<br />
P (X1 + X2 = 21) = E P (X1 + X2 = 21 j X1)<br />
= P (X2 = 11 j X1 = 10) P (X1 = 10)<br />
+ P (X2 = 10 j X1 = 11) P (X1 = 11)<br />
= 4<br />
51<br />
16 16<br />
+<br />
52 51<br />
4<br />
52<br />
0:048<br />
Exempel 22 (Poker) I poker används en kortlek om 52 kort uppdelade<br />
på 4 färger. Varje färg innehåller kort av valörerna Ess (1 eller<br />
14),2,. . . ,10, knekt (11), dam (12) och kung (13). Man delar vanligen<br />
ut 5 kort per spelare och därefter värderas händerna på följande sätt<br />
Kunglig Färgstege (ess, kung, dam, knekt och tio ur en och samma färg).<br />
Färgstege (fem kort i samma färg i fallande ordning). Fyrtal (Fyra kort<br />
av samma valör). Kåk (En triss och ett par. Trissen räknas först). Färg<br />
(Fem kort i samma färg). Stege (Fem kort från olika färger i fallande<br />
ordning). Triss (Tre kort av samma valör). Två par (Två uppsättningar<br />
par). Ett par (Två kort av samma valör). Bestäm sannolikheterna för<br />
ovanstående pokerhänder.<br />
Lösning 14 Dessa sannolikheter erhålls medelst direkt räkning på följande<br />
sätt<br />
Färgstege Möjliga händer med färgstege är<br />
(E; 2; 3; 4; 5) ; (2; 3; 4; 5; 6) ; : : : ; (10; Kn; D; K; E)<br />
och de är sammanlagt 10 stycken och eftersom vi har 4 färger blir<br />
sannolikheten<br />
P (Färgstege) =<br />
10 4<br />
52<br />
5<br />
= 40<br />
52<br />
5<br />
= 0:0000154.<br />
Eftersom det bara …nns 4 av en Kunglig Färgstege erhålls<br />
P (Kunglig Färgstege) = 4<br />
52<br />
5<br />
= 0:00000154.<br />
Flertal Eftersom Fyrtal, Triss och Ett Par beräknas på samma sätt tar<br />
vi fram en allmän formel för dem. Sätt<br />
X = antal kort av samma valör, k = 2; 3; 4<br />
c Mikael Möller
74 3.4. Spelmodeller<br />
varvid<br />
P (X = k) =<br />
13<br />
1<br />
4<br />
k<br />
12<br />
5 k<br />
52<br />
5<br />
4<br />
1<br />
5 k<br />
; k = 2; 3; 4<br />
ty först väljer vi valör för k-talet, sedan väljer vi vilka färger som<br />
skall förekomma i k-talet, sedan väljer vi valörer för de återstående<br />
korten och avslutar med att välja färg för vart och ett av dem.<br />
Numeriskt erhålls<br />
P (X = 2) =<br />
P (X = 3) =<br />
P (X = 4) =<br />
13<br />
1<br />
13<br />
1<br />
13<br />
1<br />
4<br />
2<br />
4<br />
3<br />
4<br />
4<br />
12<br />
5 2<br />
52<br />
5<br />
12<br />
5 3<br />
52<br />
5<br />
12<br />
5 4<br />
52<br />
5<br />
4<br />
1<br />
4<br />
1<br />
4<br />
1<br />
5 2<br />
5 3<br />
5 4<br />
Kåk En kåk består av en triss och ett par varför<br />
P (Kåk) =<br />
13<br />
1<br />
4<br />
3<br />
52<br />
5<br />
12<br />
1<br />
4<br />
2<br />
= 0:42<br />
= 0:021<br />
= 0:00024<br />
= 0:0014<br />
Färg En färg består av en och endast en färg men är ej färgstege varför<br />
P (Färg) =<br />
4<br />
1<br />
13<br />
5<br />
52<br />
5<br />
40<br />
= 0:002<br />
Stege En stege beräknas på samma sätt som en färgstege men varje<br />
kort kan ha en av 4 färger dock skall vi undanta färgstege varför<br />
4<br />
10 1<br />
P (Stege) =<br />
5<br />
52<br />
5<br />
40<br />
= 0:004<br />
Två Par Två par består av två valörer och dessa kan ha vilken färg<br />
som helst. Det återstående kortets valör skall skilja sig från det<br />
två men får ha valfri färg varför<br />
c Mikael Möller<br />
P (Två Par) =<br />
13<br />
2<br />
4<br />
2<br />
2 11<br />
1<br />
52<br />
5<br />
4<br />
1<br />
= 0:048
3. Diskreta modeller 75<br />
Lank I en värdelös hand har alla kort olika valörer och bildar ej en stege.<br />
Korten kan bestå av alla färger men ej de som ger färg. Detta ger<br />
P (Lank) =<br />
13<br />
5<br />
10<br />
52<br />
5<br />
4<br />
1<br />
5<br />
4<br />
= 0:50<br />
Vi ser att det är nästan lika stor sannolikhet att få ett par som att<br />
inte få något överhuvudtaget. Å det är bra ty det håller hoppet och<br />
spänningen uppe.<br />
3.5 Kvalitetskontroll<br />
Inom all a¤ärsverksamhet förekommer, åtminstone ibland, att man köper<br />
in stora partier av någon vara. Dessa varor kan vara en del av någon<br />
produkt som man själv tillverkar (t ex kullager till motorer) eller en<br />
slutprodukt (t ex kramdjur från Kina). Om felsannolikheten är hög i det<br />
parti man mottager så drabbas man av reklamationer ja det kan till och<br />
med gå så långt att det egna varumärket lider skada. Tänka bara om ett<br />
kramdjurs öga lossnar och hamnar i halsen på en två-åring som kvävs<br />
till döds.<br />
Statistiker har under årens lopp tagit fram en mängd olika metoder<br />
för att förhindra acceptans av felaktiga partier (man har naturligtvis<br />
även utarbetat metoder för att en produktion skall fungera optimalt<br />
men den frågan skall vi inte ta upp här) och vi skall beskriva en av dessa<br />
–kvalitetskontroll med hjälp av felantalsmetoden.<br />
Exempel 23 (Kvalitetskontroll) Verkstadsföretaget Morphic har utvecklat<br />
en teknik som gör det möjligt att tillverka ‡ödesplattor (en del<br />
av en bränslecell) avsevärt billigare, snabbare och med högre kvalitet är<br />
vad som tidigare varit möjligt. Istället för att fräsa ut spår i plattorna,<br />
skapas ett mönster genom att plattorna utsätts för ett mycket högt, dynamiskt,<br />
tryck under bråkdelen av en sekund. Tekniken medför en rad<br />
fördelar; produktionstiden per platta förkortas drastiskt samtidigt som<br />
möjligheten att åstadkomma avsevärt …nare detaljer i plattans mönster<br />
medför ett e¤ektivare bränsle‡öde. En godkänd platta skall ge ett visst<br />
minimi‡öde och om detta värde ej erhålls räknas plattan som defekt och<br />
byts ut. Ett företag inom fordonsindustrin har nu erhållit en större sändning<br />
om N = 10 000 plattor för utvärdering. Men först skall kvaliten på<br />
de levererade plattorna undersökas. Självklart kan man inte undersöka<br />
varje platta för sig ty därtill är antalet för stort och man vill också ha<br />
en metod som kan användas i framtiden då det blir fråga om inköp av<br />
c Mikael Möller
76 3.5. Kvalitetskontroll<br />
miljontals plattor. Företaget bestämmer sig därför för att på ett slumpmässigt<br />
sätt plocka ut n plattor och undersöka dessa. Resultatet av denna<br />
undersökning appliceras sedan på hela partiet. Vilken sannolikhetsmodell<br />
är lämplig för denna situation?<br />
Lösning 15 Varje platta, bland de N, kan klassas som antingen defekt<br />
eller icke-defekt. Självklart …nns här en gråzon men vi utgår ifrån att<br />
den inte existerar. Tag nu ett stickprov av storlek n ur dessa N plattor<br />
och bilda de stokastiska variablerna<br />
Xi =<br />
Xn =<br />
1<br />
0<br />
om platta i är defekt<br />
annars<br />
i = 1; : : : ; n,<br />
nX<br />
Xi = antal defekta plattor i urvalet.<br />
i=1<br />
Så här långt liknar situationen mycket den binomialmodell som vi tidigare<br />
skapat men det föreligger här en väsentlig skillnad. Det som gör<br />
att vi kommer att …nna en annan modell än binomialmodellen är ändligheten<br />
hos N. Denna ändlighet ändrar på sannolikheten, att få en<br />
felaktig platta, allteftersom vi plockar plattor bland de N. Detta inses<br />
enklast på följande sätt. Om felsannolikheten för partiet är p (bestämd<br />
som kvoten mellan antalet felaktiga plattor och N) så har vi Np felaktiga<br />
plattor och N (1 p) korrekta plattor. Antag nu att den första plattan vi<br />
tog var felaktig (vilket den är med sannolikheten p) då blir sannolikheten<br />
för att också den andra plattan är felaktig<br />
Np 1<br />
N 1<br />
vilket är skilt från p! Det är klart att om N är väldigt stort så blir det<br />
ändock samma resultat ty denna kvot närmar sig p när N växer över<br />
alla gränser. Den modell vi kommer fram till kan således betraktas som<br />
en generalisering av binomialmodellen ty dess gräns, när N ! 1, blir<br />
just denna binomialmodell. För att få k felaktiga plattor i urvalet om<br />
n plattor måste vi ta k plattor från de Np och detta kan vi göra på<br />
Np<br />
k olika sätt (eftersom ordningen är ointressant) de resterande n k<br />
plattorna måste tas från de N (1 p) korrekta plattorna och detta kan<br />
N(1 p)<br />
vi göra på n k sätt. Härav följer att det totala antalet möjligheter<br />
att få k defekta och n k korrekta, i ett urval om n plattor, är<br />
c Mikael Möller<br />
Np<br />
k<br />
N (1 p)<br />
n k<br />
.
3. Diskreta modeller 77<br />
<strong>Till</strong> detta kommer att antalet sätt att ta n plattor ur N är N<br />
n<br />
nolikheten att få k defekta bland n blir<br />
P (Xn = k) =<br />
Np<br />
k<br />
N(1 p)<br />
n k<br />
N<br />
n<br />
.<br />
så san-<br />
Man får här vara lite försiktig med de tillåtna värdena på k ty k kan<br />
aldrig bli större än Np (det totala antalet defekta plattor). Härav följer<br />
att X = f0; 1; : : : ; min (Np; n)g.<br />
Denna fördelning kallas den hypergeometriska fördelningen och för<br />
den gäller följande de…nition.<br />
De…nition 28 (Hypergeometrisk fördelning) En stokastisk variabel<br />
X som uppfyller<br />
P (X = k) =<br />
Np<br />
k<br />
N(1 p)<br />
n k<br />
N<br />
n<br />
där X = f0; 1; : : : ; min (Np; n)g säges vara hypergeometriskt fördelad<br />
med parametrarna N, n och p. Vi skriver<br />
X 2 Hyp(N; n; p) .<br />
Uppgift 12 Visa att om Np > n så gäller för Hyp (N; n; p) att<br />
1. (svår) Pn (<br />
k=0<br />
Np N(1 p)<br />
k )( n k )<br />
( N = 1.<br />
n)<br />
2. E (X) = np.<br />
3. V (X) = np (1 p)<br />
N n<br />
N 1<br />
Nästa steg blir att givet denna hypergeometriska modell skapa en<br />
kostnadse¤ektiv metod för att acceptera eller förkasta hela partiet. Den<br />
metod vi här skall beskriva ger en försmak till kapitlet om Prövning av<br />
antaganden.<br />
Köparen vill endast acceptera partier som klart uppfyller att felsannolikheten<br />
p pk, där pk är den högsta felsannolikhet som köparen<br />
kan acceptera. 7<br />
7 Observera att i allmänhet kan man inte kräva en felsannolikhet på 0 ty det skulle<br />
kosta allt för mycket för att uppnå detta. Man skulle vara tvungen att kontrollera<br />
varje platta och byta ut de defekta mot korrekta.<br />
c Mikael Möller
78 3.5. Kvalitetskontroll<br />
Säljaren vill endast förkasta partier som klart uppfyller att felsannolikheten<br />
p ps där ps är den lägsta felsannolikhet som säljaren<br />
kan acceptera.<br />
Vid sin första förhandling måste säljaren och köparen komma överens<br />
om en och samma felsannolikhet d v s bestämma ett p0 sådant att<br />
pk = ps = p0. Därefter måste de komma överens om en metod för att<br />
testa om ett parti har en felkvot som överensstämmer med den si¤ra de<br />
kommit överens om. Det …nns bara ett sätt: plocka plattor och undersök<br />
dem. Eftersom det kostar att undersöka plattor kan inte alla plattor undersökas.<br />
Med ett lämpligt urvalsförfarande undersöks därför n stycken<br />
och av dessa får högst c vara felaktiga.<br />
Vi måste nu sätta oss in i köparens respektive säljarens situation och<br />
resonera som de d v s på två olika sätt:<br />
Köparen vill de…nitivt inte betala för ett parti som innehåller många<br />
felaktiga enheter och sätter därför upp hypotesen 8<br />
H0: p p0.<br />
Om partiet är dåligt skall sannolikheten ( ) för att förkasta denna<br />
hypotes vara liten. Detta ger oss den första ekvationen<br />
P (förkasta H0 givet H0 sann) = . (3.3)<br />
Säljaren vill de…nitivt inte förkasta ett parti som uppfyller köparens<br />
krav på felsannolikhet och sätter därför upp hypotesen<br />
H1: p p0.<br />
Om partiet är bra skall sannolikheten ( ) för att förkasta denna<br />
hypotes vara liten. Detta ger oss den andra ekvationen<br />
P (förkasta H1 givet H1 sann) = . (3.4)<br />
Båda sätten att tänka är rimliga ty all a¤ärsverksamhet baserar sig<br />
på både förtroende och misstänksamhet. Utan det första skulle man<br />
inte ens tänka sig att göra a¤är och utan det senare är man snabbt satt<br />
i konkurs.<br />
De…niera nu funktionen<br />
L(p) = P (Xn c; p) = P (acceptera ett parti med felsannolikhet p)<br />
c Mikael Möller
3. Diskreta modeller 79<br />
L(0.05)<br />
L(p)<br />
0.05<br />
Figur 3.2: L (p) = P (Xn c; p)<br />
och rita L(p) för p 2 [0; 1]. Om vi också markerar felsannolikheten<br />
0:05 så erhålls …gur 3.2. 9 Det framgår tydligt att sannolikheten för att<br />
acceptera partiet blir större för alla de felsannolikheter som ligger till<br />
vänster om 0:05. D v s att en mindre felsannolikhet ger en större chans att<br />
acceptera partiet. Gränsen L(0:05) är därför den minsta sannolikheten<br />
att acceptera partiet som kan inträ¤a för alla felsannolikheter p 0:05.<br />
Låt oss se om ekvationerna 3.3 och 3.4 kan ge oss en urvalsplan (n; c)<br />
som kan accepteras av både köparen och säljaren. Med detta avses att<br />
både köparen och säljaren skall acceptera en och samma urvalsstorlek n<br />
och en och samma gräns c på antalet felaktiga. Det enda som de väljer<br />
självständigt är sannolikheterna och .<br />
Med beteckningen<br />
så gäller<br />
Xn = antal felaktiga bland de n<br />
P (Xn c j p p0) = och P (Xn > c j p p0) =<br />
ty köparen förkastar sin hypotes om Xn är litet och säljaren sin om Xn<br />
är stort. Dessa ekvationer kan förenklas ytterligare. Först noterar vi att<br />
L (p0) L (p1) för alla p1 p0<br />
och detta inses enklast genom att rita …guren nedan och då erhålls att<br />
8 Hypotes är det statistiska språkbruket för ordet antag.<br />
9 Figuren indikerar endast det principiella utseendet och den är ej skalenlig.<br />
p<br />
c Mikael Möller
80 3.6. Sammanfattning<br />
L(p_0)<br />
L(p_1)<br />
p_0<br />
L(p)<br />
p_1<br />
om = L (p0) så gäller att L (p1) för alla p1 p0. Detta betyder<br />
att om vi har kontroll på p0 så har vi också kontroll på alla p > p0 varav<br />
följer att<br />
P (Xn c j p = p0) = .<br />
På samma sätt erhålls ekvationen<br />
P (Xn > c j p = p0) = .<br />
Detta ger oss nu två ekvationer för att lösa de två obekanta n och c i<br />
urvalsplanen.<br />
Exempel 24 Kund till Morphic<br />
3.6 Sammanfattning<br />
I kapitlet Diskreta modeller har vi infört följande diskreta fördelningar<br />
1. Bin (n; p), E (X) = np och V (X) = np (1 p)<br />
2. F fg (p), E (X) = 1<br />
p<br />
3. Neg (l; p), E (X) = l<br />
p<br />
och V (X) = 1 p<br />
p 2<br />
och V (X) = l(1 p)<br />
p 2<br />
I lösandet av exemplen har funktionerna P (X = k), sannolikhetsfunktionen,<br />
och P (X k), fördelningsfunktionen, tagit en central plats.<br />
c Mikael Möller<br />
p
3. Diskreta modeller 81<br />
3.7 Lösningar till uppgifter<br />
1 Vi börjar med att visa att sannolikheterna över utfallsrummet summerar<br />
sig till 1. Detta följer av binomialsatsen som säger att<br />
(a + b) n =<br />
nX<br />
i=0<br />
n<br />
k ak n k<br />
b<br />
varav påståendet följer om vi sätter a = p, b = q och noterar att enligt<br />
förutsättningarna är a + b = p + q = 1. Bestämning av väntevärde och<br />
varians kan lösas med två metoder: de…nition av storheterna direkt och<br />
indirekt. Vi väljer det senare och överlåter den förra på läsaren. Först<br />
har vi att<br />
nX<br />
X =<br />
k=1<br />
där Xk 2 Bin (1; p) och vidare är X1; : : : ; Xn oberoende. Detta ger<br />
enligt satserna x och x att<br />
E (X) = E<br />
= np<br />
och oberoendet ger<br />
nX<br />
k=1<br />
Xk<br />
!<br />
V (X) = V<br />
=<br />
=<br />
nX<br />
k=1<br />
Xk<br />
nX<br />
E (Xk) =<br />
k=1<br />
nX<br />
k=1<br />
1 2<br />
Xk<br />
= np (1 p) .<br />
!<br />
=<br />
p + 0 2<br />
nX<br />
k=1<br />
nX<br />
V (Xk)<br />
k=1<br />
1 p + 0 (1 p)<br />
(1 p) p 2<br />
2 Den stokastiska variabel som vi betraktat i exemplet ovan är<br />
och vi skall söka.<br />
E (Y ) =<br />
Y = min (XT ; XP )<br />
5X<br />
yP (Y = y) och V (Y ) = E Y 2<br />
i=0<br />
E (Y ) 2 .<br />
c Mikael Möller
82 3.7. Lösningar till uppgifter<br />
Sannolikheten P (Y = y) kan skrivas<br />
P (Y = y) =<br />
5X<br />
i=0 j=0<br />
y=min(i;j)<br />
5X<br />
P (XT = i; XP = j)<br />
n<br />
= gör nu uppdelningen P5 i=j+1 + P5 j=i+1 + P o<br />
5<br />
i=j=0<br />
5X<br />
= 2 P (XT = i; XP = j) P (XT = j; XP = j)<br />
0<br />
i=j<br />
= @2<br />
1<br />
5X<br />
P (XT = i) P (XT = j) A P (XP = j)<br />
i=j<br />
och en del omfattande beräkningar ger nu att<br />
E (Y ) = 0:72749,<br />
V (Y ) = 0:51224.<br />
3 Händelsen X2 = udx0 betyder att av totalt två steg skall exakt en<br />
uppgång inträ¤a. Antalet möjligheter att ta ut en uppgång ur två steg<br />
2<br />
är 1 = 2. De två möjliga uppgångarna är (u; d) och (d; u) och de har<br />
sannolikheten p(1 p) respektive (1 p)p att inträ¤a. Härav följer att<br />
P (X2 = udx0) = 2<br />
1<br />
4 Vi har att ynm > 0 och kan därför skriva<br />
och eftersom<br />
ynm = u<br />
d<br />
u<br />
> 1<br />
d<br />
p(1 p) = 2p(1 p).<br />
m<br />
d n x0<br />
följer att ynk > 0 för alla k > m. Härav följer att för alla k m så gäller<br />
y n(k+1) ynk = u k+1 d n k 1 x0 u k d n k x0<br />
= u k d n k 1 x0 (u d) > 0<br />
ty u d > 0 per de…nition varav det följer att ynk < y n(k+1).<br />
c Mikael Möller
3. Diskreta modeller 83<br />
5 Det gäller enligt tidigare att<br />
p =<br />
1 + r d<br />
u d<br />
och detta ger följande uttryck för vänstra ledet, VL,<br />
VL = up d (1 p)<br />
+<br />
1 + r 1 + r<br />
= u<br />
1 + r<br />
1 + r d<br />
u d<br />
=<br />
(u<br />
1<br />
d) (1 + r)<br />
=<br />
(u<br />
1<br />
d) (1 + r)<br />
=<br />
= 1.<br />
6 Det gäller att<br />
+ d<br />
1 + r<br />
1<br />
1 + r d<br />
u d<br />
u + ru ud + du d2<br />
(u d + ru rd)<br />
1<br />
(u d) (1 + r)<br />
(u d) (1 + r)<br />
varför påståendet gäller.<br />
B1 2 Bin n; up<br />
1 + r<br />
fu = 1 + rg = Bin<br />
(1 + r)p<br />
n;<br />
1 + r<br />
= Bin(n; p)<br />
7 Det gäller enligt föregående uppgift att<br />
nX<br />
P (B1 m) =<br />
k=m<br />
n<br />
k pk n k<br />
(1 p)<br />
= n<br />
m pm (1 p) n m +<br />
+<br />
Men p = 1 varför det gäller<br />
P (B1 m) = n<br />
m<br />
n<br />
n 1 pn 1 (1 p) + n<br />
n pn .<br />
= 1<br />
0 + +<br />
d rd + d 2<br />
n<br />
m + 1 pm+1 (1 p) n m 1 +<br />
n<br />
n 1<br />
0 + n<br />
n<br />
1<br />
c Mikael Möller
84 3.7. Lösningar till uppgifter<br />
8 Om u > 1 + r så gäller att<br />
up<br />
> p<br />
1 + r<br />
d v s att den stokastiska variabeln B1 har större chans än B2 att bli stor.<br />
Man kan även visa påståendet med samma teknik som i uppgift ??.<br />
9 Vi visar påståendenna i ordning som ovan.<br />
1. Vad vi har att visa är att P ( ) = 1 vilket följer av<br />
1X<br />
k=1<br />
(1 p) k 1 =<br />
1X<br />
k=0<br />
q k = 1 1<br />
=<br />
1 q p<br />
2. Väntevärdet beräknar vi direkt ur de…nition för sannolikhetsfunktionen<br />
1X<br />
E (X) = k (1 p) k 1 p =<br />
k=1<br />
= p d<br />
dq<br />
1X<br />
k=0<br />
q k = p d<br />
dq<br />
1 1<br />
= p 2 =<br />
(1 q) p<br />
3. Variansen tar vi ur sambandet<br />
där<br />
c Mikael Möller<br />
E X 2 =<br />
= p<br />
1X<br />
k=1<br />
V (X) = E X 2<br />
k 2 (1 p) k 1 p = p<br />
q<br />
= pq d2<br />
dq 2<br />
1X<br />
k=2<br />
k (k 1) q k 2 +<br />
1X<br />
k=0<br />
E 2 (X)<br />
1X<br />
k=1<br />
q k + 1 d<br />
= pq<br />
p2 dq<br />
1<br />
1 q<br />
k 1<br />
(k (k 1) + k) q<br />
1X<br />
k=1<br />
= pq<br />
(1<br />
2 1 2<br />
3 + =<br />
q) p2 2p + p<br />
p2 = 2 p<br />
p2 k 1<br />
kq<br />
!<br />
1 1<br />
2 +<br />
(1 q) p2
3. Diskreta modeller 85<br />
Varav följer att<br />
V (X) =<br />
2 p<br />
p 2<br />
10 Vi visar påståendena i ordning som ovan<br />
1. Överlåtes på läsaren - svårt<br />
2. De…nition av Neg(l; p) ger<br />
Neg(l; p) =<br />
varav väntevärdet erhålls till<br />
E Neg(l; p) =<br />
lX<br />
i=1<br />
1 1 p<br />
=<br />
p2 p2 lX<br />
F fg(p)<br />
i=1<br />
3. Variansen blir på grund av oberoendet<br />
V (Neg(l; p)) =<br />
E F fg(p) = l<br />
p .<br />
lX<br />
V (F fg(p)) =<br />
i=1<br />
l (1 p)<br />
p 2<br />
12 Punkt 2 är enklast ty den följer direkt av att den hypergeometriska<br />
variabel X de…nierades som en summa av n stycken 0-1 variabler och<br />
för väntevärdet av en summa krävs ej oberoende. Punkt 3 kan även<br />
den använda sig av summationen tillsammans med lagen om betingad<br />
varians. Sätt<br />
och<br />
Det gäller nu<br />
In =<br />
1 om n:te OK<br />
0 annars<br />
Xn =<br />
nX<br />
In.<br />
i=1<br />
V (Xn) = V E(Xn j Xn 1) + E V (Xn j Xn 1)<br />
E(Xn j Xn 1) = E(Xn 1 + In j Xn 1) = Xn 1 + E(In j Xn 1)<br />
= Xn 1 + Np Xn 1<br />
N n + 1<br />
V (Xn j Xn 1) = V (Xn 1 + In j Xn 1) = V (In j Xn 1)<br />
= Np Xn 1<br />
N n + 1<br />
Np Xn 1<br />
N n + 1<br />
2<br />
c Mikael Möller
86 3.7. Lösningar till uppgifter<br />
V (Xn) = V Xn 1 + Np Xn 1<br />
N n + 1<br />
= V<br />
Antag nu att<br />
Np<br />
+ 1<br />
N n + 1<br />
2<br />
+ E<br />
Np Xn 1<br />
N n + 1<br />
Np Xn 1<br />
N n + 1<br />
1<br />
N n + 1 Xn 1 + E Np Xn 1<br />
N n + 1<br />
E Np Xn<br />
N<br />
1<br />
n + 1<br />
= V 1<br />
N<br />
1<br />
n + 1 Xn + E Np Xn<br />
N<br />
1<br />
n + 1<br />
V Np Xn 1<br />
N n + 1<br />
E 2 Np Xn 1<br />
N n + 1<br />
= 1<br />
N<br />
2<br />
n + 1 V (Xn 1) + p (1 p)<br />
= N n 1<br />
N n + 1 V (Xn 1) + p (1 p)<br />
det gäller då att<br />
V (Xn) =<br />
V (Xn 1) = (n 1) p (1 p)<br />
N n 1<br />
N n + 1<br />
(n 1) p (1 p)<br />
N n + 1<br />
N 1<br />
N n + 1<br />
N 1<br />
= p (1<br />
(N<br />
p)<br />
n 1) (n<br />
N<br />
1) + N<br />
1<br />
1<br />
= np (1<br />
N<br />
p)<br />
N<br />
n<br />
1<br />
Induktionsaxiomet ger nu påståendet.<br />
c Mikael Möller<br />
+ p (1 p)<br />
2 !
4. Kontinuerliga<br />
modeller<br />
Vi har i introduktionen till begreppet stokastiska variabler de…nierat<br />
en kontinuerlig stokastisk variabel som den variabel som har ett kontinuerligt<br />
utfallsrum. Här skall vi nu närmare studera denna typ av<br />
variabler och deras användningsområden.<br />
4.1 Bussmodell<br />
Exempel 25 Din arbetsplats är belägen i Frihamnen och buss nummer<br />
1 avgår därifrån var 10:e minut. På grund av den täta turlistan bryr du<br />
dig, vid arbetsdagens slut, inte om att planera din ankomst till hållplatsen.<br />
Hur kan denna situation modelleras och vad blir sannolikheten att<br />
du får vänta på bussen i högst 5 minuter, med den av dig givna modellen?<br />
Lösning 16 Vår intuition säger oss att chansen för att vänta i högst 5<br />
minuter är 5 av 10. Men vad är sannolikheten att vi får vänta i exakt<br />
5 minuter? Svaret på denna fråga är inte så självklart som man vid ett<br />
första påseende skulle kunna tro.<br />
För att kunna ge en statistisk beskrivning av ovanstående frågor behöver<br />
vi uttala oss om den stokastiska variabeln<br />
X = väntetid till nästa buss<br />
Eftersom bussarna går med 10-minuters intervall består vårt utfallsrum,<br />
den stokastiska variabeln X:s de…nitionsmängd, av alla punkter i intervallet<br />
[0; 10] och utfallsrummet kan därför skrivas<br />
= fx 2 R : 0 x 10g<br />
Eftersom ett utfallsrum för kontinuerliga variabler inte är ändligt uppräkneligt<br />
kan vi inte för dessa de…niera en sannolikhetsfunktion ty antag<br />
att detta vore möjligt – då är en naturlig de…nition av denna funktion<br />
antal punkter där X = x<br />
P (X = x) =<br />
totalt antal punkter i intervallet (0; 10)<br />
= 1<br />
= 0<br />
1<br />
87
88 4.1. Bussmodell<br />
och således: För en kontinuerlig variabel är sannolikheten för att få exakt<br />
värdet x alltid lika med noll. Sannolikhetsfunktionen för kontinuerliga<br />
variabler saknar därför mening.<br />
Däremot kan fördelningsfunktionen F (x) = P (X x), som är sannolikheten<br />
att personen ifråga får vänta i högst x minuter, ges en mening.<br />
Först noterar vi med hjälp av …gur 4.1 att, något förvånande, det<br />
…nns exakt lika många punkter på en kort linje som på en lång! Detta<br />
följer av att när strålen från triangels spets skär den korta linjen i en<br />
punkt så skärs också den långa linjen i en punkt och vice versa.<br />
Av detta följer att<br />
P (X x) =<br />
Figur 4.1: En speciell sorts oändlighet<br />
antal punkter där X x<br />
= 1<br />
totalt antal punkter i intervallet (0; 10)<br />
Konklusionen av denna betraktelse är att det inte är meningsfullt att betrakta<br />
punkter i det kontinuerliga fallet ty alla sannolikheter blir antingen<br />
0 eller 1.<br />
Vad vi kan betrakta, och som är en naturlig utvidgning samt appellerar<br />
till vår intuition, är intervallängder och då erhålls<br />
FX(x) = P (X x) =<br />
l(0; x) x<br />
=<br />
l(0; 10) 10<br />
där l(A) står för intervallet A:s längd. Begreppet fördelningsfunktion blir<br />
med detta betraktelsesätt välde…nierat i det kontinuerliga fallet. Frågan<br />
är nu: Hur skall vi i det kontinuerliga fallet de…niera en motsvarighet<br />
till sannolikhetsfunktionen P (X = x)?<br />
c Mikael Möller
4. Kontinuerliga modeller 89<br />
Observera först att i det diskreta fallet gäller<br />
P (xk 1 < X xk) = P (X xk) P (X xk 1)<br />
= P (X = xk) 1<br />
ty fxk 1 < X xkg = fX xkg n fX xk 1g. Betrakta sedan, i det<br />
kontinuerliga fallet, ett mycket litet intervall (x; x + dx). För detta intervall<br />
gäller<br />
P (x < X x + dx) = P (X x + dx) P (X x)<br />
= FX(x + dx) FX(x)<br />
Men vi vet från den matematiska analysen att om dx är tillräckligt litet<br />
och funktionen FX är ”snäll” så gäller<br />
FX(x + dx) FX(x)<br />
dx<br />
F 0 X(x)<br />
Vi leds härav till att allmänt de…niera en täthetsfunktion fX(x) =<br />
F 0 X (x) som uppfyller<br />
P (x < X x + dx) fX(x) dx<br />
Täthetsfunktionen tar vi som det kontinuerliga fallets motsvarighet till<br />
sannolikhetsfunktionen och den de…nieras som derivatan av fördelningsfunktionen<br />
FX(x).<br />
I vårt bussexempel gäller<br />
FX(x + dx) FX(x) =<br />
x + dx<br />
10<br />
x 1<br />
=<br />
10 10 dx<br />
varför täthetsfunktionen där blir fX(x) = 1<br />
10 .<br />
För att slutligen besvara vår ursprungliga fråga, om sannolikheten att<br />
vi får vänta högst 5 minuter, har vi att beräkna<br />
P (X 5) = 5<br />
= 0:5<br />
10<br />
Ett resultat som stämmer bra med vårt tidigare angivna intuitiva resultat.<br />
Om vi i exemplet ovan ersätter 0 med a och 10 med b så erhåller vi<br />
vår första kontinuerliga fördelning.<br />
De…nition 29 (Rektangelfördelning) En stokastisk variabel X som<br />
uppfyller<br />
fX(x) = 1<br />
b a ; x 2 X<br />
c Mikael Möller
90 4.2. Försäkringsmodell<br />
där X = fx 2 R : a x bg säges vara rektangelfördelad med parametrarna<br />
a och b. Vi skriver<br />
X 2 R(a; b) .<br />
Uppgift 13 Visa att för en R(a; b) fördelning så gäller att<br />
1. R f(x) dx = 1<br />
2. E(X) = a+b<br />
2<br />
3. V (X) =<br />
(a b)2<br />
12<br />
Denna mycket enkla fördelning är av mycket stor betydelse för att<br />
kunna generera slumptal 1 (egentligen pseudoslumptal ty det är inte äkta<br />
slumptal man får) något som för oss, här, är rätt ointressant. Men den är<br />
grundbulten vid alla simuleringar. Att vi ändock låter den komma som<br />
första kontinuerliga fördelning beror på att den låter oss införa begreppet<br />
täthetsfunktion på ett någorlunda intuitivt sätt.<br />
4.2 Försäkringsmodell<br />
Vi övergår nu till en annan fördelning som bland annat är användbar i<br />
t ex försäkringssammanhang.<br />
Exempel 26 (Försäkring) Ett försäkringsbolag i Sverige har sålt bilförsäkringar<br />
(personbilar) under en mycket lång tid och har en stor portfölj<br />
av sådana. Försäkringsköparna kommer från hela landet och alla<br />
sociala skikt. Denna portfölj drabbas då och då av skador vilka genererar<br />
kostnader för bolaget. Dessa kostnader (tillsammans med administrationskostnader)<br />
måste på lång sikt täckas av intäkterna och med lång<br />
sikt förstås att den förväntade kostnaden skall vara minst lika stor som<br />
den förväntade intäkten. Bolaget vill nu i ett första steg få en uppskattning<br />
av fördelningen för tiden mellan två på varandra följande skador.<br />
Lösning 17 Ovanstående beskrivning ger att de enskilda försäkringsbreven<br />
drabbas av skador oberoende av varandra ty en skada i Södermanland<br />
känner knappast till en skada i Västmanland (obs detta är endast<br />
en hyfsad approximation) samt att om vi betraktar försäkringsportföljen<br />
som helhet så bör tiden mellan två på varandra följande skador vara<br />
likafördelad. Vidare kan en skada idag knappast känna till en skada igår<br />
1 I min bok Statistiska modeller inom datateknik beskrivs hur detta görs.<br />
c Mikael Möller
4. Kontinuerliga modeller 91<br />
så det kan inte …nnas något minne i skadeprocessen (detta är nu inte<br />
helt sant men duger även det som en första approximation).<br />
Bilda den stokastiska variabeln<br />
T = tiden mellan två på varandra följande skador<br />
vars utfallsrum kan skrivas T = ft j t 0g. Att skadeprocessen saknar<br />
minne innebär att vi kan uttrycka nedanstående betingade sannolikhet på<br />
två sätt<br />
P (T > t + s j T > s) =<br />
P (T > t + s; T > s)<br />
P (T > s)<br />
P (T > t + s j T > s) = P (T > t) .<br />
= P (T > t + s)<br />
,<br />
P (T > s)<br />
Den första likheten följer av att om tiden mellan skador är större än 5<br />
dagar så är den de…nitivt större än 3 dagar (mer matematiskt skriver vi<br />
fT > sg fT > t + sg). Den andra likheten följer av att om vi studerat<br />
processen i s tidsenheter så kan vi glömma bort våra erfarenheter från<br />
denna tid när studiet av de följande t tidsenheterna börjar. Det är ju det<br />
som sakna minne innebär. Första och andra raden ger nu tillsammans<br />
att<br />
P (T > t + s) = P (T > t) P (T > s)<br />
Tag den naturliga logaritmen av båda leden och de…niera funktionen<br />
f(t) = ln P (T > t). Vi erhåller då relationen<br />
f(t + s) = f(t) + f(s)<br />
och denna matematiska ekvation har som enda lösning 2<br />
f(t) = t.<br />
och den ger vår sökta sannolikhet till<br />
P (T > t) = e t .<br />
Om är positiv så blir P (T > 1) = e > 1. Konstanten måste därför<br />
vara negativ eftersom sannolikheter alltid ligger i intervallet [0; 1]. Den<br />
sökta fördelningen för tiden mellan skador kan nu skrivas P (T t) =<br />
1 e t där > 0 och t > 0 och vi har följande de…nition.<br />
2 Se <strong>Introduktion</strong> till den ekonomiska matematiken.<br />
c Mikael Möller
92 4.2. Försäkringsmodell<br />
De…nition 30 (Exponentialfördelning) En stokastisk variabel T som<br />
uppfyller<br />
f(t) = e<br />
där, > 0 och t 2 T = ft j t 0g säges vara exponentiellt fördelad<br />
med parametern . Vi skriver<br />
t<br />
T 2 Exp( ) .<br />
Uppgift 14 Visa att för en Exp( ) fördelning så gäller att<br />
1. R f(x) dx = 1<br />
2. E(X) = 1<br />
3. V (X) = 1 2<br />
Det är egentligen rätt märkligt att så enkla och, i detta fall, naturliga<br />
antaganden kan ge upphov till en sluten matematisk formel. Dessutom<br />
har vi faktiskt inte använt oss av att skadorna är oberoende så detta<br />
antagande behövs inte för ovanstående resultat.<br />
Vi kan nu fråga oss hur lång tid det tar innan vi har två eller tre<br />
skador eller mera allmänt hur lång tid det tar att få n skador. Om<br />
vi hittar svaret på den frågan kan vi också hitta svaret på hur antalet<br />
skador under en viss tidsperiod –säg ett år –är fördelad.<br />
Om vi bildar följande följd (sekvens) av stokastiska variabler<br />
Ti = tidpunkten för skada nummer i; i = 1; 2; : : : ; n,<br />
T0 = 0.<br />
så gäller att tiden till den n:te skadan kan skrivas<br />
Tn = T1 T0 + T2 T1 + + Tn Tn 1.<br />
Fördelningen för den stokastiska variabeln Tn är således en summa av<br />
exponentialfördelade variabler.<br />
Om vi nu de…nierar de stokastiska variablerna<br />
Xi = Ti Ti 1; i = 1; 2; : : : ; n och X = Tn<br />
så gäller följande sats för den stokastiska summavariabeln X.<br />
c Mikael Möller
4. Kontinuerliga modeller 93<br />
Theorem 31 Om variablerna X1; : : : ; Xn är oberoende och exponentialfördelade<br />
alla med samma parameter så gäller att summavariabeln<br />
X = P n<br />
i=1 Xi har en fördelning som kan skrivas<br />
F (x) = P (X x) = 1<br />
och dess täthetsfunktion blir<br />
nX 1<br />
i=0<br />
f(x) =<br />
(n 1)! xn 1 e<br />
n<br />
( x) i<br />
e<br />
i!<br />
Bevis 11 Vi skall visa satsens påstående med hjälp av induktion. Enligt<br />
de…nition gäller<br />
P (X x) = P (X1 x) = 1 e<br />
när n = 1. För n = 2 noterar vi först att<br />
P (X x) = P (X1 + X2 x) = 1 P (X1 + X2 > x)<br />
och använder sedan satsen om betingat väntevärde (se sid 41)<br />
P (X1 + X2 > x) = E P (X1 + X2 > x j X1)<br />
= E P (X2 > x X1 j X1)<br />
= E e<br />
=<br />
Z x<br />
0<br />
= xe<br />
e<br />
(x X1)<br />
(x s) e<br />
x + e<br />
x<br />
x<br />
x<br />
Z 1<br />
s<br />
ds +<br />
x<br />
Observera att värdet på X1 aldrig kan vara större än x eftersom vi i<br />
intervallet (0; x) även skall klämma in X2. Det gäller således för n = 2<br />
att<br />
F (x) = P (X x) = 1 e<br />
f(x) = x 2 e<br />
x .<br />
Antag nu att påståendet är sant för n = k. Vi skall då visa att under<br />
detta antagande är påståendet även sant för n = k + 1. Induktionsaxiomet<br />
ger sedan att satsen är sann för godtyckligt n. En upprepning av<br />
argumentationen för fallet n = 2 ger nu<br />
P (X x) = P Xk+1<br />
x<br />
x<br />
xe<br />
x ,<br />
i=1 Xi x = 1 P Xk+1<br />
e<br />
s ds<br />
i=1 Xi > x<br />
c Mikael Möller
94 4.2. Försäkringsmodell<br />
varav följer<br />
P Xk+1<br />
Xk<br />
i=1 Xi > x = E P Xk+1<br />
i=1 Xi = s =<br />
i=1 Xi > x j Xk<br />
= E P Xk+1 > x Xk<br />
= E e (x Pk i=1 Xi)<br />
Z x<br />
(x s) sk<br />
1 k<br />
+<br />
= e<br />
e<br />
0<br />
Z 1<br />
k 1 k s<br />
(k 1)! e<br />
(k 1)! e<br />
s ds<br />
i=1 Xi<br />
i=1 Xi j Xk<br />
s ds<br />
i=1 Xi<br />
x<br />
Z x k 1 k Z 1 k 1 k<br />
x s s<br />
ds +<br />
0 (k 1)! x (k 1)! e s ds<br />
Den sista integralen beräknas med hjälp av partiell integration och dess<br />
första steg ger<br />
Z 1<br />
x<br />
k 1 k s<br />
(k 1)! e s 1<br />
( x)k<br />
ds =<br />
(k 1)! e<br />
Upprepad partiell integration ger således<br />
Z 1<br />
x<br />
k 1 k s<br />
(k 1)! e s kX 1<br />
ds =<br />
i=0<br />
Z 1<br />
x<br />
+<br />
x<br />
och eftersom den första integralen trivialt blir<br />
erhålls att<br />
e<br />
( x) i<br />
e<br />
i!<br />
Z x k 1 k<br />
x s ( x)k<br />
ds =<br />
0 (k 1)! k! e<br />
P Xk+1<br />
i=1 Xi > x =<br />
kX ( x) i<br />
e<br />
i!<br />
i=0<br />
k 2 k 1 s<br />
(k 2)! e s ds.<br />
varför vårt antagande ger att även det följande steget gäller.<br />
Resten av beviset är bara enkla omskrivningar.<br />
I och med denna sats har vi tagit ett stort steg mot att lösa ett<br />
försäkringsbolags grundläggande problem nämligen att bestämma en<br />
försäkrings premie.<br />
c Mikael Möller<br />
x<br />
x<br />
x
4. Kontinuerliga modeller 95<br />
4.2.1 Fördelning för antal skador<br />
För att bestämma årspremien adderar vi exponentialfördelade tider tills<br />
vi erhållit ett år. Därmed får vi indirekt antalet skador under ett år.<br />
Allmänt har vi att bestämma antalet skador i ett tidsintervall av längd<br />
t. Detta gör vi enklast genom att bilda de stokastiska variablerna<br />
och<br />
Tn = tiden till den n:te skadan<br />
Nt = antalet skador i tidsintervallet (0; t) .<br />
Vi konstaterar sedan att följande relation gäller mellan dessa två stokastiska<br />
variabler<br />
fTn tg = fNt ng<br />
ty om tiden till den n:te skadan är mindre än eller lika med t så måste<br />
antalet skador i tidsintervallet (0; t) vara större än eller lika med n. Men<br />
detta ger oss relationen<br />
och denna ger i sin tur att<br />
P (Nt n) = P (Tn t) = 1<br />
nX 1<br />
i=0<br />
( t) i<br />
i! e<br />
P (Nt = n) = P (Nt n) P (Nt n + 1)<br />
= 1<br />
nX 1<br />
( t) i<br />
i! e<br />
t<br />
nX ( t)<br />
1 +<br />
i<br />
i! e<br />
= ( t)n<br />
i=0<br />
n! e<br />
i=0<br />
t ; n = 0; 1; 2; : : : .<br />
Den här erhållna fördelningen, för antalet skador, är en välkänd diskret<br />
fördelning som kallas Poissonfördelningen. Den är bland annat känd<br />
för att den ger en bra beskrivning av antalet kavallerister som årligen<br />
sparkas ihjäl av sina hästar. Hur nu hästarna vet när det är dags att<br />
sätta in en välriktad spark är dock fortfarande en gåta.<br />
De…nition 32 (Poissonfördelning) En stokastisk variabel Nt som uppfyller<br />
( t)n<br />
P (Nt = n) =<br />
n! e<br />
t<br />
; n 2 N<br />
där N = fk j k = 0; 1; 2; : : :g säges vara poisson-fördelad med parametern<br />
. Vi skriver<br />
Nt 2 P o( t) .<br />
t<br />
t<br />
c Mikael Möller
96 4.2. Försäkringsmodell<br />
Uppgift 15 Visa att för en P o( t) fördelning så gäller att<br />
1. P P (Nt = n) = 1<br />
2. E(Nt) = t<br />
3. V (Nt) = t<br />
4.2.2 En försäkrings premie<br />
Försäkringsbolaget har nu de första verktygen för att bestämma en<br />
försäkrings premie. Under året har de haft säg N skador och storleken<br />
på skadorna följer någon fördelning med E (Ci) = c. Bolagets totala<br />
skadekostnad, som skall täckas av premierna, kan nu skrivas<br />
C =<br />
NX<br />
i=1<br />
och en första approximation av premiens storlek blir<br />
Pn = C<br />
n<br />
Ci<br />
där n är antalet försäkrade. Vi …nner nu att<br />
där<br />
E (Pn) = 1<br />
E (C)<br />
n<br />
E (C) = E E (C j N)<br />
NX<br />
!!<br />
= E E Ci j N = E<br />
= E<br />
= c<br />
i=1<br />
NX<br />
!<br />
E (Ci j N)<br />
i=1<br />
NX<br />
!<br />
E (Ci) = E (Nc) = E (N) c<br />
i=1<br />
och den sökta storleken på premien blir således c<br />
n .<br />
c Mikael Möller
4. Kontinuerliga modeller 97<br />
4.3 Normalfördelningen<br />
Ovanstående försäkringsexempel ger oss ytterligare en intressant fördelning<br />
nämligen att en summa av n exponentiellt fördelade variabler alla<br />
med samma parameter är gamma-fördelad med parametrarna n och<br />
.<br />
De…nition 33 (Gammafördelning) En stokastisk variabel Tn som uppfyller<br />
F (t) = 1<br />
f(t) =<br />
nX 1<br />
i=0<br />
( t) i<br />
i! e<br />
1 n<br />
tn t<br />
e<br />
(n 1)!<br />
där n = 0; 1; 2; : : : och > 0 säges vara gamma fördelad med parametrarna<br />
n och . Vi skriver<br />
Tn 2 (n; ) .<br />
I den generella de…nitionen av en gammafördelning ersätts n med<br />
där villkoret är > 0.<br />
Uppgift 16 Visa att för en (n; ) fördelning så gäller att<br />
1. R f(x) dx = 1,<br />
2. E(X) = n ,<br />
3. V (X) = n 2 .<br />
I kapitlet Diskreta modeller betraktade vi summor av F fg(p)-fördelningar<br />
vilka gav oss en Negativ binomialfördelning och här har vi betraktat<br />
summor av Exp( )-fördelningar vilka ger oss Gamma-fördelningen.<br />
Låt oss studera detta sista exempel lite närmare och rita upp täthetsfunktionen<br />
för en (n; ) för några olika värden på n, säg n = 5; 20; 50.<br />
Vi erhåller då …gur 4.2<br />
Av …guren följer att täthetsfunktionen vandrar åt höger helt i enlighet<br />
med att gammafördelningens väntevärde kan skrivas 3 n och eftersom vi<br />
3 Detta följer direkt av att<br />
(n; ) =<br />
nX<br />
Exp( ) .<br />
k=1<br />
t<br />
c Mikael Möller
98 4.3. Normalfördelningen<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
0 10 20 30 40 50 60 70 80 90 100<br />
Figur 4.2: Tre gamma fördelningar<br />
valt = 1 ser vi att kurvans topp inträ¤ar för x = n. Vi ser också<br />
att kurvan tenderar att bli mer symmetrisk när n växer men det blir<br />
svårt att se eftersom den kommer att vandra ut ur bild. Detta kan vi<br />
korrigera med att dra ifrån väntevärdet från den stokastiska variabeln<br />
n<br />
Tn och istället betrakta Xn = Tn . Denna transformation ger att vi<br />
istället skall betrakta funktionen f (x) nedan.<br />
Theorem 34 Om Tn 2 (n; ) så gäller att täthetsfunktionen för Xn =<br />
n kan skrivas<br />
Tn<br />
f(x) = (n 1)! ( x + n) n 1 e<br />
Bevis 12 Betrakta fördelningsfunktionen<br />
P (Xn x) = P Tn<br />
= 1<br />
nX 1<br />
i=0<br />
n<br />
( x + n) i<br />
e<br />
i!<br />
( x+n)<br />
x = P Tn x + n<br />
( x+n)<br />
och derivera denna funktion för att erhålla täthetsfunktionen till Xn.<br />
Man …nner<br />
f(x) = (n 1)! ( x + n) n 1 e ( x+n) .<br />
Liksom ovan ritar vi denna nya täthetsfunktion för värdena n =<br />
5; 20; 50 och får då …gur 4.3.<br />
c Mikael Möller<br />
x
4. Kontinuerliga modeller 99<br />
Figur 4.3: Tre gamma fördelningar korrigerade för väntevärdet<br />
Av denna …gur framgår tydligt att vi lyckats hindra täthetsfunktionen<br />
från att springa iväg med växande n men egenskapen att den bli allt<br />
plattare, d v s mera utspridd, kvarstår. Så vem pratar om spridning?<br />
Om vi går tillbaks till kapitlet Vad statistik handlar om så införde vi<br />
där begreppet varians som ett mått på spridning i allmänhet och detta<br />
mått går enkelt att överföra till vårt axiomatiska system där vi utgår<br />
från förväntningsvärdet. Vi har nämligen att storheten<br />
V (X) = E X E(X) 2 = E X 2<br />
E(X) 2<br />
har precis samma funktion för ett allmänt utfallsrum som<br />
2 = A X X 2 = A X X 2<br />
har för ett uppräkneligt utfallsrum. Idén är nu att eftersom vi hindrade<br />
täthetsfunktionen från att springa iväg, genom att dra bort väntevärdet,<br />
så kanske vi kan hindra täthetsfunktionen från att plattas ut genom att<br />
dividera med variansen. Nu visar det sig att variansen inte duger men<br />
väl så roten ur variansen (standardavvikelsen). För att se detta börjar vi<br />
med att beräkna V (X) när X 2 (n; ) och eftersom vi redan beräknat<br />
x<br />
c Mikael Möller
100 4.3. Normalfördelningen<br />
E(X) till n så återstår endast att beräkna E X 2 .<br />
E X 2 =<br />
=<br />
= n (n + 1)<br />
varav vi erhåller att<br />
Z 1<br />
0<br />
Z 1<br />
0<br />
x 2 f(x) dx =<br />
2<br />
V (X) =<br />
Vi erhåller nu följande sats<br />
n (n + 1)<br />
2<br />
n (n + 1)<br />
2<br />
Z 1<br />
2 xn<br />
x<br />
0 (n<br />
1 n<br />
1)! e x dx<br />
n+1 n+2<br />
x<br />
(n + 1)! e x dx<br />
n 2<br />
= n<br />
2 .<br />
Theorem 35 Om Tn 2 (n; ) så gäller att täthetsfunktionen för<br />
kan skrivas<br />
f(x) =<br />
p n<br />
(n 1)!<br />
Bevis 13 Betrakta<br />
P (Xn x) = P<br />
= 1<br />
Xn = Tn<br />
n<br />
p<br />
n<br />
p nx + n n 1 e ( p nx+n) ; x<br />
n<br />
Tn<br />
p<br />
n<br />
nX 1<br />
i=0<br />
i<br />
i!<br />
x<br />
!<br />
= 1 e (p nX 1<br />
nx+n)<br />
= P Tn<br />
p nx + n i<br />
e<br />
i=0<br />
1<br />
i!<br />
p nx + n i<br />
p n .<br />
p nx + n<br />
p n x+ n<br />
och derivera denna funktion för att erhålla täthetsfunktionen till Xn.<br />
Efter en del arbete …nner man att<br />
f(x) =<br />
c Mikael Möller<br />
p n<br />
(n 1)!<br />
p nx + n n 1 e ( p nx+n) ; x<br />
p n .
4. Kontinuerliga modeller 101<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
4 3 2 1 0 1 2 3 4<br />
Figur 4.4: Tre normaliserade gamma fördelningar<br />
Liksom ovan ritar vi denna nya täthetsfunktion för värdena n =<br />
5; 20; 50 (se …gur 4.4) men lägger nu också in en normalfördelningskurva<br />
(se de…nition 37 på sid 103). Denna senare åtgärd eftersom täthetsfunktionen<br />
verkar närma sig en gränsfunktion när n växer mot allt större<br />
tal. Med lite matematik går det att visa att denna gränsfunktion blir<br />
täthetsfunktionen för normal-fördelningen.<br />
Gammafördelningen kännetecknas av att den är en summa av exponentialfördelade<br />
variabler och vi har tidigare mött fördelningar som<br />
konstruerats via summor. T ex så erhålls den negativa binomialfördelningen<br />
som en summa av för första gången fördelningar och vi …nner<br />
stolpdiagrammen i …gur 4.5 för Neg(n; 0:3) när n = 5; 25; 60.<br />
Vi ser att den negativa binomialfördelningen uppträder på samma sätt<br />
som gammafördelningen när n växer (vi måste självklart även i detta<br />
fall dra ifrån väntevärdet och dividera med standardavvikelse för att<br />
vara helt säkra). En diskret fördelning som är en summa av F fg(p) och<br />
en kontinuerlig fördelning som är en summa av Exp( ) uppträder båda<br />
på samma sätt. Mycket märkligt! men om detta kan generaliseras har<br />
vi gjort en mycket stor upptäckt ty aritmetiska medelvärden bildas av<br />
summor av stokastiska variabler och dessa medelvärden spelar en mycket<br />
stor roll inom statistiken. De är approximationer av väntevärden.<br />
4.3.1 Centrala gränsvärdessatsen<br />
Detta avsnitt är vårt första rent teoretiska avsnitt ty jag känner inget<br />
enkelt exempel (annat än ovanstående resonemang) som ger upphov till<br />
x<br />
c Mikael Möller
102 4.3. Normalfördelningen<br />
0.07<br />
0.06<br />
0.05<br />
0.04<br />
0.03<br />
0.02<br />
0.01<br />
0.00<br />
20 40 60 80 100 120 140 160 180 200 220 240 260<br />
Figur 4.5: Tre negativt binomial fördelade sannolikhetsfunktioner<br />
normalfördelningen, kronjuvelen, utan den dyker upp indirekt via summor.<br />
Faktum är att om vi tar ett stort 4 antal godtyckliga oberoende<br />
stokastiska variabler och summerar dem så gäller nästan alltid att summafördelningen<br />
är approximativt normalfördelad. Närmare bestämt gäller<br />
följande sats<br />
Theorem 36 (Centrala gränsvärdessatsen) Låt X1; X2; : : : ; Xn vara<br />
oberoende stokastiska variabler med ändliga väntevärden (mk) och ändliga<br />
standardavvikelser ( k). Bilda det absoluta 3:e momentet<br />
Om det nu gäller att<br />
där 2 n = P n<br />
k=1<br />
k = E jXk mkj 3<br />
Pn lim k=1 k<br />
n!1 n<br />
2<br />
k så gäller att<br />
Pn k=1 Xk mn<br />
n<br />
= 0<br />
.<br />
D<br />
! N(0; 1)<br />
där mn = P n<br />
k=1 mk och D betyder att konvergensen är i fördelning.<br />
Bevis 14 Se t ex Cramér, Mathematical methods of statistics<br />
4 Stort kan variera från ett till ‡era hundra.<br />
c Mikael Möller
4. Kontinuerliga modeller 103<br />
Detta är en remarkabel sats och kallas inte oförskylt statistikens<br />
Kronjuvel. Faktum är att utan den skulle statistiken vara mycket svårare.<br />
Observera att fördelningarna inte behöver vara lika utan det går bra att<br />
blanda fritt. Det går även att rucka lite på kravet om oberoende men<br />
det går vi inte in på här.<br />
Men normalfördelningen kommer inte bara in via direkta summor<br />
utan det visar sig att mycket i livet följer denna fördelning. För att<br />
bara nämna några exempel: skenbenets längd, individers vikter (det<br />
må vara människor eller sandödlor), individers längder, vikten av 1 kg:s<br />
förpackningar av ka¤e (som självklart inte innehåller 1 kg), uppmätning<br />
av sträckor o s v. Ja i alla situationer där vi kan tänka oss ha många<br />
oberoende mätningar av en och samma storhet så är normalfördelningen<br />
användbar.<br />
Så låt oss nu de…niera denna underbara fördelning<br />
De…nition 37 (Normalfördelning) En stokastisk variabel X vars täthetsfunktion<br />
kan skrivas<br />
f(x) =<br />
1<br />
(x )2<br />
p e 2<br />
2 2 2<br />
där talet är positivt och är ett godtyckligt tal samt<br />
x 2 X = fx 2 R : 1 < x < 1g<br />
säges vara normalfördelad med väntevärdet och standardavvikelsen .<br />
Vi skriver<br />
X 2 N( ; ) .<br />
Om väntevärdet är 0 och standardavvikelsen är 1 så betecknas täthetsfunktionen<br />
respektive fördelningsfunktionen med respektive (detta av<br />
historiska skäl).<br />
I …gur 4.6 ges några grafer av denna variabels täthetsfunktion och av<br />
dessa kan vi dra några slutsatser om när fördelningen är användbar.<br />
Täthetsfunktionen ser symmetrisk ut (vilket också bekräftas av de…nitionen)<br />
varav följer att den kan vara tillämplig i symmetriska situationer<br />
speciellt där observationerna klumpar sig mot mitten (kring symmetrilinjen).<br />
Vidare gäller att om vi tar n normalfördelade variabler och adderar<br />
dem så får vi ånyo en normalfördelning. Det …nurliga med normalfördelningen<br />
är att dessa normalfördelade variabler inte behöver vara oberoende<br />
för att summan skall bli normalfördelad. Vi skall även visa att är väntevärdet<br />
och att 2 är variansen.<br />
c Mikael Möller
104 4.3. Normalfördelningen<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
4 2 0 2 4 6 8<br />
Figur 4.6: Från vänster: N( 2; 0:5), N(0; 1) och N(2; 2).<br />
Men innan vi tar itu med dessa teoretiska, men ack så viktiga, frågor<br />
ger vi ett enkelt exempel.<br />
Exempel 27 I ett lager av ka¤esäckar vilkas innehåll i kg kan anses<br />
vara N(35; 0:5) (d v s säcken har en medelvikt om 35 kg med en standardavvikelse<br />
på 0:5 kg) tar man ut en säck på måfå och portionerar ut<br />
innehållet i burkar så att varje burk innehåller i det närmaste exakt 1<br />
kg.<br />
1. Hur stor är sannolikheten att säcken räcker till minst 36 burkar?<br />
2. Hur stor är sannolikheten att säcken räcker till 34 men inte 36<br />
burkar?<br />
Lösning 18 De…niera den stokastiska variabeln<br />
där X 2 N(35; 0:5). 5<br />
X = ka¤esäckens vikt<br />
1. Sannolikheten att säcken räcker till minst 36 burkar kan skrivas<br />
P (X > 36) = 1 P (X 36)<br />
5 I lösningen har vi använt oss av SWP för att beräkna integralerna. De traditionella<br />
metoderna som excercerar i tabellslagning är numer ett passerat stadium.<br />
På samma sätt som att man inte behöver ha mekaniska kunskaper för att köra bil.<br />
Det går självklar att använda sig av andra program med motsvarande matematiska<br />
färdigheter.<br />
c Mikael Möller
4. Kontinuerliga modeller 105<br />
där<br />
varför<br />
P (X 36) =<br />
Z 36<br />
1<br />
1<br />
p 2 0:25 e<br />
P (X > 36) = 1 P (X 36)<br />
= 0:02275<br />
(x 35)2<br />
2 0:25 dx 0:97725<br />
2. Sannolikheten att säcken räcker till 34 men inte 36 burkar kan<br />
skrivas<br />
P (34 X < 36) = P (X 36) P (X 34)<br />
=<br />
Z 36<br />
34<br />
= 0:9545<br />
1<br />
p 2 0:25 e<br />
(x 35)2<br />
2 0:25 dx<br />
Så är det dags att studera normalfördelningen och dess egenskaper<br />
från en mer allmängiltig utgångspunkt. Vi börjar med den enklaste<br />
egenskapen nämligen den att funktionen f är symmetrisk kring x = .<br />
Theorem 38 Funktionen<br />
f(x) =<br />
1<br />
(x )2<br />
p e 2<br />
2 2 2<br />
är symmetrisk kring x = d v s det gäller att<br />
f( x) = f( + x) .<br />
Bevis 15 Sättet att visa detta på är att räkna ut vänster och höger led<br />
samt konstatera att de är lika.<br />
f( x) =<br />
f( + x) =<br />
1<br />
( x )2<br />
p e 2<br />
2 2 2 1<br />
( x)2<br />
= p e 2<br />
2 2 2<br />
1<br />
( +x )2<br />
p e 2<br />
2 2 2 1<br />
(x)2<br />
= p e 2<br />
2 2 2<br />
Därefter tar vi fram relationen mellan parametrarna och och<br />
väntevärdena E (X) och V (X) (= E X 2 E 2 (X)).<br />
Theorem 39 För en normalfördelning N( ; ) gäller att är väntevärdet<br />
och 2 är variansen.<br />
c Mikael Möller
106 4.3. Normalfördelningen<br />
Bevis 16 Det gäller<br />
E(X) =<br />
Z 1<br />
1<br />
1<br />
xp<br />
2 2<br />
e (x )2<br />
2 2 dx<br />
Gör variabeltransformationen x x + då erhålls<br />
E(X) =<br />
Z 1<br />
1<br />
= +<br />
(x + )<br />
1<br />
p 2 2<br />
den senare integralen har nu lösningen<br />
2 e x 2<br />
2 2<br />
1<br />
x2<br />
p e 2<br />
2 2 2 dx<br />
Z 1<br />
x=1<br />
1<br />
x= 1<br />
xe x2<br />
2 2 dx<br />
= 0.<br />
För att beräkna variansen har vi som vanligt att först beräkna<br />
E X 2 =<br />
Z 1<br />
1<br />
x 2 1<br />
p<br />
2 2<br />
e (x )2<br />
2 2 dx.<br />
Denna gång gör vi variabeltransformationen x x+ , ty det förenklar<br />
räknandet betydligt, då erhålls<br />
E X 2 =<br />
Z 1<br />
( x + )<br />
1<br />
2 1<br />
x2<br />
p e 2 dx<br />
2 2<br />
Z 1<br />
2 1<br />
x p e<br />
1 2 x2<br />
Z 1<br />
2 dx + 2<br />
1<br />
= 2<br />
För den första integralen gäller<br />
Z 1<br />
1<br />
2 1<br />
x p e<br />
2 x2<br />
2 dx =<br />
x<br />
p e<br />
2 x2<br />
2<br />
x=1<br />
x= 1<br />
| {z }<br />
0<br />
Z 1<br />
+<br />
x 1<br />
p 2 e x2<br />
2 dx + 2 .<br />
1<br />
1<br />
p 2 e x2<br />
2 dx<br />
| {z }<br />
1<br />
= 1.<br />
Den andra integralen räknades ut tidigare och blev då 0. Sammantaget<br />
ger detta att<br />
E X 2 = 2 + 2 .<br />
Varav följer att<br />
c Mikael Möller<br />
V (X) = E X 2<br />
E 2 (X) = 2 + 2 2 = 2 .
4. Kontinuerliga modeller 107<br />
Corollary 40 För en normalfördelad stokastisk variabel med = 0 och<br />
= 1 gäller 6<br />
E X k =<br />
0 k = 2n + 1,<br />
(2n 1)!! k = 2n.<br />
Återstår således att diskutera vilken fördelning en summa av normalfördelade<br />
variabler har. Dock anger vi här endast resultatet när de är<br />
oberoende. Redan att visa detta resultat är rätt tekniskt och det mer<br />
allmänna resultatet då variablerna är beroende kräver matristeori.<br />
Theorem 41 Om X1 2 N( 1; 1) och X2 2 N( 2; 2) samt oberoende<br />
så gäller att X1 + X2 2 N 1 + 2; p 2 1 + 2 2 .<br />
Bevis 17 Satsens bevis är rätt tekniskt och hör hemma i högre kurser.<br />
Där visas även en motsvarighet för beroende normalfördelade variabler.<br />
6 De två utropstecknen, !!, i formeln nedan skall tolkas enligt<br />
k!! = k (k 2) (k 4) .<br />
c Mikael Möller
108 4.4. Lösningar till uppgifter<br />
4.4 Lösningar till uppgifter<br />
13 Följande gäller<br />
1. R f(x) dx = R b<br />
a<br />
2. E(X) = R b<br />
a<br />
3. E X 2 = R b<br />
a<br />
14 Följande gäller<br />
1<br />
b a dx = 1<br />
x<br />
1<br />
b a dx = b a<br />
x 2<br />
1<br />
b a dx = b a<br />
V (X) = E X 2<br />
= 1<br />
b a<br />
b 2 a 2<br />
2<br />
b 3 a 3<br />
3<br />
= a+b<br />
2<br />
varför<br />
E 2 (X)<br />
b 3 a 3<br />
3<br />
= b2 + ab + a2 3<br />
= b2 2ab + a2 12<br />
= (a b)2<br />
a + b<br />
2<br />
a 2 + 2ab + b 2<br />
4<br />
.<br />
12<br />
1. R f(x) dx = R 1 x x e dx = e 0 x=1<br />
= 1<br />
x=0<br />
2. E(X) = R 1<br />
0 xe x dx = fy = xg = 1 R 1<br />
0 e y dy = 1<br />
3. E X 2 = R 1<br />
0 x 2 e x dx = x 2 e x x=1<br />
x=0 + R 1<br />
0 2xe x dx = 2 2<br />
varför<br />
15 Följande gäller<br />
V (X) = 2<br />
2<br />
1 1<br />
= 2 2<br />
1. P1 n=0 P (Nt<br />
t = n) = e P1 ( t)<br />
n=0<br />
n<br />
n! = e t e t = 1<br />
2. Följande omskrivningar ger resultatet<br />
c Mikael Möller<br />
E(Nt) =<br />
= e<br />
1X<br />
n=0<br />
= te<br />
( t)n<br />
n<br />
n! e<br />
t<br />
1X<br />
n=1<br />
n 1<br />
( t)<br />
t = e<br />
t<br />
1X<br />
n=0<br />
t<br />
= te<br />
(n 1)!<br />
t e t = t<br />
( t)n<br />
n<br />
n!<br />
1X<br />
t<br />
n 1=0<br />
2<br />
n<br />
( t)<br />
1<br />
(n 1)!
4. Kontinuerliga modeller 109<br />
3. Följande omskrivningar ger resultatet<br />
varför<br />
E N 2 t =<br />
16 Följande gäller<br />
1. Sätt<br />
1X<br />
2 ( t)n<br />
n<br />
n!<br />
n=0<br />
e<br />
1X<br />
t t ( t)n<br />
= e n<br />
(n 1)!<br />
n=1<br />
1X<br />
t<br />
( t)<br />
= e (n 1)<br />
n=1<br />
n<br />
(n 1)! +<br />
1X ( t)<br />
n=1<br />
n<br />
!<br />
(n 1)!<br />
1X<br />
t ( t)<br />
= e<br />
n 2 ( t) 2<br />
(n 2)! +<br />
1X<br />
!<br />
n 1<br />
( t) t<br />
(n 1)!<br />
= e<br />
n=2<br />
t ( t) 2 e t + e<br />
= ( t) 2 + t<br />
V (Nt) = E N 2 t<br />
In =<br />
t te t<br />
n=1<br />
E 2 (Nt)<br />
= ( t) 2 + t ( t) 2<br />
= t.<br />
Z 1<br />
0<br />
n 1 n x<br />
(n 1)! e<br />
x dx<br />
vi erhåller då medelst partiell integration att<br />
In =<br />
1<br />
xn<br />
(n<br />
n 1<br />
1)! e<br />
1 Z 1<br />
x<br />
+<br />
x=0 0<br />
Z 1<br />
= In 1 = = I1 = e<br />
0<br />
= e<br />
x 1<br />
= 1 x=0<br />
2. Följande omskrivningar ger resultatet<br />
En(X) =<br />
Z 1<br />
0<br />
n n x<br />
(n 1)! e<br />
In = x n n 1 e<br />
= nIn 1 = = n!<br />
n 2 n 1 x<br />
(n 2)! e<br />
x dx<br />
x 1<br />
dx =<br />
(n 1)! In<br />
x 1<br />
x=0<br />
Z 1<br />
0<br />
+ n<br />
e<br />
Z 1<br />
x<br />
0<br />
n 1 n 1 e<br />
x dx = n!<br />
x dx<br />
x dx<br />
c Mikael Möller
110 4.4. Lösningar till uppgifter<br />
varav<br />
En(X) = n .<br />
3. Följande omskrivningar ger resultatet<br />
E X 2 =<br />
varav<br />
Z 1<br />
0<br />
n+1 n x<br />
(n 1)! e<br />
In = x n+1 n 1 e<br />
x 1<br />
dx =<br />
(n 1)! In<br />
x 1<br />
Z 1<br />
+ (n + 1)<br />
x=0<br />
0<br />
Z 1<br />
= (n + 1) In 1 = = (n + 1)!<br />
E X 2 =<br />
och slutligen…nner vi variansen<br />
c Mikael Möller<br />
V (X) =<br />
(n + 1) n<br />
2<br />
0<br />
(n + 1) n<br />
2<br />
n 2<br />
x n n 1 e<br />
x e<br />
dx =<br />
= n<br />
2 .<br />
x dx<br />
(n + 1)!<br />
2
5. Stickprov och<br />
skattningar<br />
I början pratade vi om konkreta mätningar av guldhalt, börskurser m m<br />
och vi bestämde aritmetiska medelvärden och avvikelser från dem. Allt<br />
i form av konkreta uppmätta värden. Rätt snabbt så axiomatiserade vi<br />
de aritmetiska medelvärdena och kallade dem då för väntevärden. Dessa<br />
väntevärden är funktioner av det som vi kallar för stokastiska variabler<br />
och vips så verkar vi ha lämnat all praktisk tillämpning och hamnat i den<br />
teoretiska världen. Men alla nya begrepp och exempel som vi tagit fram<br />
har haft en praktisk bakgrund även om vi istället för konkreta si¤ermätningar<br />
har haft stokastiska variabler. Vad vi skall göra nu är att knyta<br />
ihop de konkreta mätningarna med parametrarna hos fördelningarna för<br />
de stokastiska variablerna samt ange hur mätningar skall utföras för att<br />
det vi hitills sagt skall bli användbart för att beskriva vår verklighet.<br />
5.1 Stickprov<br />
Vi börjar med att ange det beteckningssystem som kommer att användas<br />
framgent genom att ge en de…nition, i vardagsspråk, för en stokastisk<br />
variabel och dess observation.<br />
De…nition 42 (Stokastisk variabel och dess observation) Med en<br />
stokastisk variabel avses en framtida mätning av någon mätbar storhet.<br />
Vi betecknar denna framtida mätning med en stor bokstav t ex X. När<br />
så mätningen utförts och vi står där med en konkret observation t ex 3:14<br />
så betecknar vi den allmänt med en liten bokstav t ex x.<br />
När vi tidigare studerat de stokastiska variablerna X1; : : : ; Xn så<br />
har vi alltid i bakhuvudet haft att dessa skall ersättas med de observerade<br />
mätvärdena x1; : : : ; xn och allt vårt resonerande har haft som mål<br />
att hitta egenskaper hos dessa observerade mätvärden. Egenskaper som<br />
vi skall utnyttja för våra speciella syften.<br />
När vi nu vet vad en stokastisk variabel är så kan vi de…niera begreppet<br />
stickprov (i vardagligt tal så är det det som erhålls när vi tar ett<br />
111
112 5.1. Stickprov<br />
antal observationer på något objekt t ex börskurser under 10 dagar). Ett<br />
stickprov skall för oss vara ett antal stokastiska variabler som uppfyller<br />
följande de…nition.<br />
De…nition 43 (Stickprov) Med ett stickprov avses ett antal stokastiska<br />
variabler X1; : : : ; Xn som är oberoende och likafördelade, F . Ett<br />
kortfattat sätt att uttrycka detta på är<br />
Xi 2 OF ( ) ; i = 1; 2; : : : ; n.<br />
Här står O för oberoende, F för likafördelade och är en eller ‡era<br />
obekanta parameter som kan variera med variabeln.<br />
Med ett observerat stickprov avses mätvärden x1; : : : ; xn som är<br />
observationer på ett stickprov.<br />
Det verkar ju enkelt men det är faktiskt mycket komplicerat att<br />
plocka ut stokastiska variabler som dels är oberoende och dels har samma<br />
fördelning och det på ett sätt så att pengarna räcker.<br />
5.1.1 Vad ett stickprov kan ge<br />
I avsnittet Vad statistik handlar om skrev jag<br />
. . . statistik handlar om två saker 1) Hur man beräknar<br />
medelvärden och 2) begreppet oberoende händelser.<br />
Där de…nierades mätvärdenas aritmetiska medelvärde A(X) samt<br />
mätvärdenas varians A X X 2<br />
och vi angav hur dessa var upp-<br />
byggda (skulle beräknas). I det följande kapitlet axiomatiserade vi begreppet<br />
aritmetiskt medelvärde till förväntat värde E(X). Denna axiomatisering<br />
gav oss sedan det allmäna begreppet för en sannolikhet av<br />
en indikatorfunktion.<br />
I de därpå följande kapitlen tittade vi på två speciallfall av sannolikheter,<br />
de diskreta och de kontinuerliga, vilka faktiskt kan visas vara<br />
de enda typerna av intresse. (För att visa detta behövs en del avancerad<br />
matematik och det är tur att sådan …nns ty annars skulle många ägna år<br />
att söka efter ytterligare typer av sannolikheter. Tack vare matematiken<br />
kan nu dessa individer göra något nyttigt istället.)<br />
I studiet av de diskreta/kontinuerliga variablerna dyker det upp två<br />
saker: dels fördelningsfunktioner och dels okända konstanter som fördelningsfunktionerna<br />
beror av. Dessa konstanter behöver antingen bestämmas<br />
teoretiskt eller beräknas. Under resans gång gav vi de teoretiska<br />
c Mikael Möller
5. Stickprov och skattningar 113<br />
beräkningarna för konstanterna och det visade sig att de alla kunde uttryckas<br />
med hjälp av någon form av det förväntade värdet E( ). Så<br />
för att kunna beräkna konstanterna behöver vi kunna beräkna generella<br />
väntevärden (vanligtvis räcker det med E(X) och E X 2 ) och det kommer<br />
väl knappast som en överaskning att följande approximationer är<br />
lämpliga<br />
E(X) A(x) = x och V (X) A (x x) 2<br />
bara n är tillräckligt stort. För den vidare analysen behövs följande sats<br />
vars första del är densamma som första delen i sats 9 på sid 26.<br />
Theorem 44 För ett stickprov X från en fördelning F ( ; ), där =<br />
E(Xi) och 2 = V (Xi), gäller att<br />
1. E X =<br />
2. V X = 2<br />
n<br />
Bevis 18 Satsens första del är som sagt en upprepning av en tidigare<br />
sats och det återstår för oss att visa denna sats andra del.<br />
För n = 1 är påståendet trivialt eftersom det då överensstämmer<br />
med de…nitionen. I nästa steg betraktar vi fallet med n = 2 men använder<br />
de mer generella konstanterna c1 och c2 istället för 1<br />
2 (konstigt nog<br />
underlättar denna abstraktion förståelsen). Betrakta således<br />
V (c1X1 + c2X2) = E(c1X1 + c2X2) 2 E 2 (c1X1 + c2X2)<br />
varvid den första delen kan skrivas<br />
E(c1X1 + c2X2) 2 = E c 2 1X 2 1 + 2c1c2X1X2 + c 2 2X 2 2<br />
= E c 2 1X 2 1 + E(2c1c2X1X2) + E c 2 2X 2 2<br />
= c 2 1E X 2 1 + 2c1c2E(X1X2) + c 2 2E X 2 2 .<br />
Därefter skriver vi om den andra delen på motsvarande sätt<br />
E 2 (c1X1 + c2X2) = E(c1X1) + E(c2X2) 2<br />
= (c1 1 + c2 2) 2<br />
= c 2 1 2 1 + 2c1c2 1 2 + c 2 2 2 2.<br />
c Mikael Möller
114 5.1. Stickprov<br />
Para ihop dessa två delar och vi får<br />
V (c1X1 + c2X2) = c 2 1 E X 2 1 E 2 (X1)<br />
+ c 2 2 E X 2 2 E 2 (X2)<br />
+ 2c1c2 E(X1X2) E(X1) E(X2) .<br />
Betrakta nu den sista termen i detta uttryck samt tillämpa tekniken med<br />
betingat väntevärde (sid 41). Då erhålls<br />
E(X1X2) = E E(X1X2 j X2)<br />
= E X2E(X1 j X2)<br />
men eftersom X1 och X2 är oberoende stokastiska variabler (ty stickprov)<br />
följer att E(X1 j X2) = E(X1) och denna storhet är en konstant varför<br />
E X2E(X1 j X2) = E(X1) E(X2) .<br />
Vårt antagande om oberoende ger således att den tredje termen är noll.<br />
Härav följer att<br />
och om vi väljer c1 = c2 = 1<br />
2<br />
V (c1X1 + c2X2) = c 2 1V (X1) + c 2 2V (X2)<br />
så …nner vi<br />
V X =<br />
2<br />
2 .<br />
Resten av beviset är bara ett sedvanligt induktionsbevis – n = k ) n =<br />
k + 1 o s v – och överlåtes på dig käre läsare.<br />
Vad blir så implikationerna av denna sats. Den första är att det<br />
aritmetiska medelvärdet som approximation av det förväntade värdet<br />
inte blir sämre om man lägger till mätvärden enligt regeln för aritmetiskt<br />
medelvärde. Det är även intuitivt klart att approximationen bör bli<br />
bättre eftersom varje nytt mätvärde ger lite mer information. Den andra<br />
implikationen är att det aritmetiska medelvärdets variation kring det<br />
sanna värdet, , blir mindre desto ‡er observationer som läggs till och i<br />
gräns är variationen noll d v s vi har, i någon mening, att<br />
lim x = .<br />
n!1<br />
<strong>Till</strong> detta kommer så informationen från centrala gränsvärdessatsen (sats<br />
36 på sid 102) som säger att för ett givet stickprov X av storlek n så blir<br />
c Mikael Möller
5. Stickprov och skattningar 115<br />
2<br />
X N ; n . Ett observerat stickprov är således mycket användbart<br />
ty med dess hjälp kan vi inte bara …nna en approximation av utan<br />
också, via variationen 2 , få en känsla för hur bra denna approximation<br />
är. Om vi dessutom beräknar skevheten och toppigheten får vi en ganska<br />
bra bild över den underliggande fördelningen.<br />
Uppgift 17 Visa att för en normalfördelning N( ; ) så gäller att<br />
1. skevheten är noll,<br />
2. toppigheten är noll<br />
och jämför detta resultat med de…nitionen av toppighet på sid 16.<br />
5.2 Skattningar<br />
Ovan konstaterade vi att x kan användas som en approximation av parametern<br />
och vi skall i det följande hitta approximationer på alla de<br />
övriga parametrar som vi hitills infört. Men innan vi börjar med att ange<br />
metoder som hjälper oss att göra detta skall vi betrakta vilka egenskaper<br />
som dylika approximationer kan/bör ha när vi utgår från ett stickprov<br />
X1; X2; : : : ; Xn.<br />
De…nition 45 (Skattning) En skattning av en okänd parameter är<br />
en funktion av ett stickprov som i någon mening beskriver den okända<br />
parametern. Skattningen för parametern betecknar vi med ^ .<br />
Genom att studera den stokastiska variabeln ^ (X1; X2; : : : ; Xn) kan<br />
vi uttala oss om skattningens närhet till den okända parametern och<br />
vi skall närmast diskutera några närhetsbegrepp inom statistik.<br />
Det vore helt suveränt om varje nytt mätvärde gjorde att vi kom<br />
närmare det sanna men okända värdet men en stunds kontemplation<br />
ger att detta inte är möjligt. Det går inte eftersom vi använder oss<br />
av observerade stickprov d v s vi har ingen kontroll på det kommande<br />
mätvärdet. Har vi riktigt rejäl otur så kan t ex de följande 10 värden<br />
som vi plockar vara ytterligheter och därmed kommer den observerade<br />
punktskattningen, som innehåller även dessa värden, bli sämre än den<br />
där de inte …nns med. En rent matematisk de…nition av begreppet närhet<br />
är således inte möjlig att göra. 1<br />
Istället får vi tänka som en statistiker (d v s ge utrymme för slumpen)<br />
och som sådan skall vi framhäva tre (av många) möjliga egenskaper som<br />
är trevliga och som uttrycker närhet.<br />
1 Typ Bolzano-Weierstrass sats.<br />
c Mikael Möller
116 5.2. Skattningar<br />
5.2.1 Önskade egenskaper hos skattningar<br />
Den första egenskapen är att skattningen, betraktad som en stokastisk<br />
variabel, har som väntevärde den ursprungliga underliggande parametern<br />
d v s vi skall ställa följande krav på vår skattning:<br />
E ^ (X1; : : : ; Xn) = .<br />
Skattningar som har denna egenskap säges vara väntevärdesriktiga.<br />
Den andra egenskapen är lite åt det matematiska hållet. Den<br />
försöker fånga upp att ‡er observationer är bättre än färre men vi kan<br />
inte uttrycka oss matematiskt utan måste uttrycka oss statistiskt:<br />
P ^ (X1; : : : ; Xn) > ! 0 när n ! 1.<br />
Skattningar som har denna egenskap säges vara konsistenta. Detta<br />
begrepp liknar det vanliga matematiska gränsvärdesbegreppet, lim, men<br />
appliceras inte på skattningen (X1; : : : ; Xn) som sådan utan indirekt<br />
via sannolikheten för en speciell händelse för denna skattning. Ovanstående<br />
gränsuttryck kan också skrivas<br />
lim<br />
n!1 P ^ (X1; : : : ; Xn) > = 0<br />
och för de i detta uttryck ingående sannolikheterna är vi tillbaks i det<br />
rent matematiska betraktelsesättet. Vad betyder nu detta uttryck, går<br />
det att förstå eller är det bara ytterligare en av alla dessa matematiska<br />
obegripligheter? Låt oss försöka förstå.<br />
Att vi har dragit ifrån är inget annat än samma normalisering<br />
vi gjorde för att erhålla …gur 4.3 på sid 99 (en …gur som<br />
är bra att ha i åtanke) även om vårt här inte behöver fån-<br />
gas in. Så då övergår vi till att betrakta fallet ^ n (X) ><br />
(d v s vi sätter = 0) och för att få en liten känsla för vad<br />
som händer föreslår jag att du ritar två linjer parallella med<br />
y-axeln i …gur 4.3 (t ex genom där är den första mark-<br />
eringen på x-axeln). Nu beskriver området ^ 5 (X) > allt<br />
till vänster om plus allt till höger om : Sannolikheten<br />
P ^ 5 (X) > blir nu den streckade ytan i …gur 5.1 på sid<br />
117 och den är som synes ganska stor. Gör nu om samma<br />
förfarande för P ^ 20 (X) > och jämför den nu streckade<br />
c Mikael Möller
5. Stickprov och skattningar 117<br />
Figur 5.1: Tre sannolikheter P ^ 5 (X) > , P ^ 20 (X) > och<br />
P ^ 50 (X) > .<br />
ytan med den föregående. Det framgår ganska tydligt att<br />
den är mindre d v s att P (j 20 (X)j > ) < P (j 5 (X)j > ).<br />
För den tredje täthetsfunktionen är det nu självklart att vi<br />
får något som är ännu mindre och det gäller därför att<br />
P ^ 50 (X) > < P ^ 20 (X) > < P ^ 5 (X) > .<br />
Tag nu en kopp ka¤e och fundera över om detta alltid gäller<br />
eller om det kan …nnas undantag från denna strikta avtagande<br />
följd av sannolikheter. Om det …nns undantag hur ser<br />
då dessa ut? Går samma resonemang att utföra även för de<br />
diskreta modellerna?<br />
Konsistens är således också ett sätt att fånga in innebörden av närhet.<br />
Att en parameters observerade skattning i sannolikhet närmar sig det<br />
sanna värdet på parametern allteftersom antalet observationer ökar.<br />
Den tredje egenskapen som vi vill att vår skattning skall ha är<br />
ett erkännande om att det till varje parameter …nns en mängd olika<br />
skattningar som uppfyller båda första och andra egenskapen ovan. Vi<br />
måste därför ha en ytterligare egenskap som diskriminerar mellan alla de<br />
olika skattningar som tänkas kan. Den egenskap som vi skall kräva av den<br />
valda skattningen är att den skall ge upphov till minsta möjliga variation<br />
d v s om ^ 1 (X1; : : : ; Xn) och ^ 2 (X1; : : : ; Xn) båda är väntevärdesriktiga<br />
x<br />
c Mikael Möller
118 5.2. Skattningar<br />
skattningar och det gäller<br />
V ^ 1 (X1; : : : ; Xn) V ^ 2 (X1; : : : ; Xn)<br />
så föredrar vi ^ 1 (X1; : : : ; Xn). Vi säger att skattningen ^ 1 (X1; : : : ; Xn)<br />
är e¤ektivare än skattningen ^ 2 (X1; : : : ; Xn).<br />
Självklart är detta ett annat sätt att uttrycka närhet ty vad vi egentligen<br />
säger är att våra data skall vara så lite utspridda kring det sanna<br />
värdet som möjligt. Variationen handlar ju om utspridning se t ex …gur<br />
1.2 på sid 11.<br />
Exempel 28 (Väntevärdesriktig) För att illustrera att det aritmetiska<br />
medelvärdet är en väntevärdesriktig punktskattning, vilket vi visade teoretiskt<br />
i sats 44 på sid 113, skall vi betrakta en stokastisk variabel som<br />
är normalfördelad med väntevärdet = 5 och standardavvikelsen = 2.<br />
I …gur 5.2 på sid 119 illustrerar vi att det aritmetiska medelvärdet i det<br />
långa loppet närmar sig 5 när antalet observationer växer.<br />
Lösning 19 I den refererade …guren har vi gjort tre oberoende simuleringar<br />
av det aritmetiska medelvärdet som funktion av antalet observationer.<br />
Varje simulering består av ett stickprov, x1; x2; : : : ; x100, om<br />
100 mätvärden. För varje simulering har vi beräknat det aritmetiska<br />
medelvärdet<br />
xk = 1<br />
kX<br />
xi, k = 1; 2; : : : ; 100<br />
k<br />
i=1<br />
som en funktion av k och därefter ritat räta linjer mellan punkterna<br />
(k; xk) och (k + 1; xk+1).<br />
För var och en av simuleringarna gäller att de i början slänger rätt så<br />
mycket men ganska fort stabiliserar sig kring det sanna värdet 5. Det tar<br />
dock lång tid innan de kommer mycket nära. För två av simuleringarna<br />
gäller att de är nära först efter 70 observationer och för den tredje behövs<br />
mer än 100 värden. Det gäller alltså att ’grovkonvergens’ sker snabbt<br />
men ’…nkonvergens’sker långsamt.<br />
Exempel 29 (Konsistens) För att illustrera att det aritmetiska medelvärdet<br />
även är en konsistent punktskattning betraktar vi återigen ett<br />
stickprov på en N (5; 2) och för detta stickprov beräknar vi teoretiskt de<br />
angivna sannolikheterna P Xn > för olika val på n. I …gur 5.3<br />
på sid 120 har vi ritat P Xn > som funktion av n. Denna …gur<br />
visar tydligt att ovanstående sannolikhet närmar sig 0 när antalet observationer<br />
växer.<br />
c Mikael Möller
5. Stickprov och skattningar 119<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
0 20 40 60 80 100<br />
Figur 5.2: Väntevärdesriktighet<br />
Lösning 20 Först noterar vi att :s punktskattning är<br />
^n = 1<br />
n<br />
nX<br />
i=1<br />
Xi = Xn<br />
och för denna skattning gäller, enligt sats 44 på sid 113, att<br />
E(^n) = ,<br />
V (^n) =<br />
2<br />
n .<br />
Vidare gäller att en summa av normalfördelade variabler är i sin tur<br />
normalfördelad och vi har därför att<br />
^n 2 N 5; 2<br />
p n .<br />
Sannolikheten att ^n skiljer sig från det sanna värdet 5 kan nu skrivas<br />
P j^n 5j > = 1 P ( < ^n 5 < )<br />
p p<br />
n<br />
n<br />
= 1<br />
+<br />
2<br />
2<br />
p<br />
n<br />
= 2 2<br />
2<br />
c Mikael Möller
120 5.2. Skattningar<br />
Välj nu något …xt värde på , säg 0:1, och rita sannolikheten<br />
pn = P j^n 5j ><br />
som funktion av n – d v s rita punkterna (n; pn), n = 1; 2; 3; : : : i ett<br />
koordinatsystem. Vi erhåller då …gur 5.3. Det framgår med önskvärd<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
500 1000 1500 2000 2500 3000<br />
Figur 5.3: Konsistens<br />
tydlighet att sannolikheten närmar sig 0 när antalet observationer ökar.<br />
Dock går den mycket långsamt mot noll så långsamt att närhetsbegreppet<br />
konsistens faktiskt är mer av teoretisk betydelse än praktisk.<br />
Den tredje egenskapen gäller huruvida skattningen är e¤ektiv eller ej.<br />
Denna fråga kan vi dock ej ge något svar på ty den är ej välde…nierad.<br />
Svaret beror på vilken klass av skattningar vi tittar på. Tag t ex<br />
klassen av linjära skattningar, till vilken det aritmetiska medelvärdet hör,<br />
och klassen av konstanta skattningar till vilken ^ = 3 hör. Självklart<br />
är den sista klassen e¤ektivare än den första ty den har variansen 0.<br />
Däremot är denna skattning inte speciellt meningsfull –om nu inte = 3.<br />
Om vi därför begränsar oss till klassen av linjära väntevärdesriktiga<br />
skattningar av typen<br />
^(X) =<br />
nX<br />
aiXi ai 2 R; i = 1; 2; : : : ; n,<br />
i=1<br />
så visar det sig att det aritmetiska medelvärdet är den e¤ektivaste av<br />
är det optimala valet<br />
alla skattningar i denna klass. D v s att ai = 1<br />
n<br />
c Mikael Möller
5. Stickprov och skattningar 121<br />
Theorem 46 Det aritmetiska medelvärdet<br />
^(X) = 1<br />
nX<br />
n<br />
är den e¤ektivaste skattningen i klassen av linjära väntevärdesriktiga<br />
skattningar.<br />
Bevis 19 För att visa ovanstående påstående har vi att söka minimum<br />
av variansen för en godtycklig skattning i denna klass. Vi beräknar därför<br />
först variansen för en godtycklig medlem i klassen<br />
V ^(X) =<br />
nX<br />
i=1<br />
i=1<br />
Xi<br />
a 2 i V (Xi) = 2<br />
nX<br />
a 2 i .<br />
Att skattningarna är väntevärdesriktig ger oss sedan relationen<br />
E ^(X) =<br />
nX<br />
aiE(Xi) =<br />
i=1<br />
i=1<br />
nX<br />
ai = .<br />
Vi har därför att minimera variansen under bivillkoret att Pn i=1 ai = 1.<br />
Dylika problem låter sig lösas med hjälp av Lagranges multiplikatormetod<br />
som ger att vi skall minimera funktionen<br />
nX<br />
f(a1; : : : ; an; ) = a 2 nX<br />
!<br />
i + ai 1<br />
i=1<br />
med avseende på parametrarna a1; : : : ; an och parametern .<br />
Lagranges multiplikatormetod innebär att man först beräknar de partiella<br />
derivatorna och dessa erhålls till<br />
i=1<br />
i=1<br />
@f<br />
@ai<br />
= 2ai + i = 1; 2; : : : ; n,<br />
@f<br />
@ =<br />
nX<br />
ai 1.<br />
i=1<br />
För att bestämma minimum har vi att lösa de ekvationer som erhålls<br />
när man sätter dessa partiella derivator lika med 0 d v s för att hitta<br />
minimum har vi att lösa ekvationssystemet<br />
2ai + = 0 i = 1; 2; : : : ; n,<br />
nX<br />
ai 1 = 0.<br />
i=1<br />
c Mikael Möller
122 5.2. Skattningar<br />
Den första ekvationen ger att<br />
ai = 2<br />
i = 1; 2; : : : ; n.<br />
Dessa lösningar insätts i den andra ekvationen som ger att<br />
Det gäller därför att<br />
ai = 1<br />
n<br />
= 2<br />
n .<br />
i = 1; 2; : : : ; n.<br />
Därmed är det visat att variansen blir minst 2 när alla ai = 1<br />
n och<br />
den e¤ektivaste skattningen bland de linjära och väntevärdesriktiga skattningarna<br />
är därför det aritmetiska medelvärdet.<br />
För att illustrera att ovanstående resultat är sant skall vi ge ett exempel<br />
med två skattningar ur den betraktade klassen av skattningar.<br />
Exempel 30 Välj följande två skattningar av det förväntade värdet (båda<br />
används inom statistiken fast i olika sammanhang)<br />
och<br />
^1 = 1<br />
4<br />
4X<br />
i=1<br />
Xi<br />
^2 = 1<br />
8 X1 + 3<br />
8 X2 + 3<br />
8 X3 + 1<br />
8 X4<br />
där Xi 2 N(5; 2), i = 1; 2; 3; 4. Båda skattningarna är väntevärdesriktiga<br />
(behöver vi visa det?) men en är e¤ektivare än den andra.<br />
Lösning 21 Att den första skattningen är e¤ektivare än den andra följer<br />
direkt via ett par enkla beräkningar. Vi har<br />
V (^1) = 1<br />
4 2<br />
4X<br />
i=1<br />
V (Xi) = 1<br />
4 2 4 2 2 = 1<br />
2 Ja egentligen har vi inte visat minimum bara extremum. Dock syns det direkt<br />
på funktionen f att det är frågan om ett minimum eller kan den möjligen ge ett<br />
maximum?<br />
c Mikael Möller
5. Stickprov och skattningar 123<br />
samt<br />
V (^2) = 1<br />
8 2<br />
2 2 + 32<br />
8 2<br />
2 2 + 32<br />
8 2<br />
= 22<br />
5<br />
(1 + 9 + 9 + 1) =<br />
82 4 .<br />
2 2 + 1<br />
8 2<br />
Självklart är 1 < 5<br />
4 varför punktskattningen ^1 är e¤ektivare än ^2.<br />
Låt oss nu göra en simulering med 100 simulerade observationer i<br />
varje punktskattning. Sätt<br />
och<br />
1 X100<br />
s1 (k) =<br />
(xi ^1)<br />
100 1<br />
2 ; k = 1; 2; : : : ; 100<br />
i=1<br />
1 X100<br />
s2 (k) =<br />
(xi ^2)<br />
100 1<br />
2 ; k = 1; 2; : : : ; 100<br />
i=1<br />
Sammanför talparen (k; s1 (k)) och (k + 1; s1 (k + 1)) med en tunn rät<br />
linje samt talparen (k; s2 (k)) och (k + 1; s2 (k + 1)) med en tjock rät<br />
linje.<br />
1.4<br />
1.3<br />
1.2<br />
1.1<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0 20 40 60 80 100<br />
Figur 5.4: E¤ektivitet<br />
Resultatet syns i …gur 5.4 på sid 123. Det framgår tydligt att standardavvikelsen<br />
för ^1 (den tunna linjen) för det mesta ligger under standardavvikelsen<br />
för ^2 (den tjocka linjen) och detta är precis en illustration<br />
av att ^1 är e¤ektivare än ^2.<br />
2 2<br />
c Mikael Möller
124 5.3. Metoder för att finna skattningar<br />
5.3 Metoder för att …nna skattningar<br />
Vi har hitills ägnat oss åt att beskriva önskade egenskaper hos ett stickprov<br />
(oberoende, likafördelade) och önskade egenskaper hos skattningar<br />
(väntevärdesriktig, konsistent , e¤ektiv). Men hur hittar vi lämpliga<br />
skattningar? Allt vårt prat runt det aritmetiska medelvärdet är i och<br />
för sig viktigt men den skattningsfunktion som det aritmetiska medelvärdet<br />
beskriver ger ofta inte hela sanningen – ja inte ens en del. Det<br />
…nns, som vi skall se, massor av parametrar där det aritmetiska medelvärdet<br />
inte ger hela sanningen. Så i detta avsnitt skall vi ägna oss åt<br />
att ta fram tre allmäna metoder för att hitta skattningar av parametrar.<br />
Metoder som ger oss funktioner, eller om man så vill regler, för hur vi<br />
skall behandla vårt stickprov för att få veta så mycket som möjligt om<br />
vår okända parameter.<br />
5.3.1 Momentmetoden<br />
Eftersom denna bok utgår från förväntade värden, E (X) och därmed<br />
E X k , vilka även kallas moment (vilket är det fysikaliska namnet för<br />
samma sak) så börjar vi med momentmetod.<br />
Momentmetodens idé är att beräkna de skattade momenten och<br />
sätta dem lika med de teoretiska momenten, de senare uttryckta i de<br />
obekanta parametrarna. På så sätt skapas lika många ekvationer som<br />
parametrar. Jag ger först ett par exempel, en diskret fördelning och en<br />
kontinuerlig fördelning, för att ge en insikt i hur metoden fungerar.<br />
Exempel 31 I de…nition av en poissonfördelning på sid 95 angavs dess<br />
sannolikhetsfunktion till<br />
P (X = k) =<br />
k<br />
e , k = 0; 1; 2; : : : .<br />
k!<br />
Bestäm momentskattningen av om vi har ett stickprov X1; X2; : : : ; Xn.<br />
Lösning 22 Det första stickprovsmomentet till denna fördelning är<br />
och dess förväntade värde blir<br />
c Mikael Möller<br />
X = 1<br />
n<br />
E X = 1<br />
n<br />
nX<br />
i=1<br />
Xi<br />
nX<br />
E (Xi) .<br />
i=1
5. Stickprov och skattningar 125<br />
I den obligatoriska uppgiften som följde på de…nition av poissonfördelningen<br />
visades att E (Xi) = och vi erhåller därför ekvationen<br />
Detta ger oss momentskattningen<br />
x = E X = .<br />
^ = X.<br />
Exempel 32 I de…nition av en normalfördelning på sid 103 angavs täthetsfunktionen<br />
till<br />
f(x) =<br />
1<br />
(x )2<br />
p e 2<br />
2 2 2 .<br />
Bestäm för ett givet stickprov X1; X2; : : : ; Xn momentskattningarna av<br />
och 2 .<br />
Lösning 23 Första och andra stickprovsmomentet är<br />
X1 = 1<br />
n<br />
nX<br />
i=1<br />
I sats 39 på sid 105 visades att<br />
Xi och X2 = 1<br />
n<br />
nX<br />
X 2 i .<br />
i=1<br />
= E (X) och E X 2 = 2 + 2<br />
och vi har därför följande två ekvationer för och 2<br />
vilka har lösningen<br />
x1 = ,<br />
x2 = 2 + 2 .<br />
= x1,<br />
Detta ger oss momentskattningarna<br />
2 = x2 x 2 1.<br />
^ = X1,<br />
c2 = X2 X 2 1.<br />
c Mikael Möller
126 5.3. Metoder för att finna skattningar<br />
För att vi lättare skall känna igen dessa skattningar gör vi följande omskrivningar<br />
^ = 1<br />
n<br />
c2 = 1<br />
n<br />
= 1<br />
n<br />
nX<br />
Xi,<br />
i=1<br />
nX<br />
i=1<br />
nX<br />
i=1<br />
X 2 i<br />
1<br />
n<br />
Xi X 2 .<br />
Den enda egentliga svårighet som föreligger vid beräkning av momentskattningar<br />
är att man måste kunna beräkna E X k för ett tillräckligt<br />
stort antal k. Av detta följer direkt att man måste känna stickprovsfördelningen.<br />
Dock är kravet på oberoende inte nödvändigt men det<br />
behövs för att visa följande trevliga egenskaper: 1) De är asymptotiskt<br />
normalfördelade. 2) De är asymptotiskt väntevärdesriktiga. 3) De är asymptotiskt<br />
e¤ektiva men baserade på ett ändligt stickprov är de ofta inte<br />
e¤ektiva. D v s det …nns bättre skattningar än momentskattningarna. Nu<br />
…nns det bättre metoder för att ta fram parameterskattningar men man<br />
skall inte underskatta betydelsen av att momentskattningarna är mycket<br />
enkla att ta fram –när man väl har bestämt de nödvändiga momenten.<br />
5.3.2 Minsta kvadrat metoden<br />
Minsta kvadratmetoden utgår från ett observerat stickprov x1; : : : ; xn på<br />
en stokastisk variabel X som antages ha det allmäna förväntade värdet<br />
g ( ) där g skall vara en känd funktion av den okända parametern .<br />
Bilda den stokastiska modellen<br />
nX<br />
i=1<br />
Xi = g ( ) + i, E ( i) = 0; V ( i) = 2 ; i = 1; 2; : : : ; n<br />
där allt stokastiskt har överförts på variabeln . En enkel och trivial<br />
omskrivning ger oss<br />
Xi<br />
! 2<br />
i = Xi g ( ) , i = 1; 2; : : : ; n<br />
och eftersom X1; X2; : : : ; Xn är oberoende och likafördelade stokastiska<br />
variabler så blir också 1; 2; : : : ; n oberoende och likafördelade variabler.<br />
De stokastiska variablerna i kallas mätfel ty de mäter det fel man gör<br />
när man använder Xi som en approximation av g ( ).<br />
c Mikael Möller
5. Stickprov och skattningar 127<br />
Om vi kvadrerar och summerar dessa mätfel så erhålls en positiv<br />
kvadratsumma<br />
nX<br />
i=1<br />
2<br />
i<br />
och det minsta värde en sådan summa kan anta är 0. Men eftersom detta<br />
skulle kräva att Xi = g ( ) för alla i inser vi att kvadratsumman aldrig<br />
kan anta värdet 0. Det näst bästa är att försöka minimera kvadratsumman<br />
d v s att minimera funktionen<br />
Q ( ) =<br />
nX<br />
i=1<br />
2<br />
i =<br />
nX<br />
i=1<br />
0<br />
Xi g ( ) 2<br />
som funktion av . Det värde på man då erhåller kallas Minsta<br />
Kvadratskattningen av . Det …nurliga med denna metod är att den<br />
ej kräver kunskap om fördelningen för den stokastiska variabeln X. 3<br />
Ovanstående låter sig lätt generaliseras till en parametervektor med<br />
m parametrar d v s att = ( 1; 2; : : : ; m) är en vektor av m parametrar<br />
och/eller att vi har ‡era mätserier med olika egenskaper men baserade<br />
på samma parameter .<br />
Exempel 33 Föreningen Stora Skuggan är en liten odlarförening där<br />
odlarlotterna är kvadratiska. Arrendeavgiften för en lott är k kronor per<br />
kvadratmeter och man behöver för faktureringen mäta varje lotts yta.<br />
Man vill nu bestämma arean av en kvadrat genom att utan systematiskt<br />
fel mäta kvadratens sida. Varje lott:s sida mäts av 10 olika personer och<br />
detta ger oss totalt 10 mätvärden xi, i = 1; 2; : : : ; 10, vilka kan betraktas<br />
som oberoende och likafördelade stokastiska variabler (olika personer men<br />
samma mätmetod). Hur ser minsta kvadratmetodens skattning av ytan<br />
ut?<br />
Lösning 24 Den beskrivna situationen ger oss följande statistiska modell<br />
4<br />
X = längden av lottens sida<br />
där X 2 F p ; V (X) och fördelningen F är okänd. De 10 mätningarna<br />
ger nu upphov till 10 ekvationer<br />
Xi = E (X) + i = p + i, i = 1; 2; : : : ; 10.<br />
3 Det viktiga här är att summan är positiv och därmed har ett minimum. Vi<br />
kunde lika gärna ha tagit absolutbeloppet, eller fjärdekvadraten, för felen men detta<br />
ger en mycket svårare matematik. Dessutom passar kvadratsumman mycket bättre in<br />
i den övergripande statistiska modell vi skapat samt i den underliggande matematiska<br />
begreppssfären.<br />
4 Kan man tänka sig en annan modell?<br />
c Mikael Möller
128 5.3. Metoder för att finna skattningar<br />
Minsta kvadratsumman kan nu skrivas<br />
Q ( ) =<br />
10X<br />
i=1<br />
xi<br />
p 2<br />
vilket är en snäll funktion i en variabel vars minimum låter sig beräknas<br />
med enkla analytiska metoder. Först beräknar vi första derivatan<br />
dQ<br />
d<br />
= 2 1<br />
2<br />
1<br />
p<br />
och sätter denna lika med 0 för att erhålla extremvärdet. Denna procedur<br />
ger oss följande observerade skattning av ytan<br />
=<br />
1<br />
n<br />
10X<br />
i=1<br />
xi<br />
!2<br />
10X<br />
xi<br />
Minsta kvadratskattningen som stokastisk variabel blir därför<br />
^ (X) =<br />
1<br />
n<br />
i=1<br />
!2<br />
10X<br />
Xi<br />
i=1<br />
.<br />
p<br />
= X 2<br />
och denna minsta kvadratskattning har inte egenskapen att vara väntevärdesriktig<br />
ty<br />
E ^ = E X 2 = V X + E 2 X = V X + .<br />
Således gäller att E ^ > såvida inte variansen är 0 5 .<br />
Detta exempel ger oss således två viktiga kunskaper. Den första är att<br />
minsta kvadratskattningen ej behöver vara ett enkelt linjärt uttryck i X<br />
(vi …ck ett kvadratiskt) och den andra är att minsta kvadratskattningen<br />
ej behöver vara väntevärdesriktig.<br />
Vårt nästa exempel illustrerar hur vi hanterar fallen med ‡era okända<br />
parametrar.<br />
Exempel 34 Man har gjort tre oberoende mätningar av vinkeln AOC<br />
( 1 + 2) och två oberoende mätningar av vinkeln AOB ( 1). Bestäm<br />
minsta kvadratmetodens skattningar av 1 och 2. (lägg in bild)<br />
5 För att variansen skall vara 0 så måste alla mätningar vara lika och detta är<br />
knappast troligt.<br />
c Mikael Möller
5. Stickprov och skattningar 129<br />
Lösning 25 Den beskrivna situationen ger oss följande statistiska modell<br />
X1 = 1 + 2 + 1,<br />
X2 = 1 + 2.<br />
Minsta kvadratsumman med två parametrar kan nu skrivas<br />
Q ( ) = Q ( 1; 2) =<br />
3X<br />
i=1<br />
x1i ( 1 + 2) 2 +<br />
2X<br />
(x2i 1) 2 .<br />
Detta följer av att de fem mätningarna kan betraktas som erhållna från<br />
en stokastisk variabel Y där<br />
Y = X1 mätning 1,2,3,<br />
X2 mätning 1,2.<br />
I nästa steg beräkna vi de första partiella 6 derivatorna och …nner<br />
@Q<br />
@ 1<br />
@Q<br />
@ 2<br />
= 2 ( 1)<br />
= 2 ( 1)<br />
3X<br />
i=1<br />
3X<br />
i=1<br />
i=1<br />
x1i ( 1 + 2) + 2 ( 1)<br />
x1i ( 1 + 2) .<br />
2X<br />
(x2i 1) ,<br />
Sätt dessa lika med 0 och lös det så uppkomna ekvationssystemet varvid<br />
följande lösning erhålls<br />
1 =<br />
2 =<br />
2X<br />
i=1<br />
3X<br />
i=1<br />
x2i,<br />
x1i<br />
Minsta kvadratskattningarna blir således<br />
^ 1 = X2,<br />
2X<br />
i=1<br />
^ 2 = X1 X2.<br />
x2i.<br />
Vi har anledning att återkomma till denna skattningsmetod längre<br />
fram.<br />
6 Detta matematiska ord är till för att skilja funktionerna på R från de på R n där<br />
n > 1 (i vårt fall är n = 2).<br />
i=1<br />
c Mikael Möller
130 5.3. Metoder för att finna skattningar<br />
5.3.3 Maximum likelihood metoden<br />
I minsta kvadratmetoden utgick vi ifrån ett stickprov med okänd fördelning<br />
för att skatta okända parametrar och lyckades, trots denna brist på<br />
kunskap, komma med förslag på hur man skattar parametrarna. Om vi<br />
nu lägger till kunskap om fördelningen F vad kan vi då göra? För att<br />
besvara denna fråga utgår vi ifrån modellen<br />
Xi = m ( ) + i, i 2 OF , i = 1; 2; : : : ; n<br />
där F är en känd diskret eller kontinuerlig fördelning. Som vi<br />
tidigare sett i de två kapitlen om diskreta och kontinuerliga modeller så<br />
dyker fördelningars utseende ofta upp som en konsekvens av den modellerade<br />
situationen och de logiska resonemangen. Det är därför inte ett<br />
orimligt antagande att vi känner fördelningen sånär som på en eller ‡era<br />
parametrar.<br />
Vi behandlar de diskreta och kontinuerliga modellerna var för sig.<br />
De idéer som används är lika men sättet att skriva skiljer sig åt. 7 Den<br />
bärande idéen är att man för ett givet stickprov X1; X2; : : : ; Xn väljer<br />
de värden på de okända parametrarna som har störst sannolikhet att<br />
inträ¤a. Att detta är möjligt följer av att vi känner fördelningen.<br />
Diskreta modeller<br />
För de diskreta modellerna är sannolikhetsfunktion P (Xi = k) välde…nerad<br />
och vi betraktar den simultana sannolikhetsfunktionen<br />
L ( ) = P (X1 = x1; : : : ; Xn = xn; )<br />
= P (X1 = x1; ) P (Xn = xn; ) .<br />
Denna funktion ger sannolikheten för att vi skall erhålla det observerade<br />
stickprovet x1; : : : ; xn givet att vår okända parameter är . För olika<br />
värden på antar denna funktion olika värden och för något antas<br />
funktionens maximum. Observera att det måste vara så ty L ( ) är en<br />
sannolikhet och därmed positiv samt ligger L ( ) mellan talen 0 och 1. 8<br />
Det som maximerar L ( ) kallas Maximum Likelihood skattningen<br />
av eller på svenska –den Sannolikaste Skattningen. När ett entydigt<br />
maximum inte …nns så existerar inte ML-skattningen.<br />
7 Med lite högre matematik kan framställningen göras för båda på en gång men<br />
denna matematik saknar vi.<br />
8 En av matematikens satser säger att en positiv, ändlig, funktion vars de…nitionsområde<br />
är kompakt antar sitt maximum inom de…nitionsområdet.<br />
c Mikael Möller
5. Stickprov och skattningar 131<br />
Exempel 35 När vi diskuterade optioner angav vi sannolikheten p för<br />
att optionen skulle gå upp och 1 p för att den skulle ligga stilla eller gå<br />
ner. I en fotnot angav vi hur vi skulle skatta p. Här skall vi nu se att<br />
det förslag vi då gav är rimligt och stämmer väl med ML-skattningen.<br />
Lösning 26 Den statistiska modell vi angav för en option ett tidssteg<br />
fram var<br />
X1 = ux0 med sannolikheten p,<br />
dx0 med sannolikheten 1 p.<br />
Genom en enkel transformation<br />
X = X1 dx0<br />
ux0 dx0<br />
överförs denna modell i binomialmodellen, Bin (1; p),<br />
X =<br />
1 med sannolikheten p,<br />
0 med sannolikheten 1 p.<br />
Sannolikhetsfunktionen för en Bin (1; p) kan skrivas<br />
P (X = xi) = p xi (1 p) 1 xi , i = 1; 2; : : : ; n<br />
och på grund av oberoendet erhålls att den simultana sannolikhetsfunktionen<br />
L (p) i sin tur kan skrivas<br />
L (p) = P (X1 = x1; : : : ; Xn = xn; p)<br />
= P (X1 = x1; p) P (Xn = xn; p)<br />
= p x1 1 x1<br />
(1 p)<br />
= p x n x<br />
(1 p)<br />
p xn 1 xn<br />
(1 p)<br />
där x = P n<br />
i=1 xi. Hur skall vi, givet stickprovet, välja p så att L (p)<br />
maximeras d v s hur skall vi …nna den skattning på p som ger störst<br />
sannolikhet. Ja L (p) är inget annat en vanlig enkel snäll matematiskt<br />
funktion vars maximum härleds med hjälp av matematik. Beräkna första<br />
derivatan och sätt denna till 0:<br />
L 0 (p) = xp x 1 n x<br />
(1 p)<br />
Detta ger oss ekvationen<br />
x (1 p) (n x) p = 0<br />
(n x) p x (1 p) n x 1 = 0.<br />
c Mikael Möller
132 5.3. Metoder för att finna skattningar<br />
vars lösning är<br />
p = x<br />
n .<br />
För att visa att denna lösning ger oss ett maximum beräknar vi andra<br />
derivatan:<br />
L 00<br />
(p) = d (x np) px 1 n x 1<br />
(1 p)<br />
dp<br />
= np x 1 (1 p) n x 1 + (x<br />
x<br />
np) p<br />
1 x 1<br />
(1<br />
p<br />
n<br />
p)<br />
x 1<br />
(x np) p x 1 (1 p) n x 1 n x 1<br />
1 p<br />
00 x<br />
L<br />
n = npx 1 (1 p) n x 1 < 0<br />
och eftersom den är negativ följer att vi har ett maximum. 9<br />
Maximum likelihoodskattningen sammanfaller, i detta fall, med minsta<br />
kvadratskattningen ty<br />
Q (p) =<br />
nX<br />
(xi p) 2<br />
i=1<br />
erhåller sitt minimum för samma värde på p.<br />
Uppgift 18 Bestäm minsta kvadratskattningen i ovanstående optionsexempel.<br />
Ofta blir det krångligt och lätt att räkna bort sig när man skall bestämma<br />
maximum för funktionen L ( ). Det kan då visa sig att en logaritmering<br />
av L ( ) gör det enklare att bestämma maximum av log L ( ).<br />
Men erhålls maximum för samma -värde? Faktum är att vi erhåller<br />
maximum för samma -värde och detta visas i nedanstående uppgift.<br />
Uppgift 19 Om funktionen L ( ) är lagom snäll så gäller att funktionerna<br />
L ( ) och log L ( ) har maximum för samma värde på .<br />
I exemplet ovan räknade vi direkt på L (p) och även om det var enkelt<br />
så illustrerar vi med samma exempel att räkningarna faktiskt kan bli än<br />
enklare.<br />
Exempel 36 En alternativ matematisk metod för att lösa exempel 35<br />
på sid 131.<br />
9 En annan av matematikens användbara satser säger detta.<br />
c Mikael Möller
5. Stickprov och skattningar 133<br />
Lösning 27 Vår likelihood funktion är<br />
och dess logaritm blir<br />
Den senares derivata blir<br />
L (p) = p x n x<br />
(1 p)<br />
log L ( ) = x log p + (n x) log (1 p) .<br />
d log L ( )<br />
d<br />
= x n x<br />
+<br />
p 1 p<br />
och som satt till 0 ger samma lösning som tidigare.<br />
Eftersom det alltid är illustrativt och övertygande med bilder ger vi<br />
här i …gur 5.5 på sid 133 grafer för både L (p) och log L (p). I …guren<br />
har även markerats det (0:2) som ger maximum.<br />
4.0e6<br />
3.0e6<br />
2.0e6<br />
1.0e6<br />
0.0e+0<br />
0.0 0.1 0.2 0.3 0.4 0.5 0.6<br />
Maximum för<br />
L ( ) = p 5 (1 p) 20<br />
p<br />
0.10<br />
12.0<br />
0.15 0.20 0.25 0.30<br />
12.5<br />
13.0<br />
13.5<br />
14.0<br />
Maximum för<br />
L ( ) = 5 ln p + 20 ln (1 p)<br />
Figur 5.5: Två sätt att beräkna maximum för en fumktion<br />
Kontinuerliga modeller<br />
Om vi har en kontinuerlig fördelning istället för en diskret så använder vi<br />
täthetsfunktionen istället för sannolikhetfunktionen (att detta fungerar<br />
kan visas med matematik). Vi har därför att betrakta funktionen<br />
L ( ) = f (x1; : : : ; xn; ) = f (x1; ) f (xn; )<br />
och i övrigt förfar vi på samma sätt som för den diskreta fördelningen.<br />
Först ger vi ett rakt exempel för exponentialfördelningens parameter.<br />
p<br />
c Mikael Möller
134 5.3. Metoder för att finna skattningar<br />
Exempel 37 Tider mellan skador på en personbilsförsäkring visade sig,<br />
enligt den utredning vi gjorde på sid 90, vara Exp ( ). I denna fördelning<br />
ingår parametern om vilken vi endast vet att den är större än noll.<br />
Bestäm maximum likelihood skattningen av denna parameter när vi har<br />
stickprovet X1; X2; : : : ; Xn.<br />
Lösning 28 Vi har likelihoodfunktionen<br />
och erhåller<br />
L ( ) = e<br />
x1 e<br />
= n e P n<br />
i=1 xi<br />
ln L ( ) = n ln<br />
Denna funktion ger oss ekvationen<br />
n<br />
x2 e<br />
nX<br />
xi = 0<br />
i=1<br />
nX<br />
xi.<br />
i=1<br />
vars lösning är<br />
n<br />
= Pn i=1 xi<br />
.<br />
Maximum likelihoodskattningen för kan således skrivas<br />
^ =<br />
n<br />
Pn i=1 Xi<br />
= 1<br />
X .<br />
Nu är det inte alltid så att man enkelt kan …nna maximum likelihoodskattningen<br />
utan ibland måste man tänka till lite extra. Ett exempel på<br />
detta ger vårt exempel på sid 25.<br />
Exempel 38 Din arbetsplats är belägen vid Fältöversten och buss nummer<br />
1 har en hållplats där. Din väntetid vid hållplatsen kan modelleras<br />
av en R (0; )-fördelning. Använd maximum likelihoodmetoden för att<br />
…nna en skattning av givet stickprovet X1; X2; : : : ; Xn.<br />
Lösning 29 Vi har likelihoodfunktionen<br />
L ( ) = 1 1 1 = 1<br />
n<br />
och denna funktion kan inte maximeras på sedvanligt sätt. Istället konstaterar<br />
vi att för varje stickprovsvärde så gäller att<br />
c Mikael Möller<br />
0 xi i = 1; 2; : : : ; n.<br />
xn
5. Stickprov och skattningar 135<br />
Av dessa n relationer följer att max (x1; x2; : : : ; xn) men detta ger<br />
att<br />
L ( ) = 1<br />
n<br />
1<br />
maxn (x1; x2; : : : ; xn)<br />
varav följer att det största värde L ( ) kan anta är högerledet ovan och<br />
detta värde antas när<br />
= max (x1; x2; : : : ; xn) .<br />
Maximum likelihoodskattningen blir därför<br />
^ = max (X1; X2; : : : ; Xn) .<br />
För Maximum Likelihood skattningen gäller att den ej alltid är väntevärdesriktig<br />
men att den ofta kan korrigeras till att bli det. Vidare är den<br />
under milda villkor konsistent. Man kan även visa att ML–skattningen<br />
är asymptotiskt väntevärdesriktig och e¤ektiv samt att den är asymptotiskt<br />
normalfördelad. Det är således en skattningsmetod som ger en<br />
skattning med många "bra" egenskaper.<br />
5.4 Tankeväckande exempel<br />
Under denna rubrik ger vi några exempel som inte följer den allmäna<br />
fåra som vi hitills följt.<br />
Exempel 39 (Median) Inom fysiken förekommer en fördelning som<br />
av oss statistiker kallas cauchyfördelningen men som inom fysiken också<br />
går under beteckningar som lorentzfördelningen alternativt breit-wignerfördelningen.<br />
För statistiker uppstår denna fördelning när man bildar<br />
kvoten mellan två normalfördelningar (något som inträ¤ar oftare än man<br />
tror) och cauchyfördelningens täthetsfunktionen de…nieras av<br />
f (x) = 1 1<br />
2<br />
1 + (x 0) 2 1 < x < 1<br />
vilken beror av de två parametrarna 0 och 1. Här spelar 0 rollen<br />
av mittpunkt och 1 rollen av variation – observera uttryckssättet. För<br />
denna fördelning existerar inga moment och eftersom dessa inte existerar<br />
kan vi inte använda oss av någon av de beskrivna metoderna. Med<br />
elementära matematiska metoder är det trivialt att visa att första momentet<br />
ej existerar (för att förenkla sätter vi nu 1 = 1 och 0 = ) ty<br />
c Mikael Möller
136 5.4. Tankeväckande exempel<br />
det gäller<br />
E (X) =<br />
=<br />
Z 1<br />
1<br />
Z 1<br />
= 1<br />
2<br />
1<br />
1 1<br />
x<br />
1 + (x<br />
2 dx<br />
)<br />
1 x<br />
1 + (x<br />
2 dx +<br />
)<br />
ln 1 + (x )2<br />
x=1<br />
x= 1<br />
Z 1<br />
1<br />
1<br />
2 dx<br />
1 + (x )<br />
+ 1 arctan (x )<br />
x=1<br />
x= 1<br />
= 1 1 +<br />
2 + 2 .<br />
Ett svar som är ode…nierat och därför ej kan existera. De övriga momenten<br />
blir inte roligare.<br />
Om vi ritar grafer för några cauchyfördelningar så erhåller vi …gur<br />
5.6 på sid 136. En observation ger att är en mittpunkt och att medianen<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
8 6 4 2 0 2 4 6 8 10<br />
Figur 5.6: Heldragen kurva: Ca (0; 1). Prickad kurva: Ca (0; 2).<br />
Streckad kurva: Ca (2; 2).<br />
(och även typvärdet) antar även de värdet . Beteckna medianen för ett<br />
stickprov med ^ M. Då gäller följande de…nition av medianskattningen<br />
8<br />
>< X (k) n = 2k + 1<br />
^M (X1; : : : ; Xn) =<br />
>:<br />
X (k) + X (k+1)<br />
n = 2k<br />
2<br />
och man kan visa att denna skattning asymptotiskt har fördelningen<br />
c Mikael Möller<br />
2<br />
N ;<br />
4n .
5. Stickprov och skattningar 137<br />
Men detta betyder att medianskattningen är väntevärdesriktig och konsistent<br />
(åtminstone asymptotiskt). För att visa att E ^ M = , d v s<br />
att medianen är en väntevärdesriktig skattning, krävs en massa teknisk<br />
matematik och vi nöjer oss med att konstatera att det är sant (det är<br />
dessutom intuitivt självklart men en statistiker litar inte helt på intuitionen).<br />
Exempel 40 (Jackknife) Antag att du av någon anledning behöver en<br />
väntevärdesriktig skattning av p 2 i en Bin (n; p)-fördelning. Om du bara<br />
läst denna bok fram till nu så blir ett första försök<br />
bp 2 =<br />
1<br />
n<br />
nX<br />
i=1<br />
Xi<br />
! 2<br />
= X 2 n<br />
där P n<br />
i=1 Xi (= X) är antalet lyckade försök. Denna skattnings väntevärde<br />
…nner vi till<br />
E X 2 n = V Xn + E 2 Xn =<br />
p (1 p)<br />
n<br />
+ p 2<br />
och den är därför inte väntevärdesriktig. Hur kan vi konstruera en väntevärdesriktig<br />
skattning för p 2 ?<br />
För att ange en relativt generella metod som kallas Jackknife lämnar<br />
vi för en stund exemplet och betecknar med Tn den första statistika<br />
vi kommer att tänka på för att skatta parametern givet stickprovet<br />
X1; X2; : : : ; Xn. Vi utgår ifrån att den inte är väntevärdesriktig och vår<br />
uppgift är att konstruera en väntevärdesriktig skattning om Tn är given.<br />
För detta behöver vi följande antagande<br />
E (Tn) = +<br />
1X<br />
k=1<br />
ak ( )<br />
n k<br />
där funktionerna ak ( ) inte beror av n (I vårt exempel har vi = p och<br />
funktionerna a1 (p) = p (1 p) och ak = 0 för k = 2; 3; : : :).<br />
Nästa steg är att konstruera statistikorna Tn 1;j, j = 1; 2; : : : ; n,<br />
genom att inte ta med det j:te stickprovsvärdet. Dessa kommer då ha<br />
samma väntevärde som Tn och vi bildar därefter medelvärdet av alla<br />
Tn 1;j, j = 1; 2; : : : ; n, d v s<br />
Tn 1 = 1<br />
n<br />
nX<br />
j=1<br />
Tn 1;j<br />
c Mikael Möller
138 5.4. Tankeväckande exempel<br />
som i sin tur får väntevärdet E (Tn). Bilda nu den nya statistikan 10<br />
för vilken det gäller<br />
T 0 n = nTn (n 1) Tn 1<br />
E T 0 n = nE (Tn) (n 1) E Tn 1<br />
= n<br />
= +<br />
= +<br />
+<br />
1X<br />
k=1<br />
1X<br />
k=2<br />
1X<br />
k=1<br />
ak ( )<br />
nk 1<br />
ak ( )<br />
n k<br />
ak ( )<br />
nk 1<br />
!<br />
1X<br />
k=1<br />
(n 1)<br />
ak ( )<br />
k 1<br />
(n 1)<br />
ak ( )<br />
k 1<br />
(n 1)<br />
!<br />
.<br />
+<br />
1X<br />
k=1<br />
ak ( )<br />
(n 1) k<br />
!<br />
Om vi studerar summan närmare så ser vi att den är av storleksordnin-<br />
gen 1<br />
n 2 och vi har kommit närmare en väntevärdesriktig skattning. Om<br />
vi inte är framme efter det första steget gör vi ett steg till.<br />
I binomialexemplet var<br />
p (1<br />
E (Tn) =<br />
n<br />
p)<br />
+ p 2<br />
och vi …nner därför en väntevärdesriktig skattning redan efter ett steg ty<br />
alla ak (p) = 0 när k<br />
utveckla<br />
2. För att beräkna själva skattningen har vi att<br />
T 0 n = nTn (n 1) Tn 1<br />
och måste då först …nna Tn 1 (Tn = X2 n är redan klar). Av själva<br />
konstruktionen har vi att om nXn = X så gäller<br />
8<br />
2 ><<br />
om de n 1 valda har X 1 lyckade<br />
Tn 1;j =<br />
>:<br />
j=1<br />
X 1<br />
n 1<br />
X<br />
n 1<br />
2<br />
om de n 1 valda har X lyckade<br />
Det första fallet kan inträ¤a på X olika sätt och det senare på n<br />
olika sätt och detta ger oss att<br />
X<br />
Tn 1 = 1<br />
nX<br />
Tn<br />
n<br />
1;j = 1<br />
n<br />
X<br />
X<br />
n<br />
1<br />
1<br />
2<br />
+ (n X)<br />
X<br />
n 1<br />
2 !<br />
= X2 (n 2) + X<br />
n (n 1) 2 .<br />
10 Detta är genialt men jag förstår inte själv hur man kan komma att tänka i dessa<br />
banor. Om någon vet berätta gärna.<br />
c Mikael Möller
5. Stickprov och skattningar 139<br />
Den sökta skattningen erhålls nu till<br />
T 0 n = nTn (n 1) Tn 1<br />
= n X<br />
n<br />
=<br />
=<br />
2<br />
(n 1) 1<br />
n<br />
X<br />
X 1<br />
n 1<br />
2<br />
+ (n X)<br />
X<br />
n 1<br />
1<br />
n (n 1) nX2 X 2 X 3 + 2X 2 X nX 2 + X 3<br />
1<br />
n (n 1) X2 X =<br />
X (X 1)<br />
n (n 1)<br />
och att den är väntevärdesriktig följer av följande likheter<br />
E T 0 n = E<br />
X (X 1)<br />
n (n 1)<br />
n<br />
= E X2<br />
(n 1)<br />
E (X)<br />
1<br />
=<br />
n (n 1) V (X) + E2 (X) np<br />
1<br />
=<br />
n (n 1) np (1 p) + n2p 2<br />
np<br />
= n (n 1) p2<br />
n (n 1) = p2 .<br />
2 !<br />
c Mikael Möller
140 5.5. Lösningar till uppgifter<br />
5.5 Lösningar till uppgifter<br />
17 För att visa ovanstående påstående för en normalfördelning har vi att<br />
använda oss av föjdsatsen 40 på sid 107 samt de…nitionerna av skevhet<br />
och toppighet.<br />
1. Den teoretiska skevheten de…nieras av<br />
1 = E<br />
X X 3<br />
vilket är tredje momentet av en N(0; 1) fördelning. Följdsatsen ger<br />
1 = (2 1 1)!! = 0.<br />
2. Den teoretiska toppigheten de…nieras av<br />
2 = E<br />
X X 4<br />
vilket är fjärde momentet av en N(0; 1) fördelning. Följdsatsen ger<br />
2 = (2 2 1)!! 3 = 0.<br />
En normalfördelning har således både skevheten 0 och toppigheten 0.<br />
Detta för med sig en del tekniska förenklingar som var av större betydelse<br />
förr än nu.<br />
18 Liksom ovan börjar vi med att derivera och sätta derivatan till 0:<br />
Q 0 (p) =<br />
nX<br />
2 (xi p) = 0.<br />
Det framgår omedelbart att<br />
i=1<br />
p = 1<br />
n<br />
nX<br />
xi.<br />
19 För att se ovanstående påstående beräknar vi första derivatan för de<br />
båda funktionerna L ( ) och log L ( ) varvid vi erhåller de två ekvationerna<br />
dL ( )<br />
= 0<br />
d<br />
d log L ( )<br />
d<br />
i=1<br />
3<br />
= 1 dL ( )<br />
= 0<br />
L ( ) d<br />
och eftersom L ( ) > 0 ser vi att ekvationerna är ekvivalenta.<br />
c Mikael Möller
6. Passar vår fördelning<br />
För att se vad som naturligt blir nästa anhalt på vår färd i statistikens<br />
landskap gör vi en kort rekapitulation av resan hitills. Vi började<br />
med att säga att statistik handlar om medelvärden och när vi studerade<br />
dessa hamnade vi hos de stokastiska variablerna och och en axiomatisering,<br />
av medelvärden till väntevärden, gav oss deras sannolikheter<br />
(sannolikhetsfunktion, täthetsfunktion, fördelningsfunktion), vi kom så<br />
fram till modeller vilka gav upphov till fördelningar med okända parametrar<br />
(Bin (n; p), P o ( ), NegBin (l; p), Exp ( ), N ( ; ) o s v). Därefter<br />
fördes vi vidare mot skattningar av de okända parameterarna (p, , ,<br />
,: : :) och de skattningsmetoder vi studerade var<br />
1. Momentmetoden som kräver stickprov X1; : : : ; Xn och fördelning<br />
F .<br />
2. Maximum likelihoodmetoden som kräver stickprov X1; : : : ; Xn och<br />
fördelning F .<br />
3. Minsta kvadratmetoden som kräver stickprov X1; : : : ; Xn.<br />
Den skattningsmetod som i någon mening är bäst är maximum likelihoodmetoden<br />
men det är inte alltid så att fördelningen F är känd utan<br />
oftast har man bara ett stickprov från densamma. Det gäller således<br />
att på något sätt …nna fördelningen d v s att skatta F . Den enda tillgängliga<br />
metoden är logik och intelligenta gissningar ty någon generell<br />
metod, som de tre ovan för parametrarna, existerar ännu inte. Däremot<br />
…nns det metoder för att avgöra om gissningen är bra eller ej och det är<br />
en introduktion till dessa metoder vi nu skall diskutera.<br />
Vi utgår som vanligt från vårt stickprov och den modell som gett upphov<br />
till stickprovet. Med hjälp av deskriptiva metoder och intelligenta<br />
gissningar kommer vi fram till att den underliggande fördelningen är, säg,<br />
F . Vår fråga är nu om denna fördelning F stämmer med den struktur<br />
som stickprovet beskriver och som vi betecknar med ^ F (X1; X2; : : : ; Xn).<br />
Frågan är således: hur avgör vi om ^ F F ?<br />
Antag att två personer gömmer på varsin snäll funktion G (x) respektive<br />
H (x) och att det är din uppgift att avgöra om dessa funktioner<br />
är lika eller ej. Från de båda personerna har du ett löfte (ja en av dem<br />
är, tyvärr, inte helt pålitlig utan en riktig retsticka och ruckar lite på<br />
141
142<br />
si¤rorna – men inte mycket) om att de för varje tal a som du ger dem<br />
så ger de dig talen G (a) och H (a). Din uppgift är nu att ställa frågor<br />
d v s ange en svit av tal a1; a2; : : : ; an och i gengäld få två sviter<br />
G (a1) ; G (a2) ; : : : ; G (an) och H (a1) ; H (a2) ; : : : ; H (an) tillbaks. Din<br />
uppgift är att utifrån dessa två sviter avgöra om funktionerna är lika<br />
eller ej.<br />
För att få idéer till detta hur kan göras ritar vi i ett koordinatsystem<br />
punktsviten<br />
G (x) ; H (x) j x = a1; a2; : : : ; an<br />
och om G = H (d v s om vi har samma funktion) så får vi punkter som<br />
ligger på en rät linje. Men om för värdet x det gäller att G (x) inte<br />
är exakt lika med H (x) så erhålles t ex cirklarna/punkterna i …guren<br />
nedan.<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.2<br />
0.4<br />
0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2<br />
Figur 6.1: Punktdiagrammet (G; H)<br />
Dessa missar linjen lite grann men i vår …gur råder ändock ingen tvekan<br />
om att de approximerar en rät linje –eller? Under alla omständigheter<br />
inser vi att cirklarna kan bilda mönster kring linjen –mönster som beror<br />
på strukturen hos H relativt G. Det gäller nu att dels tolka dessa mönster<br />
och dels avgöra om punkterna ligger tillräckligt nära den räta linjen<br />
för att vi skall tro på att funktionerna är lika.<br />
Denna visuella metodidé skall vi nu försöka tillämpa på den av oss<br />
gissade fördelningen F (funktionen G ovan) och den från stickprovet<br />
skattade fördelningen ^ F (funktionen H ovan). Vidare skall vi undersöka<br />
några av de vanligaste förekommande mönstren och vad dessa ger för<br />
information.<br />
c Mikael Möller
6. Passar vår fördelning 143<br />
6.1 Funktionen ^ F<br />
Egentligen …nns det bara ett naturligt val för funktionen ^ F (i varje fall<br />
känner jag inga andra) så när det gäller att skatta fördelningar så …nns<br />
inte, som när vi skattade parametrar, olika metoder vilka ofta gav olika<br />
(om än mycket snarlika) svar. Det naturliga valet av skattning är, givet<br />
stickprovet,<br />
^F (x j X1; X2; : : : ; Xn) = 1<br />
nX<br />
IfXi xg.<br />
n<br />
Om vi använder oss av det ordnade stickprovet erhålls samma skattning<br />
^F x j X (1); X (2); : : : ; X (n) = 1<br />
nX<br />
I<br />
fX(i) n<br />
xg<br />
men det blir lättare att känna igen denna funktion som en stegfunktion,<br />
från 0 till 1, och därmed en approximation av en fördelningsfunktion.<br />
1 Denna skattning är väntevärderiktig och har därför en av de goda<br />
egenskaper vi eftersträvar hos våra skattningar. Detta följer av följande<br />
likheter, som är baserade på axiom 2 för väntevärden, de…nitionen av<br />
sannolikhet och att variablerna i ett stickprov är likafördelade:<br />
E ^ F (x j X1; X2; : : : ; Xn) = E<br />
= 1<br />
n<br />
1<br />
n<br />
nX<br />
i=1<br />
= F (x) .<br />
i=1<br />
i=1<br />
nX<br />
IfXi i=1<br />
!<br />
xg = 1<br />
nX<br />
n<br />
i=1<br />
P (Xi x) = 1<br />
nX<br />
F (x)<br />
n<br />
i=1<br />
E I fXi xg<br />
Egenskapen väntevärdesriktighet är därför uppfylld för såväl diskreta<br />
som kontinuerliga fördelningar. Dessutom är skattningen konsistent d v s<br />
den närmar sig detta väntevärde när n växer. 2 Däremot blir e¤ektiviteten<br />
ett litet problem eftersom vi inte har några andra naturliga<br />
skattningar att jämföra med.<br />
6.2 Fördelningsdiagram<br />
Vi skall nu närmast diskutera två visuella metoder för att avgöra om en<br />
fördelning passar till data eller ej och metoderna benämns P-P diagram<br />
1 Det lönar sig att stanna upp här och försöka förstå hur funktionen kan se ut.<br />
2 Faktiskt bättre än så ty integralen av en funktion de…nieras i matematiken som<br />
en gräns av stegfunktioner.<br />
c Mikael Möller
144 6.2. Fördelningsdiagram<br />
och K-K diagram. 3 För att illustrera skillnaderna mellan dessa metoder<br />
använder vi som genomgående exempel de två fördelningarna N (0; 1)<br />
och Ca (0; 1). Deras täthetsfunktioner och fördelningsfunktioner framgår<br />
av …gur 6.2 nedan.<br />
(a)<br />
Ca(0; 1)<br />
F N(0; 1)<br />
1:0<br />
x<br />
(b)<br />
F<br />
N(0; 1)<br />
Ca(0; 1)<br />
x<br />
Figur 6.2: Fördelnings- och täthetsfunktioner för N(0; 1) och Ca(0; 1)<br />
Vi ser av …gurerna att Cauchyfördelningen har "tyngre svansar" än<br />
normalfördelningen samt att båda fördelningarna är symmetriska kring<br />
origo.<br />
Cauchyfördelningen är lustig på så sätt att den saknar moment av<br />
alla ordningar –den har inte ens ett medelvärde. Detta strider mot allt<br />
förnuft ty medelvärdet är ju självklart 0 –det syns ju i …guren! Faktum<br />
är dock att E (X) ej existerar om X 2 Ca (0; 1) och därför kan man<br />
aldrig, från ett stickprov, få fram ett entydigt aritmetisk medelvärde.<br />
Det kommer att variera från stickprov till stickprov. Däremot existerar<br />
Cauchyfördelningens median och den är 0.<br />
6.2.1 P-P diagram<br />
P i P-P diagram står för procent d v s hundradelar av och dessa diagram<br />
är de punktdiagram som beskrivs av punktmängden<br />
G (x) ; H (x) j x = a1; a2; : : : ; an<br />
för något val av sannolikhetsfördelningar G och H. I diagrammet avsätts<br />
oftast den teoretiska (kända) fördelningen på abscissan (x-axeln) och<br />
den skattade fördelning, som erhålls av stickprovet, på ordinatan (yaxeln).<br />
I ett P-P diagram blir därför, eftersom fördelningsfunktioner är<br />
3 I det engelska språket benäms de "p-p plot" och "q-q plot" vilka är förkortningar<br />
av "percent-percent plot" (alternativt "probability-probability plot") och "quantilequantile<br />
plot".<br />
c Mikael Möller
6. Passar vår fördelning 145<br />
sannolikheter, både värdemängden och de…nitionsmängden det slutna<br />
intervallet [0; 1]. Om nu funktionerna G och H är lika så bildar P-P<br />
diagrammet en rät linje.<br />
Vad är det som vi egentligen mäter med ett P-P diagram? Uppenbarligen<br />
är det något som händer i vårt huvud, på samma sätt som vid<br />
kast med tärning. Vi ser det vi vill se, eller rättare sagt, det som är<br />
intressant att se. För att bättre förstå vad det är vi ser lägger vi till lite<br />
information i …gur 6.2a och erhåller så …gur 6.3a nedan.<br />
N(0; 1)<br />
Ca(0; 1)<br />
(a) Diagram av två fördelningar<br />
x<br />
F = G H<br />
0:1<br />
(b) Diagram av fördelningsskillnad<br />
Figur 6.3: Två fördelningar vid P-P diagram<br />
När vi, med P-P diagram, visuellt avgör om två fördelningar är<br />
lika eller ej så genomför vi indirekt en, eller snarare ‡era, avståndsbedömningar<br />
mellan de två fördelningarnas värden d v s det vertikala<br />
avståndet mellan fördelningarna. Mer exakt så "mäter" vi avståndet<br />
G (x) H (x) för alla x och om detta avstånd överlag är litet så säger<br />
vi att fördelningarna är lika annars inte. 4 För de två fördelningarna<br />
Ca (0; 1) och N (0; 1) ser vi redan i …gur 6.3a att de ej kan vara lika. Än<br />
tydligare syns detta om vi gör ett diagram över skillnaden G (x) H (x)<br />
(se …gur 6.3b) ty då syns tydligt att de två fördelningarna skiljer sig åt<br />
i sina mittersta områden (mellan 25% och 75% percentilerna).<br />
Vi avslutar detta avsnitt med en …gur över P-P diagrammet (se …gur<br />
6.4 på sid 146) för de två fördelningarna Ca (0; 1) och N (0; 1). Figuren<br />
konstrueras genom att vi avsätter den teoretiska fördelningens percentiler<br />
(N (0; 1)) på y-axeln och den skattade fördelningens (Ca (0; 1))<br />
på x-axeln d v s för varje x 2 R bestämmer vi det p för vilket p = H (x)<br />
och det q för vilket q = G (x) och därefter ritar vi den parametriska<br />
kurvan (p; q). 5<br />
4 Men inte ens detta är hela sanningen ty egentligen tolkar vi även ytan mellan de<br />
två fördelningarna samt växlingar mellan + och hos F = G H.<br />
5 Detta val av axlar är betingat av det program (Statistica) som jag använt för att<br />
x<br />
c Mikael Möller
146 6.2. Fördelningsdiagram<br />
N(0; 1)<br />
Ca(0; 1)<br />
Figur 6.4: P-P diagrammet för (Ca(0; 1); N(0; 1))<br />
Vi ser att vi får en kurva som slingrar sig kring den räta linjen på ett<br />
mycket karakteristiskt sätt. Detta utseende är typiskt för fördelningar<br />
som har olika tjocka svansar.<br />
6.2.2 K-K diagram<br />
K i K-K diagram står för kvantil och den p:te kvantilen till en fördelning<br />
F de…nieras av talet F 1 (p). Dessa diagram är de punktdiagram som<br />
beskrivs av punktmängden<br />
G 1 (p) ; H 1 (p) j p = a1; a2; : : : ; an<br />
för något val av sannolikhetsfördelningar G och H. I diagrammet avsätts<br />
oftast den teoretiska (kända) inversa fördelningen på abscissan (x-axeln)<br />
och den skattade inversa fördelning, som erhålls av stickprovet, på ordinatan<br />
(y-axeln). I ett K-K diagram kan därför både värdemängden<br />
och de…nitionsmängden vara en delmängd av de reella talen. Om nu<br />
funktionerna G och H är lika så bildar även K-K diagrammet en rät<br />
linje.<br />
Med ett K-K diagram mäter vi naturligtvis samma sak som med ett<br />
P-P diagram men nu betraktar vi ett annat avstånd –det horisontella.<br />
Vi erhåller då …gur 6.5a som även den baseras på …gur 6.2a på sid 144.<br />
När vi, med K-K diagram, visuellt avgör om två fördelningar är lika<br />
eller ej så genomför vi även här en indirekt avståndsbedömning men nu<br />
mellan de två fördelningarnas kvantiler d v s mellan de två fördelningarnas<br />
inversa värden. Mer exakt så "mäter" vi avståndet H 1 (p) G 1 (p)<br />
för alla p i intervallet (0; 1) och om detta avstånd är litet så säger vi att<br />
fördelningarna är lika annars inte. För de två fördelningarna Ca (0; 1)<br />
göra illustrationerna i avsnittet Exempel.<br />
c Mikael Möller
6. Passar vår fördelning 147<br />
y<br />
F<br />
N(0; 1) 1 (y)<br />
Ca(0; 1) 1 (y)<br />
(a) Diagram av två fördelningar<br />
x<br />
F = H 1 G 1<br />
Figur 6.5: Två fördelningar<br />
0:5<br />
(b) Diagram av inversa fördelningsskillnaden<br />
och N (0; 1) ser vi redan i …gur 6.5a att de ej kan vara lika. Än tydligare<br />
ser vi detta om vi gör ett diagram över skillnaden mellan de två inversa<br />
fördelningarna: H 1 (p) G 1 (p) (se …gur 6.5b) ty då syns tydligt att<br />
de två fördelningarna skiljer sig åt i sina ytterområden (till vänster om<br />
första kvartilen och till höger om tredje kvartilen).<br />
Vi avslutar detta avsnitt med en …gur över K-K diagrammet (se …gur<br />
6.6) för de två fördelningarna Ca (0; 1) och N (0; 1). Figuren konstrueras<br />
genom att vi avsätter den teoretiska fördelningens inversa percentiler<br />
(N (0; 1)) på x-axeln och den skattade fördelningens inversa percentiler<br />
(Ca (0; 1)) på y-axeln d v s för varje p 2 (0; 1) bestämmer vi det x för<br />
vilket G (x) = p och det y för vilket H (y) = p och därefter ritar vi den<br />
parametriska kurvan (x; y).<br />
Liksom för P-P diagrammet erhålls en kurva som slingrar sig kring<br />
den räta linjen på ett karakteristiskt sätt. Eftersom den inversa skillnaden<br />
kan bli hur stor som helst är K-K diagram känsliga för uteliggare<br />
och kan användas för att hitta sådana. Alla följande K-K diagram visar<br />
prov på denna känslighet.<br />
6.2.3 Exempel<br />
Vi ger nu ett antal exempel på olika fördelningar och vilka diagram de<br />
ger gentemot ett normalfördelningsantagande.<br />
I exemplen visar den vänstra övre del…guren (a) funktionen F =<br />
G H d v s skillnaden mellan fördelningsfunktionerna. Den vänstra undre<br />
del…guren (b) visar ett P-P diagrammet baserat på en simulering<br />
från fördelningen H. Den högra övre del…guren (c) visar funktionen<br />
x<br />
c Mikael Möller
148 6.2. Fördelningsdiagram<br />
Ca 1 (0; 1)<br />
N 1 H<br />
-2 -1 0 1 2<br />
(0; 1)<br />
1<br />
12<br />
8<br />
4<br />
0<br />
-4<br />
-8<br />
-12<br />
G 1<br />
Figur 6.6: K-K diagrammet för (N(0; 1); Ca(0; 1))<br />
F = H 1 G 1 d v s skillnaden mellan fördelningsfunktionernas inverser.<br />
Slutligen så visar den undre högra …guren (d) ett K-K diagram<br />
baserat på en simulering från fördelningen H.<br />
Vi noterar sedan att när kurvan i …gur (a) är positiv (kvadrant 1 och<br />
2) så ligger i …gur (b) punkterna över den räta linjen och när kurvan i<br />
(a) är negativ (kvadrant 3 och 4) så ligger i …gur (b) punkterna under<br />
den räta linjen. Analogt gäller för …gurerna (c) och (d).<br />
I de följande exemplen jämför vi med en normalfördelning som har<br />
samma väntevärde och standardavvikelse som de simulerade värdena<br />
ger. I samtliga jämförelser har vi gjort 100 simuleringar på den<br />
studerade fördelningen H.<br />
c Mikael Möller
6. Passar vår fördelning 149<br />
N(0,1) mot N(0,1)<br />
En simulering om 100 observationer från en N (0; 1)-variabel ger oss två<br />
punktföljder som enligt teorin, för både P-P diagrammet (b) och K-K<br />
diagrammet (d), skall följa en rät linje –och det gör de!<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.2<br />
0.4<br />
0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2<br />
(b)<br />
3<br />
2<br />
1<br />
0<br />
1<br />
2<br />
3<br />
3 2 1 0 1 2 3<br />
Hur ser …gurerna (a) och (c) ut för detta val av fördelningar?<br />
(d)<br />
c Mikael Möller
150 6.2. Fördelningsdiagram<br />
N(2,1) mot N(0,1)<br />
Figur (a) och (b) visar att N (2; 1) skiljer sig mycket från N (0; 1). Figur<br />
(c) visar att de två fördelningarna är förskjutna till varandra med 2 steg.<br />
K-K diagrammet är intressant ty det visar en nästan rät linje se sats 20<br />
nedan.<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
3 2 1 0 1 2 3 4 5<br />
0.2<br />
0.4<br />
0.6<br />
(a)<br />
0.2<br />
0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1<br />
(b)<br />
3<br />
2<br />
1<br />
0<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
(c)<br />
1<br />
3 2 1 0 1 2 3<br />
Uppgift 20 Visa att för två fördelningar som endast skiljer sig åt avseende<br />
väntevärde och standardavvikelse så blir K-K diagrammet en rät<br />
linje.<br />
Resultatet av ovanstående uppgift är att K-K diagrammet är mer<br />
lämpat för att avgöra en struktur och ej så känsligt för parametrarnas<br />
faktiska värden.<br />
c Mikael Möller<br />
(d)
6. Passar vår fördelning 151<br />
2 (4) mot Normal<br />
En simulering om 100 observationer från en 2 (4)-variabel ger oss två<br />
punktföljder vars P-P, (b), och K-K, (d), diagram båda har en bananform.<br />
Denna form är typisk för skeva fördelningar.<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.1<br />
4 2 2 4 6 8 10 12 14 16 18<br />
0.1<br />
(a)<br />
0.2<br />
0.0 0.2 0.4 0.6 0.8 1.0 1.2<br />
(b)<br />
2.0<br />
1.5<br />
1.0<br />
0.5<br />
0.0<br />
0.5<br />
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0<br />
16<br />
14<br />
12<br />
10<br />
8<br />
6<br />
4<br />
2<br />
0<br />
2<br />
(c)<br />
4<br />
3 2 1 0 1 2 3<br />
(d)<br />
c Mikael Möller
152 6.2. Fördelningsdiagram<br />
Beta(2,8) mot Normal<br />
En simulering om 100 observationer från en B (2; 8)-variabel ger oss två<br />
punktföljder vars P-P, (b), och K-K, (d), diagram båda har en bananform.<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.05<br />
0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />
0.05<br />
(a)<br />
0.2<br />
0.0 0.2 0.4 0.6 0.8 1.0 1.2<br />
c Mikael Möller<br />
(b)<br />
0.12<br />
0.10<br />
0.08<br />
0.06<br />
0.04<br />
0.02<br />
0.00<br />
0.02<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0.0<br />
0.1<br />
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0<br />
(c)<br />
0.2<br />
3 2 1 0 1 2 3<br />
(d)
6. Passar vår fördelning 153<br />
Ca(0,1) mot Normal<br />
En simulering om 100 observationer från en Ca (0; 1)-variabel ger oss<br />
två punktföljder vars P-P diagram, (b), har en S-form och K-K diagram,<br />
(d), har en speglad S-form.<br />
14 12 10 8 6 4 2 2 4 6 8 10 12 14<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.2<br />
0.10<br />
0.05<br />
0.05<br />
0.10<br />
(a)<br />
0.4<br />
0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2<br />
(b)<br />
40<br />
20<br />
0<br />
20<br />
40<br />
80<br />
60<br />
40<br />
20<br />
0<br />
20<br />
40<br />
60<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
(c)<br />
80<br />
3 2 1 0 1 2 3<br />
(d)<br />
c Mikael Möller
154 6.2. Fördelningsdiagram<br />
R(0,1) mot Normal<br />
En simulering om 100 observationer från en R (0; 1)-variabel ger oss<br />
två punktföljder och eftersom R (0; 1):s båda svansar är lättare än normalfördelningens<br />
så erhåller dess P-P diagram en speglad S-form och<br />
dess K-K diagram en S-form.<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
y<br />
0.06<br />
0.04<br />
0.02<br />
1 1 2<br />
0.02<br />
0.04<br />
0.06<br />
(a)<br />
0.2<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
c Mikael Möller<br />
(b)<br />
x<br />
0.10<br />
0.05<br />
0.00<br />
0.05<br />
0.10<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.2<br />
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0<br />
(c)<br />
0.4<br />
3 2 1 0 1 2 3<br />
(d)
6. Passar vår fördelning 155<br />
Beta(8,2) mot Normal<br />
En simulering om 100 observationer från en B (8; 2)-variabel ger oss två<br />
punktföljder vars P-P, (b), och K-K, (d), diagram båda har en bananform.<br />
Dessa är en spegling av diagrammen för B (2; 8).<br />
0.1<br />
0.0<br />
0.1<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.2<br />
0.4 0.6 0.8 1.0 1.2<br />
(a)<br />
0.4<br />
0.2 0.0 0.2 0.4 0.6 0.8 1.0<br />
(b)<br />
0.00<br />
0.05<br />
0.10<br />
0.15<br />
0.20<br />
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0<br />
1.2<br />
1.1<br />
1.0<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
(c)<br />
0.3<br />
3 2 1 0 1 2 3<br />
(d)<br />
c Mikael Möller
156 6.2. Fördelningsdiagram<br />
Beta(0.5,0.5) mot Normal<br />
En simulering om 100 observationer från en B (0:5; 0:5)-variabel ger oss<br />
två punktföljder vars P-P, (b), och K-K, (d), diagram båda har en bananform.<br />
Dessa är en spegling av diagrammen för B (2; 8).<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.10<br />
0.05<br />
1 1 2<br />
0.05<br />
0.10<br />
(a)<br />
0.2<br />
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0<br />
c Mikael Möller<br />
(b)<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
0.05<br />
0.10<br />
0.15<br />
1.6<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.2<br />
0.4<br />
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0<br />
(c)<br />
0.6<br />
3 2 1 0 1 2 3<br />
(d)
6. Passar vår fördelning 157<br />
Slutkommentar<br />
Teorin för fördelningsdiagram fungerar för både diskreta och kontinuerliga<br />
variabler men för de diskreta variablerna …nns relativt elementära<br />
metoder som är mer exakta och enkla att förstå. Vi behandlar därför<br />
diskreta variabler först i kapitlet om hypotesprövning.<br />
I kapitlet hypotesprövning kommer vi även ge mer objektiva metoder,<br />
än ovan, för de kontinuerliga variablerna. Dessa metoder är dock matematiskt<br />
betydligt mer krävande.<br />
6.3 Rörvik Timber B<br />
Betrakta ånyo datamängden Rörvik Timber:s slutkurser, Xt, och bestäm<br />
utifrån dessa den dagliga vinsten uttryckt i procent av föregående dags<br />
slutkurs d v s betrakta de nya stokastiska variablerna<br />
R 0 t = Xt Xt 1<br />
.<br />
Xt<br />
Nu kan dagens slutkurs i Rörvik Timber AB betraktas som summan av<br />
dagens alla kursförändringar per tim/minut/sekund. Antag nämligen att<br />
vi mäter per minut t och då får värdet Xt. Slutkursen kan vid tidpunkt<br />
t skrivas<br />
Xt = Xt Xt 1 + Xt 1 Xt 2 + + X1 X0<br />
d v s som en summa av stokastiska variabler och därmed slår centrala<br />
gränsvärdessatsen till. Härav följer att Xt N ( ; ) och detta ger att<br />
Xt Xt 1 N 0; p 2 . Vi gör nu en normering av täljaren respektive<br />
nämnaren och erhåller då den nya dagsräntan<br />
Rt =<br />
Xt Xt 1<br />
p 2<br />
Xt<br />
= Xt Xt 1<br />
p<br />
2 (Xt )<br />
som är kvoten mellan två N (0; 1)-variabler. Dylika variabler följer en<br />
Cauchyfördelning med parametrarna 0 och 1.<br />
Uppgift 21 Om det för de två stokastiska variablerna X1 och X2 gäller<br />
att X1 2 N (0; 1) och X2 2 N (0; 1) så gäller att<br />
Y = X1<br />
2 Ca (0; 1)<br />
X2<br />
c Mikael Möller
158 6.3. Rörvik Timber B<br />
d v s Y är Cauchyfördelad och dess täthetsfunktion är<br />
f (y) = d<br />
1 1<br />
P (Y y) = , 1 < y < 1<br />
dy 1 + y2 Eftersom en Cauchyfördelning ej har några moment förstår vi varför<br />
vi inte kan normera variablerna R 0 t direkt. 6<br />
I …gur 6.7 på sid 158 ser vi det stolpdiagram och kumulerade stolpdiagram<br />
som slutkurserna i Rörvik Timber B ger upphov till.<br />
Antal<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
-3 -2 -1 0 1 2 3<br />
Rörvik<br />
Timber<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
p<br />
-3 -2 -1 0 1 2 3<br />
Rörvik<br />
Timber<br />
Figur 6.7: Stolpdiagram över normaliserad dagsränta i Rörvik Timber<br />
B, period 2006-01-02–2006-05-29<br />
Ovanstående innebär att Rt för Rörvik Timber B approximativt blir<br />
en Cauchyfördelad variabel men är det så? Vårt stolpdiagram indikerar<br />
att det kan …nnas en symmetrisk fördelning i botten men hur skall vi<br />
kunna avgöra om normal- eller Cauchyapproximation eller någon annan<br />
symmetrisk fördelning är lämplig eller ej?<br />
Svaret på denna fråga får vi genom att studera P-P diagrammet och<br />
K-K diagrammet för dagsräntan, beräknad på slutkurserna (se sid 159).<br />
Vi ser att P-P diagrammet starkt indikerar en Cauchyfördelning (i<br />
varje fall en fördelning med tunga svansar) och likaså gör K-K diagrammet.<br />
Båda diagrammen indikerar också att den underliggande fördelningen<br />
är symmetrisk. Sammantaget övertygar detta oss om att dagsräntorna<br />
följer en Cachyfördelning. Eftersom ovanstående diagram är baserade<br />
på 100 slutkurser kan det vara av intresse att undersöka vad<br />
resultatet blir om vi har ett färre eller större antal slutkurser.<br />
6 Tänk igenom påståendet! Vad blir t ex E(R 0 t )?<br />
c Mikael Möller
6. Passar vår fördelning 159<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
0.2<br />
0.4<br />
0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2<br />
(b)<br />
800<br />
600<br />
400<br />
200<br />
0<br />
200<br />
400<br />
600<br />
800<br />
1000<br />
1200<br />
1400<br />
1600<br />
3 2 1 0 1 2 3<br />
Uppgift 22 Hämta kurser för Rörvik Timber AB för olika långa perioder<br />
och bestäm dagsräntorna enligt ovan. Ta fram dessa dagsräntors<br />
P-P diagram och K-K diagram. Vilka fördelningar indikeras?<br />
Vi kan således konstatera att centrala gränsvärdessatsen tillsammans<br />
med att en Cauchyfördelningen uppstår som en kvot mellan två normalfördelade<br />
variabler ger den bakomliggande statistiska förklaringen<br />
till slutkursernas irrationella uppträdande.<br />
(d)<br />
c Mikael Möller
160 6.4. Lösningar till uppgifter<br />
6.4 Lösningar till uppgifter<br />
20 Ovanstående påstående inses på följande sätt: Antag att X 2 G (0; 1)<br />
samt att Y 2 H = G ( ; ). Då gäller med<br />
att<br />
G (x) = P (X x)<br />
H (y) = P (Y y) = P<br />
p = H (y) = G y<br />
Y y<br />
När vi så beräknar inversen av en percentil p så erhålls<br />
varför<br />
G 1 (p) = G 1 G y<br />
.<br />
= y<br />
y = + G 1 (p) = + x , H 1 (p) = + G 1 (p)<br />
vilket är ekvationen för en rät linje i K-K diagrammet.<br />
21 För detta problen …nns en liten matematisk fälla som vi inte skall<br />
falla i. Man får inte dela med 0 och X2 kan anta just värdet noll. Vi<br />
delar därför upp problemet i mindre än 0 och större än 0. Vi har då att<br />
F (y) = P (Y y)<br />
= P (X1 yX2) = E P (X1 yX2 j X2)<br />
= 1<br />
p 2<br />
= 1<br />
2<br />
Z 1<br />
f (y) = d<br />
F (y) .<br />
dy<br />
1<br />
p 2<br />
1<br />
Z 0 Z 1<br />
+<br />
1 0<br />
Z yx2<br />
e<br />
1<br />
x2 1<br />
2 dx1 e x2 2<br />
2 dx2<br />
Z yx2<br />
e<br />
1<br />
x2 1 +x2 2<br />
2 dx1dx2,<br />
Eftersom vi är ute efter täthetsfunktionen så skall vi derivera fördelningsfunktionen,<br />
F (y), och eftersom tätheten för en normalfördelning<br />
är så himla snäll så blir utförandet nedan tillåtet.<br />
Vi skall använda oss av en sats i matematiken som talar om hur man<br />
deriverar en integral när integrationsgränserna är funktioner av deriveringsvariabeln.<br />
Men först måste vi göra en omskrivning av integralen. Integralen<br />
från ( 1; 0) får genomgå variabeltransformationen x2 := x2<br />
c Mikael Möller
6. Passar vår fördelning 161<br />
och vi erhåller då<br />
F (y) = 1<br />
2<br />
= 1<br />
2<br />
= 1<br />
2<br />
= 1<br />
2<br />
Z 0 Z yx2<br />
e<br />
1 1<br />
x2 1 +x2 Z 1 Z yx2<br />
2<br />
2 dx1dx2 + e<br />
0 1<br />
x2 1 +x2 2<br />
2 dx1dx2<br />
Z 0 Z yx2<br />
e<br />
1 1<br />
x2 1 +x2 Z 1 Z yx2<br />
2<br />
2 dx1dx2 +<br />
Z 1 Z<br />
0 1<br />
yx2<br />
e<br />
0 1<br />
x2 1 +x2 Z 1 Z yx2<br />
2<br />
2 dx1dx2 + e<br />
0 1<br />
x2 1 +x2 2<br />
2 dx1dx2<br />
Z 1 Z yx2<br />
e<br />
0 yx2<br />
x2 1 +x2 2<br />
2 dx1dx2.<br />
e x2 1 +x2 2<br />
2 dx1dx2<br />
Efter denna omskrivning …nns ej längre någon fälla och vi deriverar båda<br />
leden rakt av<br />
f (y) = 1<br />
2<br />
= 1<br />
2<br />
Z 1<br />
0<br />
Z 1<br />
0<br />
= 1 Z 1<br />
= 1 1<br />
0<br />
d<br />
dy<br />
.<br />
1 + y2 Z yx2<br />
yx2<br />
e x2 1 +x2 2<br />
2 dx1 dx2<br />
0 + x2e y2 x 2 2 +x2 2<br />
2 ( x2) e y2 x 2 2 +x2 2<br />
2 dx2<br />
x2e y2x 2 2 +x2 2 1 1<br />
2 dx2 =<br />
1 + y2 e y2x 2 2 +x2 2<br />
2<br />
x2=1<br />
x2=0<br />
22 Jag skulle bli förvånad om du hittar något annat än Cauchyfördelning.<br />
c Mikael Möller
162 6.4. Lösningar till uppgifter<br />
c Mikael Möller
7. Trovärdiga intervall<br />
I föregående kapitel gavs metoder för att …nna lämpliga skattningar av en<br />
fördelnings parametrar men vi vet fortfarande inte hur bra de så erhållna<br />
skattningarna är. De tre egenskaperna väntevärdesriktighet, konsistens<br />
och e¤ektivitet är trubbiga och ger inga bra mått på om vi verkligen är<br />
nära det sanna men okända värdet eller ej. Om vi däremot kunde säga<br />
att skattningen skiljer sig så och så mycket från det sanna värdet vore<br />
mycket vunnet men ej heller detta klarar vi av att göra ty det sanna<br />
värdet är okänt.<br />
Däremot kan, om en viss osäkerhet i uttalandet kan tillåtas, en<br />
speciell sorts intervall som kallas kon…densintervall (osäkerhetsintervall,<br />
trovärdighetsintervall) konstrueras. Vi börjar med en formalisering av<br />
våra lösa tankar ovan.<br />
De…nition 47 Om X1; : : : ; Xn är oberoende och likafördelade stokastiska<br />
variabler vars kända fördelning F beror av den okända parametern<br />
och om det existerar två tal a1 och a2, som beror av X1; : : : ; Xn, för<br />
vilka det, med sannolikheten 1 , gäller att<br />
a1<br />
då sägs (a1; a2) vara ett kon…densintervall för parametern med kon-<br />
…densgraden 1 .<br />
Eftersom gränserna a1 och a2 beror av X1; : : : ; Xn kan vi i statistikens<br />
språk formulera de…nitionen på följande sätt<br />
P a1(X1; : : : ; Xn) a2(X1; : : : ; Xn) = 1 .<br />
Det gäller således att ett trovärdighetsintervall (kon…densintervall) med<br />
trovärdighetsgrad (kon…densgrad) 1 har chansen att missa det<br />
sanna värdet på parametern . Eller uttryckt i klartext: vår konstruktion<br />
leder ibland till intervall som inte innehåller det sanna värdet. Inte nog<br />
med att vi kan få ett intervall som vi tror innehåller det sanna värdet<br />
men som faktiskt inte gör det utan intervallen kan konstrueras på ett<br />
oändligt antal sätt. Detta följer av följande identiteter<br />
1 = P a1(X1; : : : ; Xn) a2(X1; : : : ; Xn)<br />
= P a1(X1; : : : ; Xn) + b "<br />
163<br />
a2<br />
a2(X1; : : : ; Xn) + c "
164 7.1. Normalfördelningen<br />
där b och c kan väljas mer eller mindre fritt (rättare sagt kan en av<br />
dem väljas efter behag den andra bestäms av den första). På grund av<br />
denna otydlighet skall vi begränsa oss till att betrakta endast tre typer<br />
av intervall:<br />
Symmetriska Här delar vi upp osäkerheten i två lika delar och lägger<br />
dessa i vardera svansen<br />
P < a1(X1; : : : ; Xn) = 2<br />
P > a2(X1; : : : ; Xn) = 2<br />
Nedåt begränsade Här lägger vi osäkerheten i vänstra svansen<br />
P a2(X1; : : : ; Xn) < =<br />
Uppåt begränsade Här lägger vi osäkerheten i högra svansen<br />
P a1(X1; : : : ; Xn) > =<br />
Längre än så kommer vi inte med ett allmänt resonemang utan<br />
vi övergår istället till att betrakta konkreta situationer med konkreta<br />
fördelningar och för dessa ange hur man konstruerar kon…densintervall.<br />
Vi börjar med kon…densinterval för fördelningarnas fördelning.<br />
7.1 Normalfördelningen<br />
Låt X1; : : : ; Xn vara oberoende och likafördelade stokastiska variabler<br />
vars fördelning N( ; ) beror av de okända parametrarna och . Vi<br />
skall bestämma trovärdighetsintervall för både och . Det …nns fyra<br />
möjliga intervall för olika kombinationer av parametrarna och men<br />
här behandlar vi endast tre av dem nämligen intervallen<br />
Fall 1 för när är känt,<br />
Fall 2 för när är okänt,<br />
Fall 3 för när är okänt,<br />
det fjärde fallet överlåts, i en uppgift, åt dig att konstruera.<br />
Enligt tidigare är X en punktskattning av det förväntade värdet<br />
och den är både väntevärdesriktig, konsistent och e¤ektiv bland alla<br />
linjära skattningar av . Vidare gäller att den är normalfördelad med<br />
väntevärdet samt att den har standardavvikelsen p n .<br />
c Mikael Möller
7. Trovärdiga intervall 165<br />
7.1.1 Fall 1: Kon…densintervall för när är känt<br />
I detta fall gäller att<br />
P a < X<br />
= p n<br />
b = (b) (a)<br />
där a och b kan väljas så att (b) (a) = 1 . En enkel omskrivning<br />
ger nu att<br />
P X bp n < < X ap n = 1<br />
och det gäller därför att tillhör intervallet X b p n ; X a p n med<br />
sannolikheten 1 .<br />
För ett symmetriskt intervall väljs a och b så att<br />
(a) = 2<br />
1 (b) = 2<br />
och vi skriver med vedertagna beteckningar<br />
a = 2<br />
b = 2 .<br />
Ett symmetrisk observerat trovärdighetsintervall för när är känd,<br />
vid ett normalfördelat stickprov, blir därför<br />
x 2 p n ; x + 2 p n .<br />
Exempel 41 Ett taxibolag med en bilpark om 35 taxibilar gör dagligen<br />
av med bensin i enlighet med en normalfördelning med en standardavvikelse<br />
om 15:3 liter. En dag mäts bensinförbrukningen på 10 av taxibilarna<br />
och man erhöll därvid medelförbrukningen 65 liter. Bilda ett<br />
97 procentigt symmetriskt kon…densintervall för parkens förväntade förbrukning<br />
denna dag.<br />
Lösning 30 Sätt<br />
där<br />
Xi = förbrukning taxi i, i = 1; 2; : : : ; 10<br />
Xi 2 N( ; 15:3).<br />
c Mikael Möller
166 7.1. Normalfördelningen<br />
Vi observerar att populationen består av endast 35 bilar samt att vi därur<br />
plockar 10 bilar. Vi behöver därför göra ändlighetskorrektion ty 10<br />
35 ><br />
0:1. 1 Vidare gäller att skattningen blir x = 65.<br />
Ett 97 procentigt symmetriskt kon…densintervall för<br />
därför skrivas<br />
när känd kan<br />
x 2 p n<br />
r<br />
N<br />
N<br />
n<br />
= 65<br />
1<br />
r<br />
15:3 35<br />
2:17p 10 35<br />
10<br />
1<br />
= 65 9<br />
= (56; 74) .<br />
Exempel 42 En dag på Stockholmsbörsen blev medelpriset av 32 slumpmässigt<br />
utvalda aktier 213 kronor. Den sanna standardavvikelsen var<br />
69 kronor. Bestäm ett 90 procentigt symmetriskt kon…densintervall för<br />
medelpriset på samtliga aktier som handlades den dagen.<br />
Lösning 31 Sätt<br />
Xi = priset på aktie i, i = 1; 2; : : : ; 32<br />
där, enligt centrala gränsvärdessatsen,<br />
X N ; 69<br />
p 32<br />
ty antalet observationer är större än 30.<br />
Enligt uppgift gäller att skattningen är x = 213. Ett 90 procentigt<br />
symmetriskt kon…densintervall för när känd kan därför skrivas<br />
x 2 p = 213 1:6449<br />
n<br />
= 213 20<br />
= (193; 233) .<br />
69<br />
p 32<br />
I detta fall har vi inte gjort någon ändlighetskorrektion ty det fanns ej<br />
angivet hur många aktier som fanns på Stockholmsbörsen den aktuella<br />
dagen. Å andra sidan är det lätt att ta reda på antalet aktier som det<br />
handlats i och kan då avgöra om ändlighetskorrektion bör göras.<br />
1 För ändlighetskorrektion se . . .<br />
c Mikael Möller
7. Trovärdiga intervall 167<br />
7.1.2 Fall 2: Kon…densintervall för med okänt väntevärde<br />
Det gäller att en väntevärdesriktig skattningen av 2 kan skrivas<br />
^ 2 = 1<br />
n 1<br />
nX<br />
i=1<br />
Om denna skattning är bra bör kvoten<br />
^ 2<br />
2<br />
Xi X 2 .<br />
mellan skattningen ^ 2 och det sanna värdet 2 vara ett tal som är nära<br />
1. Speciellt bör det gälla att<br />
(n 1)^ 2 obs<br />
2 n 1.<br />
Man kan nu visa att den stokastiska variabeln (stickprovsvariabeln)<br />
2 = (n 1)^ 2<br />
har en speciell fördelning som kallas 2 -fördelningen 2 och man skriver<br />
(n 1)^ 2<br />
2<br />
2 2 2 (n 1).<br />
För en 2 (n 1) gäller att dess väntevärde är n 1 och att dess varians<br />
är 2(n 1).<br />
Med hjälp av den ovan konstruerade variabeln kan man bilda sannolikhetsekvationen<br />
P a <<br />
(n 1)^2<br />
2 < b = 1<br />
för något val av a och b. Det är nu enkelt att övertyga sig om att detta<br />
uttryck även kan skrivas<br />
r r !<br />
(n 1)^2 (n 1)^2 P<br />
< <<br />
= 1 .<br />
b<br />
a<br />
2 Se kapitlet om Fördelningars matematik.<br />
c Mikael Möller
168 7.1. Normalfördelningen<br />
Vi väljer a och b så att ett symmetriskt, uppåt begränsat eller nedåt<br />
begränsat (men vem är intresserad av stora varianser) kon…densintervall<br />
erhålls. Det vill säga, för ett symmetriskt intervall gör vi valet<br />
a = 2 1 (n<br />
2<br />
1)<br />
b = 2<br />
(n 1)<br />
2<br />
Exempel 43 Vid 25 mätningar av tryckhållfastheten hos betong …ck<br />
man x = 5:6 ksi och s 2 = 0:44 ksi 2 . Mätvärdena kan betraktas som<br />
ett observerat stickprov från en normalfördelning – N( ; ). Bilda ett<br />
uppåt begränsat kon…densintervall för 2 med kon…densgrad 99 procent.<br />
D v s bestäm en övre gräns på 2 som är sådan att 2 är mindre än denna<br />
gräns med sannolikheten 0:99.<br />
Lösning 32 Sätt<br />
Xi = tryckmätning nr i, i = 1; 2; : : : ; 25.<br />
För den stokastiska variabeln Xi gäller att<br />
Xi 2 N( ; ).<br />
På och 2 är följande observerade skattningar givna<br />
x = 5:6<br />
s 2 = 0:44.<br />
Ett uppåt begränsat kon…densintervall med kon…densgraden 99 procent<br />
för 2 kan nu skrivas<br />
0;<br />
(n 1) s2<br />
a<br />
= 0;<br />
24 0:44<br />
10:9<br />
= (0; 0:97)<br />
7.1.3 Fall 3: Kon…densintervall för när är okänt<br />
I fallet med att variansen var känd betraktade vi den stokastiska variabeln<br />
Z = p n X<br />
.<br />
och använda oss av att Z 2 N (0; 1). För att erhålla ett intervall för<br />
när variansen är okänd kan man inte använda som nämnare utan<br />
c Mikael Möller
7. Trovärdiga intervall 169<br />
måste byta ut mot ^ –en skattning av . Härav följer att vi istället<br />
betraktar den stokastiska variabeln<br />
T = p n X<br />
^<br />
= p n X p ^ 2<br />
Vår skattning av variansen är här, liksom tidigare,<br />
^ 2 = 1<br />
nX<br />
n 1<br />
Xi X 2 .<br />
i=1<br />
Det är inte självklart – men man kan visa – att det …nns en ortogonal<br />
transformation (se en lärobok i linjär algebra) Y=AX sådan att ^ 2 kan<br />
skrivas<br />
X<br />
^ 2 = 1<br />
n 1<br />
Y<br />
n 1<br />
i=1<br />
2<br />
i<br />
där det gäller att Yi 2 N 0; 2 . Observera att vi nu summerar över<br />
n 1 termer istället för de ursprungliga n. Man kan även visa att<br />
Y1; : : : ; Yn 1 och X alla är oberoende. Härav följer att täljaren och<br />
nämnaren i den betraktade stokastiska variabeln<br />
T = p n X<br />
^<br />
är två oberoende stokastiska variabler. Variabeln T kan visas vara tfördelad<br />
med n 1 frihetsgrader 3 och vi skriver<br />
T 2 t(n 1).<br />
Fördelningen, som även kallas Student:s fördelning, är mycket lik normalfördelningen<br />
men har tyngre svansar. Denna egenskap ger att kon-<br />
…densintervallen blir något längre vid okänt , vilket är precis vad man<br />
kan förvänta sig ty en större osäkerhet måste resultera i ett bredare intervall.<br />
Något annat vore inte trovärdigt.<br />
Fallet med okänd varians ger nu följande kon…densintervall för<br />
x b ^<br />
p n ; x a ^<br />
p n<br />
där man för att få ett symmetriskt kon…densintervall med kon…densgraden<br />
1 skall välja<br />
a = t 2 (n 1)<br />
b = t 2 (n 1)<br />
3 Se kapitlet Fördelningars matematik.<br />
c Mikael Möller
170 7.2. Konfidensintervall vid normalapproximation<br />
Därmed har vi gått igenom kon…densintervall för parametrarna hos<br />
den absolut viktigaste fördelningen inom statistisk teori, normalfördelningen,<br />
och visat att olika frågor och olika förutsättningar ger olika typer<br />
av trovärdighetsintervall för och .<br />
Uppgift 23 Gör motsvarande härledningar för det fjärde fallet: för<br />
när känt.<br />
7.2 Kon…densintervall vid normalapproximation<br />
Enligt centrala gränsvärdessatsen gäller vid oberoende och likafördelade<br />
variabler att deras summa är approximativt normalfördelad. Konsekvensen<br />
av detta är att fördelningen för varje punktskattning, som kan<br />
beskrivas av en summa, kan approximeras med en normalfördelning. Två<br />
kända exempel är det skattade väntevärdet och den skattade variansen<br />
som båda kan approximeras med en normalfördelning.<br />
Därmed kan vi …nna ett approximativt kon…densintervall för varje<br />
parameter vars punktskattning kan skrivas som en enkel funktion av det<br />
aritmetiska medelvärdet. Detta ger oss en metod för att …nna kon…densintervall<br />
för parametrarna i Poissonfördelningen, i binomialfördelningen<br />
och i exponentialfördelningen.<br />
7.2.1 Kon…densintervall vid Poissonfördelning<br />
Exempel 44 Antalet skador på en försäkringsportfölj under en vecka<br />
antages vara Poissonfördelat med parametern . Under 8 veckor har<br />
man erhållit följande observationer<br />
115; 82; 108; 106; 118; 87; 99; 92.<br />
Ge ett 95 procentigt approximativt kon…densintervall för det förväntade<br />
antalet skador per vecka.<br />
Lösning 33 Skattningen av är<br />
^ = x = 100:88.<br />
Detta tal är större än vad som krävs, enligt vår tumregel om 15 4 , för att<br />
få approximera en Poissonfördelning med en normalfördelning. Eftersom<br />
variansen för en Poissonfördelning är densamma som väntevärdet<br />
4 Se kapitlet Fördelningars matematik.<br />
c Mikael Möller
7. Trovärdiga intervall 171<br />
erhålls det approximativa kon…densintervallet<br />
x 2<br />
r x<br />
n ; x + 2<br />
r !<br />
x<br />
n<br />
där vi skattat variansen med hjälp av x (det …nns en alternativ metod<br />
som beskrivs i nästa exempel). För valet = 5 procent erhålls sedan ett<br />
approximativt observerat kon…densintervall för antalet skador till<br />
r r !<br />
100:88<br />
100:88<br />
100:88 1:96 ; 100:88 + 1:96<br />
= (93:92; 107:84) .<br />
8<br />
8<br />
Uppgift 24 Approximera ej variansen med x utan använd istället den<br />
sanna men okända parametern . Man erhåller då en olikhet ur vilken<br />
kan lösas. Bestäm nu ett kon…densintervall för .<br />
7.2.2 Kon…densintervall vid binomialfördelning<br />
Exempel 45 I November 1998 visade SIFO:s väljarundersökning (1800<br />
intervjuer) att Moderaterna hade 24:6 procent av väljarkåren. Bestäm<br />
ett 95 procentigt kon…densintervall för Moderaternas sanna proportion p<br />
av väljarkåren.<br />
Lösning 34 Sätt<br />
Xi =<br />
1 om Moderat-röst<br />
0 annars<br />
i = 1; 2; : : : ; 1800,<br />
det gäller då att X = P 1800<br />
i=1 Xi är approximativt binomialfördelad ty<br />
1800<br />
6000000 = 0:0003 < 0:15 och därför kan den hypergeometriska fördelningen<br />
approximeras av binomialfördelningen. Vi har därför<br />
X 2 Hyp(N; M; n) Bin(n; p).<br />
Men eftersom det vidare gäller att np 1800 0:25 > 5 och n(1 p) > 5<br />
kan vi i nästa steg göra en normalapproximation varför<br />
5 Se kapitlet Fördelningars matematik.<br />
X N np; p np(1 p) .<br />
c Mikael Möller
172 7.2. Konfidensintervall vid normalapproximation<br />
Betrakta nu istället det aritmetiska medelvärdet X = X<br />
n<br />
För detta gäller att<br />
E(X) = p<br />
V (X) =<br />
p(1 p)<br />
n<br />
q<br />
p(1 p)<br />
och vi har därför att X N p; n<br />
P 1 n<br />
= n i=1 Xi.<br />
. Sökt, approximativt, kon…-<br />
densintervall för proportionen p kan nu skrivas<br />
x 2 X = x<br />
r<br />
p(1<br />
2 n<br />
p)<br />
; x +<br />
r<br />
p(1<br />
2 n<br />
!<br />
p)<br />
Detta intervall för p innehåller p och man frågar sig, liksom i föregående<br />
exempel, vad som kommer först – hönan eller ägget. Det …nns i princip<br />
två sätt att lösa denna motsägelse och det första är att helt enkelt<br />
använda x för p, ty x ligger ’nära’p, och därvid erhålla intervallet<br />
r<br />
0:246 0:754<br />
x 2 X = 0:246 1:96<br />
1800<br />
= 0:246 0:020<br />
= (0:226; 0:266).<br />
Men vi kan också notera att vi har följande två olikheter i p<br />
p < x +<br />
p > x<br />
r<br />
p(1<br />
2 n<br />
r<br />
p(1<br />
2 n<br />
p)<br />
p)<br />
.<br />
(7.1)<br />
(7.2)<br />
Dessa olikheter kan lösas med avseende på p och man erhåller efter en<br />
del räknande följande numeriska kon…densintervall för p<br />
0:227 < p < 0:266.<br />
Detta intervall är i princip detsamma som det den approximativa lösningen<br />
ovan gav. Anledningen till att resultaten blir så lika är att normalapproximation<br />
fungerar mycket bra i detta fall.<br />
Vid valet 1998 visade det sig att det sanna värdet var pM = 0:229<br />
dvs 22:9 procent. Även om 24:6 till 22:9 procent ser ut som ett stort tapp<br />
i väljare så ser vi att 22:9 är ett av de möjliga värden som kan hamna<br />
c Mikael Möller
7. Trovärdiga intervall 173<br />
i trovärdighetsintervallet. Vi säger att skillnaden mellan 24:6 och 22:9<br />
procent ligger inom felmarginalen.<br />
Med felmarginal avses vanligen storheten<br />
r<br />
^pobs (1 ^pobs)<br />
2<br />
och i vårt fall är felmarginalen, 0:020, större än skillnaden 0:246<br />
0:229 = 0:017. Observera att en opinionsundersökning som ej anger<br />
felmarginalen omedelbart skall förpassas till papperskorgen.<br />
Uppgift 25 Approximera ej variansen utan använd istället den sanna<br />
men okända parametern p. Man erhåller då en olikhet ur vilken p kan<br />
lösas. Bestäm nu ett kon…densintervall för p.<br />
n<br />
c Mikael Möller
174 7.3. Lösningar till uppgifter<br />
7.3 Lösningar till uppgifter<br />
23 Det gäller att en väntevärdesriktig skattningen av 2 kan skrivas<br />
Genom att betrakta kvoten<br />
^ 2 = 1<br />
n<br />
nX<br />
(Xi<br />
i=1<br />
^ 2<br />
mellan skattningen och 2 bör vi erhålla ett tal som är nära 1 och<br />
speciellt bör då<br />
n^ 2 obs<br />
2<br />
Man kan nu visa att den stokastiska variabeln<br />
2<br />
n.<br />
2 = n^ 2<br />
har en speciell fördelning som kallas 2 -fördelningen och man skriver<br />
n^ 2<br />
2<br />
2 2 2 (n).<br />
För en 2 (n) kan man visa att att dess väntevärde är n och att dess<br />
varians är 2n.<br />
Med hjälp av den ovan konstruerade variabeln kan man bilda sannolikhetsekvationen<br />
P a < n^2<br />
2 < b = 1<br />
för något val av a och b. Det är nu enkelt att övertyga sig om att detta<br />
uttryck även kan skrivas<br />
r r !<br />
n^2 n^2 P < < = 1 .<br />
b a<br />
24 Det gäller att<br />
p<br />
) 2 .<br />
p<br />
x p < < x + p<br />
2<br />
2<br />
n n<br />
och vi börjar med att betrakta den högra olikheten vilken kan skrivas<br />
som<br />
< x + a p<br />
c Mikael Möller
7. Trovärdiga intervall 175<br />
där vi för enkelhets skull satt<br />
enligt följande<br />
pn 2 = a. Denna olikhet kan skrivas om<br />
x < a p<br />
2<br />
2 x + x 2<br />
Vi löser nu först andragradsekvationen<br />
som har lösningen<br />
De två rötterna blir<br />
och<br />
x<br />
1 = 100:88 + 1:962<br />
8 2 +<br />
2 = 100:88 + 1:962<br />
8 2<br />
2<br />
2 x + x 2<br />
( x) 2 < a 2<br />
a 2 < 0.<br />
a 2 = 0<br />
a2 2 =<br />
r<br />
xa2 + a4<br />
4<br />
1;2 = x + a2<br />
r<br />
xa<br />
2<br />
2 + a4<br />
4 .<br />
r<br />
r<br />
100:88<br />
100:88<br />
varför sökt kon…densintervall kan skrivas<br />
(94:16; 108:08) .<br />
1:96 2<br />
8<br />
1:96 2<br />
8<br />
1:964<br />
+ = 108:8<br />
4 82 1:964<br />
+ = 94:16<br />
4 82 Detta intervall är något kortare än det förra intervallet eftersom vi har<br />
lite mindre osäkerhet här.<br />
25 Det gäller för proportionen p att<br />
p < x +<br />
p > x<br />
r<br />
p(1<br />
2 n<br />
r<br />
p(1<br />
2 n<br />
p)<br />
p)<br />
.<br />
Vi börjar med att lösa följande likhet, där vi för enkelhets skull satt<br />
2 = a,<br />
r<br />
p(1<br />
p = x + a<br />
n<br />
p)<br />
c Mikael Möller
176 7.3. Lösningar till uppgifter<br />
med hjälp av omskrivningarna<br />
np 2<br />
erhålls andragradsekvationen<br />
n + a 2 p 2<br />
p x<br />
a =<br />
r<br />
p(1 p)<br />
n<br />
p x<br />
a<br />
Denna ekvations lösning kan skrivas<br />
s<br />
p1;2 =<br />
nx + a<br />
2<br />
n + a 2<br />
2<br />
= p p2<br />
n<br />
2npx + nx 2 = a 2 p a 2 p 2 .<br />
2 nx + a<br />
2 p + nx2 = 0.<br />
nx + a<br />
2<br />
n + a 2<br />
2<br />
nx2 .<br />
n + a2 Om vi nu sätter in n = 1800, a = 1:96 och x = 0:246 så erhålls det sökta<br />
intervallet.<br />
c Mikael Möller
8. Prövning av<br />
antaganden<br />
8.1 <strong>Introduktion</strong><br />
I föregående kapitel tog vi oss an problemet att …nna närmevärden på<br />
de införda parametrarna. Vi konstruerade skattningar för parametrarna<br />
samt trovärdighetsintervall för dessa. De metoder som lät oss göra detta<br />
är minsta kvadratmetoden samt, när fördelningen är känd, maximum<br />
likelihoodmetoden. Båda metoderna utgår från ett observerat stickprov<br />
x1; x2; : : : ; xn.<br />
Här skall vi nu betrakta samma problem fast ur en annan synvinkel.<br />
Många av de situationer som härvid kan behandlas kan vi även behandla<br />
med hjälp av trovärdighetsintervall men inte alla. Majoriteten av de<br />
problemställningar vi här ställer kan därför lösas på mer än ett sätt.<br />
8.2 Test av vid normalfördelning<br />
Vi börjar med att betrakta följande<br />
Exempel 46 Vid tillverkning av en viss medicin är det viktigt att mängden<br />
av en komponent inte varierar för mycket ty om det är för lite av<br />
komponenten är medicinen verkningslös och om det är för mycket blir<br />
medicinen ett gift. Den önskade mängden av komponenten per dos är<br />
60 mikrogram och för att testa om produktionsinställningarna ger denna<br />
mängd tar man varje dag ett stickprov om 100 piller och mäter komponentens<br />
mängd. En dag har man erhållit medelvärdet x = 59:7. Produktionens<br />
standardavvikelse är sedan tidigare känd till att vara = 0:7.<br />
Kan man skicka iväg dagens produktion till apoteken? Vad tror du?<br />
Detta exempel är inte konstruerat utan denna typ av frågeställningar<br />
ställs läkarvetenskapen ofta inför. Ett tidigt exempel är digitalis där<br />
den första systematiska analysen gjordes i slutet av 1700-talet av britten<br />
William Withering. Han utgick från ett örtte som botade hjärtsviktsymptom,<br />
ett medel som kloka gummor använde, och visade att dess<br />
aktiva ingrediens var blad från …ngerborgsblomman. Han fann också<br />
177
178 8.2. Test av vid normalfördelning<br />
att för starkt örtte gav allvarliga biverkningar samt att för svagt örtte<br />
var verkningslöst. För att krångla till det ytterligare visade det sig att<br />
doseringens storlek var individuell. Den beror förutom av kroppsmassa<br />
och ålder på lever- och njurfunktion.<br />
För att kunna hantera situationer som beskrivs i ovanstående exempel<br />
har testteorin utvecklats och denna innehåller i princip följande fyra<br />
(4) steg:<br />
1. Formulera lämplig hypotes 1 .<br />
2. Bestäm en testvariabel.<br />
3. Bestäm en beslutsregel.<br />
4. Tag ett stickprov och bestäm ett numeriskt värde på testvariabeln<br />
och jämför detta med beslutsregeln.<br />
Dessa fyra steg föregås som alltid inom statistiken av byggandet av<br />
en statistisk modell och de avslutas med ett i klartext fattat beslut. Här<br />
kommer vi gå igenom alla fyra stegen och hela tiden använda oss av<br />
exemplet ovan. Som statistisk modell tar vi<br />
Xi = mängden av komponenten i piller i i = 1; 2; : : : ; 100<br />
där Xi 2 OF ( ; ). Parametern är den förväntade mängden av komponenten<br />
ifråga.<br />
Fördelningen F bör, i detta exempel, vara symmetrisk ty ibland<br />
blir det lite för lite och ibland lite för mycket av komponenten ifråga.<br />
På grund av detta, samt stickprovets storlek (100), gäller att stickprovsmedelvärdet,<br />
X, kan anses vara normalfördelat (Centrala GränsvärdesSatsen).<br />
8.2.1 Steg 1: Formulera lämplig hypotes<br />
Eftersom testteorin liksom intervallteorin är baserad på sannolikhetsläran<br />
väljer man att vara försiktig i sina uttalande (det …nns alltid en<br />
sannolikhet för ett felaktigt beslut) och blir därmed konservativ. Man<br />
formulerar därför sin hypotes (nollhypotes) som om inget har förändrats<br />
d v s H0 : status quo (vad som tidigare gällt) och som motsatt hypotes<br />
tar man att förändring skett (mothypotes, alternativ hypotes) H1 : vad<br />
som gäller när vi ej längre tror på H0. 2<br />
1 Jämför engelskans ’hypothesis’som översatt till svenskan blir ’antagande’.<br />
2 Observera att det föreligger ett val av ståndpunkt som gör att nollhypotesen<br />
färgas av den som utför testet eller för den vilken testet utföres.<br />
c Mikael Möller
8. Prövning av antaganden 179<br />
Jämför med att enligt sedvanerätt är ingen skyldig till ett brott innan<br />
det är bevisat utom varje rimligt tvivel att man utfört brottet 3 .<br />
Rätten utgår ifrån nollhypotesen H0: icke skyldig och det är upp till åklagaren<br />
att ’bevisa’att den anklagade är skyldig. En fällande dom innebär<br />
däremot inte att den åtalade begått brottet och motsatsen –en friande<br />
dom innebär inte att den åtalade ej begått brottet. Rättshistorien ger i<br />
båda fallen åtskilliga exempel på felaktiga domar.<br />
Eftersom medicinen ovan måste innehålla en bestämd kvantitet av<br />
komponenten, 60 mikrogram, konstruerar vi ett test för = 0 och<br />
skriver<br />
H0 : = 0 H1 : 6= 0<br />
där vi har att 0 = 60. Detta betyder att producenten tror att produktionen<br />
håller sig inom den angivna ramen ty annars måste hela dagsproduktionen<br />
kastas d v s vi är obenägna till förändring. En tänkt patient<br />
har troligen nollhypotesen H0 : 0 ty det är inte trevligt att få i<br />
sig ett gift. Hellre då något som är verkningslöst. Därmed är det sagt<br />
att ämnet statistik ej alltid är opolitiskt – däremot är den statistiska<br />
metodiken opolitisk.<br />
8.2.2 Steg 2: Bestäm en testvariabel<br />
Vi vet sedan tidigare att x är en lämplig skattning av 0 samt att det<br />
enligt centrala gränsvärdessatsen gäller att<br />
X N 0; p n<br />
ty n = 100 är större än 30. Approximationen torde här ge upphov<br />
till att X verkligen är normalfördelad ty, som vi tidigare påpekat, en<br />
tillverkning av piller bör ge en fördelning F som är symmetriskt fördelad<br />
–d v s vi har lika ofta för mycket som för litet av komponenten ifråga –<br />
och vid symmetriska fördelningar är konvergensen mot normalfördelning<br />
supersnabb. Av detta följer att X är en lämplig testvariabel för 0 och<br />
vi väljer därför att förkasta vår nollhypotes om vi …nner att x skiljer sig<br />
mycket från 0. Eftersom vi ovan konstaterat att X är approximativt<br />
normalfördelad betraktar vi, för att bestämma om skillnaden är stor eller<br />
ej, den stokastiska variabeln<br />
Z =<br />
X 60<br />
0:7<br />
p 100<br />
vilken vi sedan tidigare vet har väntevärdet 0 och standardavvikelsen 1.<br />
3 Detta gäller dock inte alltid i verkligheten.<br />
c Mikael Möller
180 8.2. Test av vid normalfördelning<br />
8.2.3 Steg 3: Bestäm en beslutsregel<br />
Vi har nu byggt upp de två första stegen i vår konstruktion av ett test<br />
och passar här på att sammanfatta dem:<br />
Steg 1 H0 : = 60 H1 : 6= 60<br />
Steg 2 Z =<br />
X 60<br />
p n<br />
För att kunna avgöra om data bekräftar att vår hypotes är ’felaktig’<br />
eller ej studerar vi följande två sannolikheter:<br />
samt<br />
P (förkasta H0 givet H0 sann)<br />
P (förkasta ej H0 givet H0 ej sann).<br />
Båda händelserna leder till felaktiga beslut och vi vill därför att de båda<br />
skall vara små. 4 Nu är det inte möjligt att alltid välja båda små även<br />
om, som vi längre fram skall se, en utökning av antalet observationer gör<br />
den ej valda sannolikheten mindre. Eftersom den första sannolikheten är<br />
’rakt på sak’(ej innehåller dubbla negationer) och vi ogärna vill förkasta<br />
sanna hypoteser (dessa förändringsobenägna statistiker) så väljer vi att<br />
låsa den första sannolikheten. Nu kan vi i vårt medicinexempel skriva<br />
på följande sätt<br />
P (förkasta H0 givet H0 sann)<br />
P (Z < a eller Z > b givet H0 sann)<br />
för något val på a och b. Alternativt kan detta skrivas<br />
ty allmänt gäller likheten<br />
1 P (a < Z < b givet H0 sann)<br />
P (förkasta H0 givet H0 sann) = 1 P (förkasta ej H0 givet H0 sann)<br />
och<br />
4 Däremot vill vi att sannolikheterna<br />
båda skall vara stora.<br />
c Mikael Möller<br />
P (förkasta ej H0 givet H0 sann)<br />
P (förkasta H0 givet H0 ej sann)
8. Prövning av antaganden 181<br />
Liksom i intervallteorin betraktar vi tre val av a och b och i detta exempel<br />
passar det symmetriska valet bäst –d v s b = a = . Härav följer att<br />
vi förkastar nollhypotesen om<br />
för något val av .<br />
jZj ><br />
Uppgift 26 Hur kommer man från a och b till . Utför det saknade<br />
resonemanget.<br />
Om vi betecknar P (förkasta H0 givet H0 sann) med (det är samma<br />
som förekommer i kon…densgraden för trovärdighetsintervallen) så erhåller<br />
vi nu beslutsregeln<br />
förkasta H0 om jZj > 2<br />
och detta har getts ett speciellt namn –signi…kansnivån. 5 Därmed<br />
har vi klarat av steg 3 vid hypotesprövning och bestämt en beslutsregel.<br />
Eftersom företaget ogärna vill kasta en hel dags produktion väljer<br />
man en liten sannolikhet för att förkasta denna om den verkligen be…nner<br />
sig inom angivna gränser –man sätter därför = 0:01 varvid 0:005 =<br />
2:576.<br />
8.2.4 Steg 4: Besluta<br />
De tre första stegen i vår testalgoritm kan nu skrivas<br />
Steg 1 H0 : = 60 H1 : 6= 60.<br />
Steg 2 Z =<br />
X 60<br />
= p n .<br />
Steg 3 Förkasta H0 om jZj > 2 .<br />
Det fjärde och sista steget är att utifrån det observerade stickprovet<br />
fatta ett beslut. Vårt observerade värde blev x = 59:7 varför<br />
5 Om vi sätter<br />
så erhålls<br />
varför<br />
2<br />
59:7 60<br />
Zobs =<br />
0:07<br />
= 4:286<br />
= P (förkasta H0 givet H0 sann)<br />
= P (Z < ) + P (Z > ) = 2P (Z > )<br />
är en lämplig beteckning.<br />
c Mikael Möller
182 8.2. Test av vid normalfördelning<br />
Eftersom det uppenbarligen gäller att jZobsj > 2:576 följer att hypotesen<br />
förkastas.<br />
Efter att du gjort detta test, i enlighet med konstens alla regler, går<br />
du till chefen och säger: Tyvärr håller dagens produktion inte måttet och<br />
måste därför kastas. 6<br />
Uppgift 27 Lös exempel46 med hjälp av teorin för kon…densintervall.<br />
Exempel 46 beskriver ett symmetriskt test där vi vill hamna mitt i<br />
prick. Nedan ger vi ett exempel på ett osymmetriskt test och passar på<br />
att införa en ny testvariabel.<br />
Exempel 47 Picko:s budservice står i begrepp att inköpa ett större antal<br />
bilar och man har genom ett studium av tekniska speci…kationer funnit<br />
att märket Finus är intressant. Innan köp hyr man därför 4 bilar av detta<br />
märke och använder dem under 5 dagar. Följande bensinförbrukning per<br />
mil uppmättes under provperioden (cl/mil)<br />
67 68 56 59 67<br />
56 65 66 63 59<br />
63 69 58 64 63<br />
65 62 61 71 73<br />
Eftersom bensinförbrukningen:s fördelning beror av uppdragens längd och<br />
förarens körstil och man tidigare funnit att denna fördelning väl kan<br />
approximeras med en normalfördelning antager man att bensinförbrukningen<br />
även framöver följer samma fördelning.<br />
Enligt den tekniska speci…kationen skall detta märke dra högst 65 cl<br />
per mil i stadskörning. Kan detta stämma? Vad tror du? Försök att ur<br />
data ovan dra en rimlig slutsats innan du genomför beräkningarna.<br />
Lösning 35 Sätt<br />
Xi = bensinförbrukning mätning nr i i = 1; 2; : : : ; 20<br />
där Xi 2 ON( ; ). Picko vill gardera sig och väljer därför ett test där<br />
sannolikheten, för att köpa bilar som har en förbrukning som överstiger<br />
65 cl per mil, kan hållas liten.<br />
Steg 1 H0 : 65 H1 : < 65<br />
6 Därefter går du och läser platsannonserna.<br />
c Mikael Möller
8. Prövning av antaganden 183<br />
Steg 2 I detta fall känner vi inte till standardavvikelsen för bensinförbrukningen<br />
och måste därför skatta densamma. Detta gör att vi ej kan<br />
använda den stokastiska variabeln<br />
utan istället måste använda<br />
Z = X<br />
= p n<br />
T = X<br />
S= p n .<br />
För att vi skall kunna göra detta behöver vi en normalfördelning<br />
i botten (vilket vi enligt antagandet har) och det gäller därför att<br />
den stokastiska variabeln T 2 t(n 1) där antalet observationer, n,<br />
i detta fall är 20.<br />
Steg 3 För att erhålla beslutsregeln ställer vi upp ekvationen<br />
= P (förkasta H0 givet H0 sann) = P (T < a)<br />
där a = t (19). Vi förkastar H0 om Tobs a.<br />
Observera att vi ej delar med 2 ty här har vi ett osymmetriskt<br />
test.<br />
Eftersom bensinpriset är på väg upp väljer Picko risknivån 0:01<br />
d v s att det är 1 procents chans att förkasta hypotesen att bensinförbrukningen<br />
överstiger 65 cl per mil om så verkligen är fallet.<br />
Detta kan också uttryckas som att Picko har sannolikheten 0:01<br />
att, mot sin vilja, välja ett "törstigt" bilmärke.<br />
Tabell ger att t0:01(19) = 2:54.<br />
63:75 65<br />
Steg 4 Data ger att t =<br />
4:7226= p = 1:18 > 2:54 varför nollhypote-<br />
20<br />
sen ej förkastas på signi…kansnivån 1 procent.<br />
Bilar av märket Finus rekommenderas ej för inköp.<br />
Om vi nu funderar över vad vi har gjort så inser man att det …nns<br />
två svårigheter vid utförandet av ett test. Den första svårigheten är att<br />
bestämma nollhypotesen (och därmed den alternativa hypotesen) och<br />
den andra är att bestämma vilken testvariabel som skall användas. Den<br />
första svårigheten är politisk –på vems sida skall man stå. 7 Den andra<br />
svårigheten är egentligen ej svår ty testvariabeln följer av modellen. Att<br />
hitta rätt modell kan däremot vara svårt.<br />
7 Om du hade varit säljare av Finus hur hade då din hypotes sett ut?<br />
c Mikael Möller
184 8.3. Test av 1 2 vid normalfördelning<br />
8.2.5 Jämförelse mellan kon…densintervall och test<br />
När vi byggde upp teorin för trovärdighetsintervall bestämde vi oss för<br />
att betrakta tre olika typer av intervall. Dessa tre typer översätts i<br />
testteorin till följande tabell.<br />
Teori<br />
Form Intervall Test<br />
Symmetriskt P (X < a1) = 2<br />
P (X > a2) = 2<br />
H0 : = 0 H1 : 6= 0<br />
Nedåt begränsat P (X < a2) = H0 : 0 H1 : < 0<br />
Uppåt begränsat P (X > a1) = H0 : 0 H1 : > 0<br />
8.3 Test av 1 2 vid normalfördelning<br />
Ibland vill man jämföra medelvärden för två olika behandlingar eller<br />
mellan två olika grupper för att kunna uttala sig om de skiljer sig åt<br />
eller ej. För att göra detta behöver vi ingen ny teori utan kan tillämpa<br />
vad vi tidigare lärt oss.<br />
Exempel 48 Konkurrensverket misstänker kartellbildning mellan oljebolagen<br />
och ett av deras instrument för att utröna om denna företeelse<br />
föreligger är att mäta bensinpriset i olika geogra…ska områden. För<br />
en slumpmässigt uttagen dag hämtade man in uppgifter från ett antal<br />
bensinstationer spridda över landet. En delmängd av dessa uppgifter<br />
föreligger för OKQ8 och Statoil i tabellerna nedan. Undersök om OKQ8:as<br />
priser skiljer sig från Statoil:s den aktuella dagen.<br />
Följande är de data som har inhämtats för OKQ8 respektive Statoil<br />
OKQ8<br />
9.51 9.65 9.39 9.89 9.55<br />
9.34 9.21 9.64 9.71 9.59<br />
9.45 9.49 9.29 9.74 9.35<br />
9.67 9.78 9.69 9.36 9.45<br />
10.01 9.53 9.75 9.89 9.67<br />
Statoil<br />
9.41 9.11 9.54 9.49<br />
9.35 9.79 9.91 9.26<br />
9.64 9.35 9.68 9.79<br />
9.57 9.43 9.65 9.61<br />
9.29 9.79 9.54 9.64<br />
Det aritmetiska medelvärdet för OKQ8 blir x1 = 9:584 och för Statoil<br />
x2 = 9:542. Populationernas standardavvikelser är sedan tidigare kända<br />
till att för OKQ8 vara 1 = 0:20322 och för Statoil 2 = 0:20664. 8 Före-<br />
8 Självklart känner vi inte 1 och 2 utan dessa måste skattas. Dock inför vi inte<br />
denna komplikation här utan betraktar standardavvikelserna som kända.<br />
c Mikael Möller
8. Prövning av antaganden 185<br />
ligger det någon prisskillnad mellan de två bolagen, den aktuella dagen,<br />
om priserna kan anses vara oberoende och följa en normalfördelning?<br />
Lösning 36 Sätt<br />
X 1 i = OKQ8:as pris station i i = 1; 2; : : : ; 25<br />
X 2 j = Statoil:s pris station j j = 1; 2; : : : ; 20<br />
där X 1 i 2 ON( 1; 1) respektive X 2 j 2 ON( 2; 2). För stickprovsmedel-<br />
värdena erhålls nu att9 1<br />
X1 2 N 1; pn 2<br />
och X2 2 N 2; pn varav<br />
det följer att<br />
X1 X2 2 N<br />
Stegen i ett traditionellt test blir nu<br />
1 2;<br />
r 21<br />
n +<br />
!<br />
2<br />
2<br />
.<br />
n<br />
Steg 1 H0 : 1 = 2 H1 : 1 6= 2<br />
Vi väljer ett symmetriskt test eftersom vi skall undersöka om priserna<br />
skiljer sig åt.<br />
Steg 2 På grund av förutsättningarna ovan följer att<br />
Z = X1 X2<br />
q<br />
21<br />
n1 + 2 2<br />
n2<br />
är normalfördelad N(0; 1) och vi tar Z som vår testvariabel. Observera<br />
att under nollhypotesen är 1 2 = 0. 10<br />
Steg 3 Konkurrensverket bestämmer sig för att ta risken 0:05 att förkasta<br />
nollhypotesen om denna är sann och …nner då förkastelsegränsen<br />
ur ekvationen<br />
9<br />
där 0:025 = 1:96.<br />
= 0:05 = P (förkasta H0 givet H0 sann)<br />
= P (jZj > 0:025)<br />
E X1 = 1 X<br />
1<br />
E Xi =<br />
n<br />
1 X<br />
n<br />
V X1 = 1<br />
n2 V X X 1 i<br />
fp g a oberoendetg = 1<br />
n 2<br />
10 Varför betonar jag detta?<br />
X V X 1 i =<br />
2<br />
n<br />
1 = 1<br />
c Mikael Möller
186 8.3. Test av 1 2 vid normalfördelning<br />
Steg 4 Data ger följande observerade värde på testvariabeln<br />
Zobs =<br />
9:584 9:542<br />
q 0:20322 2<br />
25<br />
0:206642 + 20<br />
= 0:683<br />
och eftersom jZobsj < 1:96 kan vi ej förkasta nollhypotesen på signi…kansnivån<br />
5 procent.<br />
Ovanstående test ger således belägg för att priserna i genomsnitt är<br />
lika men om detta beror på kartellbildning eller konkurrens vet vi ej.<br />
Observera att om standardavvikelserna inte hade varit kända så hade<br />
vi inte kunnat lösa talet med nuvarande kunskaper. Det …nns dock ett<br />
fall med okända standardavvikelser som vi kan lösa och detta inträ¤ar<br />
när de två standardavvikelserna kan anses vara lika.<br />
Exempel 49 Vägverket har i uppdrag att utreda om hjälmtvång för motorcyklister<br />
kan minska antalet dödsolyckor för denna kategori tra…kanter.<br />
För att erhålla jämförbara data studerade man elva stater i USA<br />
där fem av staterna (A) haft hjälmtvång under de sista 10 åren och sex<br />
av staterna (B) fortfarande inte har hjälmtvång. Enligt de o¢ ciella källorna<br />
fann man följande skattade medelvärden och standardavvikelser för<br />
antalet dödsolyckor<br />
xA = 0:1021, sA = 0:0918,<br />
xB = 0:2133, sB = 0:0547.<br />
Testa om medelantalet dödsolyckor minskar med hjälmtvång om de underliggande<br />
populationerna kan anses ha samma varians. För perioden<br />
i fråga föreligger uppgifterna X A 1 ; : : : ; X A 5 respektive X B 1 ; : : : ; X B 6<br />
vilka är medelvärden för de tio senaste åren.<br />
Lösning 37 Sätt<br />
X A i = medelantalet dödsolyckor stat i i = 1; 2; : : : ; 5<br />
X B j = medelantalet dödsolyckor stat j j = 1; 2; : : : ; 6<br />
där XA i N( A; ) och XB j N( B; ) enligt centrala gränsvärdessatsen.<br />
’Försöks’bakgrunden ger att oberoende kan förutsättas. 11 Detta<br />
ger att<br />
0<br />
1<br />
X A X B N<br />
11 Hur ser egentligen grundmodellen ut?<br />
c Mikael Möller<br />
@ A B;<br />
s 2A<br />
nA<br />
+<br />
2<br />
B<br />
nB<br />
A
8. Prövning av antaganden 187<br />
där XA = 1 P A<br />
5 Xi och XB = 1 P B<br />
6 Xi . Men eftersom varianserna anses<br />
vara lika kan vi även skriva<br />
X A X B r<br />
1<br />
N A B; +<br />
nA<br />
1<br />
nB<br />
De observerade skattningarna av A och B är sA och sB ovan.<br />
Steg 1 Vi utgår ifrån att stater med hjälmtvång har färre antal dödsolyckor<br />
( A B), eftersom det är vad vi tror. 12<br />
H0 : A B 0 HA : A B > 0<br />
Steg 2 Vi har en normalfördelning, litet stickprov och lika varianser och<br />
detta ger oss testvariabeln<br />
T = XA XB<br />
Sp<br />
q 1<br />
nA<br />
+ 1<br />
nB<br />
Den observerade skattningen av variansen är 13<br />
s 2 p = (nA 1)s 2 A + (nB 1)s 2 B<br />
nA + nB 2<br />
= 4 0:09182 + 5 0:0547 2<br />
9<br />
= 0:0054.<br />
12 Kan man tänka sig andra skäl för denna nollhypotes? Hur kan man motivera den<br />
omvända hypotesen? Vem betalar för undersökningen?<br />
13 Om man logaritmerar likelihood funktionen under antagande om lika varians så<br />
erhålls funktionen<br />
P<br />
xA i A<br />
L( 1; 2; ) = konstant (nA + nB) ln +<br />
2<br />
2 2<br />
P<br />
xB i B<br />
+<br />
2<br />
2 2<br />
vars derivata satt till noll ger ML-skattningen<br />
^ 2 = (nA 1) s2 A + (nB 1) s2 nA + nB<br />
B<br />
.<br />
För att denna skattning skall bli väntevärdesriktig ersätter vi nämnaren nA +nB med<br />
nA + nB 2.<br />
Man kan också resonera på följande sätt: För att …nna skattningen s2 A används nA<br />
av de totalt nA +nB observationerna och vi litar därför på s2 nA A i proportionen . nA+nB Motsvarande för s2 nB B blir då . Härav följer att den naturliga skattningen blir<br />
nA+nB ^ 2 nA<br />
= s<br />
nA + nB<br />
2 A +<br />
nB<br />
s<br />
nA + nB<br />
2 B = nAs2 A + nBs2 B<br />
nA + nB<br />
vilken justeras till ovanstående.<br />
.<br />
c Mikael Möller
188 8.3. Test av 1 2 vid normalfördelning<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
= 0:05 = P (förkasta H0 givet H0 sann)<br />
= P (T > a)<br />
där a = t0:05(5 + 6 2) = 1:83.<br />
Steg 4 Data ger att<br />
0:1021 0:2133<br />
t = q<br />
0:0054 1 1<br />
5 + 6<br />
= 2:5<br />
Eftersom detta värde är mindre än 1:83 förkastas ej nollhypotesen<br />
på signi…kansnivån 5 procent.<br />
Dödsfrekvensen är signi…kant lägre i de stater som har hjälmtvång än<br />
i de som ej har det.<br />
Det är inte alltid som det är bäst att behandla två mätserier som två<br />
oberoende stickprov. Ibland görs tester där en och samma individ mäts<br />
två gånger. Varje mätning störs då av dels den naturliga variationen<br />
mellan individer och dels av mätvariationen (variation inom individ). I<br />
dylika fall kan man ’trolla bort’den störning som beror av variationen<br />
mellan individer och därmed få exaktare resultat. Hur man gör beskrivs<br />
bäst i ett exempel.<br />
Exempel 50 Två däcksfabrikanter påstår båda att deras däck är hållbarare<br />
än konkurrentens. Tra…kmagasinet bestämmer sig för att testa<br />
fabrikanternas påståenden och monterade därför ett däck av vardera märket,<br />
A och B, på bakhjulen på fem bilar. Bilarna var av samma märke och<br />
årgång. Fem förare körde sedan varsin bil i exakt 1000 mil och därefter<br />
uppmättes förslitningen med resultat enligt tabell<br />
Typ av Förslitning i mm hos bil<br />
däck 1 2 3 4 5<br />
A 1:0 0:9 0:7 1:5 0:5<br />
B 0:9 0:7 0:8 1:2 0:5<br />
Eftersom förslitningarna av däcken beror av förarens körstil, var denne<br />
kört m m är det knappast troligt att oberoende mellan däckens förslitning,<br />
på en bil, föreligger. Hjälp Tra…kmagasinet att testa om det föreligger<br />
någon skillnad mellan däckstyperna ifråga. Använd risknivån 5 procent.<br />
c Mikael Möller
8. Prövning av antaganden 189<br />
Lösning 38 Sätt<br />
X A i = förslitning förare i däck A<br />
X B i = förslitning förare i däck B<br />
där i = 1; 2; : : : ; 5. Det är inte orimligt att antaga att dessa stokastiska<br />
variabler är normalfördelade (ge ett resonemang!) och vi har då<br />
att X A i 2 N( A + i; A) och X B i 2 N( B + i; B). Här är A och<br />
B däcktypens förväntade förslitning och i är förare i:s påverkan på<br />
förslitningen. Denna modell kan också skrivas<br />
X A i = A + i + A i och X B i = B + i + B i<br />
där A i 2 N( A; A), B i 2 N( B; B) och i är förare i:s påverkan på<br />
förslitningen.<br />
Nu är vi egentligen inte ute efter att mäta de enskilda däckens förslitning<br />
utan skillnaden i förslitning. Bilda därför den stokastiska variabeln<br />
Zi = X A i<br />
X B i .<br />
Det gäller då att Zi 2 N( ; ) där = A B. Eftersom förarna<br />
ej anses påverka varandra är det naturligt att anta att Z1; : : : ; Z5 är<br />
oberoende. Vi har därmed, genom ett enkelt knep, ’trollat bort’den enskilde<br />
förarens påverkan på däckslitaget.<br />
För de stokastiska variablerna Z1; : : : ; Z5 erhålls mätvärdena<br />
0:1; 0:2; 0:1; 0:3; 0<br />
och vi kan utföra ett av våra tidigare test:<br />
Steg 1 H0 : = 0 H1 : 6= 0<br />
Eftersom vi utgår ifrån att ingen skillnad föreligger – Tra…kmagasinet<br />
har knappast anledning att favorisera någon av däcksfabrikanterna.<br />
Steg 2 Som testvariabel tar vi<br />
där T 2 t(n 1).<br />
T = Z<br />
S= p n<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
= 0:05 = P (förkasta H0 givet H0 sann)<br />
= P (jT j > a)<br />
där a = t0:025(4) = 2:78.<br />
c Mikael Möller
190 8.4. Test av p<br />
Steg 4 Vi …nner att jTobsj =<br />
förkastas på signi…kansnivån 5 procent.<br />
p 0:1 = 1:414 < 2:78 varför H0 ej kan<br />
0:025=5<br />
Tra…kmagasinet kan därför konstatera att det inte föreligger någon<br />
statistiskt veri…erad skillnad mellan de två däckstyperna.<br />
Det …nns en mycket vanlig typ av test som förekommer i tidningarna<br />
stup i kvarten. Nämligen test av proportioner. De mer kända av dessa<br />
är partisympatiundersökningarna 14 och till de ökända hör t ex det som<br />
påstod att 80 procent av Stockholmarna vill ha högre skatter. 15 Vi skall<br />
nu närmast studera test av proportioner.<br />
8.4 Test av p<br />
Ofta ställs man inför problemet att uttala sig om en proportion uppfyller<br />
någon nivå eller ej. Detta är mycket vanligt i samband med riksdagsval<br />
då proportionen väljare för de olika partierna skattas och publiceras i<br />
tid och otid. Nedan skall vi ge ett exempel från just detta område men<br />
väljer att börja med ett något mindre infekterat och enklare exempel<br />
som dessutom har fördelen att varken kräva normalfördelning eller ett<br />
stort stickprov.<br />
Exempel 51 En tillverkare av stålrör vill undersöka om en viss, dyrare,<br />
ytbehandling har någon korrosionsminskande e¤ekt. Man har därför<br />
grävt ner 18 behandlade och 18 obehandlade rör parvis – med ett behandlat<br />
och ett obehandlat rör i varje par –på olika ställen. Man antar<br />
sedan att de båda rören, i ett par, be…nner sig i samma miljö.<br />
Efter en tid gräver man upp rören och se efter i hur många par som<br />
det behandlade röret korroderat mest, säg att detta skett i 6 par. Vi<br />
förutsätter att man alltid kan se en skillnad ty annars får vi en ytterligare<br />
komplikation att ta hänsyn till.<br />
<strong>Till</strong>verkarens utgångspunkt är att de behandlade rören korroderat minst<br />
lika mycket som de obehandlade och att det således inte …nns anledning<br />
att införa en ny ytbehandling. Denne vill således gardera sig mot att<br />
införa en dyrare behandlingsmetod om denna inte bevisligen har e¤ekt.<br />
14 Min privata åsikt om dessa är att de borde förbjudas. Ge en möjlig förklaring<br />
till denna åsikt.<br />
15 Denna undersökning publicerades i gratistidningen City efter Socialdemokraternas<br />
höjning av skatten när de återtog maktens taburetter 2002 i Stockholms stadshus.<br />
Ett beställningsjobb?<br />
c Mikael Möller
8. Prövning av antaganden 191<br />
Lösning 39 För att kunna hjälpa tillverkaren måste vi bygga en modell<br />
över just hans problem och eftersom han är intresserad av huruvida det<br />
behandlade röret korroderat minst lika mycket som det obehandlade har<br />
vi följande grundläggande stokastiska variabel<br />
Xi =<br />
1 om behandlat rör korroderat mest . . .<br />
0 om behandlat rör korroderat minst . . .<br />
i = 1; 2; : : : ; 18<br />
där P (Xi = 1) = p. Av den beskrivna situationen kan vi dra slutsatsen<br />
att de stokastiska variablerna måste vara oberoende ty vi betraktar paren<br />
och inte varje rör för sig 16 . Bilda nu summavariabeln<br />
X =<br />
18X<br />
i=1<br />
Xi = antal par där behandlat rör korroderat mest<br />
för vilken det gäller att X 2 Bin (18; p).<br />
Steg 1 Försöket utförs för att man vill testa om behandlingen har e¤ekt<br />
eller ej och mer formellt kan vi skriva detta som<br />
H0 : behandlingen har ej e¤ekt H1 : behandlingen har e¤ekt<br />
Nu är det klart att behandlingen har ingen e¤ekt om sannolikheten<br />
för att det behandlade röret korroderat mest är större än eller lika<br />
med 0:5. Hypotesen kan därför även skrivas som<br />
H0 : p 0:5 H1 : p < 0:5.<br />
Observera att valet av 0:5 är ett val ty vi kunde lika gärna ha valt<br />
testet<br />
H0 : p 0:6 H1 : p < 0:4<br />
Fast då uppstår det problem. Vad skall vi göra när sannolikheten<br />
p 2 (0:4; 0:6)?<br />
Steg 2 Det kan nu synas att det gamla hederliga medelvärdet inte är<br />
användbart i denna situation men om man observerar att en skattning<br />
av p är17 ^p = x = x<br />
18 ser man att medelvärdet dyker upp<br />
även här. Dock har vi endast n = 18 observationer så en normalapproximation<br />
är inte lämplig. Därför fungerar inte ett vanligt<br />
medelvärdesresonemang med hjälp av centrala gränsvärdessatsen.<br />
Däremot känner vi fördelningen för X ty X 2 Bin(n; p) och därför<br />
får X bli vår testvariabel.<br />
16 Ett annat exempel på hur man ’trollar bort’en viss typ av störning –i detta fall<br />
markmiljön.<br />
P 17 18<br />
Det gäller här, liksom annorstädes, att x = i=1 xi.<br />
c Mikael Möller
192 8.4. Test av p<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
= P (förkasta H0 givet H0 sann)<br />
= P ( ^p p0 j p 0:5 )<br />
= P ( X x0 j p 0:5 ).<br />
I detta fall kan ekvationen skrivas<br />
=<br />
x0 X<br />
k=0<br />
18<br />
k pk 18 k<br />
0(1 p0)<br />
där sannolikheten p0, under antagande om en sann nollhypotes, är<br />
större än eller lika med 0:5. Ett utdrag av binomialfördelningstabellen<br />
(n = 18; x = x0; p = 0:5; 0:6), där cellerna består av sannolikheterna<br />
P (X x0), ger följande tabell<br />
x0 p = 0:5 p = 0:6<br />
2 6:6 10 4 2:6 10 5<br />
3 3:8 10 3 2:1 10 4<br />
4 1:5 10 2 1:3 10 3<br />
5 4:8 10 2 5:8 10 3<br />
6 1:2 10 1 2:0 10 2<br />
Vår första observation är att p = 0:5 ger de största sannolikheterna<br />
på för varje val av x0 när p = 0:5 eller 0:6. Kolumnen för p = 0:5<br />
innehåller tal som radvis är större än de i kolumnen för p = 0:6.<br />
Man övertygar sig via några ytterligare exempel på p (0:55, 0:65,<br />
. . . ) om att det minsta värdet på x0, för ett givet , erhålls när<br />
p = 0:5. Vidare gäller att när x0 är minst så ställs det högsta<br />
kravet på behandlingen. Om vi därför följer värsta fallets princip<br />
(mer om detta i kapitlet om beslutsteori) kan vi ersätta p 0:5<br />
med p = 0:5.<br />
Men detta betyder att vår ursprungliga hypotes kan ersättas med<br />
den ekvivalenta hypotesen<br />
H0 : p = 0:5 H1 : p < 0:5.<br />
Om vi nu väljer att ej skall överstiga 5 procent så …nner vi att<br />
när x0 = 5 så är = 0:048. Vår beslutsregel blir därför: Om det i<br />
5 eller färre par gäller att det behandlade röret korroderat mest så<br />
förkastar vi H0 och inför den nya metoden.<br />
c Mikael Möller
8. Prövning av antaganden 193<br />
Steg 4 Man fann att x = 6 > 5 varför nollhypotesen ej förkastas på<br />
signi…kansnivån 4:8 procent.<br />
Observera at undersökningen ger belägg för att behandlingen saknar effekt.<br />
Dock ger den inget bevis för att så är fallet.<br />
Det blir som synes ganska krångligt att bygga ett test när man inte<br />
kan använda sig av centrala gränsvärdessatsen men det är dock möjligt.<br />
Det …nns en speciell gren inom statistiken, icke-parametriska metoder,<br />
som behandlar situationer där fördelningen inte är känd.<br />
Låt oss nu se hur man förfar när centrala gränsvärdessatsen kan användas.<br />
Exempel 52 Under ett valår visade SCB:s partisympatiundersökning<br />
(1903 intervjuade) att Moderaterna:s andel av väljarkåren var 29 procent<br />
samt att Socialdemokraterna:s andel var 32 procent. Avgör om<br />
Socialdemokraterna:s andel är signi…kant större än Moderaterna:s på 1<br />
procentsnivån.<br />
Lösning 40 Sätt<br />
X 1 i =<br />
X 2 i =<br />
1 om röst på Moderaterna<br />
0 annars<br />
1 om röst på Socialdemokraterna<br />
0 annars<br />
Då N = 1903 är ett ändligt tal har vi här egentligen en hypergeometrisk<br />
fördelning men eftersom n<br />
N < 0:1 kan vi i ett första steg göra en binomialapproximation.<br />
Men det gäller nu att 1903 0:29 = 551 >> 5 och<br />
därför kan vi i det följande steget även göra en normalapproximation18 .<br />
Härav följer att modellens fördelningar kan skrivas<br />
r !<br />
r !<br />
p1(1 p1)<br />
p2(1 p2)<br />
X1 2 N p1;<br />
och X2 2 N p2;<br />
.<br />
n<br />
n<br />
Följande procedur erhålls nu<br />
Steg 1 Praxis ger att om vi vill visa att Moderaternas andel är mindre<br />
så antager vi det omvända:<br />
H0 : p1 p2 H1 : p1 < p2<br />
18 Ett villkor till skall vara uppfyllt men det är det trivialt.<br />
c Mikael Möller
194 8.4. Test av p<br />
Steg 2 Som testvariabel väljer vi<br />
Z =<br />
X1 X2<br />
q<br />
p(1 p) 1 1<br />
n + n<br />
ty liksom tidigare erhålls enligt värsta fallets princip att testet kan<br />
skrivas<br />
H0 : p1 = p2 H1 : p1 < p2<br />
varför p1 = p2 = p. En skattning av p blir 19<br />
^pobs =<br />
1903 0:29 + 1903 0:32<br />
1903 + 1903<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
där 0:01 = 2:326.<br />
Steg 4 Vi …nner att<br />
= 0:305<br />
= 0:01 = P (förkasta H0 givet H0 sann)<br />
= P (Z < )<br />
0:29 0:32<br />
Zobs = q<br />
1 1<br />
0:305(1 0:305) 1903 + 1903<br />
= 2:01<br />
och eftersom 2:01 < 2:326 förkastas nollhypotesen på signi…kansnivån<br />
1 procent.<br />
Moderaternas andel av väljarkåren är signi…kant mindre än Socialdemokraternas<br />
andel.<br />
Uppgift 28 Byt hypotesen i exempel 52 mot<br />
H0 : p1 = p2 H1 : p1 6= p2<br />
och genomför testet på nivån 1 procent.<br />
Därmed har vi gått igenom några metoder för att testa parametern<br />
(parametern p inklusive) när normalfördelning gäller antingen direkt<br />
eller via centrala gränsvärdessatsen.<br />
19 Likelihood funktionen blir, när p1 = p2 = p,<br />
L(p) = n1<br />
k pk (1 p) n1 k n2<br />
m pm (1 p) n2 m<br />
.<br />
Bestäm maximum för logaritmen av denna funktion varvid man …nner att<br />
k + m<br />
^p =<br />
n1 + n2<br />
= n1 k m<br />
+ n2 n1 n2<br />
n1 + n2<br />
= n1 ^p1 + n2 ^p2<br />
.<br />
n1 + n2<br />
Det alternativa sättet att ta fram ^p (se tidigare fotnot sid ??) ger samma resultat.<br />
c Mikael Möller
8. Prövning av antaganden 195<br />
8.5 Test av vid normalfördelning<br />
Vid analys av börskurser är test av av större betydelse än test av . Vi<br />
skall gå igenom två olika test för standardavvikelsen under antagandet<br />
om att den underliggande fördelningen är normalfördelningen. Det första<br />
testet handlar om att jämföra standardavvikelsen med ett på förhand<br />
angivet värde och det andra handlar om att jämföra standardavvikelser<br />
mellan två oberoende stickprov.<br />
Exempel 53 En banks ledning har hört att en kö som leder till ‡era kassor<br />
är e¤ektivare än en kö till varje kassa. För att testa detta mäter man<br />
under en längre tid variationen på kundernas väntetider och …nner därvid<br />
att standardavvikelsen är 8 minuter. Därefter inför man systemet med<br />
endast en kö och …nner då efter 30 kunder att s = 5 minuter. Om kundernas<br />
väntetider kan anses vara normalfördelade hur skall bankens ledning<br />
besluta, införa eller inte införa en-kö-system. Banken väljer risken<br />
2:5 procent för ett felaktigt beslut?<br />
Lösning 41 Sätt<br />
Xi = kund i:s väntetid i = 1; 2; : : : ; 30<br />
där Xi 2 N( ; ). Vi vet sedan tidigare att en bra skattning av 2 är s 2<br />
samt att det gäller att<br />
(n 1)S 2<br />
Steg 1 H0 : 2 64 H1 : 2 < 64<br />
2 2 2 (n 1).<br />
Om den nya variationen är större än den gamla så …nns ingen<br />
anledning att införa det nya systemet.<br />
Steg 2 Som testvariabel tar vi<br />
2 = (n 1)S 2<br />
där liksom tidigare värsta fallets princip ger att testet kan skrivas<br />
H0 : 2 = 64 H1 : 2 < 64.<br />
Steg 3 Beslutsregeln följer ur ekvationen<br />
= 0:025 = P (förkasta H0 givet H0 sann)<br />
= P 2 < a<br />
där a = 2 0:975(29) = 16 20 .<br />
20 Observera hur 2 -tabellen är uppbyggd.<br />
2<br />
c Mikael Möller
196 8.5. Test av vid normalfördelning<br />
2 29 5 Steg 4 Data ger att = 2<br />
82 = 11:33 < 16 varför nollhypotesen<br />
förkastas på 2:5 procentsnivån.<br />
Banken rekommenderas att införa det nya systemet med en kö till ‡era<br />
kassor.<br />
För att kunna ta itu med nästa typ av test –två standardavvikelser<br />
är lika – behöver vi införa en ny typ av stokastisk variabel. Eftersom<br />
vi är intresserade av att testa det inbördes storleksförhållandet mellan<br />
två standardavvikelser behöver vi en storhet som mäter just detta. En<br />
sådan variabel är<br />
F = S2 1<br />
S 2 2<br />
ty om: F > 1 så tror vi att 1 2, om F < 1 så tror vi att 1 2<br />
och om F = 1 så tror vi att 1 = 2. Nu vet vi att man måste ta hänsyn<br />
till slumpen så det gäller att hitta en lämplig ersättare för talet 1 i de<br />
tre olika fallen. För att kunna hitta denna ersättare konstaterar vi att<br />
fördelningen för F kan skrivas<br />
eftersom<br />
(n1 1) S 2 1<br />
2<br />
1<br />
F = S2 1<br />
S 2 2<br />
2<br />
2 2 (n1 1) och<br />
2<br />
1 2 (n1 1) = (n1 1)<br />
2<br />
2 2 (n2 1) = (n2 1)<br />
(n2 1) S 2 2<br />
2<br />
2<br />
2 2 (n2 1)<br />
För de tre olika testen gäller antagandet att 1 = 2 (värsta fallets<br />
princip) varför vi kan skriva<br />
F 2<br />
2 (n1 1) = (n1 1)<br />
2 (n2 1) = (n2 1)<br />
som är helt oberoende av 1 och 2. Denna nya fördelning benämns<br />
F -fördelningen och den …nns tabulerad för olika värden på n1, n2 och .<br />
Observera att tabellen oftast pratar om sannolikheten P F (n1; n2) > a .<br />
Om man istället betraktar P F (n1; n2) < b så gäller att b erhålls på<br />
följande sätt<br />
c Mikael Möller<br />
P F (n1; n2) < b = P 1<br />
b <<br />
1<br />
F (n1; n2)<br />
= P 1<br />
b < F (n2; n1)<br />
= P F (n2; n1) > 1<br />
b<br />
.
8. Prövning av antaganden 197<br />
och vi är tillbaks till ursprungsfallet där n1 och n2 har bytt roller. Detta<br />
följer trivialt från de…nitionen av den stokastiska variabeln F .<br />
Exempel 54 En ekonom har en teori om att volatiliteten i en aktie<br />
påverkas märkbart när ’insiders’ ger sig in i handeln. För att testa om<br />
denna teori håller införska¤ar ekonomen börskurserna för en aktie (AssiDomän)<br />
där denne vet att ’insiders’ har handlat. Data delades upp<br />
i två perioder: dels perioden där beslutet om inlösen bara var känt av<br />
en inre krets och dels i en lika lång period före. Data transformerades<br />
till daglig ränteavkastning och man fann standardavvikelsen 9 kronor för<br />
perioden då inlösen bara var känd av den inre kretsen och 3 kronor för<br />
perioden dessförinnan. Har ekonomens teori stöd i data? Antag att<br />
normalfördelning och oberoende observationer kan anses rimligt. 21<br />
Lösning 42 Sätt<br />
X F i = avkastning före beslut dag i, i = 1; 2; : : : ; 25<br />
X E j = avkastning efter beslut dag j, j = 1; 2; : : : ; 25<br />
där X F i 2 ON( 1; 1) och X E j 2 ON( 2; 2).<br />
Steg 1 Ekonomen tror på sin teori och vill ogärna förkasta denna om<br />
den är sann men dennes belackare kommer naturligtvis slå ner på<br />
första bästa felkälla. Därför väljs testet<br />
H0 : 1 2 H1 : 1 < 2<br />
d v s H0 : teorin fungerar ej mot alternativet H1 : teorin fungerar<br />
och som signi…kansnivå väljs 0:01.<br />
Steg 2 Som testvariabel tas<br />
där F 2 F (24; 24).<br />
F = S2 1<br />
S 2 2<br />
Steg 3 Beslutsregeln följer ur ekvationen<br />
= 0:01 = P (förkasta H0 givet H0 sann)<br />
= P F < a<br />
varför det erhålls att a = 1<br />
2:66 = 0:376.<br />
21 Vilket de inte är! Varför?<br />
c Mikael Möller
198 8.6. Olika typer av fel<br />
Steg 4 Data ger att Fobs = 32<br />
9 2 = 0:11 < 0:376 varför nollhypotesen<br />
förkastas på nivån 1 procent.<br />
Ekonomen:s teori stämmer med verkligheten och risken för att teorin<br />
skall vara fel är en på hundra.<br />
8.6 Olika typer av fel<br />
Vi har tills nu endast betraktat en typ av de två fel man kan begå vid<br />
utförande av test – nämligen att förkasta en sann hypotes. Dock …nns<br />
ytterligare ett fel, som man kan göra, och det framgår av nedanstående<br />
tabell att det är att ’ej förkasta H0 om H0 ej är sann’.<br />
Testresultat<br />
Sanningen Förkasta H0 Förkasta ej H0<br />
H0 är sann Ej korrekt ( ) Korrekt<br />
H0 ej är sann Korrekt Ej korrekt ( )<br />
Dessa två typer av fel benämns Typ I ( ) och Typ II ( ) fel där typ I<br />
felen har sannolikheten (signi…kansnivån) att inträ¤a. Båda felen vill<br />
vi skall vara små.<br />
8.6.1 Styrkefunktion<br />
För att illustrera hur dessa två typer av fel hänger ihop betraktar vi<br />
ånyo exemplet med de nedgrävda rören. Det gäller att Typ II:felet är<br />
= P (förkasta ej H0 givet H0 ej sann)<br />
= 1 P (förkasta H0 givet H0 ej sann)<br />
= 1 f(p).<br />
Funktionen f(p) = P (förkasta H0 givet H0 ej sann) de…nieras här av<br />
f(p) =<br />
5X<br />
k=0<br />
18<br />
k pk 18 k<br />
(1 p)<br />
och eftersom det är sannolikheter vi arbetar med ritar vi upp den i<br />
intervallet (0; 1) och erhåller då …guren nedan<br />
I …guren har vi noterat signi…kansnivån 4:8 procent för p = 0:5.<br />
Antag nu att det sanna värdet i verkligheten är p = 0:3 d v s att ytbehandlingen<br />
har en positiv e¤ekt. Vi ser då i …guren att sannolikheten<br />
att förkasta H0 (när H0 ej är sann) blir 0:53.<br />
c Mikael Möller
8. Prövning av antaganden 199<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0<br />
0<br />
0.1<br />
0.2<br />
0.3<br />
0.4<br />
0.5<br />
0.6<br />
Figur 8.1: (p) = 1 P 5<br />
k=0<br />
0.7<br />
0.8<br />
0.9<br />
18<br />
k pk 18 k (1 p)<br />
Eftersom ett p = 0:3 betyder att metoden ger en bättre e¤ekt än<br />
ingen behandling alls kan sannolikheten att förkasta H0 synas vara väl<br />
liten. Testet diskriminerar ej bra för p mellan 0:5 och 0:3.<br />
Ett sätt att göra sannolikheten större, för p = 0:3, är att utöka<br />
antalet observationer. Om vi t ex tar ytterligare 18 par rör så att vi<br />
totalt har 36 par så erhålls beslutsregeln att förkasta H0 till x0 = 13<br />
när = 0:066 och x0 = 12 när = 0:033. Då signi…kansnivån ej skall<br />
överstiga 5 procent, tar vi = 0:033 (d v s förkastelsegränsen x0 = 12)<br />
och då erhålls sannolikheten att ’förkasta H0 när p = 0:3’till 0:74 vilken<br />
är betydligt större än 0:53 –se …gur 8.2.<br />
Vi ser allmänt i denna …gur att 36 par ger bättre förmåga att diskriminera<br />
huruvida ytbehandlingen har e¤ekt eller ej. Lite eftertanke ger att<br />
72 par vore ännu bättre o s v. Men det kostar!<br />
Funktionen<br />
f ( ) = P (förkasta H0)<br />
där är den parameter som studeras, t ex = p, kallas styrkefunktionen<br />
och för denna funktion gäller att 0 f ( ) 1 för alla värden på .<br />
Uppgift 29 Bestäm styrkefunktionen för testet i exempel 46 när man<br />
valt signi…kansnivån 0:01.<br />
8.7 p-värden<br />
Filoso…skt är begreppet signi…kansnivå tilltalande eftersom den kopplar<br />
direkt till undersökningens kostnader samt gör att man funderar igenom<br />
1<br />
c Mikael Möller
200 8.7. p-värden<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0<br />
0<br />
0.1<br />
0.2<br />
0.3<br />
0.4<br />
0.5<br />
Figur 8.2: 18 par (— ) och 36 par (. . . )<br />
sitt försök och dess uppläggning innan man sätter igång. Det …nns<br />
dock tillfällen när användandet av signi…kansnivå ej blir bra som t ex<br />
vid diskreta fördelningar ty där är det ej alltid möjligt att trä¤a exakt<br />
rätt med signi…kansnivån. 22<br />
Det …nns således tillfällen när en annan terminologi skulle vara bättre<br />
och den metod som utkristalliserats är vad som kallas p–värden. Denna<br />
metod låser ej sannolikheten<br />
0.6<br />
0.7<br />
0.8<br />
0.9<br />
P (förkasta H0 givet H0 sann)<br />
till ett givet värde utan beräknar istället<br />
P (förkasta H0 givet det resultat vi erhållit givet H0 sann)<br />
och hur denna sannolikhet skall användas förstås lättast med ett exempel.<br />
Exempel 55 Antag att vi vill göra ett ensidigt test på m för en N (m; )<br />
där är känd:<br />
H0 : m m0 H1 : m m0<br />
Det naturliga testet är att vi förkastar H0 om vi …nner ett x som är<br />
’stort’d v s att x ligger så mycket till höger om m0 att vi måste acceptera<br />
mothypotesen H1.<br />
22 Självklart kan testet krånglas till så att önskad signi…kansnivå erhålls. Men varför<br />
krångla när det …nns bättre metoder.<br />
c Mikael Möller<br />
1
8. Prövning av antaganden 201<br />
1. Om vi låser signi…kansnivån till säg 5 procent medför detta att<br />
vi kan beräkna gränsen 0:05 = 1:96 och om x > m0 + 1:96 p n<br />
förkastar vi nollhypotesen.<br />
2. Antag att vi istället beräknar den till x hörande signi…kansnivån<br />
d v s vi beräknar<br />
Då uppstår två möjligheter.<br />
p = P X > x givet H0 sann .<br />
(a) Det beräknade p-värdet (signi…kansnivån) är mindre än 5 procent:<br />
Detta betyder att x > m0 + 1:96 p n ty vi har för‡yttat<br />
oss längre ut i fördelningens svans (vi …ck en mindre sannolikhet)<br />
och således förkastar vi vår hypotes i detta fall.<br />
(b) Det beräknade p-värdet (signi…kansnivån) är större än 5 procent:<br />
Detta betyder att x < m0 + 1:96 p n ty vi har för‡yttat<br />
oss längre in på fördelningens svans (vi …ck en större sannolikhet)<br />
och således förkastar vi ej vår hypotes i detta fall.<br />
Metoden med p-värden är vad alla statistikprogram anammat ty det<br />
är lätt att beräkna p-värden men det är svårt att gissa en användares<br />
preferens på signi…kansnivån. 23<br />
8.8 Test av fördelningar<br />
8.8.1<br />
2 -testet<br />
Det …nns två olika typer av sannolikhetsfördelningar –diskreta och kontinuerliga<br />
–för vilka vi behöver metoder som avgör om data kommer från<br />
den tänkta fördelningen eller ej. Eftersom data som kommer från en<br />
diskret fördelning redan är naturligt grupperade börjar vi med att studera<br />
dessa. Test för de kontinuerliga fördelningarna behandlas i kapitlet<br />
Passar vår fördelning.<br />
Antag att vår modell är ”kast med en tärning”samt att ett stickprov<br />
på denna tärning är<br />
3 5 4 5 6 4 3 6 4 2 3 4 5 5 4 6 6 3<br />
4 5 5 4 3 1 6 4 3 3 2 6 4 4 1 5 4 3<br />
23 I äldre litteratur kan man läsa om *, ** och *** signi…kans. Dessa beteckningar<br />
bör användas endast om man medvetet avser föra läsaren bakom ljuset.<br />
c Mikael Möller
202 8.8. Test av fördelningar<br />
eller med andra ord att vi har kastat tärningen 36 gånger och därvid<br />
erhållit de angivna resultaten. Vår statistiska modell för tärningskasten<br />
är<br />
X = antal prickar vid ett kast<br />
där P (X = k) = 1<br />
6 k 2 f1; 2; : : : ; 6g. Vi skall nu avgöra om stickprovet<br />
bekräftar denna modell eller om det förkastar den. Med andra ord skall<br />
vi avgöra om de sannolikheter som kan skattas med hjälp av stickprovet<br />
skiljer sig märkbart från modellens teoretiska sannolikheter. För att<br />
kunna göra detta behöver vi betrakta det transformerade stickprovet<br />
– 2; 2; 8; 11; 7; 6 – där den första 2:an betyder att vi har två 1:or, den<br />
andra tvåan betyder att vi har två 2:or o s v. Om modellen är bra så bör<br />
följande approximationer gälla<br />
2<br />
36<br />
1 2<br />
,<br />
6 36<br />
1 8<br />
,<br />
6 36<br />
1 11<br />
,<br />
6 36<br />
1 7<br />
,<br />
6 36<br />
1 6<br />
,<br />
6 36<br />
där 36 är det totala antalet kast. Detta kan även skrivas<br />
2 36 1<br />
6<br />
11 36 1<br />
6<br />
0, 2 36 1<br />
6<br />
0, 7 36 1<br />
6<br />
0, 8 36 1<br />
6<br />
0, 6 36 1<br />
6<br />
Idéen är således att jämföra vårt observerade värde med det förväntade<br />
värdet. Denna idé kommer i det följande avsnittet leda oss till<br />
2 -metoden. En metod som är så allmän att den inte bara kan användas<br />
för test av diskreta fördelningar utan den förmår även hjälpa oss att<br />
avgöra om gissningar på kontinuerliga fördelningar är bra eller ej samt<br />
om händelser är oberoende eller ej.<br />
8.8.2 Ett enklare exempel<br />
Betrakta följande enkla försök: För att avgöra om ett mynt är symmetriskt<br />
eller ej kastas detta n gånger. Räkna antalet krona (1) respektive<br />
klave (0) och om ungefär hälften av kasten ger krona klassas myntet<br />
som symmetriskt.<br />
Detta försök kan beskrivas med följande generella modell där en av<br />
två möjliga händelser kan inträ¤a: Sätt<br />
där<br />
c Mikael Möller<br />
Xi =<br />
1 om krona kast i<br />
0 om klave kast i<br />
P (Xi = k) =<br />
0;<br />
0.<br />
i = 1; 2; : : : ; n<br />
p om k = 1,<br />
1 p om k = 0.<br />
1<br />
6
8. Prövning av antaganden 203<br />
Bilda sedan de stokastiska variablerna<br />
Y1 = antal ettor =<br />
nX<br />
i=1<br />
Y2 = antal nollor = n<br />
där Y1 2 Bin(n; p) och Y2 2 Bin(n; 1 p). För ett symmetriskt mynt<br />
gäller att p = 0:5 men det blir inga ytterligare svårigheter om man<br />
betraktar ett godtyckligt mynt och tillåter p vara ett godtyckligt tal<br />
mellan 0 och 1, däremot får vi en mer allmän utsaga.<br />
Eftersom fördelningen för Y1 är Bin (n; p) så gäller enligt centrala<br />
gränsvärdessatsen att<br />
Xi<br />
nX<br />
i=1<br />
Y1 np<br />
p np (1 p) N (0; 1)<br />
om np > 5 och n(1 p) > 5. I försöket ovan förväntar vi oss att p = 0:5<br />
varför det behövs mer än 10 slantsinglingar 24 för att normalapproximation<br />
skall kunna användas.<br />
I kapitlet Fördelningsmatematik visas att kvadraten på en normalfördelning<br />
med väntevärde 0 och varians 1 är 2 -fördelad med en frihetsgrad<br />
och det följer därför att<br />
(Y1 np) 2<br />
np (1 p)<br />
2 (1)<br />
Denna kvadratsumma skall nu skrivas om så att den innehåller både Y1<br />
och Y2 och vi kommer då se en viss symmetri. Denna symmetri kan<br />
överföras till situationer med ‡er än två möjliga utfall.<br />
En uppdelning i partialbråk ger<br />
Xi<br />
(Y1 np) 2<br />
np (1 p) = (Y1 np) 2<br />
+<br />
np<br />
(Y1 np) 2<br />
n (1 p)<br />
men eftersom Y2 = n Y1 kan detta även skrivas<br />
(Y1 np) 2<br />
np (1 p) = (Y1 np) 2<br />
+<br />
np<br />
(n Y2 np) 2<br />
n (1 p)<br />
= (Y1 np) 2<br />
np<br />
+ (Y2 n (1 p)) 2<br />
n (1 p)<br />
24 Med tumregeln np(1 p) > 10 erhålls istället att antalet slantsinglingar skall<br />
vara större än 40.<br />
c Mikael Möller
204 8.8. Test av fördelningar<br />
Sätt nu p = p1 och 1 p = p2 varvid vi erhåller<br />
(Y1 np) 2<br />
np (1 p) = (Y1 np1) 2<br />
np1<br />
+ (Y2 np2) 2<br />
Här känner vi nu igen det som nämndes i introduktionen nämligen att vi<br />
betraktar skillnaden mellan det observerade värdet och det förväntade<br />
värdet. Detta kan nu skrivas<br />
y1 np1 och y2 np2<br />
och vi skall avgöra om dessa skillnader är stora eller ej. Här har lösningen<br />
förts ett steg längre ty om vi tar skillnaderna i kvadrat och delar med<br />
det förväntade värdet, E(Yi) i = 1; 2, så erhålls en 2 -fördelning.<br />
Det är därmed visat att det allmänt gäller<br />
Q =<br />
2X<br />
i=1<br />
Yi E(Yi) 2<br />
E(Yi)<br />
np2<br />
2 (1)<br />
där E(Y1) = np1 och E(Y2) = np2.<br />
De observerade värdena på Y1 och Y2 bör, vid kast med ett mynt, vara<br />
ungefär lika stora som sina förväntningsvärden (E (Yi) = npi). Kvadratsumman<br />
bör därför vara liten om vi gissat rätt på p1 och p2 = 1 p1<br />
och den bör vara stor om vi gissat fel.<br />
Det hittills sagda ger oss en algoritm för att avgöra om data kommer<br />
från ett mynt med sannolikheten p för krona eller ej.<br />
Steg 1 H0 : p = 0:5 H1 : p 6= 0:5<br />
Vi utgår ifrån att myntet är symmetriskt ty det har alltid varit så<br />
förut.<br />
Steg 2 Som testvariabel tar vi<br />
Q =<br />
och denna är 2 (1)-fördelad.<br />
2X (Yi npi) 2<br />
i=1<br />
npi<br />
Steg 3 Beslutsregeln erhålls nu ur ekvationen<br />
där a = 2 (1).<br />
c Mikael Möller<br />
= P (förkasta H0 givet H0 sann)<br />
= P Q > a
8. Prövning av antaganden 205<br />
Steg 4 Beräkna Qobs och om Qobs > a så förkastas nollhypotesen på<br />
signi…kansnivån 100 procent.<br />
Om det mer allmänt …nns r möjliga utfall (för en vanlig tärning är<br />
r = 6) använder vi oss istället av variabeln<br />
rX (Yi npi)<br />
Q =<br />
2<br />
npi<br />
i=1<br />
för vilken det gäller att Q 2 2 (r 1).<br />
Exempel 56 (forts på exempel 46 sid 177) Vad gäller för tärningen i<br />
början av detta avsnitt? Är den rättvis eller har den oönskade egenskaper?<br />
Använd signi…kansnivån 5 procent.<br />
Lösning 43 Modellen gavs tidigare och de fyra hypotesstegen blir<br />
Steg 1 H0 : pi = 1<br />
6 i = 1; 2; : : : ; 6 H1 : :H0 25<br />
Steg 2 Som testvariabel tar vi<br />
Q =<br />
vilken är 2 (6 1)-fördelad.<br />
6X (Yi npi) 2<br />
i=1<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
npi<br />
= 0:05 = P (förkasta H0 givet H0 sann)<br />
= P (Q > a)<br />
där a = 2 0:05(5) = 11:1.<br />
Steg 4 Vårt observerade värde erhålls till<br />
q =<br />
+ 11 36 1<br />
1 2 36 6<br />
36 1<br />
6<br />
6<br />
36 1<br />
6<br />
2<br />
2<br />
= 152:8 > 11:1<br />
+ 2 36 1<br />
+ 7 36 1<br />
6<br />
36 1<br />
6<br />
2<br />
6<br />
36 1<br />
6<br />
2<br />
+ 8 36 1<br />
+ 6 36 1<br />
6<br />
36 1<br />
6<br />
2<br />
6<br />
36 1<br />
6<br />
varför vi förkastar antagandet om en korrekt tärning på signi…kansnivån<br />
5 procent.<br />
Det är därför att rekommendera att tärningen ej används.<br />
25 Symbolen : skall utläsas ’icke’.<br />
2<br />
c Mikael Möller
206 8.8. Test av fördelningar<br />
8.8.3 Fördelningar –diskreta<br />
Ovanstående metod låter sig utvecklas till ett allmänt test för om en<br />
gissad diskret fördelning är giltig eller ej. Metoden är direkt överförbar<br />
om fördelningen är helt känd som i Bin(13; 0:34), P o(2:15) o s v. I de fall<br />
som vi måste skatta en parameter p, o s v behöver vi endast göra en<br />
smärre korrigering i antalet frihetsgrader för 2 -fördelningen. Frihetsgraden<br />
skall minskas med en enhet för varje skattad parameter.<br />
Exempel 57 En ‡yginstruktör har fört bok över antalet gjorda fel per<br />
timme i en ‡ygsimulator och därvid efter 30 timmar erhållit följande<br />
tabell<br />
Antal fel 0 1 2 3 4 5 6 7 8 9 10 11<br />
Frekvens 3 8 5 7 2 1 2 1 0 0 1 0<br />
och vill nu testa sitt antagande om att antalet fel per timme uppträder<br />
enligt en Poissonfördelning.<br />
Lösning 44 Eftersom Poissonfördelningens parameter ej är given måste<br />
denna skattas med hjälp av den givna informationen. Nu gäller det att<br />
det förväntade antalet fel per timme, , skattas med medelvärdet och vi<br />
erhåller<br />
^<br />
0<br />
obs = x =<br />
3 + 1 8 + 2 5 +<br />
30<br />
+ 10 1 + 11 0<br />
= 81<br />
= 2:7<br />
30<br />
Med hjälp av detta värde kan vi beräkna den teoretiska frekvensen för<br />
0 fel per timme till nP (X = 0) = 30e 2:7 = 2:016, för 1 fel per timme<br />
till nP (X = 1) = 30 2:71<br />
1! e 2:7 = 5:444 o s v. Detta ger, efter en hel del<br />
c Mikael Möller
8. Prövning av antaganden 207<br />
arbete, tabellen nedan<br />
Antal Observerad Teoretisk<br />
fel frekvens frekvens<br />
fo<br />
fe<br />
(f0 fe) 2<br />
0 3 2:016<br />
1 8 5:444 1:679<br />
2 5 7:350 0:751<br />
3 7 6:615 0:022<br />
4 2 4:464<br />
5 1 2:412<br />
6 2 1:086<br />
7 1 0:417<br />
8 0 0:141<br />
9 0 0:042<br />
10 1 0:012<br />
11 0 0:003 0:290<br />
2:742<br />
I den fjärde kolumnen har vi slagit ihop celler så att den teoretiska<br />
frekvensen överstiger 5 (npi > 5) så att centrala gränsvärdessatsen blir<br />
möjlig att tillämpa. Summering av den fjärde kolumnen ger sedan det<br />
observerade värdet på testvariabeln Q till<br />
q = X (f0 fe) 2<br />
= 2:742.<br />
Steg 1 H0 : antal fel per timme 2 P o(2:7) H1 : :H0<br />
Steg 2 Som testvariabel tar vi<br />
fe<br />
Q = X (f0 fe) 2<br />
vilken är 2 (4 1 1)-fördelad. Här har vi dragit bort ytterligare<br />
1 enhet eftersom vi skattat en parameter . Om vi skattar två<br />
parametrar drar vi bort 2 o s v.<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
fe<br />
= 0:01 = P (förkasta H0 givet H0 sann)<br />
= P (Q > a)<br />
där a = 2 0:01(2) = 9:21.<br />
fe<br />
c Mikael Möller
208 8.8. Test av fördelningar<br />
Steg 4 Tabellen ger att q = 2:742 < 9:21 och H0 förkastas därför ej på<br />
1 procent nivån.<br />
Det …nns därför belägg för att antalet fel per timme i ‡ygsimulatorn<br />
följer en Poissonfördelning.<br />
8.8.4 Fördelningar –kontinuerliga<br />
När man har observationer på en kontinuerlig fördelning brukar man<br />
ofta göra ett histogram över data. Därvid delas data in i klasser och<br />
på dessa klasser kan man tillämpa 2 -testet för att avgöra om en gissad<br />
kontinuerlig fördelning passar till data eller ej.<br />
Exempel 58 En analytiker vill ta reda på om antalet handlade köpoptioner<br />
per dag fortfarande följer en normalfördelning med väntevärde<br />
50 (miljoner) och standardavvikelse 10 (miljoner). Analytikern noterar<br />
därför antalet handlade köpoptioner per dag under 90 dagar och fann då<br />
följande tabell<br />
Antal Observerad<br />
köp frekvens<br />
fo<br />
0 10 5<br />
10 20 9<br />
20 30 15<br />
30 40 23<br />
40 50 20<br />
50 60 8<br />
60 70 6<br />
70 80 3<br />
80 1<br />
Totalt 90<br />
Ger tabellen belägg för ett bibehållet köpmönster? Utför ett test på nivån<br />
2 procent.<br />
Lösning 45 Först bildar vi den indikerade modellen och sätter<br />
Xi = antal köpta köpoptioner dag i i = 1; 2; : : : ; 90<br />
där Xi 2 ON(50; 10).<br />
c Mikael Möller
8. Prövning av antaganden 209<br />
Med hjälp av modellen kan vi nu beräkna de teoretiska frekvenserna 26<br />
för de angivna klasserna (intervallen). Därefter utvecklar vi tabellen<br />
enligt samma mönster som för de diskreta fördelningarna. Detta ger oss<br />
tabellen<br />
Antal Observerad Teoretisk<br />
köp frekvens frekvens<br />
fo<br />
fe<br />
(f0 fe) 2<br />
0 10 5 0:0<br />
10 20 9 0:126<br />
20 30 15 1:926<br />
30 40 23 12:231 99:599<br />
40 50 20 30:717 3:739<br />
50 60 8 30:717 16:801<br />
60 70 6 12:321<br />
70 80 3 1:926<br />
80 1 0:126 1:330<br />
Totalt 90 121:469<br />
I tabellen har vi slagit ihop de fyra raderna 0 10 till 30 40 så att<br />
kravet om förväntat värde större än 5 uppfylls. Detsamma har gjorts för<br />
raderna 60 70 till 80 . Testet blir nu<br />
Steg 1 H0 : Antal köp per dag 2 N(50; 10) H1 : :H0<br />
Steg 2 Som testvariabel tar vi<br />
vilken är 2 (4 1)-fördelad.<br />
Q = X (f0 fe) 2<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
fe<br />
= 0:01 = P (förkasta H0 givet H0 sann)<br />
= P (Q > a)<br />
där a = 2 0:01(3) = 11:345.<br />
26 För t ex intervallet (20; 30) gäller att den teoretiska frekvensen är<br />
nP (20 < X 30) = 90P<br />
20 50<br />
10<br />
< X 50<br />
10<br />
= 90P ( 3 < Z 2)<br />
1:926.<br />
fe<br />
30 50<br />
10<br />
c Mikael Möller
210 8.8. Test av fördelningar<br />
Steg 4 Eftersom Qobs = 121:469 > 11:345 förkastas nollhypotesen på<br />
nivån 1 procent.<br />
Testet visar tydligt att köpmönstret har förändrats. En snabb kalkyl ger<br />
att det skattade medelvärdet är 37:6 miljoner och inte 50 miljoner. Bara<br />
här uppstår en diskrepans.<br />
Uppgift 30 Gör om testet i exemplet ovan men ta nu hänsyn till att<br />
och skattas med x och s. Vad blir nu resultatet?<br />
8.8.5 Test av oberoende<br />
2 -testet är även lämpligt när man vill testa om två olika typer av händelser<br />
A och B är oberoende eller ej (kontigenstabeller). Antag att den<br />
ena händelsetypen har a olika möjliga utfall, vilka vi betecknar med<br />
A1; A2; : : : ; Aa, samt att den andra händelsetypen har b möjliga utfall,<br />
vilka vi betecknar med B1; B2; : : : ; Bb. Sätt<br />
Xij = antal gånger händelserna Ai och Bj inträ¤at samtidigt<br />
i = 1; 2; : : : ; a och j = 1; 2; : : : ; b.<br />
Vi erhåller då en tabell enligt<br />
Typ B<br />
Typ A B1 B2 Bb<br />
A1 X11 X12 X1b r1<br />
A2 X21 X22 X2b r2<br />
.<br />
.<br />
.<br />
. ..<br />
Aa Xa1 Xa2 Xab ra<br />
c1 c2 cb n<br />
där det gäller att ri = Pb j=1 Xij och cj = Pa i=1 Xij samt n = Pa Pb j=1 cj. De…niera nu sannolikheterna<br />
pij = P (Ai \ Bj),<br />
pi = P (Ai),<br />
p j = P (Bj).<br />
Om oberoende föreligger så skall det gälla att<br />
pij = pi<br />
Ett test av oberoende händelser blir nu<br />
c Mikael Möller<br />
p j.<br />
.<br />
.<br />
i=1 ri =
8. Prövning av antaganden 211<br />
Steg 1 Vår hypotes är<br />
eller ekvivalent<br />
H0: händelserna A och B är oberoende H1: :H0<br />
H0: pij = pi p j , 8 (i; j) : i 6= j H1: :H0.<br />
Steg 2 Under hypotesen har vi testvariabeln<br />
Q =<br />
aX<br />
i=1 j=1<br />
bX (fo fe) 2<br />
=<br />
fe<br />
aX<br />
bX<br />
i=1 j=1<br />
(Xij npi p j) 2<br />
npi p j<br />
där Q 2 (?) 27 . Nu är p1 ; p2 ; : : : ; pa och p 1; p 2; : : : ; p b okända<br />
parametrar och de måste därför skattas. Det visar sig att lämpliga<br />
skattningar (enligt minsta-kvadrat-metoden) är<br />
pi = ri<br />
n<br />
p j = cj<br />
n<br />
i = 1; 2; : : : ; a<br />
j = 1; 2; : : : ; b<br />
och eftersom det gäller att p a = 1 p 1 p 2 p (a 1) samt<br />
pb = 1 p1 p2 p (b 1) behöver vi skatta a 1 och b 1<br />
parametrar. Detta för med sig att antalet frihetsgrader för Q måste<br />
justeras till<br />
ab 1 (a 1) (b 1) = ab a b + 1<br />
Vår testvariabel blir därför<br />
Q =<br />
aX<br />
bX<br />
i=1 j=1<br />
där Q 2 (a 1)(b 1) .<br />
Steg 3 Beslutsregeln erhålls nu till<br />
27 Fortsätt att läsa!<br />
Xij n ri<br />
n<br />
n ri cj<br />
n n<br />
= (a 1)(b 1).<br />
cj<br />
n<br />
= P (förkasta H0 givet H0 sann)<br />
= P (Q > 2 ).<br />
2<br />
c Mikael Möller
212 8.8. Test av fördelningar<br />
Steg 4 Beräkna Qobs och jämför med 2 .<br />
Vi ger nu ett exempel på när ett oberoende-test är lämpligt och hur<br />
det praktiskt utförs.<br />
Exempel 59 På ett sjukhus har man fört bok över ett stort antal patienter<br />
och noterat om de bland annat är rökare och/eller har någon<br />
hjärtsjukdom. En medicine kandidat vill nu undersöka om hennes teori,<br />
om inget samband mellan rökning och hjärtsjukdom, har stöd i be…ntliga<br />
observationer (se tabellen nedan).<br />
R Hjärtsjukdom<br />
ö Ja (HJ) Nej (HN)<br />
k Ja (RJ) 300 200 500<br />
a Nej (RN) 100 300 400<br />
r 400 500 900<br />
e<br />
Lösning 46 En statistikers formulering av ovanstående fråga är: Rökning<br />
och hjärtsjukdom är oberoende händelser. Vi har därför att utföra<br />
ett oberoende-test och ur den givna tabellen erhålls att<br />
samt att<br />
P (RJ \ HJ) = 300<br />
900 P (RJ \ HN ) = 200<br />
900<br />
P (RN \ HJ) = 100<br />
900 P (RN \ HN) = 300<br />
900<br />
P (RJ)P (HJ) = 500 400<br />
900 900 P (RJ)P (HN) = 500 500<br />
900 900<br />
P (RN)P (HJ) = 400 400<br />
900 900 P (RN )P (HN) = 400 500<br />
900 900 .<br />
Den omformulerade frågan är nu om de…nitionen av oberoende<br />
P (A \ B) = P (A)P (B)<br />
är uppfylld eller ej. Observera att villkoret np > 5 är giltigt i varje cell.<br />
Steg 1 H0 : händelserna R och H är oberoende H1 : :H0<br />
Steg 2 Som testvariabel tar vi<br />
Q =<br />
2X<br />
i=1 j=1<br />
där Q är 2 (2 1)(2 1) -fördelad.<br />
c Mikael Möller<br />
2X (fo fe) 2<br />
fe
8. Prövning av antaganden 213<br />
Steg 3 Vår beslutsregel erhålls ur ekvationen<br />
där 2 0:05(1) = 3:84.<br />
Steg 4 Data ger att<br />
= 0:05 = P (förkasta H0 givet H0 sann)<br />
= P (Q > 2 )<br />
q =<br />
= 300 900 5<br />
+ 200 900 5<br />
2X<br />
2X<br />
i=1 j=1<br />
Xij n ri<br />
n<br />
n ri cj<br />
n n<br />
4<br />
9 9<br />
900<br />
2<br />
5 4<br />
9 9<br />
5<br />
9 9<br />
2<br />
900 5 5<br />
9 9<br />
= 110:25<br />
+ 100 900 4<br />
+ 300 900 4<br />
cj<br />
n<br />
2<br />
4<br />
9 9<br />
900<br />
2<br />
4 4<br />
9 9<br />
5<br />
9 9<br />
2<br />
900 4 5<br />
9 9<br />
Eftersom q = 110:25 > 3:84 så föreligger signi…kant beroende mellan<br />
rökning och hjärtsjukdomar.<br />
Medicine kandidatens teori har ej stöd i be…ntliga observationer.<br />
Alla de tabeller vi studerat med hjälp av 2 -testet har bestått av<br />
r rader och c kolumner. Vid test av fördelning har vi 2 kolumner<br />
(observerad och teoretisk frekvens) och r rader och vid vårt test av<br />
oberoende var det 2 rader och 2 kolumner (eller allmänt a rader och<br />
b kolumner).<br />
Oavsett vad vi studerar behövs antalet frihetsgrader för den aktuella<br />
2 -fördelningen och vi har angett dessa till att vara (a 1)(b 1). Vid<br />
fördelningstesten måste vi även ta hänsyn till antalet (m) skattade parametrar<br />
och erhåller då frihetsgraden (a 1) (b 1) m.<br />
Dessa frihetsgrader är intimt förknippade med rangen hos en matris<br />
och vi illustrerar detta på föregående exempel om oberoende. Tabellen<br />
där har följande principiella utseende<br />
x1 x2 r<br />
x3 x4 n r<br />
c n c n<br />
c Mikael Möller
214 8.9. Övningar och Problem<br />
vilket är ekvivalent med ekvationssystemet<br />
x1 + x2 = r<br />
x3 + x4 = n r<br />
x1 + x3 = c<br />
x2 + x4 = n c<br />
och detta system har rangen 1 d v s (2 1)(2 1).<br />
8.9 Övningar och Problem<br />
c Mikael Möller
8. Prövning av antaganden 215<br />
8.10 Lösningar till uppgifter<br />
26 Eftersom vi valt nollhypotesen = 0 följer att vi vill undvika både<br />
för stora och för små värden varför a = b. är bara en alternativ<br />
beteckning.<br />
27 Ett symmetriskt 99 procentigt trovärdighetsintervall för när är<br />
okänd är<br />
x 2 p n<br />
= 59:7 2:576 0:7<br />
p 100<br />
= 59:7 0:18<br />
= (59:52; 59:88) .<br />
Eftersom detta intervall ej innehåller värdet 60 kan produktionen ej anses<br />
hålla sig inom angivna ramar.<br />
28 Med samma modell som i exempel 52 erhålls<br />
Steg 1 H0 : p1 = p2 H1 : p1 6= p2<br />
Steg 2 Som testvariabel väljer vi<br />
Z =<br />
X1 X2<br />
q<br />
p(1 p) 1 1<br />
n + n<br />
eftersom p1 = p2 = p. En skattning av p blir 28<br />
^pobs =<br />
1903 0:29 + 1903 0:32<br />
1903 + 1903<br />
Steg 3 Beslutsregeln erhålls ur ekvationen<br />
där 0:005 = 2:5758.<br />
= 0:305<br />
= 0:01 = P (förkasta H0 givet H0 sann)<br />
= P (jZj > =2)<br />
28 Likelihood funktionen blir, när p1 = p2 = p,<br />
L(p) = n1<br />
k pk (1 p) n1 k n2<br />
m pm (1 p) n2 m .<br />
Bestäm maximum för logaritmen av denna funktion varvid man …nner att<br />
k + m<br />
^p = =<br />
n1 + n2<br />
n1 k<br />
m<br />
+ n2 n1 n2<br />
n1 + n2<br />
= n1 ^p1 + n2 ^p2<br />
.<br />
n1 + n2<br />
c Mikael Möller
216 8.10. Lösningar till uppgifter<br />
Steg 4 Vi …nner att<br />
0:29 0:32<br />
Zobs = q<br />
1 1<br />
0:305(1 0:305) 1903 + 1903<br />
= 2:01<br />
och eftersom j 2:01j < 2:5758 förkastas ej nollhypotesen på signi-<br />
…kansnivån 1 procent.<br />
Moderaterna:s andel av väljarkåren är densamma som Socialdemokraterna:s.<br />
Observera att denna slutsats strider mot den föregående slutsatsen. Hur<br />
förklarar du det?<br />
29 Styrkefunktionen kan här skrivas<br />
f ( ) = P<br />
= 1 P<br />
X 60<br />
= p n<br />
X 60<br />
= p n<br />
= 1 P 2:576<br />
= 1 P 2:576<br />
= 1 P 2:576<br />
= 1 2:576<br />
= 1 2:576<br />
> 2:576 när det sanna värdet är<br />
2:576 när det sanna värdet är<br />
X 60<br />
= p n<br />
2:576<br />
X + 60<br />
= p n<br />
60<br />
= p n<br />
60<br />
= p n<br />
60<br />
= p n<br />
X<br />
= p n<br />
2:576<br />
+ 2:576<br />
2:576<br />
60<br />
2:576<br />
= p n<br />
60<br />
= p n<br />
60<br />
= p n<br />
Om vi nu stoppar in = 0:7 och n = 100 så erhålls den funktion som<br />
är skisserad i …guren nedan. Observera att dess minimum ligger precis<br />
0:005 över -axeln (även om det kan vara svårt att se).<br />
c Mikael Möller
9. Linjär regression –<br />
enkel<br />
217
218<br />
c Mikael Möller
10. Linjär regression –<br />
multipel<br />
219
220<br />
c Mikael Möller
11. Icke linjär regresion<br />
221
222<br />
c Mikael Möller
12. Logistisk regression<br />
Logistisk regression är en statistisk analysmetod för att dels utröna<br />
vilka förklarande variabler (x1; x2; : : : ; xm) som signi…kant påverkar en<br />
diskret svarsvariabel (Y , som endast antar värdena 0 eller 1) och dels<br />
göra förutsägelser på svarsvariabeln för en given uppsättning förklarande<br />
variabler. För svarsvariabelns väntevärde ansätts<br />
E( Y j x1; x2; : : : ; xm ) = p(x1; x2; : : : ; xm)<br />
d v s att väntevärdet är någon funktion, en sannolikhet, av de förklarande<br />
variablerna (x1; x2; : : : ; xm). De förklarande variablerna kan här vara<br />
kontinuerliga och/eller diskreta. Om vi antar att funktionen är linjär,<br />
d v s att vi har en multipel linjär regression, så gäller<br />
p(x1; x2; : : : ; xm) = 0 + 1x1 + + mxm,<br />
men de mätfel som görs vid denna modell är ej normalfördelade och ej<br />
heller har mätfelen konstant varians –hela teorin för linjär regression<br />
bryter samman. Därför måste vi ta fram en speciell teori för dylika<br />
svarsvariabler/modeller en teori där p(x1; x2; : : : ; xm) är en sannolikhet.<br />
12.1 När är logistisk regression användbart<br />
Låt oss börja med att betrakta tre exempel där logistisk regression är<br />
lämplig att använda.<br />
Exempel 60 I en programmeringstävling ingick bland annat att konstruera<br />
en algoritm som på en given tid skulle lösa ett givet problem.<br />
Deltagarna hade en på förhand bestämd tid på sig att lösa problemet och<br />
beroende på deras resultat klassades de som 1 (löst uppgiften) respektive<br />
0 (ej löst uppgiften). Över deltagarna …nns en förteckning över deras<br />
meriter och däribland antalet månader som de arbetat med programmering.<br />
Frågan är nu om programmerarens erfarenhet spelar någon roll för<br />
dennes förmåga att lösa uppgiften. Denna fråga kan i vårt statistiska<br />
språk uttryckas som: beror P (Y = 1) av den oberoende variabeln x =<br />
erfarenhet? När tävlingen var klar erhölls följande tabell över de 19<br />
deltagarna. I tabellen står S (1) för att programmeraren lyckades lösa<br />
uppgiften och F (0) för motsatsen:<br />
223
224 12.1. När är logistisk regression användbart<br />
Tabell 12.1: Resultattabell för programmeringstävlingen.<br />
Programmerare 1 2 3 4 5 6 7 8 9 10<br />
Erfarenhet 14 29 6 25 18 4 8 12 22 28<br />
Resultat F F F S S F S F S S<br />
Programmerare 11 12 13 14 15 16 17 18 19<br />
Erfarenhet 30 11 19 5 20 13 9 32 24<br />
Resultat S F F F S F F S F<br />
Den modell vi här ansätter är<br />
Yi = p(xi) + i<br />
i = 1; 2; : : : ; 25,<br />
där Yi = 1 om programmerare i lyckats lösa uppgiften och 0 annars. Den<br />
förklarande variabeln, xi, är här antalet månaders programmeringserfarenhet.<br />
1,2<br />
1,0<br />
0,8<br />
0,6<br />
0,4<br />
0,2<br />
0,0<br />
0,2<br />
0 5 10 15 20 25 30 35<br />
Figur 12.1: Programmerare som löser en uppgift (1 = lyckas och 0 =<br />
misslyckas)<br />
När vi ovan ritar en bild av svarsvariabeln, Y , som funktion av den<br />
förklarande variabeln, x, så blir bilden rätt intensägande ty vi erhåller<br />
endast två linjer av punkter. Där …nns ingen uppenbar information om<br />
det vi är ute efter – sannolikheten p(x) = E( Y j x ). Detta gör den<br />
logistiska regressionen mindre intuitiv än den linjära regressionen där<br />
punkterna ansluter sig till E( Y j x ).<br />
Ett möjligt användningsområde kan vara en person som anställer programmerare<br />
och som med hjälp av denna modell fattar beslut om anställning<br />
(1) eller ej (0). Självklart räcker det ej med en enda förklarande<br />
c Mikael Möller
12. Logistisk regression 225<br />
variabel, vilket data också ger uttryck för, ty programmerare 7 har endast<br />
8 månaders erfarenhet men lyckas ändock lösa uppgiften på stipulerad tid<br />
men programmerare 2 har 29 månaders erfarenhet och misslyckas.<br />
I ovanstående exempel fanns endast en mätning per x-värde och vi säger<br />
då att data är ogrupperade. Om vi hade haft ‡era programmerare med<br />
samma erfarenhet så säges data vara grupperade. För att illustrera grupperade<br />
data byter vi dock till nedanstående exempel.<br />
Exempel 61 ICA sänder ut rabattkuponger till 1000 hushåll. Av dessa<br />
rabattkuponger fanns det 200 av varje av 2, 4, 6, 8 och 10 procents rabatt.<br />
Rabatten gällde vid ett och samma köptillfälle av en speciell vara.<br />
Svarsvariabeln Y är 1 (Ja) om hushållet använt rabattkupongen och 0<br />
(Nej) annars.<br />
Tabell 12.2: Använda rabattkuponger<br />
Rabatt Hushåll Använt<br />
2 32 1<br />
4 51 1<br />
6 70 1<br />
8 103 1<br />
10 148 1<br />
2 168 0<br />
4 149 0<br />
6 130 0<br />
8 97 0<br />
10 52 0<br />
Eftersom det kostar pengar att göra utskick samt ge rabatt måste ett<br />
tillräckligt stort antal kuponger användas för att det skall bli lönsamt.<br />
Därför önskar ICA hitta en optimal rabattsats och ett delsvar är att<br />
…nna en skattning på andelen kunder som verkligen utnyttjar rabatten.<br />
Om vi plottar data i en …gur erhålls …gur 12.2 på sid 226. Observera<br />
att varje punkt i denna …gur består av ‡era observationer. <strong>Till</strong> exempel<br />
består observation (2; 1) av 32 observationer och observation (10; 0) av<br />
52 observationer. Den modell vi här ansätter blir därför en utvidgning<br />
av modellen i exempel 60:<br />
Yi;j = p(xi) + i;j i = 1; 2; 3; 4; 5 j = 1; 2; : : : ; 200,<br />
där Yi;j = 1 (Ja) om det j:te av de hushåll som …ck rabatten xi har<br />
utnyttjat rabatten och 0 (Nej) om de ej utnyttjat rabatten. Den förklarande<br />
variabeln, xi, är rabattens storlek och till varje storlek …nns en<br />
c Mikael Möller
226 12.1. När är logistisk regression användbart<br />
studerad grupp om totalt 200 hushåll. Eftersom vi har ‡er observationer<br />
1,2<br />
1,0<br />
0,8<br />
0,6<br />
0,4<br />
0,2<br />
0,0<br />
0,2<br />
2 4 6 8 10<br />
Figur 12.2: Rabattkuponger<br />
per rabattsats har vi också ritat in de skattade värdena av proportionen<br />
använda rabattkuponger (punkterna ) vid rabattsatsen xi d v s<br />
^p(2) = 32<br />
148<br />
; ; ^p(10) =<br />
200 200 .<br />
Vi avslutar med ett exempel inom bankväsendet som troligen återigen<br />
kommer att bli högaktuellt.<br />
Exempel 62 Försäkringssparbanken säljer bostadslån till enskilda hushåll.<br />
För att skydda sig mot eventuella obehagligheter och därmed hålla<br />
kreditförlusterna nere avkrävs varje låntagare uppgifter om tidigare betalningsinställelser,<br />
aktuell årsinkomst (medelvärdet av de senaste 5 åren),<br />
aktuell förmögenhet (ej fastigheter) m m. Efter 5 år har man dessutom<br />
noteringar över vilka lån där låntagaren någon gång under perioden haft<br />
problem med att amortera och/eller betala räntorna. Utifrån dessa noteringar<br />
har man bland annat framställt tabellen 12.3 på sid 227. Den<br />
modell vi här ansätter är densamma som i exempel 61 men med den<br />
skillnaden att vi har en variabel gruppstorlek:<br />
Yi;j = p(xi) + i;j i = 1; 2; 3; : : : ; 11; j = 1; 2; : : : ; ni,<br />
där Yi;j är 1 (Ja) om det j:te lånet vid årsinkomst xi ej har amorterats<br />
enligt plan och 0 (Nej) annars. Den förklarande variabeln, xi, är här<br />
c Mikael Möller
12. Logistisk regression 227<br />
årsinkomstens storlek och till varje årsinkomst; xi, …nns en grupp om ni<br />
lån.<br />
Tabell 12.3: Resultat beviljade bostadslån.<br />
Problemlån Ej problemlån<br />
Inkomst Problem Antal lån Problem Antal lån<br />
0 0 567 1 183<br />
25 0 32 1 8<br />
75 0 70 1 20<br />
125 0 218 1 32<br />
175 0 788 1 48<br />
225 0 1329 1 81<br />
275 0 1289 1 31<br />
350 0 996 1 24<br />
450 0 227 1 3<br />
600 0 150 1 0<br />
850 0 79 1 1<br />
Om vi plottar data i en …gur erhålls …gur 12.3 och även i denna …gur<br />
består varje punkt av ‡era observationer.<strong>Till</strong> exempel består observation<br />
(0; 1) av 183 lån med problem och observation (850; 0) av 79 lån utan<br />
problem. Vi har även här ritat in de skattade proportionerna (punkterna<br />
). Vi får här en kurva som avtar mot 0 till skillnad från kurvan i<br />
1,2<br />
1,0<br />
0,8<br />
0,6<br />
0,4<br />
0,2<br />
0,0<br />
0,2<br />
100 0 100 200 300 400 500 600 700 800 900<br />
Figur 12.3: Bostadslån<br />
föregående exempel som växte mot 1. Om vi istället valt att betrakta de<br />
c Mikael Möller
228 12.2. Hur ser p(x1; : : : ; xm) ut<br />
problemfria lånen så kommer vi tillbaks till en kurva som växer mot 1.<br />
Nu låter sig inte betalningsförmågan beskrivas med ett så enkelt mått som<br />
årsinkomsten utan man bör även ta till vara andra möjliga förklarande<br />
variabler som förmögenhet, kön, ålder, och tidigare betalningsanmärkningar.<br />
Gör man detta erhålls istället den mer allmäna modellen<br />
Yi;j = p(x1;i; : : : ; xm;i) + i;j i = 1; 2; : : : ; 11, j = 1; 2; : : : ; ni,<br />
där antalet förklarande variabler är m. Av de tidigare 5 uppräknade<br />
förklarande variablerna är inkomst, förmögenhet och ålder kontinuerliga<br />
och kön (Man/Kvinna) samt betalningsanmärkningar (Ja/Nej) diskreta.<br />
Ett användningsområde är att för en låneansökan bestämma om ett lånesökande<br />
hushåll skall få ett bostadslån eller ej.<br />
Innan vi går vidare med ovanstående tre exempel behöver vi utreda<br />
strukturen hos väntevärdet<br />
E( Y j x1; x2; : : : ; xm ) = p(x1; x2; : : : ; xm).<br />
12.2 Hur ser p(x1; : : : ; xm) ut<br />
I de exempel som getts framgår att E( Y j x ) för varje värde på x är<br />
en sannolikhet samt att när x växer så växer denna sannolikhet mot 1<br />
och när x avtar så avtar sannolikheten mot 0 (tvärtom gäller i exempel<br />
62). I exempel 60 gäller ju att den som inte har någon programmeringserfarenhet<br />
överhuvudtaget har sannolikheten 0 att kunna klara av<br />
uppgiften på stipulerad tid. Omvänt bör en mycket erfaren programmerare<br />
ha en sannolikhet nära 1 för att klara uppgiften. Strukturen hos<br />
p(x) bör därför ha formen av en fördelningsfunktion (eller en spegelvänd<br />
sådan som i exempel 62).<br />
I avsnitt 12.2.1 tar vi fram denna sannolikhet med hjälp av en spelbetraktelse<br />
(odds) och i avsnitt 12.2.1 med hjälp av en populationsbetraktelse.<br />
12.2.1 Logistisk regressionsmodell via odds<br />
För att …nna ett uttryck för E( Y j x ) skall vi betrakta begreppet odds.<br />
Detta är ett typiskt spelbegrepp och välkänt bland alla hasardspelare.<br />
Låt oss därför resonera som en sådan: Bakom en skärm …nns en person<br />
(man eller kvinna) och om denna person får du veta dennes längd, x,<br />
och utifrån denna information skall du gissa på kön. Oddset för att gissa<br />
c Mikael Möller
12. Logistisk regression 229<br />
rätt de…nieras av<br />
odds =<br />
antal kvinnor av längd x<br />
antal män av längd x<br />
och anses vara känt (det mesta …nns registrerat i Sverige så varför inte<br />
en uppdelning på längd). Begreppet odds låter sig nu uttryckas i sannolikhetsteoretiska<br />
termer ty vi kan dividera med ’antal personer av längd<br />
x’varvid<br />
odds =<br />
antal kvinnor av längd x<br />
antal personer av längd x<br />
antal män av längd x<br />
antal personer av längd x<br />
= p(x)<br />
1 p(x)<br />
=<br />
1<br />
antal kvinnor av längd x<br />
antal personer av längd x<br />
antal kvinnor av längd x<br />
antal personer av längd x<br />
där vi de…nierat<br />
antal kvinnor av längd x<br />
p(x) = = proportionen kvinnor av längd x.<br />
antal personer av längd x<br />
Antag att proportionen kvinnor av längd 185 cm är 0:1. Oddset för en<br />
kvinna, om vi får veta att längden är x = 185, är då<br />
oddsk = 0:1 1<br />
= = 1 till 9<br />
0:9 9<br />
och motsvarande odds för en man blir<br />
oddsm = 0:9 9<br />
= = 9 till 1.<br />
0:1 1<br />
Vi ser genast följande mycket enkla samband<br />
1<br />
odds för kvinna =<br />
odds för man<br />
d v s att ’odds för kvinna’ ’odds för man’= 1. Men eftersom det traditionellt<br />
är enklare att räkna med + och än med och och vi<br />
dessutom strävar mot enkla modeller (på något sätt vill vi ha en linjär<br />
modell) så logaritmerar vi oddset (då blir nämligen<br />
enligt logaritmlagarna<br />
+ och ) och<br />
1 har vi<br />
ln(odds för kvinna) = ln(odds för man).<br />
Med hjälp av den ovan införda sannolikheten p(x) kan denna senare<br />
ekvation även formuleras som<br />
ln<br />
p(x)<br />
1 p(x)<br />
= ln 1 p(x)<br />
p(x)<br />
1 Enligt det matematiska språket skall ln uttydas som den naturliga logaritmen<br />
d v s basen är det naturliga talet e = 2: 718 3.<br />
.<br />
c Mikael Möller
230 12.2. Hur ser p(x1; : : : ; xm) ut<br />
Approximation av odds<br />
Ovan införde vi begreppet odds samt dess logaritm 2 för att komma fram<br />
till ett förslag på utseendet hos E( Y j x ). Eftersom hela vitsen med logaritmeringen<br />
var att ersätta alla med + och alla med så approximerar<br />
vi det logaritmerade värdet av ln(odds) med ett linjärt uttryck 3<br />
d v s vi sätter<br />
ln<br />
p(x)<br />
1 p(x) = 0 + 1x.<br />
Vårt nästa steg är att hitta ett uttryck för p(x) och studera vilka egenskaper<br />
detta p(x) har. Först några standardomskrivningar<br />
ln<br />
p(x)<br />
1 p(x) = 0 + 1x<br />
p(x)<br />
= e 0+ 1x<br />
1 p(x)<br />
p(x) = 1 p(x) e 0+ 1x .<br />
Ur den sista ekvationen löses sannolikheten, p(x), till<br />
p(x) =<br />
e 0+ 1x<br />
=<br />
1 + e 0+ 1x<br />
1<br />
1 + e 0 1x .<br />
Låt oss se om detta uttryck på p(x) = E( Y j x ) uppfyller kraven på en<br />
sannolikhet. Notera att parametern 0:s tecken är ointressant eftersom<br />
e 0 är en positiv konstant oavsett värdet på 0.<br />
Antag först att parametern 1 är positiv. Vi ser då att p( 1) = 0<br />
och p(1) = 1 samt att alla tal mellan 0 och 1 antas men inga andra.<br />
Antag nu att parametern 1 är negativ. Vi ser då att p( 1) = 1<br />
och p(1) = 0 samt att alla tal mellan 0 och 1 antas men inga andra.<br />
Det gäller därför att det funna uttrycket<br />
p(x) =<br />
1<br />
1 + e 0 1x<br />
2 Det …nns andra logaritmer än ln som t ex log som står för 10-logaritmen vilken<br />
använder sig av basen 10. Denna var före räknedosornas tid rätt populär men har<br />
förlorat i in‡ytande ty den ställer till problem i många sammanhang. Man måste<br />
dras med en irriterande konstant.<br />
3 Eftersom linjära modeller är linjära i sina parametrar kan vi om så krävs<br />
ansätta modellen<br />
p(x)<br />
ln<br />
1 p(x) = + 1x + + kx k<br />
och därmed erhålla godtycklig noggranhet.<br />
c Mikael Möller
12. Logistisk regression 231<br />
uppträder som en sannolikhet. I …gur 12.4 ges hur denna sannolikhet<br />
beror av x för några olika värden på parametrarna 0 och 1.<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
1<br />
0<br />
1 2 3 4 5 6<br />
p(x) =<br />
e 4+2x<br />
1+e 4+2x<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
2 1<br />
0<br />
1 2 3 4 5<br />
p(x) =<br />
e4<br />
2x<br />
1+e4 2x<br />
Figur 12.4: Två sannolikhetsmodeller som kan genereras med den föreslagna<br />
metoden.<br />
Jämför dessa två möjliga utseenden med …gur 61 på sid 225 och …gur<br />
62 på sid 226. Vi ser att …gur 61 liknar den vänstra …guren ovan och<br />
…gur 62 liknar den högra (eller snarare delar av dessa).<br />
12.2.2 Logistisk regressionsmodell via tillväxtmodell<br />
När vi i föregående avsnitt tog fram väntevärdet för vår responsvariabel<br />
införde vi en approximation för logaritmen av oddset och det är något<br />
otillfredsställande. Här skall vi göra en annan härledning av väntevärdet.<br />
Nu baserat på tillväxten av en populationsmodell. Detta avsnitt kräver<br />
kunskap om di¤erentialekvationer och integraler och vänder sig därför<br />
endast till de läsare som har dessa kunskaper. Innehållet i detta avsnitt<br />
kommer ej behövas längre fram och det kan därför hoppas över.<br />
Modell<br />
Vi skall betrakta en population (rabattkuponger, människor, tävlande<br />
m m) och studera hur den tillväxer under vissa naturliga antaganden som<br />
t ex begränsat livsutrymme.<br />
Sätt<br />
Y (t) = en populations storlek vid tidpunkt t<br />
och vi intresserar oss för populationens storlek vid tidpunkten t + dt. En<br />
c Mikael Möller
232 12.2. Hur ser p(x1; : : : ; xm) ut<br />
första approximation av Y (t + dt) kan nu skrivas<br />
Y (t + dt) = Y (t) + Y (t) dt<br />
där dt är ett litet tidsavsnitt. I ord blir detta att populationens storlek<br />
vid tidpunkt t + dt är först populationens storlek vid tidpunkt t plus en<br />
ökning/minskning av populationen som är proportionell mot en universiell<br />
konstant och tidsavsnittet dt. Det verkar rimligt att ju kortare<br />
tidsavsnitt desto mindre ökning och vice versa.<br />
Denna ekvation kan skrivas om till<br />
Y (t + dt) Y (t)<br />
dt<br />
= Y (t)<br />
och om vi låter dt ! 0 så går vänstra ledet mot derivatan av Y (t) d v s<br />
vi har<br />
dY (t)<br />
<strong>Till</strong>växten = = Y (t) .<br />
dt<br />
Detta är en di¤erentialekvation och den har lösningen<br />
Y (t) = e<br />
som tyvärr leder till orimligheter –en population kan inte växa obegränsat.<br />
Antag därför att dess största möjliga storlek är N (t ex kan inte<br />
jordens befolkning bli hur stor som helst). Detta rimliga antagande gör<br />
att vi kan införa en begränsningsfaktor N Y (t). Om vi dessutom delar<br />
faktorn med N d v s vi betraktar kvoten<br />
N Y (t)<br />
N<br />
+ t<br />
0 Y (t) N<br />
så får vi en faktor som ligger mellan 0 och 1 (här får av naturliga skäl<br />
Y (t) bara anta värden mellan 0 och N). Detta leder oss till en modi-<br />
…erade di¤erentialekvation för tillväxten:<br />
dY (t)<br />
<strong>Till</strong>växten = =<br />
dt<br />
N<br />
Y (t)<br />
Y (t)<br />
N<br />
= Y (t) 1<br />
Y (t)<br />
N<br />
.<br />
Om båda leden delas med N erhålls<br />
c Mikael Möller<br />
Y (t)<br />
d N<br />
dt<br />
= Y (t)<br />
N<br />
1<br />
Y (t)<br />
N
12. Logistisk regression 233<br />
och vi betraktar<br />
Y (t)<br />
p (t) =<br />
N<br />
som den möjliga proportionen. Ekvationen för denna proportion blir<br />
dp (t)<br />
dt<br />
= p (t) 1 p (t) .<br />
Denna ekvation kan lösas medelst separering (separabel di¤erentialekvation)<br />
Z<br />
dp (t)<br />
p (t) 1 p (t) =<br />
Z<br />
dt<br />
Högra ledet blir Z<br />
och vänstra ledet blir<br />
Z<br />
V L =<br />
varför<br />
Z<br />
=<br />
dt = + t<br />
dp (t)<br />
p (t) 1 p (t)<br />
1<br />
p (t)<br />
1<br />
1 p (t)<br />
= ln p (t) ln (1 p (t))<br />
= ln<br />
ln<br />
p (t)<br />
1 p (t)<br />
p (t)<br />
= + t.<br />
1 p (t)<br />
Om vi löser ut p (t) i denna ekvation så erhålls<br />
p (t) =<br />
1<br />
1 + e<br />
t<br />
dp (t)<br />
vilket stämmer bra med tidigare resultat. Det är således införandet av<br />
en övre gräns som ger väntevärdet dess karakteristiska form.<br />
12.3 Hur bestäms parametrarna 0 och 1<br />
Vi har nu gett en möjlig beskrivning av väntevärdet, E( Y j x ), för<br />
svarsvariabeln (Y = 0 eller 1) och visat att detta värde ligger mellan<br />
0 och 1. Det återstår att …nna en metod för att skatta de i modellen<br />
c Mikael Möller
234 12.3. Hur bestäms parametrarna 0 och 1<br />
ingående parametrarna 0 och 1. Vi ställer därför frågan: Finns det<br />
någon metod att skatta parametrarna 0 och 1 i den logistiska regressionsmodellen<br />
Yi =<br />
1<br />
1 + e 0 1xi + i i = 1; 2; : : : ; n<br />
där i är generaliserat Bernoullifördelade. Svaret på denna fråga är att<br />
en sådan metod …nns –Maximum Likelihoodmetoden. Denna metod går<br />
ut på att man bestämmer parametrarna 0 och 1 så att sannolikheten<br />
för det utfall man fått blir så sannolikt som möjligt. 4 Vi har därför att<br />
maximera funktionen<br />
L( 0; 1) = P (Y1 = y1; Y2 = y2; : : : ; Yn = yn : 0; 1)<br />
med avseende på 0 och 1. Här beskriver talen y1; y2; : : : ; yn det utfall<br />
(de observationer) som vi …ck, t ex utfallet 0; 1; 0; : : : ; 1. Men eftersom<br />
vi har oberoende observationer kan denna funktion skrivas<br />
L( 0; 1) = P (Y1 = y1 : 0; 1) P (Yn = yn : 0; 1)<br />
nY<br />
= P (Yi = yi : 0; 1)<br />
i=1<br />
och vi behöver därför endast bestämma P (Yi = yi : 0; 1). Det gäller nu<br />
att Yi är Bernoullifördelad med sannolikheten pi = p(xi) för att ’lyckas’<br />
varför<br />
P (Yi = yi : 0; 1) = p yi<br />
i (1 pi) 1 yi ; yi = 0; 1<br />
(inses om man först sätter yi = 1 och sedan 0). Men<br />
varför<br />
P (Yi = yi : 0; 1) =<br />
=<br />
pi =<br />
1<br />
1 + e 0 1xi<br />
1<br />
1 + e 0 1xi<br />
1<br />
1 + e 0 1xi<br />
yi<br />
yi<br />
1<br />
1<br />
1 + e 0 1xi<br />
e 0 1xi<br />
1 + e 0 1xi<br />
1 yi<br />
1 yi<br />
4 Den mer generella modellen med m parametrar och ni observationer per grupp<br />
tillför inget nytt utan ger endast mer komplicerade uttryck.<br />
c Mikael Möller<br />
.
12. Logistisk regression 235<br />
Eftersom vi alltid kan numrera om data så är det ingen inskränkning att<br />
anta att de första n1 mätningarna ger resultatet 1 och de övriga n n1<br />
resultatet 0. Vi antar därför att<br />
Y1 = Y2 = = Yn1 = 1 och Yn1+1 = Yn1+2 = = Yn = 0.<br />
Denna omnumrering ger oss slutligen följande mer hanterbara uttryck på<br />
likelihoodfunktionen (observera att n1 = Pn i=1 yi varför observationerna<br />
yi ingår i funktionen)<br />
L( 0; 1) =<br />
=<br />
n1 Y<br />
i=1<br />
1<br />
1 + e 0 1xi<br />
n1 Y<br />
e<br />
i=1<br />
nY<br />
(1 + e<br />
i=1<br />
0+ 1xi<br />
0+ 1xi)<br />
.<br />
nY<br />
i=n1+1<br />
e 0 1xi<br />
1 + e 0 1xi<br />
För att …nna maximum av funktionen L( 0; 1) gissar man lämpliga<br />
startvärden på 0 och 1 och medelst en iterationsteknik genererar man<br />
i varje iteration nya värden 0 och 1. Förfarandet avslutas när tillräcklig<br />
noggrannhet uppnåtts. 5<br />
12.3.1 För att summera och generalisera<br />
I vår summering betraktar vi den mer allmänna modellen som har m<br />
förklarande variabler x1; x2; : : : ; xm ty det innebär egentligen ingen extra<br />
svårighet (tänk igenom de olika stegen ovan med m förklarande variabler<br />
istället för med en). Vi gör nu följande de…nition:<br />
De…nition 48 (av logistisk regression.) Logistisk regression är en statistisk<br />
analysmetod för att kunna göra förutsägelser på en diskret svarsvariabel<br />
Y , som endast antar värdena 0 eller 1. Dess väntevärde de…nieras<br />
av<br />
E( Y j x1; x2; : : : ; xm ) =<br />
1<br />
1 + e 0 1x1 2x2 mxm .<br />
De förklarande variablerna x1; x2; : : : ; xm kan vara kontinuerliga eller<br />
diskreta.<br />
5 Likelihoodfunktionens komplicerade utseende gör att man måste förlita sig på<br />
något statistiskt program.<br />
c Mikael Möller
236 12.4. <strong>Till</strong>baks till exemplen<br />
Den logistiska regressionsmodellen för en förklarande variabel, xi, skrivs<br />
Yi =<br />
1<br />
1 + e 0 1xi + i i = 1; 2; : : : ; n,<br />
där i; i = 1; 2; : : : ; n är n oberoende generaliserat Bernoullifördelade<br />
variabler för vilka det gäller att<br />
P ( i = e) = pi om e = 1 pi<br />
1 pi om e = pi.<br />
Denna regressionsmodell används när svarsvariabeln endast antar två<br />
värden och man dels vill förstå vilka av de förklarande variabler (given<br />
information) som signi…kant påverkar mätresultatet och dels när man<br />
vill göra prognoser.<br />
12.4 <strong>Till</strong>baks till exemplen<br />
Vi skall nu åter betrakta exemplen från avsnitt 12.1.<br />
Exempel 63 I en programmeringstävling ingick bland annat att konstruera<br />
en algoritm som på en given tid skulle lösa ett givet problem.<br />
Deltagarna hade en på förhand bestämd tid på sig att lösa problemet och<br />
beroende på deras resultat klassades de som 1 (löst uppgiften) respektive<br />
0 (ej löst uppgiften). Över deltagarna …nns en förteckning över deras<br />
meriter och däribland antalet månader som de arbetat med programmering.<br />
Data …nns i tabell 12.1 sid 224. Frågan är nu om programmerarens<br />
erfarenhet spelar någon roll för dennes förmåga att lösa uppgiften samt<br />
vad är sannolikheten att en programmerare med 10 månaders erfarenhet<br />
löser uppgiften?<br />
Lösning 47 Sätt<br />
Yi =<br />
1<br />
1 + e 0 1xi + i i = 1; 2; : : : ; 25<br />
där Yi är 1 om programmeraren lyckats lösa uppgiften och 0 annars. Den<br />
förklarande variabeln, xi, är antalet månaders programmeringserfarenhet<br />
som programmeraren har och i:na är oberoende och generaliserat<br />
Bernoullifördelade mätfel. Givet data enligt tabell 12.1 så erhålls följande<br />
observerade skattningar av 0 och 1<br />
c Mikael Möller<br />
b0 = 3:05970 (1:25959)<br />
b1 = 0:16149 (0:065)
12. Logistisk regression 237<br />
med standardavvikelser angivna inom parentes. Detta ger den skattade<br />
sannolikheten (väntevärdet av Y ) vid 10 månaders programmeringserfarenhet<br />
till<br />
^p(10) =<br />
1<br />
= 0:191<br />
1 + e3:05970 0:16149 10<br />
Denna sannolikhet kan även erhållas ur …guren nedan. Eftersom vi bara<br />
1,2<br />
1,0<br />
0,8<br />
0,6<br />
0,4<br />
0,2<br />
0,0<br />
0,2<br />
0 5 10 15 20 25 30 35<br />
Figur 12.5: Programmering (forts).<br />
har en observation per punkt kan vi inte med data:s hjälp påvisa att<br />
modellen är rimlig. Den beskrivna situationen torde dock ge upphov till<br />
en skattad sannolikhet av denna typ.<br />
Exempel 64 ICA sänder ut rabattkuponger till 1000 hushåll. Av dessa<br />
rabattkuponger fanns det 200 av varje med 2, 4, 6, 8 och 10 procents<br />
rabatt. Rabatten gällde för ett och samma köptillfälle av en speciell vara.<br />
Data …nns i tabell 12.2 sid 225. Eftersom det kostar pengar att göra utskick<br />
samt ge rabatt måste ett tillräckligt stort antal kuponger användas för<br />
att det skall bli lönsamt. Därför önskar ICA hitta en optimal rabattsats<br />
och ett delsvar är att …nna en skattning på proportionen kunder som<br />
verkligen utnyttjar rabatten. För att ta igen förlorade marknadsandelar<br />
planerar man nu en rabattsats på 15 procent . Hur stor proportion av<br />
utdelade kuponger kan ICA förvänta sig blir inlösta?<br />
Lösning 48 Eftersom vi här har att göra med grupperade data med lika<br />
många observationer per grupp sätter vi<br />
Yi;j =<br />
1<br />
1 + e 0 1xi + i;j i = 2; 4; 6; 8; 10; j = 1; 2; : : : ; 200,<br />
c Mikael Möller
238 12.4. <strong>Till</strong>baks till exemplen<br />
där Yi;j är 1 om det j:te av de hushåll som …ck rabatten xi har utnyttjat<br />
rabatten och 0 annars. Den förklarande variabeln, xi, är rabattens storlek<br />
och till varje storlek …nns en studerad grupp om 200 hushåll. För mätfelen<br />
i gäller att de är oberoende och generaliserat Bernoullifördelade.<br />
Givet data enligt tabell 12.2 så erhålls följande observerade skattningar<br />
av 0 och 1<br />
b0 = 2:4531 (0:1891)<br />
b1 = 0:3305 (0:0271)<br />
med standardavvikelser inom parentes. Detta ger den skattade proportionen<br />
inlösta rabattkuponger (väntevärdet av Y ) vid rabattstorleken 15<br />
procent till<br />
^p(15) =<br />
1<br />
= 0:92<br />
1 + e2:4531 0:3305 15<br />
Denna sannolikhet kan även erhållas ur …guren nedan. I detta exempel<br />
1,2<br />
1,0<br />
0,8<br />
0,6<br />
0,4<br />
0,2<br />
0,0<br />
0,2<br />
2 4 6 8 10 12 14 16<br />
Figur 12.6: Rabattkuponger (forts).<br />
har vi ‡er observationer per xi och kan lokalt skatta p (xi) (punkterna<br />
). Vi ser att de så erhållna skattningarna väl ansluter till den angivna<br />
modellen.<br />
Exempel 65 Försäkringssparbanken ger bostadslån till enskilda hushåll.<br />
För att skydda sig mot eventuella obehagligheter och därmed hålla kreditförlusterna<br />
nere avkrävs varje låntagare uppgifter om tidigare betalningsinställelser,<br />
aktuell årsinkomst (medelvärdet av de senaste 5 åren),<br />
aktuell förmögenhet (ej fastigheter) m m. Vad är sannolikheten för att<br />
en kund med årsinkomst 150 000 kronor skall amortera enligt plan?<br />
c Mikael Möller
12. Logistisk regression 239<br />
Lösning 49 Eftersom vi här har att göra med grupperade data med olika<br />
antal observationer per grupp sätter vi<br />
Yi;j = p(xi) + i;j i = 1; 2; : : : ; 11 j = 1; 2; : : : ; ni,<br />
där Yi;j är 1 (Ja) om det j:te lånet vid årsinkomst xi ej har amorterats<br />
enligt plan och 0 (Nej) annars. Den förklarande variabeln, xi, är<br />
här årsinkomstens storlek och till varje årsinkomst; xi, …nns en grupp<br />
om ni lån. Givet data enligt tabell 12.3 så erhålls följande observerade<br />
skattningar av 0 och 1<br />
b0 = 1:1248 (0:0774)<br />
b1 = 0:0081 (0:0004)<br />
med standardavvikelser inom parentes. Detta ger den skattade sannolikheten<br />
till<br />
^p(150) =<br />
1<br />
= 0:088<br />
1 + e1:12481+0:0081 150<br />
Denna sannolikhet kan även erhållas ur …guren nedan. Även i detta ex-<br />
1,2<br />
1,0<br />
0,8<br />
0,6<br />
0,4<br />
0,2<br />
0,0<br />
0,2<br />
100 0 100 200 300 400 500 600 700 800 900 1000<br />
Figur 12.7: Bostadslån (forts).<br />
empel har vi ‡er observationer per xi och kan lokalt skatta p (xi). Punkterna<br />
ansluter sig även här till den antagna modellen.<br />
c Mikael Möller
240 12.5. Hur man tolkar parametrar<br />
12.5 Hur man tolkar parametrar<br />
Vid den linjära regressionsmodellen<br />
E( Y j x ) = 0 + 1x<br />
tolkas parametrarna 0 och 1 på följande sätt: 0 är linjens skärning<br />
med y-axeln (d v s när x = 0) och 1 är linjens lutning. Parametern 0<br />
har ingen annan tolkning än som y-värdet för x = 0. Men för parametern<br />
1 gäller att om Y är en persons vikt i kg och x en persons längd i cm<br />
så blir sorten för 1 kg/cm ty annars blir inte sorten för 1x mätt i<br />
kg. Om vi deriverar funktionen E( Y j x ) med avseende på x så erhålls<br />
ekvationen<br />
Denna kan även skrivas<br />
1 =<br />
dE( Y j x )<br />
.<br />
dx<br />
dE( Y j x ) = 1dx<br />
och dess tolkning är att en ökning av dx med 1 enhet ger en ökning i<br />
E ( Y j x ) med 1 enheter. Parametern 1 är därför en ökningsparameter<br />
–hur mycket vikten ökar per cm. Vad gäller nu för parametrarna vid en<br />
logistisk regression?<br />
För den logistiska regressionsmodellen gäller att<br />
ln<br />
E( Y j x )<br />
1 E( Y j x ) = 0 + 1x<br />
och eftersom vänstra ledet är en dimensionslös storhet följer att även<br />
det högra ledet måste vara dimensionslöst. Detta ger att parametern<br />
0 är dimensionslös samt att 1 har dimensionen 1/x:s enhet d v s om<br />
x är längd i cm så har 1 dimensionen 1/cm. Nu känns det inte riktigt<br />
naturligt att betrakta den naturliga logaritmen av odds:et så vi övergår<br />
till att betrakta sannolikheten<br />
E( Y j x ) =<br />
1<br />
1 + e 0 1x<br />
och skall för denna se vad parametrarna kan tolkas som.<br />
Om vi till att börja med sätter x = 0 så erhålls som tidigare skärningen<br />
med y-axeln och denna skärning sker för<br />
c Mikael Möller<br />
1<br />
E( Y j x ) =<br />
1 + e 0<br />
= e 0<br />
1 + e 0
12. Logistisk regression 241<br />
d v s om 0 > 0 och växer så ‡yttas grafen för p(x) = E( Y j x ) åt<br />
höger och tvärtom om 0 < 0 och avtar. För att …nna en tolkning av 1<br />
deriverar vi funktionen p(x) varvid<br />
dp (x)<br />
dx<br />
= dE( Y j x )<br />
dx<br />
= 1<br />
e 0 1x<br />
1 + e 0 1x 2<br />
vilket i denna form inte är något annat än ett komplicerat uttryck.<br />
Uppgift 31 Derivera funktionen<br />
med avseende på x.<br />
f(x) =<br />
1<br />
1 + e 0 1x<br />
Vi noterar dock att sannolikheten E ( Y j x ) ingår som en del av<br />
uttrycket:s högerled och leds därför till följande omskrivning (där vi<br />
använder knepet att lägga till 1 och dra ifrån 1):<br />
dE( Y j x )<br />
dx<br />
0 1 + e 1x 1<br />
= 1<br />
(1 + e 0 1x 2<br />
)<br />
= 1<br />
Men detta känns igen som<br />
dE( Y j x )<br />
dx<br />
1<br />
1 + e 0 1x<br />
1<br />
1 + e 0 1x<br />
2 !<br />
= 1E( Y j x ) 1 E( Y j x ) . (12.1)<br />
Derivatan av E( Y j x ) är därför parametern 1 multiplicerad med variansen<br />
för det mätfel vi gör. Nu gäller att denna varians är störst, 0:25,<br />
när p(x) = E( Y j x ) = 0:5 och att den avtar när p(x) närmar sig 0 eller<br />
1, i enlighet med …guren nedan<br />
Av detta följer att varje satsad enhet i x ger störst resultat när p(x)<br />
ligger nära 0:5 och ett litet resultat när p(x) ligger nära 0 eller 1.<br />
Formeln 12.1 kan även skrivas som<br />
dE( Y j x ) = 1p(x) 1 p(x) dx<br />
d v s att för varje ökning av dx med 1 enhet så beror ökningen i p(x) =<br />
E( Y j x ) på parametern 1 multiplicerad med variationen vid det givna<br />
värdet på x.<br />
.<br />
c Mikael Möller
242 12.6. Övningar<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
12.6 Övningar<br />
0<br />
0.2 0.4 0.6 0.8 1<br />
Figur 12.8: Variansen v(x) = p(x) (1 p(x)).<br />
En aktieanalytiker vill studera hur bokslutsinformation påverkar aktiekursen<br />
för olika aktier. Han studerar därför 40 olika bolag och jämför<br />
vinsten från bokslutskommunikén med vinstbedömningen strax före<br />
publiceringen. Han bildar sedan följande förklarande variabel<br />
x =<br />
verklig vinst per aktie prognosticerad vinst per aktie<br />
aktiens värde<br />
och noterar vilka bolag som haft kursuppgång (Y = 1) respektive kursnedgång<br />
(Y = 0). Dessa observationer ger upphov till följande datatabell<br />
Tabell 12.4: Köpa eller inte köpa?<br />
Y 1 1 1 1 1 1 1 1 1 1<br />
x 1:2 0:7 0:5 0:2 0:2 0:1 0:1 0 0 0:1<br />
Y 1 1 1 1 1 1 1 1 1 1<br />
x 0:1 0:2 0:3 0:5 0:5 0:6 0:8 0:8 0:8 0:9<br />
Y 1 1 1 1 1 1 1 0 0 0<br />
x 1:1 1:2 1:4 1:4 1:7 2:3 3:7 2:2 1:7 1:0<br />
Y 0 0 0 0 0 0 0 0 0 0<br />
x 0:6 0:2 0:1 0 0 0:3 0:4 0:8 1:4 1:4<br />
c Mikael Möller<br />
100
12. Logistisk regression 243<br />
Bilda en lämplig statistisk modell och skatta sannolikheten för en<br />
kursuppgång när x = 1? Är den utförda analysen tillförlitlig?<br />
där<br />
Sätt<br />
Y =<br />
1 om kursuppgång<br />
0 om kursnedgång<br />
E( Y j x ) =<br />
e 0+ 1x<br />
.<br />
1 + e 0+ 1x<br />
Parametrarna 0 och 1 skattas till (med standardavvikelser inom parentes)<br />
0obs = 0:56 (0; 36)<br />
1obs = 0:76 (0:41)<br />
och vi observerar att för båda parametrarna gäller att intervallen skattning<br />
två standardavvikelser innehåller 0. En plot av data ger …guren<br />
1,2<br />
1,0<br />
0,8<br />
0,6<br />
0,4<br />
0,2<br />
0,0<br />
0,2<br />
3 2 1 0 1 2 3 4<br />
Sannolikheten för kursuppgång<br />
E( Y j x = 1 ) =<br />
e0:56+0:76 1<br />
1 + e 0:56+0:76 1 0:79<br />
men på grund av att kon…densintervallen innehåller 0 är detta resultat<br />
mycket osäkert.<br />
Ett företag lanserar en ny produkt och satsar en miljon i veckan,<br />
under fyra veckor, i reklam. Man vill studera hur andelen i befolkningen<br />
som har hört talas om produkten växer med tiden och låter därför<br />
ett opinionsinstitut ringa upp, varje dag, ett slumpmässigt urval om 50<br />
c Mikael Möller
244 12.6. Övningar<br />
personer vilka tillfrågas om de känner till produkten eller ej. Genom att<br />
ansätta den logistiska regressionsmodellen med Y = 1 om den uppringda<br />
personen hört talas om produkten och 0 annars samt som förklarande<br />
variabel, x, använda antalet dagar som gått sedan introduktionen så erhålls<br />
parameterskattningarna 0 = 3:13 (0:18) och 1 = 0:308 (0:016)<br />
med standardavvikelser angivna inom parentes.<br />
1. Skissa det förväntade värdet d v s sannolikheten för att en slumpmässigt<br />
tillfrågad person skall känna till produkten.<br />
2. Efter hur många dagar känner halva befolkningen till produkten?<br />
Den logistiska regressionsmodellen ger:<br />
1. det förväntade värdet<br />
ger oss …guren<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
E( Y j x ) =<br />
e 3:13+0:308x<br />
1 + e 3:13+0:308x<br />
10 20 30<br />
2. Antalet dagar …nner vi genom att lösa ekvationen<br />
0:5 =<br />
Denna kan skrivas om till<br />
ln<br />
3:13+0:308x<br />
e<br />
.<br />
1 + e 3:13+0:308x<br />
0:5<br />
= 3:13 + 0:308x<br />
1 0:5<br />
och denna har lösningen x = 3:13<br />
0:308 = 10:162 d v s drygt 10 dagar.<br />
c Mikael Möller
12. Logistisk regression 245<br />
[forts]Om företaget i övning 12.6 är nöjda med att 80 procent av<br />
befolkningen känner till deras produkt hur många miljoner skall de satsa<br />
på reklam?<br />
Antalet dagar tills 80 procent av befolkningen känner till produkten<br />
erhålls ur<br />
ln<br />
0:8<br />
= 3:13 + 0:308x<br />
1 0:8<br />
x =<br />
och detta ger oss reklamkostnaden<br />
14:664<br />
ln 4 + 3:13<br />
0:308<br />
1 miljon<br />
7<br />
= 14:663<br />
= 2:1 miljoner<br />
En mäklare har fått en idé om att den logistiska regressionsmodellen<br />
kan användas för att bestämma sannolikheten för nedgång hos en aktie<br />
imorgon om denna aktie gått ned de föregående (k) dagarna. Mäklaren<br />
insamlade därför information, från A- och O-listan, om aktiers nedgångar<br />
under ett antal veckor och noterade vilka aktier som gått ned en dag,<br />
två dagar i följd, tre dagar i följd, fyra dagar i följd och fem dagar i följd.<br />
Därvid erhöll mäklaren nedanstående datatabell:<br />
Tabell 12.5: Sälja eller inte sälja<br />
Antal dagar A-listan O-listan<br />
med nedgång antal antal med antal antal med<br />
aktier nedgång aktier nedgång<br />
1 275 147 145 84<br />
2 148 83 83 59<br />
3 83 54 58 39<br />
4 54 25 39 25<br />
5 25 19 25 18<br />
Observera att aktier kan gå från O-listan till A-listan och tvärtom<br />
samt att de även kan lämna O-listan genom t ex konkurs eller annan<br />
ekonomisk händelse. T ex fanns det 147 aktier som gått ned två dagar i<br />
följd men ingångsvärdet är 148 och detta förklaras av att en aktie lämnat<br />
O-listan och gått över till A-listan. Om modellen är riktig uppskatta<br />
sannolikheten för att en aktie på<br />
1. A-listan som gått ned 10 dagar i sträck skall gå ned även den 11:e<br />
dagen.<br />
c Mikael Möller
246 12.6. Övningar<br />
2. O-listan som gått ned 10 dagar i sträck skall gå ned även den 11:e<br />
dagen.<br />
Sätt<br />
Y =<br />
och antag modellen<br />
0 om aktien går upp den följande dagen<br />
1 om aktien går ner den följande dagen<br />
Yij =<br />
e 0+ 1x1i+ 2x2i<br />
1 + e 0+ 1x1i+ 2x2i + ij<br />
där i = 1; 2; : : : ; 20 x1 = 1; 2; : : : ; 5 x2 = 0; 1 j = 1; 2; : : : ; ni och<br />
x1 = antal dagar aktien gått ned<br />
x2 =<br />
0 om aktien tillhör O-listan<br />
1 om aktien tillhör A-listan<br />
och är generaliserat binomialfördelad. Vi erhåller nu föjande observerade<br />
skattningar på parametrarna (med standardavvikelser inom parentes)<br />
De sökta sannolikheterna blir nu för<br />
1. A-listan<br />
E( Y j x1 = 10; x2 = 1 ) =<br />
2. O-listan<br />
E( Y j x1 = 10; x2 = 0 ) =<br />
0obs = 0:34949 (0:1639),<br />
1obs = 0:10840 (0:0562),<br />
2obs = 0:31955 (0:1399).<br />
10+0:31955 1<br />
e0:34949+0:1084<br />
= 0:85.<br />
1 + e0:34949+0:1084 10+0:31955 1<br />
10+0:31955 0<br />
e0:34949+0:1084<br />
= 0:81.<br />
1 + e0:34949+0:1084 10+0:31955 0<br />
6 Airbus använder sig vid konstruktionen av ‡ygplan av en typ av<br />
metallspännen vilka skall vara trycktåliga. Man är nu intresserade av<br />
att kunna förutsäga om ett spänne kan klara av ett på förhand givet<br />
tryck samt få ett mått på hur snabbt tryckkänsligheten ökar vid detta<br />
6 För att lösa detta tal behöver du en dator med lämplig statistisk programvara.<br />
c Mikael Möller
12. Logistisk regression 247<br />
tryck. Airbus testar därför ett stort antal spännen vid olika tryck med<br />
resultat enligt tabellen<br />
.<br />
Tabell 12.6: Metallspännens känslighet för tryck<br />
Tryck Antal testade Antal fel<br />
2500 50 10<br />
2700 70 17<br />
2900 100 30<br />
3100 60 21<br />
3300 40 18<br />
3500 85 43<br />
3700 90 54<br />
3900 50 33<br />
4100 80 60<br />
4300 65 51<br />
1. Sätt upp en lämplig statistisk modell.<br />
2. Skatta sannolikheten för att ett spänne ej klarar trycket 3000. För<br />
att få konvergens behöver du välja lämpliga värden på 0start och<br />
1start. 7<br />
Sätt<br />
Yi;j = p (xi) + i;j i = 1; 2; 3; : : : ; 10; j = 1; 2; : : : ; ni,<br />
där Yi;j är 0 (Nej) om det j:te spännet klarar trycket xi och 1 (Ja) om<br />
det ej klarar trycket. Den förklarande variabeln, xi, är här trycket och<br />
till varje tryck, xi, …nns en grupp om ni testade spännen.<br />
1. Som statistisk modell tar vi<br />
p (xi) =<br />
e 0+ 1x<br />
.<br />
1 + e 0+ 1x<br />
7 Sannolikt får du ej konvergens vid ditt första försök. Dock beror detta på pro-<br />
gramvaran.<br />
c Mikael Möller
248 12.6. Övningar<br />
2. För att få konvergens måste vi ange lämpliga startvärden på 0<br />
och 1. Dylika erhålls genom att t ex lösa ekvationssystemet<br />
eller alternativt<br />
e<br />
1 + e<br />
e<br />
1 + e<br />
0+ 1x<br />
0+ 1x = 0:2,<br />
0+ 1x<br />
0+ 1x = 0:24,<br />
0 + 2500 1 = log 0:2<br />
0:8 ,<br />
0 + 2700 1 = log 0:24<br />
0:76 .<br />
Man …nner att 0start = 4:3065 och 1start = 0:001168. Parametrarna<br />
0 och 1 skattas till<br />
0obs = 5:41081 (0:54511),<br />
1obs = 0:00157 (0:00016).<br />
där si¤rorna inom parentes anger standardavvikelsen. Den sökta<br />
sannolikheten blir<br />
c Mikael Möller<br />
p (3000) =<br />
e 5:41081+0:00157 3000<br />
1 + e 5:41081+0:00157 3000 0:332.
12. Logistisk regression 249<br />
12.7 Lösningar till uppgifter<br />
31 Vi använder oss av deriveringsformeln för en kvot och erhåller då<br />
df<br />
dx =<br />
d<br />
dx1 1 + e 0 1x d 1 dx 1 + e 0 1x<br />
1 + e 0 1x 2<br />
= 0 0 + ( 1) e 0 1x<br />
1 + e 0 1x 2<br />
= 1<br />
e 0 1x<br />
1 + e 0 1x 2<br />
c Mikael Möller
250 12.7. Lösningar till uppgifter<br />
c Mikael Möller
13. Tidsserier<br />
13.1 <strong>Introduktion</strong><br />
I ekonomiska sammanhang mäter man utfall på olika ekonomiska variabler<br />
vid olika tidpunkter. Dessa tidpunkter kan vara varje minut som<br />
vid en aktie:s värde under börsen:s öppehållande, antalet arbetslösa under<br />
en månad, BNP:s värde kvartalsvis o s v. Det som är gemensamt<br />
för alla dessa situationer är att man vill kunna förutsäga nästa värde<br />
som kommer att observeras. Den som kan förutsäga en akties pris blir<br />
rik, den som kan förutsäga antalet arbetslösa nästa månad kan vidtaga<br />
åtgärder för att minska detta antal och likaså om man kan förutsäga<br />
BNP:s utveckling så kan en förändring av …nanspolitiken dämpa eller<br />
förstärka konjunkturen:s rörelser.<br />
Men det är inte alltid som man är ute efter enbart en förutsägelse för<br />
ett kommande värde utan det kan även vara av intresse att förstå hur<br />
utvecklingen av en tidsserie uppför sig –för att t ex bekräfta ekonomiska<br />
modeller.<br />
Det alla dessa serier av data, tidsserier, har gemensamt är att de<br />
mäts i kronologisk ordning med ett och samma tidsavsnitt mellan mätningarna.<br />
Vi skall här närmare studera kronologiska data och börjar<br />
först med en allmän de…nition:<br />
De…nition 49 En tidsserie fytg t är en kronologisk följd av observationer<br />
på en stokastisk variabel Y .<br />
Självklart måste vi, för att kunna göra kvantitativa uttalanden, lägga<br />
på någon form av struktur på dylika serier. Men vi skall börja med<br />
metoder som arbetar utan restriktioner på data –glidande medelvärden.<br />
Därefter går vi över till att betrakta komponentmodeller där<br />
komponenterna kan tas fram med hjälp av glidande medelvärden. 1<br />
I nästa steg tittar vi på utjämningsmodeller. De modeller som vi<br />
skall titta på är lägesmodellen exponentiell utjämning och läges- och<br />
riktningsmodellen Holt. Den förra är bra för att skatta ett väntevärde<br />
som förändrar sig långsamt i tiden och den senare för att skatta ett<br />
väntevärde som förändrar sig enligt ’en styckvis linjär’ kurva. Denna<br />
1 Observera att även regressionsmodeller kan vara användbara vid uppskattandet<br />
av en tidsseries komponenter.<br />
251
252 13.2. Glidande medelvärden<br />
typ av modeller kan också behandla periodociteter men vi lämnar denna<br />
komplikation därhän.<br />
Vi avslutar sedan med att införa vissa restriktioner på tidsserien och<br />
inför en typ av modeller där tidsseriens kovariansstruktur skall vara konstant<br />
och dess residualer skall var normalfördelade. Denna typ av modeller<br />
kallas ARMA (AutoRegressiva-MovingAverage modeller) och de<br />
är ofta utgångspunkten för mer ingående studier av …nansiella tidsserier.<br />
13.2 Glidande medelvärden<br />
För att …nna ett medelvärde över ett år kan man t ex ta och lägga ihop<br />
kvartalsdata och dela med 4 eller månadsdata och dela med 12 eller mer<br />
generellt så bildar vi medelvärdet<br />
X<br />
yt;k = 1<br />
t+k 1<br />
k<br />
i=t<br />
yi, t = 1; 2; : : : ; n k + 1<br />
för något k (k = 4 eller 12 ovan) och beräknar yt;k för t = 1; 2; : : : ; n<br />
n k+1<br />
k + 1. Därvid erhålls den nya serien fyt;kgt=1 och denna kan sedan<br />
n k+1<br />
jämföras med den ursprungliga serien fytgt=1 . Observera att vi har<br />
ingen möjlighet att …nna värdet på yn k+1;k innan vi har mätt värdet<br />
yn+1. Denna typ av medelvärden kallas glidande medelvärden ty när t<br />
växer så ’glider’ yt;k med. Nu är denna typ av glidande medelvärden<br />
onödigt begränsade och om man gör observationen att<br />
yt;k =<br />
t+k X1<br />
i=t<br />
1<br />
k yi<br />
inser man att vi lika gärna kan ha en serie av k vikter faig i=1;2;:::;k .<br />
Detta medför ingen ytterligare svårighet och vi betraktar därför det mer<br />
generella glidande medelvärdet<br />
yt;k =<br />
t+k X1<br />
i=t<br />
ai t+1yi =<br />
kX<br />
i=1<br />
aiyt+i 1<br />
där P k<br />
i=1 ai = 1 2 . Frågan är nu vilka egenskaper dylika glidande medelvärden<br />
har och vi skall börja med att besvara denna fråga med hjälp av ett<br />
exempel:<br />
2 Denna normering är väsentlig och den är speciellt uppfylld när ai = 1<br />
k .<br />
c Mikael Möller
13. Tidsserier 253<br />
Exempel 66 Tidsserien yt antages bestå av en ren periodisk serie med<br />
perioden 4 d v s det gäller för alla t att yt+4 = yt. Bestäm serien fyt;4g<br />
när<br />
a1 = a2 = a3 = a4 = 1<br />
4 .<br />
Lösning 50 Vi börjar med att beräkna de 4 första värdena av serien<br />
yt;4 och använder oss då av att yt+4 = yt:<br />
y1;4 = y1 + y2 + y3 + y4<br />
4<br />
y2;4 = y2 + y3 + y4 + y5<br />
4<br />
y3;4 = y3 + y4 + y5 + y6<br />
4<br />
y4;4 = y4 + y5 + y6 + y7<br />
4<br />
= y2 + y3 + y4 + y1<br />
4<br />
= y3 + y4 + y1 + y2<br />
4<br />
= y4 + y1 + y2 + y3<br />
4<br />
Vi ser att y1;4 = y2;4 = y3;4 = y4;4 och de är således alla lika. Det är<br />
nu inte svårt att övertyga sig om att alla yt;4 kommer att vara lika med<br />
en och samma konstant. Detta innebär att ett glidande medelvärde om<br />
k = 4, där alla vikter är lika stora, släcker periodiciteter av ordning 4.<br />
En konsekvens av ovanstående exempel är att kvartalsdata kan transformeras,<br />
med hjälp av ett glidande medelvärde, så att den inneboende<br />
periodiciteten försvinner. Därmed skulle säsongsberoendet kunna …ltreras<br />
bort och man får en bättre kontroll över den verkliga utvecklingen av<br />
trenden och konjukturcykeln. Man frågar sig nu om detta var en slump<br />
och att påståendet bara gäller för periodiciteter av ordning 4. Nu är det<br />
inte svårt att övertyga sig om att en serie med en period av k tidssteg<br />
faktiskt blir konstant om den …ltreras med ett k-glidande medelvärde<br />
, i = 1; 2; : : : ; k.<br />
med lika stora vikter ai = 1<br />
k<br />
Uppgift 32 Ge ett konkret exempel på en tidsserie med någon period<br />
och visa att ett lämpligt val av vikter transformerar denna till en konstant.<br />
Glidande medelvärden med en jämn periodicitet (t ex 4, 12) har den<br />
nackdelen att de förskjuter tidsperspektivet ett halvt steg och jämförelser<br />
mellan den ursprungliga serien och den transformerade serien låter sig<br />
därför ej göras. För att se och förstå hur denna tidsförskjutning uppträder<br />
betraktar vi följande:<br />
c Mikael Möller
254 13.2. Glidande medelvärden<br />
Exempel 67 Antag att vi har en tidsserie som består av två komponenter<br />
dels en periodisk komponent y 1 t+4 = y 1 t och dels en linjär komponent<br />
y 2 t = a + bt d v s att<br />
yt = y 1 t + y 2 t = y 1 t + a + bt t = 1; 2; : : : .<br />
För denna tidsserie …nner vi, med c = y1+y2+y3+y4<br />
4 ,<br />
4a + b (1 + 2 + 3 + 4)<br />
y1;4 = c + = c + a + b<br />
4<br />
2:5<br />
4a + b (2 + 3 + 4 + 5)<br />
y2;4 = c + = c + a + b<br />
4<br />
3:5<br />
4a + b (3 + 4 + 5 + 6)<br />
y3;4 = c + = c + a + b<br />
4<br />
4:5<br />
4a + b (4 + 5 + 6 + 7)<br />
y4;4 = c + = c + a + b<br />
4<br />
5:5<br />
o s v. Om vi nu vill jämföra seriens värde vid tidpunkt 4, d v s y4, med<br />
den …ltrerade seriens värde vid samma tidpunkt så måste vi liksom en<br />
åsna välja antingen y2;4 eller y3;4. För att slippa välja kan vi lägga ihop<br />
dessa två värden och dela med 2 –vi bildar med andra ord det nya värdet 3<br />
y2;4 + y3;4<br />
2<br />
= c + a + b 3:5 + c + a + b 4:5<br />
2<br />
= c + a + b 4.<br />
Denna nya …ltrerade serie kan jämföras med den ursprungliga, vid varje<br />
tidpunkt där båda är de…nierade, ty den ursprungliga serien och den<br />
transformerade serien har nu samma tidskala. Dylika glidande medelvärden<br />
kallas centrerade glidande medelvärden.<br />
Uppgift 33 Visa att om vi har ett glidande medelvärde av ordning fyra<br />
med a1 = a2 = a3 = a4 = 1<br />
4 och tillämpar detta 2 gånger som exemplet<br />
ovan föreskriver så erhålls ett nytt glidande medelvärde av ordning 5 med<br />
vikterna<br />
a1 = 1<br />
8 , a2 = 1<br />
4 , a3 = 1<br />
4 , a4 = 1<br />
4 , a5 = 1<br />
8 .<br />
Teorin för glidande medelvärden är egentligen teorin om linjära …lter<br />
och för att förstå dessa behöver man även kunskap i di¤erensekvationer,<br />
trigonometri och komplexa tal. Denna mycket intressanta och användbara<br />
teori hjälper oss att förstå många av de ekonomiska processer som<br />
dagligen försigår men här väljer vi att övergå till en tillämpning av glidande<br />
medelvärden.<br />
3 En salomonisk lösning vi känner igen från medianens de…nition.<br />
c Mikael Möller
13. Tidsserier 255<br />
13.3 Komponentmodeller<br />
De ‡esta ekonomiska tidsserier baserar sig på kronologiska data månadsvis,<br />
kvartalsvis eller årsvis. När vi studerar sådana historiska tidsserier<br />
så …nner vi att de ofta innehåller en eller ‡era av följande fyra<br />
komponenter: En trend, ett säsongmönster, ett cykliskt mönster och en<br />
irreguljär komponent.<br />
Trenden beskriver en series långsiktiga uppträdande såsom växande/avtagande.<br />
Detta kan vara en stigande efterfrågan på telefoner, en<br />
sjunkande bokningsfrekvens till ett visst resemål, lönenivån inom en viss<br />
industri m m.<br />
Säsongvariationer är periodiskt återkommande mönster som uppstår<br />
på grund av varierande efterfrågan. Glass efterfrågas främst under<br />
våren/sommaren, detaljhandelns försäljning varierar från månad till<br />
månad där julhandeln har en avgörande betydelse för handels årsvinst,<br />
försäljningen av charterresor är som störst när folk av tradition har sin<br />
semester –sommar och vinter.<br />
Cykliska variationer är variationer med långa perioder –två år eller<br />
mer. Exempel är olika typer av industrier som skogsindustrin men också<br />
valutor varierar långsiktigt i takt med den övriga ekonomiska utvecklingen.<br />
Den irreguljära komponenten är vad som återstår när vi rensat data<br />
från ovanstående tre komponenter. Denna komponent tar hand om<br />
tillfälligheter som strejker, naturkatastrofer, olyckor, krig m m men vi<br />
kan även välja att modellera många av dessa händelser speci…kt.<br />
13.3.1 Modell<br />
Inför följande storheter<br />
yt = tidseriens observerade värde<br />
Tt = tidseriens trendkomponent<br />
St = tidseriens säsongkomponent<br />
Ct = tidseriens cykliska komponent<br />
It = tidseriens irreguljära komponent<br />
alla vid en och samma tidpunkt t. Dessa komponenter kan nu sammanställas<br />
på ett antal olika sätt och vi börjar med att ge några exempel.<br />
1. Om säsongkomponentens amplitud växer med tiden t och det även<br />
c Mikael Möller
256 13.3. Komponentmodeller<br />
…nns en växande trend ansätter vi en multiplikativ modell –yt =<br />
Tt St Ct It –se …gur 13.1 sid 256.<br />
50<br />
37.5<br />
25<br />
12.5<br />
0<br />
0<br />
10<br />
20<br />
30<br />
kvartal kvartal<br />
Figur 13.1: yt = Tt St Ct It<br />
2. Om både säsongkomponentens och konjunkturkomponentens amplitud<br />
växer med tiden t så ansätter vi en blandad modell –yt =<br />
Tt St It + Tt Ct It –se …gur 13.2.<br />
50<br />
37.5<br />
25<br />
12.5<br />
0<br />
0<br />
10<br />
20<br />
30<br />
kvartal<br />
Figur 13.2: yt = Tt St + Tt Ct där den undre kurvan är Tt Ct.<br />
3. Om säsongkomponentens amplitud växer med tiden men konjunkturkomponentens<br />
är konstant över tiden t så ansätter vi en blandad<br />
modell –yt = Tt St It + Ct It –se …gur 13.3.<br />
4. Om säsongkomponentens och konjunkturkomponentens amplitud<br />
båda är konstanta över tiden t samt det …nns en linjärt ökande<br />
trend så ansätter vi en additiv modell –yt = Tt + St + Ct + It –se<br />
…gur 13.4d sid 258 som dock saknar den irreguljära komponenten.<br />
c Mikael Möller<br />
40<br />
40
13. Tidsserier 257<br />
50<br />
37.5<br />
25<br />
12.5<br />
0<br />
0<br />
10<br />
20<br />
30<br />
Kvartal<br />
Figur 13.3: yt = Tt St + Ct där den undre kurvan är Ct.<br />
Här kommer vi endast studera den additiva modellen och överlåter<br />
studiet av den multiplikativa till övningarna. Notera dock att om vi logaritmerar<br />
den multiplikativa modellen så erhålls den additiva. Övriga<br />
modeller lämnar vi åt sitt öde eftersom de matematiskt är så svårforcerade.<br />
Vår första uppgift är nu att förstå a) hur den additiva modellen<br />
fungerar och b) hur vi kan komma åt de fyra olika komponenterna för<br />
denna modell. Vi börjar med att matematiskt konstruera en tidsserie<br />
som kommer från en additiv modell och därefter tar vi fram de verktyg<br />
som behövs för att, omvänt, plocka fram tidsseriens olika komponenter.<br />
Det gör vi i huvudsak med hjälp av centrerade glidande medelvärden<br />
och regressionsanalys.<br />
13.3.2 Konstruktion av en tidsserie<br />
Vi börjar med en helt teoretisk påhittad modell som innehåller alla komponenter<br />
förutom den irreguljära och utifrån denna visar vi sedan hur<br />
man kan ta fram var och en av de ingående komponenterna. Speciellt<br />
väljer vi komponenterna 4<br />
Tt = 1 + 0:1t<br />
St = sin 2 t<br />
Ct = 2 sin 2<br />
It = 0<br />
34 t<br />
4 Här är det till god hjälp om man känner till de trigonometriska funktionerna.<br />
40<br />
c Mikael Möller
258 13.3. Komponentmodeller<br />
och dessa adderar vi så att en additiv modell yt = Tt + St + Ct erhålls.<br />
Detta innebär att vi betraktar en modell med linjär trend, en<br />
säsongkomponent med perioden 4 (t ex kvartalsdata) och en långsiktig<br />
cyklisk komponent med perioden 17 kvartal. Om vi nu slår ihop de tre<br />
komponenterna så erhålls den sammansatta serien fytg där<br />
yt = 1 + 0:1t + sin 2 t + 2 sin 2<br />
t .<br />
34<br />
Om vi ritar upp funktionerna Tt; St; Ct och yt var och en för sig så erhålls<br />
…gurerna 13.4a-c. Den sista …guren (d) visar oss en additiv serie med<br />
stigande trend, kvartalssvängningar och en långsiktig konjunkturcykel. 5<br />
Denna typ av serie är, om än här överdriven, vanlig i mänskliga sammanhang<br />
–som exempel kan ges bruttonationalprodukten, BNP, kvartalsvis.<br />
y<br />
6<br />
4<br />
2<br />
0<br />
6<br />
4<br />
2<br />
0<br />
10 20 30 40<br />
(a) St = sin 2 t<br />
10 20 30 40<br />
(c) Tt = 1 + 0:1t<br />
y<br />
6<br />
4<br />
2<br />
0<br />
6<br />
4<br />
2<br />
0<br />
10 20 30 40<br />
(b) Ct = 2 sin 2<br />
34 t<br />
10 20 30 40<br />
(d) yt = Tt + St + Ct<br />
Figur 13.4: De tre skilda komponenterna i en tidsserie<br />
5 Figuren visar serien för alla t men självklart har vi i verkligheten endast 4 punkter,<br />
en för varje kvartal.<br />
c Mikael Möller
13. Tidsserier 259<br />
13.3.3 Analys av tidsserien ovan<br />
Vi vet sedan tidigare att sättet att ta bort en periodicitet av storlek 4<br />
och samtidigt behålla möjligheten till jämförelse med den ursprungliga<br />
serien är att tillämpa ett glidande medelvärde av ordning 5 och vikterna<br />
. Bilda därför funktionen<br />
1<br />
8<br />
; 1<br />
4<br />
; 1<br />
4<br />
; 1<br />
4<br />
; 1<br />
8<br />
G5 (fytg ; t) = yt 2 + 2yt 1 + 2yt + 2yt+1 + yt+2<br />
; t = 1; 2; 3; : : : .<br />
8<br />
För funktionen G5 ( ; t) gäller att den transformerar konstanter på konstanter<br />
d v s om a är en konstant så gäller att<br />
G5 (fag ; t) = a.<br />
Uppgift 34 Visa att G5 (fag ; t) = a när a är en konstant.<br />
Vidare gäller att funktionen G5 ( ; t) är additiv<br />
G5 (a fxtg + fztg ; t) = aG5 (fxtg ; t) + G5 (fztg ; t) .<br />
Uppgift 35 Visa att G5 (a fxtg + fztg ; t) = aG5 (fxtg ; t)+G5 (fztg ; t)<br />
där a är en konstant samt fxtg och fztg är två tidsserier.<br />
För serien yt = t erhålls speciellt att<br />
G5 (ftg ; t) =<br />
t 2 + 2 (t 1) + 2t + 2 (t + 1) + (t + 2)<br />
8<br />
= t. (13.1)<br />
Observera att tidsserien:s värden vid tidpunkterna 1 och 2 samt n 1<br />
och n inte kan jämföras med den …ltrerade tidsserien:s värden ty för<br />
detta krävs värden som vi inte har nämligen y 2 och y 1 respektive<br />
yn+1 och yn+2. Om funktionen G5 ( ; t):s egenskaper tillämpas på vår<br />
konstruerade serie erhålls<br />
G5 (fytg ; t) = G5<br />
n<br />
1 + 0:1t + sin 2 t + 2 sin 2<br />
= G5 (f1 + 0:1tg ; t) + G5<br />
+ G5<br />
n<br />
2 sin 2<br />
= 1 + 0:1t + G5<br />
34 t<br />
o<br />
; t<br />
n<br />
sin 2 t<br />
n<br />
sin 2 t<br />
o<br />
; t + G5<br />
34 t<br />
o<br />
; t<br />
o<br />
; t<br />
n<br />
2 sin 2<br />
34 t<br />
o<br />
; t .<br />
Vi vet sedan tidigare att G5 ( ; t) släcker periodiciteter av storlek 4 varför<br />
det gäller<br />
n o<br />
G5 (fStg ; t) = G5 sin t<br />
2<br />
; t = 0<br />
c Mikael Möller
260 13.3. Komponentmodeller<br />
och således återstår att studera vad som händer med den sista termen –<br />
cykeln Ct. Utveckling ger<br />
n<br />
G5 (fCtg ; t) = G5 2 sin 2<br />
34 t<br />
o<br />
n<br />
; t = 2G5 sin 2<br />
34 t<br />
o<br />
; t<br />
= 2<br />
h<br />
sin<br />
8<br />
2<br />
(t 2) + 2 sin2 (t 1)<br />
34 34<br />
+ 2 sin 2<br />
t + 2 sin2<br />
34<br />
+ sin 2<br />
i<br />
(t + 2)<br />
34<br />
(t + 1)<br />
34<br />
vilket är ett ganska komplicerat uttryck. Vi kan dock rita upp skillnaden<br />
mellan den ursprungliga serien fCtg och den transformerade serien<br />
G5 (fCtg ; t) varvid …guren nedan erhålls<br />
0.05<br />
0.025<br />
0<br />
0.025<br />
0.05<br />
0<br />
10<br />
Figur 13.5: f (t) = Ct G5 (fCtg ; t)<br />
och vi ser att skillnaden är liten jämförd med trenden. Detta betyder<br />
att …ltret G5 ( ; t) bibehåller trenden samt lämnar konjunkturcykeln i det<br />
närmaste opåverkad d v s vi har att<br />
20<br />
30<br />
G5 (fCtg ; t) Ct.<br />
I …gur 13.6 på sid 261 visar vi dels den sanna ursprungliga kurvan<br />
yt (— ) och dels den kurva som ges av funktionen G5 (fytg ; t) ( ) när<br />
säsongen har …ltrerats bort.<br />
Denna …gur ger oss idéen att den skattade säsongsvariationen kan<br />
skrivas<br />
st = yt G5 (fytg ; t) , t = 2; 3; : : : ; n 2<br />
ty om vi från den heldragna kurvan yt (Tt + St + Ct) drar den streckade<br />
kurva, som är en approximation av Tt + Ct, så återstår i princip bara<br />
c Mikael Möller<br />
40
13. Tidsserier 261<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0 5 10 15 20 25 30 35<br />
Figur 13.6: yt (— ) och G5 (fytg ; t) ( )<br />
säsongskomponenten. För att se att detta blir en ’bra’ skattning av<br />
säsongen ritar vi upp den kända säsongen sin 2 t (— ) och den skattade<br />
säsongen st ( ) i en och samma …gur för 8 kvartal i …gur 13.7.<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
0.2<br />
0.4<br />
0.6<br />
0.8<br />
1<br />
1 2 3 4 5 6 7 8<br />
Figur 13.7: sin 2 t (— ) och st ( )<br />
Det gäller således att trend plus cykel, Tt + Ct, skattas av<br />
tct = yt st.<br />
Nästa steg blir att maska ut trenden. För att göra detta använder vi<br />
vanlig regressionsteknik på serien ftctg och den cykliska komponenten<br />
blir därefter den ursprungliga serien minskad med skattad säsong och<br />
skattad trend d v s ct = yt st tt.<br />
När vi konstruerade vår tidsserie tog vi ej med någon irreguljära<br />
komponent. Dylika …nns förvisso i alla förekommande ekonomiska tidsserier<br />
och den irreguljära komponenten trasslar förvisso till det. Dock<br />
kan man, i princip, genom en enkel medelvärdesbildning av storlek 3<br />
eliminera dess påverkan. Arbetsgången blir nu<br />
c Mikael Möller
262 13.3. Komponentmodeller<br />
1. Bilda st = yt G5(fytg ; t).<br />
2. Bilda tcit = yt st.<br />
3. Skatta den linjära trenden tt = a + bt.<br />
4. Bilda cit = yt st tt.<br />
5. Bilda ct = cit 1 + cit + cit+1<br />
.<br />
3<br />
6<br />
6. Bilda it = yt st tt ct.<br />
<strong>Till</strong> sist; i alla programpaket för säsongrensning görs, innan man går<br />
vidare med steg 2 ovan , ytterligare medelvärdesbildningar så att en jämn<br />
periodisk serie st erhålls. För t ex en kvartalsserie bildar man medelvärden<br />
(si) för kvartal 1, kvartal 2, kvartal 3 och kvartal 4. Därefter centreras<br />
dessa medelvärden (si) på följande sätt<br />
si = 1<br />
m 1<br />
m<br />
j=0<br />
si = si<br />
X<br />
s4j+1 i = 1; 2; 3; 4; m = antal år,<br />
1<br />
4<br />
4X<br />
sj.<br />
j=1<br />
Allt sönderhackande av data läggs därför i den irreguljära termen.<br />
Ovanstående utjämningsmetod har den nackdelen att den ej kan ge<br />
prognoser ty metoden använder de sista mätvärdena för att skatta ett<br />
tidigare värde (i fallet med kvartalsserier används de två sista för att<br />
beräkna det tredje från slutet). Metoden lämpar sig däremot väl för att<br />
förstå de underliggande mönster som ger upphov till tidserien. Denna<br />
förståelse kan sedan användas för att ge kvalitativa utsagor om framtiden.<br />
Exempel 68 Från SCB erhålls en rensad 7 tidsserie över BNP:s kvartalsvärden<br />
och vi skall dela upp denna serie i dess komponenter. En<br />
…gur över BNP:s rensade utveckling under åren 1980 till och med 2001<br />
är …gur 13.8a på sid 263.<br />
6 Ty konjunkturen varierar långsamt och därför bör ct 1 ct ct+1. Att addera<br />
tre värden bör därför släcka den slumpmässiga termen.<br />
7 Ekonomiska tidsserier korrigeras ofta för kalendere¤ekter av typ att påsken ej<br />
alltid infaller i samma månad, att månaderna är av olika längd o s v. Denna tidsserie<br />
är dessutom angiven i fast pris.<br />
c Mikael Möller
13. Tidsserier 263<br />
500000<br />
400000<br />
300000<br />
200000<br />
100000<br />
0 10 20 30 40 50 60 70 80 90<br />
(a) Rensad BNP<br />
500000<br />
400000<br />
300000<br />
200000<br />
100000<br />
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90<br />
(b) Trend- cykelkomponent.<br />
Figur 13.8: Bruttonationalprodukten i fast pris.<br />
<strong>Till</strong>ämpar vi ett centrerat glidande medelvärde (a1 = = a4 = 1<br />
4 ) på<br />
data så erhålls trend-cykeln i …gur 13.8b. Om vi sedan tar den ursprungliga<br />
serien minus trend-cykeln så erhålls säsongen –se …gur 13.9a. Observera<br />
dock att vårt exempel hanterar verkliga data och dessa innehåller<br />
även den irreguljära komponenten. Den irreguljära komponenten ser vi<br />
i …gur 13.9b.<br />
40000<br />
30000<br />
20000<br />
10000<br />
0<br />
10000<br />
20000<br />
30000<br />
40000<br />
Case 1<br />
Case 5<br />
Case 9<br />
Case 17<br />
Case 13<br />
Case 89<br />
Case 85<br />
Case 81<br />
Case 77<br />
Case 73<br />
Case 69<br />
Case 65<br />
Case 61<br />
Case 57<br />
Case 53<br />
Case 49<br />
Case 45<br />
Case 41<br />
Case 37<br />
Case 33<br />
Case 29<br />
Case 25<br />
Case 21<br />
(a) Säsongskomponent<br />
40000<br />
30000<br />
20000<br />
10000<br />
0<br />
10000<br />
20000<br />
30000<br />
40000<br />
Case 1<br />
Case 5<br />
Case 9<br />
Case 13<br />
Case 17<br />
Case 21<br />
Case 25<br />
Case 29<br />
Case 33<br />
Case 37<br />
Case 41<br />
Case 45<br />
Case 49<br />
Case 53<br />
Case 57<br />
Case 61<br />
Case 65<br />
Case 69<br />
Case 73<br />
Case 77<br />
Case 81<br />
Case 85<br />
Case 89<br />
(b) Irreguljär komponent<br />
Figur 13.9: Säsongs- och irreguljär komponent.<br />
Det framgår med önskvärd tydlighet (se y-axelns skala) att säsongen<br />
och den irreguljära komponenten förklarar ungefär lika mycket (d v s den<br />
irreguljära komponenten förklarar ingenting den är bara av samma storleksordning<br />
som säsongskomponenten). Det återstår därför en hel del<br />
c Mikael Möller
264 13.3. Komponentmodeller<br />
arbete innan vi har funnit en bra modell.<br />
13.3.4 Enkel exponentiell utjämning<br />
En utjämningsteknik som även kan ge korta prognoser är enkel exponentiell<br />
utjämning och den är främst tillämpbar när tidsserien är<br />
utsatt för små långsamma förändringar i tiden. Mera exakt utgår vi<br />
ifrån tidsserien<br />
yt = (t) + t<br />
där medelnivån (t) tillåts ha långsamma förändringar över tiden t.<br />
Denna modell är en första utvidgning av den för oss bekanta modellen<br />
där konstanten skattas med<br />
Yt = + t<br />
^ = y = yn.<br />
Vad vi behöver nu är en metod för successiva omräkningar av skattningen<br />
av (t). Idéen till en sådan metod får vi genom att se hur yn kan beräknas<br />
rekursivt:<br />
yn = 1<br />
n<br />
nX<br />
i=1<br />
= 1<br />
n yn +<br />
yi = 1<br />
n (n 1) yn 1 + yn<br />
n 1<br />
n yn 1 = 1<br />
n yn + 1<br />
1<br />
n yn 1<br />
och vi ser att varje ny omräkning beror allt mindre på det senaste värdet<br />
yn. Men vi vill uppnå en motsatt e¤ekt, nämligen att det sista värdet<br />
har "stor" betydelse ty det sista värdet indikerar vart serien är på väg.<br />
Detta ger oss följande idé för uppräkning av skattningen a(t) för (t)<br />
a(t) = yt + (1 )a(t 1) , 0 < < 1 (13.2)<br />
där är en konstant som skall väljas klokt. Ett sätt är att välja den<br />
så att kvadratsumman för medelfelet blir liten (vanligen ligger mellan<br />
0:01 och 0:3). Ett stort värde på innebär att den utjämnade serien<br />
a (t) nära följer den ursprungliga, om än förskjuten i tiden. Ett litet<br />
värde tyder i sin tur på att vi betraktar serien som en slumpmässig serie<br />
med ett konstant väntevärde.<br />
c Mikael Möller
13. Tidsserier 265<br />
Om vi genomför de första iterationerna i ekvation 13.2 så erhålls att<br />
a(t) = yt + (1 )a(t 1)<br />
= yt + (1 ) yt 1 + (1 )a(t 2)<br />
= yt + (1 )yt 1 + (1 ) 2 a(t 2)<br />
= yt + (1 )yt 1 + (1 ) 2 yt 2 + (1 ) 3 a(t 3)<br />
varav det framgår att<br />
a(t) =<br />
X<br />
t 1<br />
(1 ) k yt k + (1 ) t a(0) .<br />
k=0<br />
Som prognos vid tidpunkt n + , gjord vid tidpunkt n, tar man det<br />
senast kända värdet d v s<br />
^y(n + ) = a(n)<br />
och ett 100(1 ) procentigt prediktionsinterval för denna prognos kan<br />
skrivas<br />
^y(n + ) =2s p 1 + ( 1) 2 .<br />
Observera att tekniken med enkel exponentiell utjämning ej kräver någon<br />
bakomliggande statistisk modell och därför kan egentligen inga kon-<br />
…densintervall konstrueras. Man kan dock visa att enkel exponentiell<br />
utjämning kan betraktas som en delklass av ARIMA-modellerna – se<br />
nästa avsnitt för en introduktion till dessa –och då blir det möjligt att<br />
prata om kon…densintervall.<br />
Exempel 69 Tabellen nedan innehåller fångstresultat i ton för en …skebåt<br />
som …skar torsk utanför Islands kust<br />
Jan Feb Mar Apr Maj Jun<br />
År 1 362 381 317 297 399 402<br />
År 2 276 334 394 334 384 314<br />
Jul Aug Sep Okt Nov Dec<br />
År 1 375 349 386 328 389 343<br />
År 2 344 337 345 362 314 365<br />
Gör en skattning av fångstresultatet för januari, år 3.<br />
Lösning 51 Vi gör först en …gur över fångstresultatet och erhåller då<br />
…gur 13.10 och denna …gur ger att möjligen förändras medelvärdet över<br />
c Mikael Möller
266 13.3. Komponentmodeller<br />
360<br />
260<br />
0 2 4 6 8 10 12 14 16 18 20 22 24<br />
Figur 13.10: Torskfångst i ton.<br />
tiden – om än lite (det ser ut att sjunka). För att förutsäga värdet i<br />
januari år 3 använder vi oss av metoden med exponentiell utjämning<br />
och väljer = 0:02. Vi väljer ett litet värde eftersom serien verkar<br />
vara helt slumpmässig. Som startvärde tar vi medelvärdet av de 6 första<br />
observationerna. Vi kunde lika gärna ha tagit medelvärdet av de tre<br />
första observationerna eller gjort något annat val. Vad som är lämpligt<br />
följer av sammanhanget. I detta fall ser serien slumpmässig ut om än<br />
med stor variation och då är vårt val inte så pjåkigt. Följande sekvens<br />
av värden erhålls:<br />
a(0) = 359:67 = 1<br />
6<br />
6X<br />
i=1<br />
a(1) = 0:02 362 + 0:98 359:67 = 359:72<br />
a(2) = 0:02 381 + 0:98 359:72 = 360:15<br />
. = .<br />
a(24) = 0:02 365 + 0:98 355:95 = 356:13<br />
En …gur över både den ursprungliga tidsserien (— ) och den erhållna exponentiellt<br />
utjämnade tidsserien ( ) är …gur 13.11 på sid 267. I denna<br />
syns klart att medelfångsten är svagt avtagande. Det skattade januarivärdet<br />
är nu detsamma som det sista utjämnade värdet d v s 356:13. Ett<br />
trovärdighetsintervall med kon…densgraden 95 procent blir<br />
c Mikael Möller<br />
356:13 1:96 1:25 28:62 = (286:01; 426:25).<br />
yi<br />
420<br />
400<br />
380<br />
360<br />
340<br />
320<br />
300<br />
280
13. Tidsserier 267<br />
360<br />
260<br />
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34<br />
Figur 13.11: Torskfångst i ton.<br />
13.3.5 Dubbel exponentiell utjämning à la Holt<br />
Om data följer en styckvis linjär trend där interceptet och riktningskoe¢<br />
cienten förändras långsamt över tiden kan man använda sig av den<br />
linjära linjens ekvation. Den linjära ekvationen kan skrivas på formen<br />
y y1 = y1 y2<br />
(x x1) (13.3)<br />
x1 x2<br />
och denna ekvation kommer att utnyttjas för att ta fram ekvationer<br />
för den rekursiva omräkningen av parametrarna. Om vi liksom tidigare<br />
betecknar medelnivån med (t) och väljer som riktningsparameter (t)<br />
så gäller att en tidsserie med en styckvis linjär trend, med föränderliga<br />
parametrar, kan skrivas<br />
yt = (t) + (t) t + t.<br />
Parametrarna ( (t) ; (t)) kan, givet mätvärdena (a(t 1) ; b(t 1)), skattas<br />
vid den följande tidpunkten t på följande sätt:<br />
Om läget vid tidpunkt t 1 är a(t 1) så uppdateras läget vid<br />
tidpunkt t av en del av det nya uppmätta värdet på läget vid<br />
tidpunkt t ,d v s yt, plus en del som bestäms av det gamla läget<br />
och riktningskoe¢ cienten vid tidpunkt t 1:<br />
a(t) = yt + (1 ) a(t 1)<br />
| {z }<br />
y1<br />
+ b(t 1)<br />
| {z }<br />
y 1 y 2<br />
x 1 x 2<br />
420<br />
400<br />
380<br />
360<br />
340<br />
320<br />
300<br />
280<br />
t (t 1)<br />
| {z }<br />
x x1<br />
Den sista parentesen är en tillämpning av ekvation 13.3 för att<br />
erhålla en uppdatering av läget enligt räta linjens ekvation. Parametern<br />
skall ligga mellan 0 och 1.<br />
c Mikael Möller<br />
.
268 13.3. Komponentmodeller<br />
Om riktningen vid tidpunkt t 1 är b(t 1) så beräknas den nya<br />
utjämnade riktningen vid tidpunkt t av en del av den nya riktningen<br />
plus en del av den gamla riktningen<br />
b(t) =<br />
a(t) a(t 1)<br />
t (t 1)<br />
Parametern skall ligga mellan 0 och 1.<br />
+ (1 ) b(t 1) .<br />
Ovanstående metod för uppdatering av skattningarna av parametrarna<br />
(t) och (t) ger oss följande rekursiva förfarande:<br />
a(t) = yt + (1 ) a(t 1) + b(t 1) ,<br />
b(t) = a(t) a(t 1) + (1 ) b(t 1) .<br />
En prognos för tidpunkten n + vid tidpunkten n erhålls till<br />
^y(n + ) = a(t) + b(t) .<br />
Återstår så att starta rekursionen med några lämpliga värden på<br />
(a(0) ; b(0)). En sådan uppsättning värden kan vara<br />
a(0) = 1<br />
kX<br />
yt<br />
k<br />
t=1<br />
Pk t=1 b(0) =<br />
(xt x) (yt y)<br />
Pk t=1 (xt x) 2<br />
där xt = t och k ett lämpligt valt tal. I valet av b(0) känner vi igen<br />
skattningen av riktningskoe¢ cienten i enkel linjär regression.<br />
Exempel 70 Slutkursen för Ericsson B har uppmätts för perioden 2003-<br />
01-02 till 2003-09-12. Kursdata ger oss linjediagramet i …gur 13.12 på<br />
sid 269. Om vi nu tillämpar både enkel exponentiell utjämning (EE) och<br />
dubbel exponentiell utjämning (DE) så erhålls …gurerna:<br />
c Mikael Möller
13. Tidsserier 269<br />
Kronor<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
Kronor<br />
12<br />
11<br />
10<br />
Eriksson B<br />
4<br />
0 20 40 60 80 100 120 140 160<br />
EE, = 0:1<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
0 20 40 60 80 100 120 140 160<br />
Figur 13.12: Ericsson B<br />
Kronor<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
Eriksson B<br />
4<br />
0 20 40 60 80 100 120 140 160<br />
DE, = 0:1 och = 0:3<br />
Av dessa framgår att Holt:s utjämningsmetod har större följsamhet<br />
vid styckvisa linjära trender än vad enkel exponentiell utjämning har.<br />
13.4 ARMA-modeller<br />
13.4.1 <strong>Introduktion</strong><br />
Många tidsserier beskriver snabba förändringar och då fungerar ovanstående<br />
utjämningsmetoder ej bra vilket också delvis beskrivs av det<br />
senaste exemplet med Ericsson:s kursutveckling. Vi har ej heller visat<br />
hur man tar hand om säsonger vid utjämningsmetoder. Vår nästa modell,<br />
ARMA-modellen, lämpar sig bättre för dylika serier och innehåller<br />
dessutom utjämningsmetoderna som specialfall.<br />
Dock i denna bok skall vi endast betrakta två specialfall av den<br />
c Mikael Möller
270 13.4. ARMA-modeller<br />
allmäna ARMA modellen nämligen AR(1) och MA(1) och se hur de<br />
kan beskriva vissa ekonomiska tidsserier. För vår del räcker det med att<br />
endast betrakta dessa två ty de behöver alla de väsentliga verktyg som<br />
behövs för en fullständig ARMA-analys. Vår introduktion kommer därför<br />
öppna portarna till betydligt mer komplicerade och mer användbara<br />
modeller –modeller som även inkluderar säsonger.<br />
ARMA-modellerna ställer andra krav på data än tidigare och det viktigaste<br />
kravet är stationäritet. Enligt uppslagsboken är ’stillastående’en<br />
synonym till stationär och det kan därför synas märkligt att kräva av en<br />
tidsserie att den skall vara stillastående. Nu är det inte tidsseriens värden<br />
som är stillastående (dessa hoppar vilt till synes helt okontrollerat)<br />
utan det är de grundläggande förutsättningar, som ger tidsserien dess<br />
karaktär, som skall vara stationära. Med andra ord förutsätts tidsseriens<br />
statistiska egenskaper vara konstanta. Detta är ju inget nytt utan är vad<br />
vi vanligtvis antager i våra statistiska modeller när vi ofta kräver att de<br />
slumpmässiga felen skall vara 1) oberoende 2) normalfördelade med<br />
3) väntevärdet 0 (väntevärdet är konstant) och 4) standardavvikelsen<br />
(standardavvikelsen är konstant).<br />
Inom tidsserieanalysen gör man motsvarande men svagare antaganden.<br />
De är svagare eftersom man istället för oberoende endast kräver att<br />
kovariansen skall bero av tidsdi¤erensen mellan mätningarna. De övriga<br />
tre antagandena behåller man. Mer exakt de…nierar vi svag stationäritet<br />
som följer:<br />
De…nition 50 En tidsserie fYt : t = 1; 2; 3; : : :g säges vara svagt stationär<br />
om det gäller att<br />
1. väntevärdet och variansen existerar ändligt för alla t samt är konstanta,<br />
d v s oberoende av t,<br />
E(Yt) = ,<br />
V (Yt) = 2 .<br />
2. för alla par av tidpunkter s och t beror kovariansen mellan Ys och<br />
Yt endast av s och t genom tidsdi¤erensen t s, via någon ändlig<br />
funktion f d v s<br />
C(Ys; Yt) = f(t s) .<br />
De…nitionens första punkt är punkterna 3 och 4 ovan och dess andra<br />
punkt är en försvagning av villkoret 1. Punkten 2 behåller vi som den<br />
är.<br />
c Mikael Möller
13. Tidsserier 271<br />
Eftersom vi kallade tidsserien ovan svagt stationär så …nns naturligtvis<br />
också begreppet starkt stationär. Låt oss därför för fullständighetens<br />
skull de…niera även detta begrepp även om vi inte kommer att använda<br />
det.<br />
De…nition 51 En tidsserie fYt : t = 1; 2; 3; : : :g säges vara starkt stationär<br />
om den simultana fördelningen för (Ys n; Ys n+1; : : : ; Ys) är densamma<br />
som den simultana fördelningen för (Yt n; Yt n+1; : : : ; Yt) för<br />
alla s, t och n. 8<br />
Eftersom vi endast kommer behandla svagt stationära tidsserier och<br />
dessutom är lite lata så kommer vi att skriva stationär när vi egentligen<br />
menar svagt stationär.<br />
13.4.2 Hur ser en stationär tidsserie ut<br />
I allmänhet är de ekonomiska tidsserierna inte stationära utan man måste<br />
tillämpa vissa tekniker för att transformera dem så att den transformerade<br />
serien blir stationär. En mycket vanlig förekommande transformation<br />
är bildandet av di¤erenser och vi skall först reda ut några av denna<br />
transformations egenskaper.<br />
Antag att vi har en tidsserie fYt : t = 1; 2; 3; : : :g som består av en<br />
linjär trend plus en slumpmässig komponent. En möjlig modell för en<br />
sådan serie är<br />
Yt = a + bt + t t 2 ON(0; ) .<br />
Denna tidsserie är inte stationär ty för dess väntevärde gäller<br />
E(Yt) = E(a + bt + t) = a + bt<br />
och väntevärdet beror av t.<br />
Bilda nu en ny tidsserie på följande sätt<br />
Zt = Yt Yt 1.<br />
8 Nu är begreppet starkt stationär ej ett vedertaget begrepp utan man säger strikt<br />
stationär eller bara stationär. Men personligen tycker jag det passar bättre med<br />
starkt ty denna stationäritet innehåller (om man lägger på kraven ändligt första och<br />
andra moment) även den svaga men tvärtom gäller endast om vi har normalfördelning.<br />
Med andra ord så är en svagt stationär process vars fel är normalfördelade också starkt<br />
stationär.<br />
c Mikael Möller
272 13.4. ARMA-modeller<br />
Vi säger att vi har tagit första di¤erenserna av den gamla tidsserien.<br />
Vad är detta bra för? Jo för den nya tidsserien fZtg gäller att<br />
Zt = Yt Yt 1<br />
= a + bt + t a b(t 1) t 1<br />
= b + t t 1 t 2 ON (0; )<br />
och vips har vi en tidsserie med det konstanta väntevärdet b.<br />
Uppgift 36 Visa att den nya tidsserien är stationär.<br />
Hur kan en sådan stationära tidsserie se ut? Om vi gör en simulering<br />
av Zt med b = 3 och = 2 d v s av modellen<br />
så erhålls …guren 13.13<br />
Zt = 3 + t t 1 t 2 ON 0; 2 p 2<br />
3,06<br />
3,04<br />
3,02<br />
3,00<br />
2,98<br />
2,96<br />
2,94<br />
Figur 13.13: En stationär tidsserie.<br />
och vi ser att en stationär tidsserie verkligen hoppar vilt, i detta fall<br />
kring talet 3, utan något synbart mönster. Dock vet vi att det …nns en<br />
struktur ty Zt:s felterm är uppbyggd av det nya felet minus det gamla<br />
felet.<br />
Låt oss nu konstruera serien<br />
Yt = 10 + 0:95Yt 1 + t t 2 ON(0; ) ; = 2<br />
Y0 = 0<br />
och se hur en dylik kan se ut som ett linjediagram. En möjlig realisering<br />
visas i …gur nedan och det erhållna linjediagrammet liknar en aktie:s<br />
kursrörelse. Det intressanta här är att, efter lång tid, är fYtg en stationär<br />
tidsserie.<br />
c Mikael Möller
13. Tidsserier 273<br />
16<br />
14<br />
12<br />
10<br />
8<br />
6<br />
4<br />
2<br />
0<br />
Figur 13.14: En efter lång tid stationär serie.<br />
Uppgift 37 Visa att serien fYtg ovan, efter lång tid, är stationär.<br />
Kommer alla tidsserier som skapas av modellen<br />
Yt = 10 + Yt 1 + t t 2 ON(0; ) ; = 2<br />
Y0 = 0<br />
att se ut som kursrörelser? Låt oss välja = 0:4 och generera serien<br />
fytg på nytt. En typisk …gur över en realisering av en sådan serie är<br />
14<br />
13<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
och den ger intryck av att ha ett stabilt väntevärde men i övrigt svänga<br />
runt detta. Dock vet vi att den, efter lång tid, är stationär ty vi kan<br />
göra samma beräkningar som ovan –vi byter bara ut 0:95 mot 0:4.<br />
Av ovanstående preliminära analys ser vi att en stationär tidsserie<br />
kan se ut lite hur som helst. Vi kan därför inte med ögat avgöra om<br />
en tidsserie är stationär eller ej. Det behövs därför en teori som ger oss<br />
verktyg med vars hjälp vi kan avgöra om en tidsserie är stationär eller ej.<br />
c Mikael Möller
274 13.4. ARMA-modeller<br />
En sådan teori är teorin om ARMA-modeller (Auto Regressive Moving<br />
Average) av ordning (p; q) och vi har ovan sett två exempel på sådana<br />
modeller nämligen en MA(1) och en AR(1) modell.<br />
En direkt översättning av ’autoregressive’till svenska skulle bli tidsserier<br />
som verkar på sig själva, varav modellen<br />
Yt = 3 + 0:4Yt 1 + t<br />
är ett exempel på en AR(1) modell.<br />
För MA-delen blir en direkt översättning ’glidande medelvärde’men<br />
detta leder tankarna fel ty denna MA-del har mer att göra med enkel<br />
exponentiell utjämning än med vår de…nition av glidande medelvärde på<br />
sid 252. Vi väljer därför att behålla den engelska beteckningen för MAdelen.<br />
En konsekvens av detta blir att vi även behåller beteckningen AR<br />
istället för dess svenska motsvarighet SB (SjälvBakåtverkande).<br />
Ett exempel på en MA(1) modell är modellen<br />
Zt = b + t t 1<br />
som vi behandlade i ett tidigare exempel. 9<br />
13.4.3 Autokorrelationsfunktionen<br />
I de…nitionen av stationäritet ingår kravet på att kovariansen skall vara<br />
en funktion av tidsdi¤erensen men kovariansen har den nackdelen att<br />
ej vara begränsad d v s den kan anta godtyckligt stora respektive små<br />
värden. Observera att 1000 är ett litet värde. Om vi studerar lösningarna<br />
till uppgifterna 36 respektive 37 ovan så ser vi att kovariansen<br />
kan skrivas<br />
36)<br />
8<br />
<<br />
:<br />
2 2 k = 0<br />
2 k = 1<br />
0 k = 2; 3; : : :<br />
k 2<br />
respektive 37) 0:95<br />
och om vi dividerar med variansen 2 2 för serien Zt respektive 2 för<br />
serien Yt så erhålls<br />
8<br />
< 1 k = 0<br />
36)<br />
:<br />
1<br />
2<br />
0<br />
k = 1<br />
k = 2; 3; : : :<br />
respektive 37) 0:95 k .<br />
Med denna operation har vi transformerat kovariansen till att bli korrelationen<br />
och för korrelationen vet vi att den ligger mellan 1 och +1.<br />
Vi de…nierar nu autokorrelationsfunktionen:<br />
9 Nu är inte detta helt sant eftersom man brukar lägga på ett krav på dessa modeller<br />
och vår modell i detta exempel uppfyller inte detta krav.<br />
c Mikael Möller
13. Tidsserier 275<br />
De…nition 52 För en given tidsserie fYt : t = 1; 2; 3; : : :g de…nieras dess<br />
teoretiska autokorrelationsfunktion k av<br />
k = C(Yt; Yt k)<br />
, k = 1; 2; : : : .<br />
V (Yt)<br />
För denna autokorrelationsfunktion gäller:<br />
och den skattas med<br />
rk =<br />
1 k 1<br />
P (yt y) (yt k y)<br />
P (yt y) 2<br />
där yt är det observerade värdet på Yt vid tidpunkt t.<br />
De två uppgifterna 36 och 37 indikerar att en MA(1)-modell har<br />
en autokorrelationsfunktion som är identiskt 0 från och med k = 2.<br />
Motsvarande enkla resultat gäller ej för en AR(1)-modell ty där ser vi<br />
att autokorrelationen avtar i k.<br />
13.4.4 Partiella autokorrelationsfunktionen<br />
För en AR(1)-modell gäller att den ej direkt beror av sig självt 2 eller ‡er<br />
steg bakåt ty den innehåller endast Yt 1 i sin de…nition. Detta betyder<br />
att t ex kunskap om Yt 3 ej påverkar värdet på Yt om Yt 1 är givet. Om<br />
vi därför de…nierar den speciella kovariansen<br />
kk = C( Yt; Yt k j Yt 1; : : : ; Yt k+1 )<br />
så gäller för en tidsserie som följer modellen AR(1) att<br />
11 = C( Yt; Yt 1 j det …nns inget mellanliggande värde )<br />
= C(Yt; Yt 1) = 1 2 Y ,<br />
22 = C( Yt; Yt 2 j Yt 1 ) .<br />
Eftersom Yt 2 endast är kopplat till Yt genom Yt 1 och detta senare<br />
värde hålls …xt (detta är ju betydelsen av betingning) så …nns det ingen<br />
samvariation mellan Yt och Yt 2 varav följer att 22 = 0. På samma<br />
sätt erhålls att kovariansen är 0 för k = 3; 4; : : :. 10 Detta leder oss till<br />
följande de…nition<br />
10 Vi skall visa att 22 = 0 och antager (utan inskränkning) att processen har<br />
förväntningsvärdet 0 (ty om det inte är det kan vi alltid dra bort ett lämpligt tal så<br />
c Mikael Möller
276 13.4. ARMA-modeller<br />
De…nition 53 För en given tidsserie fYt : t = 1; 2; 3; : : :g de…nieras dess<br />
teoretiska partiella autokorrelationsfunktion kk av<br />
kk = C( Yt; Yt k j Yt 1; : : : ; Yt k+1 )<br />
, k = 1; 2; : : : .<br />
V (Yt)<br />
Den införda funktionen kk har samma betydelse för en AR-process<br />
som autokorrelationsfunktionen k har för en MA-process. Den är för<br />
en AR(1)-process 0 för alla k 2. Man kan även visa att kk avtar<br />
exponentiellt för en MA(1)-process.<br />
Funktionerna k och kk har således speglade egenskaper vad gäller<br />
tidsserierna AR(1) och MA(1).<br />
Den partiella autokorrelationsfunktionen kan skattas via följande kop-<br />
plade system av funktioner<br />
där<br />
r1;1 = r1, rkk = rk<br />
Pk 1<br />
j=1 rk 1;jrk j<br />
1 P k 1<br />
j=1 rk 1;jrk j<br />
, k = 2; 3; : : : (13.4)<br />
rk;j = rk 1;;j rkkrk 1;k ;j, j = 1; 2; : : : ; k 1. (13.5)<br />
Exakt samma system av ekvationer kan användas för att beräkna det<br />
teoretiska värdet kk.<br />
Den partiella autokorrelationsfunktionen anger hur mycket Yt k påverkar<br />
Yt – när man har tagit bort Yt 1; ; Yt k+1:s påverkan på Yt.<br />
Ett sätt att mäta Yt 1; ; Yt k+1:s påverkan på Yt är att skatta parametrar<br />
1; : : : ; k 1 så att<br />
och därefter bilda kovariansen<br />
Yt = 1Yt 1 + + k 1Yt k+1 + t k<br />
C( t k; Yt) = C(Yt 1Yt 1 k 1Yt k+1; Yt) .<br />
att denna egenskap erhålls). Det gäller då att<br />
22 = C( Yt; Yt 2 j Yt 1 )<br />
= E( YtYt 2 j Yt 1 )<br />
= E( ( Yt 1 + t) Yt 2 j Yt 1 )<br />
= E( Yt 1Yt 2 j Yt 1 ) + E( tYt 2 j Yt 1 )<br />
= Yt 1E( Yt 2 j Yt 1 )<br />
= 0.<br />
| {z }<br />
=0<br />
+ E( tYt 2 j Yt 1 )<br />
| {z }<br />
=0<br />
Den första termen är 0 eftersom väntevärdet är 0 och den andra termen är 0 eftersom<br />
Yt 2 och t är oberoende och t har väntevärdet 0.<br />
c Mikael Möller
13. Tidsserier 277<br />
Den till denna kovarians hörande korrelationskoe…icient ( t k; Yt) är<br />
den partiella autokorrelationsfunktionen.<br />
13.4.5 Modellen AR(1)<br />
I uppgift 37 betraktade vi en speciell AR(1)-modell och vi skall nu generalisera<br />
denna. Antag därför att följande modell för tidsserien fYtg<br />
gäller:<br />
Yt = + Yt 1 + t t 2 ON (0; )<br />
samt antag att den är stationär. Att fYtg är stationär innebär först och<br />
främst att väntevärde och standardavvikelsen är konstanta och därmed<br />
oberoende av t. Detta ger<br />
där E(Yt) = E(Yt 1) = mY varvid<br />
E(Yt) = + E(Yt 1)<br />
mY = + mY ) mY = 1<br />
Observera att det är stationäriteten som medför att mY = E(Yt) =<br />
E(Yt 1). För variansen …nner vi på motsvarande sätt<br />
V (Yt) = 2 V (Yt 1) + 2<br />
ty t och Yt 1 är oberoende. Härav följer ekvationen<br />
2<br />
Y = 2 2 Y + 2 ) 2 Y =<br />
Observera även här att det är stationäriteten som ger att 2 Y = V (Yt) =<br />
V (Yt 1). <strong>Till</strong> sist beräknar vi autokorrelationen:<br />
varför<br />
k = C(Yt; Yt k)<br />
V (Yt)<br />
= k<br />
0<br />
k = C(Yt; Yt k) = C( + Yt 1 + t; Yt k)<br />
= C( ; Yt k) + C(Yt 1; Yt k) + C( t; Yt k)<br />
= 0 + k 1 + 0 = k 1<br />
= = k 0<br />
k = k<br />
k = 0; 1; 2; : : : .<br />
För konstanten gäller att den måste vara absolut mindre än 1 för att<br />
vi skall ha stationäritet.<br />
1<br />
2<br />
.<br />
2 .<br />
c Mikael Möller
278 13.4. ARMA-modeller<br />
Uppgift 38 Visa att det måste gälla j j < 1.<br />
För den partiella autokorrelationsfunktionen erhålls liksom tidigare att<br />
1;1 = C(Yt; Yt 1)<br />
V (Yt)<br />
= 1.<br />
För k = 2; 3; : : : kan vi resonera på följande sätt<br />
kk = C( Yt; Yt k j Yt 1; : : : ; Yt k+1 )<br />
= C( + Yt 1 + t; Yt k j Yt 1; : : : ; Yt k+1 )<br />
= C( ; Yt k j Yt 1; : : : ; Yt k+1 )<br />
+ C( Yt 1; Yt k j Yt 1; : : : ; Yt k+1 )<br />
+ C( t; Yt k j Yt 1; : : : ; Yt k+1 )<br />
= 0 + 0 + 0.<br />
Den första 0:an erhålls därför att är en konstant och det …nns ingen<br />
variation med Yt. Den sista 0:an erhålls därför att t är oberoende av<br />
hela det för‡utna (och även av framtiden). Den mittersta 0:an erhålls<br />
därför att vi betingar med avseende på Yt 1 d v s vi väljer att hålla den<br />
konstant men om den är konstant så …nns ingen variation med avseende<br />
på Yt k varför vi får en 0:a. Därmed har vi visat att<br />
kk =<br />
1 k = 1<br />
0 k = 2; 3; : : :<br />
Det gäller därför för en AR(1)-process att autokorrelationen successivt<br />
avtar samt att den partiella autokorrelationen är noll från och med lag<br />
2.<br />
13.4.6 Modellen MA(1)<br />
I uppgiften 36 betraktade vi en speciell MA(1)-modell och vi skall nu<br />
generalisera denna. Antag därför att följande modell för tidsserien fYtg<br />
gäller:<br />
Yt = + t t 1 t 2 ON (0; ) .<br />
En dylik serie är alltid stationär och det gäller att<br />
8<br />
><<br />
k = 1 +<br />
>:<br />
2 k = 1,<br />
k 2 1<br />
och kk =<br />
, k 1<br />
1 2(k+1)<br />
0 k = 2; 3; : : :<br />
c Mikael Möller
13. Tidsserier 279<br />
Uppgift 39 Visa att en MA(1) alltid är stationär samt har autokorrelationen<br />
ovan.<br />
För att bestämma den partiella autokorrelationsfunktionen kk ställer<br />
vi oss följande fråga: Hur mycket kan vi förbättra vår prognos av yt om<br />
vi erhåller kunskapen yt 1 och yt 2? Det gäller nu att<br />
yt = t t 1<br />
yt 1 = t 1 t 2<br />
yt 2 = t 2 t 3<br />
och vi ser att om vi känner yt 2 så har vi även lite kunskap om t 2.<br />
Detta ger oss i sin tur mer kunskap om t 1 = yt 1 + t 2 vilket sin<br />
tur förbättrar vår skattning av yt. På samma sätt kan vi resonera om<br />
yt 3; yt 4; : : :. Men ju längre bort desto mindre inverkan har den extra<br />
kunskapen. Det måste därför gälla att kk avtar när k växer.<br />
Uppgift 40 Visa med hjälp av ekvationerna 13.4 och 13.5 på sid 276<br />
att en MA(1) har den partiella autokorrelationen ovan.<br />
Vi avslutar detta avsnitt med att indikera arbetsgången i en ARMAanalys<br />
av en tidsserie och hur man gör en prognos. Härvid kommer vi<br />
att använda oss av storheter som ej diskuterats men detta är nödvändigt<br />
för fullständighetens skull. För en full förståelse hänvisas till t ex [2].<br />
Exempel 71 Den svenska barnblöjan Libero …ck en minskad försäljning<br />
i och med Pamper:s intåg på den svenska marknaden. Libero:s försäljningsstatistik<br />
(1000-tals paket) per månad …nns för 10 år bakåt (hela<br />
den tid Pamper funnits på den svenska marknaden). Analysera data<br />
med hjälp av ARMA-teknik och ge en prognos för de följande månadsförsäljningarna.<br />
Lösning 52 Alla analyser börjar med en …gur över rådata, fytg, och<br />
vi ser direkt att detta inte är en stationär tidsserie ty dess väntevärde<br />
ändrar sig över tiden. Serien ger ett intryck av att vara styckvis linjär<br />
och detta indikerar att en di¤erens skall användas. Vi skapar därför<br />
serien<br />
zt = yt yt 1<br />
vars linjediagram ges i …guren nedan Väntevärdet och variansen för serien<br />
fztg ser ut att vara konstanta. Vi kan nu skatta den observerade autokorrelationsfunktionen<br />
och den observerade partiella autokorrelationsfunktionen.<br />
Därvid erhålls …gurerna<br />
c Mikael Möller
280 13.4. ARMA-modeller<br />
Lag Corr. S.E.<br />
1 ,339 ,0905<br />
2 ,125 ,0901<br />
3 +,017 ,0898<br />
4 +,141 ,0894<br />
5 ,016 ,0890<br />
6 ,209 ,0886<br />
7 +,119 ,0882<br />
8 +,049 ,0878<br />
9 ,064 ,0874<br />
10 ,053 ,0870<br />
11 +,096 ,0866<br />
12 +,053 ,0862<br />
13 ,157 ,0858<br />
14 +,051 ,0854<br />
15 +,064 ,0850<br />
1<br />
2<br />
3<br />
1000tals paket<br />
4<br />
3<br />
2<br />
1<br />
0<br />
16<br />
15<br />
14<br />
13<br />
12<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
0 10 20 30 40 50 60 70 80 90 100 110 120 130<br />
Skattad autokorrelationsfunktion<br />
0<br />
0,5 0,0 0,5<br />
Skattad partiell auotokorrelationsfunktion<br />
Lag Corr. S.E.<br />
1 ,339 ,0917<br />
2 ,271 ,0917<br />
3 ,157 ,0917<br />
4 +,066 ,0917<br />
5 +,077 ,0917<br />
6 ,168 ,0917<br />
7 ,030 ,0917<br />
8 +,003 ,0917<br />
9 ,038 ,0917<br />
10 ,042 ,0917<br />
11 +,046 ,0917<br />
12 +,065 ,0917<br />
13 ,081 ,0917<br />
14 ,007 ,0917<br />
15 +,018 ,0917<br />
0<br />
0<br />
0,5 0,0 0,5<br />
Figur 13.15: Autokorrelation och partiell autokorrelation för zt.<br />
Den skattade autokorrelationsfunktionen är signi…kant för k = 1 och<br />
6. Den skattade partiella autokorrelationsfunktionen ger ett avtagande<br />
intryck. Om vi i ett första steg bortser från det signi…kanta värdet för<br />
k = 6 erhålls att vi skall pröva en MA(1)-modell d v s<br />
zt = t t 1 t 2 ON(0; ) .<br />
Man …nner då att = 0:51.Residualserien ger oss sedan …guren<br />
c Mikael Möller
13. Tidsserier 281<br />
Lag Corr. S.E.<br />
1 +,022 ,0905<br />
2 ,081 ,0901<br />
3 +,042 ,0898<br />
4 +,135 ,0894<br />
5 ,052 ,0890<br />
6 ,210 ,0886<br />
7 +,051 ,0882<br />
8 +,030 ,0878<br />
9 ,066 ,0874<br />
10 ,042 ,0870<br />
11 +,081 ,0866<br />
12 +,043 ,0862<br />
13 ,115 ,0858<br />
14 +,039 ,0854<br />
15 +,101 ,0850<br />
Skattad autokorrelationsfunktion<br />
residualer<br />
0<br />
0<br />
0,5 0,0 0,5<br />
Q p<br />
,06 ,8088<br />
,87 ,6480<br />
1,08 ,7808<br />
3,36 ,5001<br />
3,70 ,5940<br />
9,30 ,1577<br />
9,63 ,2103<br />
9,75 ,2827<br />
10,33 ,3246<br />
10,56 ,3931<br />
11,44 ,4074<br />
11,69 ,4708<br />
13,49 ,4110<br />
13,69 ,4730<br />
15,11 ,4434<br />
Lag Corr. S.E.<br />
1 +,022 ,0917<br />
2 ,082 ,0917<br />
3 +,046 ,0917<br />
4 +,127 ,0917<br />
5 ,052 ,0917<br />
6 ,194 ,0917<br />
7 +,045 ,0917<br />
8 ,009 ,0917<br />
9 ,035 ,0917<br />
10 +,006 ,0917<br />
11 +,049 ,0917<br />
12 +,004 ,0917<br />
13 ,083 ,0917<br />
14 +,047 ,0917<br />
15 +,057 ,0917<br />
Skattad partiell autokorrelationsfunktion<br />
residualer<br />
0<br />
0,5 0,0 0,5<br />
Figur 13.16: Autokorrelation och partiell autokorrelation för t.<br />
För För både den skattade autokorrelationen och den skattade partiella<br />
autokorrelationen gäller att tidsdi¤erensen 6 är signi…kant. Dock<br />
detta kapitel går ej längre än till MA(1). Dessutom ser vi att p-värdet<br />
för testvariabeln 11<br />
Q = (n d)(n d + 2)<br />
KX<br />
k=1<br />
r 2 k<br />
n d k<br />
är större än 0:1 för alla tidsdi¤erenser k = 1; 2; : : : ; 15 så vi är nära en<br />
slutmodell. Vi nöjer oss därför med den funna modellen<br />
yt = yt 1 + t 0:51 t 1 t 2 ON(0; ) .<br />
En prognos för månad 121 när y120 = 10:6699459 och ^120 = 1:7662<br />
blir<br />
0:51^120<br />
= 10:6699459 + 0 0:51 ( 1:76620)<br />
y121 = y120 + 121<br />
För månad 122 …nner vi<br />
= 11:571<br />
0:51 121<br />
= 11:571 + 0 0:51 0<br />
y122 = ^y121 + 122<br />
= 11:571<br />
11 Denna testvariabel är framtagen av Ljung och Box och den används för att testa<br />
om vår modell är bra eller ej.<br />
Talet d står här för antalet gjorda di¤erenser och talet K = 1; 2; 3; : : :. I …gurerna<br />
anges denna testvariabel samtidigt med den skattade autokorrelationsfunktionen.<br />
c Mikael Möller
282 13.5. Lösningar till uppgifter<br />
och samma prognosvärde erhålls för de följande månaderna. Observera<br />
att den bästa skattningen vi kan göra av t för t > 120 är väntevärdet<br />
och detta är 0.<br />
13.5 Lösningar till uppgifter<br />
33 För serien fytg gäller att<br />
varav erhålls att<br />
yt;4 + yt+1;4<br />
2<br />
34 Eftersom yt = a så erhålls<br />
yt;4 = yt + yt+1 + yt+2 + yt+3<br />
4<br />
yt+1;4 = yt+1 + yt+2 + yt+3 + yt+4<br />
4<br />
G5 ((fag ; t)) =<br />
35 Eftersom yt = axt + zt så erhålls<br />
= yt + 2yt+1 + 2yt+2 + 2yt+3 + yt+4<br />
.<br />
8<br />
a + 2a + 2a + 2a + a<br />
8<br />
= a<br />
8G5 (a fxtg + fztg ; t) = axt 2 + zt 2 + 2 (axt 1 + zt 1) + 2 (axt + zt)<br />
Division med 8 ger nu påståendet.<br />
+ 2 (axt+1 + zt+1) + axt+2 + zt+2<br />
= a (xt 2 + 2xt 1 + 2xt + 2xt+1 + xt+2)<br />
+ (zt 2 + 2zt 1 + 2zt + 2zt+1 + zt+2)<br />
= 8 aG5 (fxtg ; t) + G5 (fztg ; t)<br />
36 Vi skall visa att punkt 1 och 2 i de…nitionen är uppfyllda.<br />
1. Det gäller att<br />
E(Zt) = E(b + t t 1)<br />
= b + 0 0 = b<br />
oberoende av t. På samma sätt erhålls<br />
V (Zt) = V (b + t t 1)<br />
= 0 + 2 + 2 = 2 2<br />
eftersom vi har oberoende t och således är även variansen konstant.<br />
c Mikael Möller
13. Tidsserier 283<br />
2. Det gäller att 12<br />
C(Zt; Zt k) = C(b + t t 1; b + t k t k 1)<br />
= C(b; b) + C( t<br />
| {z }<br />
=0<br />
t 1; t k t k 1)<br />
= C( t; t k) C( t; t k 1) C( t 1; t k)<br />
+ C( t 1; t k 1) .<br />
Nu gäller att i och j är oberoende (enligt antagandet) när i 6= j<br />
och därför erhålls att<br />
8<br />
<<br />
C(Zt; Zt k) =<br />
:<br />
2 2 k = 0<br />
2 k = 1<br />
0 k = 2; 3; : : :<br />
och det gäller därför att serien fZtg är svagt stationär.<br />
37 Vi skall visa att punkt 1 och 2 i de…nitionen är uppfyllda.<br />
1. Det gäller att<br />
t = E(Yt) = E(10 + 0:95Yt 1 + t)<br />
= 10 + 0:95 t 1<br />
= 10 + 0:95 (10 + 0:95 t 2)<br />
= 10 (1 + 0:95) + 0:95 2 t 2<br />
= 10 1 + 0:95 + 0:95 2 + 0:95 3 t 3 o s v<br />
Lite triviala räkningar ger nu att<br />
1 0:95t<br />
t = 10<br />
1 0:95<br />
+ 0:95t<br />
0<br />
|{z}<br />
=0<br />
1 0:95t t!1 10<br />
= 10 !<br />
1 0:95 1 0:95<br />
12 Kovariansen är en bilinjär form och detta innebär att följande räkneregler gäller:<br />
C(X; Y ) = C(Y; X) ,<br />
C(aX; Y ) = aC(X; Y ) ,<br />
C(X + Z; Y ) = C(X; Y ) + C(Z; Y ) .<br />
Läsaren uppmanas att visa dessa räkneregler utifrån de…nitionen av kovarians<br />
C(X; Y ) = E X E(X) Y E(Y ) .<br />
c Mikael Möller
284 13.5. Lösningar till uppgifter<br />
och vi ser att ett svagt beroende av t föreligger men att detta<br />
beroende klingar av ju längre tiden går. Väntevärdet är således<br />
konstant efter lång tid. För variansen erhåller vi ett liknande resultat<br />
varför<br />
2 1 0:952t<br />
t =<br />
1 0:952 2<br />
t = V (Yt) = V (10 + 0:95Yt 1 + t)<br />
= 0:95 2 V (Yt 1) +<br />
= 0:95 4 V (Yt 2) + 0:95 2 2 + 2<br />
=<br />
2 2t<br />
+ 0:95 V (Y0) =<br />
| {z }<br />
=0<br />
1 0:952t<br />
1 0:952 Variansen är även den konstant efter lång tid.<br />
2. Det gäller att<br />
2 t!1<br />
!<br />
Tk = C(Yt; Yt k) = C(Yt; 10 + 0:95Yt k 1 + t k)<br />
= C(Yt; 10)<br />
| {z }<br />
=0<br />
= 0:95Tk 1<br />
+ 0:95C(Yt; Yt k 1) + C (Yt; t k)<br />
| {z }<br />
=0 k>0<br />
= 0:95 2 Tk 2 = 0:95 3 Tk 3 = : : : = 0:95 k T0<br />
= 0:95 k 2 t<br />
t!1<br />
!<br />
2<br />
.<br />
1 0:952 2<br />
1 0:95 2<br />
Härav följer att kovariansen, efter lång tid, endast beror av tidsdi¤erensen<br />
k.<br />
38 Ovan beräknade vi väntevärdet för Yt till<br />
mY = 1<br />
och utgick då ifrån att stationäritet gällde. Antag nu att vi inte vet att<br />
mY är konstant. Vi får då ekvationen (rekursionen)<br />
c Mikael Möller<br />
mt = + mt 1<br />
= + ( + mt 2)<br />
= + + 2 mt 2
13. Tidsserier 285<br />
och det är nu inte svårt att övertyga sig om att<br />
mt =<br />
Xt<br />
1<br />
i=0<br />
i + t m0 = 1 t<br />
1<br />
+ t m0.<br />
Om nu = 1 så erhålls att mt = t + m0 (l’Hospital:s regel) och om<br />
j j > 1 så växer högerledet med t. I båda fallen har vi inte ett konstant<br />
värde på väntevärdet och således kan vi inte ha en stationär tidsserie för<br />
dessa värden på .<br />
39 Det gäller att<br />
samt att<br />
E(Yt) = + E( t) E( t 1) = + 0 + 0 =<br />
V (Yt) = V ( t) + 2 V ( t 1) = 2 1 + 2<br />
C(Yt; Yt k) = C( + t t 1; + t k t k+1)<br />
= C( ; ) + C( ; t k) C( ; t k+1)<br />
+ C( t; ) + C( t; t k) C( t; t k+1)<br />
C( t 1; ) C( t 1; t k) + 2 C( t 1; t k+1) .<br />
Man övertygar sig lätt om att alla kovarianser är 0 för k = 2; 3; : : : samt<br />
att<br />
2<br />
C(Yt; Yt 1) = .<br />
Det gäller därför att<br />
k = C(Yt; Yt k)<br />
V (Yt)<br />
40 Av de…nition följer att<br />
=<br />
8<br />
<<br />
: 1 + 2 k = 1,<br />
0 k = 2; 3; : : : .<br />
1;1 = 1<br />
Med hjälp av rekursionen 13.4 och 13.5 erhålls<br />
2;2 = 2<br />
1<br />
2<br />
1<br />
2<br />
1<br />
c Mikael Möller
286 13.5. Lösningar till uppgifter<br />
c Mikael Möller
14. ARMA processer<br />
287
288<br />
c Mikael Möller
15. Beslutsteori<br />
Inom all ekonomisk verksamhet fattas dagligen både stora och små beslut.<br />
Oftast är det frågan om beslut av ringa ekonomiskt värde och dessa behöver<br />
sällan någon omfattande utredning men ibland gäller det stora<br />
projekt som t ex tågtunneln genom Hallandsåsen. Behovet av detta projekt<br />
gavs en ekonomisk motivering och borde därför ha ställts inför en<br />
ekonomisk utvärdering för att avgöra om relationen mellan vinst och<br />
kostnad ger rätt tecken. Dock blev det hela en politisk fråga och all<br />
vedertagen vetenskap ‡ög sin kos.<br />
Det …nns också mindre projekt om än ej av samma dignitet som behöver<br />
en vetenskaplig utvärdering. Exempel på ett sådant är när du har<br />
tre miljoner och en person kommer till dig och ansöker om ett bolån på<br />
säg tre miljoner kronor. Skall lånet beviljas eller ej? För att utvärdera<br />
bästa sättet att förvalta de tre miljonerna – som bolån eller annan investering<br />
– kan du naturligtvis ta hjälp av logistisk regression för att<br />
utröna sannolikheten för att personen kan betala ränta och amortering<br />
under en följd av år. Men detta räcker inte för att avgöra vilket av de<br />
två (eller ‡era valen) som skall väljas för att optimera avkastningen på<br />
de tre miljonerna. Istället behöver man beakta förväntad avkastning för<br />
de olika investeringsmöjligheterna för att slutligen välja den investering<br />
som ger bäst förväntad avkastning.<br />
I var och en av de beskrivna situationerna föreligger det en räcka<br />
av val, som du som beslutsfattare kan göra men du drabbas också av<br />
händelser som du ej kan påverka:<br />
Har du gjort ett dåligt val av en tätningsprodukt kan du råka ut<br />
för Rhoca Gil, förgiftat med akrylamid, med ett bra val hade du<br />
sluppit detta.<br />
Har du gjort ett dåligt val av företag får du sparken ty företaget<br />
slimmar (ett politiskt ord för att man avskedar folk) sin organisation<br />
på grund av konjunkturnedgång, med ett bra val hade du<br />
sluppit detta.<br />
Beslutsteorin hjälper oss att fatta beslut i dylika situationer när vi har<br />
kunskap om vinster/kostnader för olika val och olika händelser. Denna<br />
kunskap kan vara antingen exakt som vid de olika valalternativen eller i<br />
form av någon sannolikhetsfunktion som för händelserna.<br />
289
290 15.1. Beslutsprocessen<br />
Vissa beslut fattar vi själva (aktivt) – t ex om man skall köpa ett<br />
företag som tidigare sysslat med asbest eller om vi skall börja byggandet<br />
av tunnel –och denna typ av beslut kallar vi val.<br />
Andra beslut fattas av andra åt oss (icke-aktivt) –t ex om en grupptalan<br />
i ett asbestmål skall väckas mot företaget eller om en tätningsprodukt<br />
innehållet ett giftigt ämne –och denna typ av beslut kallar vi för<br />
händelser. Över händelser rår vi ej (inte alltid sannt) men kan ofta<br />
åsätta dem en sannolikhet för att de skall inträ¤a.<br />
<strong>Till</strong> varje följd av beslut, aktiva och icke-aktiva, förknippas en vinst/kostnad<br />
som kan beräknas och detta kapitel skall ge oss några enkla modeller som<br />
kan leda oss till ett rimligt beslut.<br />
15.1 Beslutsprocessen<br />
Alla beslutsproblem måste ha ett mål ty utan ett mål har vi inget att<br />
besluta om. Dessa mål tar alltid ställning för något ty vi bygger inte en<br />
ny fabrik för att ha något att göra utan för att vi har ett visst mål som<br />
t ex :<br />
skapa en större vinst för koncernen under de följande 5 åren,<br />
skapa sysselsättning åt en del av befolkningen,<br />
bygga en ny järnvägssträckning,<br />
berika VD och vissa prominenta styrelseledamöter o s v.<br />
När så målet är bestämt så gäller det att …nna vad vi kan påverka<br />
(kontrollerbara variabler) och vad vi inte kan påverka (icke-kontrollerbara<br />
variabler).<br />
När det gäller byggandet av en fabrik så kan följande variabler betraktas<br />
som kontrollerbara:<br />
1. aktuellt pris på byggmaterial,<br />
2. tomtpriset,<br />
3. priser på den blivande produktens råvaror,<br />
4. priset på den produkt som skall tillverkas o s v.<br />
Exempel på, för företaget, icke-kontrollerbara variabler kan vara<br />
1. samhällets ekonomiska utvecklingen,<br />
c Mikael Möller
15. Beslutsteori 291<br />
2. politiska beslut om subventioner,<br />
3. kommer produkten att efterfrågas,<br />
4. andra aktörers beslut o s v<br />
Dessa variabler, kontrollerbara och icke-kontrollerbara, är antingen<br />
helt kända som dagspriset på cement medan andra endast är ofullständigt<br />
kända som den ekonomiska utvecklingen. Utifrån ovanstående<br />
information skapar vi sedan en modell för hur vårt beslut skall fattas.<br />
Exempel 72 Du har fått ett arv om en miljon kronor och just nu har du<br />
inte behov av dessa pengar. Däremot, om 5 år, är ditt nuvarande projekt<br />
slut och du tänker då passa på att ta en längre semester. Eftersom du<br />
är obenägen att ta stora risker väljer du mellan två sparformer<br />
1. sätta in pengarna på riksgälden mot en fast 5-årig ränta om 100r<br />
procent.<br />
2. sätta in pengarna mot en variabel årlig ränta om 100ri procent för<br />
år i.<br />
Vad skall du göra?<br />
Lösning 53 Målsättningen här är uppenbar: Du vill optimera din avkastning<br />
under en 5-års period. De variabler som ingår är<br />
Kontrollerbara Antalet år 5, den 5-åriga räntan r, och den första 1åriga<br />
räntan r1.<br />
Okontrollerbara De följande fyra 1-åriga räntorna r2; r3; r4; r5.<br />
De två modellerna som beskriver kapitalets utveckling under de 5 åren<br />
kan skrivas (där k0 = 1 000 000)<br />
1. efter 5 år med fast ränta har vi kapitalet<br />
k5 = k0 (1 + r) 5 .<br />
2. efter 5 år med 5 ett-åriga räntor har vi kapitalet<br />
k5 = k0 (1 + r1) (1 + r2) (1 + r3) (1 + r4) (1 + r5) .<br />
För att fatta beslut simuleras olika troliga (hur det varit historiskt)<br />
ränteutvecklingar för r2; r3; r4 och r5 samt beräkna kapitalet för respektive<br />
räntemix. Välj sedan den sparform som ger störst förväntad avkastning.<br />
c Mikael Möller
292 15.2. Enkla beslutsproblem<br />
För att föra resonemanget vidare behöver vi följande tre de…nitioner<br />
av Val, Händelse och Betalning.<br />
De aktiva valen kan vara V1 = Inga investeringar, V2 = Investera i<br />
be…ntliga anläggningar och personal eller V3 = Bygg en ny anläggning.<br />
De…nition 54 De ömsesidigt uteslutande beslutsalternativ som står till<br />
buds betecknar vi med V1; V2; : : : ; Vn (här står V för ’val’).<br />
De icke-aktiva valen, framtida händelser, som påverkar vårt företag<br />
är t ex h1 = konjunkturuppgång och h2 = konjunkturnedgång.<br />
De…nition 55 De ömsesidigt uteslutande framtida händelser som en beslutsfattare<br />
ej kan påverka betecknar vi med h1; h2; : : : ; hm (här står h<br />
för ’händelse’).<br />
Beroende på de val vi gör och de händelser som drabbar oss erhålls<br />
en vinst eller kostnad (negativ vinst).<br />
De…nition 56 De positiva eller negativa kostnader som associeras med<br />
varje kombination av aktiva och icke-aktiva val betecknar vi med b1;1,<br />
b1;2, : : :, bn;m (där b står för ’betalning’).<br />
15.2 Enkla beslutsproblem<br />
Ett sätt att beskriva en beslutssituation är via en betalningstabell (betalningsmatrisen<br />
betecknas med B) och den betecknar vi med:<br />
Händelse<br />
Val h1 h2 hm<br />
V1 b1;1 b1;2 b1;m<br />
V2 b2;1 b2;2 b2;m<br />
.<br />
.<br />
.<br />
. ..<br />
Vn bn;1 bn;2 bn;m<br />
.<br />
=<br />
Händelse<br />
Val h1 h2 hm<br />
V1<br />
. B<br />
Med dess hjälp kan vi fatta enkla deteriministiska beslut. Beroende på<br />
om bi;j är positiv eller negativ så erhålls en vinst eller en kostnad. Det<br />
…nns nu tre enkla kriterier för att behandla dylika tabeller – ett pessimistiskt,<br />
ett optimistiskt och ett som vi kallar ’förlorade möjligheter’.<br />
Vi skall betrakta och jämföra dessa kriterier utgående från en positiv<br />
betalningsmatris (vinst) och lämnar åt läsaren att ta fram motsvarande<br />
algoritmer när betalningsmatrisen är negativ (kostnad).<br />
c Mikael Möller<br />
Vn
15. Beslutsteori 293<br />
15.2.1 Minimax<br />
Denna algoritm går ut på att för varje val välja den händelse som ger<br />
minst förtjänst och därefter välja det val som ger maximum av dessa minimala<br />
förtjänster. Detta är sannerligen en pessimistisk syn på framtiden<br />
även om den andas lite optimism på slutet. Formellt lägger vi till en kolumn<br />
till betalningstabellen och i denna anger vi minima över raderna.<br />
Längst ned anges det största av dessa minima:<br />
Händelse Rad<br />
Val h1 h2 hm min<br />
V1 b1;1 b1;2 b1;m R1 = min (b1;1; : : : ; b1;m)<br />
V2 b2;1 b2;2 b2;m R2 = min (b2;1; : : : ; b2;m)<br />
.<br />
. . . .. .<br />
.<br />
Vn bn;1 bn;2 bn;m Rn = min (bn;1; : : : ; bn;m)<br />
max (R1; : : : ; Rn)<br />
Motsvarande för en kostnadsmatris blir maximin där vi först maximerar<br />
kostnaden för varje val och sedan tar det val som ger minst kostnad.<br />
15.2.2 Maximax<br />
Denna algoritm går ut på att för varje val välja den händelse som ger<br />
mest förtjänst och därefter välja det val som ger maximum av dessa<br />
maximala förtjänster. Detta är optimistens syn på framtiden. Även här<br />
lägger vi till en kolumn till betalningstabellen som nu innehåller följande<br />
uträkningar<br />
Händelse Rad<br />
Val h1 h2 hm min<br />
V1 b1;1 b1;2 b1;m R1 = max (b1;1; : : : ; b1;m)<br />
V2 b2;1 b2;2 b2;m R2 = max (b2;1; : : : ; b2;m)<br />
.<br />
. . . .. .<br />
.<br />
Vn bn;1 bn;2 bn;m Rn = max (bn;1; : : : ; bn;m)<br />
max (R1; : : : ; Rn)<br />
Motsvarande för en kostnadsmatris blir minimin där vi först minimerar<br />
kostnaden för varje val och sedan tar det val som ger minst kostnad.<br />
c Mikael Möller
294 15.2. Enkla beslutsproblem<br />
15.2.3 Förlorade möjligheter<br />
Ovanstående två metoder är rakt på sak ty de betraktar vinst/kostnad.<br />
En metod som är mer indirekt är att istället bestämma en betalningsmatris<br />
som mäter den besvikelse man känner när man har gjort ett val<br />
och det sedan visar sig att man kunde ha gjort ett bättre val. Först<br />
de…nerar vi vad vi menar med ’besvikelse’:<br />
De…nition 57 Om det föreligger n möjliga val V1; V2; : : : ; Vn och m<br />
möjliga händelser h1; h2; : : : ; hm samt om den ursprungliga betalningsmatrisen<br />
är B = fbijg n;m<br />
i;j=1 så gäller att maximal betalning vid händelsen<br />
hj är b j = max(b1j; b2j; : : : ; bnj); j = 1; 2; : : : ; m. Vi säger nu att valet<br />
Vi ger oss besvikelsen bij := b j<br />
bij. 1<br />
Rent formellt bildar vi för varje enskild händelse maximum, av betalningarna,<br />
över valen. Därefter bildar vi nya betalvärden genom att<br />
från varje kolumnmaximum dra betalvärdet. Därvid erhålls den nya<br />
betalningstabellen<br />
Händelse<br />
Val h1 h2 hm<br />
V1 b 1 b1;1 b 2 b1;2 b m b1;m<br />
V2 b 1 b2;1 b 2 b2;2 b m b2;m<br />
.<br />
.<br />
.<br />
Vn b 1 bn;1 b 2 bn;2 b m bn;m<br />
På denna betalningstabell tillämpar vi sedan maximin-metoden d v s vi<br />
minimerar de största besvikelserna. Vad de enskilda betalningarna här<br />
mäter är den indirekta förlust vi gör om vårt val inte blir det bästa<br />
möjliga.<br />
För att illustrera hur räkningarna genomförs i de tre ovan angivna<br />
metoderna ger vi några exempel.<br />
Exempel 73 Företaget Lego (ett företag i leksaksbranschen) måste för<br />
att kunna möta den ökande konkurrensen inom leksaksmarknaden göra<br />
nya investeringar och har att välja mellan följande beslut:<br />
V1 Inga investeringar görs.<br />
V2 Investera i be…ntliga anläggningar och personal.<br />
1 Beteckningen := betyder att vi omde…nierar det som står till vänster till att<br />
innehålla något nytt – nämligen det som står till höger.<br />
c Mikael Möller<br />
.<br />
.
15. Beslutsteori 295<br />
V3 Bygg en ny anläggning.<br />
Leksaksmarknaden är betingad av antalet barn och konjunkturen. Man<br />
bedömer att två olika möjliga framtider – h1 och h2 (där h1 är konjunkturuppgång<br />
och h2 är konjunkturnedgång) –föreligger och baserat på<br />
tidigare erfarenheter och befolkningsstrukturer sätter man upp följande<br />
vinsttabell:<br />
Händelse<br />
Beslut h1 h2<br />
V1 200 100<br />
V2 1200 200<br />
V3 3000 800<br />
Vilket beslut skall man fatta med metoderna, när man använder begreppet<br />
vinst, minimax, maximax och ’förlorade möjligheter’?<br />
Lösning 54 Minimax-metoden ger oss tabellen<br />
Händelse Rad<br />
Beslut h1 h2 min<br />
V1 200 100 100<br />
V2 1200 200 200<br />
V3 3000 800 800<br />
Rad max: 100<br />
och vi fattar beslutet V1: att göra inga investeringar. Maximax-metoden<br />
ger oss betalningstabellen<br />
Händelse Rad<br />
Beslut h1 h2 max<br />
V1 200 100 200<br />
V2 1200 200 1200<br />
V3 3000 800 3000<br />
Rad max: 3000<br />
och vi fattar beslutet V3: att bygga en ny anläggning. Besvikelsemetoden<br />
d v s metoden med ’förlorade möjligheter’ ger oss betalningstabellen<br />
Händelse<br />
Beslut h1 h2<br />
V1 3000 200 100 ( 100)<br />
V2 3000 1200 100 ( 200)<br />
V3 3000 3000 100 ( 800)<br />
3000 100<br />
)<br />
Händelse Rad<br />
Beslut h1 h2 max<br />
V1 2800 0 2800<br />
V2 1800 100 1800<br />
V3 0 700 700<br />
Rad min: 700<br />
c Mikael Möller
296 15.3. Enkla beslut baserade på väntevärden<br />
och vi fattar beslutet att bygga en ny anläggning.<br />
De deterministiska metoderna ovan är behäftade med en del problem.<br />
Bland annat bryr de sig inte om vinstens storlek utan tar endast hänsyn<br />
till deras ordning. Om t ex b3;1 = 3 000 000 så väljer minmax-metoden<br />
fortfarande beslutet: Inga investeringar. Ej heller tar metoderna hänsyn<br />
till att händelserna kan ha olika sannolikheter att inträ¤a. De påverkas<br />
även av irrelevanta faktorer som regeringars bidragssystem för vissa<br />
typer av verksamheter. Dylika ändrar betalningstabellen och därmed<br />
kan besluten förändras. I nästa avsnitt skall vi ta upp problemet med<br />
att händelserna kan ha olika sannolikheter för att inträ¤a.<br />
15.3 Enkla beslut baserade på väntevärden<br />
Eftersom valen fattas av oss baserat på den kunskap vi äger är dessa<br />
även fortsättningsvis deterministiska men händelserna skall nu betraktas<br />
som stokastiska. Detta betyder att vi skapar en stokastisk modell för<br />
händelserna och därmed kan vi ta hänsyn till storleken på de enskilda<br />
betalningarna. Sätt därför<br />
H = den händelse som inträ¤ar,<br />
där H = fh1; h2; : : : ; hmg och P (H = hi) = pi, i = 1; 2; : : : ; m och<br />
p1 + p2 + + pm = 1. De av oss ovan betraktade metoderna ersätts nu<br />
med:<br />
Förväntad betalning (kostnad) Skillnaden nu blir att istället för<br />
att ta minimum (maximum) för varje val beräknar vi valets förväntade<br />
betalning. Därefter tar vi, som förr, det val som ger den<br />
största förväntade avkastningen (minsta förväntade kostnaden).<br />
Vår utvidgade betalningstabell blir nu<br />
Händelse Rad<br />
Val h1 h2 hm min<br />
V1 b1;1 b1;2 b1;m R1 = P m<br />
i=1 b1;ipi<br />
V2 b2;1 b2;2 b2;m R2 = P m<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
. ..<br />
.<br />
.<br />
i=1 b2;ipi<br />
Vn bn;1 bn;2 bn;m Rn = P m<br />
i=1 bn;ipi<br />
.<br />
.<br />
max (R1; : : : ; Rn)<br />
och vi väljer det alternativ som har störst förväntad vinst (kostnad).<br />
Denna metod ersätter de två metoderna minimax och maximax<br />
(maximin och minimin).<br />
c Mikael Möller
15. Beslutsteori 297<br />
Förväntad besvikelse Den utvidgade besvikelsetabellen blir i sin<br />
tur<br />
Händelse Rad<br />
Val<br />
V1<br />
h1<br />
b 1 b1;1<br />
hm<br />
b m b1;m R1 = Pm i=1 (b V2 b 1 b2;1 b m b2;m<br />
i<br />
R2 = Pm i=1 (b .<br />
Vn<br />
.<br />
b 1 bn;1<br />
. .. .<br />
b m bn;m<br />
i<br />
.<br />
Rn = Pm i=1 (b i<br />
min (R1; : : : ; Rn)<br />
b1;i) pi<br />
b2;i) pi<br />
bn;i) pi<br />
och vi väljer det alternativ som har minst förväntad besvikelse.<br />
Exempel 74 (forts) Företaget Lego:s ekonomichef bedömer sannolikheten<br />
för en konjunkturuppgång till 0:6 och för konjunkturnedgång till 0:4.<br />
Lego:s betalningstabell kan nu skrivas:<br />
Händelse<br />
Beslut h1 h2<br />
V1 200 100<br />
V2 1200 200<br />
V3 3000 800<br />
P (H = hi) 0:6 0:4<br />
Bestäm det val som ger högst förväntad avkastning respektive lägst förväntad<br />
besvikelse.<br />
Lösning 55 I båda fallen har vi att beräkna väntevärden över rader och<br />
…nner därvid tabellerna:<br />
Förväntad betalning<br />
Händelse Rad<br />
Beslut h1 h2 min<br />
V1 200 100 80<br />
V2 1200 200 640<br />
V3 3000 800 1480<br />
P (H = hi) 0:6 0:4 1480<br />
Enligt den utvidgade betalningstabellen skall vi välja att bygga en<br />
ny fabrik.<br />
c Mikael Möller
298 15.3. Enkla beslut baserade på väntevärden<br />
Förväntad besvikelse<br />
Händelse Rad<br />
Beslut h1 h2 min<br />
V1 2800 0 1680<br />
V2 1800 100 1120<br />
V3 0 700 280<br />
P (H = hi) 0:6 0:4 280<br />
Även denna tabell säger att vi skall bygga en ny fabrik.<br />
Exempel 75 En leverantör säljer dagsfärsk morotssaft och inköper varje<br />
morgon ett antal kartonger om 64 burkar till en kostnad av 200 kronor<br />
per kartong. Varje försåld kartong ger en intäkt om 500 kronor. Av<br />
erfarenhet vet leverantören att försäljningen ligger mellan 1 till 3 kartonger<br />
per dag. Hur många kartonger skall inköpas om man tillämpar<br />
metoden med förväntad vinst när historien visat att<br />
P (H = 1) = 0:5, P (H = 2) = 0:3, P (H = 3) = 0:2,<br />
där H =antal försålda kartonger.<br />
Lösning 56 Sätt<br />
Vi beräknar de tre väntevärdena till<br />
Vi = i kartonger köps.<br />
E(V1) = 300 0:5 + 300 0:3 + 300 0:2 = 300<br />
E(V2) = 100 0:5 + 600 0:3 + 600 0:2 = 350<br />
E(V3) = 100 0:5 + 400 0:3 + 900 0:2 = 250<br />
och vi ser att denna metod föreslår att vi skall köpa två kartonger ty då<br />
erhålls störst förväntade vinst.<br />
Om vi i ovanstående exempel med morotssaft använder den givna<br />
fördelningen på en besvikelsetabell istället så erhålls (V B<br />
i anger att<br />
besvikelsetabellens data används)<br />
E(V B<br />
1 ) = 0 0:5 + 300 0:3 + 600 0:2 = 210<br />
E(V B<br />
2 ) = 200 0:5 + 0 0:3 + 300 0:2 = 160<br />
E(V B<br />
3 ) = 400 0:5 + 200 0:3 + 0 0:2 = 260<br />
och även denna tabell föreslår att vi skall köpa två kartonger ty då erhålls<br />
den minsta förväntade besvikelsen.<br />
c Mikael Möller
15. Beslutsteori 299<br />
Vi noterar nu att E(V B<br />
1 ) + E(V1) = 510 samt att även de två andra<br />
valen adderar sig till 510. Detta är ingen tillfällighet ty allmänt har vi<br />
E(V B<br />
i ) =<br />
j=1<br />
E(Vi) =<br />
j=1<br />
mX<br />
j=1<br />
bijpj<br />
och motsvarande för besvikelsetabellen blir<br />
mX<br />
(b j<br />
mX<br />
bij) pj = b jpj<br />
mX<br />
mX<br />
bijpj = b jpj<br />
Men detta ger oss sambandet<br />
E(V B<br />
i ) + E(Vi) =<br />
j=1<br />
j=1<br />
mX<br />
b jpj = konstant oberoende av i<br />
j=1<br />
E (Vi) .<br />
och därför gäller att E(V B<br />
i ) är minst när E(Vi) är störst och vice versa.<br />
Det är därmed visat att metoden med Förväntad betalning ger samma<br />
resultat som metoden med Förväntad besvikelse och framgent behöver<br />
vi därför endast betrakta metoden med Förväntad betalning.<br />
15.4 Enkla beslutsträd<br />
De ‡esta beslutssituationer är dock inte så enkla att de går in under de<br />
modeller vi byggt ovan. Vanligen består ett beslut av ‡era på varandra<br />
följande delbeslut där man inhämtar olika typer av information inför<br />
varje delbeslut. För att kunna hantera även dessa beslutssituationer på<br />
ett bra sätt måste vi bygga ut vår modell och för att kunna göra detta<br />
behöver vi ett alternativt angreppssätt. Vi börjar först med ett par<br />
visuella de…nitioner.<br />
Med en beslutspunkt V och n beslutsgrenar V1; : : : ; Vn avses ett<br />
beslutsträd enligt …guren till vänster.<br />
V a l<br />
V1<br />
V2<br />
Vn<br />
H ä n<br />
h1<br />
h2<br />
hn<br />
c Mikael Möller
300 15.4. Enkla beslutsträd<br />
Med en händelsepunkt H och m händelsegrenar h1; : : : ; hn avses ett<br />
beslutsträd enligt …guren till höger höger. Det går naturligtvis utmärkt<br />
att kombinera dylika enkla beslut- och händelseträd till mycket intrikata<br />
beslutsträd.<br />
Vi betraktar åter igen exemplet med företaget Lego och skall för<br />
detta rita beslutsträd för de två olika betalningstabellerna svarande mot<br />
minimax-metoden och väntevärdes-metoden.<br />
Exempel 76 (forts)Bestäm för företaget Lego, med betalningstabellerna<br />
i exempel 73 sid 294 och 74 sid 297, beslutsträden för en minimax-lösning<br />
respektive ett väntevärdesbeslut.<br />
Lösning 57 Från de två betalningstabellerna erhålls följande beslutsträd<br />
under minimax-regeln<br />
100<br />
Inga investeringar<br />
Investera i bef. anläggningar<br />
k<br />
Bygg ny fabrik<br />
k<br />
respektive beslutsträdet<br />
1480<br />
Inga investeringar<br />
k<br />
Investera i bef. anläggningar<br />
k<br />
Bygg ny fabrik<br />
100<br />
200<br />
800<br />
80<br />
640<br />
1480<br />
Konjunktur<br />
uppgång<br />
nedgång<br />
uppgång<br />
nedgång<br />
uppgång<br />
nedgång<br />
Konjunktur<br />
uppgång<br />
nedgång<br />
uppgång<br />
nedgång<br />
uppgång<br />
nedgång<br />
200<br />
100<br />
1200<br />
200<br />
3000<br />
800<br />
200<br />
100<br />
1200<br />
200<br />
3000<br />
under väntevärdes-regeln. Vi markerar med k att detta val ej skall väljas.<br />
c Mikael Möller<br />
800
15. Beslutsteori 301<br />
Av detta exempel följer att vi inte har någon ny information utan<br />
vad vi har är ett generellare sätt att angripa ett beslutsproblem. Betalningstabellerna<br />
klarar bara av två dimensioner t ex ett val och en<br />
händelse och det är inte trivialt att utveckla dessa tabeller till ‡era val<br />
och ‡era händelser. Däremot är det trivialt att haka på ‡era val och<br />
händelser i ett beslutsträd och detta kommer att ge oss allmäna beslutsträd.<br />
Dock, innan vi går in på de allmäna beslutsträden skall vi utreda<br />
vad betingning kan ge.<br />
15.5 Aposteriorisannolikheter<br />
Tidigare, i avsnittet Sannolikhetslära, de…nierade vi den betingade sannolikheten<br />
för en händelse A givet en händelse B enligt<br />
P (A j B) =<br />
P (A \ B)<br />
P (B)<br />
och denna de…nition innebär att vi begränsar vårt utfallsrum till att<br />
endast omfatta mängden B d v s att B nu utgör det nya utfallsrummet.<br />
Med hjälp av de…nition för betingad sannolikhet skall vi visa en inom<br />
beslutsteorin mycket användbar sats kallad Bayes sats.<br />
Theorem 58 Låt A1; A2; : : : ; An vara ömsesidigt uteslutande händelser<br />
sådana att de tillsammans beskriver hela utfallsrummet . Då gäller för<br />
en godtycklig händelse B i att<br />
P (Ai j B) =<br />
P (B j Ai) P (Ai)<br />
P (B j A1) P (A1) + + P (B j An) P (An)<br />
i = 1; 2; : : : ; n.<br />
Bevis 20 Att de ömsesidigt uteslutande händelserna A1; A2; : : : ; An tillsammans<br />
bildar hela utfallsrummet innebär att<br />
= A1 [ A2 [ [ An och Ai \ Aj = ;, för varje par i; j.<br />
Figuren nedan ger oss följande samband<br />
B = \ B = (A1 [ A2 [ [ An) \ B<br />
= (A1 \ B) [ (A2 \ B) [ [ (An \ B)<br />
där det gäller att alla (Ai \ B) i sin tur är ömsesidigt uteslutande och<br />
därmed har vi, enligt den speciella additionssatsen, att<br />
P (B) = P (A1 \ B) + P (A2 \ B) + + P (An \ B) .<br />
c Mikael Möller
302 15.5. Aposteriorisannolikheter<br />
Men eftersom det enligt de…nition av betingning gäller att<br />
P (Ai \ B) = P (B j Ai) P (Ai) i = 1; 2; : : : ; n<br />
följer påståendet i satsen.<br />
A3<br />
A2<br />
A4<br />
B<br />
A1<br />
An 1<br />
Vad det hela handlar om är således: Givet en apriori-sannolikhet,<br />
P (Ai), samt den nya kunskapen B, bestäm hur den ursprungliga sannolikheten<br />
förändras när B är känd d v s bestäm aposteriori-sannolikheten<br />
P (Ai j B). 2<br />
Exempel 77 En ny …lm har premiär och …lmbolaget bedömer sannolikheten<br />
för succé till 0:7. Historiskt sett har en viss kritiker gett bra<br />
recensioner i 75 procent av de fall då …lmerna blivit succéer och dåliga recensioner<br />
i 90 procent av de fall då de varit misslyckade. Efter premiären<br />
hyllar kritikern …lmen och din uppgift är att bestämma sannolikheten för<br />
en ny succé baserat på denna nya kunskap.<br />
Lösning 58 Av texten följer att händelserna ’succé’och ’bra recension’<br />
är av betydelse. Frågan är vilken av dem som skall erhålla beteckningen<br />
A respektive B. För att avgöra detta konstaterar vi att texten ger<br />
sannolikheten<br />
P (’bra recension’j ’succé’) = 0:75<br />
samt att vi skall beräkna<br />
: : :<br />
An<br />
P (’succé’j ’bra recension’) .<br />
Följande beteckningar är därför lämpliga<br />
A1 = ’succé’<br />
A2 = ’ej succé’<br />
B = ’bra recension’<br />
2 ’prior’står för föregående och ’posterior’för efterföljande.<br />
c Mikael Möller
15. Beslutsteori 303<br />
och vi söker P (A1 j B). Denna sannolikhet kan enligt Bayes sats skrivas<br />
P (A1 j B) =<br />
Ur texten …nner vi 3<br />
P (B j A1) P (A1)<br />
P (B j A1) P (A1) + P (B j A2) P (A2) .<br />
P (A1) = 0:7<br />
P (B j A1) = 0:75<br />
P {B j A2 = 0:9<br />
varför P (A2) = 0:3 och P (B j A2) = 0:1. Sökt sannolikhet erhålls nu<br />
enligt Bayes sats till<br />
P (’succé’j ’bra recension’) =<br />
15.6 Allmäna beslutsträd<br />
0:75 0:7<br />
= 0:95.<br />
0:75 0:7 + 0:1 0:3<br />
Vi såg ovan att vi med hjälp av Bayes sats kan uppdatera vår ursprungliga<br />
sannolikhet (priorsannolikhet) till en ny sannolikhet (posteriorsannolikhet)<br />
när ny information blir tillgänglig. Bayesianska beslutsträd<br />
utnyttjar denna egenskap genom att strukturera olika beslut i form av<br />
ett träd och i detta träd ange de sannolikheter med vilka vi väljer olika<br />
grenar. Därefter kan vi för de olika valen räkna ut de förväntade betalningarna<br />
och med deras hjälp fatta det beslut som ger högst (minst)<br />
förväntad vinst (kostnad).<br />
Exempel 78 För att slippa ifrån EU:s skyddstullar bestämmer sig Toyota<br />
för att bygga en fabrik i England. Man har då att välja mellan att<br />
bygga en liten fabrik (200 000 bilar per år) och en stor fabrik (600 000 bilar<br />
per år). Nu kan efterfrågan på dessa bilar antingen bli svag eller stark<br />
och man bedömer sannolikheten för svag efterfrågan till 0:7. Genom<br />
att ta hänsyn till så många faktorer som möjligt har man beräknat den<br />
genomsnittliga årsvinsten under de närmaste 5 åren och därvid erhållit<br />
betalningstabellen (i någon sort) nedan<br />
Händelse<br />
Beslut h1 h2<br />
V1 8 5<br />
V2 2 12<br />
P (H = hj): 0:7 0:3<br />
3 Beteckningen {B betyder komplementet till mängden B.<br />
c Mikael Möller
304 15.6. Allmäna beslutsträd<br />
där<br />
V1 = bygg liten fabrik<br />
V2 = bygg stor fabrik<br />
h1 = svag efterfrågan<br />
h2 = stark efterfrågan<br />
För att underlätta beslutsfattandet anlitar Toyota en Europeisk konsult<br />
som är specialiserad på marknadsundersökningar för biltillverkare i Europa.<br />
Om denna konsult gäller att denne, historiskt sett, har haft rätt i<br />
sina prognoser om svag efterfrågan i 90 procent av de fall där efterfrågan<br />
blivit svag. I de fall där de prognosticerat stark efterfrågan har de<br />
haft rätt i 80 procent av fallen. Konsulten tar självklart betalt för sin<br />
medverkan och för en dylik prognos debiterar denne 0:1. Hjälp Toyota<br />
att fatta ett beslut – bygga liten eller stor fabrik?<br />
Lösning 59 Först gör vi en så kallad prior-analys baserad på Toyotas<br />
egen information och därefter en posterior-analys där informationen från<br />
konsulten tas med. Med hjälp av denna analys skall vi sedan avgöra om<br />
det är värt pengarna att engagera konsulten samt vilken fabrik som skall<br />
byggas. Betalningstabellen ger följande förväntade vinster:<br />
Liten fabrik: 8 0:7 + 5 0:3 = 7:1<br />
Stor fabrik: 2 0:7 + 12 0:3 = 2:2<br />
och vår rekommendation blir, utan ytterligare information, att Toyota<br />
skall bygga en liten fabrik eftersom den förväntade vinsten då är<br />
störst. Låt oss se hur marknadskonsulten kan ändra på detta resultat.<br />
Vi behöver nu en beteckning för konsultens utlåtande och sätter därför<br />
R1 = konsulten förutsäger svag efterfrågan<br />
R2 = konsulten förutsäger stark efterfrågan<br />
och baserat på det historiska materialet erhålls följande skattade sannolikheter<br />
Det gäller därför att<br />
P (R1 j H = h1) = 0:9, P (R2 j H = h1) = 0:1,<br />
P (R2 j H = h2) = 0:8, P (R1 j H = h2) = 0:2.<br />
P (R1) = P (R1 j H = h1) P (H = h1) + P (R1 j H = h2) P (H = h2)<br />
c Mikael Möller<br />
= 0:9 0:7 + 0:2 0:3 = 0:69
15. Beslutsteori 305<br />
och<br />
P (R2) = 1 P (R1) = 1 0:69 = 0:31.<br />
Med hjälp av dessa sannolikheter beräknar vi nu med hjälp av Bayes sats<br />
0:9 0:7<br />
P (H = h1 j R1) =<br />
P (R1)<br />
0:2 0:3<br />
P (H = h2 j R1) =<br />
P (R1)<br />
0:1 0:7<br />
P (H = h1 j R2) =<br />
P (R2)<br />
0:8 0:3<br />
P (H = h2 j R2) =<br />
P (R2)<br />
63<br />
=<br />
69<br />
6<br />
=<br />
69<br />
7<br />
=<br />
31<br />
24<br />
=<br />
31<br />
0:91<br />
0:09<br />
0:23<br />
0:77<br />
De förväntade vinsterna i noderna blir (för ett färdigt beslutsträd se …gur<br />
nedan)<br />
7:63 = 0:91 7:9 + 0:09 4:9<br />
0:84 = 0:91 2:1 + 0:09 11:9<br />
5:59 = 0:23 7:9 + 0:77 4:9<br />
8:68 = 0:23 2:1 + 0:77 11:9<br />
7:1 = 0:7 8 + 0:3 5<br />
2:2 = 0:7 2 + 0:3 12<br />
7:63 = max( 0:84; 7:63)<br />
8:68 = max(5; 59; 8:68)<br />
7:1 = max(2:2; 7:1)<br />
7:9555 = 7:63 0:69 + 8:68 0:31<br />
7:9555 = max(7:1; 7:9555)<br />
Den maximala förväntade vinsten blir därför 7:9555 och den erhålls via<br />
beslutskedjan: Eftersom 7:9555 7:1 = 0:8555 > 0:1 skall Toyota ge<br />
konsult…rman i uppdrag att undersöka den blivande marknaden. Beslutsträdet<br />
15.1 på sid 306 ger oss nu följande beslutstrategier: Om konsulten<br />
spår<br />
svag efterfrågan bygg en liten fabrik,<br />
stark efterfrågan bygg en stor fabrik.<br />
c Mikael Möller
306 15.6. Allmäna beslutsträd<br />
P (H = h 1 j R 1 ) 12<br />
B y g g lit e n f a b r i k<br />
7:63<br />
P (H = h 2 j R 1 ) 2<br />
P (R 1 )<br />
7:63<br />
P (H = h 1 j R 1 ) 5<br />
B y g g s t o r f a b r i k<br />
c Mikael Möller<br />
0:84<br />
P (H = h 2 j R 1 ) 8<br />
H y r k o n s u lt<br />
7:96<br />
P (H = h 1 j R 2 ) 11:9<br />
B y g g lit e n f a b r i k<br />
5:59<br />
P (H = h 2 j R 2 ) 2:1<br />
P (R 2 )<br />
8:68<br />
P (H = h 1 j R 2 ) 4:9<br />
B y g g s t o r f a b r i k<br />
8:68<br />
7:96<br />
P (H = h 2 j R 2 ) 7:9<br />
P (H = h 1 ) 11:9<br />
B y g g lit e n f a b r ik<br />
7:1<br />
P (H = h 2 ) 2:1<br />
E j k o n s u lt<br />
7:10<br />
P (H = h 1 ) 4:9<br />
B y g g s t o r f a b r ik<br />
2:2<br />
P (H = h 2 ) 7:9<br />
Figur 15.1: Beslutsträd för Toyota.
Litteraturförteckning<br />
[1] A. Agresti (1996), An introduction to categorical data analysis, John<br />
Wiley & Sons, Inc.<br />
[2] Bowerman och O’Connell, Forecasting and time series.<br />
[3] D. Collett (1991), Modelling binary data, Chapman & Hall.<br />
[4] D. R. Cox (1970), Analysis of binary data, Methuen & CO, Ltd.<br />
[5] F. M. Möller (2006), <strong>Introduktion</strong> till matematik för ekonomer,<br />
www.tex-sales.se<br />
[6] F. C. Pampel (2000), Logistic regression, Sage Publications, Inc.<br />
[7] M. Drosnin, Bibelkoden<br />
[8] Qvartilen årgång 19 Vol 3<br />
[9] Qvartilen årgång 20 Vol 2<br />
307