27.07.2013 Views

Föreläsningsmanus fjärde veckan

Föreläsningsmanus fjärde veckan

Föreläsningsmanus fjärde veckan

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Föreläsningsmanus</strong> i matematisk statistik<br />

för lantmätare, vecka 3 och 4 HT07<br />

1 Inledning<br />

Bengt Ringnér<br />

September 5, 2007<br />

Detta är preliminärt undervisningsmaterial. Synpunkter är välkomna.<br />

2 Stokastiska variabler<br />

En stokastisk variabel är ett slumpmässigt försök där resultatet är ett eller<br />

flera tal. Ibland, t. ex. när man räknar kombinatorik, är det lämpligt<br />

att betrakta den som en funktion fr˚an ett utfallsrum till tallinjen. Om<br />

försöket g˚ar ut p˚a att räkna n˚agot, kallas variabeln diskret, medan den kallas<br />

kontinuerlig om man mäter n˚agot varvid resultatet blir ett reellt tal.<br />

2.1 Diskreta stokastiska variabler<br />

2.1.1 Likformig fördelning<br />

Här har alla värden samma sannolikhet. Exempel är tärningskast. Man<br />

skriver<br />

P(X = 1) = 1/6, P(X = 2) = 1/6, etc.,<br />

där X betecknar resultatet av försöket att kasta en tärning och räkna antalet<br />

prickar.<br />

2.1.2 Binomialfördelning<br />

Här utg˚ar man fr˚an ett försök som<br />

• kan utfalla p˚a tv˚a sätt,<br />

• kan upprepas flera g˚anger under samma betingelser och<br />

1


• där upprepningarna är oberoende av varandra.<br />

Man gör ett givet antal, n, försök som har en sannolikhet p att utfalla p˚a<br />

ena sättet och räknar antalet s˚adana utfall. Det kan vara antalet dagar man<br />

f˚ar punktering när man cyklar till skolan, antalet sexor vid tärningskast eller<br />

antalet krona vid slantsingling. Man brukar benämna utfallen som lyckade<br />

och misslyckade eller 0 och 1 och räkna antalet lyckade resp. antalet ettor.<br />

Man sätter q = 1 − p.<br />

För att beräkna sannolikheter börjar vi med specialfallet att n = 3. Vi<br />

har d˚a följande möjligheter:<br />

X = 0<br />

⎧<br />

000 sannolikhet qqq<br />

⎨ 100 — ” — pqq<br />

X = 1 010 — ” — qpq<br />

⎩<br />

⎧<br />

001 — ” — qqp<br />

⎨ 110 — ” — ppq<br />

X = 2 101 — ” — pqp<br />

⎩<br />

011 — ” — qpp<br />

X = 3 111 —”— ppp.<br />

Detta ger, eftersom det inte spelar n˚agon roll i vilken ordning p och q multipliceras<br />

ihop,<br />

P(X = 0) = q 3 , P(X = 1) = 3pq 2 , P(X = 2) = 3p 2 q, P(X = 3) = p 3 .<br />

Den allmänna formeln är<br />

P(X = k) =<br />

där <br />

n<br />

=<br />

k<br />

och<br />

n! =<br />

<br />

n<br />

p<br />

k<br />

k q n−k<br />

n!<br />

(n − k)!k!<br />

1 · 2 · ... · n om n = 1,2,...<br />

1 om n = 0<br />

Uttrycket n över k f˚ar man fram med kombinatorik. Det är lika med antalet<br />

sätt att att välja ut k platser att sätta ettorna p˚a. Välj först en plats.<br />

Detta kan göras p˚a n sätt. Till vart och ett av dessa finns n − 1 sätt att<br />

välja plats nästa g˚ang. Antalet kombinationer är nu n(n −1), men eftersom<br />

2


det inte spelar n˚agon roll vilken ordning platserna väljs, kan 2 platser väljas<br />

p˚a n(n − 1)/2 sätt. Allts˚a<br />

<br />

n n<br />

= n, =<br />

1 2<br />

n(n − 1) n!<br />

=<br />

2 (n − 2)!2! .<br />

Genom att fortsätta i samma stil f˚ar vi<br />

<br />

n<br />

=<br />

3<br />

n(n − 1)(n − 2)<br />

2 · 3<br />

osv. Slutligen gäller <br />

n<br />

=<br />

0<br />

=<br />

<br />

n<br />

= 1,<br />

n<br />

n!<br />

(n − 3)!3! ,<br />

eftersom man bara har en möjlighet.<br />

Benämningen binomialfördelning kommer fr˚an binomialteoremet i matematiken;<br />

(a + b) 2 = a 2 + 2ab + b 2 ,<br />

osv. och allmänt<br />

(a+b) n = a n +na n−1 b+<br />

(a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 ,<br />

(a + b) 4 = a 4 + 4a 3 b + 6a 2 b 2 + 4ab 3 + b 4 ,<br />

n(n − 1)<br />

2<br />

=<br />

n!<br />

a n−2 b 2 +...+<br />

(n − k)!k! an−kb k +...+b n =<br />

n<br />

k=0<br />

<br />

n<br />

a<br />

k<br />

n−k b k ,<br />

som man f˚ar fram just genom att räkna antalet ordningsföljder när man<br />

multiplicerar ihop n − k stycken a:n och k stycken b:n. I specialfallet a = q<br />

och b = p f˚ar vi<br />

n<br />

P(X = k) =<br />

k=0<br />

n<br />

k=0<br />

<br />

n<br />

p<br />

k<br />

k q n−k = (q + p) n = 1 n = 1,<br />

s˚a summan av sannolikheterna för alla möjliga utfall är ett, vilket den m˚aste<br />

vara.<br />

Slutligen en inledning till begreppet väntevärde, eller medelvärde i det<br />

l˚anga loppet. Vid till exempel tärningskast säger teorin att man i det l˚anga<br />

loppet kommer att f˚a sexa i 1/6 av fallen. I ett mindre antal försök brukar<br />

det bli ungefär s˚a; om man gör t. ex. 60 kast är det rimligt att gissa p˚a<br />

3


10 sexor. Detta kallas väntevärde. Väntevärdet för en binomialfördelning<br />

är tydligen np. I ett senare kapitel skall vi införa en matematisk definition<br />

av väntevärdet tillsammans med varians och standardavvikelse som har att<br />

göra med hur mycket utfallet brukar avvika fr˚an väntevärdet, antingen detta<br />

sker upp˚at eller ned˚at.<br />

2.1.3 Poissonfördelning<br />

Denna används i situationer som kan tänkas beskrivas av en binomialfördelning,<br />

men där bara väntevärdet, dvs. np, är känt och inte n och p separat, man<br />

vet bara att n är mycket stort. Den kan ocks˚a användas som approximation<br />

av binomialfördelningen. Som exempel kan vi ta trafikräkning; under en<br />

tiominutersperiod räknar man antalet fordon som passerar en given punkt.<br />

Detta är den stokastiska variabeln X. Trafikintensiteten antas vara 2.45 fordon<br />

per minut, dvs i det l˚anga loppet kommer det i medeltal 2.45 fordon per<br />

minut. Väntevärdet för antalet fordon under tiominutersperioden är allts˚a<br />

24.5. Eftersom trafikintensiteten är ganska l˚ag behöver bilarna inte vänta<br />

p˚a varandra och man kan resonera s˚a här: Det finns ett mycket stort antal<br />

bilar som var och en har liten sannolikhet att passera under mätperioden.<br />

Eftersom trafiken är gles kan man räkna med att de är oberoende av varandra.<br />

Detta skulle innebära att X är binomialfördelad med np = µ = 24.5,<br />

dvs. p = µ/n och q = 1 − µ/n. L˚at nu n g˚a mot oändligheten och utnyttja<br />

standardgränsvärdena<br />

<br />

lim 1 +<br />

n→∞<br />

1<br />

n = e ≈ 2.7182818<br />

n<br />

och<br />

<br />

lim 1 +<br />

n→∞<br />

x<br />

n = e<br />

n<br />

x ,<br />

(som bland annat används vid ränteberäkningar). Detta ger<br />

P(X = 0) = lim<br />

n→∞<br />

P(X = 1) = lim<br />

n→∞ nµ<br />

n<br />

<br />

1 − µ<br />

n = e<br />

n<br />

−µ ,<br />

<br />

1 − µ<br />

n−1 = µe<br />

n<br />

−µ ,<br />

<br />

(1−µ/n) n /(1 − µ/n)<br />

<br />

→1<br />

osv. Vi fördjupar oss inte i detta utan skriver upp den allmänna formeln<br />

P(X = k) = e −µµk<br />

, k = 0,1,2,... .<br />

k!<br />

4


Notera ocks˚a att<br />

∞<br />

P(X = k) =<br />

k=0<br />

∞<br />

k=0<br />

e −µµk<br />

k!<br />

enligt n˚agon Mac-Laurin-utveckling, som man kan sväva i lycklig okunnighet<br />

om i denna kurs.<br />

I situationer som den ovan har man exakt poissonfördelning. Men resonemanget<br />

ger ocks˚a att man kan approximera binomialfördelningen med poissonfördelningen<br />

om n är n˚agorlunda stort i förh˚allande till p. Detta kan<br />

underlätta beräkningar. Man har kommit fram till att approximationen<br />

är hyfsad (det beror naturligtvis p˚a vilken noggrannhet man vill ha) om<br />

p ≤ 0.1.<br />

2.1.4 Geometrisk fördelning<br />

Man utg˚ar fr˚an samma försök som i binomialfördelningen, men räknar antalet<br />

nollor innan man f˚ar en etta. Till exempel antalet dagar i sträck man<br />

kan cykla till skolan utan att f˚a punktering. Nu gäller<br />

etc., dvs.<br />

= 1<br />

P(X = 0) = p, P(X = 1) = qp, P(X = 2) = q 2 p,<br />

P(X = k) = q k p, k = 0,1,2,... .<br />

Om man räknar med det sista försöket ocks˚a, kallas det en ffg-fördelning<br />

efter för första g˚angen. Om Y = X + 1, är allts˚a Y ffg-fördelad och<br />

etc., dvs.<br />

P(Y = 1) = p, P(Y = 2) = qp, P(Y = 3) = q 2 p,<br />

Som kontroll konstaterar vi att<br />

P(Y = k) = q k−1 p, k = 1,2,3,... .<br />

∞<br />

P(X = k) =<br />

k=0<br />

∞<br />

P(Y = k) = 1<br />

k=1<br />

enligt formeln för geometriska seriens summa. Sannolikheten är allts˚a noll<br />

att man aldrig kommer till slut. Vi g˚ar inte in p˚a filosofiska resonemang<br />

kring detta, utan konstaterar bara att i praktiken kan man lugnt räkna med<br />

att förr eller senare f˚a punktering (skulle jag ha fel p˚a den punkten kommer<br />

det aldrig att märkas).<br />

5


Slutligen n˚agot om väntevärdet. Om sannolikheten att f˚a punktering<br />

är, säg, 0.1, kommer man i det l˚anga loppet att f˚a punktering en tiondel<br />

av dagarna, vilket är samma sak som att det är i medeltal tio dagar<br />

mellan punkteringarna. Enligt detta resonemang är väntevärdet för en ffgfördelning<br />

1/p, och 1/p − 1 = q/p för en geometrisk, vilket kommer att visa<br />

sig stämma med teorin senare.<br />

2.1.5 Allmänt<br />

Funktionen som ger P(X = k) kallas sannolikhetsfuntionen, p˚a engelska<br />

probability mass function, pmf, i Matlab pdf, för den stokastiska variabeln<br />

X och betecknas pX. I de olika fallen ovan har vi<br />

<br />

1/6 om k = 1,2,3,4,5,6<br />

pX(k) =<br />

0 annars,<br />

pX(k) =<br />

<br />

n<br />

p<br />

k<br />

k q n−k , k = 0,1,... ,n,<br />

pX(k) = e −µµk<br />

, k = 0,1,2,... ,<br />

k!<br />

och s˚a vidare. Det är underförst˚att att funktionen är noll för de k-värden<br />

som inte finns med i formeln.<br />

Vilken fördelning som man använder beror p˚a sammanhanget.<br />

Det finns fler sannolikhetsfunktioner än de som g˚atts igenom ovan. Man<br />

kan ha vilken funktion som helst bara den uppfyller<br />

• 0 ≤ pX(k) ≤ 1 för alla k, och<br />

• ∞<br />

k=0 pX(k) = 1.<br />

Det vanliga är att man med teoretiska resonemang kommer fram till en<br />

formel som inneh˚aller okända parametrar, t ex µ. Metoder att skatta<br />

parametrarna fr˚an data och metoder att kontrollera att funktionsuttrycket<br />

är förenligt med observationer kommer i andra delen av kursen.<br />

2.2 Kontinuerliga stokastiska variabler<br />

Här kan man inte tala om sannolikheten för enskilda värden; sannolikheten<br />

är noll att f˚a 0.0000..., 1.3400000..., π eller √ 2 med alla decimaler rätt<br />

i all oändlighet. Däremot kan man tala om sannolikheten att hamna i ett<br />

intervall mellan a och b.<br />

6


2.2.1 Likformig fördelning, eller rektangelfördelning<br />

Istället för att kasta tärning kan vi tänka oss att snurra en penna och notera<br />

vinkeln, mätt i grader, när den stannar. Om man har bra snurr p˚a pennan<br />

fr˚an början är det rimlig att alla värden mellan 0 och 360 är lika sannolika<br />

i den meningen att intervallen 0–1, 1–2, ..., 359–360 har sannolikhet 1/360.<br />

Motsvarande gäller om man delar in i tiondels grad, hundradels grad, osv.<br />

Allts˚a<br />

b − a<br />

P(a < X < b) =<br />

360 .<br />

Medelvärdet i det l˚anga loppet, dvs. väntevärdet, är 180.<br />

2.2.2 Exponentialfördelning<br />

Detta är den kontinuerliga motsvarigheten till den geometriska fördelningen;<br />

i varje ögonblick kan n˚agonting inträffa oberoende av hur l˚ang tid som g˚att,<br />

och man registrerar tiden tills detta sker. Om man räknar tiden i hela<br />

dagar, hela timmar, hela minuter, etc, f˚ar man en geometrisk fördelning, om<br />

man inte avrundar blir det en exponentialfördelning. Om sannolikheten för<br />

händelsen (t ex punktering) i ett litet intervall är λ g˚anger intervallängden,<br />

kan man efter en del gränsöverg˚angar komma fram till<br />

b<br />

P(a < X < b) = λe −λx dx.<br />

Detta kan man jämföra med geometriska fördelningens<br />

a<br />

P(a ≤ X ≤ b) =<br />

b<br />

q k p<br />

om man tänker p˚a att q k = e k log q , varvid log q, som är negativt, svarar mot<br />

−λ och p svarar mot λdx.<br />

Man brukar införa µ = 1/λ, varvid<br />

a<br />

k=a<br />

b 1<br />

P(a < X < b) =<br />

µ e−x/µ dx,<br />

och µ är väntevärdet av X, vilket verkar rimligt om man tänker p˚a att<br />

väntevärdet av en ffgfördelning är 1/p.<br />

7


2.2.3 Normalfördelning<br />

Kommer i särskilt avsnitt senare. Här gäller<br />

b 1<br />

P(a < X < b) = √ e<br />

2πσ −(x−µ)2 /2σ2 dx.<br />

2.2.4 Allmänt<br />

a<br />

Integranden kallas (sannolikhets)täthetsfunktion, p˚a enelska probability density<br />

function, pdf, och betecknas med fX. I fallet likformig fördelning mellan<br />

A och B gäller<br />

s˚a<br />

P(a < X < b) =<br />

För exponentialfördelning är<br />

b − a<br />

B − A =<br />

b<br />

a<br />

1<br />

B − A dx,<br />

1<br />

fX(x) = B−A om A ≤ x ≤ B<br />

0 annars.<br />

fX(x) = 1<br />

µ e−x/µ , x > 0,<br />

underförst˚att att fX är noll för negativa x, alternativt att den bara är<br />

definierad för värden som X kan anta, dvs positiva.<br />

Som täthetsfunktion kan man ha vilken funktion som helst som uppfyller<br />

• fX(x) ≥ 0 för alla x, och<br />

• ∞<br />

−∞ fX(x)dx = 1, alternativt B<br />

värden mellan A och B.<br />

A fX(x)dx = 1 om X bara kan anta<br />

Observera att funktionen mycket väl kan vara större än ett. Det bör ocks˚a<br />

p˚apekas att den skall ha n˚agon egenskap, t ex kontinuitet, som gör att den<br />

är integrerbar.<br />

2.3 Fördelningsfunktion<br />

Sannolikhetsfunktionen och täthetsfunktionen talar om hur den totala sannolikheten<br />

ett fördelar sig p˚a enskilda tal, resp. enligt arean under funktionskurvan.<br />

Ett annat sätt att ange fördelningen är att använda fördelningsfunktionen.<br />

Tag som exempel exponentialfördelningen.<br />

b<br />

P(a < X < b) =<br />

a<br />

1<br />

µ e−x/µ <br />

dx = −e −x/µ b<br />

a = e−a/µ − e −b/µ<br />

8


enligt den vanliga metoden med primitiv funktion. Primitiv funktion som<br />

brukar betecknas med F i matematiken är bestämd s˚a när som p˚a en integrationskonstant;<br />

vi hade lika gärna kunnat använda t ex 18 − e−x/µ .<br />

Fördelningsfunktionen för en kontinuerlig stokastisk variabel är ett specialfall<br />

av primitiv funktion, nämligen<br />

x<br />

FX(x) = fX(s)ds.<br />

Detta ger<br />

För exponentialfördelningen f˚ar vi<br />

−∞<br />

P(a < X < b) = FX(b) − FX(a),<br />

P(X < b) = FX(b)<br />

P(X > a) = 1 − FX(a).<br />

FX(x) =<br />

0<br />

0ds +<br />

−∞<br />

<br />

kan hoppas över<br />

x 1<br />

0 µ es/µ ds = 1 − e −x/µ .<br />

Nu blir sannolikhetsberäkningen<br />

b 1<br />

P(a < X < b) =<br />

µ e−x/µ dx =<br />

= FX(b) − FX(a) = (1 − e −b/µ ) − (1 − e −a/µ ) = e −a/µ − e −b/µ .<br />

Eftersom FX är ett val av primitiv funktion till fX gäller naturligtvis<br />

a<br />

fX(x) = F ′ X (x).<br />

För normalfördelningen kan man inte räkna ut primitiv funktion analytiskt,<br />

utan detta m˚aste göras numeriskt. I boken tabell 1 finns detta i fallet µ = 0<br />

och σ = 1. I ett senare avsnitt skall vi g˚a igenom hur man kan f˚a övriga fall<br />

ur detta.<br />

Om den stokastiska variabeln är kontinuerlig spelar det ingen roll om<br />

man har < eller ≤ i sannolikheten i vänsterledet. Är den diskret blir det<br />

däremot skillnad:<br />

P(a ≤ X ≤ b) =<br />

b<br />

P(X = k) =<br />

k=a<br />

9<br />

b a−1<br />

pX(k) − pX(k),<br />

k=0<br />

k=0


P(a < X ≤ b) =<br />

b<br />

k=a+1<br />

P(X = k) =<br />

b<br />

pX(k) −<br />

k=0<br />

a<br />

pX(k),<br />

osv. För att räkna ut detta utan att behöva räkna ut varje term och summera,<br />

kan man använda fördelningsfunktionen, som, när x är heltal, ges<br />

av<br />

x<br />

FX(x) = pX(k).<br />

k=0<br />

För binomialfördelningen och poissonfördelningen finns den i tabell 8 resp 7.<br />

För geometrisk fördelning f˚ar man använda formeln för geometrisk summa.<br />

I praktiken är naturligtvis a och b heltal. Skulle man behöva räkna ut<br />

sannolikheten att X ligger mellan t ex 3.4 och 12.5, utnyttjar man att detta<br />

samma sak som 4 < X ≤ 12. Detta innebär att den allmänna definitionen<br />

av fördelningsfunktionen är<br />

⌊x⌋<br />

<br />

FX(x) = pX(k)<br />

k=0<br />

där ⌊x⌋ betecknar heltalsdelen av x.<br />

Slutligen bör det nämnas att det finns stokastiska variabler som är varken<br />

diskreta eller kontinuerliga. Den allmänna definitionen av fördelningsfunktion<br />

är<br />

FX(x) = P(X ≤ x)<br />

och definitionerna ovan är specialfall av detta. Eftersom händelserna X ≤ a<br />

och a < X ≤ b inte kan inträffa samtidigt gäller<br />

P(X ≤ b) = P(X ≤ a eller a < X ≤ b) = P(X ≤ a) + P(a < X ≤ b).<br />

Detta ger<br />

P(a < X ≤ b) = FX(b) − FX(a).<br />

Eftersom fördelningsfunktionen är definierad som en sannolikhet har den<br />

egenskaperna<br />

• den ligger mellan 0 och 1, och<br />

• den är växande.<br />

I specialfallen ovan ser man att<br />

k=0<br />

• om x g˚ar mot ∞ eller −∞ g˚ar FX(x) mot 1 resp. 0, och<br />

10


• om FX hoppar, som när X är diskret och x passerar heltal, är det det<br />

större värdet som gäller i hoppunkten.<br />

För att bevisa detta allmänt skulle man behöva definiera sannolikhetsbegreppet<br />

lite noggrannare än vad vi har gjort. Omvänt kan man med en<br />

hel del djupsinnig matematik bevisa att varje funktion med de fyra egenskaperna<br />

ovan kan användas som fördelningsfunktion, men det g˚ar vi inte<br />

in p˚a här.<br />

2.4 Sammanfattning<br />

• För diskreta variabler har man sannolikhetsfunktionen<br />

pX(k) = P(X = k).<br />

• För kontinuerliga variabler har man täthetsfunktionen, s˚adan att<br />

Observera<br />

P(a < X < b)<br />

P(a < X ≤ b)<br />

P(a ≤ X < b)<br />

P(a ≤ X ≤ b)<br />

⎫<br />

⎪⎬<br />

b<br />

= fX(x)dx.<br />

⎪⎭ a<br />

P(X = a) = 0.<br />

• Sannolikheter för intervall kan man antingen räkna ut manuellt eller<br />

f˚a ur fördelningsfunktionen. I det kontinuerliga fallet har man<br />

P(a < X < b) = FX(b) − FX(a),<br />

och sträng eller osträng olikhet spelar ingen roll, medan i det diskreta<br />

gäller<br />

P(a < X ≤ b) = FX(b) − FX(a).<br />

Här f˚ar man göra en omskrivning om man har andra olikheter. Till<br />

exempel<br />

P(3 < X < 7) = P(3 < X ≤ 6) = P(4 ≤ X < 7) = P(4 ≤ X ≤ 6) = FX(6)−FX(3).<br />

• En hel del information finns i formelsamlingen.<br />

11


2.5 Flerdimensionella stokastiska variabler<br />

En tv˚adimensionell stokastisk variabel är i praktiken samma sak som tv˚a<br />

stokastiska variabler som hör ihop. Till exempel kan man mäta längd och<br />

bredd p˚a samma objekt. Om variablerna heter X och Y , s˚a ger (X,Y ) ett<br />

talpar eller koordinaterna för en punkt i planet. Ett exempel p˚a detta är<br />

mötesproblemet i avsnitt 2.5 vecka 2.<br />

2.5.1 Diskreta fallet<br />

Detta fall lär man sig bäst genom att räkna övningsuppgifter. Dessa kommer<br />

emellertid inte förrän senare i kursen. Sannolikheten att X = j och Y = k<br />

skrivs<br />

P(X = j,Y = k)<br />

och funktionen pX,Y som ges av<br />

pX,Y (j,k) = P(X = j, Y = k)<br />

kallas sannolikhetsfunktion. Sedan räknar man n˚agra p˚ahittade exempel där<br />

man inte har fler fall än att de kan sättas upp i en tabell, t ex:<br />

X\ Y 0 1 2 3<br />

0 0.05 0.12 0.12 0.05<br />

1 0.12 0.08 0.05 0.10<br />

2 0.08 0.05 0.08 0.05<br />

Summan av alla värdena är 1. Sannolikhetsfördelningen för X ges av de tre<br />

radsummorna och sannolikhetsfördelningen för Y ges av de fyra kolonnsummorna,<br />

eftersom<br />

P(X = j) = P(X = j, Y = vad som helst) =<br />

= P(X = j, Y = 0)+P(X = j, Y = 1)+P(X = j, Y = 2)+P(X = j, Y = 3)<br />

och motsvarande för Y . Därför kallas dessa fördelningar marginalfördelningarna.<br />

Allmänt har vi<br />

∞<br />

∞<br />

pX(j) = P(X = j) = P(X = j, Y = k) = pX,Y (j,k)<br />

k=0<br />

och motsvarande för Y . Man kan ocks˚a räkna ut sannolikheter för X + Y .<br />

I exemplet ovan är t ex<br />

k=0<br />

P(X + Y ≥ 4) = 0.08 + 0.10 + 0.05 = 0.23<br />

12


och<br />

P(X + Y = 4) = 0.08 + 0.10 = 0.18.<br />

Ett annat exempel är summan av tv˚a tärningskast i avsnitt 2.1.<br />

Ett viktigt specialfall är<br />

• X och Y är oberoende om<br />

P(X = j, Y = k) = P(X = j)P(Y = k).<br />

D˚a är alla rader i tabellen proportionella mot varandra, och alla kolonner<br />

är det ocks˚a.<br />

2.5.2 Kontinuerliga fallet<br />

Detta avsnitt ligger utanför kursen och tas med för att f˚a en avrundning av<br />

kursinneh˚allet, och för att öka först˚aelsen för resten.<br />

Vi börjar med ett exempel: En person ˚aker först buss, sedan taxi.<br />

Väntetiden p˚a bussen är likformigt fördelad i intervallet mellan 0 och 10<br />

medan väntetiden p˚a taxin är exponentialfördelad med väntevärde 8, om<br />

man räknar i minuter. Tiderna anses oberoende. Hur stor är sannolikheten<br />

att han f˚ar vänta sammanlagt minst 15 minuter?<br />

Om väntetiderna betecknas med X, resp. Y , skall vi räkna ut P(X+Y ≥<br />

15). Detta är sannolikheten att hamna i det streckade omr˚adet i figuren.<br />

Om man byter summa mot integral och sannolikhetsfunktion mot täthetsfunktion<br />

i resonemanget i förra stycket, f˚ar 1 man<br />

<br />

<br />

P(X + Y ≥ 15) =<br />

10 ∞ 1 1<br />

=<br />

0 10 x−15 8 e−y/8 dy<br />

<br />

e−(15−x)/8 fX(x)fY (y)dxdy =<br />

x+y≥15<br />

dx = e−15/8<br />

10<br />

x+y≥15<br />

0≤x≤10<br />

1 1<br />

10 8 e−y/8 dxdy =<br />

10<br />

e<br />

0<br />

−x/8 dx<br />

<br />

8(1−e−10/8 ≈ 0.0875.<br />

)<br />

1<br />

För att härleda detta utg˚ar man fr˚an sannolikhetsmodellen att P(a < X < b) =<br />

R b<br />

a fX(x)dx, P(c < Y < d) = R d<br />

fY (y)dy och att händelserna är oberoende. Sanno-<br />

c<br />

likheten att (X, Y ) hamnar i en ruta är d˚a<br />

P(a < X < b, c < Y < d) =<br />

Z b<br />

a<br />

fX(x)dx<br />

Z d<br />

c<br />

fY (y)dy =<br />

Z dZ<br />

b<br />

c<br />

a<br />

fX(x)fY (y)dxdy.<br />

Genom att sedan dela in planet i mindre och mindre rutor och addera sannolikheterna för<br />

dessa f˚ar man det sökta resultatet.<br />

13


25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

Y<br />

−5<br />

−5 0 5 10 15 20<br />

Figure 1: Väntetiderna p˚a bussen resp. taxin med omr˚adet X + Y ≥ 15<br />

streckat<br />

14<br />

X


Allmänt har vi en täthetsfunktion fX,Y s˚adan att<br />

<br />

P((X,Y ) ∈ A) =<br />

De marginella täthetsfunktionerna ges av<br />

∞<br />

fX(x) =<br />

fX,Y (x,y)dxdy.<br />

A<br />

fX,Y (x,y)dy<br />

−∞<br />

och motsvarande för Y . Man definierar att X och Y är oberoende om<br />

fX,Y (x,y) = fX(x)fY (y).<br />

15

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!