Kapitel 9 Verteilungsmodelle
Kapitel 9 Verteilungsmodelle
Kapitel 9 Verteilungsmodelle
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Kapitel</strong> 9<br />
<strong>Verteilungsmodelle</strong><br />
Es gibt eine Reihe von <strong>Verteilungsmodelle</strong>n für univariate diskrete und stetige<br />
Zufallsvariablen, die sich in der Praxis bewährt haben. Wir wollen uns von<br />
diesen einige anschauen.<br />
9.1 Diskrete <strong>Verteilungsmodelle</strong><br />
Es gibt eine Reihe von von Zugängen zu <strong>Verteilungsmodelle</strong>n für diskrete<br />
Zufallsvariablen. Man kann die Wahrscheinlichkeitsfunktion einer diskreten<br />
Zufallsvariablen dadurch gewinnen, dass man den Träger TX vorgibt und<br />
für jedes x ∈TX die Wahrscheinlichkeit P (X = x) festlegt. Dabei müssen<br />
natürlich die Gleichungen 5.2 und 5.1 auf Seite 147 erfüllt sein. Eine andere<br />
Möglichkeit besteht darin, auf einem geeigneten Wahrscheinlichkeitsraum<br />
eine Zufallsvariable zu definieren. Schauen wir uns zunächst ein Beispiel für<br />
die erste Möglichkeit an.<br />
9.1.1 Die Gleichverteilung<br />
Definition 9.1<br />
Die Zufallsvariable X heißt gleichverteilt, wenn gilt<br />
für x =1,...,N.<br />
P (X = x) = 1<br />
N<br />
199<br />
(9.1)
200 KAPITEL 9. VERTEILUNGSMODELLE<br />
Für den Erwartungswert und die Varianz der diskreten Gleichverteilung gilt<br />
und<br />
E(X) =<br />
N +1<br />
2<br />
Var(X) = N 2 − 1<br />
12<br />
Schauen wir uns zuerst den Erwartungswert an:<br />
E(X) =<br />
N�<br />
x=1<br />
x 1<br />
N<br />
= 1<br />
N<br />
N�<br />
x=1<br />
Für die Varianz bestimmen wir zunächst<br />
E(X 2 ) =<br />
N�<br />
x=1<br />
2 1<br />
x<br />
N<br />
= 1<br />
N<br />
= (N + 1)(2N +1)<br />
6<br />
Hierbei haben wir benutzt, das gilt<br />
Die Varianz ist dann<br />
N�<br />
x 2 =<br />
x=1<br />
Var(X) = E(X 2 ) − E(X) 2 =<br />
= N +1<br />
x = 1 N(N +1)<br />
N 2<br />
N�<br />
x=1<br />
.<br />
(9.2)<br />
. (9.3)<br />
= N +1<br />
2<br />
x 2 = 1 N(N + 1)(2N +1)<br />
N 6<br />
N(N + 1)(2N +1)<br />
6<br />
(N + 1)(2N +1)<br />
6<br />
.<br />
−<br />
(N +1)2<br />
4<br />
(N +1)(N−1) [4N +2− 3N − 3] =<br />
12 12<br />
= N 2 − 1<br />
12<br />
Beispiel 76<br />
Die Gleichverteilung ist ein sinnvolles Modell für die Augenzahl beim einmaligen<br />
Wurf eines fairen Würfels. Hier gilt<br />
P (X = x) = 1<br />
6<br />
.
9.1. DISKRETE VERTEILUNGSMODELLE 201<br />
für x =1, 2,...,6. Es gilt E(X) =3.5 und Var(X) =35/12.<br />
Abbildung 9.1 zeigt die Wahrscheinlichkeitsfunktion.<br />
Abbildung 9.1: Wahrscheinlichkeitsfunktion der Gleichverteilung<br />
c(0, 1/6)<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
0 2 4 6 8<br />
9.1.2 Vom Bernoulliprozess abgeleitete Verteilungen<br />
Einer Reihe von Verteilungen liegt der sogenannte Bernoulliprozess zu<br />
Grunde.<br />
Der Bernoulliprozess<br />
c(1, 1)<br />
Bei einem Zufallsvorgang sei ein Ereignis A mit P (A) =p von Interesse.<br />
MansprichtauchvoneinemBernoullivorgang und nennt das Ereignis A<br />
oft auch Erfolg. EinenBernoulliprozess erhält man nun dadurch, dass<br />
man einen Bernoullivorgang mehrmals beobachtet, wobei folgende Annahmen<br />
getroffen werden:<br />
• Die einzelnen Bernoullivorgänge sind voneinander unabhängig.<br />
• Die Erfolgswahrscheinlichkeit p bleibt konstant.<br />
Beispiel 77<br />
Im Beispiel 58 auf Seite 152 haben wir ein Teilchen betrachtet, dass sich<br />
zufällig auf den ganzen Zahlen bewegt, wobei es im Nullpunkt startet. Jeder<br />
Schritt des Teilchens ist ein Bernoulliexperiment. Es gibt nur 2 Möglichkeiten.<br />
Das Teilchen geht entweder nach links, was wir mit A, oder es geht nach<br />
rechts, was wir mit Ā bezeichnen. Da das Teilchen sich zufällig entscheidet,
202 KAPITEL 9. VERTEILUNGSMODELLE<br />
gilt P (A) = p = 0.5. Wenn wir unterstellen, dass die Entscheidung des<br />
Teilchens bei einem Schritt unabhängig von den anderen Schritten getroffen<br />
wird, und die Erfolgswahrscheinlichkeit p konstant bleibt, beobachten wir bei<br />
n Schritten einen Bernoulliprozess der Länge n.<br />
Beim Bernoulliprozess sind für uns zwei Zufallsvariablen von Interesse:<br />
• Anzahl der Erfolge bei n Durchführungen.<br />
• Anzahl der Misserfolge vor dem ersten Erfolg<br />
Schauen wir uns die Verteilungen dieser Zufallsvariablen im Detail an.<br />
Die Binomialverteilung<br />
Definition 9.2<br />
Die Zufallsvariable X heißt binomialverteilt mit den Parametern n und p,<br />
wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch:<br />
für x =0, 1,...,n.<br />
P (X = x) =<br />
� �<br />
n<br />
p<br />
x<br />
x (1 − p) n−x<br />
(9.4)<br />
Die Binomialverteilung erhält man, wenn man bei einem Bernoulliprozess der<br />
Länge n die Erfolge zählt. Dies kann man sich folgendermaßen klarmachen:<br />
Sei X die Anzahl der Erfolge bei einem Bernoulliprozess der Länge n.DieZufallsvariable<br />
X kann die Werte 0, 1, 2,...,nannehmen. Nimmt X den Wert x<br />
an,sowurdenxErfolge A und n − x Mißerfolge Ā beobachtet. Aufgrund der<br />
Unabhängigkeit der einzelnen Durchführungen beträgt die Wahrscheinlichkeit<br />
einer Folge aus x Erfolgen A und n−x Mißerfolgen Ā gleich px (1−p) n−x .<br />
Eine Folge, die x-mal ein A und n − x-mal ein Ā enthält, ist eindeutig durch<br />
die Positionen der A festgelegt. Wir haben im Beispiel 44 auf Seite 126 ge-<br />
sehen, dass es<br />
� �<br />
n<br />
=<br />
x<br />
n!<br />
x!(n − x)!<br />
Möglichkeiten gibt, die Positionen der A zu wählen. Also gilt<br />
P (X = x) =<br />
� �<br />
n<br />
p<br />
x<br />
x (1 − p) n−x<br />
für x =0, 1,...,n.
9.1. DISKRETE VERTEILUNGSMODELLE 203<br />
Für eine binomialverteilte Zufallsvariable X gilt<br />
und<br />
E(X) =np<br />
Var(X) =np(1 − p) .<br />
Beispiel 77 (fortgesetzt)<br />
Sei X die Anzahl der Schritte nach links. Die Zufallsvariable X ist binomialverteilt<br />
mit den Parametern n = 3 und p =0.5. Es gilt für x =0, 1, 2, 3:<br />
P (X = x) =<br />
� �<br />
3<br />
0.5<br />
x<br />
x (1 − 0.5) 3−x =<br />
Tabelle 9.1 zeigt die Wahrscheinlichkeitsfunktion.<br />
� �<br />
3<br />
0.5<br />
x<br />
3<br />
Tabelle 9.1: Wahrscheinlichkeitsfunktion der Binomialverteilung mit n =3<br />
und p =0.5<br />
x 0 1 2 3<br />
P (X = x) 0.125 0.375 0.375 0.125<br />
Außerdem gilt E(X) =1.5 und Var(X) =0.75.<br />
Abbildung 9.2 zeigt die Wahrscheinlichkeitsfunktion der Binomialverteilung<br />
für n = 10 und p =0.1, p =0.2, p =0.5 und p =0.8.<br />
Wir sehen, dass die Wahrscheinlichkeitsfunktion der Binomialverteilung für<br />
p =0.5 symmetrisch ist. Für p0.5<br />
linksschief.
204 KAPITEL 9. VERTEILUNGSMODELLE<br />
Abbildung 9.2: Wahrscheinlichkeitsfunktion der Binomialverteilung für n =<br />
10 und p =0.1, p =0.2, p =0.5 und p =0.8<br />
0.3<br />
0.2<br />
0.1<br />
0.0<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
Binomialverteilung mit n=10,p=0.1<br />
0 1 2 3 4 5 6 7 8 9 10<br />
Binomialverteilung mit n=10,p=0.5<br />
0 1 2 3 4 5 6 7 8 9 10<br />
0.30<br />
0.25<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
0.30<br />
0.25<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
Binomialverteilung mit n=10,p=0.2<br />
0 1 2 3 4 5 6 7 8 9 10<br />
Binomialverteilung mit n=10,p=0.8<br />
0 1 2 3 4 5 6 7 8 9 10<br />
Die Binomialverteilung mit n = 1 heißt Bernoulliverteilung. Die Wahrscheinlichkeitsfunktion<br />
der Bernoulliverteilung ist gegeben durch:<br />
P (X = x) =p x (1 − p) 1−x<br />
für x =0, 1.<br />
Es gilt also<br />
P (X =0)=1− p<br />
und<br />
P (X =1)=p.<br />
Eine bernoulliverteilte Zufallsvariable X zählt, wie oft A bei einem Bernoullivorgang<br />
eingetreten ist. Für eine bernoulliverteilte Zufallsvariable X gilt<br />
E(X) =p und Var(X) =p(1 − p). Schauen wir uns erst den Erwartungswert<br />
an:<br />
E(X) =0· (1 − p)+1· p = p.<br />
Für die Varianz bestimmen wir<br />
E(X 2 )=0· (1 − p)+1· p = p
9.1. DISKRETE VERTEILUNGSMODELLE 205<br />
und erhalten<br />
Var(X) =E(X 2 ) − E(X) 2 = p − p 2 = p(1 − p) .<br />
Die geometrische Verteilung<br />
Eine bernoulliverteilte Zufallsvariable zählt die Anzahl der Erfolge bei einem<br />
Bernoulliprozess der Länge n. Schauen wir uns die Wahrscheinlichkeitsfunktion<br />
der Misserfolge vor dem ersten Erfolg an.<br />
Definition 9.3<br />
Die Zufallsvariable X heißt geometrisch verteilt mit Parameter p, wennihre<br />
Wahrscheinlichkeitsfunktion gegeben ist durch<br />
P (X = x) =p (1 − p) x<br />
für x =0, 1,... (9.5)<br />
Die geometrische Verteilung erhält man, wenn man bei einem Bernoulliprozess<br />
die Anzahl der Misserfolge vor dem ersten Erfolg zählt. Dies kann man<br />
sich folgendermaßen klarmachen:<br />
Sei X die Anzahl der Misserfolge vor dem ersten Erfolg bei einem Bernoulliprozess.<br />
Die Zufallsvariable X kann die Werte 0, 1, 2,...annehmen. Nimmt X<br />
den Wert x an, so wurden x Mißerfolge Ā und genau ein Erfolg A beobachtet,<br />
wobei das A das letzte Symbol in der Folge ist. Wir erhalten also<br />
ĀĀ...Ā � �� � A<br />
x−mal<br />
Da die einzelnen Durchführungen unabhängig sind, beträgt die Wahrscheinlichkeit<br />
dieser Folge<br />
(1 − p)(1 − p) ···(1 − p) p =(1−p) � �� �<br />
x−mal<br />
x p.<br />
Ist X geometrisch verteilt mit Prameter p, so gilt<br />
und<br />
E(X) =<br />
Var(X) =<br />
1 − p<br />
p<br />
1 − p<br />
p 2<br />
.
206 KAPITEL 9. VERTEILUNGSMODELLE<br />
Beispiel 77 (fortgesetzt)<br />
Wir warten so lange, bis das Teilchen zum ersten Mal nach links geht, und<br />
zählen die Anzahl X der Schritte nach rechts vor dem ersten Schritt nach<br />
links. Die Zufallsvariable X ist geometrisch verteilt mit p =0.5. Es gilt<br />
P (X = x) =0.5 x+1<br />
Außerdem gilt E(X) = 1 und Var(X) =2.<br />
für x =0, 1, 2, .... .<br />
Oft betrachtet man anstatt der Anzahl X der Misserfolge die Anzahl Y der<br />
Versuche bis zum ersten Erfolg, wobei man den Erfolg mitzählt. Offensichtlich<br />
gilt<br />
Y = X +1.<br />
Die Wahrscheinlichkeitsfunktion von Y ist:<br />
Ausßerdem gilt<br />
und<br />
P (Y = y) =p (1 − p) y−1<br />
E(Y )= 1<br />
p<br />
Var(Y )=<br />
für y =1,... . (9.6)<br />
1 − p<br />
p 2<br />
9.1.3 Die hypergeometrische Verteilung<br />
Wir haben die Binomialverteilung aus dem Bernoulliprozess hergeleitet. Man<br />
kann sie aber auch aus einem einfachen Urnenmodell gewinnen. Hierzu betrachten<br />
wir eine Urne, die N Kugeln enthält, von denen M weiß und die<br />
restlichen N −M schwarz sind. Der Anteil p der weißen Kugeln ist also M/N.<br />
Zieht man n Kugeln mit Zurücklegen, so ist die Anzahl X der weißen Kugeln<br />
mit den Parametern n und p binomialverteilt. Zieht man ohne Zurücklegen<br />
aus der Urne, so besitzt die Anzahl X der weißen Kugeln eine hypergeometrische<br />
Verteilung. Die Wahrscheinlichkeit P (X = x) erhalten wir in diesem<br />
Fall folgendermaßen:<br />
Insgesamt gibt es � � N<br />
Möglichkeiten, von den N Kugeln n ohne Zurücklegen<br />
n<br />
auszuwählen. Es gibt � � M<br />
Möglichkeiten, von den M weißen Kugeln x Kugeln<br />
x<br />
.
9.1. DISKRETE VERTEILUNGSMODELLE 207<br />
auszuwählen, und es gibt � � N−M<br />
Möglichkeiten, von den N − M schwarzen<br />
n−x<br />
Kugeln n − x Kugeln auszuwählen. Somit gilt<br />
P (X = x) =<br />
für max{0,n− (N − M)} ≤x ≤ min{n, N}.<br />
� �� �<br />
M N − M<br />
x n − x<br />
� �<br />
N<br />
n<br />
Definition 9.4<br />
Die Zufallsvariable X heißt hypergeometrisch verteilt mit den Parametern<br />
N, M und n, wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch<br />
� �� �<br />
M N − M<br />
x n − x<br />
P (X = x) = � � (9.7)<br />
N<br />
n<br />
für max{0,n− (N − M)} ≤x ≤ min{n, N}.<br />
Es gilt<br />
und<br />
Setzen wir p = M/N, sogilt<br />
Var(X) =n M<br />
N<br />
E(X) =n M<br />
N<br />
N − M<br />
N<br />
E(X) =np<br />
N − n<br />
N − 1<br />
und<br />
N − n<br />
Var(X) =np(1 − p)<br />
N − 1 .<br />
Der Erwartungswert der Binomialverteilung und der hypergeometrischen Ve-<br />
teilung sind also identisch. Für n>1ist N−n<br />
N−1<br />
.<br />
kleiner als 1. Somit ist für<br />
n>1 die Varianz der hypergeometrischen Verteilung kleiner als die Varianz<br />
der Binomialverteilung.
208 KAPITEL 9. VERTEILUNGSMODELLE<br />
Beispiel 78<br />
Eine Urne enthält 10 Kugeln, von denen 4 weiß sind. Es werden zuerst 3<br />
Kugeln mit Zurücklegen und dann 3 Kugeln ohne Zurücklegen gezogen. Sei<br />
X die Anzahl der weißen Kugeln beim Ziehen mit Zurücklegen und Y die<br />
Anzahl der weißen Kugeln beim Ziehen ohne Zurücklegen. Es gilt<br />
und<br />
P (X = x) =<br />
P (Y = y) =<br />
� �<br />
3<br />
0.4<br />
x<br />
x 0.6 3−x<br />
� ��<br />
4 6<br />
�<br />
y 3 − y<br />
� �<br />
10<br />
3<br />
.<br />
Tabelle 9.2 zeigt die Wahrscheinlichkeitsverteilungen der Zufallsvariablen X<br />
und Y .<br />
Tabelle 9.2: Wahrscheinlichkeitsverteilung der hypergeometrischen und der<br />
Binomialverteilung<br />
Wert Binomial- Hypergeometrische<br />
verteilung Verteilung<br />
0 0.216 0.167<br />
1 0.432 0.500<br />
2 0.288 0.300<br />
3 0.064 0.033<br />
Wir sehen an der Tabelle, warum bei der Binomialverteilung die Varianz<br />
größer ist als bei der hypergeometrischen Verteilung. Die extremen Werte 0<br />
und 3 sind bei der Binomialverteilung wahrscheinlicher als bei der hypergeometrischen<br />
Verteilung.<br />
Was passiert mit der Wahrscheinlichkeitsfunktion der hypergeometrischen<br />
konstant bleibt?<br />
Verteilung, wenn N beliebig groß wird, wobei aber p = M<br />
N
9.1. DISKRETE VERTEILUNGSMODELLE 209<br />
Es gilt:<br />
P (X = x) =<br />
Also gilt<br />
=<br />
=<br />
lim P (X = x)<br />
N→∞<br />
= lim<br />
N→∞<br />
= lim<br />
N→∞<br />
� �� �<br />
M N − M<br />
x n − x<br />
� �<br />
N<br />
n<br />
= (M)x (N − M)n−x n!<br />
x!(n − x)! (N)n<br />
� �<br />
n (M)x (N − M)n−x<br />
x (N)n<br />
� �<br />
n M<br />
x N<br />
� �<br />
n M M − 1<br />
x N N − 1<br />
� �<br />
n M<br />
x N<br />
M<br />
N<br />
− 1<br />
N<br />
1 − 1<br />
N<br />
� � 1<br />
n p − N<br />
= lim p<br />
N→∞ x 1 − 1<br />
N<br />
=<br />
� �<br />
n<br />
p<br />
x<br />
x (1 − p) n−x<br />
− x +1N<br />
− M − M − n + x +1<br />
···M ···N<br />
N − x +1 N − x N − n +1<br />
···<br />
− x +1N<br />
− M − M − n + x +1<br />
···M ···N<br />
N − x +1 N − x N − n +1<br />
···<br />
M<br />
N<br />
− x−1<br />
N<br />
1 − x−1<br />
N<br />
x−1 p − N<br />
1 − x−1<br />
1 − p<br />
1 − N<br />
x<br />
N<br />
1 − M<br />
N<br />
1 − x<br />
N<br />
···<br />
···<br />
1 − M<br />
N<br />
− n−x−1<br />
N<br />
1 − n−1<br />
N<br />
1 − p − n−x−1<br />
N<br />
1 − n−1<br />
N<br />
Für große Werte von N können wir also die hypergeometrische Verteilung<br />
durch die Binomialverteilung approximieren.<br />
Außerdem bestätigt die Aussage die intuitive Annahme, dass es keinen Unterschied<br />
macht, ob man aus einer sehr großen Grundgesamtheit mit oder<br />
ohne Zurücklegen zieht.
210 KAPITEL 9. VERTEILUNGSMODELLE<br />
9.1.4 Die Poissonverteilung<br />
Schauen wir uns an, was mit der Wahrscheinlichkeitsfunktion der Binomialverteilung<br />
geschieht, wenn wir n beliebig groß werden lassen. Auch hier<br />
müssen wir beim Grenzübergang eine Restriktion berücksichtigen, da sonst<br />
die Wahrscheinlichkeit gegen Null geht. Wir fordern, dass λ = np konstant<br />
bleibt. Mit<br />
p = λ<br />
n .<br />
gilt also<br />
da gilt<br />
lim P (X = x) = lim<br />
n→∞ n→∞<br />
lim<br />
n→∞<br />
= lim<br />
n→∞<br />
= λx<br />
x!<br />
�<br />
lim 1 −<br />
n→∞<br />
λ<br />
n<br />
�<br />
lim 1 −<br />
n→∞<br />
λ<br />
n<br />
= λx<br />
x! e−λ<br />
� �<br />
n<br />
p<br />
x<br />
x (1 − p) n−x<br />
n!<br />
x!(n − x)!<br />
(n)x<br />
lim<br />
n→∞ nx �<br />
λ<br />
�x� n<br />
�<br />
lim<br />
n→∞<br />
1 − λ<br />
n<br />
1 − λ<br />
n<br />
� n<br />
� n−x<br />
lim<br />
n→∞<br />
(n)x n n − 1 − x +1<br />
= lim ···n<br />
nx n→∞ n n n<br />
� n<br />
� −x<br />
= e −λ<br />
= 1<br />
�<br />
1 − λ<br />
n<br />
Definition 9.5<br />
Die Zufallsvariable X heißt poissonverteilt mit dem Parameter λ, wennihre<br />
Wahrscheinlichkeitsfunktion gegeben ist durch:<br />
für x =0, 1,....<br />
P (X = x) = λx<br />
x! e−λ<br />
=1<br />
� −x<br />
(9.8)
9.1. DISKRETE VERTEILUNGSMODELLE 211<br />
Die Poissonverteilung wird auch die Verteilung der seltenen Ereignisse genannt,<br />
da p = λ mit wachsenem n immer kleiner wird.<br />
n<br />
Ist X poissonverteilt mit Parameter λ, sogilt<br />
und<br />
E(X) =λ<br />
Var(X) =λ .<br />
Abbildung 9.3 zeigt die Wahrscheinlichkeitsfunktion der Poissonverteilung<br />
für λ =1,λ =2,λ = 5 und λ = 10.<br />
Abbildung 9.3: Wahrscheinlichkeitsfunktion Poissonverteilung für λ =1,λ =<br />
2, λ = 5 und λ =10<br />
0.35<br />
0.30<br />
0.25<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
Poissonverteilung lambda=1<br />
0 1 2 3 4 5<br />
Poissonverteilung lambda=5<br />
0 2 4 6 8 10 12 14<br />
0.25<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
0.12<br />
0.10<br />
0.08<br />
0.06<br />
0.04<br />
0.02<br />
0.00<br />
Poissonverteilung lambda=2<br />
0 1 2 3 4 5 6 7 8 9 10<br />
Poissonverteilung lambda=10<br />
0 2 4 6 8 10 13 16 19<br />
Wir sehen, dass die Wahrscheinlichkeitsfunktion der Poissonverteilung mit<br />
wachsendem λ immer symmetrischer wird.
212 KAPITEL 9. VERTEILUNGSMODELLE<br />
Beispiel 79<br />
Wir haben im Beispiel 55 auf Seite 148 die Anzahl der Tore betrachtet,<br />
die in der Saison 2001/2002 in der Fußballbundesliga je Spiel geschossen<br />
wurden. Dabei wurden nur Spiele betrachtet, in denen höchstens 5 Tore<br />
fielen. Es wurden aber auch mehr Tore geschossen. Tabelle 9.3 zeigt die<br />
Häufigkeitsverteilung der Anzahl Tore in allen 306 Spielen.<br />
Tabelle 9.3: Häufigkeitstabelle der Anzahl der Tore in einem Bundesligaspiel<br />
in der Saison 2001/2002<br />
x 0 1 2 3 4 5 6 7<br />
n(X = x) 23 35 74 69 56 23 19 7<br />
h(X = x) 0.075 0.114 0.242 0.225 0.183 0.075 0.062 0.023<br />
Der Mittelwert der Anzahl Tore beträgt 2.9. Tabelle 9.4 zeigt die Wahrscheinlichkeitsverteilung<br />
der Poissonverteilung mit λ =2.9.<br />
Tabelle 9.4: Wahrscheinlichkeitsverteilung der Poissonverteilung mit Parameter<br />
λ =2.9<br />
x 0 1 2 3 4 5 6 7<br />
P (X = x) 0.055 0.160 0.231 0.224 0.162 0.094 0.045 0.019<br />
Wir sehen, dass die Wahrscheinlichkeiten und relativen Häufigkeiten gut<br />
übereinstimmen. Dies besteht auch die Abbildung 9.4, in der beiden Verteilungen<br />
gegenübergestellt sind.<br />
Wir werden später lernen, warum es sinnvoll ist, für λ den Mittelwert der<br />
Beobachtungen zu wählen.
9.1. DISKRETE VERTEILUNGSMODELLE 213<br />
Abbildung 9.4: Stabdiagramm der Anzahl der Tore mit Wahrscheinlichkeitsfunktion<br />
der Poissonverteilung mit Parameter λ =2.9<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
Empirie<br />
Modell<br />
0 1 2 3 4 5 6 7<br />
Warum die Poissonverteilung ein sinnvolles Modell für die Anzahl der in<br />
einem Spiel geschossenen Tore ist, zeigen die folgenden Überlegungen.<br />
Die Poissonverteilung spielt eine zentrale Rolle bei Ankunftsprozessen. Hier<br />
soll die Anzahl X(a, t) der Ankünfte im Intervall (a, a+t] modelliert werden.<br />
Dabei geht man von folgenden Annahmen aus:<br />
1. X(a, t) und X(a ∗ ,t ∗ ) sind unabhängig, wenn (a, a + t] und (a ∗ ,a ∗ + t ∗ ]<br />
disjunkt sind.<br />
2. X(a, h) hängt von h aber nicht von a ab.<br />
3.<br />
4.<br />
P (X(a, h) =1)≈ λh .<br />
P (X(a, h) > 1) ≈ 0 .<br />
Annahme 1 besagt, dass die Häufigkeit des Auftretens von A in einem Intervall<br />
unabhängig ist von der Häufigkeit des Auftretens von A in einem dazu<br />
disjunkten Intervall.<br />
Annahme 2 besagt, dass die Häufigkeit des Auftretens von A in einem Intervall<br />
der Länge h nur von der Länge, aber nicht von der Lage des Intervalls<br />
abhängt.
214 KAPITEL 9. VERTEILUNGSMODELLE<br />
Annahme 3 besagt, dass die Wahrscheinlichkeit, dass A in einem sehr kleinen<br />
Intervall der Länge h genau einmal eintritt, proportional zur Länge des<br />
Intervalls ist.<br />
Annahme 4 besagt, dass die Wahrscheinlichkeit, dass A in einem sehr kleinen<br />
Intervall der Länge h mehr als einmal eintritt, vernachlässigt werden kann.<br />
Schauen wir uns dafür ein Beispiel an:<br />
Beispiel 80<br />
Der Verkehrsstrom einer Fernstraße wird an einem festen Beobachtungspunkt<br />
protokolliert, wobei jeweils festgehalten wird, wann ein Fahrzeug den Beobachtungspunkt<br />
passiert.<br />
Annahme 1 besagt, dass der Verkehrsstrom völlig regellos ist. Ereignisse in<br />
nichtüberlappenden Intervallen sind unabhängig.<br />
Annahme 2 besagt, dass der Verkehrsstrom von konstanter Intensität ist.<br />
Die Wahrscheinlichkeit, dass in einem Zeitintervall der Länge hkFahrzeuge<br />
eintreffen, hängt von der Länge des Intervalls, nicht jedoch von seiner Lage<br />
ab.<br />
Annahme 4 besagt, dass das Auftreten geschlossener Fahrzeuggruppen vernachlässigt<br />
werden kann.<br />
Unter den Annahmen 1 bis 4 ist X(a, t) poissonverteilt mit dem Parameter<br />
λt. Es gilt also<br />
P (X(a, t) =x) = (λt)x<br />
x!<br />
Dies sieht man folgendermaßen:<br />
e −λt<br />
für x =0, 1,....<br />
Wir teilen das Intervall (a, a + t] in n gleichgroße Intervalle der Länge h = t<br />
n .<br />
Aufgrund von Annahme 4 kann A in jedem dieser Intervalle nur einmal oder<br />
keinmal eintreten. In jedem dieser Intervalle beträgt die Wahrscheinlichkeit,<br />
A genau einmal zu beobachten,<br />
p = λh = λt<br />
n<br />
Da die Intervalle disjunkt sind, ist das Eintreten von A in den einzelnen<br />
Intervallen unabhängig. Außerdem ist jedes Intervall gleich lang, so dass p<br />
konstant ist.<br />
Es liegt also ein Bernoulliprozess der Länge n mit Erfolgswahrscheinlichkeit<br />
vor. Somit gilt<br />
p = λt<br />
n<br />
P (X(a, t) =x) =<br />
� �� �x �<br />
n λt<br />
1 −<br />
x n<br />
λt<br />
�n−x n
9.2. STETIGE VERTEILUNGSMODELLE 215<br />
Lassen wir n über alle Grenzen wachsen, so erhalten wir<br />
P (X(a, t) =x) = (λt)x<br />
x!<br />
e −λt<br />
9.2 Stetige <strong>Verteilungsmodelle</strong><br />
für x =0, 1,....<br />
Man erhält für eine stetige Zufallsvariable ein Modell, indem man eine Funktion<br />
fX(x)vorgibt, die die Gleichungen (5.9)und (5.10) auf Seite (154) erfüllen.<br />
9.2.1 Die Gleichverteilung<br />
Definition 9.6<br />
Die Zufallsvariable X heißt gleichverteilt auf dem Intervall [a, b], wenn ihre<br />
Dichtefunktion gegeben ist durch:<br />
⎧<br />
⎨ 1<br />
für a ≤ x ≤ b<br />
fX(x) = b − a<br />
⎩<br />
0 sonst<br />
(9.9)<br />
Im Beispiel 59 auf Seite 155 haben wir die Gleichverteilung auf [0, 10] näher<br />
betrachtet. Die Dichtefunktion ist in Abbildung 5.3 auf Seite 155 zu finden.<br />
Die Verteilungsfunktion FX(x) ist gegeben durch:<br />
⎧<br />
⎪⎨ 0 für xb<br />
Die Verteilungsfunktion der Gleichverteilung auf [0, 10] ist in Abbildung 5.4<br />
auf Seite 156 zu finden.<br />
Aus der Verteilungsfunktion können wir problemlos die Quantile bestimmen.<br />
Es gilt<br />
xp = a + p(b − a) . (9.10)<br />
Wir erhalten Gleichung (9.10), indem wir folgende Gleichung nach xp auflösen:<br />
xp − a<br />
= p.<br />
b − a
216 KAPITEL 9. VERTEILUNGSMODELLE<br />
Außerdem gilt<br />
und<br />
E(X) =<br />
Var(X) =<br />
Dies sieht man folgendermaßen:<br />
E(X) =<br />
=<br />
�b<br />
a<br />
a + b<br />
2<br />
(a − b)2<br />
12<br />
x 1 1<br />
dx =<br />
b − a b − a<br />
1 b<br />
b − a<br />
2 − a2 2<br />
�b<br />
a<br />
xdx= 1<br />
b − a<br />
= 1 (b + a)(b − a)<br />
b − a 2<br />
Für die Varianz bestimmen wir zunächst E(X 2 ). Es gilt<br />
Also gilt<br />
E(X 2 ) =<br />
�b<br />
a<br />
2 1 1<br />
x dx =<br />
b − a b − a<br />
�b<br />
a<br />
= a + b<br />
x 2 dx = 1<br />
b − a<br />
= b3 − a3 3(b − a) = (b − a)(a2 + ab + b2 )<br />
3(b − a)<br />
Var(X) = E(X 2 ) − E(X) 2 = a2 + ab + b 2<br />
= 4a2 +4ab +4b 2 − 3a 2 − 6ab − 3b 2<br />
12<br />
= (a − b)2<br />
12<br />
3<br />
−<br />
� x 2<br />
2<br />
� b<br />
a<br />
2<br />
� x 3<br />
3<br />
� b<br />
a<br />
= a2 + ab + b 2<br />
3<br />
(a + b)2<br />
4<br />
= a2 − 2ab + b 2<br />
12<br />
(9.11)<br />
(9.12)<br />
Eine zentrale Rolle spielt die Gleichverteilung auf [0, 1]. Bei dieser gilt a =0<br />
und b =1.
9.2. STETIGE VERTEILUNGSMODELLE 217<br />
9.2.2 Die Normalverteilung<br />
Das wichtigste Verteilungsmodell ist die Normalverteilung, die von Gauss<br />
vorgeschlagen wurde.<br />
Definition 9.7<br />
Die Zufallsvariable X heißt normalverteilt mit den Parametern µ und σ 2 ,<br />
wenn ihre Dichtefunktion für x ∈ IR gegeben ist durch:<br />
f(x) = 1<br />
σ √ (x−µ)2<br />
e− 2σ<br />
2π 2 (9.13)<br />
Abbildung 9.5 zeigt die Dichtefunktion der Normalverteilung mit µ = 0 und<br />
σ =1,dieStandardnormalverteilung heißt.<br />
Abbildung 9.5: Dichtefunktion der Standardnormalverteilung<br />
f(x)<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0.0<br />
−4 −2 0 2 4<br />
Für eine mit den Parametern µ und σ 2 normalverteilte Zufallsvariable X gilt<br />
und<br />
E(X) =µ<br />
Var(X) =σ 2<br />
x
218 KAPITEL 9. VERTEILUNGSMODELLE<br />
Der Parameter µ beschreibt also die Lage und der Parameter σ 2 die Streuung<br />
der Verteilung.<br />
Abbildung 9.6 zeigt die Dichtefunktionen von zwei Normalverteilungen mit<br />
unterschiedlichem Erwartungswert und identischen Varianzen.<br />
Abbildung 9.6: Dichtefunktionen der Normalverteilung µ = 5 und µ = 6 und<br />
gleichem σ 2 =1<br />
dnorm(x, 5)<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0.0<br />
2 4 6 8 10<br />
Wir sehen, dass die Gestalten der Dichtefunktionen identisch sind und die<br />
Dichtefunktion mit dem größeren Erwartungswert nach rechts verschoben ist.<br />
Abbildung 9.7 zeigt die Dichtefunktionen von zwei Normalverteilungen mit<br />
identischem Erwartungswert und unterschiedlichen Varianzen.<br />
Abbildung 9.7: Dichtefunktionen der Normalverteilung σ 2 = 1 und σ 2 =4<br />
und gleichem µ =5<br />
dnorm(x, 6, 1)<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0.0<br />
x<br />
0 2 4 6 8 10 12<br />
Wir sehen, dass die Dichtefunktion mit der kleineren Varianz viel flacher ist.<br />
x
9.2. STETIGE VERTEILUNGSMODELLE 219<br />
Beispiel 81<br />
In Tabelle 2.10 auf Seite 63 ist die Verteilung der Körpergröße von männlichen<br />
Studienanfängern zu finden. In Abbildung 9.8 ist neben dem Histogramm<br />
noch die Dichtefunktion der Normalverteilung mit den Parametern<br />
µ = 183.1 und σ 2 =48.7 eingezeichnet. Wir sehen, dass die Normalverteilung<br />
ein geeignetes Modell für die Körpergröße ist.<br />
Abbildung 9.8: Histogramm der Körpergröße von männlichen Studienanfängern<br />
mit Dichtefunktion der Normalverteilung mit den Parametern µ = 183.1<br />
und σ 2 =48.7<br />
Density<br />
0.07<br />
0.06<br />
0.05<br />
0.04<br />
0.03<br />
0.02<br />
0.01<br />
0.00<br />
160 170 180 190 200<br />
Groesse<br />
Die Verteilungsfunktion FX(x) kann nicht in expliziter Form angegeben werden.<br />
Um Wahrscheinlichkeiten zu bestimmen, benötigt man also Tabellen. Es<br />
muss aber nicht jede Normalverteilung tabelliert werden, sondern es reicht<br />
aus, Tabellen der Standardnormalverteilung zu besitzen.<br />
Ist nämlich X normalverteilt mit den Parametern µ und σ 2 ,soist<br />
Z =<br />
X − µ<br />
σ<br />
standardnormalverteilt. Wir wollen diese Beziehung nicht beweisen, sondern<br />
ihre Konsequenzen aufzeigen. Dabei bezeichnen wir die Dichtefunktion einer<br />
standardnormalverteilten Zufallsvariablen Z mit φ(z) und dieVerteilungsfunktion<br />
mit Φ(z). Es gilt also<br />
φ(z) = 1 −0.5 z2 √ e<br />
2π<br />
(9.14)
220 KAPITEL 9. VERTEILUNGSMODELLE<br />
und<br />
Φ(z) =<br />
�z<br />
−∞<br />
1 −0.5 u2 √ e du (9.15)<br />
2π<br />
Wir suchen für eine mit den Parametern µ und σ 2 normalverteilte Zufallsvariable<br />
folgende Wahrscheinlichkeit:<br />
Es gilt<br />
P (X ≤ x) =FX(x)<br />
� �<br />
x − µ<br />
FX(x) =Φ<br />
σ<br />
Dies sieht man folgendermaßen:<br />
FX(x) =<br />
�<br />
X − µ<br />
P (X ≤ x) =P (X − µ ≤ x − µ) =P<br />
σ<br />
=<br />
� � � �<br />
x − µ x − µ<br />
P Z ≤ =Φ<br />
σ<br />
σ<br />
�<br />
x − µ<br />
≤<br />
σ<br />
(9.16)<br />
Man muss die Verteilungsfunktion der Standardnormalverteilung nur für positive<br />
oder negative Werte von z tabellieren. Es gilt nämlich<br />
Φ(z) =1− Φ(−z) . (9.17)<br />
Beispiel 82<br />
Die Fahrzeit X eines Studenten zur Universität ist normalverteilt mit Erwartungswert<br />
40 und Varianz 4. Wie groß ist die Wahrscheinlichkeit, dass er<br />
höchstens 36 Minuten braucht?<br />
Gesucht ist P (X ≤ 36). Es gilt<br />
� �<br />
36 − 40<br />
P (X ≤ 36) = FX(36) = Φ<br />
=Φ(−2) .<br />
2<br />
Tabelle C.1 auf Seite 434 entnehmen wir Φ(2) = 0.977. Also gilt<br />
P (X ≤ 36) = Φ(−2) = 1 − Φ(2) = 1 − 0.977 = 0.023 .
9.2. STETIGE VERTEILUNGSMODELLE 221<br />
Mit Hilfe von Gleichung (6.23) auf Seite 172 können wir das p-Quantil xp<br />
einer mit den Parametern µ und σ 2 normalverteilten Zufallsvariablen aus<br />
dem p-Quantil zp der Standardnormalverteilung folgendermaßen bestimmen:<br />
xp = µ + zpσ<br />
Man muss die Quantile der Standardnormalverteilung nur für Werte von p<br />
tabellieren, die kleiner als 0.5 odergrößer als 0.5 sind, da gilt<br />
zp = −z1−p<br />
(9.18)<br />
Beispiel 82 (fortgesetzt)<br />
Welche Fahrzeit wird an 20 Prozent der Tage nicht überschritten? Gesucht ist<br />
x0.2. Es gilt z0.2 = −z0.8. Tabelle C.3 auf Seite 437 entnehmen wir z0.8 =0.842.<br />
Also gilt z0.2 = −0.842. Somit erhalten wir<br />
x0.20 =40+z0.20 · 2=40− 0.842 · 2=38.316 .<br />
Bei der Tschebyscheff-Ungleichung haben wir Intervalle der Form<br />
[µ − kσ,µ+ kσ] (9.19)<br />
betrachtet. Man nennt das Intervall in Gleichung (9.19) auch das k-fache zentrale<br />
Schwankungsintervall. Die Wahrscheinlichkeit für das k-fache zentrale<br />
Schwankungsintervall bei Normalverteilung ist<br />
P (µ − kσ≤ X ≤ µ + kσ)=Φ(k) − Φ(−k) .<br />
In der Tabelle 9.5 sind die Wahrscheinlichkeiten<br />
P (µ − kσ≤ X ≤ µ + kσ)<br />
bei Normalverteilung den unteren Schranken gegenübergestellt, die sich aus<br />
der Tschebyscheff-Ungleichung ergeben.
222 KAPITEL 9. VERTEILUNGSMODELLE<br />
Tabelle 9.5: Wahrscheinlichkeiten des k-fachen zentralen Schwankungsintervalls<br />
bei Normalverteilung und Tschebyscheff<br />
k N(µ, σ 2 ) Tschebyscheff<br />
1 0.683 0<br />
2 0.954 0.750<br />
3 0.997 0.889<br />
9.2.3 Die Exponentialverteilung<br />
Kommen wir noch einmal zum Poisson-Prozess zurück. Bei einem Poisson-<br />
Prozess im Intervall (0,t] ist die absolute Häufigkeit des Ereignisses A poissonverteilt<br />
mit Parameter λt.<br />
Es gilt also<br />
P (X = x) = (λt)x<br />
e −λt<br />
für x =0, 1,....<br />
x!<br />
Wir wollen nun einen Poisson-Prozess so lange beobachten, bis A zum ersten<br />
Mal eintritt. Gesucht ist Dichtefunktion fT (t) und die Verteilungsfunktion<br />
FX(x) der Wartezeit T bis zum ersten Eintreten von A. Für tt)=1− P (X =0)=1− e −λt<br />
Somit gilt:<br />
� −λt 1 − e für t>0<br />
FT (t) =<br />
0 sonst<br />
Da die erste Ableitung der Verteilungsfunktion gleich der Dichtefunktion ist,<br />
erhalten wir folgende<br />
Definition 9.8<br />
Die Zufallsvariable X heißt exponentialverteilt mit Parameter λ, wennihre<br />
Dichtefunktion gegeben ist durch:<br />
fX(x) =<br />
�<br />
λe−λx für x>0<br />
0 sonst<br />
(9.20)
9.2. STETIGE VERTEILUNGSMODELLE 223<br />
Abbildung 5.5 auf Seite 157 zeigt die Dichtefunktion der Exponentialverteilung<br />
mit λ = 1. Die Exponentialverteilung ist eine rechtsschiefe Verteilung.<br />
Es gilt<br />
und<br />
E(X) = 1<br />
λ<br />
Var(X) = 1<br />
λ 2<br />
Für das p-Quantil der Exponentialverteilung gilt<br />
xp = − 1<br />
λ<br />
Wir erhalten Gleichung (9.21) folgendermaßen:<br />
ln (1 − p) . (9.21)<br />
1 − e −λxp = p ⇔ e −λxp =1− p ⇔−λxp =ln(1−p) ⇔ xp = − 1<br />
ln (1 − p)<br />
λ<br />
Beispiel 83<br />
Bayer und Jankovic beobachteten im Rahmen eines BI-Projektes 30 Minuten<br />
eine Tankstelle und bestimmten die Zeiten zwischen den Ankünften von<br />
Kunden. Tabelle 9.6 zeigt die Häufigkeitstabelle.<br />
Tabelle 9.6: Häufigkeitstabelle der Zwischenankunftszeiten an einer Tankstelle<br />
Zeit absolute<br />
Häufigkeit<br />
von 0 bis unter 45 19<br />
von 45 bis unter 90 8<br />
von 90 bis unter 135 2<br />
von 135 bis unter 180 2<br />
von 180 bis unter 225 1<br />
Abbildung 9.9 zeigt das Histogramm mit der Dichtefunktion der Exponentialveretilung<br />
mit Parameter λ =0.019. Wir sehen, dass die Anpassung gut<br />
ist.
224 KAPITEL 9. VERTEILUNGSMODELLE<br />
Abbildung 9.9: Histogramm der Wartezeit mit der Dichtefunktion der Exponentialveretilung<br />
mit Parameter λ =0.019<br />
0.015<br />
0.010<br />
0.005<br />
0.000<br />
9.2.4 Prüfverteilungen<br />
0 50 100 150 200 250<br />
In der schließenden Statistik verwendet man immer wieder eine Reihe von<br />
Verteilungen, die eine Beziehung zur Normalverteilung haben. Schauen wir<br />
uns diese an.<br />
Die Chi-Quadrat-Verteilung<br />
Wir wissen, dass Z =(X −µ)/σ standardnormalverteilt ist, wenn X mit den<br />
Parametern µ und σ 2 normalverteilt ist. Die Zufallsvariable Z 2 ist in diesem<br />
Fall chiquadratverteilt mit k = 1 Freiheitsgraden. Man nennt den Parameter<br />
der Chi-Quadrat-Verteilung also Freiheitsgrade.<br />
Oft betrachtet man k unabhängige standardnormalverteilte Zufallsvariablen<br />
Z1,...,Zk. In diesem Fall ist<br />
k�<br />
i=1<br />
chiquadratverteilt mit k Freiheitsgraden.<br />
Abbildung 9.10 zeigt die Dichtefunktion der Chi-Quadrat-Verteilung mit k =<br />
3, k =4,k = 5 und k = 10 Freiheitsgraden.<br />
Zeit<br />
Z 2 i
9.2. STETIGE VERTEILUNGSMODELLE 225<br />
Abbildung 9.10: Dichtefunktion der Chi-Quadrat-Verteilung mit k =3,k =<br />
4, k = 5 und k = 10 Freiheitsgraden<br />
f(x)<br />
0.25<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
0 5 10 15 20 25<br />
Wir sehen, dass die Dichtefunktion der Chi-Quadrat-Verteilung mit wachsender<br />
Zahl von Freiheitsgraden immer symmetrischer wird.<br />
Die t-Verteilung<br />
Die Zufallsvariable Z sei standardnormalverteilt und die Zufallsvariable V<br />
chiquadratverteilt mit k Freiheitsgraden. Sind Z und V unabhängig, so ist<br />
die Zufallsvariable<br />
T = Z<br />
� V/k<br />
t-verteilt mit k Freiheitsgraden. Abbildung 9.11 zeigt die Dichtefunktion der<br />
t-Verteilung mit k =1,k =3k = 10 Freiheitsgraden. Außerdem ist noch die<br />
Dichtefunktion der Standardnormalverteilung eingezeichnet.<br />
Abbildung 9.11: Dichtefunktion der t-Verteillung mit k = 1, k = 3 und<br />
k = 10 Freiheitsgraden<br />
f(x)<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0.0<br />
x<br />
k=3<br />
k=4<br />
k=5<br />
k=10<br />
−6 −4 −2 0 2 4 6<br />
x<br />
N(0,1)<br />
k=1<br />
k=3<br />
k=10
226 KAPITEL 9. VERTEILUNGSMODELLE<br />
Wir sehen, dass die Dichtefunktion der t-Verteilung mit wachsender Zahl<br />
von Freiheitsgraden der Dichtefunktion der Standardnormalverteilung immer<br />
ähnlicher wird. Die t-Verteilung mit kleiner Anzahl von Freiheitsgraden<br />
streut mehr als die Standardnormalverteilung. Dies erkennt man auch an der<br />
Varianz der t-Verteilung. Für k ≥ 3 gilt<br />
Var(T )= n<br />
n − 2<br />
Die Varianz von T konvergiert gegen die Varianz der Standardnormalverteilung.<br />
Die F -Verteilung<br />
Bei einer Vielzahl von statistischen Verfahren werden zwei Varianzen verglichen.<br />
In diesem Fall kommt die F -Verteilung ins Spiel. Ausgangspunkt sind<br />
hier die unabhängigen Zufallsvariablen V und W ,wobeiV chiquadratverteilt<br />
mit m und W chiquadratverteilt mit n Freiheitsgraden ist. In diesem Fall ist<br />
die Zufallsvariable<br />
F = V/m<br />
W/n<br />
F -verteilt mit m und n Freiheitsgraden.<br />
Abbildung 9.12 zeigt die Dichtefunktion der t-Verteilung mit m =5,n =5,<br />
m =5,n= 10, m =5,n= 50 und m =50,n= 50 Freiheitsgraden.<br />
Abbildung 9.12: Dichtefunktion der F -Verteillung mit m =5,n =5,m =<br />
5,n= 10, m =5,n= 50 und m =50,n= 50 Freiheitsgraden<br />
f(x)<br />
1.4<br />
1.2<br />
1.0<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
1 2 3 4 5<br />
x<br />
F(5,5)<br />
F(5,10)<br />
F(5,50)<br />
F(50,50)