15.11.2012 Aufrufe

Kapitel 9 Verteilungsmodelle

Kapitel 9 Verteilungsmodelle

Kapitel 9 Verteilungsmodelle

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Kapitel</strong> 9<br />

<strong>Verteilungsmodelle</strong><br />

Es gibt eine Reihe von <strong>Verteilungsmodelle</strong>n für univariate diskrete und stetige<br />

Zufallsvariablen, die sich in der Praxis bewährt haben. Wir wollen uns von<br />

diesen einige anschauen.<br />

9.1 Diskrete <strong>Verteilungsmodelle</strong><br />

Es gibt eine Reihe von von Zugängen zu <strong>Verteilungsmodelle</strong>n für diskrete<br />

Zufallsvariablen. Man kann die Wahrscheinlichkeitsfunktion einer diskreten<br />

Zufallsvariablen dadurch gewinnen, dass man den Träger TX vorgibt und<br />

für jedes x ∈TX die Wahrscheinlichkeit P (X = x) festlegt. Dabei müssen<br />

natürlich die Gleichungen 5.2 und 5.1 auf Seite 147 erfüllt sein. Eine andere<br />

Möglichkeit besteht darin, auf einem geeigneten Wahrscheinlichkeitsraum<br />

eine Zufallsvariable zu definieren. Schauen wir uns zunächst ein Beispiel für<br />

die erste Möglichkeit an.<br />

9.1.1 Die Gleichverteilung<br />

Definition 9.1<br />

Die Zufallsvariable X heißt gleichverteilt, wenn gilt<br />

für x =1,...,N.<br />

P (X = x) = 1<br />

N<br />

199<br />

(9.1)


200 KAPITEL 9. VERTEILUNGSMODELLE<br />

Für den Erwartungswert und die Varianz der diskreten Gleichverteilung gilt<br />

und<br />

E(X) =<br />

N +1<br />

2<br />

Var(X) = N 2 − 1<br />

12<br />

Schauen wir uns zuerst den Erwartungswert an:<br />

E(X) =<br />

N�<br />

x=1<br />

x 1<br />

N<br />

= 1<br />

N<br />

N�<br />

x=1<br />

Für die Varianz bestimmen wir zunächst<br />

E(X 2 ) =<br />

N�<br />

x=1<br />

2 1<br />

x<br />

N<br />

= 1<br />

N<br />

= (N + 1)(2N +1)<br />

6<br />

Hierbei haben wir benutzt, das gilt<br />

Die Varianz ist dann<br />

N�<br />

x 2 =<br />

x=1<br />

Var(X) = E(X 2 ) − E(X) 2 =<br />

= N +1<br />

x = 1 N(N +1)<br />

N 2<br />

N�<br />

x=1<br />

.<br />

(9.2)<br />

. (9.3)<br />

= N +1<br />

2<br />

x 2 = 1 N(N + 1)(2N +1)<br />

N 6<br />

N(N + 1)(2N +1)<br />

6<br />

(N + 1)(2N +1)<br />

6<br />

.<br />

−<br />

(N +1)2<br />

4<br />

(N +1)(N−1) [4N +2− 3N − 3] =<br />

12 12<br />

= N 2 − 1<br />

12<br />

Beispiel 76<br />

Die Gleichverteilung ist ein sinnvolles Modell für die Augenzahl beim einmaligen<br />

Wurf eines fairen Würfels. Hier gilt<br />

P (X = x) = 1<br />

6<br />

.


9.1. DISKRETE VERTEILUNGSMODELLE 201<br />

für x =1, 2,...,6. Es gilt E(X) =3.5 und Var(X) =35/12.<br />

Abbildung 9.1 zeigt die Wahrscheinlichkeitsfunktion.<br />

Abbildung 9.1: Wahrscheinlichkeitsfunktion der Gleichverteilung<br />

c(0, 1/6)<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

0 2 4 6 8<br />

9.1.2 Vom Bernoulliprozess abgeleitete Verteilungen<br />

Einer Reihe von Verteilungen liegt der sogenannte Bernoulliprozess zu<br />

Grunde.<br />

Der Bernoulliprozess<br />

c(1, 1)<br />

Bei einem Zufallsvorgang sei ein Ereignis A mit P (A) =p von Interesse.<br />

MansprichtauchvoneinemBernoullivorgang und nennt das Ereignis A<br />

oft auch Erfolg. EinenBernoulliprozess erhält man nun dadurch, dass<br />

man einen Bernoullivorgang mehrmals beobachtet, wobei folgende Annahmen<br />

getroffen werden:<br />

• Die einzelnen Bernoullivorgänge sind voneinander unabhängig.<br />

• Die Erfolgswahrscheinlichkeit p bleibt konstant.<br />

Beispiel 77<br />

Im Beispiel 58 auf Seite 152 haben wir ein Teilchen betrachtet, dass sich<br />

zufällig auf den ganzen Zahlen bewegt, wobei es im Nullpunkt startet. Jeder<br />

Schritt des Teilchens ist ein Bernoulliexperiment. Es gibt nur 2 Möglichkeiten.<br />

Das Teilchen geht entweder nach links, was wir mit A, oder es geht nach<br />

rechts, was wir mit Ā bezeichnen. Da das Teilchen sich zufällig entscheidet,


202 KAPITEL 9. VERTEILUNGSMODELLE<br />

gilt P (A) = p = 0.5. Wenn wir unterstellen, dass die Entscheidung des<br />

Teilchens bei einem Schritt unabhängig von den anderen Schritten getroffen<br />

wird, und die Erfolgswahrscheinlichkeit p konstant bleibt, beobachten wir bei<br />

n Schritten einen Bernoulliprozess der Länge n.<br />

Beim Bernoulliprozess sind für uns zwei Zufallsvariablen von Interesse:<br />

• Anzahl der Erfolge bei n Durchführungen.<br />

• Anzahl der Misserfolge vor dem ersten Erfolg<br />

Schauen wir uns die Verteilungen dieser Zufallsvariablen im Detail an.<br />

Die Binomialverteilung<br />

Definition 9.2<br />

Die Zufallsvariable X heißt binomialverteilt mit den Parametern n und p,<br />

wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch:<br />

für x =0, 1,...,n.<br />

P (X = x) =<br />

� �<br />

n<br />

p<br />

x<br />

x (1 − p) n−x<br />

(9.4)<br />

Die Binomialverteilung erhält man, wenn man bei einem Bernoulliprozess der<br />

Länge n die Erfolge zählt. Dies kann man sich folgendermaßen klarmachen:<br />

Sei X die Anzahl der Erfolge bei einem Bernoulliprozess der Länge n.DieZufallsvariable<br />

X kann die Werte 0, 1, 2,...,nannehmen. Nimmt X den Wert x<br />

an,sowurdenxErfolge A und n − x Mißerfolge Ā beobachtet. Aufgrund der<br />

Unabhängigkeit der einzelnen Durchführungen beträgt die Wahrscheinlichkeit<br />

einer Folge aus x Erfolgen A und n−x Mißerfolgen Ā gleich px (1−p) n−x .<br />

Eine Folge, die x-mal ein A und n − x-mal ein Ā enthält, ist eindeutig durch<br />

die Positionen der A festgelegt. Wir haben im Beispiel 44 auf Seite 126 ge-<br />

sehen, dass es<br />

� �<br />

n<br />

=<br />

x<br />

n!<br />

x!(n − x)!<br />

Möglichkeiten gibt, die Positionen der A zu wählen. Also gilt<br />

P (X = x) =<br />

� �<br />

n<br />

p<br />

x<br />

x (1 − p) n−x<br />

für x =0, 1,...,n.


9.1. DISKRETE VERTEILUNGSMODELLE 203<br />

Für eine binomialverteilte Zufallsvariable X gilt<br />

und<br />

E(X) =np<br />

Var(X) =np(1 − p) .<br />

Beispiel 77 (fortgesetzt)<br />

Sei X die Anzahl der Schritte nach links. Die Zufallsvariable X ist binomialverteilt<br />

mit den Parametern n = 3 und p =0.5. Es gilt für x =0, 1, 2, 3:<br />

P (X = x) =<br />

� �<br />

3<br />

0.5<br />

x<br />

x (1 − 0.5) 3−x =<br />

Tabelle 9.1 zeigt die Wahrscheinlichkeitsfunktion.<br />

� �<br />

3<br />

0.5<br />

x<br />

3<br />

Tabelle 9.1: Wahrscheinlichkeitsfunktion der Binomialverteilung mit n =3<br />

und p =0.5<br />

x 0 1 2 3<br />

P (X = x) 0.125 0.375 0.375 0.125<br />

Außerdem gilt E(X) =1.5 und Var(X) =0.75.<br />

Abbildung 9.2 zeigt die Wahrscheinlichkeitsfunktion der Binomialverteilung<br />

für n = 10 und p =0.1, p =0.2, p =0.5 und p =0.8.<br />

Wir sehen, dass die Wahrscheinlichkeitsfunktion der Binomialverteilung für<br />

p =0.5 symmetrisch ist. Für p0.5<br />

linksschief.


204 KAPITEL 9. VERTEILUNGSMODELLE<br />

Abbildung 9.2: Wahrscheinlichkeitsfunktion der Binomialverteilung für n =<br />

10 und p =0.1, p =0.2, p =0.5 und p =0.8<br />

0.3<br />

0.2<br />

0.1<br />

0.0<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

Binomialverteilung mit n=10,p=0.1<br />

0 1 2 3 4 5 6 7 8 9 10<br />

Binomialverteilung mit n=10,p=0.5<br />

0 1 2 3 4 5 6 7 8 9 10<br />

0.30<br />

0.25<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

0.30<br />

0.25<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

Binomialverteilung mit n=10,p=0.2<br />

0 1 2 3 4 5 6 7 8 9 10<br />

Binomialverteilung mit n=10,p=0.8<br />

0 1 2 3 4 5 6 7 8 9 10<br />

Die Binomialverteilung mit n = 1 heißt Bernoulliverteilung. Die Wahrscheinlichkeitsfunktion<br />

der Bernoulliverteilung ist gegeben durch:<br />

P (X = x) =p x (1 − p) 1−x<br />

für x =0, 1.<br />

Es gilt also<br />

P (X =0)=1− p<br />

und<br />

P (X =1)=p.<br />

Eine bernoulliverteilte Zufallsvariable X zählt, wie oft A bei einem Bernoullivorgang<br />

eingetreten ist. Für eine bernoulliverteilte Zufallsvariable X gilt<br />

E(X) =p und Var(X) =p(1 − p). Schauen wir uns erst den Erwartungswert<br />

an:<br />

E(X) =0· (1 − p)+1· p = p.<br />

Für die Varianz bestimmen wir<br />

E(X 2 )=0· (1 − p)+1· p = p


9.1. DISKRETE VERTEILUNGSMODELLE 205<br />

und erhalten<br />

Var(X) =E(X 2 ) − E(X) 2 = p − p 2 = p(1 − p) .<br />

Die geometrische Verteilung<br />

Eine bernoulliverteilte Zufallsvariable zählt die Anzahl der Erfolge bei einem<br />

Bernoulliprozess der Länge n. Schauen wir uns die Wahrscheinlichkeitsfunktion<br />

der Misserfolge vor dem ersten Erfolg an.<br />

Definition 9.3<br />

Die Zufallsvariable X heißt geometrisch verteilt mit Parameter p, wennihre<br />

Wahrscheinlichkeitsfunktion gegeben ist durch<br />

P (X = x) =p (1 − p) x<br />

für x =0, 1,... (9.5)<br />

Die geometrische Verteilung erhält man, wenn man bei einem Bernoulliprozess<br />

die Anzahl der Misserfolge vor dem ersten Erfolg zählt. Dies kann man<br />

sich folgendermaßen klarmachen:<br />

Sei X die Anzahl der Misserfolge vor dem ersten Erfolg bei einem Bernoulliprozess.<br />

Die Zufallsvariable X kann die Werte 0, 1, 2,...annehmen. Nimmt X<br />

den Wert x an, so wurden x Mißerfolge Ā und genau ein Erfolg A beobachtet,<br />

wobei das A das letzte Symbol in der Folge ist. Wir erhalten also<br />

ĀĀ...Ā � �� � A<br />

x−mal<br />

Da die einzelnen Durchführungen unabhängig sind, beträgt die Wahrscheinlichkeit<br />

dieser Folge<br />

(1 − p)(1 − p) ···(1 − p) p =(1−p) � �� �<br />

x−mal<br />

x p.<br />

Ist X geometrisch verteilt mit Prameter p, so gilt<br />

und<br />

E(X) =<br />

Var(X) =<br />

1 − p<br />

p<br />

1 − p<br />

p 2<br />

.


206 KAPITEL 9. VERTEILUNGSMODELLE<br />

Beispiel 77 (fortgesetzt)<br />

Wir warten so lange, bis das Teilchen zum ersten Mal nach links geht, und<br />

zählen die Anzahl X der Schritte nach rechts vor dem ersten Schritt nach<br />

links. Die Zufallsvariable X ist geometrisch verteilt mit p =0.5. Es gilt<br />

P (X = x) =0.5 x+1<br />

Außerdem gilt E(X) = 1 und Var(X) =2.<br />

für x =0, 1, 2, .... .<br />

Oft betrachtet man anstatt der Anzahl X der Misserfolge die Anzahl Y der<br />

Versuche bis zum ersten Erfolg, wobei man den Erfolg mitzählt. Offensichtlich<br />

gilt<br />

Y = X +1.<br />

Die Wahrscheinlichkeitsfunktion von Y ist:<br />

Ausßerdem gilt<br />

und<br />

P (Y = y) =p (1 − p) y−1<br />

E(Y )= 1<br />

p<br />

Var(Y )=<br />

für y =1,... . (9.6)<br />

1 − p<br />

p 2<br />

9.1.3 Die hypergeometrische Verteilung<br />

Wir haben die Binomialverteilung aus dem Bernoulliprozess hergeleitet. Man<br />

kann sie aber auch aus einem einfachen Urnenmodell gewinnen. Hierzu betrachten<br />

wir eine Urne, die N Kugeln enthält, von denen M weiß und die<br />

restlichen N −M schwarz sind. Der Anteil p der weißen Kugeln ist also M/N.<br />

Zieht man n Kugeln mit Zurücklegen, so ist die Anzahl X der weißen Kugeln<br />

mit den Parametern n und p binomialverteilt. Zieht man ohne Zurücklegen<br />

aus der Urne, so besitzt die Anzahl X der weißen Kugeln eine hypergeometrische<br />

Verteilung. Die Wahrscheinlichkeit P (X = x) erhalten wir in diesem<br />

Fall folgendermaßen:<br />

Insgesamt gibt es � � N<br />

Möglichkeiten, von den N Kugeln n ohne Zurücklegen<br />

n<br />

auszuwählen. Es gibt � � M<br />

Möglichkeiten, von den M weißen Kugeln x Kugeln<br />

x<br />

.


9.1. DISKRETE VERTEILUNGSMODELLE 207<br />

auszuwählen, und es gibt � � N−M<br />

Möglichkeiten, von den N − M schwarzen<br />

n−x<br />

Kugeln n − x Kugeln auszuwählen. Somit gilt<br />

P (X = x) =<br />

für max{0,n− (N − M)} ≤x ≤ min{n, N}.<br />

� �� �<br />

M N − M<br />

x n − x<br />

� �<br />

N<br />

n<br />

Definition 9.4<br />

Die Zufallsvariable X heißt hypergeometrisch verteilt mit den Parametern<br />

N, M und n, wenn ihre Wahrscheinlichkeitsfunktion gegeben ist durch<br />

� �� �<br />

M N − M<br />

x n − x<br />

P (X = x) = � � (9.7)<br />

N<br />

n<br />

für max{0,n− (N − M)} ≤x ≤ min{n, N}.<br />

Es gilt<br />

und<br />

Setzen wir p = M/N, sogilt<br />

Var(X) =n M<br />

N<br />

E(X) =n M<br />

N<br />

N − M<br />

N<br />

E(X) =np<br />

N − n<br />

N − 1<br />

und<br />

N − n<br />

Var(X) =np(1 − p)<br />

N − 1 .<br />

Der Erwartungswert der Binomialverteilung und der hypergeometrischen Ve-<br />

teilung sind also identisch. Für n>1ist N−n<br />

N−1<br />

.<br />

kleiner als 1. Somit ist für<br />

n>1 die Varianz der hypergeometrischen Verteilung kleiner als die Varianz<br />

der Binomialverteilung.


208 KAPITEL 9. VERTEILUNGSMODELLE<br />

Beispiel 78<br />

Eine Urne enthält 10 Kugeln, von denen 4 weiß sind. Es werden zuerst 3<br />

Kugeln mit Zurücklegen und dann 3 Kugeln ohne Zurücklegen gezogen. Sei<br />

X die Anzahl der weißen Kugeln beim Ziehen mit Zurücklegen und Y die<br />

Anzahl der weißen Kugeln beim Ziehen ohne Zurücklegen. Es gilt<br />

und<br />

P (X = x) =<br />

P (Y = y) =<br />

� �<br />

3<br />

0.4<br />

x<br />

x 0.6 3−x<br />

� ��<br />

4 6<br />

�<br />

y 3 − y<br />

� �<br />

10<br />

3<br />

.<br />

Tabelle 9.2 zeigt die Wahrscheinlichkeitsverteilungen der Zufallsvariablen X<br />

und Y .<br />

Tabelle 9.2: Wahrscheinlichkeitsverteilung der hypergeometrischen und der<br />

Binomialverteilung<br />

Wert Binomial- Hypergeometrische<br />

verteilung Verteilung<br />

0 0.216 0.167<br />

1 0.432 0.500<br />

2 0.288 0.300<br />

3 0.064 0.033<br />

Wir sehen an der Tabelle, warum bei der Binomialverteilung die Varianz<br />

größer ist als bei der hypergeometrischen Verteilung. Die extremen Werte 0<br />

und 3 sind bei der Binomialverteilung wahrscheinlicher als bei der hypergeometrischen<br />

Verteilung.<br />

Was passiert mit der Wahrscheinlichkeitsfunktion der hypergeometrischen<br />

konstant bleibt?<br />

Verteilung, wenn N beliebig groß wird, wobei aber p = M<br />

N


9.1. DISKRETE VERTEILUNGSMODELLE 209<br />

Es gilt:<br />

P (X = x) =<br />

Also gilt<br />

=<br />

=<br />

lim P (X = x)<br />

N→∞<br />

= lim<br />

N→∞<br />

= lim<br />

N→∞<br />

� �� �<br />

M N − M<br />

x n − x<br />

� �<br />

N<br />

n<br />

= (M)x (N − M)n−x n!<br />

x!(n − x)! (N)n<br />

� �<br />

n (M)x (N − M)n−x<br />

x (N)n<br />

� �<br />

n M<br />

x N<br />

� �<br />

n M M − 1<br />

x N N − 1<br />

� �<br />

n M<br />

x N<br />

M<br />

N<br />

− 1<br />

N<br />

1 − 1<br />

N<br />

� � 1<br />

n p − N<br />

= lim p<br />

N→∞ x 1 − 1<br />

N<br />

=<br />

� �<br />

n<br />

p<br />

x<br />

x (1 − p) n−x<br />

− x +1N<br />

− M − M − n + x +1<br />

···M ···N<br />

N − x +1 N − x N − n +1<br />

···<br />

− x +1N<br />

− M − M − n + x +1<br />

···M ···N<br />

N − x +1 N − x N − n +1<br />

···<br />

M<br />

N<br />

− x−1<br />

N<br />

1 − x−1<br />

N<br />

x−1 p − N<br />

1 − x−1<br />

1 − p<br />

1 − N<br />

x<br />

N<br />

1 − M<br />

N<br />

1 − x<br />

N<br />

···<br />

···<br />

1 − M<br />

N<br />

− n−x−1<br />

N<br />

1 − n−1<br />

N<br />

1 − p − n−x−1<br />

N<br />

1 − n−1<br />

N<br />

Für große Werte von N können wir also die hypergeometrische Verteilung<br />

durch die Binomialverteilung approximieren.<br />

Außerdem bestätigt die Aussage die intuitive Annahme, dass es keinen Unterschied<br />

macht, ob man aus einer sehr großen Grundgesamtheit mit oder<br />

ohne Zurücklegen zieht.


210 KAPITEL 9. VERTEILUNGSMODELLE<br />

9.1.4 Die Poissonverteilung<br />

Schauen wir uns an, was mit der Wahrscheinlichkeitsfunktion der Binomialverteilung<br />

geschieht, wenn wir n beliebig groß werden lassen. Auch hier<br />

müssen wir beim Grenzübergang eine Restriktion berücksichtigen, da sonst<br />

die Wahrscheinlichkeit gegen Null geht. Wir fordern, dass λ = np konstant<br />

bleibt. Mit<br />

p = λ<br />

n .<br />

gilt also<br />

da gilt<br />

lim P (X = x) = lim<br />

n→∞ n→∞<br />

lim<br />

n→∞<br />

= lim<br />

n→∞<br />

= λx<br />

x!<br />

�<br />

lim 1 −<br />

n→∞<br />

λ<br />

n<br />

�<br />

lim 1 −<br />

n→∞<br />

λ<br />

n<br />

= λx<br />

x! e−λ<br />

� �<br />

n<br />

p<br />

x<br />

x (1 − p) n−x<br />

n!<br />

x!(n − x)!<br />

(n)x<br />

lim<br />

n→∞ nx �<br />

λ<br />

�x� n<br />

�<br />

lim<br />

n→∞<br />

1 − λ<br />

n<br />

1 − λ<br />

n<br />

� n<br />

� n−x<br />

lim<br />

n→∞<br />

(n)x n n − 1 − x +1<br />

= lim ···n<br />

nx n→∞ n n n<br />

� n<br />

� −x<br />

= e −λ<br />

= 1<br />

�<br />

1 − λ<br />

n<br />

Definition 9.5<br />

Die Zufallsvariable X heißt poissonverteilt mit dem Parameter λ, wennihre<br />

Wahrscheinlichkeitsfunktion gegeben ist durch:<br />

für x =0, 1,....<br />

P (X = x) = λx<br />

x! e−λ<br />

=1<br />

� −x<br />

(9.8)


9.1. DISKRETE VERTEILUNGSMODELLE 211<br />

Die Poissonverteilung wird auch die Verteilung der seltenen Ereignisse genannt,<br />

da p = λ mit wachsenem n immer kleiner wird.<br />

n<br />

Ist X poissonverteilt mit Parameter λ, sogilt<br />

und<br />

E(X) =λ<br />

Var(X) =λ .<br />

Abbildung 9.3 zeigt die Wahrscheinlichkeitsfunktion der Poissonverteilung<br />

für λ =1,λ =2,λ = 5 und λ = 10.<br />

Abbildung 9.3: Wahrscheinlichkeitsfunktion Poissonverteilung für λ =1,λ =<br />

2, λ = 5 und λ =10<br />

0.35<br />

0.30<br />

0.25<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

Poissonverteilung lambda=1<br />

0 1 2 3 4 5<br />

Poissonverteilung lambda=5<br />

0 2 4 6 8 10 12 14<br />

0.25<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

0.12<br />

0.10<br />

0.08<br />

0.06<br />

0.04<br />

0.02<br />

0.00<br />

Poissonverteilung lambda=2<br />

0 1 2 3 4 5 6 7 8 9 10<br />

Poissonverteilung lambda=10<br />

0 2 4 6 8 10 13 16 19<br />

Wir sehen, dass die Wahrscheinlichkeitsfunktion der Poissonverteilung mit<br />

wachsendem λ immer symmetrischer wird.


212 KAPITEL 9. VERTEILUNGSMODELLE<br />

Beispiel 79<br />

Wir haben im Beispiel 55 auf Seite 148 die Anzahl der Tore betrachtet,<br />

die in der Saison 2001/2002 in der Fußballbundesliga je Spiel geschossen<br />

wurden. Dabei wurden nur Spiele betrachtet, in denen höchstens 5 Tore<br />

fielen. Es wurden aber auch mehr Tore geschossen. Tabelle 9.3 zeigt die<br />

Häufigkeitsverteilung der Anzahl Tore in allen 306 Spielen.<br />

Tabelle 9.3: Häufigkeitstabelle der Anzahl der Tore in einem Bundesligaspiel<br />

in der Saison 2001/2002<br />

x 0 1 2 3 4 5 6 7<br />

n(X = x) 23 35 74 69 56 23 19 7<br />

h(X = x) 0.075 0.114 0.242 0.225 0.183 0.075 0.062 0.023<br />

Der Mittelwert der Anzahl Tore beträgt 2.9. Tabelle 9.4 zeigt die Wahrscheinlichkeitsverteilung<br />

der Poissonverteilung mit λ =2.9.<br />

Tabelle 9.4: Wahrscheinlichkeitsverteilung der Poissonverteilung mit Parameter<br />

λ =2.9<br />

x 0 1 2 3 4 5 6 7<br />

P (X = x) 0.055 0.160 0.231 0.224 0.162 0.094 0.045 0.019<br />

Wir sehen, dass die Wahrscheinlichkeiten und relativen Häufigkeiten gut<br />

übereinstimmen. Dies besteht auch die Abbildung 9.4, in der beiden Verteilungen<br />

gegenübergestellt sind.<br />

Wir werden später lernen, warum es sinnvoll ist, für λ den Mittelwert der<br />

Beobachtungen zu wählen.


9.1. DISKRETE VERTEILUNGSMODELLE 213<br />

Abbildung 9.4: Stabdiagramm der Anzahl der Tore mit Wahrscheinlichkeitsfunktion<br />

der Poissonverteilung mit Parameter λ =2.9<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

Empirie<br />

Modell<br />

0 1 2 3 4 5 6 7<br />

Warum die Poissonverteilung ein sinnvolles Modell für die Anzahl der in<br />

einem Spiel geschossenen Tore ist, zeigen die folgenden Überlegungen.<br />

Die Poissonverteilung spielt eine zentrale Rolle bei Ankunftsprozessen. Hier<br />

soll die Anzahl X(a, t) der Ankünfte im Intervall (a, a+t] modelliert werden.<br />

Dabei geht man von folgenden Annahmen aus:<br />

1. X(a, t) und X(a ∗ ,t ∗ ) sind unabhängig, wenn (a, a + t] und (a ∗ ,a ∗ + t ∗ ]<br />

disjunkt sind.<br />

2. X(a, h) hängt von h aber nicht von a ab.<br />

3.<br />

4.<br />

P (X(a, h) =1)≈ λh .<br />

P (X(a, h) > 1) ≈ 0 .<br />

Annahme 1 besagt, dass die Häufigkeit des Auftretens von A in einem Intervall<br />

unabhängig ist von der Häufigkeit des Auftretens von A in einem dazu<br />

disjunkten Intervall.<br />

Annahme 2 besagt, dass die Häufigkeit des Auftretens von A in einem Intervall<br />

der Länge h nur von der Länge, aber nicht von der Lage des Intervalls<br />

abhängt.


214 KAPITEL 9. VERTEILUNGSMODELLE<br />

Annahme 3 besagt, dass die Wahrscheinlichkeit, dass A in einem sehr kleinen<br />

Intervall der Länge h genau einmal eintritt, proportional zur Länge des<br />

Intervalls ist.<br />

Annahme 4 besagt, dass die Wahrscheinlichkeit, dass A in einem sehr kleinen<br />

Intervall der Länge h mehr als einmal eintritt, vernachlässigt werden kann.<br />

Schauen wir uns dafür ein Beispiel an:<br />

Beispiel 80<br />

Der Verkehrsstrom einer Fernstraße wird an einem festen Beobachtungspunkt<br />

protokolliert, wobei jeweils festgehalten wird, wann ein Fahrzeug den Beobachtungspunkt<br />

passiert.<br />

Annahme 1 besagt, dass der Verkehrsstrom völlig regellos ist. Ereignisse in<br />

nichtüberlappenden Intervallen sind unabhängig.<br />

Annahme 2 besagt, dass der Verkehrsstrom von konstanter Intensität ist.<br />

Die Wahrscheinlichkeit, dass in einem Zeitintervall der Länge hkFahrzeuge<br />

eintreffen, hängt von der Länge des Intervalls, nicht jedoch von seiner Lage<br />

ab.<br />

Annahme 4 besagt, dass das Auftreten geschlossener Fahrzeuggruppen vernachlässigt<br />

werden kann.<br />

Unter den Annahmen 1 bis 4 ist X(a, t) poissonverteilt mit dem Parameter<br />

λt. Es gilt also<br />

P (X(a, t) =x) = (λt)x<br />

x!<br />

Dies sieht man folgendermaßen:<br />

e −λt<br />

für x =0, 1,....<br />

Wir teilen das Intervall (a, a + t] in n gleichgroße Intervalle der Länge h = t<br />

n .<br />

Aufgrund von Annahme 4 kann A in jedem dieser Intervalle nur einmal oder<br />

keinmal eintreten. In jedem dieser Intervalle beträgt die Wahrscheinlichkeit,<br />

A genau einmal zu beobachten,<br />

p = λh = λt<br />

n<br />

Da die Intervalle disjunkt sind, ist das Eintreten von A in den einzelnen<br />

Intervallen unabhängig. Außerdem ist jedes Intervall gleich lang, so dass p<br />

konstant ist.<br />

Es liegt also ein Bernoulliprozess der Länge n mit Erfolgswahrscheinlichkeit<br />

vor. Somit gilt<br />

p = λt<br />

n<br />

P (X(a, t) =x) =<br />

� �� �x �<br />

n λt<br />

1 −<br />

x n<br />

λt<br />

�n−x n


9.2. STETIGE VERTEILUNGSMODELLE 215<br />

Lassen wir n über alle Grenzen wachsen, so erhalten wir<br />

P (X(a, t) =x) = (λt)x<br />

x!<br />

e −λt<br />

9.2 Stetige <strong>Verteilungsmodelle</strong><br />

für x =0, 1,....<br />

Man erhält für eine stetige Zufallsvariable ein Modell, indem man eine Funktion<br />

fX(x)vorgibt, die die Gleichungen (5.9)und (5.10) auf Seite (154) erfüllen.<br />

9.2.1 Die Gleichverteilung<br />

Definition 9.6<br />

Die Zufallsvariable X heißt gleichverteilt auf dem Intervall [a, b], wenn ihre<br />

Dichtefunktion gegeben ist durch:<br />

⎧<br />

⎨ 1<br />

für a ≤ x ≤ b<br />

fX(x) = b − a<br />

⎩<br />

0 sonst<br />

(9.9)<br />

Im Beispiel 59 auf Seite 155 haben wir die Gleichverteilung auf [0, 10] näher<br />

betrachtet. Die Dichtefunktion ist in Abbildung 5.3 auf Seite 155 zu finden.<br />

Die Verteilungsfunktion FX(x) ist gegeben durch:<br />

⎧<br />

⎪⎨ 0 für xb<br />

Die Verteilungsfunktion der Gleichverteilung auf [0, 10] ist in Abbildung 5.4<br />

auf Seite 156 zu finden.<br />

Aus der Verteilungsfunktion können wir problemlos die Quantile bestimmen.<br />

Es gilt<br />

xp = a + p(b − a) . (9.10)<br />

Wir erhalten Gleichung (9.10), indem wir folgende Gleichung nach xp auflösen:<br />

xp − a<br />

= p.<br />

b − a


216 KAPITEL 9. VERTEILUNGSMODELLE<br />

Außerdem gilt<br />

und<br />

E(X) =<br />

Var(X) =<br />

Dies sieht man folgendermaßen:<br />

E(X) =<br />

=<br />

�b<br />

a<br />

a + b<br />

2<br />

(a − b)2<br />

12<br />

x 1 1<br />

dx =<br />

b − a b − a<br />

1 b<br />

b − a<br />

2 − a2 2<br />

�b<br />

a<br />

xdx= 1<br />

b − a<br />

= 1 (b + a)(b − a)<br />

b − a 2<br />

Für die Varianz bestimmen wir zunächst E(X 2 ). Es gilt<br />

Also gilt<br />

E(X 2 ) =<br />

�b<br />

a<br />

2 1 1<br />

x dx =<br />

b − a b − a<br />

�b<br />

a<br />

= a + b<br />

x 2 dx = 1<br />

b − a<br />

= b3 − a3 3(b − a) = (b − a)(a2 + ab + b2 )<br />

3(b − a)<br />

Var(X) = E(X 2 ) − E(X) 2 = a2 + ab + b 2<br />

= 4a2 +4ab +4b 2 − 3a 2 − 6ab − 3b 2<br />

12<br />

= (a − b)2<br />

12<br />

3<br />

−<br />

� x 2<br />

2<br />

� b<br />

a<br />

2<br />

� x 3<br />

3<br />

� b<br />

a<br />

= a2 + ab + b 2<br />

3<br />

(a + b)2<br />

4<br />

= a2 − 2ab + b 2<br />

12<br />

(9.11)<br />

(9.12)<br />

Eine zentrale Rolle spielt die Gleichverteilung auf [0, 1]. Bei dieser gilt a =0<br />

und b =1.


9.2. STETIGE VERTEILUNGSMODELLE 217<br />

9.2.2 Die Normalverteilung<br />

Das wichtigste Verteilungsmodell ist die Normalverteilung, die von Gauss<br />

vorgeschlagen wurde.<br />

Definition 9.7<br />

Die Zufallsvariable X heißt normalverteilt mit den Parametern µ und σ 2 ,<br />

wenn ihre Dichtefunktion für x ∈ IR gegeben ist durch:<br />

f(x) = 1<br />

σ √ (x−µ)2<br />

e− 2σ<br />

2π 2 (9.13)<br />

Abbildung 9.5 zeigt die Dichtefunktion der Normalverteilung mit µ = 0 und<br />

σ =1,dieStandardnormalverteilung heißt.<br />

Abbildung 9.5: Dichtefunktion der Standardnormalverteilung<br />

f(x)<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

0.0<br />

−4 −2 0 2 4<br />

Für eine mit den Parametern µ und σ 2 normalverteilte Zufallsvariable X gilt<br />

und<br />

E(X) =µ<br />

Var(X) =σ 2<br />

x


218 KAPITEL 9. VERTEILUNGSMODELLE<br />

Der Parameter µ beschreibt also die Lage und der Parameter σ 2 die Streuung<br />

der Verteilung.<br />

Abbildung 9.6 zeigt die Dichtefunktionen von zwei Normalverteilungen mit<br />

unterschiedlichem Erwartungswert und identischen Varianzen.<br />

Abbildung 9.6: Dichtefunktionen der Normalverteilung µ = 5 und µ = 6 und<br />

gleichem σ 2 =1<br />

dnorm(x, 5)<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

0.0<br />

2 4 6 8 10<br />

Wir sehen, dass die Gestalten der Dichtefunktionen identisch sind und die<br />

Dichtefunktion mit dem größeren Erwartungswert nach rechts verschoben ist.<br />

Abbildung 9.7 zeigt die Dichtefunktionen von zwei Normalverteilungen mit<br />

identischem Erwartungswert und unterschiedlichen Varianzen.<br />

Abbildung 9.7: Dichtefunktionen der Normalverteilung σ 2 = 1 und σ 2 =4<br />

und gleichem µ =5<br />

dnorm(x, 6, 1)<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

0.0<br />

x<br />

0 2 4 6 8 10 12<br />

Wir sehen, dass die Dichtefunktion mit der kleineren Varianz viel flacher ist.<br />

x


9.2. STETIGE VERTEILUNGSMODELLE 219<br />

Beispiel 81<br />

In Tabelle 2.10 auf Seite 63 ist die Verteilung der Körpergröße von männlichen<br />

Studienanfängern zu finden. In Abbildung 9.8 ist neben dem Histogramm<br />

noch die Dichtefunktion der Normalverteilung mit den Parametern<br />

µ = 183.1 und σ 2 =48.7 eingezeichnet. Wir sehen, dass die Normalverteilung<br />

ein geeignetes Modell für die Körpergröße ist.<br />

Abbildung 9.8: Histogramm der Körpergröße von männlichen Studienanfängern<br />

mit Dichtefunktion der Normalverteilung mit den Parametern µ = 183.1<br />

und σ 2 =48.7<br />

Density<br />

0.07<br />

0.06<br />

0.05<br />

0.04<br />

0.03<br />

0.02<br />

0.01<br />

0.00<br />

160 170 180 190 200<br />

Groesse<br />

Die Verteilungsfunktion FX(x) kann nicht in expliziter Form angegeben werden.<br />

Um Wahrscheinlichkeiten zu bestimmen, benötigt man also Tabellen. Es<br />

muss aber nicht jede Normalverteilung tabelliert werden, sondern es reicht<br />

aus, Tabellen der Standardnormalverteilung zu besitzen.<br />

Ist nämlich X normalverteilt mit den Parametern µ und σ 2 ,soist<br />

Z =<br />

X − µ<br />

σ<br />

standardnormalverteilt. Wir wollen diese Beziehung nicht beweisen, sondern<br />

ihre Konsequenzen aufzeigen. Dabei bezeichnen wir die Dichtefunktion einer<br />

standardnormalverteilten Zufallsvariablen Z mit φ(z) und dieVerteilungsfunktion<br />

mit Φ(z). Es gilt also<br />

φ(z) = 1 −0.5 z2 √ e<br />

2π<br />

(9.14)


220 KAPITEL 9. VERTEILUNGSMODELLE<br />

und<br />

Φ(z) =<br />

�z<br />

−∞<br />

1 −0.5 u2 √ e du (9.15)<br />

2π<br />

Wir suchen für eine mit den Parametern µ und σ 2 normalverteilte Zufallsvariable<br />

folgende Wahrscheinlichkeit:<br />

Es gilt<br />

P (X ≤ x) =FX(x)<br />

� �<br />

x − µ<br />

FX(x) =Φ<br />

σ<br />

Dies sieht man folgendermaßen:<br />

FX(x) =<br />

�<br />

X − µ<br />

P (X ≤ x) =P (X − µ ≤ x − µ) =P<br />

σ<br />

=<br />

� � � �<br />

x − µ x − µ<br />

P Z ≤ =Φ<br />

σ<br />

σ<br />

�<br />

x − µ<br />

≤<br />

σ<br />

(9.16)<br />

Man muss die Verteilungsfunktion der Standardnormalverteilung nur für positive<br />

oder negative Werte von z tabellieren. Es gilt nämlich<br />

Φ(z) =1− Φ(−z) . (9.17)<br />

Beispiel 82<br />

Die Fahrzeit X eines Studenten zur Universität ist normalverteilt mit Erwartungswert<br />

40 und Varianz 4. Wie groß ist die Wahrscheinlichkeit, dass er<br />

höchstens 36 Minuten braucht?<br />

Gesucht ist P (X ≤ 36). Es gilt<br />

� �<br />

36 − 40<br />

P (X ≤ 36) = FX(36) = Φ<br />

=Φ(−2) .<br />

2<br />

Tabelle C.1 auf Seite 434 entnehmen wir Φ(2) = 0.977. Also gilt<br />

P (X ≤ 36) = Φ(−2) = 1 − Φ(2) = 1 − 0.977 = 0.023 .


9.2. STETIGE VERTEILUNGSMODELLE 221<br />

Mit Hilfe von Gleichung (6.23) auf Seite 172 können wir das p-Quantil xp<br />

einer mit den Parametern µ und σ 2 normalverteilten Zufallsvariablen aus<br />

dem p-Quantil zp der Standardnormalverteilung folgendermaßen bestimmen:<br />

xp = µ + zpσ<br />

Man muss die Quantile der Standardnormalverteilung nur für Werte von p<br />

tabellieren, die kleiner als 0.5 odergrößer als 0.5 sind, da gilt<br />

zp = −z1−p<br />

(9.18)<br />

Beispiel 82 (fortgesetzt)<br />

Welche Fahrzeit wird an 20 Prozent der Tage nicht überschritten? Gesucht ist<br />

x0.2. Es gilt z0.2 = −z0.8. Tabelle C.3 auf Seite 437 entnehmen wir z0.8 =0.842.<br />

Also gilt z0.2 = −0.842. Somit erhalten wir<br />

x0.20 =40+z0.20 · 2=40− 0.842 · 2=38.316 .<br />

Bei der Tschebyscheff-Ungleichung haben wir Intervalle der Form<br />

[µ − kσ,µ+ kσ] (9.19)<br />

betrachtet. Man nennt das Intervall in Gleichung (9.19) auch das k-fache zentrale<br />

Schwankungsintervall. Die Wahrscheinlichkeit für das k-fache zentrale<br />

Schwankungsintervall bei Normalverteilung ist<br />

P (µ − kσ≤ X ≤ µ + kσ)=Φ(k) − Φ(−k) .<br />

In der Tabelle 9.5 sind die Wahrscheinlichkeiten<br />

P (µ − kσ≤ X ≤ µ + kσ)<br />

bei Normalverteilung den unteren Schranken gegenübergestellt, die sich aus<br />

der Tschebyscheff-Ungleichung ergeben.


222 KAPITEL 9. VERTEILUNGSMODELLE<br />

Tabelle 9.5: Wahrscheinlichkeiten des k-fachen zentralen Schwankungsintervalls<br />

bei Normalverteilung und Tschebyscheff<br />

k N(µ, σ 2 ) Tschebyscheff<br />

1 0.683 0<br />

2 0.954 0.750<br />

3 0.997 0.889<br />

9.2.3 Die Exponentialverteilung<br />

Kommen wir noch einmal zum Poisson-Prozess zurück. Bei einem Poisson-<br />

Prozess im Intervall (0,t] ist die absolute Häufigkeit des Ereignisses A poissonverteilt<br />

mit Parameter λt.<br />

Es gilt also<br />

P (X = x) = (λt)x<br />

e −λt<br />

für x =0, 1,....<br />

x!<br />

Wir wollen nun einen Poisson-Prozess so lange beobachten, bis A zum ersten<br />

Mal eintritt. Gesucht ist Dichtefunktion fT (t) und die Verteilungsfunktion<br />

FX(x) der Wartezeit T bis zum ersten Eintreten von A. Für tt)=1− P (X =0)=1− e −λt<br />

Somit gilt:<br />

� −λt 1 − e für t>0<br />

FT (t) =<br />

0 sonst<br />

Da die erste Ableitung der Verteilungsfunktion gleich der Dichtefunktion ist,<br />

erhalten wir folgende<br />

Definition 9.8<br />

Die Zufallsvariable X heißt exponentialverteilt mit Parameter λ, wennihre<br />

Dichtefunktion gegeben ist durch:<br />

fX(x) =<br />

�<br />

λe−λx für x>0<br />

0 sonst<br />

(9.20)


9.2. STETIGE VERTEILUNGSMODELLE 223<br />

Abbildung 5.5 auf Seite 157 zeigt die Dichtefunktion der Exponentialverteilung<br />

mit λ = 1. Die Exponentialverteilung ist eine rechtsschiefe Verteilung.<br />

Es gilt<br />

und<br />

E(X) = 1<br />

λ<br />

Var(X) = 1<br />

λ 2<br />

Für das p-Quantil der Exponentialverteilung gilt<br />

xp = − 1<br />

λ<br />

Wir erhalten Gleichung (9.21) folgendermaßen:<br />

ln (1 − p) . (9.21)<br />

1 − e −λxp = p ⇔ e −λxp =1− p ⇔−λxp =ln(1−p) ⇔ xp = − 1<br />

ln (1 − p)<br />

λ<br />

Beispiel 83<br />

Bayer und Jankovic beobachteten im Rahmen eines BI-Projektes 30 Minuten<br />

eine Tankstelle und bestimmten die Zeiten zwischen den Ankünften von<br />

Kunden. Tabelle 9.6 zeigt die Häufigkeitstabelle.<br />

Tabelle 9.6: Häufigkeitstabelle der Zwischenankunftszeiten an einer Tankstelle<br />

Zeit absolute<br />

Häufigkeit<br />

von 0 bis unter 45 19<br />

von 45 bis unter 90 8<br />

von 90 bis unter 135 2<br />

von 135 bis unter 180 2<br />

von 180 bis unter 225 1<br />

Abbildung 9.9 zeigt das Histogramm mit der Dichtefunktion der Exponentialveretilung<br />

mit Parameter λ =0.019. Wir sehen, dass die Anpassung gut<br />

ist.


224 KAPITEL 9. VERTEILUNGSMODELLE<br />

Abbildung 9.9: Histogramm der Wartezeit mit der Dichtefunktion der Exponentialveretilung<br />

mit Parameter λ =0.019<br />

0.015<br />

0.010<br />

0.005<br />

0.000<br />

9.2.4 Prüfverteilungen<br />

0 50 100 150 200 250<br />

In der schließenden Statistik verwendet man immer wieder eine Reihe von<br />

Verteilungen, die eine Beziehung zur Normalverteilung haben. Schauen wir<br />

uns diese an.<br />

Die Chi-Quadrat-Verteilung<br />

Wir wissen, dass Z =(X −µ)/σ standardnormalverteilt ist, wenn X mit den<br />

Parametern µ und σ 2 normalverteilt ist. Die Zufallsvariable Z 2 ist in diesem<br />

Fall chiquadratverteilt mit k = 1 Freiheitsgraden. Man nennt den Parameter<br />

der Chi-Quadrat-Verteilung also Freiheitsgrade.<br />

Oft betrachtet man k unabhängige standardnormalverteilte Zufallsvariablen<br />

Z1,...,Zk. In diesem Fall ist<br />

k�<br />

i=1<br />

chiquadratverteilt mit k Freiheitsgraden.<br />

Abbildung 9.10 zeigt die Dichtefunktion der Chi-Quadrat-Verteilung mit k =<br />

3, k =4,k = 5 und k = 10 Freiheitsgraden.<br />

Zeit<br />

Z 2 i


9.2. STETIGE VERTEILUNGSMODELLE 225<br />

Abbildung 9.10: Dichtefunktion der Chi-Quadrat-Verteilung mit k =3,k =<br />

4, k = 5 und k = 10 Freiheitsgraden<br />

f(x)<br />

0.25<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

0 5 10 15 20 25<br />

Wir sehen, dass die Dichtefunktion der Chi-Quadrat-Verteilung mit wachsender<br />

Zahl von Freiheitsgraden immer symmetrischer wird.<br />

Die t-Verteilung<br />

Die Zufallsvariable Z sei standardnormalverteilt und die Zufallsvariable V<br />

chiquadratverteilt mit k Freiheitsgraden. Sind Z und V unabhängig, so ist<br />

die Zufallsvariable<br />

T = Z<br />

� V/k<br />

t-verteilt mit k Freiheitsgraden. Abbildung 9.11 zeigt die Dichtefunktion der<br />

t-Verteilung mit k =1,k =3k = 10 Freiheitsgraden. Außerdem ist noch die<br />

Dichtefunktion der Standardnormalverteilung eingezeichnet.<br />

Abbildung 9.11: Dichtefunktion der t-Verteillung mit k = 1, k = 3 und<br />

k = 10 Freiheitsgraden<br />

f(x)<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

0.0<br />

x<br />

k=3<br />

k=4<br />

k=5<br />

k=10<br />

−6 −4 −2 0 2 4 6<br />

x<br />

N(0,1)<br />

k=1<br />

k=3<br />

k=10


226 KAPITEL 9. VERTEILUNGSMODELLE<br />

Wir sehen, dass die Dichtefunktion der t-Verteilung mit wachsender Zahl<br />

von Freiheitsgraden der Dichtefunktion der Standardnormalverteilung immer<br />

ähnlicher wird. Die t-Verteilung mit kleiner Anzahl von Freiheitsgraden<br />

streut mehr als die Standardnormalverteilung. Dies erkennt man auch an der<br />

Varianz der t-Verteilung. Für k ≥ 3 gilt<br />

Var(T )= n<br />

n − 2<br />

Die Varianz von T konvergiert gegen die Varianz der Standardnormalverteilung.<br />

Die F -Verteilung<br />

Bei einer Vielzahl von statistischen Verfahren werden zwei Varianzen verglichen.<br />

In diesem Fall kommt die F -Verteilung ins Spiel. Ausgangspunkt sind<br />

hier die unabhängigen Zufallsvariablen V und W ,wobeiV chiquadratverteilt<br />

mit m und W chiquadratverteilt mit n Freiheitsgraden ist. In diesem Fall ist<br />

die Zufallsvariable<br />

F = V/m<br />

W/n<br />

F -verteilt mit m und n Freiheitsgraden.<br />

Abbildung 9.12 zeigt die Dichtefunktion der t-Verteilung mit m =5,n =5,<br />

m =5,n= 10, m =5,n= 50 und m =50,n= 50 Freiheitsgraden.<br />

Abbildung 9.12: Dichtefunktion der F -Verteillung mit m =5,n =5,m =<br />

5,n= 10, m =5,n= 50 und m =50,n= 50 Freiheitsgraden<br />

f(x)<br />

1.4<br />

1.2<br />

1.0<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0.0<br />

1 2 3 4 5<br />

x<br />

F(5,5)<br />

F(5,10)<br />

F(5,50)<br />

F(50,50)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!