Ãbungsblatt 6: Diskrete Wahrscheinlichkeit
Ãbungsblatt 6: Diskrete Wahrscheinlichkeit
Ãbungsblatt 6: Diskrete Wahrscheinlichkeit
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
HM3 M. Eisermann / T. Jentsch / B. Chen WiSe 2012/2013<br />
Übungsblatt 6: <strong>Diskrete</strong> <strong>Wahrscheinlichkeit</strong><br />
Für die Gruppenübungen am 06.12.2012<br />
1. BEDINGTE WAHRSCHEINLICHKEIT? – JA BITTE, UNBEDINGT!<br />
Der Begriff der bedingten <strong>Wahrscheinlichkeit</strong> und Unabhängigkeit von Ereignissen (§I2) ist für viele<br />
Rechnungen hilfreich, denn er präzisiert und strukturiert die Formulierung von <strong>Wahrscheinlichkeit</strong>en.<br />
1.1. In einer Schublade liegen 6 schwarze, 4 blaue und 2 rote Socken durcheinander.<br />
Wenn man (noch verschlafen und in Eile) zweimal blind in die Schublade<br />
greift, mit welcher <strong>Wahrscheinlichkeit</strong> erhält man zwei gleichfarbige Socken?<br />
Lösungsskizze: —<br />
A = {Beide Kugeln haben dieselbe Farbe}<br />
B 1 = {Die erste Gezogene Kugel ist schwarz}<br />
B 2 = {Die erste Gezogene Kugel ist blau}<br />
B 3 = {Die erste Gezogene Kugel ist rot}<br />
Hier gilt B 1 ∪ B 2 ∪ B 3 = Ω, B i ∩ B j = für i, j ∈ {1,2,3} sowie P(B 1 ) = 6 12 , P(B 2) = 4<br />
12 , P(B 3) = 2 12 .<br />
Auch die folgenden bedingten <strong>Wahrscheinlichkeit</strong>en sind klar:<br />
P(A|B 1 ) = 5 11 ,P(A|B 2) = 3 11 ,P(A|B 3) = 1<br />
11<br />
Hieraus kann man die totale <strong>Wahrscheinlichkeit</strong> berechnen:<br />
P(A) = P(A|B 1 ) + P(A|B 2 ) + P(A|B 3 ) = 6 5<br />
12 11 + 4 3<br />
12 11 + 2 1<br />
12 11<br />
=<br />
30 + 12 + 2<br />
132<br />
= 1 3<br />
—<br />
1.2. Sie gehen zur Sprechstunde im siebten Stock. Die <strong>Wahrscheinlichkeit</strong> eines<br />
Feuers ist gering, sagen wir 0.1% jeden Tag. Im Brandfall wird mit 95%iger<br />
Sicherheit Alarm ausgelöst. Leider gibt es an 1% aller feuerfreien Tage Fehlalarm.<br />
Mit welcher <strong>Wahrscheinlichkeit</strong> brennt es, wenn Sie den Alarm hören?<br />
Lösungsskizze: — Sei A das Ereignis “Alarm” und B “es brennt”. Es gilt P(B) = 0.1% und P(A|B) =<br />
95%. Weiterhin gilt P(A|¬B) = 1%. Gesucht ist P(B|A). Wir berechnen zunächst<br />
P(A) = P(A∩B)+P(A∩¬B) = P(A|B)·P(B)+P(A|¬B)·P(¬B) = 95%·0.1%+1%·99.9% = 1.094%<br />
Daher<br />
P(B|A) = P(A|B) · P(B)<br />
P(A) = 95% · 0.1%<br />
1.094% = 8.7%. —<br />
1.3. Es werden drei (verschiedenfarbige) Würfel geworfen. Berechnen Sie P(A),<br />
P(B) und P(A∩B) für die Ereignisse A: Es fällt mindestens eine Eins, B: Jeder<br />
Würfel hat eine andere Augenzahl. Sind die Ereignisse A und B stochastisch<br />
unabhängig? Vergleichen Sie P(A) mit P(A|B) sowie P(B) mit P(B|A).<br />
www.igt.uni-stuttgart.de/eiserm Seite 1/6 Stand 4. Dezember 2012
HM3 M. Eisermann / T. Jentsch / B. Chen WiSe 2012/2013<br />
Lösungsskizze: — Die Ereignismenge ist: Ω := {(i, j,k)|1 ≤ i, j,k ≤ 6}. Hieraus folge die Zuordung<br />
der Elementarwahrscheinlichkeiten: P((i, j,k)) = 1 1<br />
6 · 16 · 16<br />
=<br />
216 . Seien W i die Menge der folgenden<br />
Ereignisse: W i = {der i-te Würfel has die Augenzahl 1}. Dann gilt A = W 1 ∪W 2 ∪W 3 und P(A) =<br />
P(W 1 ) + P(W 2 ) + P(W 3 ) − P(W 1 ∩W 2 ) − P(W 2 ∩W 3 ) − P(W 1 ∩W 3 ) + P(W 1 ∩W 2 ∩W 3 ) = 1 6 + 6 1 + 1 6 −<br />
1<br />
36 − 36 1 − 36 1 + 216 1 = 1 2 − 12 1 + 216 1 = 216 91 .<br />
Schneller geht’s so: Sei Ā := Ω A das Gegenereignis. Die Gegenwahrscheinlichkeit P(Ā) ist ( 5 6 )3<br />
(denn jeder Würfel muss eine von Eins verschiedene Zahl anzeigen und alle Würfel sind unabhängig).<br />
Daher P(A) = 1 − P(Ā) = 216−125<br />
216<br />
=<br />
216 91 .<br />
Ein einfaches Abzählargument zeigt, dass P(B) = 6·5·4 = 120<br />
6 3 216 = 9 5. Weiterhin ist P(A∩B) = P((W 1 ∪<br />
W 2 ∪ W 3 ) ∩ B) = ∑ 3 i=1 P(W i ∩ B) − ∑ i≠ j P(W i ∩ W j ∩ B) + P(W 1 ∩ W 2 ∩ W 3 ∩ B). Es ist klar das W i ∩<br />
W j ∩ B = /0 für i ≠ j. Dann ist P(A ∩ B) =<br />
216 5·4 + 216 5·4 + 216 5·4 = 18 5 ≠ 1944 455 = P(A) · P(B). Also sind die<br />
Ereignisse A und B stochastisch abhängig. Die bedingte <strong>Wahrscheinlichkeit</strong>en P(B|A) = P(A∩B)<br />
P(A)<br />
=<br />
91<br />
60<br />
und P(A|B) = P(A∩B)<br />
P(B)<br />
=<br />
2 1. —<br />
2. AUSFALLWAHRSCHEINLICHKEITEN – WELCOME TO THE MACHINE!<br />
Die Abschätzung von Risiken ist ein typisches und wichtiges Anwendungsgebiet der <strong>Wahrscheinlichkeit</strong>srechnung<br />
in den Ingenieurwissenschaften. Wir illustrieren dies mit einfachen Beispielen (§J1).<br />
2.1. Angenommen, ein vierstrahliges Flugzeug kann mit nur zwei Triebwerken<br />
noch weiterfliegen. Der Ausfall eines Triebwerkes trete mit <strong>Wahrscheinlichkeit</strong><br />
p auf und sei stochastisch unabhängig von den anderen.<br />
(a) Wie wahrscheinlich ist es, das drei oder alle vier Triebwerke ausfallen?<br />
Zur Illustration wähle man konkrete Beispiele wie p = 0.1 oder p = 0.01.<br />
(b) Wie bewerten Sie die Annahme der Unabhängigkeit bei Verschleiß, Wartungsfehlern,<br />
Vogelschlag, Vulkanasche, Treibstoffmangel, . . . ?<br />
Lösungsskizze: —<br />
(1) Die <strong>Wahrscheinlichkeit</strong> P 4,p (Alle Vier Triebwerke fallen aus) = p 4 und P 4,0.1 = 0.01% und<br />
P 4,0.01 = 0.000001%. Analogie: P 3,p (Drei Triebwerke fallen aus) = 4p 3 (1 − p) und P 3,0.1 =<br />
0.36% und P 3,0.01 ≈ 0.0004%.<br />
(2) Angenommen, es fällt ein Triebwerk aus. Dafür kann es verschiedene Gründe dafür geben,<br />
z.B. dass der Mechaniker bei der Wartung der Triebwerke unter Zeitdruck stand und einen<br />
Defekt übersehen hat. War dies der Grund für den Triebwerksausfall, so ist für jedes andere<br />
der vier Triebwerke die <strong>Wahrscheinlichkeit</strong> erhöht, dass es ebenfalls ausfällt. Gleiches gilt,<br />
wenn ein Triebwerk wegen Verstopfung z.B. durch Vogelschlag oder die Asche eines Vulkans<br />
ausfällt. Auch dann besteht eine relativ hohe <strong>Wahrscheinlichkeit</strong>, dass ein anderes ebenfalls<br />
ausfällt. Auch ist es wahrscheinlicher, dass Triebwerke mit hoher Betriebsdauer ihren Geist<br />
aufgeben. Kurzum, in die Statistik zur Ermittelung der durchschnittlichen Lebensdauer eines<br />
Triebwerkes gehen auch solche Einflüsse ein, die für verschiedene Triebwerke untereinander<br />
gekoppelt sind. Daher ist nicht anzunehmen, dass die Ausfallwahrscheinlichkeiten der einzelnen<br />
Triebwerke unabhängig von einander sind.<br />
—<br />
www.igt.uni-stuttgart.de/eiserm Seite 2/6 Stand 4. Dezember 2012
HM3 M. Eisermann / T. Jentsch / B. Chen WiSe 2012/2013<br />
2.2. Ein Gerät enthalte n gleiche unabhängige Bauteile (etwa Widerstände), jedes<br />
mit Ausfallwahrscheinlichkeit p = 5 · 10 −4 . Mit welcher <strong>Wahrscheinlichkeit</strong><br />
funktionieren alle Teile für n = 500? für n = 1000? für n = 2000?<br />
Lösungsskizze: — Die <strong>Wahrscheinlichkeit</strong> P(alle Teile funktionieren) = (1− p) n ≈ e −np . Dann P n=500 ≈<br />
77.88%, P n=1000 ≈ 60.65%. P n=2000 ≈ 36.79%. —<br />
3. DAS GEBURTSTAGSPARADOX IST IMMER UND ÜBERALL<br />
Versuchen Sie bei folgenden Fragestellungen, die <strong>Wahrscheinlichkeit</strong> zunächst intuitiv zu schätzen.<br />
Erstaunt Sie der Vergleich mit Ihrer Rechnung? Oder ist das sogenannte Paradox für Sie gar keins?<br />
3.1. In Ihrer Übungsgruppe wählt jede/r zufällig eine Zahl aus {0,...,99}. Wie<br />
wahrscheinlich ist es, dass zwei gleiche Zahlen darunter sind? Bis zu welcher<br />
Teilnehmerzahl würden Sie darauf wetten?<br />
Lösungsskizze: — Wir rechnen wie beim Geburtstagsparadox, hier N = 100 und n = Anzahl der heute anwesenden Studenten.<br />
Die <strong>Wahrscheinlichkeit</strong>, dass nie zwei gleiche Zahlen ausgewählt werden, ist<br />
(<br />
P n = 1 − 0 )(<br />
1 − 1 )(<br />
1 − 2 ) (<br />
···<br />
N N N<br />
1 − n − 1<br />
N<br />
) (<br />
<br />
e 0 · e − N 1 · ··· · e − n−1<br />
N<br />
) (<br />
≈ exp −<br />
n(n − 1)<br />
)<br />
2N<br />
Sei Q n = 1−P n die <strong>Wahrscheinlichkeit</strong>, dass mindestens zwei gleiche Zahl haben. Dann, zum Beispiel:<br />
P 25 ≈ 0.0498 somit Q 25 ≈ 0.902. —<br />
3.2. Bei jeder Lottoziehung „6 aus 49“ gibt es ( 49<br />
6<br />
)<br />
≈ 14000000 mögliche Ergebnisse.<br />
Wie wahrscheinlich ist es, dass bei 5000 zufälligen unabhängigen Ziehungen<br />
mindestens ein Ergebniss doppelt vorkommt?<br />
Lösungsskizze: — Wir rechnen beim Geburtstagsparadox, hier mit N = ( 49) 6 14000000 und n =<br />
5000. Die <strong>Wahrscheinlichkeit</strong>, dass nie zweimal dieselben sechs Zahlen gezogen werden ist<br />
( )( )( ) (<br />
P n =<br />
··· 1 − n − 1 )<br />
1 − 0 1 − 1 1 − 2 N N N<br />
(<br />
exp − 0 ) (<br />
exp − 1 ) (<br />
exp − 2 N N N<br />
(<br />
0 + 1 + 2 + ··· + (n − 1)<br />
= exp −<br />
N<br />
exp(−0.89) 0.411.<br />
)<br />
···exp<br />
N<br />
(<br />
− n − 1 )<br />
N<br />
n(n − 1)<br />
2N<br />
) (<br />
= exp −<br />
Die <strong>Wahrscheinlichkeit</strong>, dass mindestens ein Ergebniss doppelt vorkommt ist demnach 1 − P 0.589,<br />
also circa 60%. (Bisher gab es im deutschen Lotto „6 aus 49“ etwas mehr als 5000 Ziehungen. Es<br />
wurden tatsächlich schon zweimal die gleichen 6 Zahlen gezogen, Sowohl am 20.12.1986 als auch am<br />
21.06.1995 waren es die Zahlen 15, 25, 27, 30, 42, 48.) —<br />
)<br />
www.igt.uni-stuttgart.de/eiserm Seite 3/6 Stand 4. Dezember 2012
HM3 M. Eisermann / T. Jentsch / B. Chen WiSe 2012/2013<br />
4. KOMBINATORIK UND URNENMODELLE<br />
In vielen Anwendungen treten hypergeometrische, Binomial- oder Poisson–Verteilungen auf. Diese<br />
grundlegenden Modelle gilt es jeweils zu erkennen und dann die gesuchten <strong>Wahrscheinlichkeit</strong>en zu<br />
berechnen. Oft ist zur Vereinfachung eine geeignete Approximation hilfreich oder gar unumgänglich.<br />
4.1. Wie wahrscheinlich ist es, durch Ankreuzen von sechs Zahlen beim Lotto „6<br />
aus 49“ genau k = 0,1,2,3,4,5,6 Richtige zu erzielen? (ohne Zusatzzahl)<br />
Lösungsskizze: — Im Skript steht dieses Beispiel am Ende von §J.3.1. Die <strong>Wahrscheinlichkeit</strong> wird<br />
durch die hypergeometriche Verteilung gegeben:<br />
( 6 43<br />
)<br />
H(49,6,6)(k) =<br />
k)(<br />
6−k<br />
)<br />
H(49,6,6)(0) ≈ 0.4360, H(49,6,6)(1) ≈ 0.4130, H(49,6,6)(2) ≈ 0.1324, H(49,6,6)(3) ≈ 0.0177,<br />
H(49,6,6)(4) ≈ 0.000969, H(49,6,6)(5) ≈ 1.845×10 −5 , H(49,6,6)(6) ≈ 7.151124×10 8 ≈<br />
1<br />
14000000 .<br />
—<br />
( 49<br />
6<br />
4.2. Ein Experiment mit Trefferwahrscheinlichkeit 1% wird 100 mal unabhängig<br />
wiederholt. Wie wahrscheinlich ist es, genau k = 0,1,2,3 Treffer zu erzielen?<br />
Lösungsskizze: — B(n,t)(k) = ( n<br />
k)<br />
t k (1 − t) n−k . Seien n = 100 und t = 0.01. Dann B(100,0.01)(0) ≈<br />
0,3660, B(100,0.01)(1) ≈ 0,3697, B(100,0.01)(2) ≈ 0,1849, B(100,0.01)(4) ≈ 0,0610. —<br />
4.3. In einer Urne liegen 3 schwarze und n − 3 weiße Kugeln. Wie wahrscheinlich<br />
ist es, bei n Ziehungen mit Zurücklegen genau k mal eine schwarze Kugel<br />
zu ziehen? Welche Approximation bietet sich für große n an? (Grenzwert für<br />
n → ∞) Man berechne diese <strong>Wahrscheinlichkeit</strong> für k = 0,1,2,3,4,5,6.<br />
Lösungsskizze: — Aus den n Kugeln zieht man eine schwarze mit <strong>Wahrscheinlichkeit</strong> t n = 3/n. Die<br />
<strong>Wahrscheinlichkeit</strong> bei n Versuchen k Treffer zu erhalten ist binomialverteilt:<br />
( )( ) n 3 k ( ) n − 3 n−k<br />
.<br />
k n<br />
Dies konvergiert für n → ∞ gegen die Poisson–Verteilung mit λ = nt n = 3, also<br />
) n 3 k ( ) n − 3 n−k<br />
lim<br />
=<br />
n→∞(<br />
k)( 3k<br />
n n k! e−3 .<br />
Der totale Abstand ist ≤ λ 2 /n, für n = 1000 also ≤ 9<br />
1000 < 0.01. —<br />
n<br />
4.4. (a) Für n → ∞ zeige man B(n,λ/n) → P(λ) zur Wiederholung; siehe Skript.<br />
(b) Für N → ∞ und K/N → t zeige man H(N,K,n) → B(n,t); siehe Skript.<br />
(c) Wie groß ist der totale Abstand von H(N,K,n) zu B(n,K/N) und von<br />
B(n,t) zu P(nt)? Man illustriere dies mit eigenen Zahlenbeispielen.<br />
www.igt.uni-stuttgart.de/eiserm Seite 4/6 Stand 4. Dezember 2012
HM3 M. Eisermann / T. Jentsch / B. Chen WiSe 2012/2013<br />
Lösungsskizze: — Zu (a).<br />
B(n, λ ( ) n (λ ) k (<br />
n )(k) = 1 − λ k n n<br />
) n−k<br />
n · (n − 1)···(n − k + 1)<br />
=<br />
k!<br />
= ( 1 k! )(n n − 1<br />
n n<br />
n→∞<br />
= 1 k! ···1 · λ k · e −λ · 1<br />
= λ k<br />
k! e−λ .<br />
· λ k<br />
n k · (1 − λ n )n−k<br />
··· n − k + 1 )λ k (1 − λ n<br />
n )n (1 − λ n )−k<br />
Zu (b). Wir setzen n k := n · (n − 1)···(n − k + 1) falls n ≥ k. Dann gilt<br />
( K N−K<br />
)<br />
H(N,K,n) =<br />
k)(<br />
N−k<br />
( N<br />
n)<br />
= Kk (n − K) n−k n!<br />
k! (n − k)! N<br />
( ) n<br />
n→∞ n (K ) k ( N − K<br />
) n−k<br />
=<br />
k N N<br />
(<br />
K<br />
N<br />
=<br />
→t n<br />
t<br />
k)<br />
k (1 −t) n−k —<br />
Zu (c). Nach Kapitel §J.3.3. des Vorlesungsskriptes:<br />
sup{ |B(n, λ λ<br />
2<br />
)(A) − P(λ)(A)| | A ⊂ N } ≤<br />
n n<br />
sup{ |H(N,K,n)(A) − B(n, K N )(A)| | A ⊂ N } < n N<br />
Zwei Beispiele: n = 100000, t = 0.0001, also λ = 10. Dann liegen B(100000,0.0001)<br />
und P(10) höchstens 0.001 auseinander. Für N = 100000, K = 1000, n = 300<br />
liegen H(100000,1000,300) und B(300,0.001) höchstens 0.003 auseinander.<br />
5. SCHRIFTLICHE AUFGABE:<br />
HYPERGEOMETRISCHE, BINOMIAL- UND POISSON–VERTEILUNG<br />
Abgabe am 06.12.2012 in Ihrer Übungsgruppe. Viel Erfolg!<br />
5.1. Ein Gerät enthalte 20000 Widerstände, jeder mit Ausfallwahrscheinlichkeit<br />
10 −4 und unabhängig von den anderen. Mit welcher <strong>Wahrscheinlichkeit</strong> fallen<br />
genau k Widerstände aus? Für k = 0,1,2,3,4 und {k ≥ 5} berechne man<br />
diese <strong>Wahrscheinlichkeit</strong> auf 0.5·10 −3 genau (drei Nachkommastellen). Ist die<br />
zugehörige Poisson–Verteilung hierzu eine ausreichend gute Näherung?<br />
www.igt.uni-stuttgart.de/eiserm Seite 5/6 Stand 4. Dezember 2012
HM3 M. Eisermann / T. Jentsch / B. Chen WiSe 2012/2013<br />
Lösungsskizze: — Die <strong>Wahrscheinlichkeit</strong> ist binomialverteilt gemäß B(n,t)(k) = ( n<br />
k)<br />
t k (1−t) n−k , hier<br />
mit n = 20000 und t = 10 −4 . Dies kann man näherungsweise berechnen durch die Poisson–Verteilung<br />
P(λ)(k) = e −λ λ k /k! mit λ = nt = 2. Der totale Abstand ist hierbei ≤ λ 2 /n = 4/20000 = 0.0002. Für<br />
die gewünschte Genauigkeit ist das klein genug. (Der totale Abstand gilt für alle Teilmengen A ⊂ Ω;<br />
in einzelnen Punkten k ist die Abweichung noch geringer.) Die Werte der Poisson–Verteilung lassen<br />
sich bequem berechnen: P(2)(0) ≈ 0.1353, P(2)(1) ≈ 0.2707, P(2)(2) ≈ 0.2707, P(2)(3) ≈ 0.1804,<br />
P(2)(4) ≈ 0.0902. Die verbleibende <strong>Wahrscheinlichkeit</strong> für k ≥ 5 ist dann ≈ 0.0527. —<br />
5.2. In einer Population von 10000 Tieren sind 500 erkrankt. Zur Untersuchung<br />
werden 40 zufällig ausgewählt. Mit welcher <strong>Wahrscheinlichkeit</strong> befinden sich<br />
genau k kranke Tiere in dieser Stichprobe? Für k = 0,1,2,3,4 und {k ≥ 5}<br />
berechne man diese <strong>Wahrscheinlichkeit</strong> auf 0.5 · 10 −2 genau (zwei Nachkommastellen).<br />
Ist die zugehörige Binomialverteilung hierzu eine ausreichend gute<br />
Näherung? Auch die zugehörige Poisson–Verteilung?<br />
Lösungsskizze: — Es handelt sich um eine Stichprobe ohne Zurücklegen. Die <strong>Wahrscheinlichkeit</strong> ist<br />
hypergeometrisch verteilt gemäß H(N,K,n)(k) = ( K)( N−K<br />
) (<br />
k n−k / N<br />
n)<br />
, hier mit N = 10000, K = 500, n = 40.<br />
Dies kann man näherungsweise berechnen durch die Binomialverteilung B(n,t)(k) mit Trefferwahrscheinlichkeit<br />
t = K/N = 0.05. Der totale Abstand ist hierbei < n/N = 0.004. Für die gewünschte<br />
Genauigkeit ist das klein genug. (Der totale Abstand gilt für alle Teilmengen A ⊂ Ω; in einzelnen Punkten<br />
k ist die Abweichung noch geringer.) Die Binomialverteilung B(n,t)(k) wiederum wird angenähert<br />
durch die Poisson–Verteilung P(λ)(k) mit λ = nt = 2. Der totale Abstand ist hierbei ≤ λ 2 /n = 0.1. Für<br />
eine Genauigkeit von 0.01 scheint letzteres etwas zu grob. (Der totale Abstand gilt für alle Teilmengen<br />
A ⊂ Ω; in einzelnen Punkten kann auch die Poisson–Verteilung noch akzeptable Werte liefern.)<br />
Die Werte der Binomialverteilung lassen sich relativ bequem berechnen: B(40,0.05)(0) ≈ 0.1285,<br />
B(40,0.05)(1) ≈ 0.2706, B(40,0.05)(2) ≈ 0.2777, B(40,0.05)(3) ≈ 0.1851, B(40,0.05)(4) ≈ 0.0901.<br />
Die verbleibende <strong>Wahrscheinlichkeit</strong> für k ≥ 5 ist dann ≈ 0.048<br />
Zum Vergleich die Werte der Poisson–Verteilung, die wir aus der vorigen Aufgabe bereits kennen:<br />
P(2)(0) ≈ 0.1353, P(2)(1) ≈ 0.2707, P(2)(2) ≈ 0.2707, P(2)(3) ≈ 0.1804, P(2)(4) ≈ 0.0902. Die<br />
verbleibende <strong>Wahrscheinlichkeit</strong> für k ≥ 5 ist dann ≈ 0.0527.<br />
Auf zwei Nachkommastellen gerundet erhalten wir durch die Binomialverteilung: 13%, 27%, 28%,<br />
19%, 9%, 5%. Die Poisson–Verteilung liegt (knapp) daneben: 14%, 27%, 27%, 18%, 9%, 5%. —<br />
www.igt.uni-stuttgart.de/eiserm Seite 6/6 Stand 4. Dezember 2012