F. Krause - Universität Potsdam
F. Krause - Universität Potsdam
F. Krause - Universität Potsdam
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
UNIVERSITÄT POTSDAM<br />
Die Poissonverteilung<br />
Hausarbeit zum Seminar „Stochastische Prozesse“<br />
Franziska <strong>Krause</strong> 759778<br />
08.11.2013<br />
Diese Arbeit gibt einen Einblick in die Herleitung und Anwendung der Poissonverteilung. Außerdem<br />
werden einige Beispiele und Eigenschaften diskutiert.
Inhaltsverzeichnis<br />
1. Herleitung der Poissonverteilung als Grenzwert der Binomialverteilung ................... 2-6<br />
Einleitendes Beispiel .............................................................................................................. 2<br />
Satz der Binomialapproximation der Poissonverteilung ..................................................... 2-3<br />
Definition der Poissonverteilung ............................................................................................ 3<br />
Beispiele zur Binomialapproximation der Poissonverteilung ............................................. 4-6<br />
2. Einige Eigenschaften der Poissonverteilung ................................................................ 6-11<br />
Histogramme........................................................................................................................ 6-8<br />
Erzeugende Funktion .............................................................................................................. 8<br />
Erwartungswert und Varianz ............................................................................................. 8-10<br />
Addition von zwei poissonverteilten Zufallsgrößen ........................................................ 10-11<br />
3. Historische Beispiele .................................................................................................... 11-16<br />
Das Rutherford-Geiger-Experiment ................................................................................ 11-13<br />
Unfälle im Preußischen Heer ........................................................................................... 13-16<br />
4. Weitere Anwendungsbereiche der Poissonverteilung ............................................... 16-18<br />
5. Das Reiskörner-Experiment ........................................................................................ 18-21<br />
Quellenverzeichnis ......................................................................................................... 22<br />
1
1.) Herleitung der Poissonverteilung als Grenzwert der Binomialverteilung<br />
Um eine erste Idee der Poissonverteilung zu erhalten, möchte ich zunächst ein Beispiel<br />
betrachten, dass Georgii [GEO] entnommen ist.<br />
(1.1) Beispiel<br />
Man stelle sich die Frage, wie viele Schadensmeldungen eine KFZ-Versicherung in einem bestimmten<br />
Intervall ]0,t] , t>0 erhält. Klar ist zunächst, dass die Ergebnismenge Ω = N ist. Zu bestimmen bleibt<br />
die Verteilung P. Dazu unterteile ich zunächst das Zeitintervall in n Teilintervalle, sodass jedes<br />
Intervall die Länge<br />
besitzt. Für ein hinreichend großes n kann man nun davon ausgehen, dass in<br />
jedem Teilintervall höchstens ein Schaden gemeldet wird. Die Wahrscheinlichkeit p für das Auftreten<br />
eines Schadens sollte möglichst proportional zur Länge des Intervalls sein, also<br />
, mit der<br />
Proportionalitätskonstante ε >0. Außerdem gehe ich davon aus, dass die einzelnen Schäden<br />
unabhängig voneinander auftreten. Nun kann man dieses Beispiel auf das Modell „Ziehen mit<br />
Zurücklegen“ übertragen. Hierbei wird n-mal gezogen und die Wahrscheinlichkeit, eine<br />
„Schadenskugel“ zu ziehen, ist<br />
. Die Verteilung ist also gegeben durch eine Binomialverteilung<br />
B n , . Da n sehr groß werden kann, liefert diese Überlegung folgenden Ansatz für die gesuchte<br />
Verteilung P:<br />
Über diesen Grenzwert gibt Satz (1.2) Auskunft.<br />
P({ }) B ({ }) N<br />
(1.2) Satz (Binomialapproximation der Poissonverteilung)<br />
Sei >0 und (p n ) n≥1 eine Folge in [0, 1] mit<br />
Dann konvergiert die Binomialverteilung B , das heißt, es existiert für alle k N:<br />
({ })<br />
Beweis.<br />
Für die Binomialverteilung B<br />
gilt:<br />
B ({ }) ( ) ( )<br />
( )<br />
( )<br />
( )<br />
( ) ( ) ( )<br />
2
Nun betrachte ich die Grenzwerte der einzelnen Faktoren. Da der erste Faktor kein n enthält,<br />
bleibt er für wachsendes n konstant. Für den zweiten Faktor gilt:<br />
( )<br />
( ) ( ) ( )<br />
( ( ) ( ) ( )<br />
Für den dritten Faktor gilt nach Voraussetzung:<br />
Weiterhin gilt:<br />
( )<br />
und<br />
( ) ( )<br />
( ) ( )<br />
Insgesamt folgt also:<br />
B ({ })<br />
Dieser Grenzwert kennzeichnet die Verteilung, die diese Arbeit behandelt. Darüber gibt<br />
nachfolgende Definition Auskunft.<br />
(1.3) Definition<br />
Für λ > 0 heißt das Wahrscheinlichkeitsmaß<br />
λ auf (N, (N)) mit<br />
({ })<br />
die Poissonverteilung zum Parameter λ.<br />
Diese Verteilung ist benannt nach Siméon-Denis Poisson (1781–1840), einem bedeutenden<br />
Mathematiker und Physiker, der 1837 seine Arbeit über die Poissonverteilung veröffentlichte.<br />
Nach Henze [HE] ist diese Benennung ungerechtfertigt, da bereits de Moivre (1667-1754)<br />
3
diese Verteilung kannte. In der Literatur findet sich aber ausschließlich der Name<br />
„Poissonverteilung“ und daher werde auch ich bei diesem bleiben.<br />
Um davon überzeugt zu sein, dass die Poissonverteilung wirklich ein Wahrscheinlichkeitsmaß<br />
ist, überprüfe ich, ob die Summe aller Wahrscheinlichkeiten tatsächlich eins ergibt. Dies<br />
erkennt man mit Hilfe der Potenzreihe von relativ schnell:<br />
∑ ({ }) ∑ ∑<br />
Als nächstes wollen wir uns den eben bewiesenen Satz 1.2 an zwei Beispielen verdeutlichen.<br />
(1.4) Beispiel<br />
Ich betrachte eine Binomialverteilung mit B mit und nϵ{4,8,16,32}. Diese nähere<br />
ich mit einer Poissonverteilung zum Parameter λ =2 an. Henze [HE] verdeutlicht diese an<br />
folgendem Histogramm:<br />
Für kϵN zeigen die Balken von links (hellgrau) nach rechts (dunkelgrau) der Reihe nach<br />
B ({k}) für n=4,8,16,32. Schwarz dargestellt ist der Limes ({ }).<br />
Man kann erkennen, dass sich die grauen Balken für wachsendes n immer mehr dem Wert der<br />
Poissonverteilung anzunähern. Für n=32 ist die Näherung schon sehr gut, es gibt aber kleinere<br />
Abweichungen z.B. bei k=0,2,3. Man muss also entscheiden, ob diese schon sehr gute<br />
Näherung genügend ist.<br />
(1.5) Beispiel<br />
Um genaue Wahrscheinlichkeitswerte zu vergleichen, betrachten wir ein weiteres Beispiel.<br />
Nun soll es um eine Binomialverteilung mit gehen und dementsprechend eine<br />
Poissonverteilung zum Parameter λ=5. Nachfolgende Tabelle zeigt B ({k}) und ({ }) für<br />
4
k {0,1,2,3,4,5,6,7,8,9,10} und n {20,50,100,500). Grau hinterlegt sind dabei jeweils die<br />
kumulierten Wahrscheinlichkeiten.<br />
Binomialverteilung mit n*p=5<br />
Poissonverteilung<br />
k n=20 n=50 n=100 n=500 λ=5<br />
0 0,0032 0,0052 0,0059 0,0066 0,0067<br />
0,0032 0,0052 0,0059 0,066 0,0067<br />
1 0,0211 0,0286 0,0312 0,0332 0,0337<br />
0,0243 0,0338 0,0371 0,0398 0,0404<br />
2 0,0669 0,0779 0,0812 0,0836 0,0842<br />
0,0913 0,1117 0,1183 0,1234 0,1247<br />
3 0,1339 0,1386 0,1396 0,1402 0,1404<br />
0,2252 0,2503 0,2578 0,2636 0,2650<br />
4 0,1897 0,1809 0,1781 0,1760 0,1755<br />
0,4148 0,4312 0,4360 0,4396 0,4405<br />
5 0,2023 0,1849 0,1800 0,1764 0,1755<br />
0,6172 0,6161 0,6160 0,6160 0,6160<br />
6 0,1686 0,1541 0,1500 0,1470 0,1462<br />
0,7858 0,7702 0,7660 0,7629 0,7622<br />
7 0,1124 0,1076 0,1060 0,1048 0,1044<br />
0,8982 0,8779 0,8720 0,8677 0,8666<br />
8 0,0609 0,0643 0,0649 0,0652 0,0653<br />
0,9591 0,9421 0,9369 0,9329 0,9319<br />
9 0,0271 0,0333 0,0349 0,0360 0,0363<br />
0,9861 0,9755 0,9718 0,9689 0,9682<br />
10 0,0099 0,0152 0,0167 0,0179 0,0181<br />
0,9961 0,9906 0,9885 0,9868 0,9863<br />
Beispielsweise für k=3 kann man erkennen, dass sich die Werte der Binomialverteilung für<br />
wachsendes n immer mehr dem Grenzwert, also dem Wert der Poissonverteilung, annähern.<br />
Bei n=500 beträgt die Abweichung lediglich 0,2%. Eine noch bessere Näherung zeigt die<br />
kumulierte Wahrscheinlichkeit für k=5. Hier stimmen die Werte ab n=100 mit dem Wert der<br />
Poissonverteilung im Rahmen der angegebenen Genauigkeit exakt überein.<br />
Man kann sich nach dieser Betrachtung fragen, wann es Sinn macht, die Binomialverteilung<br />
mit der Poissonverteilung anzunähern. Nach Ineichen [IN] ist dies „in der Regel“ für n>10<br />
und p< 0,05 der Fall. Diese Werte sind vermutlich empirisch entstanden. Man muss also<br />
immer im Einzelfall überprüfen, ob eine Näherung sinnvoll ist und mit welcher Genauigkeit<br />
man sein Ergebnis angeben möchte. In Kapitel zwei werden wir allerdings an den<br />
Histogrammen erkennen, dass eine Poissonverteilung mit λ>50 wenig sinnvoll erscheint, da<br />
die Verteilung dann einer Normalverteilung gleicht.<br />
Eine weitere interessante Frage ist, warum man die Binomialverteilung überhaut annähern<br />
sollte, bzw. welche Vorteile eine solche Näherung birgt. Der entscheidende Punkt ist, dass es<br />
in der Praxis häufig Beispiele für Binomialverteilungen gibt, bei denen weder n noch p als<br />
Einzelparameter bekannt und auch nicht berechenbar sind. Man weiß häufig nur, dass n groß<br />
ist und empirisch kennt man das Produkt . Genau dieses Produkt reicht aber für die<br />
5
Wahrscheinlichkeit<br />
Berechnung der Poissonverteilung aus. In manchen Fällen ist die Poissonverteilung also die<br />
einzige Möglichkeit, um überhaupt Wahrscheinlichkeiten berechnen zu können.<br />
Um nun die Poissonverteilung näher charakterisieren zu können, möchte ich im folgenden<br />
Kapitel einige Eigenschaften dieser Verteilung diskutieren.<br />
2. Einige Eigenschaften der Poissonverteilung<br />
2.1 Histogramme verschiedener Poissonverteilungen<br />
Um zunächst eine Idee der Poissonverteilung zu erhalten, stelle ich nun einige Histogramme<br />
der Verteilung dar.<br />
0,4<br />
Poissonverteilungen mit λ= 1, λ=5, λ=10<br />
0,35<br />
0,3<br />
0,25<br />
0,2<br />
0,15<br />
λ=10<br />
λ=1<br />
λ=5<br />
0,1<br />
0,05<br />
0<br />
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22<br />
k<br />
Am Diagramm kann man erkennen, dass für wachsendes λ die Kurven immer symmetrischer<br />
werden. Außerdem werden die Kurven für wachsendes n immer breiter. Später im diesem<br />
Kapitel werden wir den Grund dafür herausfinden. Außerdem ist auffällig, dass k= λ und<br />
k= λ-1 die größte Wahrscheinlichkeit besitzen. Insbesondere haben also beide immer gleiche<br />
Wahrscheinlichkeit. Dies ist kein Zufall, denn es gilt nach Definition der Poissonverteilung:<br />
({ })<br />
( ) ( )<br />
({ })<br />
6
Wahrscheinlichkeit<br />
Wahrscheinlichkeit<br />
Allerdings gilt diese Gleichheit nur, wenn λ N ist, da k nur Werte in N annehmen kann. Als<br />
nächstes betrachten wir daher Kurven für λ∉N.<br />
0,4<br />
0,35<br />
0,3<br />
Poissonverteilungen mit λ=1,5 ; λ=3,7 ; λ=7,8<br />
0,25<br />
0,2<br />
0,15<br />
0,1<br />
λ=7,8<br />
λ=1,5<br />
λ=3,7<br />
0,05<br />
0<br />
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22<br />
k<br />
Auch hier erkennt man, dass die Kurven für wachsendes n breiter und symmetrischer werden.<br />
Das wahrscheinlichste k ist hier immer die nächstkleinere natürliche Zahl von λ. Wenn man<br />
also λ abrundet, erhält man das wahrscheinlichste k.<br />
Im Kapitel eins wurde diskutiert, wann es Sinn macht, eine Poissonverteilung zu benutzen.<br />
Wir möchten uns daher noch ein Histogramm für λ=50 ansehen.<br />
0,06<br />
Poissonverteilung mit λ=50<br />
0,05<br />
0,04<br />
0,03<br />
0,02<br />
λ=50<br />
0,01<br />
0<br />
0 3 6 9 12 15 18 21 24 27 30 33 36 39 42 45 48 51 54 57 60 63 66 69 72 75 78<br />
k<br />
7
Hier kann man erkennen, dass die Verteilung einer Normalverteilung gleicht. Man kann<br />
schlussfolgern, dass eine Poissonverteilung für λ>50 wenig sinnvoll ist.<br />
2.2 Die erzeugende Funktion<br />
Als nächstes berechne ich die erzeugende Funktion einer poissonverteilten Zufallsgröße.<br />
(2.1) Proposition<br />
Sei X poissonverteilte Zufallsvariable zum Parameter λ (λ>0). Dann gilt für die erzeugende<br />
Funktion ( ) mit tϵ[-1,1]:<br />
( )<br />
( )<br />
Beweis.<br />
Es gilt<br />
( ) [ ] ∑( ( )) ∑ ∑ ( )<br />
( )<br />
Besonders praktisch ist, dass diese Funktion nicht nur in [-1,1] definiert ist, sondern auf ganz<br />
R. Mit Hilfe der erzeugenden Funktion kann ich nun leicht den Erwartungswert und die<br />
Varianz bestimmen.<br />
2.3 Erwartungswert und Varianz<br />
(2.2) Proposition<br />
Sei X poissonverteilte Zufallsvariable zum Parameter λ (λ>0). Dann gilt für den<br />
Erwartungswert:<br />
[ ] .<br />
Beweis.<br />
Der Erwartungswert einer Zufallsvariable ist die Ableitung der erzeugenden Funktion an der<br />
Stelle eins:<br />
8
[ ] ( )<br />
In Proposition 2.1 wurde bereits bewiesen, dass für die erzeugende Funktion<br />
(<br />
( )<br />
) gilt. Also berechne ich zunächst ( )<br />
( )<br />
( )<br />
Somit gilt:<br />
[ ] ( )<br />
( )<br />
Mit der erzeugenden Funktion lassen sich auch weitere Erwartungswerte berechnen. Darüber<br />
gibt nachfolgendes Lemma Auskunft.<br />
(2.3) Lemma<br />
Sei X eine poissonverteilte Zufallsgröße zum Parameter λ (λ>0). Dann gilt:<br />
[ ] und [ ] .<br />
Beweis.<br />
Auch hier hilft Proposition 2.1, denn es gilt:<br />
[ ( )] ( ) bzw. [ ( )( )] ( ).<br />
Ich berechne also zunächst ( ) und ( ):<br />
( )<br />
( )<br />
( )<br />
( )<br />
( )<br />
( )<br />
Aus der Linearität des Erwartungswertes folgt:<br />
( ) [ ( )] [ ] [ ]<br />
und ( ) [ ( )( )] [ ] [ ] [ ].<br />
Mit [ ]<br />
(Proposition 2.2) folgt daraus:<br />
[ ] und [ ] ( ) .<br />
9
Mit Hilfe der erzeugenden Funktion kann man auf ähnliche Weise auch [ ] [ ] etc.<br />
berechnen. Ich möchte nun aber das Lemma nutzen, um die Varianz einer poissonverteilten<br />
Zufallsgröße zu bestimmen.<br />
(2.4) Proposition<br />
Sei X eine poissonverteilte Zufallsvariable zum Parameter λ (λ>0). Dann gilt für die Varianz:<br />
( ) .<br />
Beweis.<br />
Nach Verschiebungssatz gilt allgemein:<br />
( ) [ ] [ ]<br />
Mit dem Lemma 2.3 und Proposition 2.2 folgt damit:<br />
( ) [ ] [ ]<br />
Insbesondere wurde nun bewiesen, dass bei einer Poissonverteilung ( ) [ ] gilt.<br />
Wenn man sich nun an die Histogramme aus 2.1 erinnert, ist es nun klar, dass die Kurven mit<br />
wachsendem λ breiter werden, da auch die Varianz wächst. Außerdem ist nicht mehr<br />
überraschend, dass immer ein kϵN nahe λ die größte Wahrscheinlichkeit besitzt. Besonders<br />
praktisch ist es, dass man den Erwartungswert und die Varianz aus einer bekannten<br />
Verteilung direkt ablesen kann und nicht berechnen muss.<br />
Als nächstes möchte ich nun eine weitere nützliche Eigenschaft der Poissonverteilung<br />
betrachten.<br />
2.3 Addition von zwei poissonverteilten Zufallsgrößen<br />
(2.5) Proposition<br />
Seien X und Y zwei unabhängige Zufallsvariablen. Sei X poissonverteilt zum Parameter λ>0<br />
und sei Y poissonverteilt zum Parameter µ>0.<br />
Dann ist X+Y poissonverteilt zum Parameter λ+µ.<br />
10
Beweis.<br />
Auch hier nutze ich die erzeugende Funktion.<br />
Da X und Y unabhängig sind, gilt:<br />
( ) ( ) ( )<br />
( ) ( ) ( )( )<br />
Da die erzeugende Funktion die Verteilung charakterisiert, folgt damit, dass X+Y eine<br />
poissonverteilte Zufallsgröße zum Parameter λ+µ ist.<br />
Man kann die eben bewiesene Aussage für eine endliche Anzahl an Summanden<br />
verallgemeinern, der Beweis erfolgt analog.<br />
3. historische Beispiele<br />
In diesem Kapitel möchte ich zwei Beispiele für Poissonverteilungen betrachten, um eine<br />
bessere Vorstellung der Anwendbarkeit dieser Verteilung zu erhalten.<br />
3.1 Das Rutherford-Geiger-Experiment<br />
Dieses physikalische Experiment wurde 1910 von Ernest Rutherford (1871-1937) und Hans-<br />
Wilhelm Geiger (1882-1945) durchgeführt. Beide waren bedeutende Physiker. Rutherford<br />
entwickelte das berühmte „Rutherfordsche Atommodell“ und bekam für seine Forschung zur<br />
Radioaktivität den Nobelpreis der Chemie. Geiger entwickelte das noch heute als<br />
Teilchendetektor genutzte Geiger-Müller-Zählrohr.<br />
Der Aufbau des Experimentes ist leicht erklärt. Rutherford und Geiger detektierten mit einem<br />
Zähler radioaktive Zerfälle eines α-Strahlers. Dies hat große historische Bedeutung, da es zu<br />
dieser Zeit keine mit den heutigen vergleichbaren Teilchendetektoren gab. Es war erstmalig,<br />
dass solche Zerfälle überhaupt detektiert werden konnten. Geiger hatte zu diesem Zweck den<br />
sogenannten „Spitzenzähler“ entwickelt. Unter diesem Aspekt lässt sich auch erklären, warum<br />
beide ein Messintervall von 7,5s wählten, vermutlich konnte der Zähler keine kürzeren<br />
Intervalle messen.<br />
Geiger und Rutherford untersuchten 2608 Zeitintervalle. Dabei detektieren sie insgesamt<br />
10097 Zerfälle. Wie oben erwähnt, waren die Zeitintervalle alle 7,5s lang. Im Durchschnitt<br />
gab es also 3,87 Zerfälle pro Intervall.<br />
Um dieses Beispiel mit der Poissonverteilung zu interpretieren, müssen einige idealisierende<br />
Annahmen getroffen werden. Zum einen muss man davon ausgehen, dass sich die Intensität<br />
(erwartete Anzahl von Zerfällen pro Zeiteinheit) des α-Strahlers während der gesamten<br />
11
Messzeit nicht ändert bzw., dass die Halbwertszeit des Präparates so groß ist, dass sie<br />
während des Experimentes nicht erreicht wird. Andernfalls würde sich die mittlere Anzahl an<br />
Zerfällen während des Experimentes ändern und man könnte nicht nur eine Poissonverteilung<br />
als Näherung benutzen. Außerdem muss man davon ausgehen, dass die Kerne unabhängig<br />
voneinander zerfallen. Allerdings weiß man, dass die Anzahl N der Atome in der Probe sehr<br />
groß (N<br />
) und die Wahrscheinlichkeit p für einen Zerfall sehr klein ist, da pro<br />
Intervall jeweils nur sehr wenige Atome zerfallen sind. Die Poissonverteilung könnte also<br />
tatsächlich geeignet sein, die Verteilung der Zerfälle zu beschreiben.<br />
Da der Mittelwert der Zerfälle bei 3,87 lag, wähle ich eine Poissonverteilung mit λ<br />
nun k die Anzahl von Zerfällen pro Intervall, k ϵN. Daraus ergibt sich<br />
. Sei<br />
({ })<br />
Beispielsweise für k=0 folgt damit:<br />
({ })<br />
Daraus ergibt sich die theoretisch berechnete Anzahl N 0 * an Intervallen, in denen 0 Zerfälle<br />
auftreten:<br />
({ })<br />
Ich runde auf eine natürliche Zahl, da es eine Anzahl an Intervallen beschreibt und reelle<br />
Zahlen dafür wenig sinnvoll sind. Dadurch kann es aber passieren, dass die Summe aller<br />
kleiner oder größer der tatsächlichen Intervallanzahl ist.<br />
Ich berechne nun alle weiteren<br />
auf die gleiche Weise. Es ergibt sich nachfolgende Tabelle:<br />
k 0 1 2 3 4 5 6 7 8 9 10 11 12 ≥13<br />
54 210 407 525 508 394 254 140 68 29 11 4 1 0<br />
Interessant ist es nun, diese theoretischen Werte mit denen zu vergleichen, die Rutherford und<br />
Geiger beobachtet haben. Diese tatsächliche Anzahl N k an Intervallen entnehme ich Topsoe<br />
[TOP]. Um die Werte zu vergleichen, stelle ich sie in einer Tabelle dar:<br />
k 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 ≥15<br />
54 210 407 525 508 394 254 140 68 29 11 4 1 0 0 0<br />
N k 57 203 383 525 532 408 273 139 45 27 10 4 0 1 1 0<br />
Man kann erkennen, dass N k und N k * für k= 3 exakt übereinstimmen. Bei k=8 gibt es<br />
hingegen eine Abweichung von ca. 50%. Um einen Eindruck der gesamten Verteilung zu<br />
erhalten, stelle ich beide Werte grafisch dar.<br />
12
Anzahl der Intervalle mit k Zerfällen<br />
600<br />
Vergleich von N k und N k *<br />
500<br />
400<br />
300<br />
200<br />
theoretisch<br />
berechnete Anzahl<br />
Nk*<br />
tatsächlich<br />
beobachtete<br />
Anzahl Nk<br />
100<br />
0<br />
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15<br />
Anzahl der Zerfälle k<br />
Insgesamt kann man erkennen, dass beide Verteilungen näherungsweise übereinstimmen.<br />
Man kann also schlussfolgern, dass unter gewissen Voraussetzungen die Poissonverteilung<br />
geeignet ist, radioaktive Zerfälle zu beschreiben.<br />
3.2 Unfälle im preußischen Heer<br />
Nachfolgende Tabelle zeigt die im preußischen Heer durch Schlag eines Pferdes Getöteten.<br />
Sie wurde von Ladislaus von Bortkewitsch [BOR] im Jahr 1898 erstellt.<br />
13
Es sind jeweils die Jahre dargestellt (19.Jahrhundert) und die jeweils in diesem Jahr durch<br />
Schlag eines Pferdes Getöteten in den einzelnen Armeecorps. Die römischen Zahlen stehen<br />
für verschiedene Corps, dass „G“ steht für Gardecorps. Bekannt ist, dass die Anzahl der<br />
Männer N in den Corps sehr groß war und die Wahrscheinlichkeit p, von einem Pferd getötet<br />
zu werden, sehr klein. Man kann sich nun also fragen, ob die Anzahl der Getöteten<br />
poissonverteilt ist. Der Mittelwert dieser Anzahl beträgt nach Bortkewitsch [BOR] 0,70 pro<br />
Jahr, also nutze ich eine Poissonverteilung zum Parameter .<br />
Die Wahrscheinlichkeit, dass in einem Jahr kein Soldat durch ein Pferd stirbt, beträgt<br />
demnach:<br />
({ })<br />
Nun rechne ich noch aus, in wie vielen Fällen theoretisch kein Soldat durch ein Pferd<br />
hätte getötet werden sollen. Es wurden insgesamt 280 Jahresergebnisse betrachtet. Also gilt:<br />
({ })<br />
Ich runde auch hier auf eine ganze Anzahl, da es sich um Jahresergebnisse handelt.<br />
Die tatsächliche Anzahl , sowie die relative Häufigkeit dieses Ereignisses lässt sich aus<br />
der Tabelle ermitteln. Es gilt: . Daraus folgt:<br />
({ })<br />
Analog gehe ich für k=1,2,3,4,5 vor. Die Ergebnisse sind in folgender Tabelle dargestellt:<br />
Jahresergebnis<br />
k<br />
Tatsächliche<br />
Anzahl<br />
Theoretische<br />
Anzahl<br />
Relative<br />
Häufigkeit<br />
Theoretische<br />
Wahrscheinlichkeit<br />
0 144 139 0,5143 0,4966<br />
1 91 97 0,3250 0,3476<br />
2 32 34 0,1143 0,1217<br />
3 11 8 0,0393 0,0284<br />
4 2 1 0,0071 0,0050<br />
5 0 0 0,0000 0,0007<br />
Zur Veranschaulichung stelle ich die relative Häufigkeit und die mit der Poissonverteilung<br />
berechnete Wahrscheinlichkeit grafisch dar:<br />
14
Wahrscheinlichkeit<br />
0,6<br />
Vergleich von P und P λ<br />
0,5<br />
0,4<br />
0,3<br />
0,2<br />
0,1<br />
relative Häufigkeit der<br />
Jahresergebnisse<br />
Poissonverteilung zum Parameter<br />
0,70<br />
0<br />
0 1 2 3 4 5<br />
Jahresergebnis<br />
Man erkennt, dass beide Verteilungen sehr ähnlich sind. Ladislaus von Bortkewitsch sah sich<br />
nun die einzelnen Corps genauer an und ihm fiel auf, dass diese teilweise sehr unterschiedlich<br />
zusammengesetzt waren. Aus diesem Grund strich er das Gardecorps und die Armeecorps I,<br />
VI und XI aus seiner Betrachtung. Dadurch ändert sich der Mittelwert von 0,70 auf 0,61. Ich<br />
nutze also zum Vergleich nun eine Poissonverteilung zum Parameter . Die<br />
Gesamtanzahl der Jahresergebnisse beträgt nun 200. Analog zu oben berechne ich nun die<br />
relative Häufigkeit der Jahresergebnisse und die mit der Poissonverteilung zu erwartenden<br />
Werte. Dadurch ändert sich die eben erstellte Tabelle wie folgt:<br />
Jahresergebnis<br />
k<br />
Tatsächliche<br />
Anzahl<br />
Theoretische<br />
Anzahl<br />
Relative<br />
Häufigkeit<br />
Theoretische<br />
Wahrscheinlichkeit<br />
0 109 109 0,5450 0,5434<br />
1 65 66 0,3250 0,3314<br />
2 22 20 0,1100 0,1011<br />
3 3 4 0,0150 0,0206<br />
4 1 1 0,0050 0,0031<br />
5 0 0 0,0000 0,0004<br />
Auch hier stelle ich wieder die Poissonverteilung und die relative Häufigkeit der<br />
Jahresergebnisse grafisch dar:<br />
15
Wahrscheinlichkeit<br />
Vergleich von P und P λ<br />
0,6<br />
0,5<br />
0,4<br />
0,3<br />
0,2<br />
relative Häufigkeit der<br />
Jahresergebnisse<br />
Poissonverteilung zum Parameter<br />
0,61<br />
0,1<br />
0<br />
0 1 2 3 4 5<br />
Jahresergebnis<br />
Nun kann man erkennen, dass beide Verteilungen nahezu übereinstimmen. Die Anzahl der im<br />
preußischen Heer vom Schlag eines Pferdes Getöteten ist also tatsächlich poissonverteilt.<br />
4. Weitere Anwendungsbereiche der Poissonverteilung<br />
Allgemein ist die Poissonverteilung geeignet, die zufällige Verteilung von Punkten auf einer<br />
Geraden, in einer Ebenen oder im Raum zu beschreiben. Ähnlich wie beim Rutherford-<br />
Geiger-Experiment teilt man dafür die Gerade in gleichgroße Abschnitte ein. Wenn man den<br />
Mittelwert von Punkten in einem Intervall kennt, kann man voraussagen, wie viele Intervalle<br />
theoretisch mit k Punkten (kϵN) existieren. Ähnlich passiert das auf der Ebene, diese wird<br />
dann in gleichgroße Flächen (meist Quadrate) eingeteilt, der Raum z.B. in Quader.<br />
Die nachfolgenden Beispiele sind alle direkte Anwendungen der eben genannten<br />
Verteilungen. Sie illustrieren, in welchen Bereichen die Poissonverteilung genutzt werden<br />
kann. Oben haben wir bereits zwei historische Beispiele gesehen, bzw. ein physikalisches. Es<br />
gibt aber noch weitere Anwendungsbereiche.<br />
Biologische Beispiele<br />
In der Biologie kann man die Poissonverteilung nutzen, um die Verteilung von Hefezellen auf<br />
einem Objektträger zu beschreiben. Dies ist eine direkte Anwendung der zufälligen<br />
Verteilung von Punkten in einer Ebenen. Man nimmt dazu an, dass sich die Hefezellen<br />
unabhängig voneinander verteilen. Vermutlich kennt man die Gesamtanzahl N der Hefezellen<br />
nicht. Nun kann man den Objektträger in Quadrate einteilen und mit der Poissonverteilung die<br />
erwartete Anzahl von Quadraten angeben, die k Zellen enthalten. Der Mittelwert der<br />
Hefezellen in einem Quadrat muss dabei bekannt sein, bzw. dieser lässt sich durch Auszählen<br />
von Zellen in wenigen Quadraten schätzen. Eine genaue Beschreibung dieses Beispiels gibt<br />
Topsoe [TOP].<br />
16
Des Weiteren ist die Poissonverteilung auch geeignet, die Anzahl N von Mutationen auf<br />
einer DNA-Sequenz zu beschreiben. Auch hier ist N nicht bekannt, genauso wenig wie die<br />
Wahrscheinlichkeit p für eine Mutation. Den Mittelwert von Mutationen kennt man allerdings<br />
empirisch. Dieses Beispiel ist eine direkte Anwendung der zufälligen Verteilung von Punkten<br />
auf einer Geraden.<br />
Kaufhauskunden<br />
Es gibt auch im Alltag Beispiele für Poissonverteilungen. Kunden, die ein Kaufhaus betreten<br />
sind poissonverteilt. Auch hier ist die Anzahl N möglicher Kunden unbekannt, ebenso wie die<br />
Wahrscheinlichkeit dafür, dass ein Kunde das Kaufhaus betritt. Die mittlere Anzahl von<br />
Kunden in einem Intervall lässt sich durch Beobachtung näherungsweise ermitteln. Man kann<br />
sich das Beispiel auch als Zeitachse vorstellen, auf der jedes Mal ein Punkt gesetzt wird,<br />
wenn ein Kunde das Kaufhaus betritt. Damit wäre ich also wieder an dem oberen Beispiel der<br />
zufälligen Verteilung von Punkten auf einer Geraden angelangt. Dieses Beispiel ist besonders<br />
interessant für den Kaufhausmanager, da er so gezielte Werbeaktionen veranstalten kann oder<br />
sein Personal der erwarteten Kundenanzahl anpassen kann.<br />
Anzahl der Selbstmorde<br />
Betrachtet man eine Stadt, so kann man zwar ungefähr die Einwohneranzahl N angeben,<br />
allerdings kennt man vermutlich nicht die Wahrscheinlichkeit p für einen Selbstmord.<br />
Sicherlich ist aber die mittlere Anzahl der Selbstmorde bekannt. Daher ist die<br />
Poissonverteilung geeignet, die Wahrscheinlichkeit für k Selbstmorde in einem festen<br />
Zeitintervall zu berechnen.<br />
Anzahl von Blitzeinschlägen<br />
Auch dies ist eine direkte Anwendung der zufälligen Punktverteilung auf einer Ebenen. Man<br />
kann z.B. eine Kleingartenkolonie betrachten, bei der jede Parzelle gleichgroß ist. N ist nun<br />
die Anzahl der Parzellen. Die Wahrscheinlichkeit für einen Blitzeinschlag ist vermutlich<br />
unbekannt. Mit der Poissonverteilung kann man aber berechnen, wie wahrscheinlich es ist,<br />
dass in einer Parzelle in einem festen Zeitintervall mindestens ein Blitz einschlägt. Unser λ ist<br />
hierbei die mittlere Anzahl an Blitzeinschlägen in einer Parzelle in diesem festen Intervall, die<br />
empirisch bekannt sein kann.<br />
Anzahl von Verkehrsunfällen<br />
Ein weiteres interessantes Anwendungsbeispiel ist die Anzahl von Verkehrsunfällen.<br />
Betrachtet man eine Kreuzung, so kennt man nicht die Anzahl N an Autos die in einem festen<br />
Zeitintervall diese Kreuzung passieren. Außerdem ist N zu verschiedenen Zeitpunkten im<br />
Allgemeinen nicht konstant. Auch die Wahrscheinlichkeit p für einen Unfall ist im<br />
Allgemeinen unbekannt. Empirisch kennt man aber die durchschnittliche Anzahl an Unfällen<br />
in diesem festen Zeitintervall und kann nun mit der Poissonverteilung Aussagen treffen, wie<br />
wahrscheinlich es ist, dass k Unfälle in diesem Zeitintervall passieren. Stellt man nun fest,<br />
dass die Wahrscheinlichkeit für Unfälle sehr hoch ist, kann man nun Maßnahmen treffen, wie<br />
z.B. ein Tempolimit setzen oder die Ampelphasen ändern.<br />
17
Anzahl fehlerhafter Teile in einer Produktserie<br />
Die Anzahl von fehlerhaften Teilen ist das klassische Beispiel einer Binomialverteilung, dass<br />
auch in der Schule häufig verwendet wird. N ist hierbei die Gesamtanzahl der produzierten<br />
Teile und p die Wahrscheinlichkeit für einen Produktionsfehler. Da N im Allgemeinen sehr<br />
groß ist und p hoffentlich sehr klein, kann man, wie oben bewiesen, die Poissonverteilung als<br />
Näherung der Binomialverteilung nutzen.<br />
Insgesamt kann man erkennen, dass die Poissonverteilung vielfältige<br />
Anwendungsmöglichkeiten besitzt. Es gibt sicherlich noch zahlreiche weitere Beispiele.<br />
5. Das Reiskörner –Experiment<br />
Um selbst eine zufällige Verteilung zu erzeugen haben wir uns das Reiskörner- Experiment<br />
überlegt und mit Kommilitonen durchgeführt. Wir nahmen dazu ein Papier, dass in 16<br />
gleichgroße Kästchen eingeteilt war ( ). Zwei Gruppen von Kommilitonen ließen<br />
darauf eine kleine Menge Reis fallen, so dass sich die Körner möglichst zufällig verteilten.<br />
Eine weitere Gruppe legte die Körner nach ihrem Empfinden zufällig auf das Papier.<br />
Anschließen zählten sie, in wie vielen Kästchen sich k Reiskörner befanden. Außerdem<br />
errechneten sie den Mittelwert der Körner pro Kästchen, in dem sie die Anzahl der Körner<br />
durch die Anzahl der Kästchen teilten. Es ergaben sich folgende Messwerte:<br />
Gruppe 1 (zufällige Verteilung durch Werfen)<br />
N=39 (Gesamtanzahl der Reiskörner)<br />
µ= (Mittelwert der Körner pro Kästchen)<br />
k<br />
Anzahl der Kästchen<br />
mit k Reiskörnern N k<br />
Relative Häufigkeit<br />
0 2 0,125<br />
1 1 0,0625<br />
2 6 0,375<br />
3 3 0,1875<br />
4 3 0,1875<br />
5 1 0,0625<br />
Nun kann man mit der Poissonverteilung eine theoretische Anzahl an Kästchen mit k Körnern<br />
angeben. Der Parameter ist dabei ungefähr die mittlere Anzahl an Körnern pro Kästchen, also<br />
. Ich führe dazu eine Beispielrechnung für k=0 durch. Dafür berechne ich<br />
zunächst die Wahrscheinlichkeit, dass sich 0 Körner in einem Kästchen befinden:<br />
18
Wahrscheinlichkeit<br />
({ })<br />
Damit ergibt sich die die theoretische Anzahl der Kästchen mit 0 Reiskörnern :<br />
Analog zum Rutherford-Geiger-Experiment runde ich auch hier auf eine ganze Anzahl an<br />
Kästchen.<br />
Diese Rechnung führe ich analog für alle weiteren k und für die anderen beiden Gruppen<br />
durch. Die Ergebnisse stelle ich in den folgenden Tabellen dar.<br />
Gruppe 1 (zufällige Verteilung durch Werfen)<br />
N=39 (Gesamtanzahl der Reiskörner)<br />
µ= (Mittelwert der Körner pro Kästchen)<br />
k<br />
Anzahl der<br />
Kästchen mit k<br />
Reiskörnern N k<br />
Relative Häufigkeit<br />
Mit der<br />
Poissonverteilung<br />
errechnete Häufigkeit<br />
0 2 0,125 0,0874 1<br />
1 1 0,0625 0,2130 3<br />
2 6 0,375 0,2596 4<br />
3 3 0,1875 0,2109 3<br />
4 3 0,1875 0,1285 2<br />
5 1 0,0625 0,0627 1<br />
Theoretische<br />
Kästchenanzahl<br />
Grafische Darstellung der Wahrscheinlichkeiten:<br />
0,4<br />
0,35<br />
0,3<br />
0,25<br />
0,2<br />
0,15<br />
0,1<br />
0,05<br />
0<br />
0 1 2 3 4 5<br />
k<br />
zufällige Verteilung durch Werfen<br />
Poissonverteilung zum Parameter<br />
2,4375<br />
19
Wahrscheinlichkeit<br />
Gruppe 2 (zufällige Verteilung durch Werfen)<br />
N=17 (Gesamtanzahl der Reiskörner)<br />
µ= (Mittelwert der Körner pro Kästchen)<br />
k<br />
Anzahl der<br />
Kästchen mit k<br />
Reiskörnern N k<br />
Relative Häufigkeit<br />
Mit der<br />
Poissonverteilung<br />
errechnete Häufigkeit<br />
0 4 0,25 0,3456 6<br />
1 8 0,5 0,3672 6<br />
2 3 0,1875 0,1950 3<br />
3 1 0,0625 0,0691 1<br />
4 0 0 0,0184 0<br />
5 0 0 0,0039 0<br />
Theoretische<br />
Kästchenanzahl<br />
Grafische Darstellung der Wahrscheinlichkeiten:<br />
0,6<br />
0,5<br />
0,4<br />
0,3<br />
0,2<br />
zufällige Verteilung durch Werfen<br />
Poissonverteilung zum Parameter<br />
1,0625<br />
0,1<br />
0<br />
0 1 2 3 4 5<br />
k<br />
Gruppe 3 (nach eigenem Empfinden zufällig verteilt)<br />
N=98 (Gesamtanzahl der Reiskörner)<br />
µ= (Mittelwert der Körner pro Kästchen)<br />
k<br />
Anzahl der<br />
Kästchen mit k<br />
Reiskörnern N k<br />
Relative Häufigkeit<br />
Mit der<br />
Poissonverteilung<br />
errechnete Häufigkeit<br />
0 0 0 0,0022 0<br />
1 0 0 0,0134 0<br />
2 0 0 0,0410 1<br />
3 2 0,125 0,0834 1<br />
4 1 0,0625 0,1283 2<br />
Theoretische<br />
Kästchenanzahl<br />
20
Wahrscheinlichkeit<br />
k<br />
Anzahl der<br />
Kästchen mit k<br />
Reiskörnern N k<br />
Relative Häufigkeit<br />
Mit der<br />
Poissonverteilung<br />
errechnete Häufigkeit<br />
5 4 0,25 0,1571 3<br />
6 3 0,1875 0,1604 3<br />
7 2 0,125 0,1404 2<br />
8 2 0,125 0,1075 2<br />
9 1 0,0625 0,0731 1<br />
10 0 0 0,0448 1<br />
11 1 0,0625 0,0249 0<br />
Theoretische<br />
Kästchenanzahl<br />
Grafische Darstellung der Wahrscheinlichkeiten:<br />
0,3<br />
0,25<br />
0,2<br />
0,15<br />
0,1<br />
nach Empfinden zufällige<br />
Verteilung<br />
Poissonverteilung mit Parameter<br />
6,125<br />
0,05<br />
0<br />
0 1 2 3 4 5 6 7 8 9 10 11<br />
k<br />
Insgesamt ist keine der erzeugten Verteilungen annähernd poissonverteilt, es gibt überall<br />
größere Abweichungen. Offensichtlich beeinflusst man durch die Art des Werfens die<br />
Verteilung, so dass diese nicht zufällig ist. Trotzdem sieht man z.B. bei Gruppe 2 für k=2 und<br />
k=3 gewisse Ähnlichkeiten der Verteilung.<br />
Auch unser Empfinden von Zufall ist offensichtlich ein anderes als tatsächlicher Zufall, dass<br />
sieht man an den größeren Abweichungen bei Gruppe 3.<br />
Problematisch bei dem Experiment ist es allerdings, dass alle Gruppen sehr unterschiedliche<br />
Parameter erzeugt haben, so dass diese Verteilungen auch untereinander schwer zu<br />
vergleichen sind. Trotzdem sieht man insgesamt gut, dass idealer Zufall sehr schwer zu<br />
erzeugen ist.<br />
21
Quellen<br />
[BOR] VON BORTKEWITSCH, LADISLAUS: „Gesetz der kleinen Zahlen“. Leipzig: Teubner<br />
Verlag, 1898.<br />
[GEO] GEORGII, HANS-OTTO: „Stochastik: Einführung in die Wahrscheinlichkeitstheorie und<br />
Statistik“. 4. überarbeitete und erweiterte Auflage. Berlin: de Gruyter Verlag, 2009.<br />
[HE] HENZE, NORBERT: „Stochastik für Einsteiger“. 9. Auflage. Wiesbaden: Vieweg und<br />
Teubner Verlag, 2012.<br />
[IN] INEICHEN, ROBERT: „Einführung in die elementare Statistik und<br />
Wahrscheinlichkeitsrechnung“ 6.Auflage. Luzern : Raeber Verlag, 1984.<br />
KINGMAN, JOHN FRANK CHARLES: „Poisson Processes“. (Oxford studies in probability 3).<br />
Oxford: Clarendon Press, 1993.<br />
ROELLY, SYLVIE : Skript zur Vorlesung „Stochastik“ WS 2011/12.<br />
[TOP] TOPSOE, FLEMMING: „Spontane Phänomene. Stochastische Modelle und ihre<br />
Anwendung“. Übersetzte Auflage. Braunschweig: Vieweg Verlag, 1990.<br />
22