29.01.2014 Aufrufe

F. Krause - Universität Potsdam

F. Krause - Universität Potsdam

F. Krause - Universität Potsdam

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

UNIVERSITÄT POTSDAM<br />

Die Poissonverteilung<br />

Hausarbeit zum Seminar „Stochastische Prozesse“<br />

Franziska <strong>Krause</strong> 759778<br />

08.11.2013<br />

Diese Arbeit gibt einen Einblick in die Herleitung und Anwendung der Poissonverteilung. Außerdem<br />

werden einige Beispiele und Eigenschaften diskutiert.


Inhaltsverzeichnis<br />

1. Herleitung der Poissonverteilung als Grenzwert der Binomialverteilung ................... 2-6<br />

Einleitendes Beispiel .............................................................................................................. 2<br />

Satz der Binomialapproximation der Poissonverteilung ..................................................... 2-3<br />

Definition der Poissonverteilung ............................................................................................ 3<br />

Beispiele zur Binomialapproximation der Poissonverteilung ............................................. 4-6<br />

2. Einige Eigenschaften der Poissonverteilung ................................................................ 6-11<br />

Histogramme........................................................................................................................ 6-8<br />

Erzeugende Funktion .............................................................................................................. 8<br />

Erwartungswert und Varianz ............................................................................................. 8-10<br />

Addition von zwei poissonverteilten Zufallsgrößen ........................................................ 10-11<br />

3. Historische Beispiele .................................................................................................... 11-16<br />

Das Rutherford-Geiger-Experiment ................................................................................ 11-13<br />

Unfälle im Preußischen Heer ........................................................................................... 13-16<br />

4. Weitere Anwendungsbereiche der Poissonverteilung ............................................... 16-18<br />

5. Das Reiskörner-Experiment ........................................................................................ 18-21<br />

Quellenverzeichnis ......................................................................................................... 22<br />

1


1.) Herleitung der Poissonverteilung als Grenzwert der Binomialverteilung<br />

Um eine erste Idee der Poissonverteilung zu erhalten, möchte ich zunächst ein Beispiel<br />

betrachten, dass Georgii [GEO] entnommen ist.<br />

(1.1) Beispiel<br />

Man stelle sich die Frage, wie viele Schadensmeldungen eine KFZ-Versicherung in einem bestimmten<br />

Intervall ]0,t] , t>0 erhält. Klar ist zunächst, dass die Ergebnismenge Ω = N ist. Zu bestimmen bleibt<br />

die Verteilung P. Dazu unterteile ich zunächst das Zeitintervall in n Teilintervalle, sodass jedes<br />

Intervall die Länge<br />

besitzt. Für ein hinreichend großes n kann man nun davon ausgehen, dass in<br />

jedem Teilintervall höchstens ein Schaden gemeldet wird. Die Wahrscheinlichkeit p für das Auftreten<br />

eines Schadens sollte möglichst proportional zur Länge des Intervalls sein, also<br />

, mit der<br />

Proportionalitätskonstante ε >0. Außerdem gehe ich davon aus, dass die einzelnen Schäden<br />

unabhängig voneinander auftreten. Nun kann man dieses Beispiel auf das Modell „Ziehen mit<br />

Zurücklegen“ übertragen. Hierbei wird n-mal gezogen und die Wahrscheinlichkeit, eine<br />

„Schadenskugel“ zu ziehen, ist<br />

. Die Verteilung ist also gegeben durch eine Binomialverteilung<br />

B n , . Da n sehr groß werden kann, liefert diese Überlegung folgenden Ansatz für die gesuchte<br />

Verteilung P:<br />

Über diesen Grenzwert gibt Satz (1.2) Auskunft.<br />

P({ }) B ({ }) N<br />

(1.2) Satz (Binomialapproximation der Poissonverteilung)<br />

Sei >0 und (p n ) n≥1 eine Folge in [0, 1] mit<br />

Dann konvergiert die Binomialverteilung B , das heißt, es existiert für alle k N:<br />

({ })<br />

Beweis.<br />

Für die Binomialverteilung B<br />

gilt:<br />

B ({ }) ( ) ( )<br />

( )<br />

( )<br />

( )<br />

( ) ( ) ( )<br />

2


Nun betrachte ich die Grenzwerte der einzelnen Faktoren. Da der erste Faktor kein n enthält,<br />

bleibt er für wachsendes n konstant. Für den zweiten Faktor gilt:<br />

( )<br />

( ) ( ) ( )<br />

( ( ) ( ) ( )<br />

Für den dritten Faktor gilt nach Voraussetzung:<br />

Weiterhin gilt:<br />

( )<br />

und<br />

( ) ( )<br />

( ) ( )<br />

Insgesamt folgt also:<br />

B ({ })<br />

Dieser Grenzwert kennzeichnet die Verteilung, die diese Arbeit behandelt. Darüber gibt<br />

nachfolgende Definition Auskunft.<br />

(1.3) Definition<br />

Für λ > 0 heißt das Wahrscheinlichkeitsmaß<br />

λ auf (N, (N)) mit<br />

({ })<br />

die Poissonverteilung zum Parameter λ.<br />

Diese Verteilung ist benannt nach Siméon-Denis Poisson (1781–1840), einem bedeutenden<br />

Mathematiker und Physiker, der 1837 seine Arbeit über die Poissonverteilung veröffentlichte.<br />

Nach Henze [HE] ist diese Benennung ungerechtfertigt, da bereits de Moivre (1667-1754)<br />

3


diese Verteilung kannte. In der Literatur findet sich aber ausschließlich der Name<br />

„Poissonverteilung“ und daher werde auch ich bei diesem bleiben.<br />

Um davon überzeugt zu sein, dass die Poissonverteilung wirklich ein Wahrscheinlichkeitsmaß<br />

ist, überprüfe ich, ob die Summe aller Wahrscheinlichkeiten tatsächlich eins ergibt. Dies<br />

erkennt man mit Hilfe der Potenzreihe von relativ schnell:<br />

∑ ({ }) ∑ ∑<br />

Als nächstes wollen wir uns den eben bewiesenen Satz 1.2 an zwei Beispielen verdeutlichen.<br />

(1.4) Beispiel<br />

Ich betrachte eine Binomialverteilung mit B mit und nϵ{4,8,16,32}. Diese nähere<br />

ich mit einer Poissonverteilung zum Parameter λ =2 an. Henze [HE] verdeutlicht diese an<br />

folgendem Histogramm:<br />

Für kϵN zeigen die Balken von links (hellgrau) nach rechts (dunkelgrau) der Reihe nach<br />

B ({k}) für n=4,8,16,32. Schwarz dargestellt ist der Limes ({ }).<br />

Man kann erkennen, dass sich die grauen Balken für wachsendes n immer mehr dem Wert der<br />

Poissonverteilung anzunähern. Für n=32 ist die Näherung schon sehr gut, es gibt aber kleinere<br />

Abweichungen z.B. bei k=0,2,3. Man muss also entscheiden, ob diese schon sehr gute<br />

Näherung genügend ist.<br />

(1.5) Beispiel<br />

Um genaue Wahrscheinlichkeitswerte zu vergleichen, betrachten wir ein weiteres Beispiel.<br />

Nun soll es um eine Binomialverteilung mit gehen und dementsprechend eine<br />

Poissonverteilung zum Parameter λ=5. Nachfolgende Tabelle zeigt B ({k}) und ({ }) für<br />

4


k {0,1,2,3,4,5,6,7,8,9,10} und n {20,50,100,500). Grau hinterlegt sind dabei jeweils die<br />

kumulierten Wahrscheinlichkeiten.<br />

Binomialverteilung mit n*p=5<br />

Poissonverteilung<br />

k n=20 n=50 n=100 n=500 λ=5<br />

0 0,0032 0,0052 0,0059 0,0066 0,0067<br />

0,0032 0,0052 0,0059 0,066 0,0067<br />

1 0,0211 0,0286 0,0312 0,0332 0,0337<br />

0,0243 0,0338 0,0371 0,0398 0,0404<br />

2 0,0669 0,0779 0,0812 0,0836 0,0842<br />

0,0913 0,1117 0,1183 0,1234 0,1247<br />

3 0,1339 0,1386 0,1396 0,1402 0,1404<br />

0,2252 0,2503 0,2578 0,2636 0,2650<br />

4 0,1897 0,1809 0,1781 0,1760 0,1755<br />

0,4148 0,4312 0,4360 0,4396 0,4405<br />

5 0,2023 0,1849 0,1800 0,1764 0,1755<br />

0,6172 0,6161 0,6160 0,6160 0,6160<br />

6 0,1686 0,1541 0,1500 0,1470 0,1462<br />

0,7858 0,7702 0,7660 0,7629 0,7622<br />

7 0,1124 0,1076 0,1060 0,1048 0,1044<br />

0,8982 0,8779 0,8720 0,8677 0,8666<br />

8 0,0609 0,0643 0,0649 0,0652 0,0653<br />

0,9591 0,9421 0,9369 0,9329 0,9319<br />

9 0,0271 0,0333 0,0349 0,0360 0,0363<br />

0,9861 0,9755 0,9718 0,9689 0,9682<br />

10 0,0099 0,0152 0,0167 0,0179 0,0181<br />

0,9961 0,9906 0,9885 0,9868 0,9863<br />

Beispielsweise für k=3 kann man erkennen, dass sich die Werte der Binomialverteilung für<br />

wachsendes n immer mehr dem Grenzwert, also dem Wert der Poissonverteilung, annähern.<br />

Bei n=500 beträgt die Abweichung lediglich 0,2%. Eine noch bessere Näherung zeigt die<br />

kumulierte Wahrscheinlichkeit für k=5. Hier stimmen die Werte ab n=100 mit dem Wert der<br />

Poissonverteilung im Rahmen der angegebenen Genauigkeit exakt überein.<br />

Man kann sich nach dieser Betrachtung fragen, wann es Sinn macht, die Binomialverteilung<br />

mit der Poissonverteilung anzunähern. Nach Ineichen [IN] ist dies „in der Regel“ für n>10<br />

und p< 0,05 der Fall. Diese Werte sind vermutlich empirisch entstanden. Man muss also<br />

immer im Einzelfall überprüfen, ob eine Näherung sinnvoll ist und mit welcher Genauigkeit<br />

man sein Ergebnis angeben möchte. In Kapitel zwei werden wir allerdings an den<br />

Histogrammen erkennen, dass eine Poissonverteilung mit λ>50 wenig sinnvoll erscheint, da<br />

die Verteilung dann einer Normalverteilung gleicht.<br />

Eine weitere interessante Frage ist, warum man die Binomialverteilung überhaut annähern<br />

sollte, bzw. welche Vorteile eine solche Näherung birgt. Der entscheidende Punkt ist, dass es<br />

in der Praxis häufig Beispiele für Binomialverteilungen gibt, bei denen weder n noch p als<br />

Einzelparameter bekannt und auch nicht berechenbar sind. Man weiß häufig nur, dass n groß<br />

ist und empirisch kennt man das Produkt . Genau dieses Produkt reicht aber für die<br />

5


Wahrscheinlichkeit<br />

Berechnung der Poissonverteilung aus. In manchen Fällen ist die Poissonverteilung also die<br />

einzige Möglichkeit, um überhaupt Wahrscheinlichkeiten berechnen zu können.<br />

Um nun die Poissonverteilung näher charakterisieren zu können, möchte ich im folgenden<br />

Kapitel einige Eigenschaften dieser Verteilung diskutieren.<br />

2. Einige Eigenschaften der Poissonverteilung<br />

2.1 Histogramme verschiedener Poissonverteilungen<br />

Um zunächst eine Idee der Poissonverteilung zu erhalten, stelle ich nun einige Histogramme<br />

der Verteilung dar.<br />

0,4<br />

Poissonverteilungen mit λ= 1, λ=5, λ=10<br />

0,35<br />

0,3<br />

0,25<br />

0,2<br />

0,15<br />

λ=10<br />

λ=1<br />

λ=5<br />

0,1<br />

0,05<br />

0<br />

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22<br />

k<br />

Am Diagramm kann man erkennen, dass für wachsendes λ die Kurven immer symmetrischer<br />

werden. Außerdem werden die Kurven für wachsendes n immer breiter. Später im diesem<br />

Kapitel werden wir den Grund dafür herausfinden. Außerdem ist auffällig, dass k= λ und<br />

k= λ-1 die größte Wahrscheinlichkeit besitzen. Insbesondere haben also beide immer gleiche<br />

Wahrscheinlichkeit. Dies ist kein Zufall, denn es gilt nach Definition der Poissonverteilung:<br />

({ })<br />

( ) ( )<br />

({ })<br />

6


Wahrscheinlichkeit<br />

Wahrscheinlichkeit<br />

Allerdings gilt diese Gleichheit nur, wenn λ N ist, da k nur Werte in N annehmen kann. Als<br />

nächstes betrachten wir daher Kurven für λ∉N.<br />

0,4<br />

0,35<br />

0,3<br />

Poissonverteilungen mit λ=1,5 ; λ=3,7 ; λ=7,8<br />

0,25<br />

0,2<br />

0,15<br />

0,1<br />

λ=7,8<br />

λ=1,5<br />

λ=3,7<br />

0,05<br />

0<br />

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22<br />

k<br />

Auch hier erkennt man, dass die Kurven für wachsendes n breiter und symmetrischer werden.<br />

Das wahrscheinlichste k ist hier immer die nächstkleinere natürliche Zahl von λ. Wenn man<br />

also λ abrundet, erhält man das wahrscheinlichste k.<br />

Im Kapitel eins wurde diskutiert, wann es Sinn macht, eine Poissonverteilung zu benutzen.<br />

Wir möchten uns daher noch ein Histogramm für λ=50 ansehen.<br />

0,06<br />

Poissonverteilung mit λ=50<br />

0,05<br />

0,04<br />

0,03<br />

0,02<br />

λ=50<br />

0,01<br />

0<br />

0 3 6 9 12 15 18 21 24 27 30 33 36 39 42 45 48 51 54 57 60 63 66 69 72 75 78<br />

k<br />

7


Hier kann man erkennen, dass die Verteilung einer Normalverteilung gleicht. Man kann<br />

schlussfolgern, dass eine Poissonverteilung für λ>50 wenig sinnvoll ist.<br />

2.2 Die erzeugende Funktion<br />

Als nächstes berechne ich die erzeugende Funktion einer poissonverteilten Zufallsgröße.<br />

(2.1) Proposition<br />

Sei X poissonverteilte Zufallsvariable zum Parameter λ (λ>0). Dann gilt für die erzeugende<br />

Funktion ( ) mit tϵ[-1,1]:<br />

( )<br />

( )<br />

Beweis.<br />

Es gilt<br />

( ) [ ] ∑( ( )) ∑ ∑ ( )<br />

( )<br />

Besonders praktisch ist, dass diese Funktion nicht nur in [-1,1] definiert ist, sondern auf ganz<br />

R. Mit Hilfe der erzeugenden Funktion kann ich nun leicht den Erwartungswert und die<br />

Varianz bestimmen.<br />

2.3 Erwartungswert und Varianz<br />

(2.2) Proposition<br />

Sei X poissonverteilte Zufallsvariable zum Parameter λ (λ>0). Dann gilt für den<br />

Erwartungswert:<br />

[ ] .<br />

Beweis.<br />

Der Erwartungswert einer Zufallsvariable ist die Ableitung der erzeugenden Funktion an der<br />

Stelle eins:<br />

8


[ ] ( )<br />

In Proposition 2.1 wurde bereits bewiesen, dass für die erzeugende Funktion<br />

(<br />

( )<br />

) gilt. Also berechne ich zunächst ( )<br />

( )<br />

( )<br />

Somit gilt:<br />

[ ] ( )<br />

( )<br />

Mit der erzeugenden Funktion lassen sich auch weitere Erwartungswerte berechnen. Darüber<br />

gibt nachfolgendes Lemma Auskunft.<br />

(2.3) Lemma<br />

Sei X eine poissonverteilte Zufallsgröße zum Parameter λ (λ>0). Dann gilt:<br />

[ ] und [ ] .<br />

Beweis.<br />

Auch hier hilft Proposition 2.1, denn es gilt:<br />

[ ( )] ( ) bzw. [ ( )( )] ( ).<br />

Ich berechne also zunächst ( ) und ( ):<br />

( )<br />

( )<br />

( )<br />

( )<br />

( )<br />

( )<br />

Aus der Linearität des Erwartungswertes folgt:<br />

( ) [ ( )] [ ] [ ]<br />

und ( ) [ ( )( )] [ ] [ ] [ ].<br />

Mit [ ]<br />

(Proposition 2.2) folgt daraus:<br />

[ ] und [ ] ( ) .<br />

9


Mit Hilfe der erzeugenden Funktion kann man auf ähnliche Weise auch [ ] [ ] etc.<br />

berechnen. Ich möchte nun aber das Lemma nutzen, um die Varianz einer poissonverteilten<br />

Zufallsgröße zu bestimmen.<br />

(2.4) Proposition<br />

Sei X eine poissonverteilte Zufallsvariable zum Parameter λ (λ>0). Dann gilt für die Varianz:<br />

( ) .<br />

Beweis.<br />

Nach Verschiebungssatz gilt allgemein:<br />

( ) [ ] [ ]<br />

Mit dem Lemma 2.3 und Proposition 2.2 folgt damit:<br />

( ) [ ] [ ]<br />

Insbesondere wurde nun bewiesen, dass bei einer Poissonverteilung ( ) [ ] gilt.<br />

Wenn man sich nun an die Histogramme aus 2.1 erinnert, ist es nun klar, dass die Kurven mit<br />

wachsendem λ breiter werden, da auch die Varianz wächst. Außerdem ist nicht mehr<br />

überraschend, dass immer ein kϵN nahe λ die größte Wahrscheinlichkeit besitzt. Besonders<br />

praktisch ist es, dass man den Erwartungswert und die Varianz aus einer bekannten<br />

Verteilung direkt ablesen kann und nicht berechnen muss.<br />

Als nächstes möchte ich nun eine weitere nützliche Eigenschaft der Poissonverteilung<br />

betrachten.<br />

2.3 Addition von zwei poissonverteilten Zufallsgrößen<br />

(2.5) Proposition<br />

Seien X und Y zwei unabhängige Zufallsvariablen. Sei X poissonverteilt zum Parameter λ>0<br />

und sei Y poissonverteilt zum Parameter µ>0.<br />

Dann ist X+Y poissonverteilt zum Parameter λ+µ.<br />

10


Beweis.<br />

Auch hier nutze ich die erzeugende Funktion.<br />

Da X und Y unabhängig sind, gilt:<br />

( ) ( ) ( )<br />

( ) ( ) ( )( )<br />

Da die erzeugende Funktion die Verteilung charakterisiert, folgt damit, dass X+Y eine<br />

poissonverteilte Zufallsgröße zum Parameter λ+µ ist.<br />

Man kann die eben bewiesene Aussage für eine endliche Anzahl an Summanden<br />

verallgemeinern, der Beweis erfolgt analog.<br />

3. historische Beispiele<br />

In diesem Kapitel möchte ich zwei Beispiele für Poissonverteilungen betrachten, um eine<br />

bessere Vorstellung der Anwendbarkeit dieser Verteilung zu erhalten.<br />

3.1 Das Rutherford-Geiger-Experiment<br />

Dieses physikalische Experiment wurde 1910 von Ernest Rutherford (1871-1937) und Hans-<br />

Wilhelm Geiger (1882-1945) durchgeführt. Beide waren bedeutende Physiker. Rutherford<br />

entwickelte das berühmte „Rutherfordsche Atommodell“ und bekam für seine Forschung zur<br />

Radioaktivität den Nobelpreis der Chemie. Geiger entwickelte das noch heute als<br />

Teilchendetektor genutzte Geiger-Müller-Zählrohr.<br />

Der Aufbau des Experimentes ist leicht erklärt. Rutherford und Geiger detektierten mit einem<br />

Zähler radioaktive Zerfälle eines α-Strahlers. Dies hat große historische Bedeutung, da es zu<br />

dieser Zeit keine mit den heutigen vergleichbaren Teilchendetektoren gab. Es war erstmalig,<br />

dass solche Zerfälle überhaupt detektiert werden konnten. Geiger hatte zu diesem Zweck den<br />

sogenannten „Spitzenzähler“ entwickelt. Unter diesem Aspekt lässt sich auch erklären, warum<br />

beide ein Messintervall von 7,5s wählten, vermutlich konnte der Zähler keine kürzeren<br />

Intervalle messen.<br />

Geiger und Rutherford untersuchten 2608 Zeitintervalle. Dabei detektieren sie insgesamt<br />

10097 Zerfälle. Wie oben erwähnt, waren die Zeitintervalle alle 7,5s lang. Im Durchschnitt<br />

gab es also 3,87 Zerfälle pro Intervall.<br />

Um dieses Beispiel mit der Poissonverteilung zu interpretieren, müssen einige idealisierende<br />

Annahmen getroffen werden. Zum einen muss man davon ausgehen, dass sich die Intensität<br />

(erwartete Anzahl von Zerfällen pro Zeiteinheit) des α-Strahlers während der gesamten<br />

11


Messzeit nicht ändert bzw., dass die Halbwertszeit des Präparates so groß ist, dass sie<br />

während des Experimentes nicht erreicht wird. Andernfalls würde sich die mittlere Anzahl an<br />

Zerfällen während des Experimentes ändern und man könnte nicht nur eine Poissonverteilung<br />

als Näherung benutzen. Außerdem muss man davon ausgehen, dass die Kerne unabhängig<br />

voneinander zerfallen. Allerdings weiß man, dass die Anzahl N der Atome in der Probe sehr<br />

groß (N<br />

) und die Wahrscheinlichkeit p für einen Zerfall sehr klein ist, da pro<br />

Intervall jeweils nur sehr wenige Atome zerfallen sind. Die Poissonverteilung könnte also<br />

tatsächlich geeignet sein, die Verteilung der Zerfälle zu beschreiben.<br />

Da der Mittelwert der Zerfälle bei 3,87 lag, wähle ich eine Poissonverteilung mit λ<br />

nun k die Anzahl von Zerfällen pro Intervall, k ϵN. Daraus ergibt sich<br />

. Sei<br />

({ })<br />

Beispielsweise für k=0 folgt damit:<br />

({ })<br />

Daraus ergibt sich die theoretisch berechnete Anzahl N 0 * an Intervallen, in denen 0 Zerfälle<br />

auftreten:<br />

({ })<br />

Ich runde auf eine natürliche Zahl, da es eine Anzahl an Intervallen beschreibt und reelle<br />

Zahlen dafür wenig sinnvoll sind. Dadurch kann es aber passieren, dass die Summe aller<br />

kleiner oder größer der tatsächlichen Intervallanzahl ist.<br />

Ich berechne nun alle weiteren<br />

auf die gleiche Weise. Es ergibt sich nachfolgende Tabelle:<br />

k 0 1 2 3 4 5 6 7 8 9 10 11 12 ≥13<br />

54 210 407 525 508 394 254 140 68 29 11 4 1 0<br />

Interessant ist es nun, diese theoretischen Werte mit denen zu vergleichen, die Rutherford und<br />

Geiger beobachtet haben. Diese tatsächliche Anzahl N k an Intervallen entnehme ich Topsoe<br />

[TOP]. Um die Werte zu vergleichen, stelle ich sie in einer Tabelle dar:<br />

k 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 ≥15<br />

54 210 407 525 508 394 254 140 68 29 11 4 1 0 0 0<br />

N k 57 203 383 525 532 408 273 139 45 27 10 4 0 1 1 0<br />

Man kann erkennen, dass N k und N k * für k= 3 exakt übereinstimmen. Bei k=8 gibt es<br />

hingegen eine Abweichung von ca. 50%. Um einen Eindruck der gesamten Verteilung zu<br />

erhalten, stelle ich beide Werte grafisch dar.<br />

12


Anzahl der Intervalle mit k Zerfällen<br />

600<br />

Vergleich von N k und N k *<br />

500<br />

400<br />

300<br />

200<br />

theoretisch<br />

berechnete Anzahl<br />

Nk*<br />

tatsächlich<br />

beobachtete<br />

Anzahl Nk<br />

100<br />

0<br />

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15<br />

Anzahl der Zerfälle k<br />

Insgesamt kann man erkennen, dass beide Verteilungen näherungsweise übereinstimmen.<br />

Man kann also schlussfolgern, dass unter gewissen Voraussetzungen die Poissonverteilung<br />

geeignet ist, radioaktive Zerfälle zu beschreiben.<br />

3.2 Unfälle im preußischen Heer<br />

Nachfolgende Tabelle zeigt die im preußischen Heer durch Schlag eines Pferdes Getöteten.<br />

Sie wurde von Ladislaus von Bortkewitsch [BOR] im Jahr 1898 erstellt.<br />

13


Es sind jeweils die Jahre dargestellt (19.Jahrhundert) und die jeweils in diesem Jahr durch<br />

Schlag eines Pferdes Getöteten in den einzelnen Armeecorps. Die römischen Zahlen stehen<br />

für verschiedene Corps, dass „G“ steht für Gardecorps. Bekannt ist, dass die Anzahl der<br />

Männer N in den Corps sehr groß war und die Wahrscheinlichkeit p, von einem Pferd getötet<br />

zu werden, sehr klein. Man kann sich nun also fragen, ob die Anzahl der Getöteten<br />

poissonverteilt ist. Der Mittelwert dieser Anzahl beträgt nach Bortkewitsch [BOR] 0,70 pro<br />

Jahr, also nutze ich eine Poissonverteilung zum Parameter .<br />

Die Wahrscheinlichkeit, dass in einem Jahr kein Soldat durch ein Pferd stirbt, beträgt<br />

demnach:<br />

({ })<br />

Nun rechne ich noch aus, in wie vielen Fällen theoretisch kein Soldat durch ein Pferd<br />

hätte getötet werden sollen. Es wurden insgesamt 280 Jahresergebnisse betrachtet. Also gilt:<br />

({ })<br />

Ich runde auch hier auf eine ganze Anzahl, da es sich um Jahresergebnisse handelt.<br />

Die tatsächliche Anzahl , sowie die relative Häufigkeit dieses Ereignisses lässt sich aus<br />

der Tabelle ermitteln. Es gilt: . Daraus folgt:<br />

({ })<br />

Analog gehe ich für k=1,2,3,4,5 vor. Die Ergebnisse sind in folgender Tabelle dargestellt:<br />

Jahresergebnis<br />

k<br />

Tatsächliche<br />

Anzahl<br />

Theoretische<br />

Anzahl<br />

Relative<br />

Häufigkeit<br />

Theoretische<br />

Wahrscheinlichkeit<br />

0 144 139 0,5143 0,4966<br />

1 91 97 0,3250 0,3476<br />

2 32 34 0,1143 0,1217<br />

3 11 8 0,0393 0,0284<br />

4 2 1 0,0071 0,0050<br />

5 0 0 0,0000 0,0007<br />

Zur Veranschaulichung stelle ich die relative Häufigkeit und die mit der Poissonverteilung<br />

berechnete Wahrscheinlichkeit grafisch dar:<br />

14


Wahrscheinlichkeit<br />

0,6<br />

Vergleich von P und P λ<br />

0,5<br />

0,4<br />

0,3<br />

0,2<br />

0,1<br />

relative Häufigkeit der<br />

Jahresergebnisse<br />

Poissonverteilung zum Parameter<br />

0,70<br />

0<br />

0 1 2 3 4 5<br />

Jahresergebnis<br />

Man erkennt, dass beide Verteilungen sehr ähnlich sind. Ladislaus von Bortkewitsch sah sich<br />

nun die einzelnen Corps genauer an und ihm fiel auf, dass diese teilweise sehr unterschiedlich<br />

zusammengesetzt waren. Aus diesem Grund strich er das Gardecorps und die Armeecorps I,<br />

VI und XI aus seiner Betrachtung. Dadurch ändert sich der Mittelwert von 0,70 auf 0,61. Ich<br />

nutze also zum Vergleich nun eine Poissonverteilung zum Parameter . Die<br />

Gesamtanzahl der Jahresergebnisse beträgt nun 200. Analog zu oben berechne ich nun die<br />

relative Häufigkeit der Jahresergebnisse und die mit der Poissonverteilung zu erwartenden<br />

Werte. Dadurch ändert sich die eben erstellte Tabelle wie folgt:<br />

Jahresergebnis<br />

k<br />

Tatsächliche<br />

Anzahl<br />

Theoretische<br />

Anzahl<br />

Relative<br />

Häufigkeit<br />

Theoretische<br />

Wahrscheinlichkeit<br />

0 109 109 0,5450 0,5434<br />

1 65 66 0,3250 0,3314<br />

2 22 20 0,1100 0,1011<br />

3 3 4 0,0150 0,0206<br />

4 1 1 0,0050 0,0031<br />

5 0 0 0,0000 0,0004<br />

Auch hier stelle ich wieder die Poissonverteilung und die relative Häufigkeit der<br />

Jahresergebnisse grafisch dar:<br />

15


Wahrscheinlichkeit<br />

Vergleich von P und P λ<br />

0,6<br />

0,5<br />

0,4<br />

0,3<br />

0,2<br />

relative Häufigkeit der<br />

Jahresergebnisse<br />

Poissonverteilung zum Parameter<br />

0,61<br />

0,1<br />

0<br />

0 1 2 3 4 5<br />

Jahresergebnis<br />

Nun kann man erkennen, dass beide Verteilungen nahezu übereinstimmen. Die Anzahl der im<br />

preußischen Heer vom Schlag eines Pferdes Getöteten ist also tatsächlich poissonverteilt.<br />

4. Weitere Anwendungsbereiche der Poissonverteilung<br />

Allgemein ist die Poissonverteilung geeignet, die zufällige Verteilung von Punkten auf einer<br />

Geraden, in einer Ebenen oder im Raum zu beschreiben. Ähnlich wie beim Rutherford-<br />

Geiger-Experiment teilt man dafür die Gerade in gleichgroße Abschnitte ein. Wenn man den<br />

Mittelwert von Punkten in einem Intervall kennt, kann man voraussagen, wie viele Intervalle<br />

theoretisch mit k Punkten (kϵN) existieren. Ähnlich passiert das auf der Ebene, diese wird<br />

dann in gleichgroße Flächen (meist Quadrate) eingeteilt, der Raum z.B. in Quader.<br />

Die nachfolgenden Beispiele sind alle direkte Anwendungen der eben genannten<br />

Verteilungen. Sie illustrieren, in welchen Bereichen die Poissonverteilung genutzt werden<br />

kann. Oben haben wir bereits zwei historische Beispiele gesehen, bzw. ein physikalisches. Es<br />

gibt aber noch weitere Anwendungsbereiche.<br />

Biologische Beispiele<br />

In der Biologie kann man die Poissonverteilung nutzen, um die Verteilung von Hefezellen auf<br />

einem Objektträger zu beschreiben. Dies ist eine direkte Anwendung der zufälligen<br />

Verteilung von Punkten in einer Ebenen. Man nimmt dazu an, dass sich die Hefezellen<br />

unabhängig voneinander verteilen. Vermutlich kennt man die Gesamtanzahl N der Hefezellen<br />

nicht. Nun kann man den Objektträger in Quadrate einteilen und mit der Poissonverteilung die<br />

erwartete Anzahl von Quadraten angeben, die k Zellen enthalten. Der Mittelwert der<br />

Hefezellen in einem Quadrat muss dabei bekannt sein, bzw. dieser lässt sich durch Auszählen<br />

von Zellen in wenigen Quadraten schätzen. Eine genaue Beschreibung dieses Beispiels gibt<br />

Topsoe [TOP].<br />

16


Des Weiteren ist die Poissonverteilung auch geeignet, die Anzahl N von Mutationen auf<br />

einer DNA-Sequenz zu beschreiben. Auch hier ist N nicht bekannt, genauso wenig wie die<br />

Wahrscheinlichkeit p für eine Mutation. Den Mittelwert von Mutationen kennt man allerdings<br />

empirisch. Dieses Beispiel ist eine direkte Anwendung der zufälligen Verteilung von Punkten<br />

auf einer Geraden.<br />

Kaufhauskunden<br />

Es gibt auch im Alltag Beispiele für Poissonverteilungen. Kunden, die ein Kaufhaus betreten<br />

sind poissonverteilt. Auch hier ist die Anzahl N möglicher Kunden unbekannt, ebenso wie die<br />

Wahrscheinlichkeit dafür, dass ein Kunde das Kaufhaus betritt. Die mittlere Anzahl von<br />

Kunden in einem Intervall lässt sich durch Beobachtung näherungsweise ermitteln. Man kann<br />

sich das Beispiel auch als Zeitachse vorstellen, auf der jedes Mal ein Punkt gesetzt wird,<br />

wenn ein Kunde das Kaufhaus betritt. Damit wäre ich also wieder an dem oberen Beispiel der<br />

zufälligen Verteilung von Punkten auf einer Geraden angelangt. Dieses Beispiel ist besonders<br />

interessant für den Kaufhausmanager, da er so gezielte Werbeaktionen veranstalten kann oder<br />

sein Personal der erwarteten Kundenanzahl anpassen kann.<br />

Anzahl der Selbstmorde<br />

Betrachtet man eine Stadt, so kann man zwar ungefähr die Einwohneranzahl N angeben,<br />

allerdings kennt man vermutlich nicht die Wahrscheinlichkeit p für einen Selbstmord.<br />

Sicherlich ist aber die mittlere Anzahl der Selbstmorde bekannt. Daher ist die<br />

Poissonverteilung geeignet, die Wahrscheinlichkeit für k Selbstmorde in einem festen<br />

Zeitintervall zu berechnen.<br />

Anzahl von Blitzeinschlägen<br />

Auch dies ist eine direkte Anwendung der zufälligen Punktverteilung auf einer Ebenen. Man<br />

kann z.B. eine Kleingartenkolonie betrachten, bei der jede Parzelle gleichgroß ist. N ist nun<br />

die Anzahl der Parzellen. Die Wahrscheinlichkeit für einen Blitzeinschlag ist vermutlich<br />

unbekannt. Mit der Poissonverteilung kann man aber berechnen, wie wahrscheinlich es ist,<br />

dass in einer Parzelle in einem festen Zeitintervall mindestens ein Blitz einschlägt. Unser λ ist<br />

hierbei die mittlere Anzahl an Blitzeinschlägen in einer Parzelle in diesem festen Intervall, die<br />

empirisch bekannt sein kann.<br />

Anzahl von Verkehrsunfällen<br />

Ein weiteres interessantes Anwendungsbeispiel ist die Anzahl von Verkehrsunfällen.<br />

Betrachtet man eine Kreuzung, so kennt man nicht die Anzahl N an Autos die in einem festen<br />

Zeitintervall diese Kreuzung passieren. Außerdem ist N zu verschiedenen Zeitpunkten im<br />

Allgemeinen nicht konstant. Auch die Wahrscheinlichkeit p für einen Unfall ist im<br />

Allgemeinen unbekannt. Empirisch kennt man aber die durchschnittliche Anzahl an Unfällen<br />

in diesem festen Zeitintervall und kann nun mit der Poissonverteilung Aussagen treffen, wie<br />

wahrscheinlich es ist, dass k Unfälle in diesem Zeitintervall passieren. Stellt man nun fest,<br />

dass die Wahrscheinlichkeit für Unfälle sehr hoch ist, kann man nun Maßnahmen treffen, wie<br />

z.B. ein Tempolimit setzen oder die Ampelphasen ändern.<br />

17


Anzahl fehlerhafter Teile in einer Produktserie<br />

Die Anzahl von fehlerhaften Teilen ist das klassische Beispiel einer Binomialverteilung, dass<br />

auch in der Schule häufig verwendet wird. N ist hierbei die Gesamtanzahl der produzierten<br />

Teile und p die Wahrscheinlichkeit für einen Produktionsfehler. Da N im Allgemeinen sehr<br />

groß ist und p hoffentlich sehr klein, kann man, wie oben bewiesen, die Poissonverteilung als<br />

Näherung der Binomialverteilung nutzen.<br />

Insgesamt kann man erkennen, dass die Poissonverteilung vielfältige<br />

Anwendungsmöglichkeiten besitzt. Es gibt sicherlich noch zahlreiche weitere Beispiele.<br />

5. Das Reiskörner –Experiment<br />

Um selbst eine zufällige Verteilung zu erzeugen haben wir uns das Reiskörner- Experiment<br />

überlegt und mit Kommilitonen durchgeführt. Wir nahmen dazu ein Papier, dass in 16<br />

gleichgroße Kästchen eingeteilt war ( ). Zwei Gruppen von Kommilitonen ließen<br />

darauf eine kleine Menge Reis fallen, so dass sich die Körner möglichst zufällig verteilten.<br />

Eine weitere Gruppe legte die Körner nach ihrem Empfinden zufällig auf das Papier.<br />

Anschließen zählten sie, in wie vielen Kästchen sich k Reiskörner befanden. Außerdem<br />

errechneten sie den Mittelwert der Körner pro Kästchen, in dem sie die Anzahl der Körner<br />

durch die Anzahl der Kästchen teilten. Es ergaben sich folgende Messwerte:<br />

Gruppe 1 (zufällige Verteilung durch Werfen)<br />

N=39 (Gesamtanzahl der Reiskörner)<br />

µ= (Mittelwert der Körner pro Kästchen)<br />

k<br />

Anzahl der Kästchen<br />

mit k Reiskörnern N k<br />

Relative Häufigkeit<br />

0 2 0,125<br />

1 1 0,0625<br />

2 6 0,375<br />

3 3 0,1875<br />

4 3 0,1875<br />

5 1 0,0625<br />

Nun kann man mit der Poissonverteilung eine theoretische Anzahl an Kästchen mit k Körnern<br />

angeben. Der Parameter ist dabei ungefähr die mittlere Anzahl an Körnern pro Kästchen, also<br />

. Ich führe dazu eine Beispielrechnung für k=0 durch. Dafür berechne ich<br />

zunächst die Wahrscheinlichkeit, dass sich 0 Körner in einem Kästchen befinden:<br />

18


Wahrscheinlichkeit<br />

({ })<br />

Damit ergibt sich die die theoretische Anzahl der Kästchen mit 0 Reiskörnern :<br />

Analog zum Rutherford-Geiger-Experiment runde ich auch hier auf eine ganze Anzahl an<br />

Kästchen.<br />

Diese Rechnung führe ich analog für alle weiteren k und für die anderen beiden Gruppen<br />

durch. Die Ergebnisse stelle ich in den folgenden Tabellen dar.<br />

Gruppe 1 (zufällige Verteilung durch Werfen)<br />

N=39 (Gesamtanzahl der Reiskörner)<br />

µ= (Mittelwert der Körner pro Kästchen)<br />

k<br />

Anzahl der<br />

Kästchen mit k<br />

Reiskörnern N k<br />

Relative Häufigkeit<br />

Mit der<br />

Poissonverteilung<br />

errechnete Häufigkeit<br />

0 2 0,125 0,0874 1<br />

1 1 0,0625 0,2130 3<br />

2 6 0,375 0,2596 4<br />

3 3 0,1875 0,2109 3<br />

4 3 0,1875 0,1285 2<br />

5 1 0,0625 0,0627 1<br />

Theoretische<br />

Kästchenanzahl<br />

Grafische Darstellung der Wahrscheinlichkeiten:<br />

0,4<br />

0,35<br />

0,3<br />

0,25<br />

0,2<br />

0,15<br />

0,1<br />

0,05<br />

0<br />

0 1 2 3 4 5<br />

k<br />

zufällige Verteilung durch Werfen<br />

Poissonverteilung zum Parameter<br />

2,4375<br />

19


Wahrscheinlichkeit<br />

Gruppe 2 (zufällige Verteilung durch Werfen)<br />

N=17 (Gesamtanzahl der Reiskörner)<br />

µ= (Mittelwert der Körner pro Kästchen)<br />

k<br />

Anzahl der<br />

Kästchen mit k<br />

Reiskörnern N k<br />

Relative Häufigkeit<br />

Mit der<br />

Poissonverteilung<br />

errechnete Häufigkeit<br />

0 4 0,25 0,3456 6<br />

1 8 0,5 0,3672 6<br />

2 3 0,1875 0,1950 3<br />

3 1 0,0625 0,0691 1<br />

4 0 0 0,0184 0<br />

5 0 0 0,0039 0<br />

Theoretische<br />

Kästchenanzahl<br />

Grafische Darstellung der Wahrscheinlichkeiten:<br />

0,6<br />

0,5<br />

0,4<br />

0,3<br />

0,2<br />

zufällige Verteilung durch Werfen<br />

Poissonverteilung zum Parameter<br />

1,0625<br />

0,1<br />

0<br />

0 1 2 3 4 5<br />

k<br />

Gruppe 3 (nach eigenem Empfinden zufällig verteilt)<br />

N=98 (Gesamtanzahl der Reiskörner)<br />

µ= (Mittelwert der Körner pro Kästchen)<br />

k<br />

Anzahl der<br />

Kästchen mit k<br />

Reiskörnern N k<br />

Relative Häufigkeit<br />

Mit der<br />

Poissonverteilung<br />

errechnete Häufigkeit<br />

0 0 0 0,0022 0<br />

1 0 0 0,0134 0<br />

2 0 0 0,0410 1<br />

3 2 0,125 0,0834 1<br />

4 1 0,0625 0,1283 2<br />

Theoretische<br />

Kästchenanzahl<br />

20


Wahrscheinlichkeit<br />

k<br />

Anzahl der<br />

Kästchen mit k<br />

Reiskörnern N k<br />

Relative Häufigkeit<br />

Mit der<br />

Poissonverteilung<br />

errechnete Häufigkeit<br />

5 4 0,25 0,1571 3<br />

6 3 0,1875 0,1604 3<br />

7 2 0,125 0,1404 2<br />

8 2 0,125 0,1075 2<br />

9 1 0,0625 0,0731 1<br />

10 0 0 0,0448 1<br />

11 1 0,0625 0,0249 0<br />

Theoretische<br />

Kästchenanzahl<br />

Grafische Darstellung der Wahrscheinlichkeiten:<br />

0,3<br />

0,25<br />

0,2<br />

0,15<br />

0,1<br />

nach Empfinden zufällige<br />

Verteilung<br />

Poissonverteilung mit Parameter<br />

6,125<br />

0,05<br />

0<br />

0 1 2 3 4 5 6 7 8 9 10 11<br />

k<br />

Insgesamt ist keine der erzeugten Verteilungen annähernd poissonverteilt, es gibt überall<br />

größere Abweichungen. Offensichtlich beeinflusst man durch die Art des Werfens die<br />

Verteilung, so dass diese nicht zufällig ist. Trotzdem sieht man z.B. bei Gruppe 2 für k=2 und<br />

k=3 gewisse Ähnlichkeiten der Verteilung.<br />

Auch unser Empfinden von Zufall ist offensichtlich ein anderes als tatsächlicher Zufall, dass<br />

sieht man an den größeren Abweichungen bei Gruppe 3.<br />

Problematisch bei dem Experiment ist es allerdings, dass alle Gruppen sehr unterschiedliche<br />

Parameter erzeugt haben, so dass diese Verteilungen auch untereinander schwer zu<br />

vergleichen sind. Trotzdem sieht man insgesamt gut, dass idealer Zufall sehr schwer zu<br />

erzeugen ist.<br />

21


Quellen<br />

[BOR] VON BORTKEWITSCH, LADISLAUS: „Gesetz der kleinen Zahlen“. Leipzig: Teubner<br />

Verlag, 1898.<br />

[GEO] GEORGII, HANS-OTTO: „Stochastik: Einführung in die Wahrscheinlichkeitstheorie und<br />

Statistik“. 4. überarbeitete und erweiterte Auflage. Berlin: de Gruyter Verlag, 2009.<br />

[HE] HENZE, NORBERT: „Stochastik für Einsteiger“. 9. Auflage. Wiesbaden: Vieweg und<br />

Teubner Verlag, 2012.<br />

[IN] INEICHEN, ROBERT: „Einführung in die elementare Statistik und<br />

Wahrscheinlichkeitsrechnung“ 6.Auflage. Luzern : Raeber Verlag, 1984.<br />

KINGMAN, JOHN FRANK CHARLES: „Poisson Processes“. (Oxford studies in probability 3).<br />

Oxford: Clarendon Press, 1993.<br />

ROELLY, SYLVIE : Skript zur Vorlesung „Stochastik“ WS 2011/12.<br />

[TOP] TOPSOE, FLEMMING: „Spontane Phänomene. Stochastische Modelle und ihre<br />

Anwendung“. Übersetzte Auflage. Braunschweig: Vieweg Verlag, 1990.<br />

22

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!