27.08.2014 Aufrufe

Stochastische Populationsmodelle - Abteilung für Mathematische ...

Stochastische Populationsmodelle - Abteilung für Mathematische ...

Stochastische Populationsmodelle - Abteilung für Mathematische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Stochastische</strong> <strong>Populationsmodelle</strong><br />

Andrej Depperschmidt<br />

Vorlesungsskript<br />

Universität Freiburg<br />

Wintersemester 2011<br />

Version: 12. November 2012


1 Bienaymé-Galton-Watson-Prozess<br />

Bienaymé-Galton-Watson-Prozess ist der älteste und der einfachste Verzweigungsprozess. F. Galton<br />

betrachtete das Aussterben von Familiennamen und veröffentlichte zusammen mit H.W. Watson<br />

in 1984 die Arbeit On the probability of extinction of families. Erst 1972 fand man heraus,<br />

dass I.J. Bienaymé dasselbe Problem schon 1845 betrachtete. Aus diesem Grund sind mittlerweile<br />

beide Bezeichnungen, d.h. sowohl Galton-Watson, als auch Bienaymé-Galton-Watson-Prozess<br />

im Gebrauch.<br />

Man kann ein Bienaymé-Galton-Watson-Prozess (BGWP) wie folgt beschreiben: Wir starten<br />

mit einem Individuum. Es lebt genau eine Zeiteinheit und hinterlässt nach seinem Tod<br />

Nachkommen dessen Anzahl gemäß einer festgelegten Verteilung auf N 0 verteilt ist. Dann verhalten<br />

sich die Nachkommen wie unabhängige Kopien (auch unabhängig vom Vorfahr) ihres<br />

Vorfahren, d.h. jeder von denen lebt genau eine Zeiteinheit und hinterlässt Nachkommen gemäß<br />

derselben Verteilung. Deren Nachkommen verhalten sich wieder wie unabhängige Kopien<br />

des Vorfahren u.s.w. In diesem Kapitel definieren wir den BGWP und studieren die Aussterbebzw.<br />

die Überlebenswahrscheinlichkeiten und das asymptotische Verhalten in Abhängigkeit der<br />

Nachkommensverteilung.<br />

1.1 Definition und elementare Eigenschaften<br />

Hier definieren wir den Bienaymé-Galton-Watson-Prozess (BGWP) und diskutieren die ersten<br />

elementaren Eigenschaften.<br />

Definition 1.1 (BGWP). Es sei Z 0 eine N 0 -wertige Zufallsvariable und sei {ξ nk : n ∈ N 0 , k ∈<br />

N} eine Familie von unabhängigen und identisch verteilten (u.i.v.) Zufallsvariablen mit Verteilung<br />

p j = P[ξ nk = j], j ∈ N 0 . Der Bienaymé-Galton-Watson-Prozess (auch Verzweigungsprozess)<br />

mit Start in Z 0 und Nachkommensverteilung {p j : j ∈ N 0 } ist eine Markovkette (Z n ) n≥0<br />

die durch<br />

∑Z n<br />

Z n+1 = ξ nk , n ≥ 0 (1.1)<br />

k=1<br />

rekursiv definiert ist. Ferner definieren wir m := E[ξ 11 ] und σ 2 := Var[ξ 11 ]. Wir nennen einen<br />

BGWP superkritisch falls m > 1, kritisch falls m = 1, und subkritisch falls m < 1 ist (diese<br />

Bezeichnungen werden später klar).<br />

Wir werden stets m < ∞ annehmen, σ 2 = ∞ ist dagegen bei manchen Resultaten möglich.<br />

In der obigen Definitionen interpretieren wir Z n als die Populationsgröße zur Zeit n und ξ nk als<br />

die Anzahl der Nachkommen des k-ten Individuums der n-ten Generation. Wie schon erwähnt<br />

ist (Z n ) n≥0 eine Markovkette. Die zugehörigen Übergangswahrscheinlichkeiten sind<br />

{<br />

p ∗i<br />

j falls i ≥ 1, j ≥ 0<br />

p ij := P[Z n+1 = j|Z n = i] =<br />

(1.2)<br />

δ 0j falls i = 0, j ≥ 0,<br />

2


1 Bienaymé-Galton-Watson-Prozess<br />

wobei δ ij das Kronecker-Delta ist und {p ∗i<br />

j : j = 0, 1, . . . } die i-fache Faltung von {p j : j =<br />

0, 1, . . . } bezeichnet. Der Erweiterungssatz von Kolmogorov garantiert die Existenz eines Wahrscheinlichkeitsraumes<br />

(Ω, F, P) auf dem man die Folge (Z n ) n≥0 definieren kann. Wir bezeichnen<br />

mit (F n ) n≥0 die natürliche Filtration von (Z n ) n≥0 , d.h. F n = σ(Z k : 0 ≤ k ≤ n). Falls wir<br />

den Anfangswert der Population betonen möchten, schreiben wir oft P i für die Verteilung von<br />

(Z n ) n≥0 wenn Z 0 = i ist. Den zugehörigen Erwartungswert und die Varianz bezeichnen wir dann<br />

entsprechend mit E i bzw. Var i .<br />

Bemerkung 1.2 (Triviale Spezialfälle). Falls p j = 1 für ein j ∈ N 0 ist, dann ist (bis auf möglicherweise<br />

zufällige Anfangsverteilung) die Markovkette (Z n ) deterministisch: jedes Individuum<br />

stirbt nach einer Zeiteinheit und bekommt j Nachkommen mit Wahrscheinlichkeit 1.<br />

Falls p 0 , p 1 ∈ (0, 1) und p 0 +p 1 = 1 ist, dann ist die Evolution der Population auch nicht interessant,<br />

denn dann stirbt jede der Z 0 ursprünglichen Familien nach jeweils einer geometrischen<br />

Anzahl von Versuchen mit Parameter p 0 aus.<br />

Annahme 1.1. Im Folgenden nehmen wir stets an, dass p j ≠ 1 für alle j und p 0 + p 1 < 1 gilt.<br />

Bemerkung 1.3 (Additivität). Wegen der Unabhängigkeit ist<br />

∑Z 0<br />

Z n = Z n (j) ,<br />

j=1<br />

wobei Z n<br />

(j) die Nachkommen des j-ten Individuums der 0-ten in der n-ten Generation sind.<br />

Damit ist (Z n ) n≥0 Summe von Z 0 u.i.v. BGWP die jeweils in 1 starten. Daher nehmen wir im<br />

Folgenden meistens Z 0 = 1 an. Allgemeine Resultate folgen oft aus diesem Spezialfall.<br />

Beispiel 1.4 (binäres Verzweigen). Es sei p ∈ (0, 1) und sei p 0 = 1 − p und p 2 = p, dann gilt<br />

{<br />

0 falls k ungerade,<br />

P j [Z 1 = k] = ( j<br />

k/2)<br />

p k/2 (1 − p) j−k/2 falls k gerade,<br />

wobei ( j<br />

i)<br />

= 0 ist wenn i > j. Mit k0 = 1/2 (so lässt sich die Formel kompakter schreiben) gilt<br />

n∏<br />

( ) ( ) ∑ n<br />

2ki−1 p<br />

i=1 k i<br />

P 1 [Z 1 = 2k 1 , Z 2 = 2k 2 , . . . , Z n = 2k n ] =<br />

(1 − p) 2 ∑ n−1<br />

i=0 k i<br />

.<br />

k i 1 − p<br />

1.2 Erzeugende Funktionen<br />

i=1<br />

In diesem Abschnitt erinnern wir an die wahrscheinlichkeitserzeugenden Funktionen, die genauso<br />

wie momentenerzeugende und charakteristische Funktionen eine wichtige Rolle in der Wahrscheinlichkeitstheorie<br />

spielen, und sich besonders gut für die Analyse von Verzweigungsprozessen<br />

eignen.<br />

Definition 1.5 (erzeugende Funktion). Es sei X eine N 0 -wertige Zufallsvariable. Dann ist die<br />

(wahrscheinlichkeits)erzeugende Funktion definiert durch<br />

g X (t) := E[t X ] =<br />

∞∑<br />

P[X = k]t k , t ∈ [0, 1]. (1.3)<br />

k=0<br />

3


1 Bienaymé-Galton-Watson-Prozess<br />

Lemma 1.6. Es sei X eine N 0 -wertige ZV mit E[X] < ∞, dann gilt<br />

und<br />

E[X] = g ′ X(1)<br />

Var[X] = g ′′ X(1) + g ′ X(1) − (g ′ X(1)) 2 ,<br />

wobei die letzte Gleichung in dem Sinne gilt, dass wenn die eine Seite endlich ist, dann ist<br />

auch die andere endlich und die beiden sind gleich. Insbesondere gilt g<br />

X ′′ (t) → ∞ für t ↑ 1 falls<br />

Var[X] = ∞.<br />

Beweis. Für t ∈ (0, 1) gilt<br />

g ′ X(t) =<br />

∞∑<br />

kP[X = k]t k−1<br />

k=1<br />

t↑1<br />

−−→<br />

∞∑<br />

kP[X = k] = E[X].<br />

k=1<br />

Der Beweis der zweiten Formel ist eine Übungsaufgabe.<br />

Lemma 1.7. Es seien X 1 , X 2 , . . . u.i.v. N 0 -wertige ZV mit erzeugender Funktion g X und sei<br />

Y auch N 0 -wertig und unabhängig mit erzeugender Funktion g Y . Mit S = ∑ Y<br />

k=1 X k gilt<br />

g S (t) = g Y ◦ g X (t), t ∈ [0, 1],<br />

E[S] = E[X 1 ]E[Y ],<br />

Var[S] = Var[X 1 ]E[Y ] + E 2 [X 1 ] Var[Y ],<br />

wobei die letzten zwei Gleichungen in dem Sinne gelten, dass wenn die eine Seite endlich ist,<br />

dann ist auch die andere endlich und die beiden sind gleich.<br />

Beweis. Wir zeigen nur die erste Gleichung. Die beiden anderen (bekannten) Gleichungen können<br />

daraus mit Hilfe von Lemma 1.6 gefolgert werden. Es gilt<br />

g S (t) = E[t S ] = E[t ∑ Y<br />

k=1 X k<br />

] =<br />

=<br />

∞∑<br />

j=0<br />

∞∑<br />

(E[t X 1<br />

]) j P[Y = j] =<br />

j=0<br />

E[t ∑ j<br />

k=1 X k<br />

]P[Y = j] =<br />

∞∑<br />

j=0 k=1<br />

∞∑<br />

(g X (t)) j P[Y = j] = g Y (g X (t)).<br />

j=0<br />

j∏<br />

E[t X k<br />

]P[Y = j]<br />

Nun betrachten wir die erzeugenden Funktionen von Z n . Dazu setzen wir g n (t) = E 1 [t Zn ] und<br />

g(t) = g 1 (t) = g ξ11 (t), wobei ξ 11 wie in Definition 1.1 ist. Wenden wir Lemma 1.7 auf (1.30) an,<br />

so erhalten wir<br />

g n = g n−1 ◦ g = · · · = g ◦ g n−1<br />

E[Z n ] = mE[Z n−1 ]<br />

Var[Z n ] = σ 2 E[Z n−1 ] + m 2 Var[Z n−1 ].<br />

Rekursiv erhält man daraus das folgende Theorem.<br />

4


1 Bienaymé-Galton-Watson-Prozess<br />

Theorem 1.8. Wenn Z 0 = 1 ist, dann ist die erzeugende Funktion von Z n gegeben durch<br />

g ◦ · · · ◦ g (n mal) und es gilt<br />

E[Z n ] = m n , (1.4)<br />

{ σ 2 m n−1 (m n −1)<br />

Var[Z n ] =<br />

m−1<br />

falls m ≠ 1,<br />

nσ 2 (1.5)<br />

falls m = 1.<br />

Beweis. Bis auf die Formel für die Varianz sind alle Aussagen klar. Für die Varianz kann man<br />

sich überlegen, dass<br />

n−1<br />

∑<br />

Var[Z n ] = σ 2 (m n−1 + · · · + m 2n−2 ) = σ 2 m n−1<br />

gilt. Mit der Formel für die (endliche) geometrische Summe erhält man die Behauptung.<br />

Lemma 1.9 (Eigenschaften von g). Unter der Annahme 1.1 (die ab jetzt stillschweigend vorausgesetzt<br />

wird) gilt<br />

(i) g ist strikt konvex und wachsend in [0, 1];<br />

(ii) g(0) = p 0 , g(1) = 1;<br />

(iii) ist m ≤ 1, so gilt g(t) > t für t ∈ [0, 1);<br />

(iv) ist m > 1, dann hat g(t) = t genau eine Lösung in [0, 1).<br />

Beweis. (i) Wegen p k ≥ 0 und ∑ ∞<br />

k=0 p k = 1 ist nach Annahme p k > 0 für ein k ≥ 2. Damit<br />

sind g ′ (t) = ∑ ∞<br />

k=1 p kkt k−1 und g ′′ (t) = ∑ ∞<br />

k=2 p kk(k − 1)t k−2 positiv auf (0, 1].<br />

(ii) ist klar.<br />

(iii) Wenn g ′ (1) = m ≤ 1 ist, dann gilt (g(t) − t) ′ = g ′ (t) − 1 < g ′ (1) − 1 ≤ 0. Damit ist<br />

t ↦→ g(t) − t strikt fallend und wegen g(1) = 1 folgt g(t) > t für t ∈ [0, 1).<br />

(iv) Wegen Konvexität gibt es höchstens zwei Lösungen der Gleichung g(t) = t. Eine davon ist<br />

in t = 1. Aus g ′ (1) > 1 und g(0) = p 0 ≥ 0 folgt, dass es noch eine Lösung in [0, 1) gibt.<br />

k=0<br />

m k<br />

Es sei q die kleinste Lösung der Gleichung g(t) = t in [0, 1], dann gilt nach dem obigen<br />

Lemma: Ist m ≤ 1, dann ist q = 1; ist m > 1, dann ist q < 1. Nach dem folgenden Lemma ist<br />

q ein attraktiver Gleichgewicht des, durch g definierten, dynamischen Systems x n+1 = g(x n ),<br />

x 0 ∈ [0, 1].<br />

Lemma 1.10. (i) Ist t ∈ [0, q), so gilt g n (t) ↑ q für n → ∞,<br />

(ii) Ist t ∈ (q, 1), so gilt g n (t) ↓ q für n → ∞,<br />

(iii) Ist t ∈ {q, 1}, so gilt g n (t) = t für alle n.<br />

5


1 Bienaymé-Galton-Watson-Prozess<br />

Beweis. Teil (iii) ist klar, also zeigen wir (i) und (ii). Für 0 ≤ t < q gilt nach Lemma 1.9<br />

t < g(t) < g(q) und es folgt<br />

t < g 1 (t) < g 2 (t) < · · · < g n (t) < g n (q) = q<br />

für alle n ≥ 1. Damit gilt g n (t) ↑ L für ein L ≤ q. Da g stetig ist gilt aber L = lim n→∞ g n (t) =<br />

lim n→∞ g n+1 (t) = g (lim n→∞ g n (t)) = g(L). Nach Voraussetzung ist q die kleinste Lösung in<br />

[0, 1] und somit gilt L = q. Ist nun q < t < 1, dann zeigt man mit einem ähnlichen Argument,<br />

dass 1 > g n (t) ↓ L ≥ q ist und L = g(L). Nach Lemma 1.9 gibt es in (q, 1) keine weitere<br />

Lösungen, was L = q impliziert.<br />

1.3 Aussterbewahrscheinlichkeit<br />

Definition 1.11. Das Aussterbeereignis des Verzweigungsprozesses (Z n ) n≥0 ist definiert durch<br />

∞⋃ ∞⋂<br />

{ }<br />

n→∞<br />

Q := {Z k = 0} = Z n −−−→ 0 = { es gibt ein N mit Z n = 0 für alle n ≥ N}<br />

n=1 k=n<br />

und die dessen Wahrscheinlichkeit heißt die Aussterbewahrscheinlichkeit.<br />

Da aus Z k = 0 stets Z n = 0 für n ≥ k folgt, gilt auch (Übungsaufgabe!)<br />

∞⋃<br />

Q = {Z n = 0}.<br />

Damit ist<br />

[ n<br />

]<br />

⋃<br />

P[Q] = lim<br />

n→∞ P {Z k = 0}<br />

k=1<br />

n=1<br />

= lim<br />

n→∞ P[Z n = 0] = lim<br />

n→∞ g n(0).<br />

Es gilt also das folgende Theorem.<br />

= lim<br />

n→∞ P [Z k = 0 für ein 1 ≤ k ≤ n]<br />

Theorem 1.12. Die Aussterbewahrscheinlichkeit des Verzweigungsprozesses (Z n ) n≥0 ist die<br />

kleinste Lösung q von g(t) = t in [0, 1]. Dabei ist q = 1, wenn m ≤ 1 und q < 1 wenn m > 1.<br />

Außerdem kann man sich überlegen, dass bis auf den absorbierenden Zustand 0 alle Zustände<br />

eines Verzweigungsprozesses transient sind. Für k ≥ 1 gilt nämlich<br />

{<br />

p k 0 falls p 0 > 0,<br />

P[Z n+i ≠ k, i ≥ 1|Z n = k] ≥<br />

1 − p k 1 falls p 0 = 0.<br />

Hier ist p k 0 die Wahrscheinlichkeit, dass alle k Individuen in einem Schritt aussterben ohne<br />

Nachkommen zu produzieren und 1 − p k 1 ist die Wahrscheinlichkeit, dass mindestens einer der k<br />

Individuen mehr als einen Nachkommen hat. In jedem Fall ist die rechte Seite im letzten Display<br />

positiv, was die Transienz zeigt. Wir fassen das Resultat im nächstem Theorem zusammen.<br />

Theorem 1.13. Für alle k ≥ 1 gilt (u.o. steht unten für unendlich oft)<br />

Ferner gilt<br />

lim P[Z n = k] = P[Z n = k u.o. ] = 0.<br />

n→∞<br />

P[ lim<br />

n→∞ Z n = 0] = 1 − P[ lim<br />

n→∞ Z n = ∞] = q.<br />

6


1 Bienaymé-Galton-Watson-Prozess<br />

1.4 Kritische Verzweigungsprozesse<br />

Hier betrachten wir genauer den kritischen Fall m = 1. Wir wissen bereits, dass<br />

P[Z n → 0] = 1,<br />

E[Z n ] = 1,<br />

Var[Z n ] → ∞.<br />

Ist also Z n nicht 0 sollte man wegen der großen Varianz auch große Werte erwarten.<br />

Lemma 1.14. Es sei m = 1 und σ 2 < ∞. Dann gilt<br />

[<br />

1 1<br />

lim<br />

n→∞ n 1 − g n (s) − 1 ]<br />

= σ2<br />

1 − s 2<br />

(1.6)<br />

gleichmäßig in s ∈ [0, 1).<br />

Beweis. Es sei s ∈ [0, 1). Mit Taylorentwicklung in 1 gilt<br />

g(s) = g(1) + g ′ (1)(s − 1) + g′′ (1)<br />

2 (1 − s)2 + r(s)(1 − s) 2 ,<br />

für ein r mit lim s↑1 r(s) = 0. Mit g(1) = 1, g ′ (1) = m = 1 und σ 2 = g ′′ (1)+g ′ (1)−(g ′ (1)) 2 = g ′′ (1)<br />

(siehe Lemma 1.6) erhalten wir<br />

Es folgt<br />

g(s) = s + σ2<br />

2 (1 − s)2 + r(s)(1 − s) 2 .<br />

1<br />

1 − g(s) − 1<br />

σ<br />

1 − s = g(s) − s<br />

2<br />

(1 − g(s))(1 − s) = 2 (1 − s)2 + r(s)(1 − s) 2<br />

(1 − g(s))(1 − s)<br />

= 1 − s<br />

1 − g(s)<br />

( σ<br />

2<br />

2 + r(s) )<br />

= σ2<br />

2 + ρ(s),<br />

wobei<br />

ρ(s) :=<br />

1<br />

1 − g(s) − 1<br />

1 − s − σ2<br />

2 = 1 − s ( ) σ<br />

2<br />

1 − g(s) 2 + r(s) − σ2<br />

2<br />

→ 0 für s ↑ 1.<br />

Wir können diese Gleichung iterieren und erhalten<br />

[<br />

1 1<br />

n 1 − g n (s) − 1 ]<br />

1 − s<br />

= 1 n−1<br />

∑<br />

[<br />

]<br />

1<br />

n 1 − g(g j (s)) − 1<br />

1 − g j (s)<br />

j=0<br />

= σ2<br />

2 + 1 n−1<br />

∑<br />

ρ(g j (s)).<br />

n<br />

Da g n (0) ≤ g n (s) ≤ 1 und g n (0) ↑ 1 ist die Konvergenz g n (s) → 1 uniform in s ∈ [0, 1). Da ρ<br />

beschränkt ist folgt die Behauptung.<br />

j=0<br />

7


1 Bienaymé-Galton-Watson-Prozess<br />

Theorem 1.15. Ist m = 1 und σ 2 < ∞, so gilt<br />

(i)<br />

(ii)<br />

(iii)<br />

Beweis.<br />

lim nP[Z n > 0] = 2<br />

n→∞ σ 2 ,<br />

[<br />

lim E Zn<br />

n→∞ n |Z n > 0<br />

]<br />

= σ2<br />

2 ,<br />

[<br />

Zn<br />

lim<br />

n→∞ P n ≤ u|Z n > 0<br />

]<br />

= 1 − e −2u/σ2 , u ≥ 0.<br />

(i) Mit s = 0 in (1.6) gilt<br />

[ (<br />

) 1 1<br />

nP[Z n > 0] = n(1 − g n (0)) =<br />

n 1 − g n (0) − 1 + 1 ] −1<br />

→ 2 n σ 2 .<br />

(ii) Allgemein gilt für Verzweigungsprozesse E[Z n ] = E[Z n |Z n > 0]P[Z n > 0] + 0 · P[Z n = 0]<br />

und somit E[Z n |Z n > 0] = E[Z n ]/P[Z n > 0]. Damit und mit (i) erhalten wir<br />

[ ]<br />

Zn<br />

E<br />

n |Z 1<br />

n > 0 =<br />

nP[Z n > 0] → σ2<br />

2 .<br />

(iii) Wir haben zu zeigen, dass bedingt auf Z n > 0 die Folge Z n /n gegen eine exponentiell<br />

verteilte Zufallsvariable mit Parameter 2/σ 2 in Verteilung konvergiert. Dazu reicht es<br />

zu zeigen, dass die bedingte Laplace-Transformierte E [exp(−uZ n /n)|Z n > 0] gegen die<br />

Laplace-Transformierte der Exponentialverteilung mit Parameter 2/σ 2 konvergiert. Letztere<br />

ist gegeben durch<br />

u ↦→<br />

∫ ∞<br />

0<br />

e −ux 2 σ 2 e− 2<br />

σ 2 x dx =<br />

Wenn u = 0 ist, dann ist nichts zu zeigen. Für u > 0 gilt<br />

1<br />

1 + uσ 2 /2 .<br />

g n (exp(−u/n)) = E [ exp(−u/n) Zn] = E [exp(−uZ n /n)]<br />

= E [exp(−uZ n /n)|Z n > 0] P[Z n > 0] + 1 · P[Z n = 0]<br />

= E [exp(−uZ n /n)|Z n > 0] (1 − g n (0)) + g n (0).<br />

Nun können wir nach dem bedingten Erwartungswert auflösen und erhalten<br />

E [exp(−uZ n /n)|Z n > 0] = g n(exp(−u/n)) − g n (0)<br />

1 − g n (0)<br />

Den zweiten Term können wir wie folgt umschreiben<br />

= 1 − 1 − g n(exp(−u/n))<br />

.<br />

1 − g n (0)<br />

[<br />

1 1<br />

n(1 − g n (0)) n ·<br />

=<br />

1<br />

n(1 − g n (0))<br />

1<br />

1 − g n (exp(−u/n))<br />

[ ( 1<br />

n<br />

] −1<br />

1<br />

1 − g n (exp(−u/n)) − 1<br />

n→∞<br />

−−−→ σ2<br />

2<br />

1 − exp(−u/n)<br />

( σ<br />

2<br />

2 + 1 u<br />

)<br />

+ 1 n ·<br />

]<br />

1 −1<br />

1 − exp(−u/n)<br />

) −1<br />

= σ2 u<br />

σ 2 u + 2 = 1 − 1<br />

σ 2 u/2 + 1 .<br />

8


1 Bienaymé-Galton-Watson-Prozess<br />

Damit folgt<br />

E [exp(−uZ n /n)|Z n > 0] n→∞ −−−→<br />

1<br />

σ 2 u/2 + 1 .<br />

1.5 Wichtiges Lemma<br />

Bevor wir mit den Sub- und Superkritischen Fällen weitermachen beweisen wir hier ein Lemma,<br />

das im Folgenden wichtig sein wird. Dazu betrachten wir die Taylorentwicklung von g um 1:<br />

Es gilt<br />

und<br />

g(s) = 1 − m(1 − s) + r(s)(1 − s), 0 ≤ s ≤ 1. (1.7)<br />

r(s) = m − 1 − g(s)<br />

1 − s ,<br />

r(0) = m − (1 − p 0 ) ≥ 0,<br />

r(q) = m − 1, wenn q < 1,<br />

r(1−) = 0,<br />

r ′ (s) ≤ 0, 0 ≤ s < 1.<br />

Damit ist r eine fallende Funktion von [0, 1) nach [0, m].<br />

Lemma 1.16. Für alle δ ∈ (0, 1) gilt<br />

∞∑<br />

r(1 − δ k ) < ∞ ⇐⇒<br />

k=1<br />

∞∑<br />

p k k log k < ∞. (1.8)<br />

Die Bedingung auf der rechten Seite ist gleichbedeutend mit E 1 [Z 1 log Z 1 ] < ∞.<br />

Beweis. Für s ∈ [0, 1) gilt<br />

n=0<br />

k=1<br />

)<br />

∞∑<br />

∞∑<br />

r(s) = m − s<br />

(1 n − p k s k<br />

∞∑ ∞∑<br />

= m − s n +<br />

n=0<br />

k=0<br />

n=0<br />

( n∑<br />

k=0<br />

p k<br />

)<br />

s n = m −<br />

∞∑<br />

a n s n ,<br />

n=0<br />

wobei<br />

∞∑<br />

a n = p k .<br />

k=n+1<br />

9


1 Bienaymé-Galton-Watson-Prozess<br />

Man beachte auch, dass ∑ ∞<br />

n=0 a n = m ist. Wir schreiben α = − log δ (sodass e −αx = δ x ) und<br />

fixieren ein j ∈ N, j > 1. Einerseits erhalten wir durch Abschätzung des Integrals durch die<br />

Untersumme<br />

∫ j<br />

j∑<br />

j∑<br />

r(1 − δ) + r(1 − e −αx ) dx ≥ r(1 − δ) + r(1 − δ k ) = r(1 − δ k ).<br />

1<br />

Da die letzte Summe aber die Obersumme enthält folgt andererseits auch<br />

j∑<br />

∫ j<br />

r(1 − δ k ) ≥ r(1 − e −αx ) dx.<br />

k=1<br />

Nach Substitution s = 1 − e −αx folgt<br />

Insgesamt ist also<br />

r(1 − δ) + 1 α<br />

∫ j<br />

1<br />

r(1 − e −αx ) dx = 1 α<br />

∫ 1−δ j<br />

1−δ<br />

1<br />

k=2<br />

∫ 1−δ j<br />

1−δ<br />

r(s)<br />

1 − s ds.<br />

r(s)<br />

j∑<br />

1 − s ds ≥ r(1 − δ k ) ≥ 1 α<br />

Da diese Ungleichung für alle j > 1 und δ > 0 gilt folgt<br />

∞∑<br />

∫ 1<br />

r(1 − δ k r(s)<br />

) < ∞ ⇐⇒ ds < ∞.<br />

1 − s<br />

k=1<br />

k=1<br />

0<br />

k=1<br />

∫ 1−δ j<br />

Als nächstes schauen wir uns an, wann die rechte Seite endlich ist. Es gilt<br />

r(s)<br />

∞<br />

1 − s = ∑<br />

∞∑<br />

∞∑ ∑<br />

∞<br />

s k (m − a n s n ) = s k a n (1 − s n )<br />

und damit<br />

0 ≤<br />

∫ 1<br />

0<br />

=<br />

k=0<br />

n=0<br />

∞∑ ∑<br />

∞<br />

a n (s k − s k+n ) =<br />

n=0<br />

k=0<br />

∫<br />

r(s)<br />

1<br />

1 − s ds =<br />

=<br />

0<br />

∞∑<br />

n=0<br />

∞∑<br />

a n<br />

n−1<br />

n=0 k=0<br />

n−1<br />

∑<br />

a n<br />

1<br />

k=0<br />

k=0<br />

∞∑<br />

n=0<br />

∑<br />

s k ds<br />

n=0<br />

∑<br />

n−1<br />

a n s k<br />

k=0<br />

1−δ<br />

r(s)<br />

1 − s .<br />

∞<br />

k + 1 = ∑<br />

a n (log n + O(1)).<br />

Die rechte Seite ist genau dann endlich, wenn ∑ ∞<br />

n=1 a n log n endlich ist. Es gilt<br />

∞∑<br />

∞∑ ∑<br />

a n log n = p k log n<br />

n=1<br />

=<br />

=<br />

n=1 k>n<br />

∞∑<br />

k=2<br />

∑<br />

log n =<br />

p k<br />

k−1<br />

n=1<br />

n=1<br />

∞∑<br />

p k log ((k − 1)!)<br />

k=2<br />

∞∑<br />

p k [(k − 1) log(k − 1) + o(k log k)] .<br />

k=2<br />

10


1 Bienaymé-Galton-Watson-Prozess<br />

Wobei man die letzte Gleichung mit der Stirling-Formel (n! ∼ √ 2πn(n/e) n ) bekommt. Insgesamt<br />

erhalten wir, dass ∑ ∞<br />

n=1 a n log n genau dann endlich ist, wenn ∑ ∞<br />

k=1 p kk log k endlich ist.<br />

1.6 Subkritische Verzweigungsprozesse<br />

In diesem Abschnitt betrachten wir den subkritischen Fall m < 1. Wenn wir die Taylorentwicklung<br />

von g um 1 (siehe (1.7)) auf g k (s) anwenden, dann erhalten wir<br />

bzw.<br />

g k+1 (s) = g(g k (s)) = 1 − m(1 − g k (s)) + r(g k (s))(1 − g k (s)), (1.9)<br />

1 − g k+1 (s)<br />

1 − g k (s)<br />

Teleskopprodukt dieser Gleichungen liefert<br />

(<br />

= m 1 − r(g )<br />

k(s))<br />

. (1.10)<br />

m<br />

1 − g n (s)<br />

1 − s<br />

n−1<br />

∏<br />

= m n<br />

k=0<br />

(<br />

1 − r(g )<br />

k(s))<br />

. (1.11)<br />

m<br />

Da 0 ≤ r(s)/m ≤ 1 für s ∈ [0, 1] ist, gibt es zu jedem s ∈ [0, 1] ein φ(s) ≥ 0 mit<br />

Insbesondere ist<br />

m −n 1 − g n(s)<br />

1 − s<br />

↓ φ(s), für n → ∞. (1.12)<br />

P[Z n > 0] = 1 − g n (0) ∼ m n φ(0), (1.13)<br />

wobei wir wie üblich a n ∼ b n schreiben, falls a n /b n → 1 für n → ∞.<br />

Ein nützliches und leicht zu beweisendes Kriterium, das Konvergenz von Reihen und Produkten<br />

in Verbindung bringt ist das folgende Resultat (Übung!).<br />

Lemma 1.17. Es sei (a n ) n≥0 eine Folge mit 0 ≤ a n ≤ 1. Dann konvergiert ∏ ∞<br />

n=1 (1 − a n) genau<br />

dann gegen eine positive Zahl, wenn die Reihe ∑ ∞<br />

n=1 a n konvergiert.<br />

Mit diesem Lemma gilt φ(0) > 0 genau dann, wenn ∑ ∞<br />

k=0 r(g k(0)) < ∞. Aus 1 − g(s) ≤<br />

m(1 − s) (was z.B. aus (1.7) folgt) erhalten wir induktiv<br />

1 − g k (s) ≤ m k (1 − s)<br />

für alle k. Aus der Konvexität von g folgt für s ≥ s 0<br />

woraus wir induktiv<br />

1 − g(s)<br />

1 − s<br />

≥ g ′ (s 0 ),<br />

1 − g k (s) ≥ (g ′ (s 0 )) k (1 − s)<br />

erhalten. Mit s 0 = p 0 (was zwangsläufig positiv im subkritischen Fall ist) und a = g ′ (p 0 ) folgt<br />

1 − m k ≤ g k (0) = g k−1 (g(0)) = g k−1 (p 0 ) ≤ 1 − a k−1 (1 − p 0 ) ≤ 1 − b k ,<br />

wobei b k = a ∧ (1 − p 0 ) ist. Nach Lemma 1.16 gilt also ∑ ∞<br />

k=0 r(g k(0)) < ∞ genau dann, wenn<br />

∑ ∞<br />

k=1 p kk log k < ∞ ist. Es gilt also das folgende Theorem.<br />

11


1 Bienaymé-Galton-Watson-Prozess<br />

Theorem 1.18. Für einen subkritischen Verzweigungsprozess (Z n ) n≥0 gilt<br />

{<br />

0 : wenn ∑ ∞<br />

lim<br />

n→∞ m−n k=1<br />

P[Z n > 0] =<br />

p kk log k = ∞,<br />

φ(0) > 0 : sonst.<br />

Nun beweisen wir noch das Theorem von Yaglom, das eine Aussage über das Verhalten des<br />

subkritischen Prozesses zur Zeit n macht bedingt auf Überleben bis zu dieser Zeit.<br />

Theorem 1.19. Im subkritischen Fall (mit p 0 < 1) existiert<br />

für alle k ∈ N, und es gilt<br />

lim P[Z n = k|Z n > 0] = b k , (1.14)<br />

n→∞<br />

∞∑<br />

b k = 1, (1.15)<br />

k=1<br />

∞∑<br />

kb k = 1<br />

∞ φ(0) < ∞ ⇐⇒ ∑<br />

p k k log k < ∞. (1.16)<br />

k=1<br />

Ferner gilt für die erzeugende Funktion f(s) := ∑ ∞<br />

k=1 kb k der Verteilung (b k : k ∈ N):<br />

Beweis. Wir definieren<br />

k=1<br />

f(g(s)) = mf(s) + 1 − m.<br />

f n (s) = E[s Zn |Z n > 0] = g n(s) − g n (0)<br />

1 − g n (0)<br />

n−1<br />

∏ 1 − r(g k (s))/m<br />

= 1 − (1 − s)<br />

1 − r(g k (0))/m<br />

k=0<br />

= 1 − 1 − g n(s)<br />

1 − g n (0)<br />

da g k nicht-fallend und r nicht-wachsend sind, konvergieren die Terme in dem Produkt von oben<br />

gegen 1 für k → ∞. Es gibt also eine Funktion f mit f n ↑ f für n → ∞. Da f n erzeugende<br />

Funktionen (von positiven ZV) sind gilt<br />

∞∑<br />

f(s) = b k s k .<br />

Insbesondere ist f(0) = 0. Ferner gilt für n → ∞<br />

f n (g k (0)) = 1 − 1 − g n(g k (0))<br />

1 − g n (0)<br />

k=1<br />

= 1 − 1 − g k(g n (0))<br />

1 − g n (0)<br />

→ 1 − m k .<br />

Die rechte Seite konvergiert gegen 1 und somit (da g k (0) → 1 gilt) f(1−) = 1, was (1.15) zeigt.<br />

Die Aussage (1.16) folgt mit Theorem 1.18 aus<br />

∞∑<br />

kb k = f ′ 1 − f(g k (0))<br />

1<br />

(1−) = lim<br />

= lim<br />

k→∞ 1 − g k (0) k→∞ mk 1 − g k (0) = 1<br />

φ(0) .<br />

k=1<br />

Schließlich folgt die letzte Aussage aus<br />

f n (g(s)) = 1 − 1 − g n+1(s)<br />

1 − g n+1 (0) · 1 − g(g n(0))<br />

= 1 − (1 − f n+1 (s)) · 1 − g(g n(0))<br />

→ 1 − (1 − f(s))m.<br />

1 − g n (0)<br />

1 − g n (0)<br />

12


1 Bienaymé-Galton-Watson-Prozess<br />

1.7 Superkritische Verzweigungsprozesse<br />

In diesem Abschnitt beschäftigen wir uns hauptsächlich mit dem superkritischen Fall, m > 1.<br />

Einige Aussagen gelten aber für jedes m ∈ (0, ∞). Wir werden hier einige Resultate aus der<br />

Martingaltheorie voraussetzen müssen. Wir verweisen an dieser Stelle auf z.B.(Klenke 2006).<br />

Es sei also m ∈ (0, ∞) und (Z n ) n≥0 ein Verzweigungsprozess aus Definition 1.1. Mit Markoveigenschaft<br />

(und zeitlicher Homogenität) erhalten wir<br />

E[Z n+k |Z n = i n , Z n−1 = i n−1 , . . . , Z 1 = i 1 , Z 0 = i 0 ]<br />

Für W n := m −n Z n folgt<br />

= E[Z n+k |Z n = i n ] = i n E[Z k |Z 1 = 1] = i n m k .<br />

E[W n+k |W 0 , . . . , W n ] = m −(n+k) E[Z n+k |Z n ] = m −(n+k) m k Z n = W n , f.s. (1.17)<br />

Es gilt also das folgende Theorem.<br />

Theorem 1.20. Es sei m ∈ (0, ∞), F n = σ(Z 0 , . . . , Z n ) die natürliche Filtration von (Z n ) n≥0 .<br />

Dann ist (W n , F n ; n = 0, 1, . . . ) ein nicht-negatives Martingal und es gibt eine Zufallsvariable<br />

W mit<br />

W n<br />

n→∞<br />

−−−→ W f.s. (1.18)<br />

Beweis. Die Martingaleigenschaft wurde in (1.17) bereits gezeigt und (1.18) folgt mit bekannten<br />

Martingalkonvergenzsätzen. Man beachte, dass W n ein nicht-negatives Supermartingal ist und<br />

siehe z.B. Korollar 11.5 in (Klenke 2006).<br />

Nach dem obigen Theorem ist es klar, dass Z n (ω) sich asymptotisch wie m n W (ω) verhält.<br />

Martingalkonvergenzsätze liefern aber nicht ausreichend Informationen über W . Nach dem Lemma<br />

von Fatou haben wir zwar<br />

E[W ] = E[ lim<br />

n→∞ W n] ≤ lim inf<br />

n→∞ E[W n] = E[Z 0 ], (1.19)<br />

es schließt aber nicht aus, dass E[W ] = 0 und somit W = 0 f.s. gilt. Im kritischen und subkritischen<br />

Fall gilt für genügend große n Z n = 0 f.s. und somit gilt in diesen Fällen auch W = 0<br />

f.s. Wir betrachten also im Folgenden den superkritischen Fall m > 1 und interessieren uns für<br />

Bedingungen unter denen {W > 0} positive Wahrscheinlichkeit hat. Das erste Resultat geht von<br />

endlichen zweiten Momenten aus und ist relativ einfach.<br />

Theorem 1.21. Ist m > 1, σ 2 < ∞ und Z 0 = 1, dann gilt<br />

(i) lim n→∞ E [ (W n − W ) 2] = 0, d.h. W n<br />

(ii) E[W ] = 1, Var[W ] =<br />

σ 2<br />

m 2 − m ;<br />

(iii) P[W = 0] = q = P[Z n = 0 für ein n].<br />

n→∞<br />

−−−→ W in L 2 ;<br />

13


1 Bienaymé-Galton-Watson-Prozess<br />

Beweis. Aus (1.5) und (1.4) erhalten wir<br />

E[Wn] 2 = 1<br />

m 2n E[Z2 n] = 1<br />

m 2n (Var[Z n] + E 2 [Z n ]) = 1 ( σ 2 m n−1 (m n )<br />

− 1)<br />

m 2n + m 2n<br />

m − 1<br />

= σ2 (1 − m −n )<br />

m 2 − m + 1.<br />

Es folgt sup n E[W 2 n] = lim n→∞ E[W 2 n] = σ 2 /(m 2 − m) + 1 < ∞. Die Aussagen (i) und (ii) folgen<br />

also mit L 2 -Konvergenzsatz (siehe z.B. Korollar 11.11 in (Klenke 2006)).<br />

Sei nun r = P[W = 0]. Aus E[W ] = 1 folgt r < 1. Ferner gilt<br />

r =<br />

∞∑<br />

P[W = 0|Z 1 = k]P[Z 1 = k] =<br />

k=0<br />

∞∑<br />

p k (P[W = 0]) k =<br />

k=0<br />

∞∑<br />

p k r k = g(r).<br />

Da die Gleichung g(s) = s eine eindeutige Lösung in (0, 1) hat muss r = q gelten.<br />

Das folgende Theorem von Seneta und Heyde besagt, dass man einen superkritischen Verzweigungsprozess<br />

stets so reskalieren kann, dass der reskalierte Prozess fast sicher gegen eine<br />

nicht-triviale Zufallsvariable konvergiert.<br />

Theorem 1.22. Es sei 1 < m < ∞ und Z 0 = 1. Dann gibt es eine Folge (C n ) n∈N0 von positiven<br />

Zahlen so, dass<br />

• C n+1 /C n → m für n → ∞;<br />

• ˜W n := Z n /C n konvergiert fast sicher gegen eine Zufallsvariable ˜W , die fast sicher endlich<br />

und nicht-negativ ist. Ferner gilt P[˜W = 0] = q.<br />

Beweis. Sei g 0 (s) = s die Identität auf [0, 1] und sei gn<br />

−1 die Inverse von g n , wobei wir g −1 für<br />

g1 −1 schreiben. Die Funktion g −1 ist wachsend, konkav und differenzierbar. Außerdem bildet sie<br />

das Intervall [q, 1] bijektiv auf sich selbst ab.<br />

Wegen g(s) ≤ s für q ≤ s ≤ 1 gilt g −1 (s) ≥ s und daher gibt es ein g∞<br />

−1<br />

gilt<br />

s = g n (gn<br />

−1 (s)) ≤ g n (g∞ −1 (s)) → q<br />

k=0<br />

mit g −1<br />

n<br />

↑ g −1<br />

∞ . Ferner<br />

wenn g∞ −1 (s) < 1. Also muss g∞ −1 (s) = 1 für s > q gelten.<br />

Für s ∈ [q, 1] setze X n (s) := ( gn<br />

−1 (s) ) Z n<br />

. Diese Folge ist ein nicht-negatives Martingal, denn<br />

es gilt f.s.<br />

[ (g ] [<br />

−1<br />

E[X n+1 (s)|F n ] = E n+1 (s)) Z n+1 (g ]<br />

−1<br />

|F n = E n+1 (s)) Z Zn 1<br />

= g(g<br />

−1<br />

n+1 (s))Zn<br />

= (gn<br />

−1 (s)) Zn = X n (s).<br />

Es gibt also X ∞ (s) mit X n (s) → X ∞ (s) f.s. Wegen 0 ≤ X n (s) ≤ 1 können wir den Satz von<br />

dominierter Konvergenz benutzen und erhalten<br />

E[X ∞ (s)] = E[X 1 (s)] = s.<br />

14


1 Bienaymé-Galton-Watson-Prozess<br />

Die Folge (X 2 n(s)) ist ein [0, 1]-wertiger Submartingal. Für s < 1 gilt daher (hier ist nach unserer<br />

Annahme 1.1 Z 1 nicht-trivial in dem Sinne, dass P[Z 1 = 0] < 1)<br />

E[X 2 ∞(s)] ≥ E[X 2 1(s)] > E 2 [X 1 (s)].<br />

Insgesamt ist X ∞ (s) eine Zufallsvariable mit positiver Varianz.<br />

Wir definieren C n (s) := (− log gn<br />

−1 (s)) −1 und ˜W (s) := − log X ∞ (s) (der Wert unendlich ist<br />

zunächst mal nicht ausgeschlossen). Es gilt nun<br />

1<br />

C n (s) Z n = − log(g −1<br />

n (s))Z n = − log(X n (s)) → ˜W (s) f.s.<br />

Um zu zeigen, dass ˜W (s) f.s. endlich ist betrachten wir die Taylorentwicklung von g. Wie wir<br />

im Abschnitt 1.5 gesehen haben ist<br />

1 − g(s) = (m − r(s))(1 − s).<br />

Ersetzen wir s durch g −1 (s) für q < s < 1 dann gilt<br />

Produkt über k = 1, . . . , n liefert<br />

k<br />

1 − g −1<br />

k<br />

(s)<br />

1 − g −1<br />

k−1 (s) = 1<br />

m(1 − r(g −1<br />

k<br />

(s))/m).<br />

m n (1 − g −1<br />

n (s)) =<br />

∏ n<br />

k=1<br />

1 − s<br />

(1.20)<br />

(1 − r(g−1<br />

k<br />

(s))/m).<br />

Wegen − log x ∼ 1 − x für x ↑ 1 und gn<br />

−1 (s) ↑ 1 für n → ∞ und s > q folgt<br />

lim<br />

n→∞<br />

C n (s)<br />

C n−1 (s) = lim 1 − g −1<br />

n→∞<br />

Nun können wir die f.s. Endlichkeit von ˜W zeigen. Es gilt<br />

P[˜W (s) < ∞] = E[P[ lim<br />

[ [<br />

= E P<br />

n→∞ C−1<br />

lim<br />

n→∞<br />

(<br />

= g P[˜W (s) < ∞]<br />

n−1 (s)<br />

1 − g −1 n (s) = m.<br />

n (s)Z n < ∞|Z 1 ]]<br />

] ]<br />

C n−1 (s)<br />

Z1<br />

C n (s) C−1 n−1 (s)Z n−1 < ∞<br />

)<br />

.<br />

Analog zeigt man, dass<br />

(<br />

)<br />

P[˜W (s) = 0] = g P[˜W (s) = 0] .<br />

Da die Wahrscheinlichkeit auf der linken Seite kleiner 1 ist, folgt P[˜W (s) = 0] = q. Schließlich<br />

ist<br />

s = E[X ∞ (s)] = E[e −˜W (s) ] ≤ P[˜W (s) < ∞]<br />

und somit ist P[˜W (s) < ∞] = 1 für s > q. Ansonsten hätten wir nach Lemma 1.10 q < s ≤<br />

P[˜W (s) < ∞] = g n (P[˜W (s) < ∞]) → q für n → ∞, was zu einem Widerspruch führt.<br />

15


1 Bienaymé-Galton-Watson-Prozess<br />

Das folgende Theorem von Kesten und Stigun benutzt wieder die bekannte E[Z 1 log Z 1 ] < ∞<br />

Bedingung um die Reskalierungsfolge aus dem vorherigen Theorem genauer anzugeben.<br />

Theorem 1.23. Es sei 1 < m < ∞, Z 0 = 1 und setzte W n := m −n Z n und W := lim n→∞ W n . Ist<br />

E[Z 1 log Z 1 ] < ∞, dann gilt W n → W in L 1 und insbesondere E[W ] = 1. Ist E[Z 1 log Z 1 ] = ∞,<br />

dann ist E[W ] = 0 (was wegen W ≥ 0 f.s. zu P[W = 0] = 1 äquivalent ist).<br />

Beweis. Für q < s < 1 gilt gn<br />

−1 (s) ↑ 1 und somit Cn<br />

−1 (s) = − log gn<br />

−1 (s) ∼ 1−gn −1 (s) für n → ∞.<br />

Mit (1.20) folgt<br />

lim<br />

n→∞ C−1 n<br />

(s)m n < ∞ ⇔<br />

∞∏<br />

(1 − r(g −1<br />

k (s))/m) > 0<br />

k=1<br />

und nach Lemma 1.17 gilt<br />

lim<br />

n→∞ C−1 n<br />

(s)m n < ∞ ⇔<br />

∞∑<br />

k=1<br />

r(g −1<br />

k<br />

(s)) < ∞. (1.21)<br />

Wähle nun q < s 0 < 1 mit m 0 := g ′ (s 0 ) > 1. Für s 0 ≤ s < 1 gibt es nach dem Mittelwertsatz<br />

ein ŝ ∈ [s, 1] mit (1 − g(s))/(1 − s) = g ′ (ŝ) und wegen der Konvexität gilt m 0 ≤ g ′ (ŝ) ≤ m. Es<br />

folgt<br />

m 0 ≤ 1 − g(s)<br />

1 − s<br />

≤ m<br />

und somit<br />

m 0 ≤<br />

Mit Teleskopprodukt erhalten wir wieder<br />

1 − g k(s)<br />

1 − g k−1 (s) ≤ m.<br />

m n 0 (1 − s) ≤ 1 − g n (s) ≤ m n (1 − s),<br />

woraus wir durch Substitution von gn<br />

−1 (s) für s<br />

1 − m −n<br />

0 (1 − s) ≤ g−1 n (s) ≤ 1 − m −n (1 − s)<br />

erhalten. Für genügend große k ∈ N gilt m −k<br />

0 ≤ 1 − s und somit folgt<br />

1 − m −n−k<br />

0 ≤ 1 − m −n<br />

0 (1 − s) ≤ g−1 n (s) ≤ 1 − m −n 1 − s) ≤ 1 − m −n .<br />

Auf diese Ungleichung wenden wir die Funktion r an, die auf (0, 1] wachsend ist und erhalten<br />

r(1 − m −n−k<br />

0 ) ≤ r(1 − m −n<br />

0 (1 − s)) ≤ r(g−1 n (s)) ≤ r(1 − m −n (1 − s)) ≤ r(1 − m −n ).<br />

Wir summieren über n, nutzen (1.21) und Lemma 1.16 und bekommen<br />

E[Z 1 log Z 1 ] < ∞ ⇔<br />

lim<br />

n→∞ C−1 n (s)m n < ∞,<br />

16


1 Bienaymé-Galton-Watson-Prozess<br />

d.h. wir können C n = m n als Reskalierungsfolge in Theorem 1.22 nehmen. Ist E[Z 1 log Z 1 ] = ∞<br />

so folgt m −n Z n → 0 f.s.<br />

Es bleibt zu zeigen, dass W n gegen W in L 1 konvergiert, was wiederum aus gleichgradiger<br />

Integrierbarkeit von W n folgt. Dafür reicht es zu zeigen, dass E[sup n W n ] < ∞. Es gilt<br />

P[W > at] ≥ P[W > at, sup W n > t]<br />

=<br />

=<br />

=<br />

n<br />

∞∑<br />

P[W > at, W n > t, W k ≤ t für 0 ≤ k < n]<br />

n=0<br />

∞∑<br />

P[W > at|Z n > tm n , W k ≤ t für 0 ≤ k < n]P[W n > t, W k ≤ t für 0 ≤ k < n]<br />

n=0<br />

∞∑<br />

P[W > at|Z n > tm n ]P[W n > t, W k ≤ t für 0 ≤ k < n],<br />

n=0<br />

wobei wir hier die Markoveigenschaft benutzt haben. Seien W (j) u.i.v. Kopien von W . Auf dem<br />

Ereignis {Z n > tm n } starten zur Zeit n mindestens (ganzzahliger Anteil von) tm n u.i.v. Familien<br />

von Verzweigungsprozessen. Damit gilt<br />

⎡<br />

⎤<br />

P[W > at|Z n > tm n ] ≥ P ⎣ 1 ∑<br />

W (j) > a⎦ .<br />

tm n tm n<br />

Nach dem Gesetz der großen Zahlen gibt es für jedes positive a < E[W ] ein b > 0 mit<br />

⎡<br />

⎤<br />

P ⎣ 1 ∑<br />

W (j) > a⎦ > b<br />

tm n tm n<br />

j=1<br />

für alle n (die Wahrscheinlichkeit ist nämlich für alle n positiv und konvergiert gegen 1). Es folgt<br />

P[W > at] ≥ b<br />

∞∑<br />

n=0<br />

j=1<br />

P[W n > t, W k ≤ t für 0 ≤ k < n] = bP[sup W n > t].<br />

n<br />

für t ≥ 1 (für t < 1 ist die Wahrscheinlichkeit auf der rechten Seite gleich 1). Da sup n W n<br />

nicht-negativ ist gilt<br />

E[sup W n ] =<br />

n<br />

∫ ∞<br />

0<br />

≤ 1 + 1 b<br />

P[sup W n > t] dt<br />

n<br />

∫ ∞<br />

0<br />

P[W > at] dt = 1 + 1 ab<br />

∫ ∞<br />

0<br />

P[W > t] dt<br />

= 1 + 1 ab E[W ] < ∞. 17


1 Bienaymé-Galton-Watson-Prozess<br />

1.8 Beispiel: Die gebrochen-rationale Nachkommensverteilung<br />

Wir betrachten hier ein Beispiel, bei dem man die erzeugende Funktion von Z n direkt berechnen<br />

kann (was typischerweise kaum möglich ist).<br />

Für b, p ∈ (0, 1) mit b+p ≤ 1 sei p k = bp k−1 für k = 1, 2, . . . und p 0 = 1− ∑ ∞<br />

i=1 p i = 1−b/(1−p).<br />

Dann ist<br />

∞∑<br />

∞∑<br />

g(s) = p k s k = p 0 + bs (ps) k = 1 −<br />

b<br />

1 − p + bs<br />

(1.22)<br />

1 − ps<br />

und<br />

k=0<br />

k=0<br />

m = g ′ (1−) =<br />

b<br />

(1 − p) 2 .<br />

Man beachte, dass die Potenzreihe von g den Konvergenzradius 1/p hat. Für u, v aus dem<br />

Konvergenzbereich folgt mit (1.22)<br />

g(s) − g(u)<br />

g(s) − g(v) = s − u<br />

s − v · 1 − pv<br />

1 − pu . (1.23)<br />

Die Gleichung g(s) = s hat zwei Lösungen ̂q und 1, die auch zusammenfallen können. Wenn<br />

m > 1 ist, dann ist ̂q = q < 1; ist m = 1, so ist ̂q = q = 1; ist m < 1 so ist ̂q > 1 = q. Nehmen<br />

wir nun u = ̂q und v = 1 in (1.23), dann folgt für m ≠ 1<br />

1 − p<br />

1 − p̂q<br />

=<br />

g(s) − ̂q<br />

s − ̂q<br />

( g(s) − 1<br />

s − 1<br />

) −1<br />

.<br />

Hier hängt die linke Seite nicht von s ab und deswegen erhalten wir mit s ↑ 1 auf der rechten<br />

Seite<br />

Setzen wir das wieder in (1.23) ein, dann folgt<br />

und nach Iteration dieser Gleichung<br />

1 − p<br />

1 − p̂q = 1 m .<br />

g(s) − ̂q<br />

g(s) − 1 = 1 m · s − ̂q<br />

s − 1<br />

g n (s) − ̂q<br />

g n (s) − 1 = 1<br />

m n · s − ̂q<br />

s − 1 .<br />

Diese Gleichung kann man nun nach g n (s) auflösen und man erhält für m ≠ 1<br />

{<br />

̂q : wenn m > 1,<br />

g n (s) = 1 − mn (1 − ̂q)(s − 1)<br />

m n (s − 1) − (s − ̂q)<br />

n→∞<br />

−−−→<br />

Falls m = 1, dann ist b = (1 − p) 2 und ̂q = 1. Damit ist<br />

1 : wenn m < 1.<br />

g(s) =<br />

p − (2p − 1)s<br />

, (1.24)<br />

1 − ps<br />

18


1 Bienaymé-Galton-Watson-Prozess<br />

woraus man nach Iteration<br />

g n (s) =<br />

np − (np + p − 1)s<br />

1 − p + np − nps<br />

(1.25)<br />

erhält, was für n → ∞ gegen 1 konvergiert.<br />

Dadurch, dass man g n explizit kennt, kennt man einerseits natürlich die Verteilungen von Z n ,<br />

andererseits findet man leicht die Resultate vorheriger Abschnitte in diesem Spezialfall wieder.<br />

Ist beispielsweise m = 1, dann gilt (siehe (i) aus Theorem 1.15)<br />

nP[Z n > 0] = n(1 − g n (0)) = n<br />

(<br />

np<br />

1 −<br />

1 − p + np<br />

)<br />

n→∞<br />

−−−→ 1 − p =<br />

p<br />

2<br />

2p/(1 − p) ,<br />

wobei 2p/(1 − p) = Var[Z 1 ] = g ′′ (1) + g ′ (1) − (g ′ (1)) 2 ist (siehe Lemma 1.6).<br />

Im Fall m > 1 wissen wir, dass wegen g ′′ (1) < ∞ die Zufallsvariable W , gegen die Z n /m n<br />

fast sicher konvergiert, nicht-trivial ist und ein Atom in 0 hat mit P[W = 0] = q(= ̂q). In<br />

dem gebrochen-rationalen Fall können wir noch mehr sagen. Wir betrachten dazu die Laplace-<br />

Transformierte von W . Für λ ≥ 0 gilt<br />

Nun gilt m n (e − λ<br />

m n<br />

E[e −λW ] = lim<br />

n→∞ E[e− λ<br />

m n Z n<br />

] = lim<br />

n→∞ E[(e− λ<br />

m n ) Zn ] = lim g n(e − λ<br />

n→∞<br />

(<br />

)<br />

m n (1 − q)(e − λ<br />

m n − 1)<br />

= lim<br />

n→∞<br />

1 −<br />

m n (e − λ<br />

m n<br />

− 1) → −λ für n → ∞ und somit<br />

E[e −λW ] = 1 −<br />

− 1) − (e − λ<br />

m n − q)<br />

.<br />

m n )<br />

(1 − q)λ<br />

λ + (1 − q) . (1.26)<br />

Andererseits wissen wir, dass es ein W ∗ gibt W ∗ ∈ (0, ∞) f.s. und W = 0·1 {W =0} +W ∗ ·1 {W >0} .<br />

Damit ist<br />

Es folgt<br />

E[e −λW ] = P[W = 0] + (1 − P[W = 0])E[e −λW ∗ ] = q + (1 − q)E[e −λW ∗ ]. (1.27)<br />

E[e −λW ∗ ] = 1<br />

1 − q<br />

(<br />

1 − q −<br />

)<br />

(1 − q)λ<br />

= 1 −<br />

λ + (1 − q)<br />

(1 − q)λ<br />

λ + (1 − q) =<br />

1 − q<br />

λ + (1 − q) . (1.28)<br />

Dies ist (wie man leicht nachrechnet) die Laplace-Transformierte der Exp(1−q)-Verteilung. Also<br />

ist für eine unabhängige exponentiell mit Parameter (1 − q) verteilte Zufallsvariable W ∗<br />

W =<br />

{<br />

0 : mit Wahrscheinlichkeit q,<br />

W ∗ : mit Wahrscheinlichkeit 1 − q.<br />

1.9 “Verwandte” des Bienaymé-Galton-Watson Prozesses<br />

(1.29)<br />

Wir schließen dieses Kapitel mit einigen Verallgemeinerungen des Bienaymé-Galton-Watson Prozesses<br />

ab.<br />

19


1 Bienaymé-Galton-Watson-Prozess<br />

1.9.1 BGWP mit Immigration<br />

Bei diesem Prozess wird wie zuvor die Generation zur Zeit n + 1 aus den Nachkommen der<br />

Individuen der n-ten Generation gebildet, zusätzlich kommen (unabhängig viele) Individuen<br />

dazu, deren Anzahl gemäß einer vorgegebenen Verteilung verteilt ist.<br />

Es sei die Familie {ξ nk : n ∈ N 0 , k ∈ N} wie in Definition 1.1. Zusätzlich sei {ζ n : n ∈ N 0 } eine<br />

Folge u.i.v. N 0 -wertiger Zufallsvariablen (auch unabhängig von den ξ’s) mit erzeugenden Funktion<br />

h. Ein Bienaymé-Galton-Watson-Prozess mit Immigration (BGWI) ist eine Markovkette<br />

Y := (Y n ) n≥0 , die durch<br />

Y 0 = ζ 0 und Y n+1 =<br />

Y n ∑<br />

k=1<br />

ξ nk + ζ n+1 , n ≥ 0 (1.30)<br />

rekursiv definiert ist. Man könnte an dieser Stelle auch mit einer beliebigen ganzzahligen nichtnegativen<br />

Zufallsvariablen Y 0 starten. Die Notation wird dadurch aber ein wenig komplizierter.<br />

Je nachdem ob m = g ′ (1−) = 1, (< 1, > 1) ist, nennt man Y kritisch, (subkritisch, superkritisch).<br />

Im Prinzip ist nur der Fall P[ζ 0 = 0] < 1 interessant, da andernfalls Y n = 0 für alle n ist. Es<br />

ist klar, dass in diesem Fall der Zustand 0 nicht mehr absorbierend ist.<br />

Für s ∈ [0, 1] sei h n (s) = E[s Yn ], h(s) = h 0 (s) und (wie zuvor) g(s) = E[s ξ 11<br />

]. Dann ist mit<br />

F n := σ(ζ j , ξ jk : 0 ≤ j ≤ n)<br />

und man erhält iterativ<br />

E[s Y n+1<br />

|F n ] = (g(s)) Yn h(s)<br />

h n+1 = h · h n ◦ g bzw. h n =<br />

Es gibt also eine Funktion h ∞ mit h n ↓ h ∞ mit<br />

n∏<br />

h ◦ g j .<br />

j=0<br />

h ∞ = h · h ∞ ◦ g. (1.31)<br />

Da der Prozess Y nicht mehr in 0 absorbiert wird, liegt es nahe sich zu fragen ob und unter<br />

welchen Bedingungen es gegen nicht-triviale Zufallsvariablen konvergiert. Man muss also h ∞<br />

untersuchen.<br />

Für Beweise folgender Resultate verweisen wir auf (Jagers 1975, 3.1) bzw. auf (Lyons n.d.).<br />

Theorem 1.24. Es sei Y ein subkritischer BGWI. Dann konvergiert Y n in Verteilung gegen eine<br />

Zufallsvariable Y ∞ (die möglicherweise mit positiver Wahrscheinlichkeit den Wert ∞ annimmt)<br />

deren erzeugende Funktion die eindeutige Lösung h ∞ der Gleichung (1.31) ist. Ferner gilt<br />

d.h. in diesem Fall ist Y ∞ < ∞ f.s.<br />

h ∞ (1) = 1 ⇔ E[log + ζ 0 ] =<br />

∞∑<br />

P[ζ 0 = k] log k < ∞,<br />

k=2<br />

20


1 Bienaymé-Galton-Watson-Prozess<br />

Theorem 1.25. Ist m = 1, σ 2 = g ′′ (1−) < ∞ und 0 < a := h ′ (1) < ∞ dann konvergiert Y n /n<br />

in Verteilung gegen eine gamma verteilte Zufallsvariable mit Dichte<br />

w(x) =<br />

1<br />

Γ(α)β α xα−1 e −x/β , x > 0, (1.32)<br />

wobei α = 2a/σ 2 und β = σ 2 /2. Insbesondere ist im Falle a = σ 2 /2<br />

w(x) = 1 x<br />

σ 2 /2 e− σ 2 /2<br />

. (1.33)<br />

Bemerkung 1.26. In Theorem 1.15(iii) haben wir bereits gesehen, dass Z n /n bedingt auf {Z n ><br />

0} gegen eine Zufallsvariable mit Dichte w(x) aus (1.33) in Verteilung konvergiert. Zusammen<br />

mit obigem Theorem folgt also daraus, dass das Bedingen auf {Z n > 0} und Immigration mit<br />

Mittelwert σ 2 /2 denselben Effekt haben.<br />

Theorem 1.27. Es sei m > 1. Dann gilt<br />

(i) Ist E[log + ζ 0 ] < ∞, dann konvergiert Z n /m n in Verteilung und der Grenzwert ist f.s.<br />

endlich.<br />

(ii) Ist E[log + ζ 0 ] = ∞, dann gilt lim sup n→∞ Z n /c n = ∞ f.s. für jedes c > 0.<br />

1.9.2 Verzweigungsprozesse in zufälliger Umgebung<br />

Wie der Name schon vermuten lässt, ist die Evolution eines Verzweigungsprozesses in zufälliger<br />

Umgebung (engl. branching process in random environment (BPRE)) wie die des “gewöhnlichen”<br />

Verzweigungsprozesses mit dem Unterschied, dass sich die Nachkommensverteilung von Generation<br />

zu Generation ändern kann. Man denke beispielsweise an eine Population von Pflanzen mit<br />

einem Lebenszyklus von einem Jahr, bei der die Nachkommensverteilung von Wetterverhältnissen<br />

beeinflusst wird.<br />

Zum ersten mal wurden BPRE in (Athreya and Karlin 1970, Smith and Wilkinson 1969)<br />

eingeführt. Wir halten uns hier an die Darstellung in (Birkner et al. 2005).<br />

Es sei ∆ die Menge der Wahrscheinlichkeitsmaße auf N 0 , ausgestattet mit Totalvariationsabstand<br />

Polnisch ist. Ferner sei Q eine ∆-wertige Zufallsvariable und Π = (Q 1 , Q 2 , . . . ) eine Folge<br />

von u.i.v. Zufallsvariablen mit derselben Verteilung wie Q.<br />

Definition 1.28. Eine Folge Z := (Z n ) n=0,1,... von N 0 -wertigen Zufallsvariablen ist ein Verzweigungsprozess<br />

in zufälliger Umgebung Π falls Z 0 unabhängig von Π ist und gegeben Π die<br />

Folge Z eine Markovkette ist mit<br />

[ i∑<br />

]<br />

P[Z n = j|Z n−1 = i, Π = (q 1 , q 2 , . . . )] = P ξ (qn)<br />

k<br />

= j<br />

k=1<br />

für alle n ≥ 1, i, j ∈ N 0 und q 1 , q 2 , . . . ∆. Dabei sind ξ (q i)<br />

1 , ξ (q i)<br />

2 , . . . u.i.v. q i verteilt.<br />

Im Folgenden nehmen wir immer Z 0 = 1 f.s. an. Mit Z kann man wie folgt eine Irrfarht S =<br />

(S 0 , S 1 , . . . ) assoziieren. Sei S 0 = 0 und definiere die Inkremente von S durch X n = S n − S n−1 ,<br />

n ≥ 1, wobei<br />

∞∑<br />

X n := log yQ n ({y}),<br />

y=0<br />

21


1 Bienaymé-Galton-Watson-Prozess<br />

u.i.v. Kopien von<br />

X := log<br />

∞∑<br />

yQ({y})<br />

y=0<br />

sind. Wir nehmen an, dass X f.s. endlich ist. Dann gilt<br />

µ n := E[Z n |Π] = e Sn f.s.<br />

Je nach Verteilung von Q ist gibt es drei Möglichkeiten:<br />

1. Superkritischer Fall: Wenn lim n→∞ S n = ∞ f.s. gilt, dann ist µ n → ∞ f.s.<br />

2. Subrkritischer Fall: Wenn lim n→∞ S n = −∞ f.s. gilt, dann ist µ n → 0 f.s.<br />

3. Kritischer Fall: Wenn lim sup n→∞ S n = ∞ und lim inf n→∞ S n = −∞ f.s. gilt, dann ist<br />

lim sup n→∞ µ n = ∞ und lim inf n→∞ µ n = 0 f.s.<br />

Wir betrachten nun die Aussterbewahrscheinlichkeiten in diesen Fällen. Für m ≤ n gilt<br />

P[Z n > 0|Π] ≤ P[Z m > 0|Π] ≤ µ m<br />

und es folgt<br />

( )<br />

P[Z n > 0|Π] ≤ min µ m = exp min S m .<br />

m≤n m≤n<br />

Im kritischen und subkritischen Fall konvergiert die rechte Seite f.s. gegen 0 und deswegen gilt<br />

in diesen Fällen auch nach Mitteln über Π (wie intuitiv erwartet werden konnte)<br />

P[Z n > 0] n→∞ −−−→ 0,<br />

f.s.<br />

Anders als bei “gewöhnlichen” Verzweigungsprozessen ist es bei BPRE auch im superkritischen<br />

Fall möglich, dass die Population fast sicher ausstirbt. Starke Fluktuationen der zufälligen Umgebung<br />

wirken nämlich wie “Katastrophen” auf die Population. Allgemein gilt das folgende Resultat,<br />

dass in (Smith 1968, Smith and Wilkinson 1969) bewiesen ist.<br />

Theorem 1.29. Es sei E[|X|] < ∞, dann ist die Überlebenswahrscheinlichkeit des BPRE Z<br />

positiv, d.h.<br />

genau dann, wenn<br />

lim P[Z n > 0] > 0<br />

n→∞<br />

E[X] > 0 und E[log(1 − Q({0}))] > −∞.<br />

Die Bedingung E[X] > 0 impliziert, dass Z superkritisch ist, was nach oberen Überlegungen<br />

notwendig für Überleben mit positiver Wahrscheinlichkeit ist. Die zweite Bedingung besagt insbesondere,<br />

dass die Wahrscheinlichkeit für “Katastrophen” Q({0} nahe an 1 ist, vernachlässigbar<br />

klein ist.<br />

22


1 Bienaymé-Galton-Watson-Prozess<br />

Beispiel 1.30. Für l ∈ (0, 1) setze q l (0) = 1−l und q l (⌈2/l⌉) = l. Dadurch ist eine einparametrige<br />

Verteilung auf N 0 definiert mit Mittelwert<br />

m l = l · ⌈2/l⌉ > 1.<br />

Sei nun der Parameter l Realisierung der Zufallsvariablen L mit Verteilung<br />

P[L ≤ x] = C(− log x) −α , x ∈ (0, 1).<br />

Dabei ist α ∈ (0, 1) fest und C ist eine Normierungskonstante. Wir setzen Q = q l , wenn L = l<br />

ist. Dann gilt<br />

E[X] = E[log(L · ⌈2/L⌉] > 0<br />

und<br />

E[log(1 − Q({0}))] = E[log L] = −C<br />

∫ 1<br />

= C<br />

1 + α lim<br />

A→0 (log A)1+α = −∞.<br />

0<br />

log x 1 x α(log x)α−1 ] = −C<br />

(log x)1+α<br />

1 + α<br />

∣<br />

∣ 1 0<br />

23


2 Verzweigungsprozesse in stetiger Zeit<br />

In diesem Kapitel betrachten wir Verzweigungsprozesse bei denen die Lebensdauer eines Individuums<br />

exponentiell verteilt ist. Es ist natürlich möglich und oft biologisch auch sinnvoll anders<br />

verteilte Lebensdauer anzunehmen, im Allgemeinen verliert man die Markovsche Struktur des<br />

Prozesses. Dank der Gedächtnislosigkeit der Exponentialverteilung sind diese Prozesse zeitlich<br />

homogene Markovketten in stetiger Zeit.<br />

Bevor wir einen Verzweigungsprozess in stetiger Zeit (VPSZ) definieren werden wir einige<br />

Grundlagen zu stochastischen Prozessen in stetiger Zeit wiederholen müssen. Eine intuitive Konstruktion<br />

ist wie folgt: Für ein λ > 0 sei die Lebensdauer jedes Individuums exponentiell verteilt<br />

mit Parameter λ. Nach Ablauf dieser Lebensdauer wird das Individuum (genauso wie im Fall<br />

mit diskreter Zeit) durch Nachkommen ersetzt deren Anzahl gemäß einer festen Nachkommensverteilung<br />

verteilt ist. Die Lebensdauern der Individuen und die Anzahl der Nachkommen sind<br />

jeweils unabhängig voneinander und unter Individuen.<br />

2.1 <strong>Stochastische</strong> Prozesse in stetiger Zeit<br />

In diesem Abschnitt wiederholen wir kurz einige Standardbegriffe der stochastischen Prozesse<br />

in stetiger Zeit (siehe z.B. Kallenberg 2002), die wir benötigen werden. Wir orientieren uns hier<br />

an (Ethier and Kurtz 1986, Kap. 2 und 3).<br />

Im Folgenden seien (E, r) ein metrischer Raum, B := B(E) die zugehörige Borel-σ-Algebra<br />

und R + := [0, ∞).<br />

Definition 2.1. Ein E-wertiger stochastischer Prozess X := (X(t)) t∈R+ ist eine Familie von<br />

Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F, P) mit Werten in (E, B).<br />

Eine Familie von σ-Algebren (F t : t ≥ 0) mit F t ⊂ F für t ≥ 0 und F s ∈ F t für s ≤ t heißt<br />

Filtration. Wir sagen, dass X adaptiert an die Filtration (F t : t ≥ 0) ist, falls X t messbar bez. F t<br />

für jedes t ≥ 0 ist. Die Filtration heißt rechtsstetig, wenn für jedes t ≥ 0, F t = F t+ := ⋂ ε>0 F t+ε<br />

gilt.<br />

Für ein festes ω ∈ Ω ist ein Pfad t ↦→ X(t, ω) eine Abbildung von R + nach E. Verzweigungsprozesse<br />

sind Sprungprozesse haben also keine stetige Pfade, haben aber typischerweise eine<br />

rechtsstetige Version mit linksseitigen Grenzwerten (r.c.l.l. für engl. right continuous with left<br />

limits), d.h. die Prozesse haben dieselben endlichdimensionalen Verteilungen. Wir bezeichnen<br />

den Raum der r.c.l.l. Funktionen von R + nach E mit D E (R + ). Insbesondere kann man also X<br />

als eine D E (R + )-wertige Zufallsvariable auffassen. Wir führen nun eine Metrik auf diesem Raum<br />

ein bezüglich der Funktionen mit Sprüngen von “ähnlicher” Höhe zu nahe beieinander liegenden<br />

Sprungzeiten kleinen Abstand haben. Man betrachte z.B. Funktionen f(x) = 1 [1,∞) (x) und<br />

f n (x) = 1 [1+1/n,∞) (x) für x ∈ R + . Für jedes n ist der Supremumsabstand von f n und f gleich<br />

1. In der Skorohod-Metrik (die wir in kürze einführen werden) konvergiert f n aber gegen f.<br />

24


2 Verzweigungsprozesse in stetiger Zeit<br />

Es sei Λ die Menge (streng) monoton wachsender Lipschitz stetiger Funktionen λ : R + → R +<br />

mit λ(0) = 0, λ(t) → ∞ für t → ∞ und<br />

γ(λ) := sup<br />

λ(s) − λ(t)<br />

∣log s − t ∣ < ∞.<br />

0≤t 0.<br />

lim<br />

sup<br />

n→∞ 0≤t≤T<br />

r(x n (t), x(λ n (t))) = 0<br />

Theorem 2.3. Es seien x, x 1 , x 2 , · · · ∈ D E (R + ), dann gilt d(x n , x) → 0 für n → ∞ genau dann<br />

wenn für jedes t ∈ R + und jede Folge (t n ) n=1,2,... ⊂ R mit lim n→∞ t n = t folgende Aussagen<br />

gelten<br />

(i)<br />

lim r(x n(t n ), x(t)) ∧ r(x n (t n ), x(t−)) = 0;<br />

n→∞<br />

(ii) Ist lim n→∞ r(x n (t n ), x(t)) = 0, dann gilt für jede Folge (s n ) n=1,2,... mit s n ≥ t n und<br />

lim n→∞ s n = t<br />

lim r(x n(s n ), x(t)) = 0.<br />

n→∞<br />

(iii) Ist lim n→∞ r(x n (t n ), x(t−)) = 0, dann gilt für jede Folge (s n ) n=1,2,... mit s n ≤ t n und<br />

lim n→∞ s n = t<br />

lim r(x n(s n ), x(t−)) = 0.<br />

n→∞<br />

25


2 Verzweigungsprozesse in stetiger Zeit<br />

Die Charakterisierung aus dem letztem Theorem hat den Vorteil, dass man die einzelnen<br />

Unterpunkte intuitiv interpretieren kann: Die erste Aussage besagt, dass es höchstens zwei<br />

Grenzwerte von x(t n ) geben kann. Die zweite gilt wegen Rechtsstetigkeit und die dritte wegen<br />

linksseitiger Grenzwerte. Mit dem obigen Theorem folgt auch, dass die C E (R + ) (die Menge<br />

der stetigen Funktionen von R + nach E) ausgestattet mit der Skorohod Metrik abgeschlossen<br />

in D E (R + ) ist.<br />

Für Konvergenz von stochastischen Prozessen in Verteilung und insbesondere um Prohorovs<br />

Theorem anwenden zu können muss der Zustandsraum Polnisch sein, d.h. vollständig und separabel.<br />

Für die beiden Aussagen im nächsten Resultat verweisen wir auf Theorem 3.5.6 und<br />

Proposition 3.7.1 in (Ethier and Kurtz 1986).<br />

Theorem 2.4. (i) Ist (E, r) separabel, so ist (D E (R + ), d) separabel. Ist (E, r) vollständig, so<br />

ist (D E (R + ), d) vollständig.<br />

(ii) Definiere für t ≥ 0 Projektionen π t : D E (R + ) → E durch π t (x) = x(t). Ist (E, r) separabel<br />

und A eine dichte Teilmenge von R + , dann gilt<br />

B (D E (R + )) = σ(π t : t ∈ A).<br />

Insbesondere bestimmen die endlichdimensionalen Verteilungen eines Prozesses mit Pfaden<br />

in D E (R + ) seine Verteilung eindeutig.<br />

2.2 Generatoren von Markovprozessen<br />

Wir verwenden hier weiterhin die Bezeichnungen aus dem letzten Abschnitt.<br />

Definition 2.5. Ein E-wertiger Prozess X = (X(t)) t∈R+<br />

Filtration (F t ) falls für alle Γ ∈ B(E) und alle t, s ≥ 0<br />

ist ein Markovprozess bezüglich der<br />

P[X(t + s) ∈ Γ|F t ] = P[X(t + s) ∈ Γ|X(t)] f.s. (2.1)<br />

gilt. Falls beide Seiten von (2.1) nicht von t abhängen, dann ist X ein (zeitlich) homogener<br />

Markovprozess. Ferner ist X ein starker Markovprozess falls in (2.1) t durch jede f.s. endliche<br />

Stoppzeit T ersetzt werden kann.<br />

Typischerweise, aber nicht immer nehmen wir für F t die natürliche (vom Prozess selbst erzeugte)<br />

Filtration Ft<br />

X = σ(X(s) : 0 ≤ s ≤ t).<br />

Bezeichnen wir mit B(E) die Menge der beschränkten messbaren Funktionen auf E, dann<br />

folgt aus (2.1)<br />

E[f(X(t + s))|F t ] = E[f(X(t + s))|X(t)] f.s. (2.2)<br />

für jedes f ∈ B(E). Ein homogener Markovprozess ist charakterisiert durch die Übergangsoperatoren<br />

P t (x, Γ) := P x [X t ∈ Γ] := P[X t ∈ Γ|X 0 = x], (2.3)<br />

wobei x ∈ E ist und Γ ∈ B(E). Wegen zeitlicher Homogenität kann man mit der Familie (P t ) t∈R+<br />

alle endlichdimensionalen Verteilungen von X bestimmen und somit ist nach Theorem 2.4(ii)<br />

26


2 Verzweigungsprozesse in stetiger Zeit<br />

die Verteilung von X auf D E (R + ) durch die Übergangsoperatoren bestimmt, wenn E separabel<br />

ist. Die Übergangsoperatoren sind durch die Chapman-Kolmogorov Gleichung<br />

∫<br />

P t+s (x, Γ) = P t (x, dy)P s (y, Γ) t, s ≥ 0 (2.4)<br />

E<br />

mit der Halbgruppentheorie verbunden und können mithilfe die zugehörigen infinitesimalen Generatoren<br />

beschrieben werden.<br />

Definition 2.6 (Halbgruppe). Eine Familie (T t ) t∈R+ von beschränkten linearen Operatoren<br />

auf einem Banachraum B heißt Halbgruppe falls T 0 = Id und T t+s = T t T s für alle t, s ≥ 0.<br />

Die Halbgruppe heißt stark stetig, wenn lim t→0 T t f = f ist für alle f ∈ B. Wir sprechen von<br />

einer Kontraktionshalbgruppe falls ‖T ‖ ≤ 1 ist. Ist B ein Funktionenraum, dann nennen wir die<br />

Halbgruppe positiv bzw. konservativ, falls für alle t ≥ 0 gilt T t f ≥ 0 für alle f ≥ 0 bzw. T t 1 = 1.<br />

Man beachte, dass es generell ein M ≥ 1 und w ≥ 0 gibt, sodass ‖T ‖ ≤ Me wt (Ethier and<br />

Kurtz 1986, Proposition 1.1.1).<br />

Definition 2.7 (Generator einer Halbgruppe). Der infinitesimale Generator (auch Erzeuger)<br />

der Halbgruppe (T t ) t∈R+ ist ein linearer Operator A auf B definiert durch<br />

T f − f<br />

Af := lim .<br />

t→0 t<br />

Der Definitionsbereich D(A) ist die Menge der Elemente von B, für die dieser Grenzwert existiert.<br />

Der Graph von A ist definiert durch<br />

G(A) := {(f, Af) : f ∈ D(A)} ⊂ B × B.<br />

Man sagt, dass A abgeschlossen ist, wenn G(A) abgeschlossen in B ×B ist. Ferner heißt A abschliessbar,<br />

wenn es eine abgeschlossene lineare Fortsetzung von A gibt. In diesem Fall bezeichnen<br />

wir als Abschluss, Ā, die minimale Fortsetzung von A. Ist A ein abgeschlossener Generator,<br />

dann heißt D ⊂ D(A) Core von A, wenn der Abschluss von A eingeschränkt auf D mit A<br />

übereinstimmt (wenn also D bezüglich der Graphennorm dicht in D(A) ist).<br />

Der Zusammenhang von A und T wird in dem folgenden Resultat verdeutlicht (siehe Ethier<br />

and Kurtz 1986, Proposition 1.1.5).<br />

Theorem 2.8. Es sei (T t ) t∈R+ eine stark stetige Halbgruppe auf L ⊂ B. Dann gelten folgende<br />

Aussagen:<br />

(i) Ist f ∈ L und t ≥ 0, dann ist ∫ t<br />

0 T sf ds ∈ D(A) und es gilt<br />

T t f − f = A<br />

∫ t<br />

0<br />

T s f ds.<br />

(ii) Ist f ∈ D(A) und t ≥ 0, dann ist T t f ∈ D(A) und es gilt<br />

d<br />

dt T tf = AT t f = T (t)Af.<br />

27


2 Verzweigungsprozesse in stetiger Zeit<br />

(iii) Ist f ∈ D(A) und t ≥ 0, dann gilt<br />

T t f − f =<br />

∫ t<br />

0<br />

AT s f ds =<br />

∫ t<br />

0<br />

T s Af ds.<br />

Man kann zeigen (siehe Ethier and Kurtz 1986, Abschnitt 1.1), dass der Generator einer stark<br />

stetigen Halbgruppe eindeutig bestimmt ist, wenn es auf dem Core definiert ist. Außerdem ist<br />

jede stark stetige Halbgruppe eindeutig charakterisiert durch ihren Generator.<br />

Nun betrachten wir den Zusammenhang zwischen Markovprozessen und stark stetigen Halbgruppen.<br />

Sei also X wie zuvor ein homogener Markovprozess auf E. Für L ⊂ B(E) definieren<br />

wir<br />

T t f(x) := E x [f(X t )] := E[f(X t )|X 0 = x] = E[f(X t+s )|X s = x]. (2.5)<br />

Dann ist natürlich T 0 f(x) = f(x) und T t+s f(x) = T t T s f(x) bekommt man mit der Chapman-<br />

Kolmogorov Gleichung. Man kann zeigen, dass jeder homogener Markovprozess auf diese Weise<br />

eindeutig durch die so definierte Halbgruppe charakterisiert ist. Jedoch gilt die Umkehrung im<br />

Allgemeinen nicht: nicht zu jeder Halbgruppe gibt es einen Markovprozess. Eine große Klasse<br />

von Halbgruppen, für die die Umkehrung gilt sind die Feller-Halbgruppen.<br />

Definition 2.9. Es sei C 0 (E) die Menge der stetigen Funktionen auf E die bei unendlich<br />

verschwinden. Eine positive, konservative stark stetige Halbgruppe auf C 0 (E) heißt Feller-<br />

Halbgruppe und der zugehörige Generator Feller-Generator.<br />

Für das folgende Theorem verweisen wir auf (Ethier and Kurtz 1986, Theorem 4.2.7).<br />

Theorem 2.10. Es sei E lokal kompakt und separabel und sei (T t ) t∈R+ eine Feller-Halbgruppe<br />

auf C 0 (E). Dann gibt es für jedes Wahrscheinlichkeitsmaß ν auf (E, B(E)) einen zu (T t ) t∈R+<br />

(mittels (2.5)) gehörigen Markovprozess X mit Anfangsverteilung ν und Pfaden im Skorohod<br />

Raum D E (R + ). Ferner ist X stark Markovsch bezüglich der (natürlichen, rechtsstetigen) Filtration<br />

Ft+.<br />

X<br />

Wir schließen diesen Abschnitt mit Beispielen ab.<br />

Beispiel 2.11. 1. Es sei X = (X t ) t∈R+ ein Poissonprozess mit Rate λ. Insbesondere haben<br />

wir X 0 = 0, X t ∼ Pois(λt) und die Zuwächse sind unabhängig. Für f ∈ C 0 (N 0 ) (also eine<br />

Nullfolge) gilt<br />

und<br />

T t f(x) = E[f(X(t + s))|X(s) = x] = E 0 [f(x + X t )] =<br />

T t f(x) − f(x)<br />

t<br />

= e−λt<br />

t<br />

∞∑<br />

k=0<br />

(f(x + k) − f(x)) (λt)k<br />

k!<br />

∞∑<br />

k=0<br />

−λt (λt)k<br />

f(x + k)e<br />

k!<br />

∑<br />

∞<br />

= e −λt λ (f(x + 1) − f(x)) + e −λt (f(x + k) − f(x)) λk t k−1<br />

t→0<br />

−−→ λ (f(x + 1) − f(x)) = Af(x).<br />

k=2<br />

k!<br />

28


2 Verzweigungsprozesse in stetiger Zeit<br />

2. Es sei X eine symmetrische Irrfahrt auf Z in stetiger Zeit, d.h. wenn X s = x ist dann<br />

springt die Irrfahrt nach einer exponentiell verteilten Zeit mit Parameter λ zu einem der<br />

nächsten Nachbarn jeweils mit Wahrscheinlichkeit 1/2. Dann kann man für f : Z → R wie<br />

oben T t f(x) hinschreiben und zeigen, dass<br />

T t f(x) − f(x)<br />

t<br />

t→0<br />

−−→ λ 2 (f(x + 1) − f(x)) + λ (f(x − 1) − f(x)) = Af(x).<br />

2<br />

3. Für diejenigen, die Q-Matrizen gewohnt sind sei bemerkt, dass in den oberen Beispielen<br />

Af(x) = (Qf) x ist. In der Tat werden Q-Matrizen auch infinitesimale Generatoren<br />

genannt. Die Q Matrix des Poissonprozesses ist<br />

⎛<br />

Q =<br />

⎜<br />

⎝<br />

und (Qf) x = −λf(x) + λf(x + 1) = Af(x).<br />

2.3 BGWP in stetiger Zeit<br />

⎞<br />

−λ λ 0 0 · · ·<br />

0 −λ λ 0 · · · ⎟<br />

⎠<br />

.<br />

. .. . ..<br />

Hier konstruieren wir den BGWP in stetiger Zeit. Bei diesem Prozess produziert ein Individuum<br />

unabhängig von den anderen (und von der Vorgeschichte) mit Rate α Nachkommen gemäß<br />

einer vorher festgelegten Verteilung. Mit anderen Worten ist die Lebensdauer eines Individuums<br />

exponentiell verteilt mit Rate α. Es sei Z 0 eine N 0 -wertige Zufallsvariable und sei (ξ n ) n∈N0 eine<br />

Folge von u.i.v. Zufallsvariablen mit Verteilung p j = P[ξ n = j], j ∈ N 0 und erzeugenden Funktion<br />

g. Ferner sei (T n ) n∈N0 eine Folge exponentiell verteilter Zufallsvariablen mit Parameter 1.<br />

Schließlich definieren wir die eingebettete Sprungkette (Y n ) n∈N0 und die zugehörigen Inkremente<br />

der Sprungzeiten ( ˜T n ) n∈N0 durch<br />

Y n = Z 0 +<br />

n∑<br />

(ξ k − 1) und ˜T n = T n<br />

. (2.6)<br />

αY n<br />

k=1<br />

Man beachte, dass bedingt auf Y n die Sprungzeit ˜T n wie das Minimum von Y n u.i.v. Zufallsvariablen<br />

mit Parameter α verteilt ist.<br />

Der Bienaymé-Galton-Watson-Prozess Z := (Z t ) t∈R+ in stetiger Zeit mit Start in Z 0 ist<br />

definiert durch<br />

Z t :=<br />

{<br />

Z 0 : falls 0 ≤ t < ˜T 0<br />

Y n : falls ∑ n−1 k=0 k ≤ t < ∑ n k=0 k .<br />

(2.7)<br />

Mit der Konvention T/0 = ∞ folgt auch, dass Z t = 0 für alle t ≥ ∑ n ∗ −1<br />

k=1<br />

˜T k , wobei n ∗ = inf{n ≥<br />

0 : Y n = 0}. Im Gegensatz zu Prozessen in diskreter Zeit kann es bei Prozessen in stetiger<br />

Zeit zu unendlich vielen Sprüngen in endlicher Zeit kommen. Man spricht dann von Explosion<br />

der Markovkette. In diesem Fall wäre (Z t ) t∈R+ kein Prozess mit Pfaden in D N0 (R + ), weil es<br />

in endlicher Zeit den Wert unendlich erreicht. Das folgende Resultat liefert ein Kriterium das<br />

Explosion ausschließt (siehe Harris (1963, Thm. III.1) oder Athreya and Ney (1972, Thm. V.9.1)).<br />

29


2 Verzweigungsprozesse in stetiger Zeit<br />

Theorem 2.12. Es gilt P[Z t < ∞] = 1 für alle t ∈ R + genau dann, wenn für alle ε ∈ (0, 1)<br />

das Integral ∫ 1<br />

1−ε<br />

ds divergiert.<br />

1<br />

g(s)−s<br />

Korollar 2.13. Ist m = g ′ (1) < ∞, dann gilt P[Z t < ∞] = 1 für alle t ∈ R + .<br />

Beweis. Es gilt<br />

und mit g(1) = 1<br />

g(s) = g(1) + g ′ (1)(s − 1) + o(s − 1), s → 1<br />

g(s) − s = (1 − g ′ (1))(1 − s) + o(s − 1), s → 1.<br />

Also ist g ′ (1) < ∞ hinreichend für die Divergenz von ∫ 1<br />

1−ε<br />

1<br />

g(s)−s ds.<br />

Die Annahme m < ∞ (die wir ab jetzt hier auch immer machen) aus dem vorherigen Kapitel<br />

garantiert uns also in stetiger Zeit, dass der Prozess nicht explodiert.<br />

Nun beschreiben wir den BGWP in stetiger Zeit mithilfe des Generators.<br />

Theorem 2.14. Für f ∈ C 0 (N 0 ) setzen wir<br />

Af(z) = αz<br />

∞∑<br />

p k (f(z − 1 + k) − f(z)) . (2.8)<br />

k=0<br />

Unter der Annahme, dass das Integral in Theorem 2.12 divergiert, ist Z definiert durch (2.7)<br />

ein zeitlich homogener Feller-Prozess mit Generator A.<br />

Beweis. Zunächst zeigen wir, dass Z ein zeitlich homogener Feller-Prozess ist. Dazu sind für die<br />

Halbgruppe (T t ) t∈R+ aus (2.5) die Eigenschaften aus Definition 2.9 nachzuweisen. Dass es sich<br />

dabei um eine positive, konservative Kontraktionshalbgruppe (siehe Definition 2.6) auf C 0 (N 0 )<br />

handelt, ist sofort klar. Wir brauchen also nur noch die starke Stetigkeit zu zeigen.<br />

Wir definieren die Ereignisse V i (t) := { es gibt genau i Verzweigungsereignisse in [0, t]}. Für<br />

eine Menge S bezeichnen durch S C das Komplement dieser Menge. Sind f ∈ C 0 (N 0 ) und t ≥ 0,<br />

dann gilt<br />

|T t f(z) − f(z)| = |E z [(f(Z t ) − f(z))1 (V 0 (t)) C ]|<br />

≤ 2‖f‖ ∞ · P[(V 0 (t)) C ]<br />

= 2‖f‖ ∞ · (1 − e −αzt ) → 0 für t → 0,<br />

was die punktweise Konvergenz zeigt. Für f ∈ C 0 (N 0 ) gibt es zu jedem ε ein n ε mit sup z≥nε |f(z)| <<br />

ε. Die obige Abschätzung zeigt<br />

Für z ≥ n ε gilt<br />

|T t f(z) − f(z)| ≤ 2‖f‖ ∞ · (1 − e −αnεt ), für z < n ε . (2.9)<br />

P z [Z t < n ε ] ≤ p 0 (1 − e −αnεt ). (2.10)<br />

30


2 Verzweigungsprozesse in stetiger Zeit<br />

Hier steht auf der rechten Seite die Wahrscheinlichkeit, dass mindestens einer der (am Anfang auf<br />

jeden Fall vorhandenen) n ε Individuen in der Zeit [0, t] stirbt und keine Nachkommen produziert.<br />

Es folgt<br />

Insgesamt haben wir<br />

|T t f(z) − f(z)| ≤ 2ε + 2‖f‖ ∞ p 0 (1 − e −αnεt ), für z ≥ n ε . (2.11)<br />

|T t f(z) − f(z)| ≤ 2ε + 2‖f‖ ∞ (1 − e −αnεt ), für alle z ∈ N 0 . (2.12)<br />

Mit t → 0 und dann ε → 0 auf der rechten Seite folgt lim t→0 ‖T f − f‖ ∞ = 0.<br />

Es bleibt zu zeigen, dass A Generator von Z ist. Dazu genügt es, es auf dem Raum der stetigen<br />

Funktionen mit kompaktem Träger, welchen wir mit C C (N 0 ) bezeichnen (denn C C (N 0 ) ist Core<br />

von A auf C 0 (N 0 )).<br />

Das Ereignis V 1 (t) kann man als disjunkte Vereinigung der Ereignisse<br />

V 1<br />

k<br />

:= { es gibt genau ein Verzweigungsereignis in [0, t] mit genau k Nachkommen }<br />

schreiben. Damit gilt<br />

1<br />

t (T tf(z) − f(z)) = 1 t E z[f(Z t ) − f(z)]<br />

= 1 t E z[(f(Z t ) − f(z))<br />

= 1 t<br />

∞∑<br />

1 V 1<br />

k (t) ] + R tf(z)<br />

k=0<br />

∞∑<br />

(f(z − 1 + k) − f(z))<br />

k=0<br />

∫ t<br />

0<br />

αze −αzs p k e −α(z−1+k)(t−s) ds + R t f(z)<br />

(hier ist im Integral αze −αzs die Dichte der “Verzweigungszeit”, p k die W’keit für k-Nachkommen<br />

und e −α(z−1+k)(t−s) die W’keit, dass die dann vorhandenen z − 1 + k Individuen sich nicht in<br />

der verbleibenden Zeit [s, t] verzweigen)<br />

= αz<br />

∞∑<br />

p k (f(z − 1 + k) − f(z)) 1 t<br />

k=0<br />

∫ t<br />

0<br />

e −αzs e −α(z−1+k)(t−s) ds + R t f(z).<br />

Das Restglied ist gegeben durch t −1 E z [(f(Z t ) − f(z))1 (V 1 (t)) C ]. Auf V 0 (t) ist Z t = z und damit<br />

gilt<br />

|R t f(z)| ≤ 2‖f‖ ∞<br />

t<br />

= 2‖f‖ ∞ αz<br />

P z [(V 0 (t) ∪ V 1 (t)) C ]<br />

∞∑<br />

k=0<br />

p k<br />

t<br />

∫ t<br />

0<br />

e −αzs (1 − e −α(z−1+k)(t−s) ) ds.<br />

Es sei H die Stammfunktion der Funktion h t (s) := e −αzs (1 − e −α(z−1+k)(t−s) ), die sicherlich<br />

existiert. Dann gilt<br />

1<br />

t<br />

∫ t<br />

0<br />

e −αzs (1 − e −α(z−1+k)(t−s) ) ds =<br />

H(t) − H(0)<br />

t<br />

→ H ′ (0) = h 0 (0) = 0<br />

31


2 Verzweigungsprozesse in stetiger Zeit<br />

und es folgt |R t f(z)| → 0 für t → 0. Mit einem ähnlichen Argument zeigt man auch<br />

1<br />

t<br />

∫ t<br />

Insgesamt folgt für jedes z ∈ N 0<br />

0<br />

e −αzs e −α(z−1+k)(t−s) ds → 1 für t → 0.<br />

1<br />

t (T tf(z) − f(z)) → Af(z) für t → 0.<br />

Es bleibt noch Uniformität zu zeigen. Sei n 0 so, dass f(z) = 0 für z ≥ n 0 . Für z ≥ n 0 + 1 gilt<br />

Für z > n 0 + 1 ist also<br />

P z [Z t < n 0 ] ≤ αn 0 p 2 0<br />

∫ t<br />

0<br />

e −α(n 0+1)s (1 − e −αn 0(t−s) ) ds.<br />

1<br />

t |T tf(z) − f(z)| = 1 t |E z[f(Z t )]| ≤ 1 t ‖f‖ ∞P z [Z t < n 0 ]<br />

≤ 1 t ‖f‖ ∞αn 0 p 2 0<br />

∫ t<br />

0<br />

e −α(n 0+1)s (1 − e −αn 0(t−s) ) ds.<br />

Wie oben kann man zeigen, dass die rechte Seite für t → 0 gegen Null konvergiert, was die<br />

Uniformität zeigt.<br />

Das folgende Theorem zeigt, dass in ein BGWP in stetiger Zeit stets BGWP in diskreter Zeit<br />

eingebettet sind. Man kann also Resultate aus dem vorherigen Kapitel auch für Verzweigungsprozesse<br />

in stetiger Zeit nutzen. Umgekehrt kann man jedoch nicht jeden BGWP in diskreter<br />

Zeit in einen mit stetiger Zeit einbetten (siehe Athreya and Ney 1972, Abschn. III.12).<br />

Theorem 2.15. Es sei Z ein BGWP in stetiger Zeit mit Generator A definiert in (2.8) und<br />

zugehöriger Halbgruppe (T t ) t∈R+ . Für ein festes δ > 0 definieren wir ˜Z n := Z δn , n ∈ N 0 . Dann<br />

ist ˜Z := ( ˜Z n ) n∈N0 ein BGWP in diskreter Zeit. Die erzeugende Funktion der Nachkommensverteilung<br />

ist gegeben durch g(s) := T δ h s (1), wobei h s (z) := s z für s ∈ [0, 1] und z ∈ N 0 ist.<br />

Beweis. Es gilt<br />

g(s) = E 1 [s ˜Z 1<br />

] = E 1 [s Z δ<br />

] = T δ h s (1)<br />

und da die Verzweigungseigenschaft sich von Z auch überträgt, ist das Theorem bewiesen.<br />

32


3 Diffusionsapproximation von<br />

Verzweigungsprozessen<br />

Ähnlich wie man Brownsche Bewegung als Grenzwert reskalierter Irrfahrten erhält, erhält man<br />

einen Verzweigungsprozess in stetiger Zeit und auf stetigem Raum (verzweigende Diffusionsprozesse)<br />

als Grenzwert von reskalierten Bienaymé-Galton-Watson-Prozess.<br />

Es sei (E, r) ein Polnischer metrischer Raum (d.h. separabel und vollständig) und sei B(E)<br />

die zugehörige Borel-σ-Algebra. Ferner sei P(E) die Menge aller Wahrscheinlichkeitsmaße auf<br />

(E, B(E)) ausgestattet mit schwacher Topologie (P n konvergiert schwach gegen P , wenn für alle<br />

stetigen beschränkten f : E → R gilt ∫ E f(x)P n(dx) → ∫ E<br />

f(x)P (dx)).<br />

Unser Ziel ist es, schwache Konvergenz von geeignet reskalierten Verzweigungsprozessen gegen<br />

verzweigende Diffusionen auf D E (R + ) nachzuweisen. Da Diffusionsprozesse stetige Pfade haben<br />

werden wir außerdem zeigen müssen, dass Grenzwerte in C(R + , E) liegen (im Raum der stetigen<br />

Funktionen von R + nach E).<br />

3.1 Kriterien für schwache Konvergenz von Prozessen<br />

In diesem Abschnitt erinnern wir an einige Kriterien für schwache Konvergenz. Ist (P n ) eine<br />

Folge auf P(E), dann wird schwache Konvergenz typischerweise in zwei Schritten gezeigt.<br />

• Existenz von Grenzwerten: Dazu zeigt man, dass (P n ) relativ kompakt ist, d.h. jede Teilfolge<br />

enthält eine weitere schwach konvergente Teilfolge. Auf Polnischen Räumen ist diese<br />

Bedingung nach Prohorov’s Theorem äquivalent zu Straffheit. Dabei heißt (P n ) straff, falls<br />

zu jedem ε > 0 ein kompaktes K ⊂ E existiert mit P n (K) ≥ 1 − ε für alle n.<br />

• Eindeutigkeit: Hier zeigt man, dass es höchstens ein Grenzwert geben kann.<br />

Definition 3.1. Für x ∈ D E (R + ), δ > 0 und T > 0 ist der Stetigkeitsmodul definiert durch<br />

w ′ (x, δ, T ) := inf max<br />

{t i } i<br />

sup<br />

s,t∈[t i−1 ,t i )<br />

r(x(s), x(t)), (3.1)<br />

mit Infimum über alle Partitionen 0 = t 0 < t 1 < · · · < T ≤ t n mit min 1≤i≤n (t i − t i−1 ) > δ für<br />

alle n.<br />

Man kann zeigen, dass der Stetigkeitsmodul fallend in δ ist. Ferner kann man sich auch überlegen,<br />

dass eine Funktion kleines Stetigkeitsmodul haben kann auch wenn sie große Sprünge<br />

macht. Dazu dürfen die Sprünge nur nicht zu nah beieinander sein (insbesondere darf es keine<br />

Häufungspunkte von Sprüngen geben), sodass die Sprünge auf die einzelnen Partitionsabschnitte<br />

verteilt werden können.<br />

Das folgende Resultat gibt Kriterien für relative Kompaktheit in D E (R + ) an (siehe Ethier<br />

and Kurtz 1986, Theorem 3.6.3).<br />

33


3 Diffusionsapproximation von Verzweigungsprozessen<br />

Theorem 3.2. Es sei (E, r) ein vollständiger metrischer Raum. Die Menge A ⊂ D E (R + )<br />

ist genau dann relativ kompakt (d.h. Abschluss von A ist kompakt), wenn die folgenden zwei<br />

Bedingungen gelten:<br />

(i) Für jede rationale Zahl t ≥ 0 gibt es eine Kompakte Menge Γ t ⊂ E, so dass x(t) ∈ Γ t für<br />

alle x ∈ A.<br />

(ii) Für alle T > 0 gilt<br />

lim sup<br />

δ↓0 x∈A<br />

w ′ (x, δ, T ) = 0.<br />

Die Bedingung (i) folgt aus eine stärkeren Bedingung (die ihrerseits aus relativer Kompaktheit<br />

folgt): Für alle T > 0 gibt es eine kompakte Menge K T ⊂ E so, dass x(t) ∈ K T für alle x ∈ A<br />

und 0 ≤ t ≤ T ist.<br />

Für das folgende Theorem verweisen wir auf Theoreme 3.7.2 und 3.8.6 in (Ethier and Kurtz<br />

1986) sowie auf (Aldous 1978).<br />

Theorem 3.3. Es sei (E, r) Polnisch und sei (X· (n) ) n=1,2,... eine Folge stochastischer Prozesse<br />

mit Pfaden in D E (R + ). Ferner sei für jede rationale Zahl t ≥ 0 die Folge (X (n)<br />

t ) n=1,2,... straff in<br />

E. Dann ist (X· (n) ) n=1,2,... genau dann straff in D E (R + ), wenn eine der folgenden Bedingungen<br />

erfüllt ist:<br />

(i) Für alle ε > 0 und T > 0 gibt es ein δ > 0 mit<br />

sup P[w ′ (X n , δ, T ) ≥ ε] ≤ ε. (3.2)<br />

n<br />

(ii) Für jedes T > 0 gibt es ein p > 0 und eine Familie {Y n (δ) : 0 < δ < 1, n = 1, 2, . . . } von<br />

nicht-negativen Zufallsvariablen mit<br />

[(<br />

)<br />

E r(X (n)<br />

p ]<br />

t+u , X(n) t ) ∧ 1 |F<br />

X (n)<br />

t ≤ E[Y n (δ)|Ft X(n) ] (3.3)<br />

für alle 0 ≤ t ≤ T , 0 ≤ u ≤ δ und<br />

lim sup<br />

δ↓0 n<br />

E[Y n (δ)] = 0. (3.4)<br />

(iii) Diese äquivalente Bedingung gilt im Fall E = R. Für alle Stoppzeiten T n , die durch T<br />

beschränkt sind und alle ε > 0 gibt es ein δ > 0 und n 0 so dass<br />

[<br />

]<br />

sup sup P |X (n)<br />

T − n+θ X(n) T n<br />

| > ε ≤ ε. (3.5)<br />

n≥n 0 θ∈[0,δ]<br />

Wie zuvor erfüllt eine in D E (R + ) relativ kompakte Folge (X (n)<br />

· ) die stärkere compact containment<br />

condition: Für alle ε > 0 und T > 0 existiert eine kompakte Menge K T,ε ⊂ E mit<br />

inf<br />

n P[X(n) t ∈ K T,ε für 0 ≤ t ≤ T ] ≥ 1 − ε. (3.6)<br />

Mit dem folgenden Kriterium kann man relative Kompaktheit von Folgen von E-wertigen<br />

Prozessen auf Straffheit von reellwertigen Funktionen von diesen Prozessen für eine genügend<br />

große Funktionenmenge (siehe Ethier and Kurtz 1986, Theorem 3.9.1) zurückführen.<br />

34


3 Diffusionsapproximation von Verzweigungsprozessen<br />

Theorem 3.4. Es sei (E, r) vollständig und separabel und sei (X· (n) ) eine Folge von Prozessen<br />

mit Pfaden in D E (R + ). Ferner sei die compact ( containment ) condition (3.6) erfüllt. Dann ist<br />

(X· (n) ) relativ kompakt auf D E (R + ) wenn f(X · (n) ) straff auf D R (R + ) für alle f ∈ H ist,<br />

wobei H eine dichte Teilmenge von C b (E) ist bezüglich gleichmäßiger Konvergenz auf kompakten<br />

Mengen.<br />

Das folgende Resultat zeigt wie man die Straffheit von Familien von Funktionalen mithilfe der<br />

Generatoren zeigen kann.<br />

Lemma 3.5. Es sei (X· (n) ) eine Folge von Prozessen mit Pfaden in D E (R + ) mit zugehörigen<br />

Halbgruppen (T (n)<br />

t ) und Generatoren A (n) . Ferner ( sei die ) compact containment condition (3.6)<br />

erfüllt. Dann ist für ein f ∈ C n (E) die Folge f(X (n) straff auf D R (R + ), wenn f, f 2 ∈<br />

D(A (n) ) und<br />

· )<br />

sup{‖A (n) f‖ ∞ + ‖A (n) f 2 ‖ ∞ } < ∞. (3.7)<br />

n<br />

Beweis. Die Straffheit von f(X (n)<br />

t ) für jedes t ≥ 0 folgt sofort aus der compact containment<br />

condition. Es genügt also (ii) aus Theorem 3.3 zu zeigen. Mit Theorem 2.8(iii) erhalten wir<br />

E [( f(X (n)<br />

t+u ) − f(X(n) t ) ) 2 ]<br />

|F<br />

n<br />

t<br />

[<br />

]<br />

[<br />

]<br />

= E f 2 (X (n)<br />

t+u ) − f 2 (X (n)<br />

t )|Ft<br />

n − 2f(X (n)<br />

t )E f(X (n)<br />

t+u ) − f(X(n) t |Ft<br />

n<br />

=<br />

∫ u<br />

0<br />

T (n)<br />

s<br />

A (n) f 2 (X s<br />

(n) ) ds − 2f(X (n)<br />

t )<br />

≤ u ( ‖A (n) f 2 ‖ ∞ + 2‖f‖ ∞ ‖A (n) f‖ ∞<br />

)<br />

.<br />

∫ u<br />

0<br />

T (n)<br />

s<br />

A (n) f(X (n) ) ds<br />

Nach Voraussetzung ist der Ausdruck in den Klammern gleichmäßig in n beschränkt. Mit u → 0<br />

folgt (ii) aus Theorem 3.3.<br />

Um die Eindeutigkeit der Grenzwertes einer Folge von Prozessen zu zeigen genügt es nach<br />

Theorem 2.4 zu zeigen, dass die endlich-dimensionalen Verteilungen eindeutig sind. Dazu benutzen<br />

wir die Charakterisierung des Grenzwertes durch ein Martingalproblem. Mit deren Hilfe kann<br />

man oft ein Prozess mit einem gegebenen Generator beschreiben ohne die zugehörige Halbgruppe<br />

genau zu kennen. Um Konvergenz einer reskalierten Folge von BGWP gegen eine Diffusion zu<br />

zeigen werden wir zunächst nachweisen, dass alle Grenzwerte Lösungen eines Martingalproblems<br />

sind und dann zeigen wir mit Hilfe einer anderen Methode, genannt Dualität, die Eindeutigkeit<br />

der Lösungen des Martingalproblems.<br />

Es sei X = (X t ) t≥0 ∈ D R+ (E) ein Markov-Prozess mit Generator A und zugehörigem Definitionsbereich<br />

D(A). Für f ∈ D(A) setzen wir<br />

M f t<br />

:= f(X t ) −<br />

∫ t<br />

und F t := F X t . Dann gilt für t, s ≥ 0 mit Theorem 2.8<br />

E[M f t+s |F t] = T s f(X t ) −<br />

= f(X t ) −<br />

∫ s<br />

0<br />

∫ t<br />

0<br />

0<br />

Af(X s ) ds (3.8)<br />

T u Af(X t ) du −<br />

Af(X u ) du = M f t .<br />

∫ t<br />

0<br />

s<br />

Af(X u ) du<br />

35


3 Diffusionsapproximation von Verzweigungsprozessen<br />

Also ist (M f t ) t≥0 ein Martingal für jedes f ∈ D(A) wenn X ein Markov-Prozess ist. Umgekehrt<br />

sagen wir, dass X Lösung des Martingalproblems für Operator A ist, wenn (M f t ) t≥0 ein Martingal<br />

für jedes f ∈ D(A) ist. Man beachte, dass X genau dann eine Lösung des Martingalproblems<br />

für Operator A ist, wenn für alle k ∈ N, 0 ≤ t 1 ≤ . . . t k < t k+1 , und h 1 , . . . , h k ∈ C b (E)<br />

[ ( ∫ tk+1<br />

k∏<br />

]<br />

E f(X tk+1 ) − f(X tk ) − Af(X s ) ds)<br />

h i (X tk ) = 0. (3.9)<br />

t k i=1<br />

(Wir erinnern an die Eigenschaft der bedingten Erwartungen: E [(ξ − E[ξ|F])ζ] = 0 für jede<br />

beschränkte F messbare Zufallsvariable ζ). Die Gleichung (3.9) macht nochmal deutlich, dass<br />

man anhand von endlich dimensionalen Verteilungen entscheiden kann ob ein stochastischer<br />

Prozess Lösung eines Martingalproblems ist oder nicht.<br />

Das nächste Resultat zeigt: Konvergieren Lösungen einer Folge von Martingalproblemen schwach,<br />

so ist der Grenzwert auch eine Lösung des “Grenzwert”-Martingalproblems.<br />

Theorem 3.6. Es sei (X n ) n=0,1,... eine Folge von D R+ (E)-wertigen Lösungen von Martingalproblemen<br />

mit Generatoren A n auf B(E) (beschränkte messbare Funktionen auf E). Ferner sei<br />

A ein Operator auf B(E) und für jedes f ∈ D(A) seien f n ∈ D(A n ) so, dass<br />

lim ‖f n − f‖ ∞ = 0,<br />

n→∞<br />

lim<br />

n→∞ ‖An f n − Af‖ ∞ = 0. (3.10)<br />

Ist X n schwach konvergent gegen X (in Zeichen X n ⇒ X), dann ist X eine Lösung des Martingalproblems<br />

zu A.<br />

Beweis. Sei D(X) := {t ∈ R + : P[X t = X t− ] = 1}, 0 ≤ t 1 ≤ . . . t k ≤ s < t ∈ D(X) und<br />

h i ∈ C b (E) für i = 1, . . . , k. Für f und f n wie in (3.10) gilt dann<br />

[ ( ∫ t<br />

) k∏<br />

]<br />

E f(X t ) − f(X s ) − Af(X u ) du h i (X tk )<br />

s<br />

i=1<br />

[ ( ∫ t<br />

) k∏<br />

]<br />

= lim E f n (X n<br />

n→∞<br />

t ) − f n (Xs n ) − A n f n (Xu n ) du h i (Xt n k<br />

) = 0.<br />

s<br />

i=1<br />

Um diese Gleichung auch auf das Komplement von D(X) fortzusetzen, zeigen wir dass es höchstens<br />

abzählbar ist. Die Behauptung folgt dann mit der Rechtsstetigkeit von X.<br />

Seien also ε, δ > 0 und T > 0. Angenommen die Menge<br />

{0 ≤ t ≤ T : P[r(X t , X t− ) ≥ ε] ≥ δ}<br />

enthält eine Folge (t n ) von unterschiedlichen Punkten, dann<br />

P[r(X tn , X tn−) ≥ ε unendlich oft ] ≥ δ > 0.<br />

Dies widerspricht aber der Tatsache, dass jedes x ∈ D E (R + ) in jedem Intervall [0, T ] nur endlich<br />

viele Sprünge der Höhe ≥ ε hat. Damit ist<br />

{0 ≤ t ≤ T : P[r(X t , X t− ) ≥ ε] > 0}<br />

höchstens abzählbar. Die Behauptung folgt dann mit ε → 0.<br />

36


3 Diffusionsapproximation von Verzweigungsprozessen<br />

Genau wie bei gewöhnlichen Differentialgleichungen (z.B. hat die DGL y ′ = √ y zwei Lösungen<br />

y(x) ≡ 0 und y(x) = x 2 /4 mit derselben Anfangswert y(0) = 0) sind die Lösungen von<br />

Martingalproblemen im Allgemeinen nicht eindeutig. Genauso wenig müssen die Lösungen Markovprozesse<br />

sein. Das folgende Resultat (siehe Ethier and Kurtz 1986, Thm. 4.4.2) zeigt, dass die<br />

letzten beiden Eigenschaften aus der Eindeutigkeit der eindimensionalen Verteilungen folgen.<br />

Theorem 3.7. Es sei E separabel und sei A ein Operator auf B(E). Ferner seien X und Y zwei<br />

Lösungen des Martingalproblems zu A mit derselben Startverteilung. Wenn die eindimensionalen<br />

Verteilungen von X und Y übereinstimmen, dann stimmen auch alle endlich-dimensionalen<br />

Verteilungen überein. Ferner sind X und Y (zeitlich) homogene Markovprozesse.<br />

Eindeutigkeit der Lösungen von Martingalproblemen kann oft mit Hilfe der Dualität der Lösung<br />

zu einem anderen Prozess (welcher auch deterministisch sein kann). Das folgende Theorem<br />

ist ein Spezialfall von Theorem 4.4.11 in (Ethier and Kurtz 1986).<br />

Theorem 3.8. Es seien E 1 und E 2 zwei metrische Räume und seien f, g ∈ B(E 1 × E 2 ) mit<br />

f(x, ·) ∈ C(E 2 ) für alle x ∈ E 1 und g(·, y) ∈ C(E 1 ) für alle y ∈ E 2 . Ferner seien für zwei<br />

stochastische Prozesse X und Y auf E 1 bzw. E 2<br />

f(X t , y) −<br />

∫ t<br />

0<br />

g(X s , y) ds und f(x, Y t ) −<br />

Martingale für alle x ∈ E 1 und y ∈ E 2 . Dann gilt für t ≥ 0<br />

∫ t<br />

0<br />

g(x, Y s ) ds (3.11)<br />

E X0 [f(X t , Y 0 )] = E Y0 [f(X 0 , Y t )]. (3.12)<br />

Beweis. Da f und g beschränkt sind können wir in (3.11) Erwartungswerte nehmen und die<br />

Integrationsreihenfolge vertauschen. Nach Ableiten erhalten wir dann für s ≥ 0<br />

d<br />

ds E X 0<br />

[f(X s , y)] = E X0 [g(X s , y)]<br />

Es folgt für s ∈ [0, t]<br />

und<br />

d<br />

ds E Y 0<br />

[f(x, Y s )] = E Y0 [g(x, Y s )]. (3.13)<br />

d<br />

ds E X 0 ×Y 0<br />

[f(X s , Y t−s )] = E X0 ×Y 0<br />

[g(X s , Y t−s )] − E X0 ×Y 0<br />

[g(X s , Y t−s )] = 0. (3.14)<br />

Schließlich liefert Integration über [0, t]<br />

0 =<br />

∫ t<br />

was gerade die Behauptung ist.<br />

0<br />

d<br />

ds E X 0 ×Y 0<br />

[f(X s , Y t−s )] ds = E X0 ×Y 0<br />

[f(X t , Y 0 )] − E X0 ×Y 0<br />

[f(X 0 , Y t )],<br />

3.2 Diffusionslimes reskalierter BGWP<br />

Es sei Z (N) eine Folge von BGWP in stetiger Zeit (definiert in Abschnitt 2.3) mit Rate α (für<br />

die Lebensdauer) und Nachkommensverteilung gegeben durch die Verteilung von ξ (N) . In diesem<br />

Abschnitt betrachten wir das Verhalten der Folge X (N) := (X (N)<br />

t ) t≥0<br />

X (N)<br />

t<br />

:= 1 N Z(N) Nt<br />

(3.15)<br />

für N → ∞. Wir nehmen an, dass Z (N)<br />

0 in Verteilung gegen eine Zufallsvariable X 0 konvergiert<br />

(ansonsten können wir natürlich auch keine Konvergenz auf der Prozessebene erwarten).<br />

37


3 Diffusionsapproximation von Verzweigungsprozessen<br />

Theorem 3.9. Es sei A ein Operator definiert durch<br />

Af(x) := 1 2 ασ2 xf ′′ (x) + αµxf ′ (x) (3.16)<br />

für f ∈ CC ∞(R +). Ferner seien E[ξ (N) ] = m (N) = 1 + µ N + o( 1 N ) und Var[ξ(N) ] = σ 2 + o(1) < ∞.<br />

Konvergiert X (N)<br />

0 gegen X 0 (deterministisch), dann konvergiert X (N) definiert in (3.15) in Verteilung<br />

gegen einen stochastischen Prozess X welcher die eindeutige Lösung des Martingalproblems<br />

zu A auf D R+ (R + ) ist.<br />

Die Annahme, dass X (N)<br />

0 deterministisch ist vereinfacht etwas den Beweis ist aber nicht notwendig.<br />

Beweis. Der Generator A (N) von X (N) ist gegeben durch<br />

A (N) f(x) = N 2 αx<br />

∞∑<br />

k=0<br />

( (<br />

p (N)<br />

k<br />

f x + k − 1 ) )<br />

− f(x) ,<br />

N<br />

wobei hier ein N durch die Zeitskalierung (bzw. Beschleunigung der Rate von α auf Nα) und<br />

das andere wegen z = Nx auftaucht. Es genügt f ∈ CC<br />

∞ zu betrachten. Wir wählen so ein f mit<br />

Träger in [0, K] für ein K > 0. Mit Taylorformel erhalten wir<br />

(<br />

∞∑<br />

A (N) f(x) = αN 2 x p (N) k − 1<br />

k<br />

N f ′ (x) + 1 ( ) k − 1 2<br />

f ′′ (x) + 1 ∫ )<br />

x+<br />

k−1<br />

N<br />

(x − y) 2 f ′′′ (y) dy<br />

2 N<br />

2<br />

k=0<br />

und mit 1 = m (N) − µ N + o( 1 N )<br />

= αf ′ (x)x<br />

(<br />

N<br />

+ 1 2 αxf ′′ (x)<br />

+ 1 2 αx 1 N<br />

∞∑<br />

k=0<br />

∞∑<br />

k=0<br />

( ∞<br />

∑<br />

k=0<br />

p (N)<br />

p (N)<br />

k<br />

(k − m (N) ) + µ + o(1)<br />

p (N)<br />

k<br />

(k − m (N) ) 2 + o(1)<br />

k<br />

(k − 1) 3 ∫ 1<br />

0<br />

)<br />

)<br />

y 2 f ′′′ (<br />

x + k − 1<br />

N y )<br />

dy.<br />

Die Summe in der ersten Zeile ist gleich Null und in der zweiten Zeile ist die Summe gleich<br />

σ 2 + o(1). In den ersten beiden Zeilen haben wir also Af(x) + o(1) stehen. Damit gilt (in der<br />

x<br />

38


3 Diffusionsapproximation von Verzweigungsprozessen<br />

zweiten Ungleichung nutzen wir unter anderem f(x) = 0 für x > K)<br />

|A (N) f(x) − Af(x)|<br />

= 1 2 αx 1 ∞∑<br />

N ∣<br />

≤ 1 2 αx 1 N<br />

k=0<br />

( ∞<br />

∑<br />

k=2<br />

p (N)<br />

k<br />

(k − 1) 3 ∫ 1<br />

∫ N(K−x) 1∧ +<br />

k<br />

(k − 1) 3 k−1<br />

p (N)<br />

0<br />

0<br />

y 2 f ′′′ (<br />

x + k − 1<br />

N y )<br />

dy<br />

∣ + o(1)<br />

∣ ( ∣∣∣<br />

y 2 f ′′′ x + k − 1 )∣ ∣∣∣<br />

N<br />

y dy<br />

+ p (N)<br />

0 ‖f ′′′ ‖ ∞ 1 {x≤K}<br />

)<br />

+ o(1)<br />

≤ 1 2 αx 1 ∞∑<br />

(<br />

p (N)<br />

N<br />

k<br />

(k − 1) 3 ‖f ′′′ ‖ ∞ 1 ∧ N(K − x) )<br />

+<br />

+ αK 1 k − 1<br />

N p(N) 0 ‖f ′′′ ‖ ∞ + o(1)<br />

k=2<br />

≤ 1 2 αK‖f ∑<br />

∞ ( )<br />

′′′ ‖ ∞ p (N) k − 1<br />

k<br />

(k − 1) 2 N ∧ K + o(1).<br />

k=2<br />

Die Summe in der ersten Zeile konvergiert nach dem Satz von dominierter Konvergenz gegen<br />

Null und somit gilt ‖A (N) f − Af‖ ∞ → 0 für N → ∞. Für Straffheit in D R+ (R + ) bleibt<br />

nach Theorem 3.5 und Lemma 3.5 noch die compact containment condition zu zeigen. Dafür<br />

überzeugen wir uns zunächst davon, dass e −α(m(N) −1)t Z (N)<br />

t ein Martingal ist. Es gilt<br />

∞∑<br />

A (N) id(x) = αx p (N)<br />

k<br />

(x − 1 + k − x) = αx(m (N) − 1)<br />

und somit<br />

k=0<br />

E z [Z (N)<br />

t ] = z + E<br />

= z + E<br />

Die Lösung dieser Gleichung (nach E z [Z (N)<br />

t<br />

∫ t<br />

0<br />

∫ t<br />

= z + α(m (N) − 1)<br />

die Martingaleigenschaft von e −α(m(N) −1)t Z (N)<br />

t<br />

für T, c > 0<br />

P X<br />

(N)<br />

0<br />

[<br />

sup X (N)<br />

t > c<br />

0≤t≤T<br />

⎡<br />

≤ P Z<br />

(N)<br />

0<br />

≤ 1 c<br />

= 1 c<br />

⎣<br />

sup<br />

0≤t≤NT<br />

sup<br />

]<br />

0≤t≤NT<br />

= P Z<br />

(N)<br />

0<br />

[<br />

0<br />

A (N) id(Z s<br />

(N) ) ds<br />

αZ s<br />

(N) (m (N) − 1) ds<br />

∫ t<br />

0<br />

E[Z s<br />

(N) ] ds.<br />

])) ist E z [Z (N)<br />

t ]) = ze α(m(N) −1)t . Daraus erhält man<br />

. Mit der Doob’schen Ungleichung erhalten wir<br />

sup<br />

0≤t≤NT<br />

]<br />

1<br />

N Z(N) t > c<br />

( )<br />

1<br />

N Z(N) t e −α(m(N) −1)t<br />

> c<br />

e −α(m(N) −1)t 1 N E Z (N) [Z (N)<br />

Nt −1)NT e−α(m(N) ]<br />

0<br />

sup e −α(m(N) −1)t X (N)<br />

0 .<br />

0≤t≤NT<br />

(<br />

sup e −α(m(N) −1)t<br />

0≤t≤NT<br />

) −1<br />

⎤<br />

⎦<br />

39


3 Diffusionsapproximation von Verzweigungsprozessen<br />

Das Supremum in der letzten Zeile ist beschränkt in N. Wenn µ = m (N) − 1 + o(1/N) < 0 ist<br />

dann ist es beschränkt durch 1. Anderenfalls ist es gleich e α(µ+o(1))T was gegen e αµT konvergiert<br />

und somit beschränkt ist. Insgesamt kann man also zu jedem ε > 0 und jedem T > 0 ein c so<br />

wählen, dass P X<br />

(N)<br />

0<br />

[<br />

sup 0≤t≤T X (N)<br />

t > c<br />

]<br />

< ε gilt, was die compact containment condition zeigt.<br />

Nach Theorem 3.6 ist jeder Grenzwert X gegen den eine Teilfolge von X (N) in Verteilung<br />

konvergiert eine Lösung von dem Martingalproblem zu A. Für die Konvergenz X (N) ⇒ X bleibt<br />

also noch die Eindeutigkeit des Grenzwertes zu zeigen. Dies zeigen wir mit Hilfe von Dualität.<br />

Sei dazu u(t) die eindeutige Lösung von<br />

d<br />

dt u(t) = −1 2 ασ2 u 2 (t) + αµu(t), u(0) = u 0 ,<br />

auf R + (u(t) ist natürlich deterministisch). Dann ist<br />

e −xu(t) −<br />

∫ t<br />

0<br />

x( 1 2 ασ2 u 2 (s) − αµu(s))e −xu(s) ds = e −xu(t) −<br />

∫ t<br />

0<br />

d<br />

ds e−xu(s) ds = e −xu 0<br />

ein Martingal für x ∈ R + . Da X eine Lösung des Martingalproblems zu A ist, ist auch<br />

e −Xtu −<br />

∫ t<br />

0<br />

X s ( 1 2 ασ2 u 2 − αµu)e −Xsu ds<br />

= f u (X t ) −<br />

∫ t<br />

0<br />

Af u (X s ) ds<br />

ein Martingal für jedes u ∈ R + , hier ist f u (x) := e −ux . Nach Theorem 3.8 gilt E X0 [e −uXt ] =<br />

e −utX 0<br />

dadurch sind die eindimensionalen Verteilungen von X eindeutig festgelegt und mit<br />

Theorem 3.7 folgt die Eindeutigkeit der endlich dimensionalen Verteilungen.<br />

Wir haben in dem obigen Theorem Konvergenz in D R+ (R + ) gezeigt. Tatsächlich kann man<br />

sogar zeigen, dass der Grenzwert X eine Diffusion ist, ein Prozess also, dessen Pfade fast sicher<br />

in C(R + , R + ) liegen. Ferner kann man X als Lösung der stochastischen Differentialgleichung<br />

dX t = √ ασ 2 X t dB t + αµX t dt<br />

auffassen. Dieser Prozess wird oft als Feller-Diffusion bezeichnet (siehe Feller 1951). Es ist ein<br />

Beispiel für einen Verzweigungsprozess mit stetigem Zustandsraum R + . Ist X ein allgemeiner<br />

subkritischer oder kritischer Verzweigungsprozess auf R + mit Übergangsoperator p(t, x, ·), so<br />

gilt (siehe Le Gall 1999)<br />

E x [e −λXt ] =<br />

∫ ∞<br />

0<br />

e −λy p(t, x, dy) = e −xut(λ) , λ > 0.<br />

Hier ist u t (λ) die eindeutige nicht-negative Lösung der Integralgleichung<br />

wobei<br />

u t (λ) +<br />

∫ t<br />

ψ(u) = αu + βu 2 +<br />

0<br />

ψ(u s (λ)) ds = λ<br />

∫ ∞<br />

0<br />

(e −ru − 1 + ru) π(dr)<br />

40


3 Diffusionsapproximation von Verzweigungsprozessen<br />

mit α, β ≥ 0 und einem σ-endlichen Maß π mit ∫ ∞<br />

0 (r ∧r2 )π(dr) < ∞. Die Funktion ψ heißt Verzweigungsmechanismus.<br />

Außerdem kann man zu jedem (subkritischen oder kritischen) Verzweigungsprozess<br />

X abhängig von den Parametern α, β und π ein Folge von Verzweigungsprozessen<br />

mit diskretem Zustandsraum konstruieren, die X approximieren.<br />

Die Verzweigungsprozesse die wir betrachtet haben, haben alle keine räumliche Struktur. Man<br />

kann eine solche einführen indem man zum Beispiel jedes Individuum während seiner Lebenszeit<br />

gemäß einer Irrfahrt auf Z d oder gemäß einer Brownschen Bewegung auf R d sich bewegen lässt.<br />

Stirbt das Individuum, dann wird es eine zufällige (nach der festen Nachkommensverteilung<br />

verteilte) Anzahl von Nachkommen ersetzt. Diese verhalten sich dann wie unabhängige Kopien<br />

ihrer “Mutter”. Solche Prozesse bezeichnet man als verzweigende Irrfahrt bzw. verzweigende<br />

Brownsche Bewegung und man kann sie als maßwertige Prozesse auffassen. Reskalierungen von<br />

diesen Prozessen führen zu so genannten Superprozessen (siehe Etheridge 2000).<br />

41


4 <strong>Populationsmodelle</strong> mit fester<br />

Populationsgröße<br />

In diesem Kapitel betrachten wir populationsgenetische Modelle mit diskretem Zustandsraum.<br />

Ziel der Populationsgenetik ist es, die Mechanismen wie z.B. Mutation, Selektion, Rekombination,<br />

zu verstehen, die zu (genetischer) Variabilität führen die man in der Natur beobachten kann.<br />

In dem ersten Abschnitt behandeln wir kurz das neutrale Wright-Fisher (WF) Modell und in<br />

dem zweiten etwas ausführlicher das Moran-Modell (das Analogon von WF Modell in stetiger<br />

Zeit). Für ausführlichere Beschreibung dieser Modelle und deren Erweiterungen verweisen wir<br />

auf z.B. (Etheridge 2011) und (Tavaré 2004).<br />

4.1 Wright-Fisher Modell<br />

Wir betrachten eine Population mit 2N Individuen die jeweils vom Typ A oder a sind. Die<br />

Population verhält sich gemäß einer Markovkette (X n ) n=0,1,... in diskreter Zeit. Dabei ist<br />

X n := #Individuen vom Typ A in Generation n.<br />

Natürlich reicht es die Evolution des einen Typs zu betrachten. Wir betrachten zunächst eine<br />

neutrale Population ohne Mutation. Neutral bedeutet hier, dass kein Typ bei der Reproduktion<br />

bevorzugt wird. In diesem Fall kann man die Evolution auch so auffassen, dass die 2N Individuen<br />

zur Zeit n + 1 sich ihre Mutter zufällig aus der n-ten Generation “ziehen”, d.h. gegeben X n ist<br />

X n+1 binomial verteilt mit Parameter X n /2N:<br />

Wegen<br />

( 2N<br />

P[X n+1 = k|X n ] =<br />

k<br />

) ( ) k (<br />

Xn<br />

1 − X ) 2N−k<br />

n<br />

, k ∈ {0, . . . , 2N}. (4.1)<br />

2N 2N<br />

E[X n+1 |X 0 , . . . , X n ] = E[X n+1 |X n ] = 2N X n<br />

2N = X n (4.2)<br />

ist (X n ) ein Martingal. Insbesondere gilt E[X n ] = E[X 0 ] für alle n ≥ 1. Es ist klar, dass (X n ) eine<br />

Markovkette auf {0, · · · , 2N} mit absorbierenden Zuständen 0 (Typ a fixiert in der Population)<br />

und 2N (Typ A fixiert in der Population).<br />

Es sei p i die Wahrscheinlichkeit für die Absorption in 2N gegeben X 0 = i. Für p i kann man<br />

dann eine Rekurrenzgleichung mit Randwerten p 0 = 0 und p 2N = 1 hinschreiben und auch lösen<br />

(siehe Tavaré 2004), man kann sie aber auch mit Hilfe des Martingal-Stoppsatzes lösen. Sei dazu<br />

τ = inf{n ≥ 0 : X n = 0, oder X n = 2N}, dann kann man sich überlegen, dass τ fast sicher<br />

endlich ist und es gilt<br />

i = E[X τ |X 0 = i] = p i 2N + (1 − p i )0<br />

42


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

und somit<br />

p i =<br />

i<br />

2N . (4.3)<br />

Also ist die Wahrscheinlichkeit in einem bestimmten Typ zu fixieren ist gleich der relativen<br />

Häufigkeit des Typs zur Zeit 0. Wie wir später sehen werden stammt für große n die gesamte<br />

Population von einem Vorfahr aus der Zeit 0 ab. Dieser Vorfahr wird zufällig gewählt und die<br />

W’keit, dass er vom Typ A ist, ist gerade p i .<br />

Wie für p i , kann man für die mittlere Absorptionszeit E i [τ] auch eine Rekurrenzgleichung<br />

hinschreiben. Es ist jedoch kompliziert diese explizit zu lösen. Später bei der Diffusionsapproximation<br />

werden wir approximativ E i [τ] angeben.<br />

Nun berechnen wir die Varianz von X n . Es gilt<br />

Var[X n ] = E[Var[X n |X n−1 ]] + Var[E[X n |X n−1 ]]<br />

= E[2N X n−1<br />

2N (1 − X n−1<br />

2N ] + Var[X n−1]<br />

= E[X n−1 ] − 1<br />

2N E[X2 n−1] + Var[X n−1 ]<br />

= E[X n−1 ] − 1<br />

2N (Var[X n−1] + E 2 [X n−1 ]) + Var[X n−1 ]<br />

= E[X 0 ](2N − E[X 0 ]) 1<br />

2N + (1 − 1<br />

2N ) Var[X n−1]<br />

= · · · = E[X 0 ](2N − E[X 0 ])(1 − λ n ) + λ n Var[X 0 ],<br />

(4.4)<br />

wobei λ = 1 − 1<br />

2N . Insbesondere konvergiert die Varianz gegen 2NE[X 0/2N](1 − E[X 0 /2N])<br />

(also gegen die Varianz der (2N, E[X 0 ]/2N)-Binomialverteilung) für n → ∞.<br />

Eine wichtige Größe für Variation in der Population ist die so genannte Heterozygotie. Sie ist<br />

definiert als die Wahrscheinlichkeit h(r), dass zwei in Generation r zufällig (mit zurücklegen)<br />

gezogene Individuen unterschiedliche Typen haben, d.h.<br />

h(r) := 2E<br />

Mit der Formel für die Varianz erhalten wir<br />

Es folgt<br />

[<br />

Xr<br />

2N<br />

2N − X r<br />

2N<br />

E[X r (2N − X r )] = 2NE[X r ] − E[X 2 r ] = 2NE[X 0 ] − Var[X r ] − E 2 [X r ]<br />

= 2NE[X 0 ] − E[X 0 ](2N − E[X 0 ])(1 − λ r ) − λ r Var[X 0 ] − E 2 [X 0 ]<br />

= λ r (2NE[X 0 ] − Var[X 0 ] − E 2 [X 0 ]) = λ r E[X 0 (2N − X 0 )].<br />

h(r) = λ r h(0).<br />

Somit nimmt die Heterozygotie geometrisch ab.<br />

Man kann das Wright-Fisher Modell in verschiedene Richtungen verallgemeinern, und damit<br />

das Modell “realistischer” machen. So kann man z.B. auch Mutation, Selektion und Rekombination<br />

modellieren und einen allgemeineren Typenraum zulassen. Einige dieser Verallgemeinerungen<br />

werden wir bei dem Moran Modell betrachten.<br />

]<br />

.<br />

43


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

4.2 Moran Modell<br />

Das Moran Modell ist das stetige Zeit Analogon des Wright-Fisher Modells, das wir uns im letzten<br />

Abschnitt angesehen haben. Mathematisch ist es einfacher zu handhaben, weil beispielsweise<br />

im neutralen Zweitypen-Fall ohne Mutation die Allelfrequenzen (Häufigkeiten eines Typs) sich<br />

wie ein Geburts- und Todesprozess verhalten. Außerdem werden wir sehen, dass die Genealogie<br />

einer Stichprobe aus einer Population, die sich nach dem Moran Modell entwickelt, durch<br />

den Kingman-Koaleszenten gegeben ist. Letzterer beschreibt unter bestimmten Voraussetzungen<br />

auch, jedoch nur approximativ, die Genealogie des Cannings Modells. Das Wright-Fisher Modell<br />

ist ein spezielles Cannings Modell.<br />

Definition 4.1 (Neutrales Moran Modell). Eine Population von N Genen (verteilt auf N Individuen)<br />

entwickelt sich gemäß einem neutralem Moran Modell, wenn nach jeweils exponentiell<br />

verteilter Wartezeit mit Rate ( )<br />

N<br />

2 ein Paar von Genen zufällig ausgewählt wird. Einer der beiden<br />

stirbt und wird durch einen Nachkommen des anderen ersetzt.<br />

Wie bei vielen Markovketten und Teilchensystemen<br />

in stetiger Zeit der Fall ist, kann man auch<br />

ein Moran Modell mit Hilfe von Poissonprozessen<br />

graphisch konstruieren. Es sei U = {1, . . . , N}<br />

und sei {N i,j : i, j ∈ U} eine Familie von unabhängigen<br />

Poissonprozessen mit jeweils Rate Eins.<br />

Zu jedem Sprungzeitpunkt von N i,j findet ein<br />

Resamplingereignis zwischen i und j statt. Mit<br />

jeweils Wahrscheinlichkeit 1/2 wird i durch einen<br />

Nachkommen von j oder umgekehrt ersetzt. Nach<br />

dem Resampling kriegt das “neue” Individuum<br />

die Nummer des Individuums, das ersetzt wurde.<br />

In Abbildung 4.1 sind diese Resamplingereignisse<br />

durch Pfeile dargestellt. Da die endlich<br />

vielen Poissonprozesse fast sicher keine gemeinsame<br />

Sprünge haben gibt es höchsten jeweils ein<br />

Ereignis pro Zeitpunkt. Die Anzahl ungeordneter<br />

Paare ist ( )<br />

N<br />

2 und deswegen ist die Wartezeit<br />

zwischen den Ereignissen Exp( ( )<br />

N<br />

2 ) verteilt.<br />

(Hier benutzen wir die Tatsache, dass das Minimum<br />

von n unabhängigen exponentiell verteilten<br />

Zufallsvariablen mit Rate λ exponentiell verteilt<br />

sind mit Rate λn.)<br />

t<br />

1 2 3 4 5<br />

Abbildung 4.1: Graphische Konstruktion<br />

des Moran Modells<br />

Wie beim Wright-Fisher Modell betrachten wir zunächst den neutralen Fall ohne Mutation mit<br />

zwei Typen A und a. Sei X t die Häufigkeit der Individuen vom Typ A zur Zeit t. Dann ist<br />

X = (X t ) t≥0 ein Markovkette in stetiger Zeit mit Zustandsraum {0, 1/N, . . . , (N −1), N}, wobei<br />

die Zustände 0 und 1 absorbierend sind.<br />

44


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

Der Generator A (N) von X sieht wie folgt aus:<br />

( ) ( ( (<br />

N<br />

A (N) f(p) := p(1 − p) f p + 1 )<br />

− f(p)<br />

2 N<br />

)<br />

( (<br />

+ (1 − p)p f p − 1 ) ))<br />

− f(p) . (4.5)<br />

N<br />

Für p ∈ {0, 1} ist natürlich A (N) f(p) = 0. Um zu sehen, dass A (N) wirklich der Generator von<br />

X ist, beachte, dass ( )<br />

N<br />

2 immer die Gesamtrate für ein Ereignis ist. Ist bei einem Ereignis p die<br />

Häufigkeit des Typs A, dann ändert sie sich nur dann, wenn der Pfeil in der Graphischen Konstruktion<br />

vom Typ A zu Typ a zeigt oder umgekehrt. Pfeile, die von einem Typ auf denselben<br />

zeigen, ändern zwar die “Verwandschaftsverhältnisse” im Modell, nicht aber die Typenhäufigkeiten.<br />

Die Wahrscheinlichkeit für beide Ereignisse p → p + 1/N und p → p − 1/N ist also p(1 − p).<br />

Ferner finden mit Wahrscheinlichkeit 1 − 2p(1 − p) Ereignisse p → p statt, die die Typenhäufigkeiten<br />

nicht verändern. Die Wahrscheinlichkeit ein Ereignis in dem Intervall [0, h] zu beobachten<br />

ist von der Ordnung ( )<br />

N<br />

2 h + O(h 2 ).<br />

Wir wollen uns nun anschauen, wie sich X, was wir ab jetzt mit X (N) bezeichnen für große<br />

N verhält. Für dreimal stetig differenzierbare Funktion f erhalten wir mit der Taylorformel<br />

( ) ( N 1<br />

A (N) f(p) = p(1 − p)<br />

2 N f ′ (p) + 1<br />

( )) 1<br />

2N 2 f ′′ (p) + O<br />

N 3<br />

( ) N<br />

+ p(1 − p)<br />

2<br />

( ) ( N 1<br />

= p(1 − p)<br />

2 N 2 f ′′ (p) + O<br />

= 1 ( ) 1<br />

2 p(1 − p)f ′′ (p) + O .<br />

N<br />

(<br />

− 1 N f ′ (p) + 1<br />

2N 2 f ′′ (p) + O<br />

( 1<br />

N 3 ))<br />

Wir fassen dieses Resultat im folgenden Lemma zusammen.<br />

( 1<br />

N 3 ))<br />

Lemma 4.2. Für N → ∞ konvergiert der Generator A (N) des Prozesses der Typenhäufighkeit<br />

X (N) gegen den Generator der Wright-Fisher Diffusion p = (p t ) t≥0 , der durch<br />

gegeben ist.<br />

Af(p) = 1 2 p(1 − p)f ′′ (p) (4.6)<br />

Bemerkung 4.3 (Konvergenz der reskalierten Wright-Fisher Markovkette). Es sei X (N) =<br />

(X n<br />

(N) ) die WF-Markovkette aus dem vorherigen Abschnitt; siehe (4.1). Wir ersetzen dort 2N<br />

jeweils durch N und setzen<br />

p t := 1 N X(N) [Nt] .<br />

Für hinreichend glatte Funktionen f haben wir dann<br />

d<br />

dt E[f(p t)|p 0 = p] ∣ ≈ E[f(p 1/N)|p 0 = p] − f(p)<br />

t=0 1/N<br />

(<br />

= N f ′ (p)E[(p 1/N − p)|p 0 = p] + f ′′ )<br />

(p)<br />

E[(p<br />

2 1/N − p) 2 |p 0 = p] + O(N −2 ) .<br />

45


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

Nun ist nach (4.2)<br />

E[(p 1/N − p)|p 0 = p] = 1 N E[(X(N) 1 − X (N)<br />

0 )|p 0 = p] = 0<br />

und nach (4.4)<br />

E[(p 1/N − p) 2 |p 0 = p] = 1<br />

N 2 Var[X(N) 1 |X 0 = Np] = 1<br />

N 2 Np(N − Np)(1 − (1 − 1 p(1 − p)<br />

)) =<br />

N N .<br />

Insgesamt ist also<br />

d<br />

dt E[f(p t)|p 0 = p] ∣ ≈ 1<br />

t=0 2 p(1 − p)f ′′ (p) + O(N −1 ).<br />

Für N → ∞ konvergiert also der reskalierte Prozess der Häufigkeit der Individuen vom Typ A<br />

gegen die Wright-Fisher Diffusion.<br />

Wir haben schon bemerkt, dass für jedes N die Markovkette X (N) in fast sicher endlicher<br />

Zeit in einem der Zustände 0 oder N absorbiert wird. Dasselbe kann man für die Wright-<br />

Fisher Diffusion zeigen. Bezeichnen wir mit T (N)<br />

i<br />

bzw. T p jeweils die entsprechenden erwarteten<br />

Absorptionszeiten, dann gilt<br />

T (N)<br />

i<br />

≈ NT i/N . (4.7)<br />

Als nächstes betrachten wir das Moran Modell mit<br />

Mutation. Zunächst betrachten wir den einfachen<br />

Fall mit Typen aus I = {a, A} (wie in der Abbildung<br />

rechts dargestellt). Mit Mutationsrate θ 1 mutiert ein<br />

Individuum vom Typ a zum Typ A und mit Rate θ 2<br />

ein Individuum vom Typ A zum Typ a. Ferner sei<br />

θ = θ 1 +θ 2 und sei {N i : i ∈ U} eine Familie von unabhängigen<br />

Poissonprozessen mit Parameter θ. Die<br />

Sprünge dieser Prozesse sind in der Abbildung durch<br />

Kreuze dargestellt. An jedem dieser “Kreuze” mutiert<br />

das Individuum zum Typ A mit Wahrscheinlichkeit<br />

θ 1 /θ und zum Typ a mit Wahrscheinlichkeit<br />

θ 2 /θ. In der Abbildung ist entlang der Linien 3 und 5<br />

jeweils ein Mutationsereignis das keine Auswirkung<br />

auf den Typ hatte, da das Individuum zum selben<br />

Typ “mutiert” ist. Für θ 1 = θ 2 = 0 erhalten wir natürlich<br />

das ursprüngliche neutrale Modell ohne Mutation.<br />

Sind aber beide Mutationsraten positiv und<br />

definieren wir X (N)<br />

t wie zuvor als die Häufigkeit der<br />

Individuen vom Typ A, so erhalten wir wieder eine<br />

Markovkette auf {0, 1/N, . . . , 1}. Diese ist aber<br />

nicht mehr absorbierend.<br />

t<br />

1 2 3 4 5<br />

Abbildung 4.2: Moran Modell mit Mutation<br />

46


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

Der Generator von X (N) ist gegeben durch<br />

A (N) f(p) := A (N)<br />

res f(p) + A (N) f(p) (4.8)<br />

mut<br />

mit<br />

und<br />

( ) ( ( (<br />

N<br />

A (N)<br />

res f(p) = p(1 − p) f p + 1 ) ) ( (<br />

− f(p) + (1 − p)p f p − 1 ) ))<br />

− f(p)<br />

2 N<br />

N<br />

( (<br />

A (N)<br />

mut = Nθ 1(1 − p) f p + 1 ) ) ( (<br />

− f(p) + Nθ 2 p f p − 1 ) )<br />

− f(p) .<br />

N<br />

N<br />

Den Resampling-Generator A (N)<br />

res f(p) kennen wir schon. Außerdem haben wir schon gezeigt, dass<br />

dieser für N → ∞ gegen 1 2 p(1 − p)f ′′ (p) konvergiert.<br />

Für den Mutationsgenerator erhalten wir<br />

Insgesamt gilt also<br />

A (N)<br />

mut = N (θ 1 (1 − p) 1 N f ′ (p) − Nθ 2 p 1 N f ′ (p) + O(N −2 )<br />

= (θ 1 (1 − p) − θ 2 p) f ′ (p) + O(N −1 ).<br />

A (N) f(p) → 1 2 p(1 − p)f ′′ (p) + (θ 1 (1 − p) − θ 2 p) f ′ (p), N → ∞.<br />

Das ist der Generator der Wright-Fisher Diffusion mit Mutation.<br />

4.3 Wright-Fisher Diffusion<br />

Eine eindimensionale Diffusion ist ein starker Markovprozess auf R mit stetigen Pfaden. Der Zustandsraum<br />

ist typischerweise ein Intervall (a, b), der endlich oder unendlich ein kann. Außerdem<br />

können je nach Anwendung beide, einer oder keiner der Randpunkte {a, b} zum Zustandsraum<br />

gehören. Der Generator hat die Form<br />

Af(x) = 1 2 σ2 (x)f ′′ (x) + µ(x)f ′ (x). (4.9)<br />

Je nach Verhalten an den Randpunkten müssen die Funktionen f ∈ D(A) abgesehen von zweimaliger<br />

Differenzierbarkeit bestimmte Randbedingungen erfüllen.<br />

Wir nehmen an:<br />

1. Für jedes kompakte Intervall I ⊂ (a, b) gibt es ein ε mit σ 2 (x) > ε für alle x ∈ I;<br />

2. Die Funktionen µ und σ 2 sind stetig auf (a, b).<br />

Für f 1 (x) = x gilt<br />

1<br />

Af 1 (X t ) = lim<br />

h↓0 h E X t<br />

[X t+h − X t ] = µ(X t )<br />

)<br />

47


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

und somit für h ↓ 0<br />

E Xt [X t+h − X t ] = hµ(X t ) + o(h).<br />

Schreiben wir außerdem (X t+h − X t ) 2 = X 2 t+h − X2 t − 2X t (X t+h − X t ), so gilt mit f 2 (x) = x 2<br />

und somit für h ↓ 0<br />

1<br />

Af 2 (X t ) − 2X t Af 1 (X t ) = lim<br />

h↓0 h E X t<br />

[(X t+h − X t ) 2 ] = σ 2 (X t )<br />

E Xt [(X t+h − X t ) 2 ] = hσ 2 (X t ) + o(h).<br />

Aus diesem Grund bezeichnet man mu(x) und σ 2 (x) als infinitesimale Drift bzw. infinitesimale<br />

Varianz des zugehörigen Diffusionsprozesses.<br />

Die Skalenfunktion eines Diffusionsprozesses mit Generator (4.9) ist definiert durch<br />

S(x) :=<br />

∫ x<br />

x 0<br />

exp<br />

wobei x 0 , η ∈ (a, b). Ferner ist die Funktion<br />

m(x) :=<br />

{<br />

−<br />

∫ y<br />

η<br />

1<br />

σ 2 (x)S ′ (x)<br />

}<br />

2µ(z)<br />

σ 2 (z) dz dy,<br />

die Dichte des Speed-Maßes.<br />

Für z ∈ (a, b) setzen wir H z := inf{t ≥ 0 : X t = z}. Mit Hilfe des folgenden Resultates<br />

kann man bei Diffusionen die Wahrscheinlichkeiten einen Zustand vor dem anderen zu erreichen<br />

berechnen.<br />

Lemma 4.4. Für a < a 0 < x < b 0 < b gilt<br />

P x [T a0 < T b0 ] = S(b 0) − S(x)<br />

S(b 0 ) − S(a 0 ) . (4.10)<br />

Sind beide Ränder a und b in fast sicher endlicher Zeit erreichbar, dann gilt (4.10) auch für<br />

a 0 = a und b 0 = b.<br />

Wright-Fisher Diffusion ohne Mutation ist ein Prozess auf [0, 1] mit µ ≡ 0 und σ 2 (x) = x(1−x).<br />

Dabei sind beide Ränder absorbierend. Dann ist S(x) = x − x 0 und wir haben<br />

P x [T 0 < T 1 ] = (1 − x) für x ∈ [0, 1].<br />

Dies ist genau dass, was man wegen (4.3) erwarten konnte.<br />

Es sei T ∗ die Austrittszeit des Prozesses (X t ) t≥0 aus (a, b). Die Green-Funktion G(x, ξ) gibt<br />

die erwartete Zeit, die der Prozess bis zur Zeit T ∗ in ξ verbringt bei Start in x. Natürlich ist<br />

G(a, ξ) = G(b, ξ) = 0. Allgemein ist die Green-Funktion einer Diffusion mit Generator (4.9) und<br />

den entsprechenden Skalenfunktion S und der Dichte des Speed-Maßes m gegeben durch<br />

{<br />

2(S(b) − S(ξ))<br />

S(x)−S(a)<br />

S(b)−S(a)<br />

m(ξ) : x ≤ ξ < b,<br />

G(x, ξ) :=<br />

2(S(ξ) − S(a)) S(b)−S(x)<br />

S(b)−S(a) m(ξ) : a < ξ ≤ x. (4.11)<br />

48


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

Mit Hilfe der Green-Funktion kann man verschiedene Funktionale des Prozesses berechnen. Für<br />

stetige Funktionen g auf (a, b) gilt nämlich<br />

[ ∫ ]<br />

T ∗<br />

∫ b<br />

E x g(X s ) ds = G(x, ξ)g(ξ) dξ. (4.12)<br />

0<br />

Nehmen wir hier g ≡ 1, so steht hier auf der linken Seite E[T ∗ ]. Für die Wright-Fisher Diffusion<br />

erhalten wir also für p ∈ (0, 1)<br />

E p [T ∗ ] =<br />

= 2<br />

∫ 1<br />

= 2p<br />

0<br />

∫ 1<br />

G(p, ξ) dξ<br />

p<br />

∫ 1<br />

p<br />

a<br />

∫<br />

1<br />

p<br />

p(1 − ξ)<br />

ξ(1 − ξ) dξ + 2 1<br />

(1 − p)ξ<br />

ξ(1 − ξ) dξ<br />

∫<br />

1<br />

p<br />

ξ dξ + 2(1 − p)<br />

0<br />

0<br />

1<br />

1 − ξ dξ<br />

= −2(p log p + (1 − p) log(1 − p)).<br />

Für große N ist dies auch eine gute Approximation für die erwartete Absorptionszeit in dem<br />

Moran Modell bei Start des einen Typs mit Häufigkeit p. Für Wright-Fisher Modell auf der<br />

ursprünglichen Zeitskala und bei Start mit Häufigkeit p gilt wie wir schon in (4.7) bemerkt<br />

haben<br />

T (N)<br />

p<br />

≈ −2N(p log p + (1 − p) log(1 − p)),<br />

und insbesondere ist T (N)<br />

1/2<br />

≈ 2N log 2.<br />

Nun betrachten wir die Wright-Fisher Diffusion mit Mutation. In diesem Fall sind die Ränder<br />

nicht absorbierend also handelt es sich um eine regulären (d.h. jeder Punkt ist mit positiver<br />

Wahrscheinlichkeit von jedem anderen Punkt aus erreichbar, in der Sprache von Markovketten<br />

würde man irreduzibel sagen) Diffusion auf einem kompakten Intervall. Damit ist sie auch positiv<br />

rekurrent und in diesem Fall haben Markovketten eindeutige stationäre Verteilungen. Dasselbe<br />

ist auch für Diffusion wahr und schauen uns die stationäre Verteilung der Wright-Fisher Diffusion<br />

an.<br />

Es sei zunächst allgemein X = (X t ) t≥0 ein Diffusionsprozess auf [a, b] mit Generator (4.9).<br />

Eine stationäre Verteilung von X ist eine Verteilung Ψ mit der Eigenschaft X t ∼ Ψ für alle<br />

t ≥ 0, falls X 0 ∼ Ψ. Insbesondere ist dann<br />

An der Stelle t = 0 erhalten wir<br />

a<br />

∫ b<br />

0 = d dt E[f(X t)|X 0 ∼ Ψ] = d dt<br />

∫ b<br />

a<br />

∫ b<br />

a<br />

Af(x)Ψ(dx) = 0<br />

E[f(X t )|X 0 = x]Ψ(dx).<br />

für alle f ∈ D(A). Aus dieser Gleichung kann man manchmal Ψ bekommen. Wir schreiben im<br />

Folgenden ψ(x) dx = Ψ(dx). Mit partieller Integration erhalten wir<br />

∫ b<br />

( )<br />

1<br />

0 =<br />

2 σ2 (x) d2 f df<br />

(x) + µ(x)<br />

dx2 dx (x) ψ(x) dx<br />

=<br />

a<br />

( 1<br />

f(x)<br />

2<br />

d 2<br />

dx 2 (σ2 (x)ψ(x)) − d<br />

dx (µ(x)ψ(x)) )<br />

dx + Randterme.<br />

49


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

Diese Gleichung muss für alle f ∈ D(A) gelten und insbesondere können wir die Funktionen<br />

so wählen, dass jeweils f und f ′ auf dem Rand verschwinden. Für solche Funktionen ist der<br />

Randterm Null. Also muss für x ∈ (a, b)<br />

1<br />

2 dx 2 (σ2 (x)ψ(x)) − d<br />

dx (µ(x)ψ(x)) = 0<br />

d 2<br />

gelten. Nach einer Integration (und Multiplikation beider Seiten mit zwei) erhalten wir<br />

für eine Konstante C 1 . Damit gilt<br />

woraus wir<br />

d<br />

dx (σ2 (x)ψ(x)) − 2µ(x)ψ(x) = C 1 ,<br />

d<br />

dy (S′ (y)σ 2 (y)ψ(y)) = S ′′ (y)σ 2 (y)ψ(y) + S ′ (y) d<br />

dy (σ2 (y)ψ(y))<br />

= − 2µ(y)<br />

σ 2 (y) S′ (y)σ 2 (y)ψ(y) + S ′ (y) d<br />

dy (σ2 (y)ψ(y))<br />

= C 1 S ′ (y),<br />

S ′ (y)σ 2 (y)ψ(y) = C 1 S(y) + C 2<br />

erhalten. Diese Gleichung lässt sich nach ψ(y) auflösen:<br />

S(y)<br />

ψ(y) = C 1<br />

S ′ (y)σ 2 (y) + C 1<br />

2<br />

S ′ (y)σ 2 (y) = m(y)(C 1S(y) + C 2 ).<br />

Wenn man nun C 1 und C 2 so wählen kann, dass ψ ≥ 0 und ∫ b<br />

a<br />

ψ(y) dy = 1 ist, dann ist ψ die<br />

Dichte der stationären Verteilung von X. Wenn insbesondere ∫ b<br />

a m(y) dy < ∞ und wir C 1 = 0<br />

wählen, dann ist<br />

ψ(y) =<br />

m(y)<br />

∫ b<br />

a m(y) dy (4.13)<br />

die Dichte einer stationären Verteilung von X. Ist die Diffusion zudem regulär, dann ist die<br />

stationäre Verteilung eindeutig und ihre Dichte ist gegeben durch (4.13). Schauen wir uns nun<br />

wieder die Wright-Fisher Diffusion mit Generator<br />

Af(p) = 1 2 p(1 − p)f ′′ (p) + (θ 1 (1 − p) − θ 2 p) f ′ (p).<br />

In diesem Fall ist<br />

( ∫ p<br />

S ′ (p) = exp −<br />

(<br />

= exp −<br />

p<br />

∫<br />

0<br />

p<br />

p 0<br />

)<br />

2µ(z)<br />

σ 2 (z) dz<br />

θ 1 (1 − z) − θ 2 z<br />

z(1 − z)<br />

)<br />

dz<br />

= C exp(−2θ 1 log p − 2θ 2 log(1 − p))<br />

= Cp −2θ 1<br />

(1 − p) −2θ 2<br />

,<br />

50


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

wobei C eine von p 0 abhängige Konstante ist. Es folgt<br />

Nun ist<br />

∫ 1<br />

0<br />

m(p) =<br />

m(p) dp = C<br />

1<br />

S ′ (p)σ 2 (p) = Cp2θ 1−1 (1 − p) 2θ 2−1 .<br />

∫ 1<br />

0<br />

p 2θ 1−1 (1 − p) 2θ 2−1 dp = C Γ(2θ 1)Γ(2θ 2 )<br />

Γ(2(θ 1 + θ 2 )) ,<br />

und die stationäre Verteilung ist gegeben durch die Betaverteilung mit Dichte<br />

4.4 Kingmann’s Koaleszent<br />

ψ(p) = Γ(2(θ 1 + θ 2 ))<br />

Γ(2θ 1 )Γ(2θ 2 ) p2θ 1−1 (1 − p) 2θ 2−1 .<br />

Wir haben bei dem Wright-Fisher Modell gesagt, dass sich die Individuen der n + 1-ten Generation<br />

die Eltern unter den Individuen der n-ten Generation zufällig wählen. Diese Beschreibung<br />

liefert auf natürliche weise eine genealogische Struktur des Wright-Fisher Modells. Diese Struktur<br />

ist auch bei dem Moran Modell aus der graphischen Konstruktion leicht abzulesen.<br />

Schauen wir uns erst die Genealogie im Wright-Fisher Modell an (mit N Individuen). Zwei<br />

Individuen haben (ziehen) einen gemeinsamen Vorfahr in der vorherigen Generation mit W’keit<br />

1/N. Ist dies nicht der Fall, dann haben ihre Vorfahren einen gemeinsamen Vorfahr in der<br />

Generation davor mit W’keit 1/N, usw. Damit ist die Zeit T bis zum gemeinsamen Vorfahr<br />

geometrisch verteilt mit Parameter 1/N, d.h. für k = 1, 2, . . . ist P[T = k] = 1/N(1 − 1/N) k−1<br />

und E[T ] = N. Beträgt eine Zeiteinheit N Generationen, dann ist für x ≥ 0<br />

P[Zeit bis zum gem. Vorfahr > x] =<br />

(<br />

1 − 1 N<br />

) Nx<br />

N→∞<br />

−−−−→ e −x ,<br />

d.h. im Grenzwert ist diese Zeit exponentiell verteilt mit Rate 1.<br />

Nehmen wir eine Stichprobe von k ≥ 2 Individuen. Die W’keit, dass mehr als drei Individuen<br />

einen gemeinsamen Vorfahr in der vorherigen Generation haben (multipler Koaleszent) ist von<br />

der Ordnung O(1/N 2 ). Auch die W’keit, dass zwei oder mehr Paare in der vorherigen Generation<br />

ihre zwei unterschiedlichen Vorfahren finden (simultaner Koaleszent) ist von der Ordnung<br />

O(1/N 2 ). Bevor wir so ein Ereignis für große N sehen sind alle paare von Individuen miteinander<br />

verschmolzen, d.h. bei dem Wright-Fisher Modell werden wir für große N in der Genealogie<br />

nur Verschmelzungen von höchstens zwei Ahnenlinien sehen die jeweils exponentiell mit Rate 1<br />

verteilt sind.<br />

Nummerieren die k Individuen durch und betrachten den oben beschriebenen Verschmelzungsprozess,<br />

den wir hier mit π := (π t ) t≥0 bezeichnen, auf den Äquivalenzklassen [k] := {1, . . . , k}.<br />

Jede Äquivalenzklasse in π t stellt zur Zeit t einen Vorfahr der in dieser Klasse enthaltenen<br />

Individuen dar. Der Prozess π startet immer mit einelementigen Äquivalenzklassen<br />

{{1}, . . . , {k}}.<br />

ist beispielsweise k = 5 und π t = {{1, 4}, {2, 5}, {3}}, dann bedeutet das, dass 1 und 4, und<br />

2 und 5 bis zur Zeit t jeweils einen gemeinsamen Vorfahr gefunden haben. Das Individuum 3<br />

teilt bis zur Zeit t keinen gemeinsamen Vorfahr mit irgendeinem anderen Individuum aus der<br />

Stichprobe.<br />

51


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

Definition 4.5 (Kingmann’s Koaleszent). Der Kingman k-Koaleszent ist eine Markovkette auf<br />

E k , den Äquivalenzklassen auf [k], mit Übergangsraten q ξ,η , ξ, η ∈ E k definiert durch<br />

{<br />

1 wenn η aus ξ durch Verschmelzen von genau zwei Klassen erhalten werden kann,<br />

q ξ,η :=<br />

0 sonst.<br />

Der Kingmann N-Koaleszent ist ein Prozess auf Äquivalenzrelationen auf N mit der Eigenschaft,<br />

dass jede Einschränkung auf eine Menge der Größe k ein k-Koaleszent ist. In jedem Fall besteht<br />

die Anfangsbedingung aus einelementigen Äquivalenzklassen.<br />

Wenn wir nur an der jeweiligen Anzahl der Äquivalenzklassen, nicht jedoch an deren Zusammensetzung<br />

zur Zeit t interessiert sind, so kann man Kingmann’s k-Koaleszent als eine Todeskette<br />

auffassen, mit Übergangsraten<br />

{( k<br />

)<br />

q k,j :=<br />

2<br />

: wenn j = k-1,<br />

0 : sonst.<br />

Es sei W k die Zeit bis zum jüngsten gemeinsamen Vorfahr (MRCA=most recent common ancestor)<br />

von k Individuen. Dann gilt<br />

W k = T k + T k−1 + · · · + T 2 ,<br />

wobei T l jeweils die Wartezeit für den Sprung von l nach l + 1 ist. Wir erhalten<br />

E[W k ] =<br />

k∑<br />

( ) l −1<br />

=<br />

2<br />

l=2<br />

k∑<br />

l=2<br />

2<br />

k∑<br />

( 1<br />

l(l − 1) = 2 l − 1 − 1 )<br />

= 2(1 − 1 ). (4.14)<br />

l<br />

k<br />

Damit ist die erwartete Zeit bis MRCA der ganzen Population durch 2 beschränkt. Außerdem<br />

gilt für K ≥ k<br />

l=2<br />

0 ≤ E[W K − W k ] = 2( 1 k − 1 K ) ≤ 2 k .<br />

Insbesondere unterscheiden sich die Zeit zum MRCA von k Individuen und der von der ganzen<br />

Population nur wenig für nicht zu kleine Werte von k. Man beachte auch, dass in (4.14) E[T 2 ] = 1<br />

den größten Beitrag liefert.<br />

Für die Varianz von W k erhalten wir<br />

Var[W k ] =<br />

k∑<br />

Var[T l ] =<br />

l=2<br />

k∑<br />

( l<br />

2<br />

l=2<br />

) −2<br />

= 8<br />

k−1<br />

∑<br />

l=1<br />

1<br />

l 2 − 4(1 − 1 k )(3 + 1 k )<br />

und es folgt<br />

1 = Var[W 2 ] ≤ Var[W k ] ≤ lim Var[W k] = 8 π2<br />

− 12 ≈ 1.16.<br />

k→∞ 6<br />

Also kommt auch bei der Varianz der größte Anteil von der Verschmelzungszeit der letzten<br />

zwei Individuen. Die Verteilung und auch Dichte von W k können auch berechnet werden. Wir<br />

verweisen auf (Tavaré 2004, 2.3, p. 21).<br />

52


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

Wir schauen uns nun eine weitere wichtige Größe, nämlich die Baumlänge der Genealogie von<br />

k Individuen an, die wir mit L k bezeichnen und die durch<br />

definiert werden kann.<br />

Es gilt<br />

und<br />

E[L k ] =<br />

k∑<br />

lE[T l ] =<br />

l=2<br />

Var[L k ] =<br />

L k := 2T 2 + · · · + kT k =<br />

k∑<br />

l=2<br />

l=2<br />

l=1<br />

k∑<br />

lT l<br />

l=2<br />

k∑<br />

k−1<br />

2<br />

l<br />

l(l − 1) = 2 ∑ 1<br />

l<br />

∑k−1<br />

l 2 Var[T l ] = 4<br />

l=1<br />

∼ 2 log k, für k → ∞<br />

1<br />

l 2 ∼ 2π2 , für k → ∞.<br />

3<br />

Insbesondere wächst ist die erwartete Länge unbeschränkt und die Varianz beschränkt in k.<br />

Nun kommen wir zur Verteilung von L k . Mit E(λ) bezeichnen wir eine exponentiell verteilte<br />

Zufallsvariable mit Rate λ. Alle solchen Zufallsvariablen die unten auftauchen sind unabhängig<br />

voneinander. Es gilt<br />

L k =<br />

k∑<br />

d<br />

lT l =<br />

l=2<br />

k∑<br />

( ) l − 1<br />

E<br />

2<br />

l=2<br />

∑k−1<br />

d<br />

=<br />

l=1<br />

min E lj(1/2) =<br />

d<br />

1≤j≤l<br />

max E j(1/2).<br />

1≤j≤k−1<br />

Es folgt<br />

P[L k ≤ t] =<br />

(<br />

1 − e −t/2) k−1<br />

, t ≥ 0.<br />

Daraus erhält man auch dass L k − 2 log k gegen die Gumbel-Verteilung mit Verteilungsfunktion<br />

e −e−t/2 konvergiert. Denn es ist<br />

P[L k − 2 log k ≤ t] =<br />

( )<br />

(<br />

k−1<br />

1 − e −t/2−log k) k−1<br />

= 1 − e−t/2 k→∞<br />

−−−→ e −e−t/2 .<br />

k<br />

Die Genealogie bei dem Moran Modell ist übersichtlicher als die bei dem (endlichen) Wright-<br />

Fisher Modell. Sie kann einfach von der graphischen Konstruktion abgelesen werden. Verfolgen<br />

wir eine Stichprobe von k Individuen, rückwärts in der Zeit, dann treffen wir irgendwann auf<br />

einen Pfeil der zwei Individuen miteinander verbindet. Das Individuum an der Pfeilspitze (wurde<br />

forwärt in der Zeit ersetzt) verschmilzt mit dem Individuum von dem der Pfeil ausgeht.<br />

Letzterer bleibt unverändert. Die Rate mit der man auf ein Pfeil zwischen k Individuen triff ist<br />

rückwärts wie vorwärts gleich und ist gegeben durch ( k<br />

2)<br />

. Dies ist genau die Verschmelzungsrate<br />

im Kingmann’s k-Koaleszent. Die Genealogie des Moran-Modells ist also genau durch den<br />

Kingman Koaleszent gegeben.<br />

Die große Stärke der Koaleszenten zeigt sich in der Betrachtung von neutralen Modellen im<br />

Multitypenfall und insbesondere mit Mutation. Wir erinnern an die graphische Konstruktion<br />

53


4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />

des Moran Modells mit Mutation und zwei Typen in Abbildung 4.2. Anstatt Mutation zwischen<br />

zwei Typen kann man sich allgemeinere Mutationsmechanismen und Typenräume vorstellen. Bei<br />

der Graphischen Konstruktion ändern sich nur die Ereignisse an den “Mutationskreuzen”. Wir<br />

nehmen an, dass Mutationen sich im Moran Modell entlang jeder Linie gemäß unabhängiger<br />

Poissonprozesse mit Rate θ/2 ereignen.<br />

Definition 4.6 (Infinitely many alleles model). In dem infinitely many alleles model (IMA)<br />

wird bei einem Mutationsereignis ein neues Allel erzeugt, das in der Population bis dahin nicht<br />

vorgekommen ist. Beispielsweise kann man (0, 1) als Typenraum nehmen und bei jeder Mutation<br />

eine neue unanhängige auf (0, 1) gleichverteilte Zufallsvariable nehmen.<br />

In dem IMA sind zwei Gene (Individuen) genau dann identisch, wenn auf dem genealogischen<br />

Baum keine zwischen den beiden kein Mutationsereignis stattgefunden hat. Wenn T die Zeit bis<br />

zum letzten gemeinsamen Vorfahr ist, dann gilt<br />

P ( zwei zufällig gezogene Gene sind vom selben Typ )<br />

= E [P ( zwei zufällig gezogene Gene sind vom selben Typ| MRCA zur Zeit T )]<br />

= E [P (keine Poissonpunkte im Intervall [0, 2T ] )]<br />

[ ] [ ]<br />

= E e − θ 2 ·2T = E e −θT .<br />

Also haben wir nachgerechnet, dass die Homozygotie (definiert als 1− Heterozygotie) die Laplacetransformierte<br />

von T ist. Diese Rechnung funktioniert sowohl im neutralen Fall als auch<br />

im Fall mit Selektion. Da wir hier schon wissen, dassT exponentiell mit Rate 1 verteilt ist kann<br />

man leicht nachrechnen, dass die Homozygotie (im lange laufenden IMA-Modell) durch 1/(1+θ)<br />

gegeben ist.<br />

54


Literaturverzeichnis<br />

Aldous, D.: 1978, Stopping times and tightness, Ann. Probab. 6(2), 335–340.<br />

Athreya, K. B. and Karlin, S.: 1970, Branching processes with random environments, Bull. Amer. Math.<br />

Soc. 76, 865–870.<br />

Athreya, K. B. and Ney, P. E.: 1972, Branching processes, Springer-Verlag, New York. Die Grundlehren<br />

der mathematischen Wissenschaften, Band 196.<br />

Birkner, M., Geiger, J. and Kersting, G.: 2005, Branching processes in random environment—a view on<br />

critical and subcritical cases, Interacting stochastic systems, Springer, Berlin, pp. 269–291.<br />

Etheridge, A.: 2011, Some mathematical models from population genetics, Vol. 2012 of Lecture Notes<br />

in Mathematics, Springer, Heidelberg. Lectures from the 39th Probability Summer School held in<br />

Saint-Flour, 2009.<br />

Etheridge, A. M.: 2000, An introduction to superprocesses, Vol. 20 of University Lecture Series, American<br />

Mathematical Society, Providence, RI.<br />

Ethier, S. N. and Kurtz, T. G.: 1986, Markov processes, Wiley Series in Probability and Mathematical Statistics:<br />

Probability and Mathematical Statistics, John Wiley & Sons Inc., New York. Characterization<br />

and convergence.<br />

Feller, W.: 1951, Diffusion processes in genetics, Proceedings of the Second Berkeley Symposium on Mathematical<br />

Statistics and Probability, 1950, University of California Press, Berkeley and Los Angeles,<br />

pp. 227–246.<br />

Harris, T. E.: 1963, The theory of branching processes, Die Grundlehren der <strong>Mathematische</strong>n Wissenschaften,<br />

Bd. 119, Springer-Verlag, Berlin.<br />

Jagers, P.: 1975, Branching processes with biological applications, Wiley-Interscience [John Wiley & Sons],<br />

London. Wiley Series in Probability and Mathematical Statistics—Applied Probability and Statistics.<br />

Kallenberg, O.: 2002, Foundations of modern probability, Probability and its Applications (New York),<br />

second edn, Springer-Verlag, New York.<br />

Klenke, A.: 2006, Wahrscheinlichkeitstheorie., Berlin: Springer.<br />

Le Gall, J.-F.: 1999, Spatial branching processes, random snakes and partial differential equations, Lectures<br />

in Mathematics ETH Zürich, Birkhäuser Verlag, Basel.<br />

Lyons, R. with Peres, Y.: n.d., Probability on Trees and Networks, Cambridge University Press.<br />

preparation. Current version available at<br />

http://mypage.iu.edu/~rdlyons/prbtree/prbtree.html.<br />

In<br />

Smith, W. L.: 1968, Necessary conditions for almost sure extinction of a branching process with random<br />

environment, Ann. Math. Statist 39, 2136–2140.<br />

Smith, W. L. and Wilkinson, W. E.: 1969, On branching processes in random environments, Ann. Math.<br />

Statist. 40, 814–827.<br />

55


Literaturverzeichnis<br />

Tavaré, S.: 2004, Ancestral inference in population genetics, Lectures on probability theory and statistics,<br />

Vol. 1837 of Lecture Notes in Math., Springer, Berlin, pp. 1–188.<br />

56

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!