Stochastische Populationsmodelle - Abteilung für Mathematische ...
Stochastische Populationsmodelle - Abteilung für Mathematische ...
Stochastische Populationsmodelle - Abteilung für Mathematische ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Stochastische</strong> <strong>Populationsmodelle</strong><br />
Andrej Depperschmidt<br />
Vorlesungsskript<br />
Universität Freiburg<br />
Wintersemester 2011<br />
Version: 12. November 2012
1 Bienaymé-Galton-Watson-Prozess<br />
Bienaymé-Galton-Watson-Prozess ist der älteste und der einfachste Verzweigungsprozess. F. Galton<br />
betrachtete das Aussterben von Familiennamen und veröffentlichte zusammen mit H.W. Watson<br />
in 1984 die Arbeit On the probability of extinction of families. Erst 1972 fand man heraus,<br />
dass I.J. Bienaymé dasselbe Problem schon 1845 betrachtete. Aus diesem Grund sind mittlerweile<br />
beide Bezeichnungen, d.h. sowohl Galton-Watson, als auch Bienaymé-Galton-Watson-Prozess<br />
im Gebrauch.<br />
Man kann ein Bienaymé-Galton-Watson-Prozess (BGWP) wie folgt beschreiben: Wir starten<br />
mit einem Individuum. Es lebt genau eine Zeiteinheit und hinterlässt nach seinem Tod<br />
Nachkommen dessen Anzahl gemäß einer festgelegten Verteilung auf N 0 verteilt ist. Dann verhalten<br />
sich die Nachkommen wie unabhängige Kopien (auch unabhängig vom Vorfahr) ihres<br />
Vorfahren, d.h. jeder von denen lebt genau eine Zeiteinheit und hinterlässt Nachkommen gemäß<br />
derselben Verteilung. Deren Nachkommen verhalten sich wieder wie unabhängige Kopien<br />
des Vorfahren u.s.w. In diesem Kapitel definieren wir den BGWP und studieren die Aussterbebzw.<br />
die Überlebenswahrscheinlichkeiten und das asymptotische Verhalten in Abhängigkeit der<br />
Nachkommensverteilung.<br />
1.1 Definition und elementare Eigenschaften<br />
Hier definieren wir den Bienaymé-Galton-Watson-Prozess (BGWP) und diskutieren die ersten<br />
elementaren Eigenschaften.<br />
Definition 1.1 (BGWP). Es sei Z 0 eine N 0 -wertige Zufallsvariable und sei {ξ nk : n ∈ N 0 , k ∈<br />
N} eine Familie von unabhängigen und identisch verteilten (u.i.v.) Zufallsvariablen mit Verteilung<br />
p j = P[ξ nk = j], j ∈ N 0 . Der Bienaymé-Galton-Watson-Prozess (auch Verzweigungsprozess)<br />
mit Start in Z 0 und Nachkommensverteilung {p j : j ∈ N 0 } ist eine Markovkette (Z n ) n≥0<br />
die durch<br />
∑Z n<br />
Z n+1 = ξ nk , n ≥ 0 (1.1)<br />
k=1<br />
rekursiv definiert ist. Ferner definieren wir m := E[ξ 11 ] und σ 2 := Var[ξ 11 ]. Wir nennen einen<br />
BGWP superkritisch falls m > 1, kritisch falls m = 1, und subkritisch falls m < 1 ist (diese<br />
Bezeichnungen werden später klar).<br />
Wir werden stets m < ∞ annehmen, σ 2 = ∞ ist dagegen bei manchen Resultaten möglich.<br />
In der obigen Definitionen interpretieren wir Z n als die Populationsgröße zur Zeit n und ξ nk als<br />
die Anzahl der Nachkommen des k-ten Individuums der n-ten Generation. Wie schon erwähnt<br />
ist (Z n ) n≥0 eine Markovkette. Die zugehörigen Übergangswahrscheinlichkeiten sind<br />
{<br />
p ∗i<br />
j falls i ≥ 1, j ≥ 0<br />
p ij := P[Z n+1 = j|Z n = i] =<br />
(1.2)<br />
δ 0j falls i = 0, j ≥ 0,<br />
2
1 Bienaymé-Galton-Watson-Prozess<br />
wobei δ ij das Kronecker-Delta ist und {p ∗i<br />
j : j = 0, 1, . . . } die i-fache Faltung von {p j : j =<br />
0, 1, . . . } bezeichnet. Der Erweiterungssatz von Kolmogorov garantiert die Existenz eines Wahrscheinlichkeitsraumes<br />
(Ω, F, P) auf dem man die Folge (Z n ) n≥0 definieren kann. Wir bezeichnen<br />
mit (F n ) n≥0 die natürliche Filtration von (Z n ) n≥0 , d.h. F n = σ(Z k : 0 ≤ k ≤ n). Falls wir<br />
den Anfangswert der Population betonen möchten, schreiben wir oft P i für die Verteilung von<br />
(Z n ) n≥0 wenn Z 0 = i ist. Den zugehörigen Erwartungswert und die Varianz bezeichnen wir dann<br />
entsprechend mit E i bzw. Var i .<br />
Bemerkung 1.2 (Triviale Spezialfälle). Falls p j = 1 für ein j ∈ N 0 ist, dann ist (bis auf möglicherweise<br />
zufällige Anfangsverteilung) die Markovkette (Z n ) deterministisch: jedes Individuum<br />
stirbt nach einer Zeiteinheit und bekommt j Nachkommen mit Wahrscheinlichkeit 1.<br />
Falls p 0 , p 1 ∈ (0, 1) und p 0 +p 1 = 1 ist, dann ist die Evolution der Population auch nicht interessant,<br />
denn dann stirbt jede der Z 0 ursprünglichen Familien nach jeweils einer geometrischen<br />
Anzahl von Versuchen mit Parameter p 0 aus.<br />
Annahme 1.1. Im Folgenden nehmen wir stets an, dass p j ≠ 1 für alle j und p 0 + p 1 < 1 gilt.<br />
Bemerkung 1.3 (Additivität). Wegen der Unabhängigkeit ist<br />
∑Z 0<br />
Z n = Z n (j) ,<br />
j=1<br />
wobei Z n<br />
(j) die Nachkommen des j-ten Individuums der 0-ten in der n-ten Generation sind.<br />
Damit ist (Z n ) n≥0 Summe von Z 0 u.i.v. BGWP die jeweils in 1 starten. Daher nehmen wir im<br />
Folgenden meistens Z 0 = 1 an. Allgemeine Resultate folgen oft aus diesem Spezialfall.<br />
Beispiel 1.4 (binäres Verzweigen). Es sei p ∈ (0, 1) und sei p 0 = 1 − p und p 2 = p, dann gilt<br />
{<br />
0 falls k ungerade,<br />
P j [Z 1 = k] = ( j<br />
k/2)<br />
p k/2 (1 − p) j−k/2 falls k gerade,<br />
wobei ( j<br />
i)<br />
= 0 ist wenn i > j. Mit k0 = 1/2 (so lässt sich die Formel kompakter schreiben) gilt<br />
n∏<br />
( ) ( ) ∑ n<br />
2ki−1 p<br />
i=1 k i<br />
P 1 [Z 1 = 2k 1 , Z 2 = 2k 2 , . . . , Z n = 2k n ] =<br />
(1 − p) 2 ∑ n−1<br />
i=0 k i<br />
.<br />
k i 1 − p<br />
1.2 Erzeugende Funktionen<br />
i=1<br />
In diesem Abschnitt erinnern wir an die wahrscheinlichkeitserzeugenden Funktionen, die genauso<br />
wie momentenerzeugende und charakteristische Funktionen eine wichtige Rolle in der Wahrscheinlichkeitstheorie<br />
spielen, und sich besonders gut für die Analyse von Verzweigungsprozessen<br />
eignen.<br />
Definition 1.5 (erzeugende Funktion). Es sei X eine N 0 -wertige Zufallsvariable. Dann ist die<br />
(wahrscheinlichkeits)erzeugende Funktion definiert durch<br />
g X (t) := E[t X ] =<br />
∞∑<br />
P[X = k]t k , t ∈ [0, 1]. (1.3)<br />
k=0<br />
3
1 Bienaymé-Galton-Watson-Prozess<br />
Lemma 1.6. Es sei X eine N 0 -wertige ZV mit E[X] < ∞, dann gilt<br />
und<br />
E[X] = g ′ X(1)<br />
Var[X] = g ′′ X(1) + g ′ X(1) − (g ′ X(1)) 2 ,<br />
wobei die letzte Gleichung in dem Sinne gilt, dass wenn die eine Seite endlich ist, dann ist<br />
auch die andere endlich und die beiden sind gleich. Insbesondere gilt g<br />
X ′′ (t) → ∞ für t ↑ 1 falls<br />
Var[X] = ∞.<br />
Beweis. Für t ∈ (0, 1) gilt<br />
g ′ X(t) =<br />
∞∑<br />
kP[X = k]t k−1<br />
k=1<br />
t↑1<br />
−−→<br />
∞∑<br />
kP[X = k] = E[X].<br />
k=1<br />
Der Beweis der zweiten Formel ist eine Übungsaufgabe.<br />
Lemma 1.7. Es seien X 1 , X 2 , . . . u.i.v. N 0 -wertige ZV mit erzeugender Funktion g X und sei<br />
Y auch N 0 -wertig und unabhängig mit erzeugender Funktion g Y . Mit S = ∑ Y<br />
k=1 X k gilt<br />
g S (t) = g Y ◦ g X (t), t ∈ [0, 1],<br />
E[S] = E[X 1 ]E[Y ],<br />
Var[S] = Var[X 1 ]E[Y ] + E 2 [X 1 ] Var[Y ],<br />
wobei die letzten zwei Gleichungen in dem Sinne gelten, dass wenn die eine Seite endlich ist,<br />
dann ist auch die andere endlich und die beiden sind gleich.<br />
Beweis. Wir zeigen nur die erste Gleichung. Die beiden anderen (bekannten) Gleichungen können<br />
daraus mit Hilfe von Lemma 1.6 gefolgert werden. Es gilt<br />
g S (t) = E[t S ] = E[t ∑ Y<br />
k=1 X k<br />
] =<br />
=<br />
∞∑<br />
j=0<br />
∞∑<br />
(E[t X 1<br />
]) j P[Y = j] =<br />
j=0<br />
E[t ∑ j<br />
k=1 X k<br />
]P[Y = j] =<br />
∞∑<br />
j=0 k=1<br />
∞∑<br />
(g X (t)) j P[Y = j] = g Y (g X (t)).<br />
j=0<br />
j∏<br />
E[t X k<br />
]P[Y = j]<br />
Nun betrachten wir die erzeugenden Funktionen von Z n . Dazu setzen wir g n (t) = E 1 [t Zn ] und<br />
g(t) = g 1 (t) = g ξ11 (t), wobei ξ 11 wie in Definition 1.1 ist. Wenden wir Lemma 1.7 auf (1.30) an,<br />
so erhalten wir<br />
g n = g n−1 ◦ g = · · · = g ◦ g n−1<br />
E[Z n ] = mE[Z n−1 ]<br />
Var[Z n ] = σ 2 E[Z n−1 ] + m 2 Var[Z n−1 ].<br />
Rekursiv erhält man daraus das folgende Theorem.<br />
4
1 Bienaymé-Galton-Watson-Prozess<br />
Theorem 1.8. Wenn Z 0 = 1 ist, dann ist die erzeugende Funktion von Z n gegeben durch<br />
g ◦ · · · ◦ g (n mal) und es gilt<br />
E[Z n ] = m n , (1.4)<br />
{ σ 2 m n−1 (m n −1)<br />
Var[Z n ] =<br />
m−1<br />
falls m ≠ 1,<br />
nσ 2 (1.5)<br />
falls m = 1.<br />
Beweis. Bis auf die Formel für die Varianz sind alle Aussagen klar. Für die Varianz kann man<br />
sich überlegen, dass<br />
n−1<br />
∑<br />
Var[Z n ] = σ 2 (m n−1 + · · · + m 2n−2 ) = σ 2 m n−1<br />
gilt. Mit der Formel für die (endliche) geometrische Summe erhält man die Behauptung.<br />
Lemma 1.9 (Eigenschaften von g). Unter der Annahme 1.1 (die ab jetzt stillschweigend vorausgesetzt<br />
wird) gilt<br />
(i) g ist strikt konvex und wachsend in [0, 1];<br />
(ii) g(0) = p 0 , g(1) = 1;<br />
(iii) ist m ≤ 1, so gilt g(t) > t für t ∈ [0, 1);<br />
(iv) ist m > 1, dann hat g(t) = t genau eine Lösung in [0, 1).<br />
Beweis. (i) Wegen p k ≥ 0 und ∑ ∞<br />
k=0 p k = 1 ist nach Annahme p k > 0 für ein k ≥ 2. Damit<br />
sind g ′ (t) = ∑ ∞<br />
k=1 p kkt k−1 und g ′′ (t) = ∑ ∞<br />
k=2 p kk(k − 1)t k−2 positiv auf (0, 1].<br />
(ii) ist klar.<br />
(iii) Wenn g ′ (1) = m ≤ 1 ist, dann gilt (g(t) − t) ′ = g ′ (t) − 1 < g ′ (1) − 1 ≤ 0. Damit ist<br />
t ↦→ g(t) − t strikt fallend und wegen g(1) = 1 folgt g(t) > t für t ∈ [0, 1).<br />
(iv) Wegen Konvexität gibt es höchstens zwei Lösungen der Gleichung g(t) = t. Eine davon ist<br />
in t = 1. Aus g ′ (1) > 1 und g(0) = p 0 ≥ 0 folgt, dass es noch eine Lösung in [0, 1) gibt.<br />
k=0<br />
m k<br />
Es sei q die kleinste Lösung der Gleichung g(t) = t in [0, 1], dann gilt nach dem obigen<br />
Lemma: Ist m ≤ 1, dann ist q = 1; ist m > 1, dann ist q < 1. Nach dem folgenden Lemma ist<br />
q ein attraktiver Gleichgewicht des, durch g definierten, dynamischen Systems x n+1 = g(x n ),<br />
x 0 ∈ [0, 1].<br />
Lemma 1.10. (i) Ist t ∈ [0, q), so gilt g n (t) ↑ q für n → ∞,<br />
(ii) Ist t ∈ (q, 1), so gilt g n (t) ↓ q für n → ∞,<br />
(iii) Ist t ∈ {q, 1}, so gilt g n (t) = t für alle n.<br />
5
1 Bienaymé-Galton-Watson-Prozess<br />
Beweis. Teil (iii) ist klar, also zeigen wir (i) und (ii). Für 0 ≤ t < q gilt nach Lemma 1.9<br />
t < g(t) < g(q) und es folgt<br />
t < g 1 (t) < g 2 (t) < · · · < g n (t) < g n (q) = q<br />
für alle n ≥ 1. Damit gilt g n (t) ↑ L für ein L ≤ q. Da g stetig ist gilt aber L = lim n→∞ g n (t) =<br />
lim n→∞ g n+1 (t) = g (lim n→∞ g n (t)) = g(L). Nach Voraussetzung ist q die kleinste Lösung in<br />
[0, 1] und somit gilt L = q. Ist nun q < t < 1, dann zeigt man mit einem ähnlichen Argument,<br />
dass 1 > g n (t) ↓ L ≥ q ist und L = g(L). Nach Lemma 1.9 gibt es in (q, 1) keine weitere<br />
Lösungen, was L = q impliziert.<br />
1.3 Aussterbewahrscheinlichkeit<br />
Definition 1.11. Das Aussterbeereignis des Verzweigungsprozesses (Z n ) n≥0 ist definiert durch<br />
∞⋃ ∞⋂<br />
{ }<br />
n→∞<br />
Q := {Z k = 0} = Z n −−−→ 0 = { es gibt ein N mit Z n = 0 für alle n ≥ N}<br />
n=1 k=n<br />
und die dessen Wahrscheinlichkeit heißt die Aussterbewahrscheinlichkeit.<br />
Da aus Z k = 0 stets Z n = 0 für n ≥ k folgt, gilt auch (Übungsaufgabe!)<br />
∞⋃<br />
Q = {Z n = 0}.<br />
Damit ist<br />
[ n<br />
]<br />
⋃<br />
P[Q] = lim<br />
n→∞ P {Z k = 0}<br />
k=1<br />
n=1<br />
= lim<br />
n→∞ P[Z n = 0] = lim<br />
n→∞ g n(0).<br />
Es gilt also das folgende Theorem.<br />
= lim<br />
n→∞ P [Z k = 0 für ein 1 ≤ k ≤ n]<br />
Theorem 1.12. Die Aussterbewahrscheinlichkeit des Verzweigungsprozesses (Z n ) n≥0 ist die<br />
kleinste Lösung q von g(t) = t in [0, 1]. Dabei ist q = 1, wenn m ≤ 1 und q < 1 wenn m > 1.<br />
Außerdem kann man sich überlegen, dass bis auf den absorbierenden Zustand 0 alle Zustände<br />
eines Verzweigungsprozesses transient sind. Für k ≥ 1 gilt nämlich<br />
{<br />
p k 0 falls p 0 > 0,<br />
P[Z n+i ≠ k, i ≥ 1|Z n = k] ≥<br />
1 − p k 1 falls p 0 = 0.<br />
Hier ist p k 0 die Wahrscheinlichkeit, dass alle k Individuen in einem Schritt aussterben ohne<br />
Nachkommen zu produzieren und 1 − p k 1 ist die Wahrscheinlichkeit, dass mindestens einer der k<br />
Individuen mehr als einen Nachkommen hat. In jedem Fall ist die rechte Seite im letzten Display<br />
positiv, was die Transienz zeigt. Wir fassen das Resultat im nächstem Theorem zusammen.<br />
Theorem 1.13. Für alle k ≥ 1 gilt (u.o. steht unten für unendlich oft)<br />
Ferner gilt<br />
lim P[Z n = k] = P[Z n = k u.o. ] = 0.<br />
n→∞<br />
P[ lim<br />
n→∞ Z n = 0] = 1 − P[ lim<br />
n→∞ Z n = ∞] = q.<br />
6
1 Bienaymé-Galton-Watson-Prozess<br />
1.4 Kritische Verzweigungsprozesse<br />
Hier betrachten wir genauer den kritischen Fall m = 1. Wir wissen bereits, dass<br />
P[Z n → 0] = 1,<br />
E[Z n ] = 1,<br />
Var[Z n ] → ∞.<br />
Ist also Z n nicht 0 sollte man wegen der großen Varianz auch große Werte erwarten.<br />
Lemma 1.14. Es sei m = 1 und σ 2 < ∞. Dann gilt<br />
[<br />
1 1<br />
lim<br />
n→∞ n 1 − g n (s) − 1 ]<br />
= σ2<br />
1 − s 2<br />
(1.6)<br />
gleichmäßig in s ∈ [0, 1).<br />
Beweis. Es sei s ∈ [0, 1). Mit Taylorentwicklung in 1 gilt<br />
g(s) = g(1) + g ′ (1)(s − 1) + g′′ (1)<br />
2 (1 − s)2 + r(s)(1 − s) 2 ,<br />
für ein r mit lim s↑1 r(s) = 0. Mit g(1) = 1, g ′ (1) = m = 1 und σ 2 = g ′′ (1)+g ′ (1)−(g ′ (1)) 2 = g ′′ (1)<br />
(siehe Lemma 1.6) erhalten wir<br />
Es folgt<br />
g(s) = s + σ2<br />
2 (1 − s)2 + r(s)(1 − s) 2 .<br />
1<br />
1 − g(s) − 1<br />
σ<br />
1 − s = g(s) − s<br />
2<br />
(1 − g(s))(1 − s) = 2 (1 − s)2 + r(s)(1 − s) 2<br />
(1 − g(s))(1 − s)<br />
= 1 − s<br />
1 − g(s)<br />
( σ<br />
2<br />
2 + r(s) )<br />
= σ2<br />
2 + ρ(s),<br />
wobei<br />
ρ(s) :=<br />
1<br />
1 − g(s) − 1<br />
1 − s − σ2<br />
2 = 1 − s ( ) σ<br />
2<br />
1 − g(s) 2 + r(s) − σ2<br />
2<br />
→ 0 für s ↑ 1.<br />
Wir können diese Gleichung iterieren und erhalten<br />
[<br />
1 1<br />
n 1 − g n (s) − 1 ]<br />
1 − s<br />
= 1 n−1<br />
∑<br />
[<br />
]<br />
1<br />
n 1 − g(g j (s)) − 1<br />
1 − g j (s)<br />
j=0<br />
= σ2<br />
2 + 1 n−1<br />
∑<br />
ρ(g j (s)).<br />
n<br />
Da g n (0) ≤ g n (s) ≤ 1 und g n (0) ↑ 1 ist die Konvergenz g n (s) → 1 uniform in s ∈ [0, 1). Da ρ<br />
beschränkt ist folgt die Behauptung.<br />
j=0<br />
7
1 Bienaymé-Galton-Watson-Prozess<br />
Theorem 1.15. Ist m = 1 und σ 2 < ∞, so gilt<br />
(i)<br />
(ii)<br />
(iii)<br />
Beweis.<br />
lim nP[Z n > 0] = 2<br />
n→∞ σ 2 ,<br />
[<br />
lim E Zn<br />
n→∞ n |Z n > 0<br />
]<br />
= σ2<br />
2 ,<br />
[<br />
Zn<br />
lim<br />
n→∞ P n ≤ u|Z n > 0<br />
]<br />
= 1 − e −2u/σ2 , u ≥ 0.<br />
(i) Mit s = 0 in (1.6) gilt<br />
[ (<br />
) 1 1<br />
nP[Z n > 0] = n(1 − g n (0)) =<br />
n 1 − g n (0) − 1 + 1 ] −1<br />
→ 2 n σ 2 .<br />
(ii) Allgemein gilt für Verzweigungsprozesse E[Z n ] = E[Z n |Z n > 0]P[Z n > 0] + 0 · P[Z n = 0]<br />
und somit E[Z n |Z n > 0] = E[Z n ]/P[Z n > 0]. Damit und mit (i) erhalten wir<br />
[ ]<br />
Zn<br />
E<br />
n |Z 1<br />
n > 0 =<br />
nP[Z n > 0] → σ2<br />
2 .<br />
(iii) Wir haben zu zeigen, dass bedingt auf Z n > 0 die Folge Z n /n gegen eine exponentiell<br />
verteilte Zufallsvariable mit Parameter 2/σ 2 in Verteilung konvergiert. Dazu reicht es<br />
zu zeigen, dass die bedingte Laplace-Transformierte E [exp(−uZ n /n)|Z n > 0] gegen die<br />
Laplace-Transformierte der Exponentialverteilung mit Parameter 2/σ 2 konvergiert. Letztere<br />
ist gegeben durch<br />
u ↦→<br />
∫ ∞<br />
0<br />
e −ux 2 σ 2 e− 2<br />
σ 2 x dx =<br />
Wenn u = 0 ist, dann ist nichts zu zeigen. Für u > 0 gilt<br />
1<br />
1 + uσ 2 /2 .<br />
g n (exp(−u/n)) = E [ exp(−u/n) Zn] = E [exp(−uZ n /n)]<br />
= E [exp(−uZ n /n)|Z n > 0] P[Z n > 0] + 1 · P[Z n = 0]<br />
= E [exp(−uZ n /n)|Z n > 0] (1 − g n (0)) + g n (0).<br />
Nun können wir nach dem bedingten Erwartungswert auflösen und erhalten<br />
E [exp(−uZ n /n)|Z n > 0] = g n(exp(−u/n)) − g n (0)<br />
1 − g n (0)<br />
Den zweiten Term können wir wie folgt umschreiben<br />
= 1 − 1 − g n(exp(−u/n))<br />
.<br />
1 − g n (0)<br />
[<br />
1 1<br />
n(1 − g n (0)) n ·<br />
=<br />
1<br />
n(1 − g n (0))<br />
1<br />
1 − g n (exp(−u/n))<br />
[ ( 1<br />
n<br />
] −1<br />
1<br />
1 − g n (exp(−u/n)) − 1<br />
n→∞<br />
−−−→ σ2<br />
2<br />
1 − exp(−u/n)<br />
( σ<br />
2<br />
2 + 1 u<br />
)<br />
+ 1 n ·<br />
]<br />
1 −1<br />
1 − exp(−u/n)<br />
) −1<br />
= σ2 u<br />
σ 2 u + 2 = 1 − 1<br />
σ 2 u/2 + 1 .<br />
8
1 Bienaymé-Galton-Watson-Prozess<br />
Damit folgt<br />
E [exp(−uZ n /n)|Z n > 0] n→∞ −−−→<br />
1<br />
σ 2 u/2 + 1 .<br />
1.5 Wichtiges Lemma<br />
Bevor wir mit den Sub- und Superkritischen Fällen weitermachen beweisen wir hier ein Lemma,<br />
das im Folgenden wichtig sein wird. Dazu betrachten wir die Taylorentwicklung von g um 1:<br />
Es gilt<br />
und<br />
g(s) = 1 − m(1 − s) + r(s)(1 − s), 0 ≤ s ≤ 1. (1.7)<br />
r(s) = m − 1 − g(s)<br />
1 − s ,<br />
r(0) = m − (1 − p 0 ) ≥ 0,<br />
r(q) = m − 1, wenn q < 1,<br />
r(1−) = 0,<br />
r ′ (s) ≤ 0, 0 ≤ s < 1.<br />
Damit ist r eine fallende Funktion von [0, 1) nach [0, m].<br />
Lemma 1.16. Für alle δ ∈ (0, 1) gilt<br />
∞∑<br />
r(1 − δ k ) < ∞ ⇐⇒<br />
k=1<br />
∞∑<br />
p k k log k < ∞. (1.8)<br />
Die Bedingung auf der rechten Seite ist gleichbedeutend mit E 1 [Z 1 log Z 1 ] < ∞.<br />
Beweis. Für s ∈ [0, 1) gilt<br />
n=0<br />
k=1<br />
)<br />
∞∑<br />
∞∑<br />
r(s) = m − s<br />
(1 n − p k s k<br />
∞∑ ∞∑<br />
= m − s n +<br />
n=0<br />
k=0<br />
n=0<br />
( n∑<br />
k=0<br />
p k<br />
)<br />
s n = m −<br />
∞∑<br />
a n s n ,<br />
n=0<br />
wobei<br />
∞∑<br />
a n = p k .<br />
k=n+1<br />
9
1 Bienaymé-Galton-Watson-Prozess<br />
Man beachte auch, dass ∑ ∞<br />
n=0 a n = m ist. Wir schreiben α = − log δ (sodass e −αx = δ x ) und<br />
fixieren ein j ∈ N, j > 1. Einerseits erhalten wir durch Abschätzung des Integrals durch die<br />
Untersumme<br />
∫ j<br />
j∑<br />
j∑<br />
r(1 − δ) + r(1 − e −αx ) dx ≥ r(1 − δ) + r(1 − δ k ) = r(1 − δ k ).<br />
1<br />
Da die letzte Summe aber die Obersumme enthält folgt andererseits auch<br />
j∑<br />
∫ j<br />
r(1 − δ k ) ≥ r(1 − e −αx ) dx.<br />
k=1<br />
Nach Substitution s = 1 − e −αx folgt<br />
Insgesamt ist also<br />
r(1 − δ) + 1 α<br />
∫ j<br />
1<br />
r(1 − e −αx ) dx = 1 α<br />
∫ 1−δ j<br />
1−δ<br />
1<br />
k=2<br />
∫ 1−δ j<br />
1−δ<br />
r(s)<br />
1 − s ds.<br />
r(s)<br />
j∑<br />
1 − s ds ≥ r(1 − δ k ) ≥ 1 α<br />
Da diese Ungleichung für alle j > 1 und δ > 0 gilt folgt<br />
∞∑<br />
∫ 1<br />
r(1 − δ k r(s)<br />
) < ∞ ⇐⇒ ds < ∞.<br />
1 − s<br />
k=1<br />
k=1<br />
0<br />
k=1<br />
∫ 1−δ j<br />
Als nächstes schauen wir uns an, wann die rechte Seite endlich ist. Es gilt<br />
r(s)<br />
∞<br />
1 − s = ∑<br />
∞∑<br />
∞∑ ∑<br />
∞<br />
s k (m − a n s n ) = s k a n (1 − s n )<br />
und damit<br />
0 ≤<br />
∫ 1<br />
0<br />
=<br />
k=0<br />
n=0<br />
∞∑ ∑<br />
∞<br />
a n (s k − s k+n ) =<br />
n=0<br />
k=0<br />
∫<br />
r(s)<br />
1<br />
1 − s ds =<br />
=<br />
0<br />
∞∑<br />
n=0<br />
∞∑<br />
a n<br />
n−1<br />
n=0 k=0<br />
n−1<br />
∑<br />
a n<br />
1<br />
k=0<br />
k=0<br />
∞∑<br />
n=0<br />
∑<br />
s k ds<br />
n=0<br />
∑<br />
n−1<br />
a n s k<br />
k=0<br />
1−δ<br />
r(s)<br />
1 − s .<br />
∞<br />
k + 1 = ∑<br />
a n (log n + O(1)).<br />
Die rechte Seite ist genau dann endlich, wenn ∑ ∞<br />
n=1 a n log n endlich ist. Es gilt<br />
∞∑<br />
∞∑ ∑<br />
a n log n = p k log n<br />
n=1<br />
=<br />
=<br />
n=1 k>n<br />
∞∑<br />
k=2<br />
∑<br />
log n =<br />
p k<br />
k−1<br />
n=1<br />
n=1<br />
∞∑<br />
p k log ((k − 1)!)<br />
k=2<br />
∞∑<br />
p k [(k − 1) log(k − 1) + o(k log k)] .<br />
k=2<br />
10
1 Bienaymé-Galton-Watson-Prozess<br />
Wobei man die letzte Gleichung mit der Stirling-Formel (n! ∼ √ 2πn(n/e) n ) bekommt. Insgesamt<br />
erhalten wir, dass ∑ ∞<br />
n=1 a n log n genau dann endlich ist, wenn ∑ ∞<br />
k=1 p kk log k endlich ist.<br />
1.6 Subkritische Verzweigungsprozesse<br />
In diesem Abschnitt betrachten wir den subkritischen Fall m < 1. Wenn wir die Taylorentwicklung<br />
von g um 1 (siehe (1.7)) auf g k (s) anwenden, dann erhalten wir<br />
bzw.<br />
g k+1 (s) = g(g k (s)) = 1 − m(1 − g k (s)) + r(g k (s))(1 − g k (s)), (1.9)<br />
1 − g k+1 (s)<br />
1 − g k (s)<br />
Teleskopprodukt dieser Gleichungen liefert<br />
(<br />
= m 1 − r(g )<br />
k(s))<br />
. (1.10)<br />
m<br />
1 − g n (s)<br />
1 − s<br />
n−1<br />
∏<br />
= m n<br />
k=0<br />
(<br />
1 − r(g )<br />
k(s))<br />
. (1.11)<br />
m<br />
Da 0 ≤ r(s)/m ≤ 1 für s ∈ [0, 1] ist, gibt es zu jedem s ∈ [0, 1] ein φ(s) ≥ 0 mit<br />
Insbesondere ist<br />
m −n 1 − g n(s)<br />
1 − s<br />
↓ φ(s), für n → ∞. (1.12)<br />
P[Z n > 0] = 1 − g n (0) ∼ m n φ(0), (1.13)<br />
wobei wir wie üblich a n ∼ b n schreiben, falls a n /b n → 1 für n → ∞.<br />
Ein nützliches und leicht zu beweisendes Kriterium, das Konvergenz von Reihen und Produkten<br />
in Verbindung bringt ist das folgende Resultat (Übung!).<br />
Lemma 1.17. Es sei (a n ) n≥0 eine Folge mit 0 ≤ a n ≤ 1. Dann konvergiert ∏ ∞<br />
n=1 (1 − a n) genau<br />
dann gegen eine positive Zahl, wenn die Reihe ∑ ∞<br />
n=1 a n konvergiert.<br />
Mit diesem Lemma gilt φ(0) > 0 genau dann, wenn ∑ ∞<br />
k=0 r(g k(0)) < ∞. Aus 1 − g(s) ≤<br />
m(1 − s) (was z.B. aus (1.7) folgt) erhalten wir induktiv<br />
1 − g k (s) ≤ m k (1 − s)<br />
für alle k. Aus der Konvexität von g folgt für s ≥ s 0<br />
woraus wir induktiv<br />
1 − g(s)<br />
1 − s<br />
≥ g ′ (s 0 ),<br />
1 − g k (s) ≥ (g ′ (s 0 )) k (1 − s)<br />
erhalten. Mit s 0 = p 0 (was zwangsläufig positiv im subkritischen Fall ist) und a = g ′ (p 0 ) folgt<br />
1 − m k ≤ g k (0) = g k−1 (g(0)) = g k−1 (p 0 ) ≤ 1 − a k−1 (1 − p 0 ) ≤ 1 − b k ,<br />
wobei b k = a ∧ (1 − p 0 ) ist. Nach Lemma 1.16 gilt also ∑ ∞<br />
k=0 r(g k(0)) < ∞ genau dann, wenn<br />
∑ ∞<br />
k=1 p kk log k < ∞ ist. Es gilt also das folgende Theorem.<br />
11
1 Bienaymé-Galton-Watson-Prozess<br />
Theorem 1.18. Für einen subkritischen Verzweigungsprozess (Z n ) n≥0 gilt<br />
{<br />
0 : wenn ∑ ∞<br />
lim<br />
n→∞ m−n k=1<br />
P[Z n > 0] =<br />
p kk log k = ∞,<br />
φ(0) > 0 : sonst.<br />
Nun beweisen wir noch das Theorem von Yaglom, das eine Aussage über das Verhalten des<br />
subkritischen Prozesses zur Zeit n macht bedingt auf Überleben bis zu dieser Zeit.<br />
Theorem 1.19. Im subkritischen Fall (mit p 0 < 1) existiert<br />
für alle k ∈ N, und es gilt<br />
lim P[Z n = k|Z n > 0] = b k , (1.14)<br />
n→∞<br />
∞∑<br />
b k = 1, (1.15)<br />
k=1<br />
∞∑<br />
kb k = 1<br />
∞ φ(0) < ∞ ⇐⇒ ∑<br />
p k k log k < ∞. (1.16)<br />
k=1<br />
Ferner gilt für die erzeugende Funktion f(s) := ∑ ∞<br />
k=1 kb k der Verteilung (b k : k ∈ N):<br />
Beweis. Wir definieren<br />
k=1<br />
f(g(s)) = mf(s) + 1 − m.<br />
f n (s) = E[s Zn |Z n > 0] = g n(s) − g n (0)<br />
1 − g n (0)<br />
n−1<br />
∏ 1 − r(g k (s))/m<br />
= 1 − (1 − s)<br />
1 − r(g k (0))/m<br />
k=0<br />
= 1 − 1 − g n(s)<br />
1 − g n (0)<br />
da g k nicht-fallend und r nicht-wachsend sind, konvergieren die Terme in dem Produkt von oben<br />
gegen 1 für k → ∞. Es gibt also eine Funktion f mit f n ↑ f für n → ∞. Da f n erzeugende<br />
Funktionen (von positiven ZV) sind gilt<br />
∞∑<br />
f(s) = b k s k .<br />
Insbesondere ist f(0) = 0. Ferner gilt für n → ∞<br />
f n (g k (0)) = 1 − 1 − g n(g k (0))<br />
1 − g n (0)<br />
k=1<br />
= 1 − 1 − g k(g n (0))<br />
1 − g n (0)<br />
→ 1 − m k .<br />
Die rechte Seite konvergiert gegen 1 und somit (da g k (0) → 1 gilt) f(1−) = 1, was (1.15) zeigt.<br />
Die Aussage (1.16) folgt mit Theorem 1.18 aus<br />
∞∑<br />
kb k = f ′ 1 − f(g k (0))<br />
1<br />
(1−) = lim<br />
= lim<br />
k→∞ 1 − g k (0) k→∞ mk 1 − g k (0) = 1<br />
φ(0) .<br />
k=1<br />
Schließlich folgt die letzte Aussage aus<br />
f n (g(s)) = 1 − 1 − g n+1(s)<br />
1 − g n+1 (0) · 1 − g(g n(0))<br />
= 1 − (1 − f n+1 (s)) · 1 − g(g n(0))<br />
→ 1 − (1 − f(s))m.<br />
1 − g n (0)<br />
1 − g n (0)<br />
12
1 Bienaymé-Galton-Watson-Prozess<br />
1.7 Superkritische Verzweigungsprozesse<br />
In diesem Abschnitt beschäftigen wir uns hauptsächlich mit dem superkritischen Fall, m > 1.<br />
Einige Aussagen gelten aber für jedes m ∈ (0, ∞). Wir werden hier einige Resultate aus der<br />
Martingaltheorie voraussetzen müssen. Wir verweisen an dieser Stelle auf z.B.(Klenke 2006).<br />
Es sei also m ∈ (0, ∞) und (Z n ) n≥0 ein Verzweigungsprozess aus Definition 1.1. Mit Markoveigenschaft<br />
(und zeitlicher Homogenität) erhalten wir<br />
E[Z n+k |Z n = i n , Z n−1 = i n−1 , . . . , Z 1 = i 1 , Z 0 = i 0 ]<br />
Für W n := m −n Z n folgt<br />
= E[Z n+k |Z n = i n ] = i n E[Z k |Z 1 = 1] = i n m k .<br />
E[W n+k |W 0 , . . . , W n ] = m −(n+k) E[Z n+k |Z n ] = m −(n+k) m k Z n = W n , f.s. (1.17)<br />
Es gilt also das folgende Theorem.<br />
Theorem 1.20. Es sei m ∈ (0, ∞), F n = σ(Z 0 , . . . , Z n ) die natürliche Filtration von (Z n ) n≥0 .<br />
Dann ist (W n , F n ; n = 0, 1, . . . ) ein nicht-negatives Martingal und es gibt eine Zufallsvariable<br />
W mit<br />
W n<br />
n→∞<br />
−−−→ W f.s. (1.18)<br />
Beweis. Die Martingaleigenschaft wurde in (1.17) bereits gezeigt und (1.18) folgt mit bekannten<br />
Martingalkonvergenzsätzen. Man beachte, dass W n ein nicht-negatives Supermartingal ist und<br />
siehe z.B. Korollar 11.5 in (Klenke 2006).<br />
Nach dem obigen Theorem ist es klar, dass Z n (ω) sich asymptotisch wie m n W (ω) verhält.<br />
Martingalkonvergenzsätze liefern aber nicht ausreichend Informationen über W . Nach dem Lemma<br />
von Fatou haben wir zwar<br />
E[W ] = E[ lim<br />
n→∞ W n] ≤ lim inf<br />
n→∞ E[W n] = E[Z 0 ], (1.19)<br />
es schließt aber nicht aus, dass E[W ] = 0 und somit W = 0 f.s. gilt. Im kritischen und subkritischen<br />
Fall gilt für genügend große n Z n = 0 f.s. und somit gilt in diesen Fällen auch W = 0<br />
f.s. Wir betrachten also im Folgenden den superkritischen Fall m > 1 und interessieren uns für<br />
Bedingungen unter denen {W > 0} positive Wahrscheinlichkeit hat. Das erste Resultat geht von<br />
endlichen zweiten Momenten aus und ist relativ einfach.<br />
Theorem 1.21. Ist m > 1, σ 2 < ∞ und Z 0 = 1, dann gilt<br />
(i) lim n→∞ E [ (W n − W ) 2] = 0, d.h. W n<br />
(ii) E[W ] = 1, Var[W ] =<br />
σ 2<br />
m 2 − m ;<br />
(iii) P[W = 0] = q = P[Z n = 0 für ein n].<br />
n→∞<br />
−−−→ W in L 2 ;<br />
13
1 Bienaymé-Galton-Watson-Prozess<br />
Beweis. Aus (1.5) und (1.4) erhalten wir<br />
E[Wn] 2 = 1<br />
m 2n E[Z2 n] = 1<br />
m 2n (Var[Z n] + E 2 [Z n ]) = 1 ( σ 2 m n−1 (m n )<br />
− 1)<br />
m 2n + m 2n<br />
m − 1<br />
= σ2 (1 − m −n )<br />
m 2 − m + 1.<br />
Es folgt sup n E[W 2 n] = lim n→∞ E[W 2 n] = σ 2 /(m 2 − m) + 1 < ∞. Die Aussagen (i) und (ii) folgen<br />
also mit L 2 -Konvergenzsatz (siehe z.B. Korollar 11.11 in (Klenke 2006)).<br />
Sei nun r = P[W = 0]. Aus E[W ] = 1 folgt r < 1. Ferner gilt<br />
r =<br />
∞∑<br />
P[W = 0|Z 1 = k]P[Z 1 = k] =<br />
k=0<br />
∞∑<br />
p k (P[W = 0]) k =<br />
k=0<br />
∞∑<br />
p k r k = g(r).<br />
Da die Gleichung g(s) = s eine eindeutige Lösung in (0, 1) hat muss r = q gelten.<br />
Das folgende Theorem von Seneta und Heyde besagt, dass man einen superkritischen Verzweigungsprozess<br />
stets so reskalieren kann, dass der reskalierte Prozess fast sicher gegen eine<br />
nicht-triviale Zufallsvariable konvergiert.<br />
Theorem 1.22. Es sei 1 < m < ∞ und Z 0 = 1. Dann gibt es eine Folge (C n ) n∈N0 von positiven<br />
Zahlen so, dass<br />
• C n+1 /C n → m für n → ∞;<br />
• ˜W n := Z n /C n konvergiert fast sicher gegen eine Zufallsvariable ˜W , die fast sicher endlich<br />
und nicht-negativ ist. Ferner gilt P[˜W = 0] = q.<br />
Beweis. Sei g 0 (s) = s die Identität auf [0, 1] und sei gn<br />
−1 die Inverse von g n , wobei wir g −1 für<br />
g1 −1 schreiben. Die Funktion g −1 ist wachsend, konkav und differenzierbar. Außerdem bildet sie<br />
das Intervall [q, 1] bijektiv auf sich selbst ab.<br />
Wegen g(s) ≤ s für q ≤ s ≤ 1 gilt g −1 (s) ≥ s und daher gibt es ein g∞<br />
−1<br />
gilt<br />
s = g n (gn<br />
−1 (s)) ≤ g n (g∞ −1 (s)) → q<br />
k=0<br />
mit g −1<br />
n<br />
↑ g −1<br />
∞ . Ferner<br />
wenn g∞ −1 (s) < 1. Also muss g∞ −1 (s) = 1 für s > q gelten.<br />
Für s ∈ [q, 1] setze X n (s) := ( gn<br />
−1 (s) ) Z n<br />
. Diese Folge ist ein nicht-negatives Martingal, denn<br />
es gilt f.s.<br />
[ (g ] [<br />
−1<br />
E[X n+1 (s)|F n ] = E n+1 (s)) Z n+1 (g ]<br />
−1<br />
|F n = E n+1 (s)) Z Zn 1<br />
= g(g<br />
−1<br />
n+1 (s))Zn<br />
= (gn<br />
−1 (s)) Zn = X n (s).<br />
Es gibt also X ∞ (s) mit X n (s) → X ∞ (s) f.s. Wegen 0 ≤ X n (s) ≤ 1 können wir den Satz von<br />
dominierter Konvergenz benutzen und erhalten<br />
E[X ∞ (s)] = E[X 1 (s)] = s.<br />
14
1 Bienaymé-Galton-Watson-Prozess<br />
Die Folge (X 2 n(s)) ist ein [0, 1]-wertiger Submartingal. Für s < 1 gilt daher (hier ist nach unserer<br />
Annahme 1.1 Z 1 nicht-trivial in dem Sinne, dass P[Z 1 = 0] < 1)<br />
E[X 2 ∞(s)] ≥ E[X 2 1(s)] > E 2 [X 1 (s)].<br />
Insgesamt ist X ∞ (s) eine Zufallsvariable mit positiver Varianz.<br />
Wir definieren C n (s) := (− log gn<br />
−1 (s)) −1 und ˜W (s) := − log X ∞ (s) (der Wert unendlich ist<br />
zunächst mal nicht ausgeschlossen). Es gilt nun<br />
1<br />
C n (s) Z n = − log(g −1<br />
n (s))Z n = − log(X n (s)) → ˜W (s) f.s.<br />
Um zu zeigen, dass ˜W (s) f.s. endlich ist betrachten wir die Taylorentwicklung von g. Wie wir<br />
im Abschnitt 1.5 gesehen haben ist<br />
1 − g(s) = (m − r(s))(1 − s).<br />
Ersetzen wir s durch g −1 (s) für q < s < 1 dann gilt<br />
Produkt über k = 1, . . . , n liefert<br />
k<br />
1 − g −1<br />
k<br />
(s)<br />
1 − g −1<br />
k−1 (s) = 1<br />
m(1 − r(g −1<br />
k<br />
(s))/m).<br />
m n (1 − g −1<br />
n (s)) =<br />
∏ n<br />
k=1<br />
1 − s<br />
(1.20)<br />
(1 − r(g−1<br />
k<br />
(s))/m).<br />
Wegen − log x ∼ 1 − x für x ↑ 1 und gn<br />
−1 (s) ↑ 1 für n → ∞ und s > q folgt<br />
lim<br />
n→∞<br />
C n (s)<br />
C n−1 (s) = lim 1 − g −1<br />
n→∞<br />
Nun können wir die f.s. Endlichkeit von ˜W zeigen. Es gilt<br />
P[˜W (s) < ∞] = E[P[ lim<br />
[ [<br />
= E P<br />
n→∞ C−1<br />
lim<br />
n→∞<br />
(<br />
= g P[˜W (s) < ∞]<br />
n−1 (s)<br />
1 − g −1 n (s) = m.<br />
n (s)Z n < ∞|Z 1 ]]<br />
] ]<br />
C n−1 (s)<br />
Z1<br />
C n (s) C−1 n−1 (s)Z n−1 < ∞<br />
)<br />
.<br />
Analog zeigt man, dass<br />
(<br />
)<br />
P[˜W (s) = 0] = g P[˜W (s) = 0] .<br />
Da die Wahrscheinlichkeit auf der linken Seite kleiner 1 ist, folgt P[˜W (s) = 0] = q. Schließlich<br />
ist<br />
s = E[X ∞ (s)] = E[e −˜W (s) ] ≤ P[˜W (s) < ∞]<br />
und somit ist P[˜W (s) < ∞] = 1 für s > q. Ansonsten hätten wir nach Lemma 1.10 q < s ≤<br />
P[˜W (s) < ∞] = g n (P[˜W (s) < ∞]) → q für n → ∞, was zu einem Widerspruch führt.<br />
15
1 Bienaymé-Galton-Watson-Prozess<br />
Das folgende Theorem von Kesten und Stigun benutzt wieder die bekannte E[Z 1 log Z 1 ] < ∞<br />
Bedingung um die Reskalierungsfolge aus dem vorherigen Theorem genauer anzugeben.<br />
Theorem 1.23. Es sei 1 < m < ∞, Z 0 = 1 und setzte W n := m −n Z n und W := lim n→∞ W n . Ist<br />
E[Z 1 log Z 1 ] < ∞, dann gilt W n → W in L 1 und insbesondere E[W ] = 1. Ist E[Z 1 log Z 1 ] = ∞,<br />
dann ist E[W ] = 0 (was wegen W ≥ 0 f.s. zu P[W = 0] = 1 äquivalent ist).<br />
Beweis. Für q < s < 1 gilt gn<br />
−1 (s) ↑ 1 und somit Cn<br />
−1 (s) = − log gn<br />
−1 (s) ∼ 1−gn −1 (s) für n → ∞.<br />
Mit (1.20) folgt<br />
lim<br />
n→∞ C−1 n<br />
(s)m n < ∞ ⇔<br />
∞∏<br />
(1 − r(g −1<br />
k (s))/m) > 0<br />
k=1<br />
und nach Lemma 1.17 gilt<br />
lim<br />
n→∞ C−1 n<br />
(s)m n < ∞ ⇔<br />
∞∑<br />
k=1<br />
r(g −1<br />
k<br />
(s)) < ∞. (1.21)<br />
Wähle nun q < s 0 < 1 mit m 0 := g ′ (s 0 ) > 1. Für s 0 ≤ s < 1 gibt es nach dem Mittelwertsatz<br />
ein ŝ ∈ [s, 1] mit (1 − g(s))/(1 − s) = g ′ (ŝ) und wegen der Konvexität gilt m 0 ≤ g ′ (ŝ) ≤ m. Es<br />
folgt<br />
m 0 ≤ 1 − g(s)<br />
1 − s<br />
≤ m<br />
und somit<br />
m 0 ≤<br />
Mit Teleskopprodukt erhalten wir wieder<br />
1 − g k(s)<br />
1 − g k−1 (s) ≤ m.<br />
m n 0 (1 − s) ≤ 1 − g n (s) ≤ m n (1 − s),<br />
woraus wir durch Substitution von gn<br />
−1 (s) für s<br />
1 − m −n<br />
0 (1 − s) ≤ g−1 n (s) ≤ 1 − m −n (1 − s)<br />
erhalten. Für genügend große k ∈ N gilt m −k<br />
0 ≤ 1 − s und somit folgt<br />
1 − m −n−k<br />
0 ≤ 1 − m −n<br />
0 (1 − s) ≤ g−1 n (s) ≤ 1 − m −n 1 − s) ≤ 1 − m −n .<br />
Auf diese Ungleichung wenden wir die Funktion r an, die auf (0, 1] wachsend ist und erhalten<br />
r(1 − m −n−k<br />
0 ) ≤ r(1 − m −n<br />
0 (1 − s)) ≤ r(g−1 n (s)) ≤ r(1 − m −n (1 − s)) ≤ r(1 − m −n ).<br />
Wir summieren über n, nutzen (1.21) und Lemma 1.16 und bekommen<br />
E[Z 1 log Z 1 ] < ∞ ⇔<br />
lim<br />
n→∞ C−1 n (s)m n < ∞,<br />
16
1 Bienaymé-Galton-Watson-Prozess<br />
d.h. wir können C n = m n als Reskalierungsfolge in Theorem 1.22 nehmen. Ist E[Z 1 log Z 1 ] = ∞<br />
so folgt m −n Z n → 0 f.s.<br />
Es bleibt zu zeigen, dass W n gegen W in L 1 konvergiert, was wiederum aus gleichgradiger<br />
Integrierbarkeit von W n folgt. Dafür reicht es zu zeigen, dass E[sup n W n ] < ∞. Es gilt<br />
P[W > at] ≥ P[W > at, sup W n > t]<br />
=<br />
=<br />
=<br />
n<br />
∞∑<br />
P[W > at, W n > t, W k ≤ t für 0 ≤ k < n]<br />
n=0<br />
∞∑<br />
P[W > at|Z n > tm n , W k ≤ t für 0 ≤ k < n]P[W n > t, W k ≤ t für 0 ≤ k < n]<br />
n=0<br />
∞∑<br />
P[W > at|Z n > tm n ]P[W n > t, W k ≤ t für 0 ≤ k < n],<br />
n=0<br />
wobei wir hier die Markoveigenschaft benutzt haben. Seien W (j) u.i.v. Kopien von W . Auf dem<br />
Ereignis {Z n > tm n } starten zur Zeit n mindestens (ganzzahliger Anteil von) tm n u.i.v. Familien<br />
von Verzweigungsprozessen. Damit gilt<br />
⎡<br />
⎤<br />
P[W > at|Z n > tm n ] ≥ P ⎣ 1 ∑<br />
W (j) > a⎦ .<br />
tm n tm n<br />
Nach dem Gesetz der großen Zahlen gibt es für jedes positive a < E[W ] ein b > 0 mit<br />
⎡<br />
⎤<br />
P ⎣ 1 ∑<br />
W (j) > a⎦ > b<br />
tm n tm n<br />
j=1<br />
für alle n (die Wahrscheinlichkeit ist nämlich für alle n positiv und konvergiert gegen 1). Es folgt<br />
P[W > at] ≥ b<br />
∞∑<br />
n=0<br />
j=1<br />
P[W n > t, W k ≤ t für 0 ≤ k < n] = bP[sup W n > t].<br />
n<br />
für t ≥ 1 (für t < 1 ist die Wahrscheinlichkeit auf der rechten Seite gleich 1). Da sup n W n<br />
nicht-negativ ist gilt<br />
E[sup W n ] =<br />
n<br />
∫ ∞<br />
0<br />
≤ 1 + 1 b<br />
P[sup W n > t] dt<br />
n<br />
∫ ∞<br />
0<br />
P[W > at] dt = 1 + 1 ab<br />
∫ ∞<br />
0<br />
P[W > t] dt<br />
= 1 + 1 ab E[W ] < ∞. 17
1 Bienaymé-Galton-Watson-Prozess<br />
1.8 Beispiel: Die gebrochen-rationale Nachkommensverteilung<br />
Wir betrachten hier ein Beispiel, bei dem man die erzeugende Funktion von Z n direkt berechnen<br />
kann (was typischerweise kaum möglich ist).<br />
Für b, p ∈ (0, 1) mit b+p ≤ 1 sei p k = bp k−1 für k = 1, 2, . . . und p 0 = 1− ∑ ∞<br />
i=1 p i = 1−b/(1−p).<br />
Dann ist<br />
∞∑<br />
∞∑<br />
g(s) = p k s k = p 0 + bs (ps) k = 1 −<br />
b<br />
1 − p + bs<br />
(1.22)<br />
1 − ps<br />
und<br />
k=0<br />
k=0<br />
m = g ′ (1−) =<br />
b<br />
(1 − p) 2 .<br />
Man beachte, dass die Potenzreihe von g den Konvergenzradius 1/p hat. Für u, v aus dem<br />
Konvergenzbereich folgt mit (1.22)<br />
g(s) − g(u)<br />
g(s) − g(v) = s − u<br />
s − v · 1 − pv<br />
1 − pu . (1.23)<br />
Die Gleichung g(s) = s hat zwei Lösungen ̂q und 1, die auch zusammenfallen können. Wenn<br />
m > 1 ist, dann ist ̂q = q < 1; ist m = 1, so ist ̂q = q = 1; ist m < 1 so ist ̂q > 1 = q. Nehmen<br />
wir nun u = ̂q und v = 1 in (1.23), dann folgt für m ≠ 1<br />
1 − p<br />
1 − p̂q<br />
=<br />
g(s) − ̂q<br />
s − ̂q<br />
( g(s) − 1<br />
s − 1<br />
) −1<br />
.<br />
Hier hängt die linke Seite nicht von s ab und deswegen erhalten wir mit s ↑ 1 auf der rechten<br />
Seite<br />
Setzen wir das wieder in (1.23) ein, dann folgt<br />
und nach Iteration dieser Gleichung<br />
1 − p<br />
1 − p̂q = 1 m .<br />
g(s) − ̂q<br />
g(s) − 1 = 1 m · s − ̂q<br />
s − 1<br />
g n (s) − ̂q<br />
g n (s) − 1 = 1<br />
m n · s − ̂q<br />
s − 1 .<br />
Diese Gleichung kann man nun nach g n (s) auflösen und man erhält für m ≠ 1<br />
{<br />
̂q : wenn m > 1,<br />
g n (s) = 1 − mn (1 − ̂q)(s − 1)<br />
m n (s − 1) − (s − ̂q)<br />
n→∞<br />
−−−→<br />
Falls m = 1, dann ist b = (1 − p) 2 und ̂q = 1. Damit ist<br />
1 : wenn m < 1.<br />
g(s) =<br />
p − (2p − 1)s<br />
, (1.24)<br />
1 − ps<br />
18
1 Bienaymé-Galton-Watson-Prozess<br />
woraus man nach Iteration<br />
g n (s) =<br />
np − (np + p − 1)s<br />
1 − p + np − nps<br />
(1.25)<br />
erhält, was für n → ∞ gegen 1 konvergiert.<br />
Dadurch, dass man g n explizit kennt, kennt man einerseits natürlich die Verteilungen von Z n ,<br />
andererseits findet man leicht die Resultate vorheriger Abschnitte in diesem Spezialfall wieder.<br />
Ist beispielsweise m = 1, dann gilt (siehe (i) aus Theorem 1.15)<br />
nP[Z n > 0] = n(1 − g n (0)) = n<br />
(<br />
np<br />
1 −<br />
1 − p + np<br />
)<br />
n→∞<br />
−−−→ 1 − p =<br />
p<br />
2<br />
2p/(1 − p) ,<br />
wobei 2p/(1 − p) = Var[Z 1 ] = g ′′ (1) + g ′ (1) − (g ′ (1)) 2 ist (siehe Lemma 1.6).<br />
Im Fall m > 1 wissen wir, dass wegen g ′′ (1) < ∞ die Zufallsvariable W , gegen die Z n /m n<br />
fast sicher konvergiert, nicht-trivial ist und ein Atom in 0 hat mit P[W = 0] = q(= ̂q). In<br />
dem gebrochen-rationalen Fall können wir noch mehr sagen. Wir betrachten dazu die Laplace-<br />
Transformierte von W . Für λ ≥ 0 gilt<br />
Nun gilt m n (e − λ<br />
m n<br />
E[e −λW ] = lim<br />
n→∞ E[e− λ<br />
m n Z n<br />
] = lim<br />
n→∞ E[(e− λ<br />
m n ) Zn ] = lim g n(e − λ<br />
n→∞<br />
(<br />
)<br />
m n (1 − q)(e − λ<br />
m n − 1)<br />
= lim<br />
n→∞<br />
1 −<br />
m n (e − λ<br />
m n<br />
− 1) → −λ für n → ∞ und somit<br />
E[e −λW ] = 1 −<br />
− 1) − (e − λ<br />
m n − q)<br />
.<br />
m n )<br />
(1 − q)λ<br />
λ + (1 − q) . (1.26)<br />
Andererseits wissen wir, dass es ein W ∗ gibt W ∗ ∈ (0, ∞) f.s. und W = 0·1 {W =0} +W ∗ ·1 {W >0} .<br />
Damit ist<br />
Es folgt<br />
E[e −λW ] = P[W = 0] + (1 − P[W = 0])E[e −λW ∗ ] = q + (1 − q)E[e −λW ∗ ]. (1.27)<br />
E[e −λW ∗ ] = 1<br />
1 − q<br />
(<br />
1 − q −<br />
)<br />
(1 − q)λ<br />
= 1 −<br />
λ + (1 − q)<br />
(1 − q)λ<br />
λ + (1 − q) =<br />
1 − q<br />
λ + (1 − q) . (1.28)<br />
Dies ist (wie man leicht nachrechnet) die Laplace-Transformierte der Exp(1−q)-Verteilung. Also<br />
ist für eine unabhängige exponentiell mit Parameter (1 − q) verteilte Zufallsvariable W ∗<br />
W =<br />
{<br />
0 : mit Wahrscheinlichkeit q,<br />
W ∗ : mit Wahrscheinlichkeit 1 − q.<br />
1.9 “Verwandte” des Bienaymé-Galton-Watson Prozesses<br />
(1.29)<br />
Wir schließen dieses Kapitel mit einigen Verallgemeinerungen des Bienaymé-Galton-Watson Prozesses<br />
ab.<br />
19
1 Bienaymé-Galton-Watson-Prozess<br />
1.9.1 BGWP mit Immigration<br />
Bei diesem Prozess wird wie zuvor die Generation zur Zeit n + 1 aus den Nachkommen der<br />
Individuen der n-ten Generation gebildet, zusätzlich kommen (unabhängig viele) Individuen<br />
dazu, deren Anzahl gemäß einer vorgegebenen Verteilung verteilt ist.<br />
Es sei die Familie {ξ nk : n ∈ N 0 , k ∈ N} wie in Definition 1.1. Zusätzlich sei {ζ n : n ∈ N 0 } eine<br />
Folge u.i.v. N 0 -wertiger Zufallsvariablen (auch unabhängig von den ξ’s) mit erzeugenden Funktion<br />
h. Ein Bienaymé-Galton-Watson-Prozess mit Immigration (BGWI) ist eine Markovkette<br />
Y := (Y n ) n≥0 , die durch<br />
Y 0 = ζ 0 und Y n+1 =<br />
Y n ∑<br />
k=1<br />
ξ nk + ζ n+1 , n ≥ 0 (1.30)<br />
rekursiv definiert ist. Man könnte an dieser Stelle auch mit einer beliebigen ganzzahligen nichtnegativen<br />
Zufallsvariablen Y 0 starten. Die Notation wird dadurch aber ein wenig komplizierter.<br />
Je nachdem ob m = g ′ (1−) = 1, (< 1, > 1) ist, nennt man Y kritisch, (subkritisch, superkritisch).<br />
Im Prinzip ist nur der Fall P[ζ 0 = 0] < 1 interessant, da andernfalls Y n = 0 für alle n ist. Es<br />
ist klar, dass in diesem Fall der Zustand 0 nicht mehr absorbierend ist.<br />
Für s ∈ [0, 1] sei h n (s) = E[s Yn ], h(s) = h 0 (s) und (wie zuvor) g(s) = E[s ξ 11<br />
]. Dann ist mit<br />
F n := σ(ζ j , ξ jk : 0 ≤ j ≤ n)<br />
und man erhält iterativ<br />
E[s Y n+1<br />
|F n ] = (g(s)) Yn h(s)<br />
h n+1 = h · h n ◦ g bzw. h n =<br />
Es gibt also eine Funktion h ∞ mit h n ↓ h ∞ mit<br />
n∏<br />
h ◦ g j .<br />
j=0<br />
h ∞ = h · h ∞ ◦ g. (1.31)<br />
Da der Prozess Y nicht mehr in 0 absorbiert wird, liegt es nahe sich zu fragen ob und unter<br />
welchen Bedingungen es gegen nicht-triviale Zufallsvariablen konvergiert. Man muss also h ∞<br />
untersuchen.<br />
Für Beweise folgender Resultate verweisen wir auf (Jagers 1975, 3.1) bzw. auf (Lyons n.d.).<br />
Theorem 1.24. Es sei Y ein subkritischer BGWI. Dann konvergiert Y n in Verteilung gegen eine<br />
Zufallsvariable Y ∞ (die möglicherweise mit positiver Wahrscheinlichkeit den Wert ∞ annimmt)<br />
deren erzeugende Funktion die eindeutige Lösung h ∞ der Gleichung (1.31) ist. Ferner gilt<br />
d.h. in diesem Fall ist Y ∞ < ∞ f.s.<br />
h ∞ (1) = 1 ⇔ E[log + ζ 0 ] =<br />
∞∑<br />
P[ζ 0 = k] log k < ∞,<br />
k=2<br />
20
1 Bienaymé-Galton-Watson-Prozess<br />
Theorem 1.25. Ist m = 1, σ 2 = g ′′ (1−) < ∞ und 0 < a := h ′ (1) < ∞ dann konvergiert Y n /n<br />
in Verteilung gegen eine gamma verteilte Zufallsvariable mit Dichte<br />
w(x) =<br />
1<br />
Γ(α)β α xα−1 e −x/β , x > 0, (1.32)<br />
wobei α = 2a/σ 2 und β = σ 2 /2. Insbesondere ist im Falle a = σ 2 /2<br />
w(x) = 1 x<br />
σ 2 /2 e− σ 2 /2<br />
. (1.33)<br />
Bemerkung 1.26. In Theorem 1.15(iii) haben wir bereits gesehen, dass Z n /n bedingt auf {Z n ><br />
0} gegen eine Zufallsvariable mit Dichte w(x) aus (1.33) in Verteilung konvergiert. Zusammen<br />
mit obigem Theorem folgt also daraus, dass das Bedingen auf {Z n > 0} und Immigration mit<br />
Mittelwert σ 2 /2 denselben Effekt haben.<br />
Theorem 1.27. Es sei m > 1. Dann gilt<br />
(i) Ist E[log + ζ 0 ] < ∞, dann konvergiert Z n /m n in Verteilung und der Grenzwert ist f.s.<br />
endlich.<br />
(ii) Ist E[log + ζ 0 ] = ∞, dann gilt lim sup n→∞ Z n /c n = ∞ f.s. für jedes c > 0.<br />
1.9.2 Verzweigungsprozesse in zufälliger Umgebung<br />
Wie der Name schon vermuten lässt, ist die Evolution eines Verzweigungsprozesses in zufälliger<br />
Umgebung (engl. branching process in random environment (BPRE)) wie die des “gewöhnlichen”<br />
Verzweigungsprozesses mit dem Unterschied, dass sich die Nachkommensverteilung von Generation<br />
zu Generation ändern kann. Man denke beispielsweise an eine Population von Pflanzen mit<br />
einem Lebenszyklus von einem Jahr, bei der die Nachkommensverteilung von Wetterverhältnissen<br />
beeinflusst wird.<br />
Zum ersten mal wurden BPRE in (Athreya and Karlin 1970, Smith and Wilkinson 1969)<br />
eingeführt. Wir halten uns hier an die Darstellung in (Birkner et al. 2005).<br />
Es sei ∆ die Menge der Wahrscheinlichkeitsmaße auf N 0 , ausgestattet mit Totalvariationsabstand<br />
Polnisch ist. Ferner sei Q eine ∆-wertige Zufallsvariable und Π = (Q 1 , Q 2 , . . . ) eine Folge<br />
von u.i.v. Zufallsvariablen mit derselben Verteilung wie Q.<br />
Definition 1.28. Eine Folge Z := (Z n ) n=0,1,... von N 0 -wertigen Zufallsvariablen ist ein Verzweigungsprozess<br />
in zufälliger Umgebung Π falls Z 0 unabhängig von Π ist und gegeben Π die<br />
Folge Z eine Markovkette ist mit<br />
[ i∑<br />
]<br />
P[Z n = j|Z n−1 = i, Π = (q 1 , q 2 , . . . )] = P ξ (qn)<br />
k<br />
= j<br />
k=1<br />
für alle n ≥ 1, i, j ∈ N 0 und q 1 , q 2 , . . . ∆. Dabei sind ξ (q i)<br />
1 , ξ (q i)<br />
2 , . . . u.i.v. q i verteilt.<br />
Im Folgenden nehmen wir immer Z 0 = 1 f.s. an. Mit Z kann man wie folgt eine Irrfarht S =<br />
(S 0 , S 1 , . . . ) assoziieren. Sei S 0 = 0 und definiere die Inkremente von S durch X n = S n − S n−1 ,<br />
n ≥ 1, wobei<br />
∞∑<br />
X n := log yQ n ({y}),<br />
y=0<br />
21
1 Bienaymé-Galton-Watson-Prozess<br />
u.i.v. Kopien von<br />
X := log<br />
∞∑<br />
yQ({y})<br />
y=0<br />
sind. Wir nehmen an, dass X f.s. endlich ist. Dann gilt<br />
µ n := E[Z n |Π] = e Sn f.s.<br />
Je nach Verteilung von Q ist gibt es drei Möglichkeiten:<br />
1. Superkritischer Fall: Wenn lim n→∞ S n = ∞ f.s. gilt, dann ist µ n → ∞ f.s.<br />
2. Subrkritischer Fall: Wenn lim n→∞ S n = −∞ f.s. gilt, dann ist µ n → 0 f.s.<br />
3. Kritischer Fall: Wenn lim sup n→∞ S n = ∞ und lim inf n→∞ S n = −∞ f.s. gilt, dann ist<br />
lim sup n→∞ µ n = ∞ und lim inf n→∞ µ n = 0 f.s.<br />
Wir betrachten nun die Aussterbewahrscheinlichkeiten in diesen Fällen. Für m ≤ n gilt<br />
P[Z n > 0|Π] ≤ P[Z m > 0|Π] ≤ µ m<br />
und es folgt<br />
( )<br />
P[Z n > 0|Π] ≤ min µ m = exp min S m .<br />
m≤n m≤n<br />
Im kritischen und subkritischen Fall konvergiert die rechte Seite f.s. gegen 0 und deswegen gilt<br />
in diesen Fällen auch nach Mitteln über Π (wie intuitiv erwartet werden konnte)<br />
P[Z n > 0] n→∞ −−−→ 0,<br />
f.s.<br />
Anders als bei “gewöhnlichen” Verzweigungsprozessen ist es bei BPRE auch im superkritischen<br />
Fall möglich, dass die Population fast sicher ausstirbt. Starke Fluktuationen der zufälligen Umgebung<br />
wirken nämlich wie “Katastrophen” auf die Population. Allgemein gilt das folgende Resultat,<br />
dass in (Smith 1968, Smith and Wilkinson 1969) bewiesen ist.<br />
Theorem 1.29. Es sei E[|X|] < ∞, dann ist die Überlebenswahrscheinlichkeit des BPRE Z<br />
positiv, d.h.<br />
genau dann, wenn<br />
lim P[Z n > 0] > 0<br />
n→∞<br />
E[X] > 0 und E[log(1 − Q({0}))] > −∞.<br />
Die Bedingung E[X] > 0 impliziert, dass Z superkritisch ist, was nach oberen Überlegungen<br />
notwendig für Überleben mit positiver Wahrscheinlichkeit ist. Die zweite Bedingung besagt insbesondere,<br />
dass die Wahrscheinlichkeit für “Katastrophen” Q({0} nahe an 1 ist, vernachlässigbar<br />
klein ist.<br />
22
1 Bienaymé-Galton-Watson-Prozess<br />
Beispiel 1.30. Für l ∈ (0, 1) setze q l (0) = 1−l und q l (⌈2/l⌉) = l. Dadurch ist eine einparametrige<br />
Verteilung auf N 0 definiert mit Mittelwert<br />
m l = l · ⌈2/l⌉ > 1.<br />
Sei nun der Parameter l Realisierung der Zufallsvariablen L mit Verteilung<br />
P[L ≤ x] = C(− log x) −α , x ∈ (0, 1).<br />
Dabei ist α ∈ (0, 1) fest und C ist eine Normierungskonstante. Wir setzen Q = q l , wenn L = l<br />
ist. Dann gilt<br />
E[X] = E[log(L · ⌈2/L⌉] > 0<br />
und<br />
E[log(1 − Q({0}))] = E[log L] = −C<br />
∫ 1<br />
= C<br />
1 + α lim<br />
A→0 (log A)1+α = −∞.<br />
0<br />
log x 1 x α(log x)α−1 ] = −C<br />
(log x)1+α<br />
1 + α<br />
∣<br />
∣ 1 0<br />
23
2 Verzweigungsprozesse in stetiger Zeit<br />
In diesem Kapitel betrachten wir Verzweigungsprozesse bei denen die Lebensdauer eines Individuums<br />
exponentiell verteilt ist. Es ist natürlich möglich und oft biologisch auch sinnvoll anders<br />
verteilte Lebensdauer anzunehmen, im Allgemeinen verliert man die Markovsche Struktur des<br />
Prozesses. Dank der Gedächtnislosigkeit der Exponentialverteilung sind diese Prozesse zeitlich<br />
homogene Markovketten in stetiger Zeit.<br />
Bevor wir einen Verzweigungsprozess in stetiger Zeit (VPSZ) definieren werden wir einige<br />
Grundlagen zu stochastischen Prozessen in stetiger Zeit wiederholen müssen. Eine intuitive Konstruktion<br />
ist wie folgt: Für ein λ > 0 sei die Lebensdauer jedes Individuums exponentiell verteilt<br />
mit Parameter λ. Nach Ablauf dieser Lebensdauer wird das Individuum (genauso wie im Fall<br />
mit diskreter Zeit) durch Nachkommen ersetzt deren Anzahl gemäß einer festen Nachkommensverteilung<br />
verteilt ist. Die Lebensdauern der Individuen und die Anzahl der Nachkommen sind<br />
jeweils unabhängig voneinander und unter Individuen.<br />
2.1 <strong>Stochastische</strong> Prozesse in stetiger Zeit<br />
In diesem Abschnitt wiederholen wir kurz einige Standardbegriffe der stochastischen Prozesse<br />
in stetiger Zeit (siehe z.B. Kallenberg 2002), die wir benötigen werden. Wir orientieren uns hier<br />
an (Ethier and Kurtz 1986, Kap. 2 und 3).<br />
Im Folgenden seien (E, r) ein metrischer Raum, B := B(E) die zugehörige Borel-σ-Algebra<br />
und R + := [0, ∞).<br />
Definition 2.1. Ein E-wertiger stochastischer Prozess X := (X(t)) t∈R+ ist eine Familie von<br />
Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F, P) mit Werten in (E, B).<br />
Eine Familie von σ-Algebren (F t : t ≥ 0) mit F t ⊂ F für t ≥ 0 und F s ∈ F t für s ≤ t heißt<br />
Filtration. Wir sagen, dass X adaptiert an die Filtration (F t : t ≥ 0) ist, falls X t messbar bez. F t<br />
für jedes t ≥ 0 ist. Die Filtration heißt rechtsstetig, wenn für jedes t ≥ 0, F t = F t+ := ⋂ ε>0 F t+ε<br />
gilt.<br />
Für ein festes ω ∈ Ω ist ein Pfad t ↦→ X(t, ω) eine Abbildung von R + nach E. Verzweigungsprozesse<br />
sind Sprungprozesse haben also keine stetige Pfade, haben aber typischerweise eine<br />
rechtsstetige Version mit linksseitigen Grenzwerten (r.c.l.l. für engl. right continuous with left<br />
limits), d.h. die Prozesse haben dieselben endlichdimensionalen Verteilungen. Wir bezeichnen<br />
den Raum der r.c.l.l. Funktionen von R + nach E mit D E (R + ). Insbesondere kann man also X<br />
als eine D E (R + )-wertige Zufallsvariable auffassen. Wir führen nun eine Metrik auf diesem Raum<br />
ein bezüglich der Funktionen mit Sprüngen von “ähnlicher” Höhe zu nahe beieinander liegenden<br />
Sprungzeiten kleinen Abstand haben. Man betrachte z.B. Funktionen f(x) = 1 [1,∞) (x) und<br />
f n (x) = 1 [1+1/n,∞) (x) für x ∈ R + . Für jedes n ist der Supremumsabstand von f n und f gleich<br />
1. In der Skorohod-Metrik (die wir in kürze einführen werden) konvergiert f n aber gegen f.<br />
24
2 Verzweigungsprozesse in stetiger Zeit<br />
Es sei Λ die Menge (streng) monoton wachsender Lipschitz stetiger Funktionen λ : R + → R +<br />
mit λ(0) = 0, λ(t) → ∞ für t → ∞ und<br />
γ(λ) := sup<br />
λ(s) − λ(t)<br />
∣log s − t ∣ < ∞.<br />
0≤t 0.<br />
lim<br />
sup<br />
n→∞ 0≤t≤T<br />
r(x n (t), x(λ n (t))) = 0<br />
Theorem 2.3. Es seien x, x 1 , x 2 , · · · ∈ D E (R + ), dann gilt d(x n , x) → 0 für n → ∞ genau dann<br />
wenn für jedes t ∈ R + und jede Folge (t n ) n=1,2,... ⊂ R mit lim n→∞ t n = t folgende Aussagen<br />
gelten<br />
(i)<br />
lim r(x n(t n ), x(t)) ∧ r(x n (t n ), x(t−)) = 0;<br />
n→∞<br />
(ii) Ist lim n→∞ r(x n (t n ), x(t)) = 0, dann gilt für jede Folge (s n ) n=1,2,... mit s n ≥ t n und<br />
lim n→∞ s n = t<br />
lim r(x n(s n ), x(t)) = 0.<br />
n→∞<br />
(iii) Ist lim n→∞ r(x n (t n ), x(t−)) = 0, dann gilt für jede Folge (s n ) n=1,2,... mit s n ≤ t n und<br />
lim n→∞ s n = t<br />
lim r(x n(s n ), x(t−)) = 0.<br />
n→∞<br />
25
2 Verzweigungsprozesse in stetiger Zeit<br />
Die Charakterisierung aus dem letztem Theorem hat den Vorteil, dass man die einzelnen<br />
Unterpunkte intuitiv interpretieren kann: Die erste Aussage besagt, dass es höchstens zwei<br />
Grenzwerte von x(t n ) geben kann. Die zweite gilt wegen Rechtsstetigkeit und die dritte wegen<br />
linksseitiger Grenzwerte. Mit dem obigen Theorem folgt auch, dass die C E (R + ) (die Menge<br />
der stetigen Funktionen von R + nach E) ausgestattet mit der Skorohod Metrik abgeschlossen<br />
in D E (R + ) ist.<br />
Für Konvergenz von stochastischen Prozessen in Verteilung und insbesondere um Prohorovs<br />
Theorem anwenden zu können muss der Zustandsraum Polnisch sein, d.h. vollständig und separabel.<br />
Für die beiden Aussagen im nächsten Resultat verweisen wir auf Theorem 3.5.6 und<br />
Proposition 3.7.1 in (Ethier and Kurtz 1986).<br />
Theorem 2.4. (i) Ist (E, r) separabel, so ist (D E (R + ), d) separabel. Ist (E, r) vollständig, so<br />
ist (D E (R + ), d) vollständig.<br />
(ii) Definiere für t ≥ 0 Projektionen π t : D E (R + ) → E durch π t (x) = x(t). Ist (E, r) separabel<br />
und A eine dichte Teilmenge von R + , dann gilt<br />
B (D E (R + )) = σ(π t : t ∈ A).<br />
Insbesondere bestimmen die endlichdimensionalen Verteilungen eines Prozesses mit Pfaden<br />
in D E (R + ) seine Verteilung eindeutig.<br />
2.2 Generatoren von Markovprozessen<br />
Wir verwenden hier weiterhin die Bezeichnungen aus dem letzten Abschnitt.<br />
Definition 2.5. Ein E-wertiger Prozess X = (X(t)) t∈R+<br />
Filtration (F t ) falls für alle Γ ∈ B(E) und alle t, s ≥ 0<br />
ist ein Markovprozess bezüglich der<br />
P[X(t + s) ∈ Γ|F t ] = P[X(t + s) ∈ Γ|X(t)] f.s. (2.1)<br />
gilt. Falls beide Seiten von (2.1) nicht von t abhängen, dann ist X ein (zeitlich) homogener<br />
Markovprozess. Ferner ist X ein starker Markovprozess falls in (2.1) t durch jede f.s. endliche<br />
Stoppzeit T ersetzt werden kann.<br />
Typischerweise, aber nicht immer nehmen wir für F t die natürliche (vom Prozess selbst erzeugte)<br />
Filtration Ft<br />
X = σ(X(s) : 0 ≤ s ≤ t).<br />
Bezeichnen wir mit B(E) die Menge der beschränkten messbaren Funktionen auf E, dann<br />
folgt aus (2.1)<br />
E[f(X(t + s))|F t ] = E[f(X(t + s))|X(t)] f.s. (2.2)<br />
für jedes f ∈ B(E). Ein homogener Markovprozess ist charakterisiert durch die Übergangsoperatoren<br />
P t (x, Γ) := P x [X t ∈ Γ] := P[X t ∈ Γ|X 0 = x], (2.3)<br />
wobei x ∈ E ist und Γ ∈ B(E). Wegen zeitlicher Homogenität kann man mit der Familie (P t ) t∈R+<br />
alle endlichdimensionalen Verteilungen von X bestimmen und somit ist nach Theorem 2.4(ii)<br />
26
2 Verzweigungsprozesse in stetiger Zeit<br />
die Verteilung von X auf D E (R + ) durch die Übergangsoperatoren bestimmt, wenn E separabel<br />
ist. Die Übergangsoperatoren sind durch die Chapman-Kolmogorov Gleichung<br />
∫<br />
P t+s (x, Γ) = P t (x, dy)P s (y, Γ) t, s ≥ 0 (2.4)<br />
E<br />
mit der Halbgruppentheorie verbunden und können mithilfe die zugehörigen infinitesimalen Generatoren<br />
beschrieben werden.<br />
Definition 2.6 (Halbgruppe). Eine Familie (T t ) t∈R+ von beschränkten linearen Operatoren<br />
auf einem Banachraum B heißt Halbgruppe falls T 0 = Id und T t+s = T t T s für alle t, s ≥ 0.<br />
Die Halbgruppe heißt stark stetig, wenn lim t→0 T t f = f ist für alle f ∈ B. Wir sprechen von<br />
einer Kontraktionshalbgruppe falls ‖T ‖ ≤ 1 ist. Ist B ein Funktionenraum, dann nennen wir die<br />
Halbgruppe positiv bzw. konservativ, falls für alle t ≥ 0 gilt T t f ≥ 0 für alle f ≥ 0 bzw. T t 1 = 1.<br />
Man beachte, dass es generell ein M ≥ 1 und w ≥ 0 gibt, sodass ‖T ‖ ≤ Me wt (Ethier and<br />
Kurtz 1986, Proposition 1.1.1).<br />
Definition 2.7 (Generator einer Halbgruppe). Der infinitesimale Generator (auch Erzeuger)<br />
der Halbgruppe (T t ) t∈R+ ist ein linearer Operator A auf B definiert durch<br />
T f − f<br />
Af := lim .<br />
t→0 t<br />
Der Definitionsbereich D(A) ist die Menge der Elemente von B, für die dieser Grenzwert existiert.<br />
Der Graph von A ist definiert durch<br />
G(A) := {(f, Af) : f ∈ D(A)} ⊂ B × B.<br />
Man sagt, dass A abgeschlossen ist, wenn G(A) abgeschlossen in B ×B ist. Ferner heißt A abschliessbar,<br />
wenn es eine abgeschlossene lineare Fortsetzung von A gibt. In diesem Fall bezeichnen<br />
wir als Abschluss, Ā, die minimale Fortsetzung von A. Ist A ein abgeschlossener Generator,<br />
dann heißt D ⊂ D(A) Core von A, wenn der Abschluss von A eingeschränkt auf D mit A<br />
übereinstimmt (wenn also D bezüglich der Graphennorm dicht in D(A) ist).<br />
Der Zusammenhang von A und T wird in dem folgenden Resultat verdeutlicht (siehe Ethier<br />
and Kurtz 1986, Proposition 1.1.5).<br />
Theorem 2.8. Es sei (T t ) t∈R+ eine stark stetige Halbgruppe auf L ⊂ B. Dann gelten folgende<br />
Aussagen:<br />
(i) Ist f ∈ L und t ≥ 0, dann ist ∫ t<br />
0 T sf ds ∈ D(A) und es gilt<br />
T t f − f = A<br />
∫ t<br />
0<br />
T s f ds.<br />
(ii) Ist f ∈ D(A) und t ≥ 0, dann ist T t f ∈ D(A) und es gilt<br />
d<br />
dt T tf = AT t f = T (t)Af.<br />
27
2 Verzweigungsprozesse in stetiger Zeit<br />
(iii) Ist f ∈ D(A) und t ≥ 0, dann gilt<br />
T t f − f =<br />
∫ t<br />
0<br />
AT s f ds =<br />
∫ t<br />
0<br />
T s Af ds.<br />
Man kann zeigen (siehe Ethier and Kurtz 1986, Abschnitt 1.1), dass der Generator einer stark<br />
stetigen Halbgruppe eindeutig bestimmt ist, wenn es auf dem Core definiert ist. Außerdem ist<br />
jede stark stetige Halbgruppe eindeutig charakterisiert durch ihren Generator.<br />
Nun betrachten wir den Zusammenhang zwischen Markovprozessen und stark stetigen Halbgruppen.<br />
Sei also X wie zuvor ein homogener Markovprozess auf E. Für L ⊂ B(E) definieren<br />
wir<br />
T t f(x) := E x [f(X t )] := E[f(X t )|X 0 = x] = E[f(X t+s )|X s = x]. (2.5)<br />
Dann ist natürlich T 0 f(x) = f(x) und T t+s f(x) = T t T s f(x) bekommt man mit der Chapman-<br />
Kolmogorov Gleichung. Man kann zeigen, dass jeder homogener Markovprozess auf diese Weise<br />
eindeutig durch die so definierte Halbgruppe charakterisiert ist. Jedoch gilt die Umkehrung im<br />
Allgemeinen nicht: nicht zu jeder Halbgruppe gibt es einen Markovprozess. Eine große Klasse<br />
von Halbgruppen, für die die Umkehrung gilt sind die Feller-Halbgruppen.<br />
Definition 2.9. Es sei C 0 (E) die Menge der stetigen Funktionen auf E die bei unendlich<br />
verschwinden. Eine positive, konservative stark stetige Halbgruppe auf C 0 (E) heißt Feller-<br />
Halbgruppe und der zugehörige Generator Feller-Generator.<br />
Für das folgende Theorem verweisen wir auf (Ethier and Kurtz 1986, Theorem 4.2.7).<br />
Theorem 2.10. Es sei E lokal kompakt und separabel und sei (T t ) t∈R+ eine Feller-Halbgruppe<br />
auf C 0 (E). Dann gibt es für jedes Wahrscheinlichkeitsmaß ν auf (E, B(E)) einen zu (T t ) t∈R+<br />
(mittels (2.5)) gehörigen Markovprozess X mit Anfangsverteilung ν und Pfaden im Skorohod<br />
Raum D E (R + ). Ferner ist X stark Markovsch bezüglich der (natürlichen, rechtsstetigen) Filtration<br />
Ft+.<br />
X<br />
Wir schließen diesen Abschnitt mit Beispielen ab.<br />
Beispiel 2.11. 1. Es sei X = (X t ) t∈R+ ein Poissonprozess mit Rate λ. Insbesondere haben<br />
wir X 0 = 0, X t ∼ Pois(λt) und die Zuwächse sind unabhängig. Für f ∈ C 0 (N 0 ) (also eine<br />
Nullfolge) gilt<br />
und<br />
T t f(x) = E[f(X(t + s))|X(s) = x] = E 0 [f(x + X t )] =<br />
T t f(x) − f(x)<br />
t<br />
= e−λt<br />
t<br />
∞∑<br />
k=0<br />
(f(x + k) − f(x)) (λt)k<br />
k!<br />
∞∑<br />
k=0<br />
−λt (λt)k<br />
f(x + k)e<br />
k!<br />
∑<br />
∞<br />
= e −λt λ (f(x + 1) − f(x)) + e −λt (f(x + k) − f(x)) λk t k−1<br />
t→0<br />
−−→ λ (f(x + 1) − f(x)) = Af(x).<br />
k=2<br />
k!<br />
28
2 Verzweigungsprozesse in stetiger Zeit<br />
2. Es sei X eine symmetrische Irrfahrt auf Z in stetiger Zeit, d.h. wenn X s = x ist dann<br />
springt die Irrfahrt nach einer exponentiell verteilten Zeit mit Parameter λ zu einem der<br />
nächsten Nachbarn jeweils mit Wahrscheinlichkeit 1/2. Dann kann man für f : Z → R wie<br />
oben T t f(x) hinschreiben und zeigen, dass<br />
T t f(x) − f(x)<br />
t<br />
t→0<br />
−−→ λ 2 (f(x + 1) − f(x)) + λ (f(x − 1) − f(x)) = Af(x).<br />
2<br />
3. Für diejenigen, die Q-Matrizen gewohnt sind sei bemerkt, dass in den oberen Beispielen<br />
Af(x) = (Qf) x ist. In der Tat werden Q-Matrizen auch infinitesimale Generatoren<br />
genannt. Die Q Matrix des Poissonprozesses ist<br />
⎛<br />
Q =<br />
⎜<br />
⎝<br />
und (Qf) x = −λf(x) + λf(x + 1) = Af(x).<br />
2.3 BGWP in stetiger Zeit<br />
⎞<br />
−λ λ 0 0 · · ·<br />
0 −λ λ 0 · · · ⎟<br />
⎠<br />
.<br />
. .. . ..<br />
Hier konstruieren wir den BGWP in stetiger Zeit. Bei diesem Prozess produziert ein Individuum<br />
unabhängig von den anderen (und von der Vorgeschichte) mit Rate α Nachkommen gemäß<br />
einer vorher festgelegten Verteilung. Mit anderen Worten ist die Lebensdauer eines Individuums<br />
exponentiell verteilt mit Rate α. Es sei Z 0 eine N 0 -wertige Zufallsvariable und sei (ξ n ) n∈N0 eine<br />
Folge von u.i.v. Zufallsvariablen mit Verteilung p j = P[ξ n = j], j ∈ N 0 und erzeugenden Funktion<br />
g. Ferner sei (T n ) n∈N0 eine Folge exponentiell verteilter Zufallsvariablen mit Parameter 1.<br />
Schließlich definieren wir die eingebettete Sprungkette (Y n ) n∈N0 und die zugehörigen Inkremente<br />
der Sprungzeiten ( ˜T n ) n∈N0 durch<br />
Y n = Z 0 +<br />
n∑<br />
(ξ k − 1) und ˜T n = T n<br />
. (2.6)<br />
αY n<br />
k=1<br />
Man beachte, dass bedingt auf Y n die Sprungzeit ˜T n wie das Minimum von Y n u.i.v. Zufallsvariablen<br />
mit Parameter α verteilt ist.<br />
Der Bienaymé-Galton-Watson-Prozess Z := (Z t ) t∈R+ in stetiger Zeit mit Start in Z 0 ist<br />
definiert durch<br />
Z t :=<br />
{<br />
Z 0 : falls 0 ≤ t < ˜T 0<br />
Y n : falls ∑ n−1 k=0 k ≤ t < ∑ n k=0 k .<br />
(2.7)<br />
Mit der Konvention T/0 = ∞ folgt auch, dass Z t = 0 für alle t ≥ ∑ n ∗ −1<br />
k=1<br />
˜T k , wobei n ∗ = inf{n ≥<br />
0 : Y n = 0}. Im Gegensatz zu Prozessen in diskreter Zeit kann es bei Prozessen in stetiger<br />
Zeit zu unendlich vielen Sprüngen in endlicher Zeit kommen. Man spricht dann von Explosion<br />
der Markovkette. In diesem Fall wäre (Z t ) t∈R+ kein Prozess mit Pfaden in D N0 (R + ), weil es<br />
in endlicher Zeit den Wert unendlich erreicht. Das folgende Resultat liefert ein Kriterium das<br />
Explosion ausschließt (siehe Harris (1963, Thm. III.1) oder Athreya and Ney (1972, Thm. V.9.1)).<br />
29
2 Verzweigungsprozesse in stetiger Zeit<br />
Theorem 2.12. Es gilt P[Z t < ∞] = 1 für alle t ∈ R + genau dann, wenn für alle ε ∈ (0, 1)<br />
das Integral ∫ 1<br />
1−ε<br />
ds divergiert.<br />
1<br />
g(s)−s<br />
Korollar 2.13. Ist m = g ′ (1) < ∞, dann gilt P[Z t < ∞] = 1 für alle t ∈ R + .<br />
Beweis. Es gilt<br />
und mit g(1) = 1<br />
g(s) = g(1) + g ′ (1)(s − 1) + o(s − 1), s → 1<br />
g(s) − s = (1 − g ′ (1))(1 − s) + o(s − 1), s → 1.<br />
Also ist g ′ (1) < ∞ hinreichend für die Divergenz von ∫ 1<br />
1−ε<br />
1<br />
g(s)−s ds.<br />
Die Annahme m < ∞ (die wir ab jetzt hier auch immer machen) aus dem vorherigen Kapitel<br />
garantiert uns also in stetiger Zeit, dass der Prozess nicht explodiert.<br />
Nun beschreiben wir den BGWP in stetiger Zeit mithilfe des Generators.<br />
Theorem 2.14. Für f ∈ C 0 (N 0 ) setzen wir<br />
Af(z) = αz<br />
∞∑<br />
p k (f(z − 1 + k) − f(z)) . (2.8)<br />
k=0<br />
Unter der Annahme, dass das Integral in Theorem 2.12 divergiert, ist Z definiert durch (2.7)<br />
ein zeitlich homogener Feller-Prozess mit Generator A.<br />
Beweis. Zunächst zeigen wir, dass Z ein zeitlich homogener Feller-Prozess ist. Dazu sind für die<br />
Halbgruppe (T t ) t∈R+ aus (2.5) die Eigenschaften aus Definition 2.9 nachzuweisen. Dass es sich<br />
dabei um eine positive, konservative Kontraktionshalbgruppe (siehe Definition 2.6) auf C 0 (N 0 )<br />
handelt, ist sofort klar. Wir brauchen also nur noch die starke Stetigkeit zu zeigen.<br />
Wir definieren die Ereignisse V i (t) := { es gibt genau i Verzweigungsereignisse in [0, t]}. Für<br />
eine Menge S bezeichnen durch S C das Komplement dieser Menge. Sind f ∈ C 0 (N 0 ) und t ≥ 0,<br />
dann gilt<br />
|T t f(z) − f(z)| = |E z [(f(Z t ) − f(z))1 (V 0 (t)) C ]|<br />
≤ 2‖f‖ ∞ · P[(V 0 (t)) C ]<br />
= 2‖f‖ ∞ · (1 − e −αzt ) → 0 für t → 0,<br />
was die punktweise Konvergenz zeigt. Für f ∈ C 0 (N 0 ) gibt es zu jedem ε ein n ε mit sup z≥nε |f(z)| <<br />
ε. Die obige Abschätzung zeigt<br />
Für z ≥ n ε gilt<br />
|T t f(z) − f(z)| ≤ 2‖f‖ ∞ · (1 − e −αnεt ), für z < n ε . (2.9)<br />
P z [Z t < n ε ] ≤ p 0 (1 − e −αnεt ). (2.10)<br />
30
2 Verzweigungsprozesse in stetiger Zeit<br />
Hier steht auf der rechten Seite die Wahrscheinlichkeit, dass mindestens einer der (am Anfang auf<br />
jeden Fall vorhandenen) n ε Individuen in der Zeit [0, t] stirbt und keine Nachkommen produziert.<br />
Es folgt<br />
Insgesamt haben wir<br />
|T t f(z) − f(z)| ≤ 2ε + 2‖f‖ ∞ p 0 (1 − e −αnεt ), für z ≥ n ε . (2.11)<br />
|T t f(z) − f(z)| ≤ 2ε + 2‖f‖ ∞ (1 − e −αnεt ), für alle z ∈ N 0 . (2.12)<br />
Mit t → 0 und dann ε → 0 auf der rechten Seite folgt lim t→0 ‖T f − f‖ ∞ = 0.<br />
Es bleibt zu zeigen, dass A Generator von Z ist. Dazu genügt es, es auf dem Raum der stetigen<br />
Funktionen mit kompaktem Träger, welchen wir mit C C (N 0 ) bezeichnen (denn C C (N 0 ) ist Core<br />
von A auf C 0 (N 0 )).<br />
Das Ereignis V 1 (t) kann man als disjunkte Vereinigung der Ereignisse<br />
V 1<br />
k<br />
:= { es gibt genau ein Verzweigungsereignis in [0, t] mit genau k Nachkommen }<br />
schreiben. Damit gilt<br />
1<br />
t (T tf(z) − f(z)) = 1 t E z[f(Z t ) − f(z)]<br />
= 1 t E z[(f(Z t ) − f(z))<br />
= 1 t<br />
∞∑<br />
1 V 1<br />
k (t) ] + R tf(z)<br />
k=0<br />
∞∑<br />
(f(z − 1 + k) − f(z))<br />
k=0<br />
∫ t<br />
0<br />
αze −αzs p k e −α(z−1+k)(t−s) ds + R t f(z)<br />
(hier ist im Integral αze −αzs die Dichte der “Verzweigungszeit”, p k die W’keit für k-Nachkommen<br />
und e −α(z−1+k)(t−s) die W’keit, dass die dann vorhandenen z − 1 + k Individuen sich nicht in<br />
der verbleibenden Zeit [s, t] verzweigen)<br />
= αz<br />
∞∑<br />
p k (f(z − 1 + k) − f(z)) 1 t<br />
k=0<br />
∫ t<br />
0<br />
e −αzs e −α(z−1+k)(t−s) ds + R t f(z).<br />
Das Restglied ist gegeben durch t −1 E z [(f(Z t ) − f(z))1 (V 1 (t)) C ]. Auf V 0 (t) ist Z t = z und damit<br />
gilt<br />
|R t f(z)| ≤ 2‖f‖ ∞<br />
t<br />
= 2‖f‖ ∞ αz<br />
P z [(V 0 (t) ∪ V 1 (t)) C ]<br />
∞∑<br />
k=0<br />
p k<br />
t<br />
∫ t<br />
0<br />
e −αzs (1 − e −α(z−1+k)(t−s) ) ds.<br />
Es sei H die Stammfunktion der Funktion h t (s) := e −αzs (1 − e −α(z−1+k)(t−s) ), die sicherlich<br />
existiert. Dann gilt<br />
1<br />
t<br />
∫ t<br />
0<br />
e −αzs (1 − e −α(z−1+k)(t−s) ) ds =<br />
H(t) − H(0)<br />
t<br />
→ H ′ (0) = h 0 (0) = 0<br />
31
2 Verzweigungsprozesse in stetiger Zeit<br />
und es folgt |R t f(z)| → 0 für t → 0. Mit einem ähnlichen Argument zeigt man auch<br />
1<br />
t<br />
∫ t<br />
Insgesamt folgt für jedes z ∈ N 0<br />
0<br />
e −αzs e −α(z−1+k)(t−s) ds → 1 für t → 0.<br />
1<br />
t (T tf(z) − f(z)) → Af(z) für t → 0.<br />
Es bleibt noch Uniformität zu zeigen. Sei n 0 so, dass f(z) = 0 für z ≥ n 0 . Für z ≥ n 0 + 1 gilt<br />
Für z > n 0 + 1 ist also<br />
P z [Z t < n 0 ] ≤ αn 0 p 2 0<br />
∫ t<br />
0<br />
e −α(n 0+1)s (1 − e −αn 0(t−s) ) ds.<br />
1<br />
t |T tf(z) − f(z)| = 1 t |E z[f(Z t )]| ≤ 1 t ‖f‖ ∞P z [Z t < n 0 ]<br />
≤ 1 t ‖f‖ ∞αn 0 p 2 0<br />
∫ t<br />
0<br />
e −α(n 0+1)s (1 − e −αn 0(t−s) ) ds.<br />
Wie oben kann man zeigen, dass die rechte Seite für t → 0 gegen Null konvergiert, was die<br />
Uniformität zeigt.<br />
Das folgende Theorem zeigt, dass in ein BGWP in stetiger Zeit stets BGWP in diskreter Zeit<br />
eingebettet sind. Man kann also Resultate aus dem vorherigen Kapitel auch für Verzweigungsprozesse<br />
in stetiger Zeit nutzen. Umgekehrt kann man jedoch nicht jeden BGWP in diskreter<br />
Zeit in einen mit stetiger Zeit einbetten (siehe Athreya and Ney 1972, Abschn. III.12).<br />
Theorem 2.15. Es sei Z ein BGWP in stetiger Zeit mit Generator A definiert in (2.8) und<br />
zugehöriger Halbgruppe (T t ) t∈R+ . Für ein festes δ > 0 definieren wir ˜Z n := Z δn , n ∈ N 0 . Dann<br />
ist ˜Z := ( ˜Z n ) n∈N0 ein BGWP in diskreter Zeit. Die erzeugende Funktion der Nachkommensverteilung<br />
ist gegeben durch g(s) := T δ h s (1), wobei h s (z) := s z für s ∈ [0, 1] und z ∈ N 0 ist.<br />
Beweis. Es gilt<br />
g(s) = E 1 [s ˜Z 1<br />
] = E 1 [s Z δ<br />
] = T δ h s (1)<br />
und da die Verzweigungseigenschaft sich von Z auch überträgt, ist das Theorem bewiesen.<br />
32
3 Diffusionsapproximation von<br />
Verzweigungsprozessen<br />
Ähnlich wie man Brownsche Bewegung als Grenzwert reskalierter Irrfahrten erhält, erhält man<br />
einen Verzweigungsprozess in stetiger Zeit und auf stetigem Raum (verzweigende Diffusionsprozesse)<br />
als Grenzwert von reskalierten Bienaymé-Galton-Watson-Prozess.<br />
Es sei (E, r) ein Polnischer metrischer Raum (d.h. separabel und vollständig) und sei B(E)<br />
die zugehörige Borel-σ-Algebra. Ferner sei P(E) die Menge aller Wahrscheinlichkeitsmaße auf<br />
(E, B(E)) ausgestattet mit schwacher Topologie (P n konvergiert schwach gegen P , wenn für alle<br />
stetigen beschränkten f : E → R gilt ∫ E f(x)P n(dx) → ∫ E<br />
f(x)P (dx)).<br />
Unser Ziel ist es, schwache Konvergenz von geeignet reskalierten Verzweigungsprozessen gegen<br />
verzweigende Diffusionen auf D E (R + ) nachzuweisen. Da Diffusionsprozesse stetige Pfade haben<br />
werden wir außerdem zeigen müssen, dass Grenzwerte in C(R + , E) liegen (im Raum der stetigen<br />
Funktionen von R + nach E).<br />
3.1 Kriterien für schwache Konvergenz von Prozessen<br />
In diesem Abschnitt erinnern wir an einige Kriterien für schwache Konvergenz. Ist (P n ) eine<br />
Folge auf P(E), dann wird schwache Konvergenz typischerweise in zwei Schritten gezeigt.<br />
• Existenz von Grenzwerten: Dazu zeigt man, dass (P n ) relativ kompakt ist, d.h. jede Teilfolge<br />
enthält eine weitere schwach konvergente Teilfolge. Auf Polnischen Räumen ist diese<br />
Bedingung nach Prohorov’s Theorem äquivalent zu Straffheit. Dabei heißt (P n ) straff, falls<br />
zu jedem ε > 0 ein kompaktes K ⊂ E existiert mit P n (K) ≥ 1 − ε für alle n.<br />
• Eindeutigkeit: Hier zeigt man, dass es höchstens ein Grenzwert geben kann.<br />
Definition 3.1. Für x ∈ D E (R + ), δ > 0 und T > 0 ist der Stetigkeitsmodul definiert durch<br />
w ′ (x, δ, T ) := inf max<br />
{t i } i<br />
sup<br />
s,t∈[t i−1 ,t i )<br />
r(x(s), x(t)), (3.1)<br />
mit Infimum über alle Partitionen 0 = t 0 < t 1 < · · · < T ≤ t n mit min 1≤i≤n (t i − t i−1 ) > δ für<br />
alle n.<br />
Man kann zeigen, dass der Stetigkeitsmodul fallend in δ ist. Ferner kann man sich auch überlegen,<br />
dass eine Funktion kleines Stetigkeitsmodul haben kann auch wenn sie große Sprünge<br />
macht. Dazu dürfen die Sprünge nur nicht zu nah beieinander sein (insbesondere darf es keine<br />
Häufungspunkte von Sprüngen geben), sodass die Sprünge auf die einzelnen Partitionsabschnitte<br />
verteilt werden können.<br />
Das folgende Resultat gibt Kriterien für relative Kompaktheit in D E (R + ) an (siehe Ethier<br />
and Kurtz 1986, Theorem 3.6.3).<br />
33
3 Diffusionsapproximation von Verzweigungsprozessen<br />
Theorem 3.2. Es sei (E, r) ein vollständiger metrischer Raum. Die Menge A ⊂ D E (R + )<br />
ist genau dann relativ kompakt (d.h. Abschluss von A ist kompakt), wenn die folgenden zwei<br />
Bedingungen gelten:<br />
(i) Für jede rationale Zahl t ≥ 0 gibt es eine Kompakte Menge Γ t ⊂ E, so dass x(t) ∈ Γ t für<br />
alle x ∈ A.<br />
(ii) Für alle T > 0 gilt<br />
lim sup<br />
δ↓0 x∈A<br />
w ′ (x, δ, T ) = 0.<br />
Die Bedingung (i) folgt aus eine stärkeren Bedingung (die ihrerseits aus relativer Kompaktheit<br />
folgt): Für alle T > 0 gibt es eine kompakte Menge K T ⊂ E so, dass x(t) ∈ K T für alle x ∈ A<br />
und 0 ≤ t ≤ T ist.<br />
Für das folgende Theorem verweisen wir auf Theoreme 3.7.2 und 3.8.6 in (Ethier and Kurtz<br />
1986) sowie auf (Aldous 1978).<br />
Theorem 3.3. Es sei (E, r) Polnisch und sei (X· (n) ) n=1,2,... eine Folge stochastischer Prozesse<br />
mit Pfaden in D E (R + ). Ferner sei für jede rationale Zahl t ≥ 0 die Folge (X (n)<br />
t ) n=1,2,... straff in<br />
E. Dann ist (X· (n) ) n=1,2,... genau dann straff in D E (R + ), wenn eine der folgenden Bedingungen<br />
erfüllt ist:<br />
(i) Für alle ε > 0 und T > 0 gibt es ein δ > 0 mit<br />
sup P[w ′ (X n , δ, T ) ≥ ε] ≤ ε. (3.2)<br />
n<br />
(ii) Für jedes T > 0 gibt es ein p > 0 und eine Familie {Y n (δ) : 0 < δ < 1, n = 1, 2, . . . } von<br />
nicht-negativen Zufallsvariablen mit<br />
[(<br />
)<br />
E r(X (n)<br />
p ]<br />
t+u , X(n) t ) ∧ 1 |F<br />
X (n)<br />
t ≤ E[Y n (δ)|Ft X(n) ] (3.3)<br />
für alle 0 ≤ t ≤ T , 0 ≤ u ≤ δ und<br />
lim sup<br />
δ↓0 n<br />
E[Y n (δ)] = 0. (3.4)<br />
(iii) Diese äquivalente Bedingung gilt im Fall E = R. Für alle Stoppzeiten T n , die durch T<br />
beschränkt sind und alle ε > 0 gibt es ein δ > 0 und n 0 so dass<br />
[<br />
]<br />
sup sup P |X (n)<br />
T − n+θ X(n) T n<br />
| > ε ≤ ε. (3.5)<br />
n≥n 0 θ∈[0,δ]<br />
Wie zuvor erfüllt eine in D E (R + ) relativ kompakte Folge (X (n)<br />
· ) die stärkere compact containment<br />
condition: Für alle ε > 0 und T > 0 existiert eine kompakte Menge K T,ε ⊂ E mit<br />
inf<br />
n P[X(n) t ∈ K T,ε für 0 ≤ t ≤ T ] ≥ 1 − ε. (3.6)<br />
Mit dem folgenden Kriterium kann man relative Kompaktheit von Folgen von E-wertigen<br />
Prozessen auf Straffheit von reellwertigen Funktionen von diesen Prozessen für eine genügend<br />
große Funktionenmenge (siehe Ethier and Kurtz 1986, Theorem 3.9.1) zurückführen.<br />
34
3 Diffusionsapproximation von Verzweigungsprozessen<br />
Theorem 3.4. Es sei (E, r) vollständig und separabel und sei (X· (n) ) eine Folge von Prozessen<br />
mit Pfaden in D E (R + ). Ferner sei die compact ( containment ) condition (3.6) erfüllt. Dann ist<br />
(X· (n) ) relativ kompakt auf D E (R + ) wenn f(X · (n) ) straff auf D R (R + ) für alle f ∈ H ist,<br />
wobei H eine dichte Teilmenge von C b (E) ist bezüglich gleichmäßiger Konvergenz auf kompakten<br />
Mengen.<br />
Das folgende Resultat zeigt wie man die Straffheit von Familien von Funktionalen mithilfe der<br />
Generatoren zeigen kann.<br />
Lemma 3.5. Es sei (X· (n) ) eine Folge von Prozessen mit Pfaden in D E (R + ) mit zugehörigen<br />
Halbgruppen (T (n)<br />
t ) und Generatoren A (n) . Ferner ( sei die ) compact containment condition (3.6)<br />
erfüllt. Dann ist für ein f ∈ C n (E) die Folge f(X (n) straff auf D R (R + ), wenn f, f 2 ∈<br />
D(A (n) ) und<br />
· )<br />
sup{‖A (n) f‖ ∞ + ‖A (n) f 2 ‖ ∞ } < ∞. (3.7)<br />
n<br />
Beweis. Die Straffheit von f(X (n)<br />
t ) für jedes t ≥ 0 folgt sofort aus der compact containment<br />
condition. Es genügt also (ii) aus Theorem 3.3 zu zeigen. Mit Theorem 2.8(iii) erhalten wir<br />
E [( f(X (n)<br />
t+u ) − f(X(n) t ) ) 2 ]<br />
|F<br />
n<br />
t<br />
[<br />
]<br />
[<br />
]<br />
= E f 2 (X (n)<br />
t+u ) − f 2 (X (n)<br />
t )|Ft<br />
n − 2f(X (n)<br />
t )E f(X (n)<br />
t+u ) − f(X(n) t |Ft<br />
n<br />
=<br />
∫ u<br />
0<br />
T (n)<br />
s<br />
A (n) f 2 (X s<br />
(n) ) ds − 2f(X (n)<br />
t )<br />
≤ u ( ‖A (n) f 2 ‖ ∞ + 2‖f‖ ∞ ‖A (n) f‖ ∞<br />
)<br />
.<br />
∫ u<br />
0<br />
T (n)<br />
s<br />
A (n) f(X (n) ) ds<br />
Nach Voraussetzung ist der Ausdruck in den Klammern gleichmäßig in n beschränkt. Mit u → 0<br />
folgt (ii) aus Theorem 3.3.<br />
Um die Eindeutigkeit der Grenzwertes einer Folge von Prozessen zu zeigen genügt es nach<br />
Theorem 2.4 zu zeigen, dass die endlich-dimensionalen Verteilungen eindeutig sind. Dazu benutzen<br />
wir die Charakterisierung des Grenzwertes durch ein Martingalproblem. Mit deren Hilfe kann<br />
man oft ein Prozess mit einem gegebenen Generator beschreiben ohne die zugehörige Halbgruppe<br />
genau zu kennen. Um Konvergenz einer reskalierten Folge von BGWP gegen eine Diffusion zu<br />
zeigen werden wir zunächst nachweisen, dass alle Grenzwerte Lösungen eines Martingalproblems<br />
sind und dann zeigen wir mit Hilfe einer anderen Methode, genannt Dualität, die Eindeutigkeit<br />
der Lösungen des Martingalproblems.<br />
Es sei X = (X t ) t≥0 ∈ D R+ (E) ein Markov-Prozess mit Generator A und zugehörigem Definitionsbereich<br />
D(A). Für f ∈ D(A) setzen wir<br />
M f t<br />
:= f(X t ) −<br />
∫ t<br />
und F t := F X t . Dann gilt für t, s ≥ 0 mit Theorem 2.8<br />
E[M f t+s |F t] = T s f(X t ) −<br />
= f(X t ) −<br />
∫ s<br />
0<br />
∫ t<br />
0<br />
0<br />
Af(X s ) ds (3.8)<br />
T u Af(X t ) du −<br />
Af(X u ) du = M f t .<br />
∫ t<br />
0<br />
s<br />
Af(X u ) du<br />
35
3 Diffusionsapproximation von Verzweigungsprozessen<br />
Also ist (M f t ) t≥0 ein Martingal für jedes f ∈ D(A) wenn X ein Markov-Prozess ist. Umgekehrt<br />
sagen wir, dass X Lösung des Martingalproblems für Operator A ist, wenn (M f t ) t≥0 ein Martingal<br />
für jedes f ∈ D(A) ist. Man beachte, dass X genau dann eine Lösung des Martingalproblems<br />
für Operator A ist, wenn für alle k ∈ N, 0 ≤ t 1 ≤ . . . t k < t k+1 , und h 1 , . . . , h k ∈ C b (E)<br />
[ ( ∫ tk+1<br />
k∏<br />
]<br />
E f(X tk+1 ) − f(X tk ) − Af(X s ) ds)<br />
h i (X tk ) = 0. (3.9)<br />
t k i=1<br />
(Wir erinnern an die Eigenschaft der bedingten Erwartungen: E [(ξ − E[ξ|F])ζ] = 0 für jede<br />
beschränkte F messbare Zufallsvariable ζ). Die Gleichung (3.9) macht nochmal deutlich, dass<br />
man anhand von endlich dimensionalen Verteilungen entscheiden kann ob ein stochastischer<br />
Prozess Lösung eines Martingalproblems ist oder nicht.<br />
Das nächste Resultat zeigt: Konvergieren Lösungen einer Folge von Martingalproblemen schwach,<br />
so ist der Grenzwert auch eine Lösung des “Grenzwert”-Martingalproblems.<br />
Theorem 3.6. Es sei (X n ) n=0,1,... eine Folge von D R+ (E)-wertigen Lösungen von Martingalproblemen<br />
mit Generatoren A n auf B(E) (beschränkte messbare Funktionen auf E). Ferner sei<br />
A ein Operator auf B(E) und für jedes f ∈ D(A) seien f n ∈ D(A n ) so, dass<br />
lim ‖f n − f‖ ∞ = 0,<br />
n→∞<br />
lim<br />
n→∞ ‖An f n − Af‖ ∞ = 0. (3.10)<br />
Ist X n schwach konvergent gegen X (in Zeichen X n ⇒ X), dann ist X eine Lösung des Martingalproblems<br />
zu A.<br />
Beweis. Sei D(X) := {t ∈ R + : P[X t = X t− ] = 1}, 0 ≤ t 1 ≤ . . . t k ≤ s < t ∈ D(X) und<br />
h i ∈ C b (E) für i = 1, . . . , k. Für f und f n wie in (3.10) gilt dann<br />
[ ( ∫ t<br />
) k∏<br />
]<br />
E f(X t ) − f(X s ) − Af(X u ) du h i (X tk )<br />
s<br />
i=1<br />
[ ( ∫ t<br />
) k∏<br />
]<br />
= lim E f n (X n<br />
n→∞<br />
t ) − f n (Xs n ) − A n f n (Xu n ) du h i (Xt n k<br />
) = 0.<br />
s<br />
i=1<br />
Um diese Gleichung auch auf das Komplement von D(X) fortzusetzen, zeigen wir dass es höchstens<br />
abzählbar ist. Die Behauptung folgt dann mit der Rechtsstetigkeit von X.<br />
Seien also ε, δ > 0 und T > 0. Angenommen die Menge<br />
{0 ≤ t ≤ T : P[r(X t , X t− ) ≥ ε] ≥ δ}<br />
enthält eine Folge (t n ) von unterschiedlichen Punkten, dann<br />
P[r(X tn , X tn−) ≥ ε unendlich oft ] ≥ δ > 0.<br />
Dies widerspricht aber der Tatsache, dass jedes x ∈ D E (R + ) in jedem Intervall [0, T ] nur endlich<br />
viele Sprünge der Höhe ≥ ε hat. Damit ist<br />
{0 ≤ t ≤ T : P[r(X t , X t− ) ≥ ε] > 0}<br />
höchstens abzählbar. Die Behauptung folgt dann mit ε → 0.<br />
36
3 Diffusionsapproximation von Verzweigungsprozessen<br />
Genau wie bei gewöhnlichen Differentialgleichungen (z.B. hat die DGL y ′ = √ y zwei Lösungen<br />
y(x) ≡ 0 und y(x) = x 2 /4 mit derselben Anfangswert y(0) = 0) sind die Lösungen von<br />
Martingalproblemen im Allgemeinen nicht eindeutig. Genauso wenig müssen die Lösungen Markovprozesse<br />
sein. Das folgende Resultat (siehe Ethier and Kurtz 1986, Thm. 4.4.2) zeigt, dass die<br />
letzten beiden Eigenschaften aus der Eindeutigkeit der eindimensionalen Verteilungen folgen.<br />
Theorem 3.7. Es sei E separabel und sei A ein Operator auf B(E). Ferner seien X und Y zwei<br />
Lösungen des Martingalproblems zu A mit derselben Startverteilung. Wenn die eindimensionalen<br />
Verteilungen von X und Y übereinstimmen, dann stimmen auch alle endlich-dimensionalen<br />
Verteilungen überein. Ferner sind X und Y (zeitlich) homogene Markovprozesse.<br />
Eindeutigkeit der Lösungen von Martingalproblemen kann oft mit Hilfe der Dualität der Lösung<br />
zu einem anderen Prozess (welcher auch deterministisch sein kann). Das folgende Theorem<br />
ist ein Spezialfall von Theorem 4.4.11 in (Ethier and Kurtz 1986).<br />
Theorem 3.8. Es seien E 1 und E 2 zwei metrische Räume und seien f, g ∈ B(E 1 × E 2 ) mit<br />
f(x, ·) ∈ C(E 2 ) für alle x ∈ E 1 und g(·, y) ∈ C(E 1 ) für alle y ∈ E 2 . Ferner seien für zwei<br />
stochastische Prozesse X und Y auf E 1 bzw. E 2<br />
f(X t , y) −<br />
∫ t<br />
0<br />
g(X s , y) ds und f(x, Y t ) −<br />
Martingale für alle x ∈ E 1 und y ∈ E 2 . Dann gilt für t ≥ 0<br />
∫ t<br />
0<br />
g(x, Y s ) ds (3.11)<br />
E X0 [f(X t , Y 0 )] = E Y0 [f(X 0 , Y t )]. (3.12)<br />
Beweis. Da f und g beschränkt sind können wir in (3.11) Erwartungswerte nehmen und die<br />
Integrationsreihenfolge vertauschen. Nach Ableiten erhalten wir dann für s ≥ 0<br />
d<br />
ds E X 0<br />
[f(X s , y)] = E X0 [g(X s , y)]<br />
Es folgt für s ∈ [0, t]<br />
und<br />
d<br />
ds E Y 0<br />
[f(x, Y s )] = E Y0 [g(x, Y s )]. (3.13)<br />
d<br />
ds E X 0 ×Y 0<br />
[f(X s , Y t−s )] = E X0 ×Y 0<br />
[g(X s , Y t−s )] − E X0 ×Y 0<br />
[g(X s , Y t−s )] = 0. (3.14)<br />
Schließlich liefert Integration über [0, t]<br />
0 =<br />
∫ t<br />
was gerade die Behauptung ist.<br />
0<br />
d<br />
ds E X 0 ×Y 0<br />
[f(X s , Y t−s )] ds = E X0 ×Y 0<br />
[f(X t , Y 0 )] − E X0 ×Y 0<br />
[f(X 0 , Y t )],<br />
3.2 Diffusionslimes reskalierter BGWP<br />
Es sei Z (N) eine Folge von BGWP in stetiger Zeit (definiert in Abschnitt 2.3) mit Rate α (für<br />
die Lebensdauer) und Nachkommensverteilung gegeben durch die Verteilung von ξ (N) . In diesem<br />
Abschnitt betrachten wir das Verhalten der Folge X (N) := (X (N)<br />
t ) t≥0<br />
X (N)<br />
t<br />
:= 1 N Z(N) Nt<br />
(3.15)<br />
für N → ∞. Wir nehmen an, dass Z (N)<br />
0 in Verteilung gegen eine Zufallsvariable X 0 konvergiert<br />
(ansonsten können wir natürlich auch keine Konvergenz auf der Prozessebene erwarten).<br />
37
3 Diffusionsapproximation von Verzweigungsprozessen<br />
Theorem 3.9. Es sei A ein Operator definiert durch<br />
Af(x) := 1 2 ασ2 xf ′′ (x) + αµxf ′ (x) (3.16)<br />
für f ∈ CC ∞(R +). Ferner seien E[ξ (N) ] = m (N) = 1 + µ N + o( 1 N ) und Var[ξ(N) ] = σ 2 + o(1) < ∞.<br />
Konvergiert X (N)<br />
0 gegen X 0 (deterministisch), dann konvergiert X (N) definiert in (3.15) in Verteilung<br />
gegen einen stochastischen Prozess X welcher die eindeutige Lösung des Martingalproblems<br />
zu A auf D R+ (R + ) ist.<br />
Die Annahme, dass X (N)<br />
0 deterministisch ist vereinfacht etwas den Beweis ist aber nicht notwendig.<br />
Beweis. Der Generator A (N) von X (N) ist gegeben durch<br />
A (N) f(x) = N 2 αx<br />
∞∑<br />
k=0<br />
( (<br />
p (N)<br />
k<br />
f x + k − 1 ) )<br />
− f(x) ,<br />
N<br />
wobei hier ein N durch die Zeitskalierung (bzw. Beschleunigung der Rate von α auf Nα) und<br />
das andere wegen z = Nx auftaucht. Es genügt f ∈ CC<br />
∞ zu betrachten. Wir wählen so ein f mit<br />
Träger in [0, K] für ein K > 0. Mit Taylorformel erhalten wir<br />
(<br />
∞∑<br />
A (N) f(x) = αN 2 x p (N) k − 1<br />
k<br />
N f ′ (x) + 1 ( ) k − 1 2<br />
f ′′ (x) + 1 ∫ )<br />
x+<br />
k−1<br />
N<br />
(x − y) 2 f ′′′ (y) dy<br />
2 N<br />
2<br />
k=0<br />
und mit 1 = m (N) − µ N + o( 1 N )<br />
= αf ′ (x)x<br />
(<br />
N<br />
+ 1 2 αxf ′′ (x)<br />
+ 1 2 αx 1 N<br />
∞∑<br />
k=0<br />
∞∑<br />
k=0<br />
( ∞<br />
∑<br />
k=0<br />
p (N)<br />
p (N)<br />
k<br />
(k − m (N) ) + µ + o(1)<br />
p (N)<br />
k<br />
(k − m (N) ) 2 + o(1)<br />
k<br />
(k − 1) 3 ∫ 1<br />
0<br />
)<br />
)<br />
y 2 f ′′′ (<br />
x + k − 1<br />
N y )<br />
dy.<br />
Die Summe in der ersten Zeile ist gleich Null und in der zweiten Zeile ist die Summe gleich<br />
σ 2 + o(1). In den ersten beiden Zeilen haben wir also Af(x) + o(1) stehen. Damit gilt (in der<br />
x<br />
38
3 Diffusionsapproximation von Verzweigungsprozessen<br />
zweiten Ungleichung nutzen wir unter anderem f(x) = 0 für x > K)<br />
|A (N) f(x) − Af(x)|<br />
= 1 2 αx 1 ∞∑<br />
N ∣<br />
≤ 1 2 αx 1 N<br />
k=0<br />
( ∞<br />
∑<br />
k=2<br />
p (N)<br />
k<br />
(k − 1) 3 ∫ 1<br />
∫ N(K−x) 1∧ +<br />
k<br />
(k − 1) 3 k−1<br />
p (N)<br />
0<br />
0<br />
y 2 f ′′′ (<br />
x + k − 1<br />
N y )<br />
dy<br />
∣ + o(1)<br />
∣ ( ∣∣∣<br />
y 2 f ′′′ x + k − 1 )∣ ∣∣∣<br />
N<br />
y dy<br />
+ p (N)<br />
0 ‖f ′′′ ‖ ∞ 1 {x≤K}<br />
)<br />
+ o(1)<br />
≤ 1 2 αx 1 ∞∑<br />
(<br />
p (N)<br />
N<br />
k<br />
(k − 1) 3 ‖f ′′′ ‖ ∞ 1 ∧ N(K − x) )<br />
+<br />
+ αK 1 k − 1<br />
N p(N) 0 ‖f ′′′ ‖ ∞ + o(1)<br />
k=2<br />
≤ 1 2 αK‖f ∑<br />
∞ ( )<br />
′′′ ‖ ∞ p (N) k − 1<br />
k<br />
(k − 1) 2 N ∧ K + o(1).<br />
k=2<br />
Die Summe in der ersten Zeile konvergiert nach dem Satz von dominierter Konvergenz gegen<br />
Null und somit gilt ‖A (N) f − Af‖ ∞ → 0 für N → ∞. Für Straffheit in D R+ (R + ) bleibt<br />
nach Theorem 3.5 und Lemma 3.5 noch die compact containment condition zu zeigen. Dafür<br />
überzeugen wir uns zunächst davon, dass e −α(m(N) −1)t Z (N)<br />
t ein Martingal ist. Es gilt<br />
∞∑<br />
A (N) id(x) = αx p (N)<br />
k<br />
(x − 1 + k − x) = αx(m (N) − 1)<br />
und somit<br />
k=0<br />
E z [Z (N)<br />
t ] = z + E<br />
= z + E<br />
Die Lösung dieser Gleichung (nach E z [Z (N)<br />
t<br />
∫ t<br />
0<br />
∫ t<br />
= z + α(m (N) − 1)<br />
die Martingaleigenschaft von e −α(m(N) −1)t Z (N)<br />
t<br />
für T, c > 0<br />
P X<br />
(N)<br />
0<br />
[<br />
sup X (N)<br />
t > c<br />
0≤t≤T<br />
⎡<br />
≤ P Z<br />
(N)<br />
0<br />
≤ 1 c<br />
= 1 c<br />
⎣<br />
sup<br />
0≤t≤NT<br />
sup<br />
]<br />
0≤t≤NT<br />
= P Z<br />
(N)<br />
0<br />
[<br />
0<br />
A (N) id(Z s<br />
(N) ) ds<br />
αZ s<br />
(N) (m (N) − 1) ds<br />
∫ t<br />
0<br />
E[Z s<br />
(N) ] ds.<br />
])) ist E z [Z (N)<br />
t ]) = ze α(m(N) −1)t . Daraus erhält man<br />
. Mit der Doob’schen Ungleichung erhalten wir<br />
sup<br />
0≤t≤NT<br />
]<br />
1<br />
N Z(N) t > c<br />
( )<br />
1<br />
N Z(N) t e −α(m(N) −1)t<br />
> c<br />
e −α(m(N) −1)t 1 N E Z (N) [Z (N)<br />
Nt −1)NT e−α(m(N) ]<br />
0<br />
sup e −α(m(N) −1)t X (N)<br />
0 .<br />
0≤t≤NT<br />
(<br />
sup e −α(m(N) −1)t<br />
0≤t≤NT<br />
) −1<br />
⎤<br />
⎦<br />
39
3 Diffusionsapproximation von Verzweigungsprozessen<br />
Das Supremum in der letzten Zeile ist beschränkt in N. Wenn µ = m (N) − 1 + o(1/N) < 0 ist<br />
dann ist es beschränkt durch 1. Anderenfalls ist es gleich e α(µ+o(1))T was gegen e αµT konvergiert<br />
und somit beschränkt ist. Insgesamt kann man also zu jedem ε > 0 und jedem T > 0 ein c so<br />
wählen, dass P X<br />
(N)<br />
0<br />
[<br />
sup 0≤t≤T X (N)<br />
t > c<br />
]<br />
< ε gilt, was die compact containment condition zeigt.<br />
Nach Theorem 3.6 ist jeder Grenzwert X gegen den eine Teilfolge von X (N) in Verteilung<br />
konvergiert eine Lösung von dem Martingalproblem zu A. Für die Konvergenz X (N) ⇒ X bleibt<br />
also noch die Eindeutigkeit des Grenzwertes zu zeigen. Dies zeigen wir mit Hilfe von Dualität.<br />
Sei dazu u(t) die eindeutige Lösung von<br />
d<br />
dt u(t) = −1 2 ασ2 u 2 (t) + αµu(t), u(0) = u 0 ,<br />
auf R + (u(t) ist natürlich deterministisch). Dann ist<br />
e −xu(t) −<br />
∫ t<br />
0<br />
x( 1 2 ασ2 u 2 (s) − αµu(s))e −xu(s) ds = e −xu(t) −<br />
∫ t<br />
0<br />
d<br />
ds e−xu(s) ds = e −xu 0<br />
ein Martingal für x ∈ R + . Da X eine Lösung des Martingalproblems zu A ist, ist auch<br />
e −Xtu −<br />
∫ t<br />
0<br />
X s ( 1 2 ασ2 u 2 − αµu)e −Xsu ds<br />
= f u (X t ) −<br />
∫ t<br />
0<br />
Af u (X s ) ds<br />
ein Martingal für jedes u ∈ R + , hier ist f u (x) := e −ux . Nach Theorem 3.8 gilt E X0 [e −uXt ] =<br />
e −utX 0<br />
dadurch sind die eindimensionalen Verteilungen von X eindeutig festgelegt und mit<br />
Theorem 3.7 folgt die Eindeutigkeit der endlich dimensionalen Verteilungen.<br />
Wir haben in dem obigen Theorem Konvergenz in D R+ (R + ) gezeigt. Tatsächlich kann man<br />
sogar zeigen, dass der Grenzwert X eine Diffusion ist, ein Prozess also, dessen Pfade fast sicher<br />
in C(R + , R + ) liegen. Ferner kann man X als Lösung der stochastischen Differentialgleichung<br />
dX t = √ ασ 2 X t dB t + αµX t dt<br />
auffassen. Dieser Prozess wird oft als Feller-Diffusion bezeichnet (siehe Feller 1951). Es ist ein<br />
Beispiel für einen Verzweigungsprozess mit stetigem Zustandsraum R + . Ist X ein allgemeiner<br />
subkritischer oder kritischer Verzweigungsprozess auf R + mit Übergangsoperator p(t, x, ·), so<br />
gilt (siehe Le Gall 1999)<br />
E x [e −λXt ] =<br />
∫ ∞<br />
0<br />
e −λy p(t, x, dy) = e −xut(λ) , λ > 0.<br />
Hier ist u t (λ) die eindeutige nicht-negative Lösung der Integralgleichung<br />
wobei<br />
u t (λ) +<br />
∫ t<br />
ψ(u) = αu + βu 2 +<br />
0<br />
ψ(u s (λ)) ds = λ<br />
∫ ∞<br />
0<br />
(e −ru − 1 + ru) π(dr)<br />
40
3 Diffusionsapproximation von Verzweigungsprozessen<br />
mit α, β ≥ 0 und einem σ-endlichen Maß π mit ∫ ∞<br />
0 (r ∧r2 )π(dr) < ∞. Die Funktion ψ heißt Verzweigungsmechanismus.<br />
Außerdem kann man zu jedem (subkritischen oder kritischen) Verzweigungsprozess<br />
X abhängig von den Parametern α, β und π ein Folge von Verzweigungsprozessen<br />
mit diskretem Zustandsraum konstruieren, die X approximieren.<br />
Die Verzweigungsprozesse die wir betrachtet haben, haben alle keine räumliche Struktur. Man<br />
kann eine solche einführen indem man zum Beispiel jedes Individuum während seiner Lebenszeit<br />
gemäß einer Irrfahrt auf Z d oder gemäß einer Brownschen Bewegung auf R d sich bewegen lässt.<br />
Stirbt das Individuum, dann wird es eine zufällige (nach der festen Nachkommensverteilung<br />
verteilte) Anzahl von Nachkommen ersetzt. Diese verhalten sich dann wie unabhängige Kopien<br />
ihrer “Mutter”. Solche Prozesse bezeichnet man als verzweigende Irrfahrt bzw. verzweigende<br />
Brownsche Bewegung und man kann sie als maßwertige Prozesse auffassen. Reskalierungen von<br />
diesen Prozessen führen zu so genannten Superprozessen (siehe Etheridge 2000).<br />
41
4 <strong>Populationsmodelle</strong> mit fester<br />
Populationsgröße<br />
In diesem Kapitel betrachten wir populationsgenetische Modelle mit diskretem Zustandsraum.<br />
Ziel der Populationsgenetik ist es, die Mechanismen wie z.B. Mutation, Selektion, Rekombination,<br />
zu verstehen, die zu (genetischer) Variabilität führen die man in der Natur beobachten kann.<br />
In dem ersten Abschnitt behandeln wir kurz das neutrale Wright-Fisher (WF) Modell und in<br />
dem zweiten etwas ausführlicher das Moran-Modell (das Analogon von WF Modell in stetiger<br />
Zeit). Für ausführlichere Beschreibung dieser Modelle und deren Erweiterungen verweisen wir<br />
auf z.B. (Etheridge 2011) und (Tavaré 2004).<br />
4.1 Wright-Fisher Modell<br />
Wir betrachten eine Population mit 2N Individuen die jeweils vom Typ A oder a sind. Die<br />
Population verhält sich gemäß einer Markovkette (X n ) n=0,1,... in diskreter Zeit. Dabei ist<br />
X n := #Individuen vom Typ A in Generation n.<br />
Natürlich reicht es die Evolution des einen Typs zu betrachten. Wir betrachten zunächst eine<br />
neutrale Population ohne Mutation. Neutral bedeutet hier, dass kein Typ bei der Reproduktion<br />
bevorzugt wird. In diesem Fall kann man die Evolution auch so auffassen, dass die 2N Individuen<br />
zur Zeit n + 1 sich ihre Mutter zufällig aus der n-ten Generation “ziehen”, d.h. gegeben X n ist<br />
X n+1 binomial verteilt mit Parameter X n /2N:<br />
Wegen<br />
( 2N<br />
P[X n+1 = k|X n ] =<br />
k<br />
) ( ) k (<br />
Xn<br />
1 − X ) 2N−k<br />
n<br />
, k ∈ {0, . . . , 2N}. (4.1)<br />
2N 2N<br />
E[X n+1 |X 0 , . . . , X n ] = E[X n+1 |X n ] = 2N X n<br />
2N = X n (4.2)<br />
ist (X n ) ein Martingal. Insbesondere gilt E[X n ] = E[X 0 ] für alle n ≥ 1. Es ist klar, dass (X n ) eine<br />
Markovkette auf {0, · · · , 2N} mit absorbierenden Zuständen 0 (Typ a fixiert in der Population)<br />
und 2N (Typ A fixiert in der Population).<br />
Es sei p i die Wahrscheinlichkeit für die Absorption in 2N gegeben X 0 = i. Für p i kann man<br />
dann eine Rekurrenzgleichung mit Randwerten p 0 = 0 und p 2N = 1 hinschreiben und auch lösen<br />
(siehe Tavaré 2004), man kann sie aber auch mit Hilfe des Martingal-Stoppsatzes lösen. Sei dazu<br />
τ = inf{n ≥ 0 : X n = 0, oder X n = 2N}, dann kann man sich überlegen, dass τ fast sicher<br />
endlich ist und es gilt<br />
i = E[X τ |X 0 = i] = p i 2N + (1 − p i )0<br />
42
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
und somit<br />
p i =<br />
i<br />
2N . (4.3)<br />
Also ist die Wahrscheinlichkeit in einem bestimmten Typ zu fixieren ist gleich der relativen<br />
Häufigkeit des Typs zur Zeit 0. Wie wir später sehen werden stammt für große n die gesamte<br />
Population von einem Vorfahr aus der Zeit 0 ab. Dieser Vorfahr wird zufällig gewählt und die<br />
W’keit, dass er vom Typ A ist, ist gerade p i .<br />
Wie für p i , kann man für die mittlere Absorptionszeit E i [τ] auch eine Rekurrenzgleichung<br />
hinschreiben. Es ist jedoch kompliziert diese explizit zu lösen. Später bei der Diffusionsapproximation<br />
werden wir approximativ E i [τ] angeben.<br />
Nun berechnen wir die Varianz von X n . Es gilt<br />
Var[X n ] = E[Var[X n |X n−1 ]] + Var[E[X n |X n−1 ]]<br />
= E[2N X n−1<br />
2N (1 − X n−1<br />
2N ] + Var[X n−1]<br />
= E[X n−1 ] − 1<br />
2N E[X2 n−1] + Var[X n−1 ]<br />
= E[X n−1 ] − 1<br />
2N (Var[X n−1] + E 2 [X n−1 ]) + Var[X n−1 ]<br />
= E[X 0 ](2N − E[X 0 ]) 1<br />
2N + (1 − 1<br />
2N ) Var[X n−1]<br />
= · · · = E[X 0 ](2N − E[X 0 ])(1 − λ n ) + λ n Var[X 0 ],<br />
(4.4)<br />
wobei λ = 1 − 1<br />
2N . Insbesondere konvergiert die Varianz gegen 2NE[X 0/2N](1 − E[X 0 /2N])<br />
(also gegen die Varianz der (2N, E[X 0 ]/2N)-Binomialverteilung) für n → ∞.<br />
Eine wichtige Größe für Variation in der Population ist die so genannte Heterozygotie. Sie ist<br />
definiert als die Wahrscheinlichkeit h(r), dass zwei in Generation r zufällig (mit zurücklegen)<br />
gezogene Individuen unterschiedliche Typen haben, d.h.<br />
h(r) := 2E<br />
Mit der Formel für die Varianz erhalten wir<br />
Es folgt<br />
[<br />
Xr<br />
2N<br />
2N − X r<br />
2N<br />
E[X r (2N − X r )] = 2NE[X r ] − E[X 2 r ] = 2NE[X 0 ] − Var[X r ] − E 2 [X r ]<br />
= 2NE[X 0 ] − E[X 0 ](2N − E[X 0 ])(1 − λ r ) − λ r Var[X 0 ] − E 2 [X 0 ]<br />
= λ r (2NE[X 0 ] − Var[X 0 ] − E 2 [X 0 ]) = λ r E[X 0 (2N − X 0 )].<br />
h(r) = λ r h(0).<br />
Somit nimmt die Heterozygotie geometrisch ab.<br />
Man kann das Wright-Fisher Modell in verschiedene Richtungen verallgemeinern, und damit<br />
das Modell “realistischer” machen. So kann man z.B. auch Mutation, Selektion und Rekombination<br />
modellieren und einen allgemeineren Typenraum zulassen. Einige dieser Verallgemeinerungen<br />
werden wir bei dem Moran Modell betrachten.<br />
]<br />
.<br />
43
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
4.2 Moran Modell<br />
Das Moran Modell ist das stetige Zeit Analogon des Wright-Fisher Modells, das wir uns im letzten<br />
Abschnitt angesehen haben. Mathematisch ist es einfacher zu handhaben, weil beispielsweise<br />
im neutralen Zweitypen-Fall ohne Mutation die Allelfrequenzen (Häufigkeiten eines Typs) sich<br />
wie ein Geburts- und Todesprozess verhalten. Außerdem werden wir sehen, dass die Genealogie<br />
einer Stichprobe aus einer Population, die sich nach dem Moran Modell entwickelt, durch<br />
den Kingman-Koaleszenten gegeben ist. Letzterer beschreibt unter bestimmten Voraussetzungen<br />
auch, jedoch nur approximativ, die Genealogie des Cannings Modells. Das Wright-Fisher Modell<br />
ist ein spezielles Cannings Modell.<br />
Definition 4.1 (Neutrales Moran Modell). Eine Population von N Genen (verteilt auf N Individuen)<br />
entwickelt sich gemäß einem neutralem Moran Modell, wenn nach jeweils exponentiell<br />
verteilter Wartezeit mit Rate ( )<br />
N<br />
2 ein Paar von Genen zufällig ausgewählt wird. Einer der beiden<br />
stirbt und wird durch einen Nachkommen des anderen ersetzt.<br />
Wie bei vielen Markovketten und Teilchensystemen<br />
in stetiger Zeit der Fall ist, kann man auch<br />
ein Moran Modell mit Hilfe von Poissonprozessen<br />
graphisch konstruieren. Es sei U = {1, . . . , N}<br />
und sei {N i,j : i, j ∈ U} eine Familie von unabhängigen<br />
Poissonprozessen mit jeweils Rate Eins.<br />
Zu jedem Sprungzeitpunkt von N i,j findet ein<br />
Resamplingereignis zwischen i und j statt. Mit<br />
jeweils Wahrscheinlichkeit 1/2 wird i durch einen<br />
Nachkommen von j oder umgekehrt ersetzt. Nach<br />
dem Resampling kriegt das “neue” Individuum<br />
die Nummer des Individuums, das ersetzt wurde.<br />
In Abbildung 4.1 sind diese Resamplingereignisse<br />
durch Pfeile dargestellt. Da die endlich<br />
vielen Poissonprozesse fast sicher keine gemeinsame<br />
Sprünge haben gibt es höchsten jeweils ein<br />
Ereignis pro Zeitpunkt. Die Anzahl ungeordneter<br />
Paare ist ( )<br />
N<br />
2 und deswegen ist die Wartezeit<br />
zwischen den Ereignissen Exp( ( )<br />
N<br />
2 ) verteilt.<br />
(Hier benutzen wir die Tatsache, dass das Minimum<br />
von n unabhängigen exponentiell verteilten<br />
Zufallsvariablen mit Rate λ exponentiell verteilt<br />
sind mit Rate λn.)<br />
t<br />
1 2 3 4 5<br />
Abbildung 4.1: Graphische Konstruktion<br />
des Moran Modells<br />
Wie beim Wright-Fisher Modell betrachten wir zunächst den neutralen Fall ohne Mutation mit<br />
zwei Typen A und a. Sei X t die Häufigkeit der Individuen vom Typ A zur Zeit t. Dann ist<br />
X = (X t ) t≥0 ein Markovkette in stetiger Zeit mit Zustandsraum {0, 1/N, . . . , (N −1), N}, wobei<br />
die Zustände 0 und 1 absorbierend sind.<br />
44
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
Der Generator A (N) von X sieht wie folgt aus:<br />
( ) ( ( (<br />
N<br />
A (N) f(p) := p(1 − p) f p + 1 )<br />
− f(p)<br />
2 N<br />
)<br />
( (<br />
+ (1 − p)p f p − 1 ) ))<br />
− f(p) . (4.5)<br />
N<br />
Für p ∈ {0, 1} ist natürlich A (N) f(p) = 0. Um zu sehen, dass A (N) wirklich der Generator von<br />
X ist, beachte, dass ( )<br />
N<br />
2 immer die Gesamtrate für ein Ereignis ist. Ist bei einem Ereignis p die<br />
Häufigkeit des Typs A, dann ändert sie sich nur dann, wenn der Pfeil in der Graphischen Konstruktion<br />
vom Typ A zu Typ a zeigt oder umgekehrt. Pfeile, die von einem Typ auf denselben<br />
zeigen, ändern zwar die “Verwandschaftsverhältnisse” im Modell, nicht aber die Typenhäufigkeiten.<br />
Die Wahrscheinlichkeit für beide Ereignisse p → p + 1/N und p → p − 1/N ist also p(1 − p).<br />
Ferner finden mit Wahrscheinlichkeit 1 − 2p(1 − p) Ereignisse p → p statt, die die Typenhäufigkeiten<br />
nicht verändern. Die Wahrscheinlichkeit ein Ereignis in dem Intervall [0, h] zu beobachten<br />
ist von der Ordnung ( )<br />
N<br />
2 h + O(h 2 ).<br />
Wir wollen uns nun anschauen, wie sich X, was wir ab jetzt mit X (N) bezeichnen für große<br />
N verhält. Für dreimal stetig differenzierbare Funktion f erhalten wir mit der Taylorformel<br />
( ) ( N 1<br />
A (N) f(p) = p(1 − p)<br />
2 N f ′ (p) + 1<br />
( )) 1<br />
2N 2 f ′′ (p) + O<br />
N 3<br />
( ) N<br />
+ p(1 − p)<br />
2<br />
( ) ( N 1<br />
= p(1 − p)<br />
2 N 2 f ′′ (p) + O<br />
= 1 ( ) 1<br />
2 p(1 − p)f ′′ (p) + O .<br />
N<br />
(<br />
− 1 N f ′ (p) + 1<br />
2N 2 f ′′ (p) + O<br />
( 1<br />
N 3 ))<br />
Wir fassen dieses Resultat im folgenden Lemma zusammen.<br />
( 1<br />
N 3 ))<br />
Lemma 4.2. Für N → ∞ konvergiert der Generator A (N) des Prozesses der Typenhäufighkeit<br />
X (N) gegen den Generator der Wright-Fisher Diffusion p = (p t ) t≥0 , der durch<br />
gegeben ist.<br />
Af(p) = 1 2 p(1 − p)f ′′ (p) (4.6)<br />
Bemerkung 4.3 (Konvergenz der reskalierten Wright-Fisher Markovkette). Es sei X (N) =<br />
(X n<br />
(N) ) die WF-Markovkette aus dem vorherigen Abschnitt; siehe (4.1). Wir ersetzen dort 2N<br />
jeweils durch N und setzen<br />
p t := 1 N X(N) [Nt] .<br />
Für hinreichend glatte Funktionen f haben wir dann<br />
d<br />
dt E[f(p t)|p 0 = p] ∣ ≈ E[f(p 1/N)|p 0 = p] − f(p)<br />
t=0 1/N<br />
(<br />
= N f ′ (p)E[(p 1/N − p)|p 0 = p] + f ′′ )<br />
(p)<br />
E[(p<br />
2 1/N − p) 2 |p 0 = p] + O(N −2 ) .<br />
45
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
Nun ist nach (4.2)<br />
E[(p 1/N − p)|p 0 = p] = 1 N E[(X(N) 1 − X (N)<br />
0 )|p 0 = p] = 0<br />
und nach (4.4)<br />
E[(p 1/N − p) 2 |p 0 = p] = 1<br />
N 2 Var[X(N) 1 |X 0 = Np] = 1<br />
N 2 Np(N − Np)(1 − (1 − 1 p(1 − p)<br />
)) =<br />
N N .<br />
Insgesamt ist also<br />
d<br />
dt E[f(p t)|p 0 = p] ∣ ≈ 1<br />
t=0 2 p(1 − p)f ′′ (p) + O(N −1 ).<br />
Für N → ∞ konvergiert also der reskalierte Prozess der Häufigkeit der Individuen vom Typ A<br />
gegen die Wright-Fisher Diffusion.<br />
Wir haben schon bemerkt, dass für jedes N die Markovkette X (N) in fast sicher endlicher<br />
Zeit in einem der Zustände 0 oder N absorbiert wird. Dasselbe kann man für die Wright-<br />
Fisher Diffusion zeigen. Bezeichnen wir mit T (N)<br />
i<br />
bzw. T p jeweils die entsprechenden erwarteten<br />
Absorptionszeiten, dann gilt<br />
T (N)<br />
i<br />
≈ NT i/N . (4.7)<br />
Als nächstes betrachten wir das Moran Modell mit<br />
Mutation. Zunächst betrachten wir den einfachen<br />
Fall mit Typen aus I = {a, A} (wie in der Abbildung<br />
rechts dargestellt). Mit Mutationsrate θ 1 mutiert ein<br />
Individuum vom Typ a zum Typ A und mit Rate θ 2<br />
ein Individuum vom Typ A zum Typ a. Ferner sei<br />
θ = θ 1 +θ 2 und sei {N i : i ∈ U} eine Familie von unabhängigen<br />
Poissonprozessen mit Parameter θ. Die<br />
Sprünge dieser Prozesse sind in der Abbildung durch<br />
Kreuze dargestellt. An jedem dieser “Kreuze” mutiert<br />
das Individuum zum Typ A mit Wahrscheinlichkeit<br />
θ 1 /θ und zum Typ a mit Wahrscheinlichkeit<br />
θ 2 /θ. In der Abbildung ist entlang der Linien 3 und 5<br />
jeweils ein Mutationsereignis das keine Auswirkung<br />
auf den Typ hatte, da das Individuum zum selben<br />
Typ “mutiert” ist. Für θ 1 = θ 2 = 0 erhalten wir natürlich<br />
das ursprüngliche neutrale Modell ohne Mutation.<br />
Sind aber beide Mutationsraten positiv und<br />
definieren wir X (N)<br />
t wie zuvor als die Häufigkeit der<br />
Individuen vom Typ A, so erhalten wir wieder eine<br />
Markovkette auf {0, 1/N, . . . , 1}. Diese ist aber<br />
nicht mehr absorbierend.<br />
t<br />
1 2 3 4 5<br />
Abbildung 4.2: Moran Modell mit Mutation<br />
46
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
Der Generator von X (N) ist gegeben durch<br />
A (N) f(p) := A (N)<br />
res f(p) + A (N) f(p) (4.8)<br />
mut<br />
mit<br />
und<br />
( ) ( ( (<br />
N<br />
A (N)<br />
res f(p) = p(1 − p) f p + 1 ) ) ( (<br />
− f(p) + (1 − p)p f p − 1 ) ))<br />
− f(p)<br />
2 N<br />
N<br />
( (<br />
A (N)<br />
mut = Nθ 1(1 − p) f p + 1 ) ) ( (<br />
− f(p) + Nθ 2 p f p − 1 ) )<br />
− f(p) .<br />
N<br />
N<br />
Den Resampling-Generator A (N)<br />
res f(p) kennen wir schon. Außerdem haben wir schon gezeigt, dass<br />
dieser für N → ∞ gegen 1 2 p(1 − p)f ′′ (p) konvergiert.<br />
Für den Mutationsgenerator erhalten wir<br />
Insgesamt gilt also<br />
A (N)<br />
mut = N (θ 1 (1 − p) 1 N f ′ (p) − Nθ 2 p 1 N f ′ (p) + O(N −2 )<br />
= (θ 1 (1 − p) − θ 2 p) f ′ (p) + O(N −1 ).<br />
A (N) f(p) → 1 2 p(1 − p)f ′′ (p) + (θ 1 (1 − p) − θ 2 p) f ′ (p), N → ∞.<br />
Das ist der Generator der Wright-Fisher Diffusion mit Mutation.<br />
4.3 Wright-Fisher Diffusion<br />
Eine eindimensionale Diffusion ist ein starker Markovprozess auf R mit stetigen Pfaden. Der Zustandsraum<br />
ist typischerweise ein Intervall (a, b), der endlich oder unendlich ein kann. Außerdem<br />
können je nach Anwendung beide, einer oder keiner der Randpunkte {a, b} zum Zustandsraum<br />
gehören. Der Generator hat die Form<br />
Af(x) = 1 2 σ2 (x)f ′′ (x) + µ(x)f ′ (x). (4.9)<br />
Je nach Verhalten an den Randpunkten müssen die Funktionen f ∈ D(A) abgesehen von zweimaliger<br />
Differenzierbarkeit bestimmte Randbedingungen erfüllen.<br />
Wir nehmen an:<br />
1. Für jedes kompakte Intervall I ⊂ (a, b) gibt es ein ε mit σ 2 (x) > ε für alle x ∈ I;<br />
2. Die Funktionen µ und σ 2 sind stetig auf (a, b).<br />
Für f 1 (x) = x gilt<br />
1<br />
Af 1 (X t ) = lim<br />
h↓0 h E X t<br />
[X t+h − X t ] = µ(X t )<br />
)<br />
47
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
und somit für h ↓ 0<br />
E Xt [X t+h − X t ] = hµ(X t ) + o(h).<br />
Schreiben wir außerdem (X t+h − X t ) 2 = X 2 t+h − X2 t − 2X t (X t+h − X t ), so gilt mit f 2 (x) = x 2<br />
und somit für h ↓ 0<br />
1<br />
Af 2 (X t ) − 2X t Af 1 (X t ) = lim<br />
h↓0 h E X t<br />
[(X t+h − X t ) 2 ] = σ 2 (X t )<br />
E Xt [(X t+h − X t ) 2 ] = hσ 2 (X t ) + o(h).<br />
Aus diesem Grund bezeichnet man mu(x) und σ 2 (x) als infinitesimale Drift bzw. infinitesimale<br />
Varianz des zugehörigen Diffusionsprozesses.<br />
Die Skalenfunktion eines Diffusionsprozesses mit Generator (4.9) ist definiert durch<br />
S(x) :=<br />
∫ x<br />
x 0<br />
exp<br />
wobei x 0 , η ∈ (a, b). Ferner ist die Funktion<br />
m(x) :=<br />
{<br />
−<br />
∫ y<br />
η<br />
1<br />
σ 2 (x)S ′ (x)<br />
}<br />
2µ(z)<br />
σ 2 (z) dz dy,<br />
die Dichte des Speed-Maßes.<br />
Für z ∈ (a, b) setzen wir H z := inf{t ≥ 0 : X t = z}. Mit Hilfe des folgenden Resultates<br />
kann man bei Diffusionen die Wahrscheinlichkeiten einen Zustand vor dem anderen zu erreichen<br />
berechnen.<br />
Lemma 4.4. Für a < a 0 < x < b 0 < b gilt<br />
P x [T a0 < T b0 ] = S(b 0) − S(x)<br />
S(b 0 ) − S(a 0 ) . (4.10)<br />
Sind beide Ränder a und b in fast sicher endlicher Zeit erreichbar, dann gilt (4.10) auch für<br />
a 0 = a und b 0 = b.<br />
Wright-Fisher Diffusion ohne Mutation ist ein Prozess auf [0, 1] mit µ ≡ 0 und σ 2 (x) = x(1−x).<br />
Dabei sind beide Ränder absorbierend. Dann ist S(x) = x − x 0 und wir haben<br />
P x [T 0 < T 1 ] = (1 − x) für x ∈ [0, 1].<br />
Dies ist genau dass, was man wegen (4.3) erwarten konnte.<br />
Es sei T ∗ die Austrittszeit des Prozesses (X t ) t≥0 aus (a, b). Die Green-Funktion G(x, ξ) gibt<br />
die erwartete Zeit, die der Prozess bis zur Zeit T ∗ in ξ verbringt bei Start in x. Natürlich ist<br />
G(a, ξ) = G(b, ξ) = 0. Allgemein ist die Green-Funktion einer Diffusion mit Generator (4.9) und<br />
den entsprechenden Skalenfunktion S und der Dichte des Speed-Maßes m gegeben durch<br />
{<br />
2(S(b) − S(ξ))<br />
S(x)−S(a)<br />
S(b)−S(a)<br />
m(ξ) : x ≤ ξ < b,<br />
G(x, ξ) :=<br />
2(S(ξ) − S(a)) S(b)−S(x)<br />
S(b)−S(a) m(ξ) : a < ξ ≤ x. (4.11)<br />
48
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
Mit Hilfe der Green-Funktion kann man verschiedene Funktionale des Prozesses berechnen. Für<br />
stetige Funktionen g auf (a, b) gilt nämlich<br />
[ ∫ ]<br />
T ∗<br />
∫ b<br />
E x g(X s ) ds = G(x, ξ)g(ξ) dξ. (4.12)<br />
0<br />
Nehmen wir hier g ≡ 1, so steht hier auf der linken Seite E[T ∗ ]. Für die Wright-Fisher Diffusion<br />
erhalten wir also für p ∈ (0, 1)<br />
E p [T ∗ ] =<br />
= 2<br />
∫ 1<br />
= 2p<br />
0<br />
∫ 1<br />
G(p, ξ) dξ<br />
p<br />
∫ 1<br />
p<br />
a<br />
∫<br />
1<br />
p<br />
p(1 − ξ)<br />
ξ(1 − ξ) dξ + 2 1<br />
(1 − p)ξ<br />
ξ(1 − ξ) dξ<br />
∫<br />
1<br />
p<br />
ξ dξ + 2(1 − p)<br />
0<br />
0<br />
1<br />
1 − ξ dξ<br />
= −2(p log p + (1 − p) log(1 − p)).<br />
Für große N ist dies auch eine gute Approximation für die erwartete Absorptionszeit in dem<br />
Moran Modell bei Start des einen Typs mit Häufigkeit p. Für Wright-Fisher Modell auf der<br />
ursprünglichen Zeitskala und bei Start mit Häufigkeit p gilt wie wir schon in (4.7) bemerkt<br />
haben<br />
T (N)<br />
p<br />
≈ −2N(p log p + (1 − p) log(1 − p)),<br />
und insbesondere ist T (N)<br />
1/2<br />
≈ 2N log 2.<br />
Nun betrachten wir die Wright-Fisher Diffusion mit Mutation. In diesem Fall sind die Ränder<br />
nicht absorbierend also handelt es sich um eine regulären (d.h. jeder Punkt ist mit positiver<br />
Wahrscheinlichkeit von jedem anderen Punkt aus erreichbar, in der Sprache von Markovketten<br />
würde man irreduzibel sagen) Diffusion auf einem kompakten Intervall. Damit ist sie auch positiv<br />
rekurrent und in diesem Fall haben Markovketten eindeutige stationäre Verteilungen. Dasselbe<br />
ist auch für Diffusion wahr und schauen uns die stationäre Verteilung der Wright-Fisher Diffusion<br />
an.<br />
Es sei zunächst allgemein X = (X t ) t≥0 ein Diffusionsprozess auf [a, b] mit Generator (4.9).<br />
Eine stationäre Verteilung von X ist eine Verteilung Ψ mit der Eigenschaft X t ∼ Ψ für alle<br />
t ≥ 0, falls X 0 ∼ Ψ. Insbesondere ist dann<br />
An der Stelle t = 0 erhalten wir<br />
a<br />
∫ b<br />
0 = d dt E[f(X t)|X 0 ∼ Ψ] = d dt<br />
∫ b<br />
a<br />
∫ b<br />
a<br />
Af(x)Ψ(dx) = 0<br />
E[f(X t )|X 0 = x]Ψ(dx).<br />
für alle f ∈ D(A). Aus dieser Gleichung kann man manchmal Ψ bekommen. Wir schreiben im<br />
Folgenden ψ(x) dx = Ψ(dx). Mit partieller Integration erhalten wir<br />
∫ b<br />
( )<br />
1<br />
0 =<br />
2 σ2 (x) d2 f df<br />
(x) + µ(x)<br />
dx2 dx (x) ψ(x) dx<br />
=<br />
a<br />
( 1<br />
f(x)<br />
2<br />
d 2<br />
dx 2 (σ2 (x)ψ(x)) − d<br />
dx (µ(x)ψ(x)) )<br />
dx + Randterme.<br />
49
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
Diese Gleichung muss für alle f ∈ D(A) gelten und insbesondere können wir die Funktionen<br />
so wählen, dass jeweils f und f ′ auf dem Rand verschwinden. Für solche Funktionen ist der<br />
Randterm Null. Also muss für x ∈ (a, b)<br />
1<br />
2 dx 2 (σ2 (x)ψ(x)) − d<br />
dx (µ(x)ψ(x)) = 0<br />
d 2<br />
gelten. Nach einer Integration (und Multiplikation beider Seiten mit zwei) erhalten wir<br />
für eine Konstante C 1 . Damit gilt<br />
woraus wir<br />
d<br />
dx (σ2 (x)ψ(x)) − 2µ(x)ψ(x) = C 1 ,<br />
d<br />
dy (S′ (y)σ 2 (y)ψ(y)) = S ′′ (y)σ 2 (y)ψ(y) + S ′ (y) d<br />
dy (σ2 (y)ψ(y))<br />
= − 2µ(y)<br />
σ 2 (y) S′ (y)σ 2 (y)ψ(y) + S ′ (y) d<br />
dy (σ2 (y)ψ(y))<br />
= C 1 S ′ (y),<br />
S ′ (y)σ 2 (y)ψ(y) = C 1 S(y) + C 2<br />
erhalten. Diese Gleichung lässt sich nach ψ(y) auflösen:<br />
S(y)<br />
ψ(y) = C 1<br />
S ′ (y)σ 2 (y) + C 1<br />
2<br />
S ′ (y)σ 2 (y) = m(y)(C 1S(y) + C 2 ).<br />
Wenn man nun C 1 und C 2 so wählen kann, dass ψ ≥ 0 und ∫ b<br />
a<br />
ψ(y) dy = 1 ist, dann ist ψ die<br />
Dichte der stationären Verteilung von X. Wenn insbesondere ∫ b<br />
a m(y) dy < ∞ und wir C 1 = 0<br />
wählen, dann ist<br />
ψ(y) =<br />
m(y)<br />
∫ b<br />
a m(y) dy (4.13)<br />
die Dichte einer stationären Verteilung von X. Ist die Diffusion zudem regulär, dann ist die<br />
stationäre Verteilung eindeutig und ihre Dichte ist gegeben durch (4.13). Schauen wir uns nun<br />
wieder die Wright-Fisher Diffusion mit Generator<br />
Af(p) = 1 2 p(1 − p)f ′′ (p) + (θ 1 (1 − p) − θ 2 p) f ′ (p).<br />
In diesem Fall ist<br />
( ∫ p<br />
S ′ (p) = exp −<br />
(<br />
= exp −<br />
p<br />
∫<br />
0<br />
p<br />
p 0<br />
)<br />
2µ(z)<br />
σ 2 (z) dz<br />
θ 1 (1 − z) − θ 2 z<br />
z(1 − z)<br />
)<br />
dz<br />
= C exp(−2θ 1 log p − 2θ 2 log(1 − p))<br />
= Cp −2θ 1<br />
(1 − p) −2θ 2<br />
,<br />
50
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
wobei C eine von p 0 abhängige Konstante ist. Es folgt<br />
Nun ist<br />
∫ 1<br />
0<br />
m(p) =<br />
m(p) dp = C<br />
1<br />
S ′ (p)σ 2 (p) = Cp2θ 1−1 (1 − p) 2θ 2−1 .<br />
∫ 1<br />
0<br />
p 2θ 1−1 (1 − p) 2θ 2−1 dp = C Γ(2θ 1)Γ(2θ 2 )<br />
Γ(2(θ 1 + θ 2 )) ,<br />
und die stationäre Verteilung ist gegeben durch die Betaverteilung mit Dichte<br />
4.4 Kingmann’s Koaleszent<br />
ψ(p) = Γ(2(θ 1 + θ 2 ))<br />
Γ(2θ 1 )Γ(2θ 2 ) p2θ 1−1 (1 − p) 2θ 2−1 .<br />
Wir haben bei dem Wright-Fisher Modell gesagt, dass sich die Individuen der n + 1-ten Generation<br />
die Eltern unter den Individuen der n-ten Generation zufällig wählen. Diese Beschreibung<br />
liefert auf natürliche weise eine genealogische Struktur des Wright-Fisher Modells. Diese Struktur<br />
ist auch bei dem Moran Modell aus der graphischen Konstruktion leicht abzulesen.<br />
Schauen wir uns erst die Genealogie im Wright-Fisher Modell an (mit N Individuen). Zwei<br />
Individuen haben (ziehen) einen gemeinsamen Vorfahr in der vorherigen Generation mit W’keit<br />
1/N. Ist dies nicht der Fall, dann haben ihre Vorfahren einen gemeinsamen Vorfahr in der<br />
Generation davor mit W’keit 1/N, usw. Damit ist die Zeit T bis zum gemeinsamen Vorfahr<br />
geometrisch verteilt mit Parameter 1/N, d.h. für k = 1, 2, . . . ist P[T = k] = 1/N(1 − 1/N) k−1<br />
und E[T ] = N. Beträgt eine Zeiteinheit N Generationen, dann ist für x ≥ 0<br />
P[Zeit bis zum gem. Vorfahr > x] =<br />
(<br />
1 − 1 N<br />
) Nx<br />
N→∞<br />
−−−−→ e −x ,<br />
d.h. im Grenzwert ist diese Zeit exponentiell verteilt mit Rate 1.<br />
Nehmen wir eine Stichprobe von k ≥ 2 Individuen. Die W’keit, dass mehr als drei Individuen<br />
einen gemeinsamen Vorfahr in der vorherigen Generation haben (multipler Koaleszent) ist von<br />
der Ordnung O(1/N 2 ). Auch die W’keit, dass zwei oder mehr Paare in der vorherigen Generation<br />
ihre zwei unterschiedlichen Vorfahren finden (simultaner Koaleszent) ist von der Ordnung<br />
O(1/N 2 ). Bevor wir so ein Ereignis für große N sehen sind alle paare von Individuen miteinander<br />
verschmolzen, d.h. bei dem Wright-Fisher Modell werden wir für große N in der Genealogie<br />
nur Verschmelzungen von höchstens zwei Ahnenlinien sehen die jeweils exponentiell mit Rate 1<br />
verteilt sind.<br />
Nummerieren die k Individuen durch und betrachten den oben beschriebenen Verschmelzungsprozess,<br />
den wir hier mit π := (π t ) t≥0 bezeichnen, auf den Äquivalenzklassen [k] := {1, . . . , k}.<br />
Jede Äquivalenzklasse in π t stellt zur Zeit t einen Vorfahr der in dieser Klasse enthaltenen<br />
Individuen dar. Der Prozess π startet immer mit einelementigen Äquivalenzklassen<br />
{{1}, . . . , {k}}.<br />
ist beispielsweise k = 5 und π t = {{1, 4}, {2, 5}, {3}}, dann bedeutet das, dass 1 und 4, und<br />
2 und 5 bis zur Zeit t jeweils einen gemeinsamen Vorfahr gefunden haben. Das Individuum 3<br />
teilt bis zur Zeit t keinen gemeinsamen Vorfahr mit irgendeinem anderen Individuum aus der<br />
Stichprobe.<br />
51
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
Definition 4.5 (Kingmann’s Koaleszent). Der Kingman k-Koaleszent ist eine Markovkette auf<br />
E k , den Äquivalenzklassen auf [k], mit Übergangsraten q ξ,η , ξ, η ∈ E k definiert durch<br />
{<br />
1 wenn η aus ξ durch Verschmelzen von genau zwei Klassen erhalten werden kann,<br />
q ξ,η :=<br />
0 sonst.<br />
Der Kingmann N-Koaleszent ist ein Prozess auf Äquivalenzrelationen auf N mit der Eigenschaft,<br />
dass jede Einschränkung auf eine Menge der Größe k ein k-Koaleszent ist. In jedem Fall besteht<br />
die Anfangsbedingung aus einelementigen Äquivalenzklassen.<br />
Wenn wir nur an der jeweiligen Anzahl der Äquivalenzklassen, nicht jedoch an deren Zusammensetzung<br />
zur Zeit t interessiert sind, so kann man Kingmann’s k-Koaleszent als eine Todeskette<br />
auffassen, mit Übergangsraten<br />
{( k<br />
)<br />
q k,j :=<br />
2<br />
: wenn j = k-1,<br />
0 : sonst.<br />
Es sei W k die Zeit bis zum jüngsten gemeinsamen Vorfahr (MRCA=most recent common ancestor)<br />
von k Individuen. Dann gilt<br />
W k = T k + T k−1 + · · · + T 2 ,<br />
wobei T l jeweils die Wartezeit für den Sprung von l nach l + 1 ist. Wir erhalten<br />
E[W k ] =<br />
k∑<br />
( ) l −1<br />
=<br />
2<br />
l=2<br />
k∑<br />
l=2<br />
2<br />
k∑<br />
( 1<br />
l(l − 1) = 2 l − 1 − 1 )<br />
= 2(1 − 1 ). (4.14)<br />
l<br />
k<br />
Damit ist die erwartete Zeit bis MRCA der ganzen Population durch 2 beschränkt. Außerdem<br />
gilt für K ≥ k<br />
l=2<br />
0 ≤ E[W K − W k ] = 2( 1 k − 1 K ) ≤ 2 k .<br />
Insbesondere unterscheiden sich die Zeit zum MRCA von k Individuen und der von der ganzen<br />
Population nur wenig für nicht zu kleine Werte von k. Man beachte auch, dass in (4.14) E[T 2 ] = 1<br />
den größten Beitrag liefert.<br />
Für die Varianz von W k erhalten wir<br />
Var[W k ] =<br />
k∑<br />
Var[T l ] =<br />
l=2<br />
k∑<br />
( l<br />
2<br />
l=2<br />
) −2<br />
= 8<br />
k−1<br />
∑<br />
l=1<br />
1<br />
l 2 − 4(1 − 1 k )(3 + 1 k )<br />
und es folgt<br />
1 = Var[W 2 ] ≤ Var[W k ] ≤ lim Var[W k] = 8 π2<br />
− 12 ≈ 1.16.<br />
k→∞ 6<br />
Also kommt auch bei der Varianz der größte Anteil von der Verschmelzungszeit der letzten<br />
zwei Individuen. Die Verteilung und auch Dichte von W k können auch berechnet werden. Wir<br />
verweisen auf (Tavaré 2004, 2.3, p. 21).<br />
52
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
Wir schauen uns nun eine weitere wichtige Größe, nämlich die Baumlänge der Genealogie von<br />
k Individuen an, die wir mit L k bezeichnen und die durch<br />
definiert werden kann.<br />
Es gilt<br />
und<br />
E[L k ] =<br />
k∑<br />
lE[T l ] =<br />
l=2<br />
Var[L k ] =<br />
L k := 2T 2 + · · · + kT k =<br />
k∑<br />
l=2<br />
l=2<br />
l=1<br />
k∑<br />
lT l<br />
l=2<br />
k∑<br />
k−1<br />
2<br />
l<br />
l(l − 1) = 2 ∑ 1<br />
l<br />
∑k−1<br />
l 2 Var[T l ] = 4<br />
l=1<br />
∼ 2 log k, für k → ∞<br />
1<br />
l 2 ∼ 2π2 , für k → ∞.<br />
3<br />
Insbesondere wächst ist die erwartete Länge unbeschränkt und die Varianz beschränkt in k.<br />
Nun kommen wir zur Verteilung von L k . Mit E(λ) bezeichnen wir eine exponentiell verteilte<br />
Zufallsvariable mit Rate λ. Alle solchen Zufallsvariablen die unten auftauchen sind unabhängig<br />
voneinander. Es gilt<br />
L k =<br />
k∑<br />
d<br />
lT l =<br />
l=2<br />
k∑<br />
( ) l − 1<br />
E<br />
2<br />
l=2<br />
∑k−1<br />
d<br />
=<br />
l=1<br />
min E lj(1/2) =<br />
d<br />
1≤j≤l<br />
max E j(1/2).<br />
1≤j≤k−1<br />
Es folgt<br />
P[L k ≤ t] =<br />
(<br />
1 − e −t/2) k−1<br />
, t ≥ 0.<br />
Daraus erhält man auch dass L k − 2 log k gegen die Gumbel-Verteilung mit Verteilungsfunktion<br />
e −e−t/2 konvergiert. Denn es ist<br />
P[L k − 2 log k ≤ t] =<br />
( )<br />
(<br />
k−1<br />
1 − e −t/2−log k) k−1<br />
= 1 − e−t/2 k→∞<br />
−−−→ e −e−t/2 .<br />
k<br />
Die Genealogie bei dem Moran Modell ist übersichtlicher als die bei dem (endlichen) Wright-<br />
Fisher Modell. Sie kann einfach von der graphischen Konstruktion abgelesen werden. Verfolgen<br />
wir eine Stichprobe von k Individuen, rückwärts in der Zeit, dann treffen wir irgendwann auf<br />
einen Pfeil der zwei Individuen miteinander verbindet. Das Individuum an der Pfeilspitze (wurde<br />
forwärt in der Zeit ersetzt) verschmilzt mit dem Individuum von dem der Pfeil ausgeht.<br />
Letzterer bleibt unverändert. Die Rate mit der man auf ein Pfeil zwischen k Individuen triff ist<br />
rückwärts wie vorwärts gleich und ist gegeben durch ( k<br />
2)<br />
. Dies ist genau die Verschmelzungsrate<br />
im Kingmann’s k-Koaleszent. Die Genealogie des Moran-Modells ist also genau durch den<br />
Kingman Koaleszent gegeben.<br />
Die große Stärke der Koaleszenten zeigt sich in der Betrachtung von neutralen Modellen im<br />
Multitypenfall und insbesondere mit Mutation. Wir erinnern an die graphische Konstruktion<br />
53
4 <strong>Populationsmodelle</strong> mit fester Populationsgröße<br />
des Moran Modells mit Mutation und zwei Typen in Abbildung 4.2. Anstatt Mutation zwischen<br />
zwei Typen kann man sich allgemeinere Mutationsmechanismen und Typenräume vorstellen. Bei<br />
der Graphischen Konstruktion ändern sich nur die Ereignisse an den “Mutationskreuzen”. Wir<br />
nehmen an, dass Mutationen sich im Moran Modell entlang jeder Linie gemäß unabhängiger<br />
Poissonprozesse mit Rate θ/2 ereignen.<br />
Definition 4.6 (Infinitely many alleles model). In dem infinitely many alleles model (IMA)<br />
wird bei einem Mutationsereignis ein neues Allel erzeugt, das in der Population bis dahin nicht<br />
vorgekommen ist. Beispielsweise kann man (0, 1) als Typenraum nehmen und bei jeder Mutation<br />
eine neue unanhängige auf (0, 1) gleichverteilte Zufallsvariable nehmen.<br />
In dem IMA sind zwei Gene (Individuen) genau dann identisch, wenn auf dem genealogischen<br />
Baum keine zwischen den beiden kein Mutationsereignis stattgefunden hat. Wenn T die Zeit bis<br />
zum letzten gemeinsamen Vorfahr ist, dann gilt<br />
P ( zwei zufällig gezogene Gene sind vom selben Typ )<br />
= E [P ( zwei zufällig gezogene Gene sind vom selben Typ| MRCA zur Zeit T )]<br />
= E [P (keine Poissonpunkte im Intervall [0, 2T ] )]<br />
[ ] [ ]<br />
= E e − θ 2 ·2T = E e −θT .<br />
Also haben wir nachgerechnet, dass die Homozygotie (definiert als 1− Heterozygotie) die Laplacetransformierte<br />
von T ist. Diese Rechnung funktioniert sowohl im neutralen Fall als auch<br />
im Fall mit Selektion. Da wir hier schon wissen, dassT exponentiell mit Rate 1 verteilt ist kann<br />
man leicht nachrechnen, dass die Homozygotie (im lange laufenden IMA-Modell) durch 1/(1+θ)<br />
gegeben ist.<br />
54
Literaturverzeichnis<br />
Aldous, D.: 1978, Stopping times and tightness, Ann. Probab. 6(2), 335–340.<br />
Athreya, K. B. and Karlin, S.: 1970, Branching processes with random environments, Bull. Amer. Math.<br />
Soc. 76, 865–870.<br />
Athreya, K. B. and Ney, P. E.: 1972, Branching processes, Springer-Verlag, New York. Die Grundlehren<br />
der mathematischen Wissenschaften, Band 196.<br />
Birkner, M., Geiger, J. and Kersting, G.: 2005, Branching processes in random environment—a view on<br />
critical and subcritical cases, Interacting stochastic systems, Springer, Berlin, pp. 269–291.<br />
Etheridge, A.: 2011, Some mathematical models from population genetics, Vol. 2012 of Lecture Notes<br />
in Mathematics, Springer, Heidelberg. Lectures from the 39th Probability Summer School held in<br />
Saint-Flour, 2009.<br />
Etheridge, A. M.: 2000, An introduction to superprocesses, Vol. 20 of University Lecture Series, American<br />
Mathematical Society, Providence, RI.<br />
Ethier, S. N. and Kurtz, T. G.: 1986, Markov processes, Wiley Series in Probability and Mathematical Statistics:<br />
Probability and Mathematical Statistics, John Wiley & Sons Inc., New York. Characterization<br />
and convergence.<br />
Feller, W.: 1951, Diffusion processes in genetics, Proceedings of the Second Berkeley Symposium on Mathematical<br />
Statistics and Probability, 1950, University of California Press, Berkeley and Los Angeles,<br />
pp. 227–246.<br />
Harris, T. E.: 1963, The theory of branching processes, Die Grundlehren der <strong>Mathematische</strong>n Wissenschaften,<br />
Bd. 119, Springer-Verlag, Berlin.<br />
Jagers, P.: 1975, Branching processes with biological applications, Wiley-Interscience [John Wiley & Sons],<br />
London. Wiley Series in Probability and Mathematical Statistics—Applied Probability and Statistics.<br />
Kallenberg, O.: 2002, Foundations of modern probability, Probability and its Applications (New York),<br />
second edn, Springer-Verlag, New York.<br />
Klenke, A.: 2006, Wahrscheinlichkeitstheorie., Berlin: Springer.<br />
Le Gall, J.-F.: 1999, Spatial branching processes, random snakes and partial differential equations, Lectures<br />
in Mathematics ETH Zürich, Birkhäuser Verlag, Basel.<br />
Lyons, R. with Peres, Y.: n.d., Probability on Trees and Networks, Cambridge University Press.<br />
preparation. Current version available at<br />
http://mypage.iu.edu/~rdlyons/prbtree/prbtree.html.<br />
In<br />
Smith, W. L.: 1968, Necessary conditions for almost sure extinction of a branching process with random<br />
environment, Ann. Math. Statist 39, 2136–2140.<br />
Smith, W. L. and Wilkinson, W. E.: 1969, On branching processes in random environments, Ann. Math.<br />
Statist. 40, 814–827.<br />
55
Literaturverzeichnis<br />
Tavaré, S.: 2004, Ancestral inference in population genetics, Lectures on probability theory and statistics,<br />
Vol. 1837 of Lecture Notes in Math., Springer, Berlin, pp. 1–188.<br />
56