27.08.2014 Aufrufe

Stochastische Populationsmodelle - Abteilung für Mathematische ...

Stochastische Populationsmodelle - Abteilung für Mathematische ...

Stochastische Populationsmodelle - Abteilung für Mathematische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

3 Diffusionsapproximation von Verzweigungsprozessen<br />

Genau wie bei gewöhnlichen Differentialgleichungen (z.B. hat die DGL y ′ = √ y zwei Lösungen<br />

y(x) ≡ 0 und y(x) = x 2 /4 mit derselben Anfangswert y(0) = 0) sind die Lösungen von<br />

Martingalproblemen im Allgemeinen nicht eindeutig. Genauso wenig müssen die Lösungen Markovprozesse<br />

sein. Das folgende Resultat (siehe Ethier and Kurtz 1986, Thm. 4.4.2) zeigt, dass die<br />

letzten beiden Eigenschaften aus der Eindeutigkeit der eindimensionalen Verteilungen folgen.<br />

Theorem 3.7. Es sei E separabel und sei A ein Operator auf B(E). Ferner seien X und Y zwei<br />

Lösungen des Martingalproblems zu A mit derselben Startverteilung. Wenn die eindimensionalen<br />

Verteilungen von X und Y übereinstimmen, dann stimmen auch alle endlich-dimensionalen<br />

Verteilungen überein. Ferner sind X und Y (zeitlich) homogene Markovprozesse.<br />

Eindeutigkeit der Lösungen von Martingalproblemen kann oft mit Hilfe der Dualität der Lösung<br />

zu einem anderen Prozess (welcher auch deterministisch sein kann). Das folgende Theorem<br />

ist ein Spezialfall von Theorem 4.4.11 in (Ethier and Kurtz 1986).<br />

Theorem 3.8. Es seien E 1 und E 2 zwei metrische Räume und seien f, g ∈ B(E 1 × E 2 ) mit<br />

f(x, ·) ∈ C(E 2 ) für alle x ∈ E 1 und g(·, y) ∈ C(E 1 ) für alle y ∈ E 2 . Ferner seien für zwei<br />

stochastische Prozesse X und Y auf E 1 bzw. E 2<br />

f(X t , y) −<br />

∫ t<br />

0<br />

g(X s , y) ds und f(x, Y t ) −<br />

Martingale für alle x ∈ E 1 und y ∈ E 2 . Dann gilt für t ≥ 0<br />

∫ t<br />

0<br />

g(x, Y s ) ds (3.11)<br />

E X0 [f(X t , Y 0 )] = E Y0 [f(X 0 , Y t )]. (3.12)<br />

Beweis. Da f und g beschränkt sind können wir in (3.11) Erwartungswerte nehmen und die<br />

Integrationsreihenfolge vertauschen. Nach Ableiten erhalten wir dann für s ≥ 0<br />

d<br />

ds E X 0<br />

[f(X s , y)] = E X0 [g(X s , y)]<br />

Es folgt für s ∈ [0, t]<br />

und<br />

d<br />

ds E Y 0<br />

[f(x, Y s )] = E Y0 [g(x, Y s )]. (3.13)<br />

d<br />

ds E X 0 ×Y 0<br />

[f(X s , Y t−s )] = E X0 ×Y 0<br />

[g(X s , Y t−s )] − E X0 ×Y 0<br />

[g(X s , Y t−s )] = 0. (3.14)<br />

Schließlich liefert Integration über [0, t]<br />

0 =<br />

∫ t<br />

was gerade die Behauptung ist.<br />

0<br />

d<br />

ds E X 0 ×Y 0<br />

[f(X s , Y t−s )] ds = E X0 ×Y 0<br />

[f(X t , Y 0 )] − E X0 ×Y 0<br />

[f(X 0 , Y t )],<br />

3.2 Diffusionslimes reskalierter BGWP<br />

Es sei Z (N) eine Folge von BGWP in stetiger Zeit (definiert in Abschnitt 2.3) mit Rate α (für<br />

die Lebensdauer) und Nachkommensverteilung gegeben durch die Verteilung von ξ (N) . In diesem<br />

Abschnitt betrachten wir das Verhalten der Folge X (N) := (X (N)<br />

t ) t≥0<br />

X (N)<br />

t<br />

:= 1 N Z(N) Nt<br />

(3.15)<br />

für N → ∞. Wir nehmen an, dass Z (N)<br />

0 in Verteilung gegen eine Zufallsvariable X 0 konvergiert<br />

(ansonsten können wir natürlich auch keine Konvergenz auf der Prozessebene erwarten).<br />

37

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!