03.01.2013 Aufrufe

Markov-Ketten - Max-Planck-Institut für Dynamik komplexer ...

Markov-Ketten - Max-Planck-Institut für Dynamik komplexer ...

Markov-Ketten - Max-Planck-Institut für Dynamik komplexer ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Markov</strong>-<strong>Ketten</strong><br />

Nach Andrej Andrejewitsch <strong>Markov</strong> (1856-1922)<br />

(engl. Andrey <strong>Markov</strong>)<br />

Vorgestellt von Daniel Samaga am 19.11.08 & ???<br />

Motivation<br />

Die Motivation, dieses Kapitel in eine Vorlesung ’Modellierung zellulärer Systeme / Systembiologie<br />

II’ einzubinden, liegt in der breiten Anwendbarkeit der <strong>Markov</strong>-<strong>Ketten</strong> in der Modellierung und der<br />

zentralen Bedeutung bei stochastischen Simulationen.<br />

Hier ein kleiner Überblick, wo <strong>Markov</strong>ketten auftreten:<br />

�stochastische Simulation biochemischer Netzwerke<br />

�Warteschlangen- oder Bedienmodelle<br />

(Informationsverarbeitung, Produktionsbereich, Dienstleistungsbereich)<br />

�Grundlagenforschung<br />

(Wärmebewegung, radioaktiver Zerfall, molekulare Interaktionen)<br />

�Spamfilter (Hidden-<strong>Markov</strong>-Modelle)<br />

�weitere Beispiele:<br />

Wettervorhersage, Populationsmodelle, Monte Carlo Methoden in der Numerik ...<br />

Grundlagen<br />

wikipedia<br />

Eine <strong>Markov</strong>-Kette ist eine spezielle Klasse von stochastischen Prozessen [...] Die Zukunft des Systems<br />

hängt nur von der Gegenwart (dem aktuellen Zustand) und nicht von der Vergangenheit ab.<br />

Doch was ist ein stochastischer Prozess ?<br />

Definitionen<br />

Definition 1 - stochastischer Prozess (nach Krengel):<br />

Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, T eine beliebige nichtleere Indexmenge, und (I, I) ein<br />

messbarer Raum. Eine Familie {Xt, t ∈ T } von Zufallsvariablen mit Werten in I heißt stochastischer<br />

Prozess mit Parameterbereich T und Zustandsraum I<br />

Beispiele <strong>für</strong> obige Begriffe der Definition<br />

�Merkmalsraum Ω :<br />

{1, 2, ..., 6} beim Würfel<br />

�σ-Algebra A auf Ω :<br />

P(Ω) (Potenzmenge von Ω = System aller Teilmengen von Ω)<br />

{{}, {1}, {2}, ... , {1,2}, {1,3}, ... , {1, 2, ..., 6}}<br />

1


�Wahrscheinlichkeitsmaß P auf dem messbaren Raum (Ω, A) :<br />

P : A → [0, 1]<br />

P(ω ∈ {6}) = 1<br />

6<br />

, P(ω ∈ {1, 4}) = 1<br />

3<br />

1<br />

, P(’gerade Zahl’) = , ... 2<br />

�Zustandsraum I :<br />

Ort der Beobachtungen des stoch. Prozesses, beispielsweise I = Z. Wenn die Bewegung eines<br />

Teilchens über wiederholtes Würfeln beschrieben wird, liegen die einzelnen Würfelergebnisse in<br />

Ω, die aktuelle Position aber in den ganzen Zahlen Z<br />

�σ-Algebra I auf I :<br />

Menge aller Zustände des Prozesses, wie ’Teilchen ist rechts von Position ’100”.<br />

�die eigentlich interessierende Zufallsvariable Xt<br />

ergibt sich über die den Prozess charakterisierende Struktur (Vorschrift, wie die einzelnen Würfelergebnisse<br />

zu kombinieren sind)<br />

Z.B.: Xt = �<br />

τ 0 ist<br />

P(Xn+1 = ιn+1 | X0 = ι0, · · · , Xn = ιn) = P(Xn+1 = ιn+1 | Xn = ιn)<br />

Veranschaulichung und Nutzen<br />

pij = P(Xn+1 = ιj | Xn = ιi)<br />

i <strong>für</strong> ιi<br />

Das Konzept der <strong>Markov</strong>-Kette lässt sich einfach veranschaulichen und unsere Vorstellung der mikroskopischen<br />

Welt führt häufig auf eben diese Struktur des <strong>Markov</strong>-Prozesses. Genau wie die <strong>Markov</strong>-Kette<br />

haben auch Moleküle kein Gedächtnis.<br />

Definition 3 - Übergangsgraph (nach Hübner):<br />

Ein Übergangsgraph einer homogenen (alle pij sind konstant über T) <strong>Markov</strong>-Kette besteht aus allen<br />

möglichen Zuständen als Ecken des Graphs und den mit positiver Wahrscheinlichkeit möglichen<br />

Übergängen als gerichteten Kanten (Pfeile). An der Kante von i nach j wird jeweils der Wert pij<br />

notiert.<br />

i<br />

pi j<br />

2<br />

j


Anwendung und Rechenregeln anhand von Beispielen<br />

Irrfahrt eines Betrunkenen<br />

Eine Irrfahrt ist gegeben durch eine Menge M von Zuständen und Übergangswahrscheinlichkeiten dazwischen.<br />

Die Situation : Ein Betrunkener auf einer Parkbank beschließt, heim zu gehen. Leider hat er die<br />

Orientierung verloren, und ’entscheidet’ an jeder Laterne, an der er vorbei kommt, neu, in welche Richtung<br />

es weitergehen soll. Wird er eher sein Haus oder die Kneipe erreichen? Und wann wird das sein?<br />

MOE’S<br />

−3 −2 −1 0 1 2<br />

Dieser Situation entspricht einer <strong>Markov</strong>kette mit ...<br />

�(Ω, A, P)=Münzwurf-Modell mit Ergebnis −1 oder 1<br />

�T = N<br />

�I = {−3, −2, . . .,1, 2}<br />

→ Verteilung von Xt+1 ist nur von Xt abhängig und nimmt Werte in I an.<br />

1<br />

1/2 1/2 1/2 1/2<br />

−3/K<br />

1/2<br />

−2<br />

1/2<br />

−1<br />

1/2<br />

0/S<br />

1/2<br />

1 2/H<br />

Eine Irrfahrt und eine <strong>Markov</strong>-Kette sind also genau das gleiche. In einfachen Fällen genügt also bei<br />

<strong>Markov</strong>ketten der Zugang über die graphische Anschauung. Es ist nicht notwendig, sich explizit aufzuschreiben,<br />

welcher Wahrscheinlichkeitsraum den stochastischen Prozess erzeugt, wenn die Übergangswahrscheinlichkeiten<br />

bekannt sind.<br />

Die (Alzheimer-) Maus<br />

Eine Maus läuft durch ein Haus. Es gibt ein Zimmer mit einer Katze und eins mit Käse.<br />

Maus<br />

1 2<br />

Katze<br />

3 4 5<br />

3<br />

Kaese<br />

1


1<br />

1/2 1/2<br />

1/2<br />

1/3<br />

2<br />

1/2 1/3<br />

3 4 5<br />

1/3<br />

Mittelwertsregel <strong>für</strong> Gewinnwahrscheinlichkeit<br />

i : fester Endzustand “Gewinn”<br />

l : andere Endzustände “Verlust”<br />

j, k : beliebige andere Zustände<br />

gk : Gewinnwahrscheinlichkeit bei Start in Zustand k<br />

1<br />

gi = 1 , gl = 0<br />

gk = �<br />

j<br />

pkj · gj<br />

Man kann die Formel als eine Gewichtung der Erfolgsaussichten aller möglichen Nachfolgezustände<br />

ansehen, denn <strong>für</strong> alle k gilt �<br />

j pkj = 1.<br />

Maus-Beispiel Die Endzustände sind 2 und 5.<br />

g1 = 1<br />

2 g3 + 1<br />

2 g2<br />

g2 = 0<br />

g3 = 1<br />

2 g1 + 1<br />

2 g4<br />

g4 = 1<br />

3 g3 + 1<br />

3 g2 + 1<br />

3 g5<br />

g5 = 1<br />

Einsetzen liefert Gewinnwahrscheinlichkeit <strong>für</strong> Start in 3<br />

g3 = 1<br />

�<br />

1<br />

2 2 g3<br />

�<br />

+ 1<br />

�<br />

1<br />

2 3 g3 + 1<br />

�<br />

3<br />

= 5<br />

12 g3 + 1<br />

6<br />

⇔ g3 = 2<br />

≈ 28, 6 %<br />

7<br />

Mittelwertsregel <strong>für</strong> die durchschnittliche Spieldauer<br />

ti = 0 <strong>für</strong> alle Endzustände<br />

tk = 1 + �<br />

j<br />

pkj · tj<br />

Auch dies ist praktisch eine Gewichtung der Nachfolgewartezeiten eines jeden Zustands unter der<br />

Berücksichtigung, dass es einen Zeitschritt dauert, bis man in einem solchen Nachfolgezustand ist.<br />

4<br />

1


Maus-Beispiel<br />

Einsetzen liefert<br />

t1 = 1 + 1<br />

2 t3 + 1<br />

2 t2<br />

t2 = 0<br />

t3 = 1 + 1<br />

2 t1 + 1<br />

2 t4<br />

t4 = 1 + 1<br />

3 t3 + 1<br />

3 t2 + 1<br />

3 t5<br />

t5 = 0<br />

t3 = 1 + 1<br />

2<br />

⇔ t3 = 24<br />

7<br />

Prognose von Verteilung auf Zustände<br />

= 2 + 5<br />

12 t3<br />

�<br />

1 + 1<br />

2 t3<br />

�<br />

+ 1<br />

2<br />

≈ 3, 43<br />

�<br />

1 + 1<br />

3 t3<br />

�<br />

Meist interessiert die Gesamtheit aller möglichen Zustände zu einem festen Zeitpunkt, die Verteilung.<br />

Besteht der Übergangsgraph aus i Zuständen 1, . . .,m und bezeichne un = (u n 1, . . .,u n m) die Verteilung<br />

nach n Zeitschritten, dann errechnet sich der Anteil jedes Zustandes i zum Zeitpunkt n + 1 wie folgt<br />

Dabei ist<br />

u n+1<br />

i<br />

�<br />

=<br />

j<br />

pji · u n j<br />

u n j = P(Xn = j)<br />

Das sieht nicht nur aus wie Matrix mal Vektor, sondern entspricht dieser Schreibweise so genau, dass<br />

diese auch mathematisch korrekt ist und sich mit der ursprünglichen Definition deckt. (ohne Beweis)<br />

u n+1 = u n · P<br />

.<br />

= u n−1 · P 2<br />

= u 0 · P n+1<br />

Mit Hilfe der Übergangsmatrix, die aus den einzelnen Übergangswahrscheinlichkeiten pij besteht, lässt<br />

sich also aus jeder Startverteilung die Verteilung nach einer bestimmten Schrittzahl errechnen.<br />

Die Matrix P ist im Mausbeispiel: ⎛<br />

0<br />

⎜<br />

P = ⎜<br />

⎝<br />

1 1 0 0 2 2<br />

0 1 0 0 0<br />

1 1 0 0 2 2 0<br />

0 1<br />

⎞<br />

⎟<br />

1 1 0 ⎠<br />

3 3 3<br />

0 0 0 0 1<br />

Bestimmung der Gewinnwahrscheinlichkeit <strong>für</strong> große n In P n = (˜pij) findet sich in jedem Eintrag<br />

˜pij die Wahrscheinlichkeit, bei Start in i nach n Schritten im Endzustand j zu enden. Multipliziert<br />

man Startvektoren an P n , lassen sich die gemeinsamen Gewinnwahrscheinlichkeiten direkt ablesen.<br />

5


Es ist beispielsweise <strong>für</strong> das Mausbeispiel<br />

P 100 ⎛<br />

0.0 0.86 0<br />

⎜ 0 1 0<br />

= ⎜ 0 0.71 0.0<br />

⎝0.0<br />

0.57 0<br />

⎞<br />

0.0 0.14<br />

0 0 ⎟<br />

0 0.29 ⎟<br />

0.0 0.43⎠<br />

0 0 0 0 1<br />

Würde eine ganze Mäusefamilie, die sich gleichmäßig auf alle Räume aufteilt, in dem Haus starten, so<br />

würde die Verteilung nach 100 Zeitschritten wie folgt aussehen<br />

u 100 = � 0.2 0.2 0.2 0.2 0.2 � · P 100 = � 0.0 0.6286 0.0 0.0 0.3714 �<br />

Etwa 37 % der Mäuse würden also den Käse erreichen.<br />

Kommentar zu Warteschlangen<br />

Ü-Eier<br />

In jedem siebten Ei gibt es eine von 10 tollen Figuren - Wie lange brauche ich im Mittel bis ich alle<br />

Figuren habe? (ohne zu tauschen)<br />

�Wartezeit auf Übergang bei Wahrscheinlichkeit p ist 1/p<br />

(Mittelwertregel <strong>für</strong> die durchschnittliche Spieldauer)<br />

�jedes 7. Ei entspricht einfach einem Faktor von sieben im Vergleich zu der Situation, in der in<br />

allen Eiern Figuren sind<br />

�es werden 10 Warteschlangen hintereinander durchlaufen, das führt zu einer Addition der einzelnen<br />

Wartezeiten<br />

7·(10/1+10/2+10/3+10/4+10/5+10/6+10/7+10/8+10/9+10/10)<br />

≈ 202.7<br />

6


<strong>Markov</strong>ketten und biologische Netzwerke<br />

Die <strong>Markov</strong>-Eigenschaft findet sich fast überall in der Natur. Viele Systeme können ausreichend über<br />

den aktuellen Zustand und die potentiellen Reaktionen beschrieben werden. Die Vergangenheit eines<br />

Systems spielt selten eine Rolle. (Auch nicht bei der Hysterese, da dort die Vergangenheit im System<br />

abgespeichert wird und somit im Zustand des Systems enthalten ist.)<br />

Beispiel: Geburten- und Sterbeprozess<br />

In biologischen Systemen interessiert häufig die Anzahl vorhandener Teilchen oder Tiere. Wenn man<br />

davon ausgeht, dass pro Zeitschritt nur ein Teil dazukommen oder verschwinden kann, sieht der dazugehörige<br />

Übergangsgraph wie folgt aus:<br />

0 1 2 3 4<br />

p10<br />

p12 p23 p34 p45<br />

p21<br />

p00 p11<br />

p22 p33 p44<br />

p32<br />

Abbildung 1: Übergangsgraph zu Geburten- und Sterbeprozess in diskreter Zeit<br />

Kontinuierliche Zeit<br />

Einzig die diskrete Beschreibung der Zeit ist unzureichend. Natürliche Prozesse spielen sich in kontinuierlicher<br />

Zeit ab. Und insbesondere <strong>für</strong> große n ist die Wahrscheinlichkeit, dass mehr als ein Ereignis<br />

pro Zeitschritt eintritt, recht groß.<br />

’Anpassung’:<br />

Die Übergangswahrscheinlichkeit pij wird auf ein Intervall △t bezogen und Propensity genannt. Propensities<br />

können auch größer als 1 werden, da sie (grob gesagt) auf die Frage antworten, wie viele<br />

Reaktionen dieser Art im Mittel im kommenden Zeitfenster △t stattfinden.<br />

Für jeden Zustand x lassen sich die Propensities <strong>für</strong> alle möglichen Nachfolgezustände direkt berechnen<br />

und werden entsprechend der dazugehörigen Übergangsfunktion Rµ mit aµ(x) bezeichnet.<br />

Die Wartezeit auf die nächste Reaktion ist damit exponentialverteilt mit Parameter λ(x) = � M<br />

µ=1 aµ(x).<br />

p43<br />

a1(1) a1(2) a1(3)<br />

0 1 2 3 4<br />

a2(1) a2(2) a2(3) a2(4) a2(5)<br />

Abbildung 2: Geburten- und Sterbeprozess in stetiger Zeit<br />

Die Propensities ergeben sich aus dem modellierten System. Jeder Zustand wird nach der Anzahl<br />

a vorhandener Teilchen vom Typ A benannt.<br />

R1 : A κ+<br />

−→ A + A a1(n) = a · κ +<br />

R2 : A κ−<br />

−→ ∅ a2(n) = a · κ −<br />

7<br />

p54<br />

a1(4)


Alternativer Prozess (Zustandsraum nach oben beschränkt und p01 �= 0):<br />

Beispiel: Biochemisches Netzwerk<br />

R1 : B k1<br />

−→ A a1(n) = (N − a) · k1<br />

R2 : A k2<br />

−→ B a2(n) = a · k2<br />

Betrachtet man das Zusammenspiel von mehreren Species, ist der <strong>Markov</strong>-Prozess nicht linear miteinander<br />

verknüpft, sondern der Zustandsraum zeigt sich als ein verzweigtes Netz.<br />

R1 : A k1<br />

−→ A + P a1(x = [p, a, i]) = a · k1<br />

R2 : A+P k2<br />

−→ I a2(x) = a · p · k2<br />

R3 : I k3<br />

−→ A + P a3(x) = i · k3<br />

R4 : P k4<br />

−→ ∅ a4(x) = p · k4<br />

5 2 0 6<br />

5 1 1<br />

6 1 1<br />

5 0 2 6 0 2<br />

Chemical master equation<br />

2 0 7 2 0 8 2 0<br />

7 1 1<br />

8 1 1<br />

7 0 2 8 0 2<br />

Bezeichnet x ∈ N L den Zustandsvektor (bestehend aus den Teilchenzahlen der einzelnen Species), und<br />

sµ die Änderung bei Reaktion Rµ, also<br />

Rµ : x ↦→ x + sµ<br />

Dann schreiben sich die Propensities <strong>für</strong> kleine δt als<br />

aµ(x)δt = P(x + sµ, t + δt|x, t)<br />

Und es ergibt sich die Chemical Master Equation als Differentialgleichungssystem <strong>für</strong> die Wahrscheinlichkeiten<br />

Px(t), zur Zeit t im Zustand x zu sein.<br />

dPx(t)<br />

dt = −Pn(t) ·<br />

M�<br />

aµ(x) +<br />

µ=1<br />

M�<br />

aµ(x − sµ) · Px−sµ(t)<br />

Diese Gleichungen kann man <strong>für</strong> einfache Systeme sofort angeben. Sie bilden die Grundlage <strong>für</strong> die<br />

Analyse stochastischer Systeme.<br />

8<br />

µ=1


Zeitliche Entwicklung der Wahrscheinlichkeiten<br />

Geben wir <strong>für</strong> einen Geburten- und Sterbeprozess eine maximale Populationsgröße N an, die nicht zu<br />

groß ist, so köennen wir das DGL-System <strong>für</strong> die Wahrscheinlichkeiten der einzelnen Populationsgrößen<br />

analytisch lösen (<strong>für</strong> sehr kleine N) oder simulieren (<strong>für</strong> mäßige N)<br />

Bsp.1: N = 2<br />

Dieser Fall lässt sich analytisch lösen. Der Übergangsgraph sieht so aus:<br />

Das DGL-System mit Anfangswerten:<br />

hat folgende Lösung<br />

a1(1) = 1<br />

0 1 2<br />

a2(1) = 1 a2(2) = 2<br />

dP0(t)<br />

dt = a2(1) · P1 ; P0(0) = 0<br />

dP1(t)<br />

dt = −(a1(1) + a2(1)) · P1(t) + a2(2) · P2(t); P1(0) = 0<br />

dP2(t)<br />

dt = −a1(2) · P2(t) + a1(t) · P1(t) ; P2(0) = 1<br />

P0(t) = 1<br />

2 · √ 2 ·<br />

P1(t) = 1 √ 2 ·<br />

�� √ � (−2+<br />

− 2 − 2 e √ � √ � 2)t −(2+<br />

− − 2 + 2 e √ �<br />

2)t<br />

+ 1<br />

�<br />

e (−2+√ 2)t − e −(2+ √ 2)t<br />

P2(t) = 1<br />

2 ·<br />

�<br />

e (−2+√2)t −(2+<br />

+ e √ �<br />

2)t<br />

Somit ist die <strong>Dynamik</strong> der Verteilung auf die Zustände komplett bekannt. Zu jedem Zeitpunkt kennen<br />

wir die Wahrscheinlichkeit <strong>für</strong> ’den Aufenthaltsort der Maus’ (0,1 oder 2), der hier der Molekülzahl<br />

einer Species entspricht.<br />

Bsp.2: N = 10<br />

1<br />

0.9<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

�<br />

0<br />

0 1 2 3<br />

Zeit<br />

4 5 6<br />

Mit einem Simulator wie z.B. ode15s in MATLAB können auch größere Systeme simuliert werden.<br />

a1(1) a1(2)<br />

a1(8)<br />

0 1 2 9 10<br />

a2(1) a2(2) a2(3)<br />

9<br />

P 0 (t)<br />

P 1 (t)<br />

P 2 (t)<br />

a1(9)<br />

a2(9) a2(10)


Nach obigen Schema werden die DGLn aufgestellt. Da das System eine Weile braucht, bis es genügend<br />

ausdünnt und sich der absorbierende Zustand füllt, ist es angebracht, die Zeitachse logarithmisch einzuteilen.<br />

1<br />

0.9<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

0<br />

10 −2<br />

10 −1<br />

10 0<br />

Zeit<br />

Allerdings wird der Informationsgehalt von den einzelnen Pn(t) rasch sehr gering. Stattdessen kann man<br />

sich <strong>für</strong> die <strong>Dynamik</strong> des Mittelwertes interessieren.<br />

Bsp.3: N → ∞<br />

Da die Mittelwertbildung mathematisch einfacher ist, wenn der Prozess nach oben hin nicht beschränkt<br />

ist, rechnen wir ihn hier <strong>für</strong> die offene Kette aus (s. Abb. 2).<br />

Erwartungswert <strong>für</strong> A nach kurzem Zeitschritt △t<br />

∞�<br />

〈A(t + △t)〉 = n· [pn−1,n · Pn−1(t) + pn+1,n · Pn+1(t) + (1 − pn,n+1 − pn,n−1) · Pn(t)]<br />

n=1<br />

= 1· [p0,1 · P0(t) + p2,1 · P2(t) + (1 − p1,2 − p1,0) · P1(t)]<br />

+ 2· [p1,2 · P1(t) + p3,2 · P3(t) + (1 − p2,3 − p2,1) · P2(t)]<br />

.<br />

10 1<br />

+ (k − 1)· [pk−2,k−1 · Pk−2(t) + pk,k−1 · Pk(t) + (1 − pk−1,k − pk−1,k−2) · Pk−1(t)]<br />

+ k· [pk−1,k · Pk−1(t) + pk+1,k · Pk+1(t) + (1 − pk,k+1 − pk,k−1) · Pk(t)]<br />

+ (k + 1)· [pk,k+1 · Pk(t) + pk+2,k+1 · Pk+2(t) + (1 − pk+1,k+2 − pk+1,k) · Pk+1(t)]<br />

Jetzt umsortieren. ’Wo trägt etwas mit Pk(t) zur Summe bei?’<br />

〈A(t + △t)〉 = 1· p0,1 · P0(t)<br />

.<br />

+ 2· p1,2 · P1(t) + 1· (1 − p1,2 − p1,0) · P1(t)<br />

+ 3· p2,3 · P2(t) + 1 · p2,1 · P2(t) + 2· (1 − p2,3 − p2,1) · P2(t)<br />

.<br />

+ (k + 1)·pk,k+1 · Pk(t) + (k − 1) · pk,k−1 · Pk(t) + k· (1 − pk,k+1 − pk,k−1) · Pk(t)<br />

.<br />

10<br />

10 2<br />

P 0 (t)<br />

P 1 (t)<br />

P 2 (t)<br />

P 3 (t)<br />

P 4 (t)<br />

P 5 (t)<br />

P 6 (t)<br />

P 7 (t)<br />

P 8 (t)<br />

P 9 (t)<br />

P 10 (t)


Die Übergangswahrscheinlichkeiten sind bekannt:<br />

pi,i−1 = i · κ − · △t<br />

pi,i+1 = i · κ + · △t<br />

Man sieht, dass der erste Summand gleich 0 ist. Auch die zweite Zeile läßt sich technisch mit ’0 mal<br />

irgendwas’ auffüllen. Daraus erbigt sich:<br />

� A(t + △t) � =<br />

=<br />

=<br />

∞� �<br />

(k + 1) · pk,k+1 · + (k − 1) · pk,k−1 + k · (1 − pk,k+1 − pk,k−1) � · Pk(t)<br />

k=1<br />

∞� �<br />

pk,k+1 − pk,k−1 + k � · Pk(t)<br />

k=1<br />

∞� � �<br />

+ −<br />

k · κ · △t − k · κ · △t + k · Pk(t)<br />

k=1<br />

= △t(κ + − κ − ) ·<br />

∞�<br />

k · Pk(t) +<br />

k=1<br />

= △t(κ + − κ − ) · � A(t) � + � A(t) �<br />

⇔<br />

� A(t + △t) � − � A(t) �<br />

⇒<br />

△t<br />

d� A(t) �<br />

dt<br />

∞�<br />

k · Pk(t)<br />

k=1<br />

= (κ + − κ − ) · � A(t) �<br />

= (κ + − κ − ) · � A(t) �<br />

Das entspricht der Differentialgleichung <strong>für</strong> den deterministischen Fall.<br />

Stochastische Simulation<br />

Falls die Gleichungen zu komplex werden, um sie einzeln zu analysieren, und mehr Information als der<br />

Mittelwert gewünscht ist, kann man den SSA (stochastic simulation algorithm), der auf Daniel Gillespie<br />

(1976) zurück geht, nutzen.<br />

Idee des SSA<br />

Gegeben ist eine Menge biochemischer Reaktionen Rµ (µ ∈ {1, .., M}) und eine Startverteilung der L<br />

Molekültypen x0 ∈ N L<br />

1. Die Propensities aµ(x) lassen sich <strong>für</strong> alle x schnell aus x und den Rµberechnen<br />

2. Die Wartezeit auf das nächste Ereignis ist exponentialverteilt mit Parameter<br />

λ(x) =<br />

M�<br />

aµ(x)<br />

3. Die Wahrscheinlichkeit, dass die i-te Reaktion die Wartezeit beendet hat, ist<br />

µ=1<br />

ai(x)<br />

λ(x)<br />

Nun werden die Schritte einfach hintereinander ausgeführt.<br />

11


Der SSA am Beispiel ’biochemisches Netzwerk’<br />

R1 : A k1<br />

−→ A + P a1(x = [p, a, i]) = a · k1<br />

R2 : A+P k2<br />

−→ I a2(x) = a · p · k2<br />

R3 : I k3<br />

−→ A + P a3(x) = i · k3<br />

R4 : P k4<br />

−→ ∅ a4(x) = p · k4<br />

(1.) (2.)<br />

(3.) (4.)<br />

7 0 2<br />

Vergleich mit obigen Ergebnissen<br />

R4<br />

R3<br />

R4<br />

R2<br />

8 1 1<br />

8 1 1<br />

R3<br />

R1<br />

6 0 2<br />

Abbildung 3: Skizze einer SSA Simulation<br />

R4<br />

R2<br />

7 0 2<br />

7 1 1<br />

7 0 2<br />

R1 : A+B κ+<br />

−→ A + A a1(n) = a · κ +<br />

R2 : A κ−<br />

−→ B a2(n) = a · κ −<br />

führt mit zu dem oben diskutierten Fall (Bsp.1: N = 2), wenn B(0) = 0 und A(0)=2.<br />

1<br />

0.9<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

R3<br />

R1<br />

R2<br />

8 1 1<br />

8 1 1<br />

0<br />

0 1 2 3<br />

Zeit<br />

4 5 6<br />

Abbildung 4: Für jeden Zeitpunkt wurden 1000 Simulationen durchgeführt, der Anteil der Simulationen,<br />

die in Endpunkt 0, 1 oder 2 geendet sind ermittelt und zu der analytischen Lösung aus Bsp.1 geplottet.<br />

12<br />

P 0 (t)<br />

P 1 (t)<br />

P 2 (t)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!