Markov-Ketten - Max-Planck-Institut für Dynamik komplexer ...
Markov-Ketten - Max-Planck-Institut für Dynamik komplexer ...
Markov-Ketten - Max-Planck-Institut für Dynamik komplexer ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Markov</strong>-<strong>Ketten</strong><br />
Nach Andrej Andrejewitsch <strong>Markov</strong> (1856-1922)<br />
(engl. Andrey <strong>Markov</strong>)<br />
Vorgestellt von Daniel Samaga am 19.11.08 & ???<br />
Motivation<br />
Die Motivation, dieses Kapitel in eine Vorlesung ’Modellierung zellulärer Systeme / Systembiologie<br />
II’ einzubinden, liegt in der breiten Anwendbarkeit der <strong>Markov</strong>-<strong>Ketten</strong> in der Modellierung und der<br />
zentralen Bedeutung bei stochastischen Simulationen.<br />
Hier ein kleiner Überblick, wo <strong>Markov</strong>ketten auftreten:<br />
�stochastische Simulation biochemischer Netzwerke<br />
�Warteschlangen- oder Bedienmodelle<br />
(Informationsverarbeitung, Produktionsbereich, Dienstleistungsbereich)<br />
�Grundlagenforschung<br />
(Wärmebewegung, radioaktiver Zerfall, molekulare Interaktionen)<br />
�Spamfilter (Hidden-<strong>Markov</strong>-Modelle)<br />
�weitere Beispiele:<br />
Wettervorhersage, Populationsmodelle, Monte Carlo Methoden in der Numerik ...<br />
Grundlagen<br />
wikipedia<br />
Eine <strong>Markov</strong>-Kette ist eine spezielle Klasse von stochastischen Prozessen [...] Die Zukunft des Systems<br />
hängt nur von der Gegenwart (dem aktuellen Zustand) und nicht von der Vergangenheit ab.<br />
Doch was ist ein stochastischer Prozess ?<br />
Definitionen<br />
Definition 1 - stochastischer Prozess (nach Krengel):<br />
Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, T eine beliebige nichtleere Indexmenge, und (I, I) ein<br />
messbarer Raum. Eine Familie {Xt, t ∈ T } von Zufallsvariablen mit Werten in I heißt stochastischer<br />
Prozess mit Parameterbereich T und Zustandsraum I<br />
Beispiele <strong>für</strong> obige Begriffe der Definition<br />
�Merkmalsraum Ω :<br />
{1, 2, ..., 6} beim Würfel<br />
�σ-Algebra A auf Ω :<br />
P(Ω) (Potenzmenge von Ω = System aller Teilmengen von Ω)<br />
{{}, {1}, {2}, ... , {1,2}, {1,3}, ... , {1, 2, ..., 6}}<br />
1
�Wahrscheinlichkeitsmaß P auf dem messbaren Raum (Ω, A) :<br />
P : A → [0, 1]<br />
P(ω ∈ {6}) = 1<br />
6<br />
, P(ω ∈ {1, 4}) = 1<br />
3<br />
1<br />
, P(’gerade Zahl’) = , ... 2<br />
�Zustandsraum I :<br />
Ort der Beobachtungen des stoch. Prozesses, beispielsweise I = Z. Wenn die Bewegung eines<br />
Teilchens über wiederholtes Würfeln beschrieben wird, liegen die einzelnen Würfelergebnisse in<br />
Ω, die aktuelle Position aber in den ganzen Zahlen Z<br />
�σ-Algebra I auf I :<br />
Menge aller Zustände des Prozesses, wie ’Teilchen ist rechts von Position ’100”.<br />
�die eigentlich interessierende Zufallsvariable Xt<br />
ergibt sich über die den Prozess charakterisierende Struktur (Vorschrift, wie die einzelnen Würfelergebnisse<br />
zu kombinieren sind)<br />
Z.B.: Xt = �<br />
τ 0 ist<br />
P(Xn+1 = ιn+1 | X0 = ι0, · · · , Xn = ιn) = P(Xn+1 = ιn+1 | Xn = ιn)<br />
Veranschaulichung und Nutzen<br />
pij = P(Xn+1 = ιj | Xn = ιi)<br />
i <strong>für</strong> ιi<br />
Das Konzept der <strong>Markov</strong>-Kette lässt sich einfach veranschaulichen und unsere Vorstellung der mikroskopischen<br />
Welt führt häufig auf eben diese Struktur des <strong>Markov</strong>-Prozesses. Genau wie die <strong>Markov</strong>-Kette<br />
haben auch Moleküle kein Gedächtnis.<br />
Definition 3 - Übergangsgraph (nach Hübner):<br />
Ein Übergangsgraph einer homogenen (alle pij sind konstant über T) <strong>Markov</strong>-Kette besteht aus allen<br />
möglichen Zuständen als Ecken des Graphs und den mit positiver Wahrscheinlichkeit möglichen<br />
Übergängen als gerichteten Kanten (Pfeile). An der Kante von i nach j wird jeweils der Wert pij<br />
notiert.<br />
i<br />
pi j<br />
2<br />
j
Anwendung und Rechenregeln anhand von Beispielen<br />
Irrfahrt eines Betrunkenen<br />
Eine Irrfahrt ist gegeben durch eine Menge M von Zuständen und Übergangswahrscheinlichkeiten dazwischen.<br />
Die Situation : Ein Betrunkener auf einer Parkbank beschließt, heim zu gehen. Leider hat er die<br />
Orientierung verloren, und ’entscheidet’ an jeder Laterne, an der er vorbei kommt, neu, in welche Richtung<br />
es weitergehen soll. Wird er eher sein Haus oder die Kneipe erreichen? Und wann wird das sein?<br />
MOE’S<br />
−3 −2 −1 0 1 2<br />
Dieser Situation entspricht einer <strong>Markov</strong>kette mit ...<br />
�(Ω, A, P)=Münzwurf-Modell mit Ergebnis −1 oder 1<br />
�T = N<br />
�I = {−3, −2, . . .,1, 2}<br />
→ Verteilung von Xt+1 ist nur von Xt abhängig und nimmt Werte in I an.<br />
1<br />
1/2 1/2 1/2 1/2<br />
−3/K<br />
1/2<br />
−2<br />
1/2<br />
−1<br />
1/2<br />
0/S<br />
1/2<br />
1 2/H<br />
Eine Irrfahrt und eine <strong>Markov</strong>-Kette sind also genau das gleiche. In einfachen Fällen genügt also bei<br />
<strong>Markov</strong>ketten der Zugang über die graphische Anschauung. Es ist nicht notwendig, sich explizit aufzuschreiben,<br />
welcher Wahrscheinlichkeitsraum den stochastischen Prozess erzeugt, wenn die Übergangswahrscheinlichkeiten<br />
bekannt sind.<br />
Die (Alzheimer-) Maus<br />
Eine Maus läuft durch ein Haus. Es gibt ein Zimmer mit einer Katze und eins mit Käse.<br />
Maus<br />
1 2<br />
Katze<br />
3 4 5<br />
3<br />
Kaese<br />
1
1<br />
1/2 1/2<br />
1/2<br />
1/3<br />
2<br />
1/2 1/3<br />
3 4 5<br />
1/3<br />
Mittelwertsregel <strong>für</strong> Gewinnwahrscheinlichkeit<br />
i : fester Endzustand “Gewinn”<br />
l : andere Endzustände “Verlust”<br />
j, k : beliebige andere Zustände<br />
gk : Gewinnwahrscheinlichkeit bei Start in Zustand k<br />
1<br />
gi = 1 , gl = 0<br />
gk = �<br />
j<br />
pkj · gj<br />
Man kann die Formel als eine Gewichtung der Erfolgsaussichten aller möglichen Nachfolgezustände<br />
ansehen, denn <strong>für</strong> alle k gilt �<br />
j pkj = 1.<br />
Maus-Beispiel Die Endzustände sind 2 und 5.<br />
g1 = 1<br />
2 g3 + 1<br />
2 g2<br />
g2 = 0<br />
g3 = 1<br />
2 g1 + 1<br />
2 g4<br />
g4 = 1<br />
3 g3 + 1<br />
3 g2 + 1<br />
3 g5<br />
g5 = 1<br />
Einsetzen liefert Gewinnwahrscheinlichkeit <strong>für</strong> Start in 3<br />
g3 = 1<br />
�<br />
1<br />
2 2 g3<br />
�<br />
+ 1<br />
�<br />
1<br />
2 3 g3 + 1<br />
�<br />
3<br />
= 5<br />
12 g3 + 1<br />
6<br />
⇔ g3 = 2<br />
≈ 28, 6 %<br />
7<br />
Mittelwertsregel <strong>für</strong> die durchschnittliche Spieldauer<br />
ti = 0 <strong>für</strong> alle Endzustände<br />
tk = 1 + �<br />
j<br />
pkj · tj<br />
Auch dies ist praktisch eine Gewichtung der Nachfolgewartezeiten eines jeden Zustands unter der<br />
Berücksichtigung, dass es einen Zeitschritt dauert, bis man in einem solchen Nachfolgezustand ist.<br />
4<br />
1
Maus-Beispiel<br />
Einsetzen liefert<br />
t1 = 1 + 1<br />
2 t3 + 1<br />
2 t2<br />
t2 = 0<br />
t3 = 1 + 1<br />
2 t1 + 1<br />
2 t4<br />
t4 = 1 + 1<br />
3 t3 + 1<br />
3 t2 + 1<br />
3 t5<br />
t5 = 0<br />
t3 = 1 + 1<br />
2<br />
⇔ t3 = 24<br />
7<br />
Prognose von Verteilung auf Zustände<br />
= 2 + 5<br />
12 t3<br />
�<br />
1 + 1<br />
2 t3<br />
�<br />
+ 1<br />
2<br />
≈ 3, 43<br />
�<br />
1 + 1<br />
3 t3<br />
�<br />
Meist interessiert die Gesamtheit aller möglichen Zustände zu einem festen Zeitpunkt, die Verteilung.<br />
Besteht der Übergangsgraph aus i Zuständen 1, . . .,m und bezeichne un = (u n 1, . . .,u n m) die Verteilung<br />
nach n Zeitschritten, dann errechnet sich der Anteil jedes Zustandes i zum Zeitpunkt n + 1 wie folgt<br />
Dabei ist<br />
u n+1<br />
i<br />
�<br />
=<br />
j<br />
pji · u n j<br />
u n j = P(Xn = j)<br />
Das sieht nicht nur aus wie Matrix mal Vektor, sondern entspricht dieser Schreibweise so genau, dass<br />
diese auch mathematisch korrekt ist und sich mit der ursprünglichen Definition deckt. (ohne Beweis)<br />
u n+1 = u n · P<br />
.<br />
= u n−1 · P 2<br />
= u 0 · P n+1<br />
Mit Hilfe der Übergangsmatrix, die aus den einzelnen Übergangswahrscheinlichkeiten pij besteht, lässt<br />
sich also aus jeder Startverteilung die Verteilung nach einer bestimmten Schrittzahl errechnen.<br />
Die Matrix P ist im Mausbeispiel: ⎛<br />
0<br />
⎜<br />
P = ⎜<br />
⎝<br />
1 1 0 0 2 2<br />
0 1 0 0 0<br />
1 1 0 0 2 2 0<br />
0 1<br />
⎞<br />
⎟<br />
1 1 0 ⎠<br />
3 3 3<br />
0 0 0 0 1<br />
Bestimmung der Gewinnwahrscheinlichkeit <strong>für</strong> große n In P n = (˜pij) findet sich in jedem Eintrag<br />
˜pij die Wahrscheinlichkeit, bei Start in i nach n Schritten im Endzustand j zu enden. Multipliziert<br />
man Startvektoren an P n , lassen sich die gemeinsamen Gewinnwahrscheinlichkeiten direkt ablesen.<br />
5
Es ist beispielsweise <strong>für</strong> das Mausbeispiel<br />
P 100 ⎛<br />
0.0 0.86 0<br />
⎜ 0 1 0<br />
= ⎜ 0 0.71 0.0<br />
⎝0.0<br />
0.57 0<br />
⎞<br />
0.0 0.14<br />
0 0 ⎟<br />
0 0.29 ⎟<br />
0.0 0.43⎠<br />
0 0 0 0 1<br />
Würde eine ganze Mäusefamilie, die sich gleichmäßig auf alle Räume aufteilt, in dem Haus starten, so<br />
würde die Verteilung nach 100 Zeitschritten wie folgt aussehen<br />
u 100 = � 0.2 0.2 0.2 0.2 0.2 � · P 100 = � 0.0 0.6286 0.0 0.0 0.3714 �<br />
Etwa 37 % der Mäuse würden also den Käse erreichen.<br />
Kommentar zu Warteschlangen<br />
Ü-Eier<br />
In jedem siebten Ei gibt es eine von 10 tollen Figuren - Wie lange brauche ich im Mittel bis ich alle<br />
Figuren habe? (ohne zu tauschen)<br />
�Wartezeit auf Übergang bei Wahrscheinlichkeit p ist 1/p<br />
(Mittelwertregel <strong>für</strong> die durchschnittliche Spieldauer)<br />
�jedes 7. Ei entspricht einfach einem Faktor von sieben im Vergleich zu der Situation, in der in<br />
allen Eiern Figuren sind<br />
�es werden 10 Warteschlangen hintereinander durchlaufen, das führt zu einer Addition der einzelnen<br />
Wartezeiten<br />
7·(10/1+10/2+10/3+10/4+10/5+10/6+10/7+10/8+10/9+10/10)<br />
≈ 202.7<br />
6
<strong>Markov</strong>ketten und biologische Netzwerke<br />
Die <strong>Markov</strong>-Eigenschaft findet sich fast überall in der Natur. Viele Systeme können ausreichend über<br />
den aktuellen Zustand und die potentiellen Reaktionen beschrieben werden. Die Vergangenheit eines<br />
Systems spielt selten eine Rolle. (Auch nicht bei der Hysterese, da dort die Vergangenheit im System<br />
abgespeichert wird und somit im Zustand des Systems enthalten ist.)<br />
Beispiel: Geburten- und Sterbeprozess<br />
In biologischen Systemen interessiert häufig die Anzahl vorhandener Teilchen oder Tiere. Wenn man<br />
davon ausgeht, dass pro Zeitschritt nur ein Teil dazukommen oder verschwinden kann, sieht der dazugehörige<br />
Übergangsgraph wie folgt aus:<br />
0 1 2 3 4<br />
p10<br />
p12 p23 p34 p45<br />
p21<br />
p00 p11<br />
p22 p33 p44<br />
p32<br />
Abbildung 1: Übergangsgraph zu Geburten- und Sterbeprozess in diskreter Zeit<br />
Kontinuierliche Zeit<br />
Einzig die diskrete Beschreibung der Zeit ist unzureichend. Natürliche Prozesse spielen sich in kontinuierlicher<br />
Zeit ab. Und insbesondere <strong>für</strong> große n ist die Wahrscheinlichkeit, dass mehr als ein Ereignis<br />
pro Zeitschritt eintritt, recht groß.<br />
’Anpassung’:<br />
Die Übergangswahrscheinlichkeit pij wird auf ein Intervall △t bezogen und Propensity genannt. Propensities<br />
können auch größer als 1 werden, da sie (grob gesagt) auf die Frage antworten, wie viele<br />
Reaktionen dieser Art im Mittel im kommenden Zeitfenster △t stattfinden.<br />
Für jeden Zustand x lassen sich die Propensities <strong>für</strong> alle möglichen Nachfolgezustände direkt berechnen<br />
und werden entsprechend der dazugehörigen Übergangsfunktion Rµ mit aµ(x) bezeichnet.<br />
Die Wartezeit auf die nächste Reaktion ist damit exponentialverteilt mit Parameter λ(x) = � M<br />
µ=1 aµ(x).<br />
p43<br />
a1(1) a1(2) a1(3)<br />
0 1 2 3 4<br />
a2(1) a2(2) a2(3) a2(4) a2(5)<br />
Abbildung 2: Geburten- und Sterbeprozess in stetiger Zeit<br />
Die Propensities ergeben sich aus dem modellierten System. Jeder Zustand wird nach der Anzahl<br />
a vorhandener Teilchen vom Typ A benannt.<br />
R1 : A κ+<br />
−→ A + A a1(n) = a · κ +<br />
R2 : A κ−<br />
−→ ∅ a2(n) = a · κ −<br />
7<br />
p54<br />
a1(4)
Alternativer Prozess (Zustandsraum nach oben beschränkt und p01 �= 0):<br />
Beispiel: Biochemisches Netzwerk<br />
R1 : B k1<br />
−→ A a1(n) = (N − a) · k1<br />
R2 : A k2<br />
−→ B a2(n) = a · k2<br />
Betrachtet man das Zusammenspiel von mehreren Species, ist der <strong>Markov</strong>-Prozess nicht linear miteinander<br />
verknüpft, sondern der Zustandsraum zeigt sich als ein verzweigtes Netz.<br />
R1 : A k1<br />
−→ A + P a1(x = [p, a, i]) = a · k1<br />
R2 : A+P k2<br />
−→ I a2(x) = a · p · k2<br />
R3 : I k3<br />
−→ A + P a3(x) = i · k3<br />
R4 : P k4<br />
−→ ∅ a4(x) = p · k4<br />
5 2 0 6<br />
5 1 1<br />
6 1 1<br />
5 0 2 6 0 2<br />
Chemical master equation<br />
2 0 7 2 0 8 2 0<br />
7 1 1<br />
8 1 1<br />
7 0 2 8 0 2<br />
Bezeichnet x ∈ N L den Zustandsvektor (bestehend aus den Teilchenzahlen der einzelnen Species), und<br />
sµ die Änderung bei Reaktion Rµ, also<br />
Rµ : x ↦→ x + sµ<br />
Dann schreiben sich die Propensities <strong>für</strong> kleine δt als<br />
aµ(x)δt = P(x + sµ, t + δt|x, t)<br />
Und es ergibt sich die Chemical Master Equation als Differentialgleichungssystem <strong>für</strong> die Wahrscheinlichkeiten<br />
Px(t), zur Zeit t im Zustand x zu sein.<br />
dPx(t)<br />
dt = −Pn(t) ·<br />
M�<br />
aµ(x) +<br />
µ=1<br />
M�<br />
aµ(x − sµ) · Px−sµ(t)<br />
Diese Gleichungen kann man <strong>für</strong> einfache Systeme sofort angeben. Sie bilden die Grundlage <strong>für</strong> die<br />
Analyse stochastischer Systeme.<br />
8<br />
µ=1
Zeitliche Entwicklung der Wahrscheinlichkeiten<br />
Geben wir <strong>für</strong> einen Geburten- und Sterbeprozess eine maximale Populationsgröße N an, die nicht zu<br />
groß ist, so köennen wir das DGL-System <strong>für</strong> die Wahrscheinlichkeiten der einzelnen Populationsgrößen<br />
analytisch lösen (<strong>für</strong> sehr kleine N) oder simulieren (<strong>für</strong> mäßige N)<br />
Bsp.1: N = 2<br />
Dieser Fall lässt sich analytisch lösen. Der Übergangsgraph sieht so aus:<br />
Das DGL-System mit Anfangswerten:<br />
hat folgende Lösung<br />
a1(1) = 1<br />
0 1 2<br />
a2(1) = 1 a2(2) = 2<br />
dP0(t)<br />
dt = a2(1) · P1 ; P0(0) = 0<br />
dP1(t)<br />
dt = −(a1(1) + a2(1)) · P1(t) + a2(2) · P2(t); P1(0) = 0<br />
dP2(t)<br />
dt = −a1(2) · P2(t) + a1(t) · P1(t) ; P2(0) = 1<br />
P0(t) = 1<br />
2 · √ 2 ·<br />
P1(t) = 1 √ 2 ·<br />
�� √ � (−2+<br />
− 2 − 2 e √ � √ � 2)t −(2+<br />
− − 2 + 2 e √ �<br />
2)t<br />
+ 1<br />
�<br />
e (−2+√ 2)t − e −(2+ √ 2)t<br />
P2(t) = 1<br />
2 ·<br />
�<br />
e (−2+√2)t −(2+<br />
+ e √ �<br />
2)t<br />
Somit ist die <strong>Dynamik</strong> der Verteilung auf die Zustände komplett bekannt. Zu jedem Zeitpunkt kennen<br />
wir die Wahrscheinlichkeit <strong>für</strong> ’den Aufenthaltsort der Maus’ (0,1 oder 2), der hier der Molekülzahl<br />
einer Species entspricht.<br />
Bsp.2: N = 10<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
�<br />
0<br />
0 1 2 3<br />
Zeit<br />
4 5 6<br />
Mit einem Simulator wie z.B. ode15s in MATLAB können auch größere Systeme simuliert werden.<br />
a1(1) a1(2)<br />
a1(8)<br />
0 1 2 9 10<br />
a2(1) a2(2) a2(3)<br />
9<br />
P 0 (t)<br />
P 1 (t)<br />
P 2 (t)<br />
a1(9)<br />
a2(9) a2(10)
Nach obigen Schema werden die DGLn aufgestellt. Da das System eine Weile braucht, bis es genügend<br />
ausdünnt und sich der absorbierende Zustand füllt, ist es angebracht, die Zeitachse logarithmisch einzuteilen.<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0<br />
10 −2<br />
10 −1<br />
10 0<br />
Zeit<br />
Allerdings wird der Informationsgehalt von den einzelnen Pn(t) rasch sehr gering. Stattdessen kann man<br />
sich <strong>für</strong> die <strong>Dynamik</strong> des Mittelwertes interessieren.<br />
Bsp.3: N → ∞<br />
Da die Mittelwertbildung mathematisch einfacher ist, wenn der Prozess nach oben hin nicht beschränkt<br />
ist, rechnen wir ihn hier <strong>für</strong> die offene Kette aus (s. Abb. 2).<br />
Erwartungswert <strong>für</strong> A nach kurzem Zeitschritt △t<br />
∞�<br />
〈A(t + △t)〉 = n· [pn−1,n · Pn−1(t) + pn+1,n · Pn+1(t) + (1 − pn,n+1 − pn,n−1) · Pn(t)]<br />
n=1<br />
= 1· [p0,1 · P0(t) + p2,1 · P2(t) + (1 − p1,2 − p1,0) · P1(t)]<br />
+ 2· [p1,2 · P1(t) + p3,2 · P3(t) + (1 − p2,3 − p2,1) · P2(t)]<br />
.<br />
10 1<br />
+ (k − 1)· [pk−2,k−1 · Pk−2(t) + pk,k−1 · Pk(t) + (1 − pk−1,k − pk−1,k−2) · Pk−1(t)]<br />
+ k· [pk−1,k · Pk−1(t) + pk+1,k · Pk+1(t) + (1 − pk,k+1 − pk,k−1) · Pk(t)]<br />
+ (k + 1)· [pk,k+1 · Pk(t) + pk+2,k+1 · Pk+2(t) + (1 − pk+1,k+2 − pk+1,k) · Pk+1(t)]<br />
Jetzt umsortieren. ’Wo trägt etwas mit Pk(t) zur Summe bei?’<br />
〈A(t + △t)〉 = 1· p0,1 · P0(t)<br />
.<br />
+ 2· p1,2 · P1(t) + 1· (1 − p1,2 − p1,0) · P1(t)<br />
+ 3· p2,3 · P2(t) + 1 · p2,1 · P2(t) + 2· (1 − p2,3 − p2,1) · P2(t)<br />
.<br />
+ (k + 1)·pk,k+1 · Pk(t) + (k − 1) · pk,k−1 · Pk(t) + k· (1 − pk,k+1 − pk,k−1) · Pk(t)<br />
.<br />
10<br />
10 2<br />
P 0 (t)<br />
P 1 (t)<br />
P 2 (t)<br />
P 3 (t)<br />
P 4 (t)<br />
P 5 (t)<br />
P 6 (t)<br />
P 7 (t)<br />
P 8 (t)<br />
P 9 (t)<br />
P 10 (t)
Die Übergangswahrscheinlichkeiten sind bekannt:<br />
pi,i−1 = i · κ − · △t<br />
pi,i+1 = i · κ + · △t<br />
Man sieht, dass der erste Summand gleich 0 ist. Auch die zweite Zeile läßt sich technisch mit ’0 mal<br />
irgendwas’ auffüllen. Daraus erbigt sich:<br />
� A(t + △t) � =<br />
=<br />
=<br />
∞� �<br />
(k + 1) · pk,k+1 · + (k − 1) · pk,k−1 + k · (1 − pk,k+1 − pk,k−1) � · Pk(t)<br />
k=1<br />
∞� �<br />
pk,k+1 − pk,k−1 + k � · Pk(t)<br />
k=1<br />
∞� � �<br />
+ −<br />
k · κ · △t − k · κ · △t + k · Pk(t)<br />
k=1<br />
= △t(κ + − κ − ) ·<br />
∞�<br />
k · Pk(t) +<br />
k=1<br />
= △t(κ + − κ − ) · � A(t) � + � A(t) �<br />
⇔<br />
� A(t + △t) � − � A(t) �<br />
⇒<br />
△t<br />
d� A(t) �<br />
dt<br />
∞�<br />
k · Pk(t)<br />
k=1<br />
= (κ + − κ − ) · � A(t) �<br />
= (κ + − κ − ) · � A(t) �<br />
Das entspricht der Differentialgleichung <strong>für</strong> den deterministischen Fall.<br />
Stochastische Simulation<br />
Falls die Gleichungen zu komplex werden, um sie einzeln zu analysieren, und mehr Information als der<br />
Mittelwert gewünscht ist, kann man den SSA (stochastic simulation algorithm), der auf Daniel Gillespie<br />
(1976) zurück geht, nutzen.<br />
Idee des SSA<br />
Gegeben ist eine Menge biochemischer Reaktionen Rµ (µ ∈ {1, .., M}) und eine Startverteilung der L<br />
Molekültypen x0 ∈ N L<br />
1. Die Propensities aµ(x) lassen sich <strong>für</strong> alle x schnell aus x und den Rµberechnen<br />
2. Die Wartezeit auf das nächste Ereignis ist exponentialverteilt mit Parameter<br />
λ(x) =<br />
M�<br />
aµ(x)<br />
3. Die Wahrscheinlichkeit, dass die i-te Reaktion die Wartezeit beendet hat, ist<br />
µ=1<br />
ai(x)<br />
λ(x)<br />
Nun werden die Schritte einfach hintereinander ausgeführt.<br />
11
Der SSA am Beispiel ’biochemisches Netzwerk’<br />
R1 : A k1<br />
−→ A + P a1(x = [p, a, i]) = a · k1<br />
R2 : A+P k2<br />
−→ I a2(x) = a · p · k2<br />
R3 : I k3<br />
−→ A + P a3(x) = i · k3<br />
R4 : P k4<br />
−→ ∅ a4(x) = p · k4<br />
(1.) (2.)<br />
(3.) (4.)<br />
7 0 2<br />
Vergleich mit obigen Ergebnissen<br />
R4<br />
R3<br />
R4<br />
R2<br />
8 1 1<br />
8 1 1<br />
R3<br />
R1<br />
6 0 2<br />
Abbildung 3: Skizze einer SSA Simulation<br />
R4<br />
R2<br />
7 0 2<br />
7 1 1<br />
7 0 2<br />
R1 : A+B κ+<br />
−→ A + A a1(n) = a · κ +<br />
R2 : A κ−<br />
−→ B a2(n) = a · κ −<br />
führt mit zu dem oben diskutierten Fall (Bsp.1: N = 2), wenn B(0) = 0 und A(0)=2.<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
R3<br />
R1<br />
R2<br />
8 1 1<br />
8 1 1<br />
0<br />
0 1 2 3<br />
Zeit<br />
4 5 6<br />
Abbildung 4: Für jeden Zeitpunkt wurden 1000 Simulationen durchgeführt, der Anteil der Simulationen,<br />
die in Endpunkt 0, 1 oder 2 geendet sind ermittelt und zu der analytischen Lösung aus Bsp.1 geplottet.<br />
12<br />
P 0 (t)<br />
P 1 (t)<br />
P 2 (t)