Grundlagen Stochastischer Prozesse in Biophysikalischen Systemen

www2.mpi.magdeburg.mpg.de

Grundlagen Stochastischer Prozesse in Biophysikalischen Systemen

Contents4.3. Zeitkontinuierlicher Random Walk (1d) . . . . . . . . . . . . . . . . . . . . 454.3.1. Die wahrscheinlichkeitserzeugende Funktion . . . . . . . . . . . . . 464.3.2. Mittelwert und Varianz . . . . . . . . . . . . . . . . . . . . . . . . 474.3.3. Zeitabhängige Lösung der Mastergleichung . . . . . . . . . . . . . . 484.3.4. Übergang zur räumlich kontinuierlichen Beschreibung . . . . . . . 494.4. Chemische Reaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.4.1. Aufstellen der Mastergleichung . . . . . . . . . . . . . . . . . . . . 504.4.2. Parametrisierung durch Ausgangszustand und Sprungweite . . . . 524.4.3. Multivariate Mastergleichung . . . . . . . . . . . . . . . . . . . . . 524.5. Simulation der Mastergleichung: Gillespie Algorithmus . . . . . . . . . . . 544.5.1. Die Wahrscheinlichkeitsdichte p (τ, i|n k , t k ) . . . . . . . . . . . . . . 554.6. Kopplung von Transkription und Translation . . . . . . . . . . . . . . . . 584.6.1. Mastergleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 594.6.2. Quasi-stationäre Beschreibung der Proteinsynthese . . . . . . . . . 604.6.3. Eektive Mastergleichung für die Proteinsynthese . . . . . . . . . . 604.6.4. Übergang zur kontinuierlichen Beschreibung . . . . . . . . . . . . . 614.6.5. Stationäre Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . 625. Fokker-Planck Gleichungen 655.1. Die Kramers-Moyal Entwicklung . . . . . . . . . . . . . . . . . . . . . . . 655.1.1. Zeitliche Entwicklung von Erwartungswerten . . . . . . . . . . . . 675.1.2. Gleichungen für Mittelwert und Varianz . . . . . . . . . . . . . . . 685.2. Der Wiener Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 685.2.1. Unabhängige Zuwächse . . . . . . . . . . . . . . . . . . . . . . . . . 695.2.2. Autokorrelationsfunktion . . . . . . . . . . . . . . . . . . . . . . . 705.3. Der Ornstein-Uhlenbeck Prozess . . . . . . . . . . . . . . . . . . . . . . . . 735.3.1. Zeitabhängige Lösung der Fokker-Planck Gleichung . . . . . . . . . 735.3.2. Stationäre Autokorrelationsfunktion . . . . . . . . . . . . . . . . . 755.4. Die van Kampen Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . 765.4.1. Entwicklung der Mastergleichung nach der inversen Systemgröÿe . 775.4.2. Vergleich mit Kramers-Moyal Fokker-Planck Gleichung . . . . . . 825.4.3. Diskussion der van Kampen Entwicklung . . . . . . . . . . . . . . . 835.4.4. Mastergleichungen vom Diusionstyp . . . . . . . . . . . . . . . . . 845.5. Von der Mastergleichung zur Fokker-Planck Gleichung . . . . . . . . . . . 875.5.1. Stationäre Lösung der Mastergleichung . . . . . . . . . . . . . . . . 885.5.2. Kramers-Moyal Entwicklung . . . . . . . . . . . . . . . . . . . . . . 895.5.3. Van Kampen Entwicklung . . . . . . . . . . . . . . . . . . . . . . . 905.5.4. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . 925.6. van Kampen-Entwicklung für Reaktionsnetzwerke . . . . . . . . . . . . . . 935.6.1. Teilchenzahluktuationen . . . . . . . . . . . . . . . . . . . . . . . 955.6.2. Berechnung stochastischer Kenngröÿen . . . . . . . . . . . . . . . . 955.6.3. Beispiel: Ligand-Rezeptorbindung . . . . . . . . . . . . . . . . . . 964


Contents6. Stochastische Dierentialgleichungen 1016.1. Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1016.1.1. Die Langevin Methode . . . . . . . . . . . . . . . . . . . . . . . . . 1016.1.2. Allgemeine Problemstellung . . . . . . . . . . . . . . . . . . . . . . 1046.1.3. Weiÿes Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1056.2. Stochastischer Integralbegri . . . . . . . . . . . . . . . . . . . . . . . . . 1076.2.1. Denition des stochastischen Integrals . . . . . . . . . . . . . . . . 1076.2.2. Das Ito Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1086.2.3. Eigenschaften des Ito Integrals . . . . . . . . . . . . . . . . . . . . 1096.2.4. Das Stratonowich Integral . . . . . . . . . . . . . . . . . . . . . . . 1116.2.5. Zugeordnete Fokker-Planck Gleichung . . . . . . . . . . . . . . . . 1116.2.6. Alternative Schreibweisen . . . . . . . . . . . . . . . . . . . . . . . 1146.3. Das Rayleigh Teilchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1146.3.1. Berechnung der Autokorrelationsfunktion . . . . . . . . . . . . . . 1156.3.2. Stationärer Prozess und Fluktuations-Dissipationstheorem . . . . . 1166.3.3. Beschreibung durch Fokker-Planck Gleichung . . . . . . . . . . . . 1176.4. Multivariate Stochastische Dierentialgleichungen . . . . . . . . . . . . . . 1176.4.1. Korreliertes bzw. Farbiges Rauschen . . . . . . . . . . . . . . . . 1186.4.2. Farbiges Rauschen und Nicht-Markov'sche Dynamik . . . . . . . . 118A. Elemente der Wahrscheinlichkeitstheorie 121A.1. Objektivierung von Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . 121A.2. Bedingte Wahrscheinlichkeit, Unabhängigkeit und Bayesche Formel . . . . 124A.3. Kontinuierliche Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . 126A.4. Erwartungswerte und Charakteristische Funktion . . . . . . . . . . . . . . 128A.5. Wichtige Verteilungen und deren charakteristische Funktion . . . . . . . . 130A.5.1. Poisson-Verteilung und Poisson'scher Grenzwertsatz . . . . . . . . 130A.5.2. Wartezeiten und exponentiell verteilte Zufallsgröÿen . . . . . . . . 132A.5.3. Gauÿ-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133A.6. Transformation von Zufallsgröÿen . . . . . . . . . . . . . . . . . . . . . . . 134A.7. Mehrdimensionale Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 136A.7.1. Momente, charakteristische Funktion und (Ko-)Varianzen . . . . . 137A.7.2. Mehrdimensionale Gauÿ-Verteilung . . . . . . . . . . . . . . . . . . 139A.8. Gesetz der groÿen Zahlen und Zentraler Grenzwertsatz . . . . . . . . . . . 1405


LiteraturVorwortDieses Vorlesungsskript ist im Rahmen einer 2-SWS umfassenden Vorlesung für Physiker,Mathematiker, Biosystemwissenschaftler und Kybernetiker an der Otto-von-GuerickeUniversität Magdeburg entstanden. Die Vorlesung ist als Einführung in die Theorie stochastischerProzesse gedacht. Zur Vorbereitung habe ich die in Abschnitt genanntenStandardbücher, Originalartikel (werden im laufenden Text zitiert) sowie zwei weitereim Internet zugängliche Vorlesungsskripte benutzt. Der laufende Text enthält viele explizitdurch gerechnete Beispiele, die man typischerweise als Übungsaufgabe stellen würde.Als biologisches Standardbeispiel zur Anwendung der im Text vorgestellten Methodendient der kombinierte Prozess bestehend aus mRNA Transkription und Proteintranslation,der in den vergangenen Jahren zu einem tieferen Verständnis der in lebendenZellen beobachteten Proteinverteilungen geführt hat. Im Anhang ndet man eine kurzeEinführung in den Umgang mit stochastischen Variablen und Verteilungen.Literatur: Wahrscheinlichkeitstheorie1. William Feller, An introduction to probability theory and its applications 1 & 2,Wiley 1968 & 1991Literatur: Stochastische Prozesse1. C. W. Gardiner, Handbook of Stochastic Methods, Springer 20032. N. van Kampen, Stochastic Processes in Physics and Chemistry, North Holland,20043. J. Schnakenberg, RWTH Aachen, Vorlesungsskript Stochastische Prozesse, downloadunter http://tpd.physik.rwth-aachen.de/vorlesung/STP97/Skript/skript.ps.gz4. A. Pikovski, Universität Potsdam, Vorlesungsskript Stochastische Prozesse undStatistische Methoden, download unterhttp://www.stat.physik.uni-potsdam.de/~pikovsky/teaching/stochproz/lec.ps7


1. Einleitung1.1. MotivationDie klassische Gleichgewichts-Thermodynamik ist eine Theorie der Mittelwerte (zumindestsolange die betrachteten Systeme weit weg von Phasenübergängen sind), d.h. dermakroskopische Zustand eines Systems (z. B. der eines Gases oder einer Flüssigkeit) lässtsich durch eine, im Allgemeinen, geringe Anzahl makroskopischer Parameter wie Druck,Temperatur, Energie, Teilchenzahl usw. beschreiben. Relative Abweichungen vom Mittelwertdieser Gröÿen sind typischerweise von der Gröÿenordnung ∆N/ 〈N〉 ∼ 1/ √ 〈N〉, d.h.für makroskopische Systeme mit 〈N〉 ≈ 6·10 23 (1 Mol) Teilchen sind diese Fluktuationenvon der Gröÿenordnung 10 −12 , also mikroskopisch klein. Diese Tatsache rechtfertigt dieBeschreibung makroskopischer Systeme auf der Basis von Mittelwerten.Warum stochastische Modellierung?Die soeben angeführte Abschätzung zeigt aber auch, daÿ in Systemen mit wenigerals 100 Teilchen die relativen Fluktuationen signikant werden können (>10%), wassich, zum Beispiel, beim Elektronenrauschen in einer Kathodenstrahlröhre beobachtenlässt. Durch Anlegen einer niedrigen Spannung kann man erreichen, daÿ im Mittel proZeiteinheit immer nur ein Elektron aus der Kathode austritt. Dann beobachtet man,dass die Wartezeit zwischen zwei aufeinanderfolgenden Elektronen nicht konstant ist,sondern zufälligen Schwankungen unterliegt, die sich in messbaren Stromschwankungenan der Anode bemerkbar machen. Für die relativen Stromschwankungen ndet man∆I/ 〈I〉 ∼ 1/ √ 〈I〉, wobei 〈I〉 ∼ n e proportional zur Anzahl an geossenen Elektronenist. Insbesondere nimmt mit wachsender Betriebsspannung der Elektronenstrom zu unddie relativen Stromschwankungen ab.Ähnliche Verhältnisse ndet man in lebenden Zellen, in denen eine Vielzahl von Proteinen(hauptsächlich solche, die als Signalmoleküle dienen) in nur geringer Anzahl (∼ 100Moleküle) vorkommen. Die bei solch geringen Molekülzahlen beobachteten Fluktuationenin der Proteinanzahl von einer Zelle zur nächsten lassen sich allerdings nicht alleindurch das 1/ √ 〈N〉-Gesetz erklären, denn die Proteinsynthese ist ein gekoppelter Prozessbestehend aus Gentranskription und anschlieÿender mRNA Translation. Wie wir spätersehen werden, führt die Kopplung zweier dem 1/ √ 〈N〉-Gesetz gehorchenden Prozesse imAllgemeinen nicht wieder zu einem solchen Prozess. Die in lebenden Zellen auftretendenFluktuationen in regulatorisch wirkenden Molekülen können weitreichende Folgen haben,wie ein kürzlich erschienener Artikel im Science Journal zeigt 1 .1 P. J. Choi, L. Cai, K. Frieda and X. Sunney Xie. A stochastic single-molecule event triggers phenotypeswitching of a bacterial cell. Science 322, 442 (2008).9


1. Einleitung1.2.3. Lösung der MastergleichungZur Lösung von Gl. (1.3) brauchen wir eine Anfangsbedingung. Dazu wollen wir annehmen,dass zur Zeit t = 0 noch kein Ereignis eingetreten war, alsoDiese Bedingungen lassen sich kompakt in der Form{1 ,P (n, t = 0) = δ n0 :=0 ,P (0, t = 0) = 1 (1.4)P (n, t = 0) = 0, n ≥ 1. (1.5)n = 0n ≥ 1(1.6)zusammenfassen.Auÿerdem müssen wir beachten, dass Gl. (1.3) zunächst nur für n ≥ 1 sinnvoll ist, dazur Berechnung von P (0, t) (d.h. für n = 0) die Wahrscheinlichkeit P (−1, t) bekannt seinmuss. Da negative Werte von n als Zählvariable von Ereignissen keinen Sinn machen,xieren wir P (−1, t) durch die ForderungP (−1, t) ≡ 0. (1.7)Damit wird Gl. (1.3) zu einem System gekoppelter DierentialgleichungendP (0, t)= −k R P (0, t)dt(1.8)dP (n, t)= k R [P (n − 1, t) − P (n, t)] ,dtn ≥ 1, (1.9)das sich iterativ, unter Verwendung der Anfangsbedingungen (1.4) und (1.5), lösen lässt.Für P (0, t) erhalten wir einfachP (0, t) = e −k Rt , t ≥ 0 ,d.h. die Wahrscheinlichkeit, in dem Zustand n = 0 zu bleiben, wird exponentiell klein imLaufe der Zeit. Für P (1, t) erhalten wir damit die GleichungdP (1, t)]= k R[e −kRt − P (1, t) , P (1, t = 0) = 0 ,dtderen Lösung durchP (1, t) = (k R t) e −kRt , t ≥ 0gegeben ist. Durch iteratives Lösen von Gl. (1.9) nden wir sukzessiveP (2, t) = (k Rt) 2.2e −k RtP (n, t) = (k Rt) ne −kRt , n ∈ N, t ≥ 0, (1.10)n!d.h. die Wahrscheinlichkeit, dass bis zur Zeit t genau n Ergeignisse eingetreten sind, istdurch die Poisson Verteilung (1.10) gegeben.12


1.2.4. Die wahrscheinlichkeitserzeugende Funktion1.2. Der Poisson ProzessStatt, wie im letzten Abschnitt, P (n, t) für jedes n mühsam einzeln auszurechnen, wollenwir jetzt eine elegante Methode kennen lernen, mit deren Hilfe, alle n auf einmalberücksichtigt werden können. Dazu denieren wir die sogenannte wahrscheinlichkeitserzeugendeFunktion durch∞∑F (z, t) = P (n, t)z n . (1.11)n=0Die Idee besteht darin, aus der Masterleichung (1.3) eine Gleichung für F (z, t) herzuleiten,diese zu lösen und die gesuchten Wahrscheinlichkeiten aus der Taylorreihe vonF (z, t) bezüglich z abzulesen.Um eine Gleichung für F (z, t) herzuleiten, multiplizieren wir beide Seiten in Gleichung(1.3) mit z n und summieren anschlieÿend über alle zulässigen Werte der stochastischenVariable n (also n = 0, 1, . . . , ∞). Dann erhalten wir[∞∑∞]ddt P (n, t) ∑∞∑zn = k R P (n − 1, t) z n − P (n, t) z n . (1.12)n=0n=0Auf der linken Seite können wir die Zeitableitung mit der Summation vertauschen, dawir davon ausgehen, dass die Darstellung für F (z, t) in Gl. (1.11) (absolut) konvergentist. Unter Beachtung, dass der zweite Term in Gl. (1.12) bereits mit der Potenzreihendarstellungfür F (z, t) übereinstimmt, wird aus Gl. (1.12) zunächst∂∂t F (z, t) = k Rn=0[∑ ∞]P (n − 1, t) z n − F (z, t) .n=0Bleibt uns noch den ersten Term so umzuschreiben, dass die wahrscheinlichkeitserzeugendeFunktion ins Spiel kommt. Das machen wir so∞∑∞∑∞∑P (n − 1, t)z n = z P (n − 1, t)z n−1 = z P (m, t)z mn=0= zn=0∞∑P (m, t)z mm=0= zF (z, t).m=−1Beim Übergang von Zeile 1 zu Zeile 2 haben wir ausgenutzt, dass P (−1, t) ≡ 0 (Gl. 1.7).Damit erhalten wir insgesamt für die in Gleichung (1.11) denierte Funktion F (z, t)die (partielle) Dierentialgleichung∂∂t F (z, t) = k R (z − 1) F (z, t). (1.13)Zur Lösung dieser Gleichung brauchen wir noch eine Anfangsbedingung, die wir aus derAnfangsbedingung P (n, t = 0) = δ n0 (Gl. 1.6) und Gl. (1.11) erhalten∞∑∞∑F (z, 0) = P (n, 0)z n = δ n0 z n = 1. (1.14)n=0n=013


1. Einleitung(A)mRNA(B)mRNA0.40.40.30.30.20.20.10.10.00 10 20 30 40 50 600.00 5 10 15 20 25 30Abbildung 1.1.: Der Poisson Prozess: (A) Teilchen (z.B. mRNAs) werden mit konstanterRate erzeugt. (B) Teilchen werden sowohl auf- als auch abgebaut.Die entsprechenden Wahrscheinlichkeitsdichten sind durch Gl. (1.16) (A)bzw. Gl. (1.25) (B) gegeben. Die gepunkteten Linien geben den zeitlichenVerlauf des Mittelwertes 〈n〉 an. In (A) wächst der Mittelwert imLaufe der Zeit an. In (B) erreicht er nach der Zeit t ≫ 1/γ R = 10s seinenstationären Wert 〈n〉 s= k R /γ R = 20. Die sich nach 50s einstellendeDichte entspricht etwa der in Gl. (1.26) denierten stationären Dichte.Die Lösung von Gl. (1.13) ist dann durchF (z, t) = exp (k R t [z − 1]) (1.15)gegeben. Taylor-Entwicklung von F (z, t) bezüglich z liefertF (z, t) = e −k Rt e k Rtz = e −k Rt∞∑ (k R t) nz n !=n!n=0∞∑P (n, t) z n ,d.h. die Wahrscheinlichkeit, dass bis zur Zeit t genau n Ereignisse eingetreten sind istdurch die Poisson Verteilungn=0P (n, t) = (k Rt) ne −kRt , n = 0, 1, 2, . . . (1.16)n!gegeben (siehe Abb. 1.1A), in Übereinstimmung mit Gl. (1.10).1.2.5. Mittelwert und VarianzAllgemeine Denitionen:Wichtige Kenngröÿen einer Verteilung sind ihr Mittelwert〈N(t)〉 =∞∑nP (n, t)n=014


1.2. Der Poisson Prozessund ihre Varianz (deniert als mittlere quadratische Abweichung vom Mittelwert)var [N (t)] ≡ σN 2 (t) : =〈(N(t) − 〈N(t)〉) 2〉〈= N(t) 2 − 2N(t) 〈N(t)〉 + 〈N(t)〉 2〉 .= 〈 N(t) 2〉 − 2 〈N(t)〉 2 + 〈N(t)〉 2= 〈 N(t) 2〉 − 〈N(t)〉 2 .Die Wurzel aus der Varianz bezeichnet man als Standardabweichung σ N := √ var(N).Sie ist ein Maÿ für die Schwankungsbreite der Verteilung und beschreibt Fluktuationenum den Mittelwert.Mittelwert und Varianz des Poisson ProzessesVerwendung von Gl. (1.16)∞∑〈N (t)〉 = nP (n, t)n=0∞∑= n (k Rt) ne −k Rtn!n=1∞∑ (k R t) n−1= (k R t)(n − 1)! e−kRt , m := n − 1= (k R t)n=1∞∑ (k R t) me −kRt = k R t.m!m=0Für den Mittelwert nden wir unterAnstatt das 2. Moment direkt zu berechnen, ist es einfacher die Kombination〈N 2 (t) 〉 ∞∑− 〈N (t)〉 = n (n − 1) P (n, t)=n=0∞∑n (n − 1) (k Rt) nn!n=2= (k R t) 2 ∞ ∑n=2e −k Rt(k R t) n−2(n − 2)! e−k Rt , m := n − 2∑∞= (k R t) 2 (k R t) me −kRt = (k R t) 2m!m=0zu berechnen, d.h. für einen Poisson Prozess ist die Varianzgleich dem Mittelwert.σ 2 N (t) = 〈 N 2 (t) 〉 − 〈N (t)〉} {{ }= 〈N (t)〉 ≡ k R t+ 〈N (t)〉} {{ }(k R t) 2 k R t− 〈N (t)〉 2} {{ }(k R t) 215


1. EinleitungBerechnung von Mittelwert und Varianz mittels F (z, t): Für kompliziertere Verteilungenist es einfacher zur Berechnung von Mittelwert und Varianz die wahrscheinlichkeitserzeugendeFunktion zu benutzen. Dazu dierenzieren wir F (z) nach z an der Stellez = 1:∂∞∑∞∑∂z F (z, t) | z=1 = nz n−1 P (n, t) | z=1 = nP (n, t) = 〈N(t)〉. (1.17)n=0Analog erhält man durch zweimaliges Dierenzieren an der Stelle z = 1n=0also∂ 2∂z 2 F (z, t) | z=1 =∞∑n(n − 1)z n−2 P (n, t) | z=1 = 〈 N 2 (t) 〉 − 〈N (t)〉 , (1.18)n=0σN 2 (t) = ∂2∂z 2 F (z, t) | z=1 + ∂ ( ∂ 2∂z F (z, t) | z=1 −z=1)∂z F (z, t) |= ∂2∂z 2 F (z, t) | z=1 + 〈N (t)〉 − 〈N (t)〉 2Anwendung auf den Poisson Prozess: Für den Poisson Prozess mit (siehe Gl. 1.15)F (z, t) = exp [k R t (z − 1)]erhalten wir unter Verwendung von Gln. (1.17) und (1.18) für den Mittelwertund für die VarianzBemerkungen:〈N(t)〉 = ∂ ∂z exp (k Rt (z − 1)) | z=1 = k R t (1.19)σ 2 N (t) = ∂2∂z 2 exp (k Rt (z − 1)) | z=1 + k R t − (k R t) 2= (k R t) 2 + k R t − (k R t) 2 = k R t.1. Genau wie in der deterministischen Beschreibung (1.1) wächst der Mittelwert dererzeugten Teilchen linear in der Zeit. Darüberhinaus liefert die stochastische Beschreibungeine Aussage über die im System auftretenden Fluktuationen. Diesesind durch σ N (t) = √ var [N (t)] = √ k R t gegeben. Wir erwarten also, dassdie tatsächlich gemessene Anzahl an erzeugten Teilchen zur Zeit t im Bereich(k R t − √ k R t, k R t + √ k R t) liegt.2. Die durchCV ≡ σ √N(t)〈N(t)〉 = kR t= √ 1k R t kR tdenierten relativen Fluktuationen bezeichnet man als coecient of variation.16


1.3. Gentranskription als Poisson Prozess ∗3. Die Eigenschaft 〈N(t)〉 = σN 2 (t) ist eine Besonderheit des Poisson Prozesses. Insbesonderekennzeichnet der Fano FaktorF = σ2 X (t)〈X(t)〉 ≠ 1für beliebige Prozesse p(X, t) eine Abweichung vom Poisson'schen Verhalten.1.3. Gentranskription als Poisson Prozess ∗Die Anzahl der zur Zeit t in einer Zelle vorhandenen mRNA Moleküle wird im Wesentlichendurch zwei Prozesse beeinusst: (i) die Rate k R , mit der mRNA Moleküle durchAblesen des entsprechenden Gens synthetisiert werden. (ii) die Rate ∼ γ R , mit der siedurch andere Proteine wieder abgebaut werden (siehe Abb. 1.1B).1.3.1. Deterministische ModellierungIn deterministischer Beschreibung wird die zeitabhängige mRNA Konzentration durchdie gewöhnliche DGLddt [mRNA] = k R − γ R [mRNA] , [mRNA] (0) = 0beschrieben, wobei wir angenommen haben, dass zur Zeit t = 0 noch kein Molekülvorhanden ist. Die Lösung dieser Gleichung ist einfach[mRNA] (t) = k Rγ R(1 − e−γ R t ) , (1.20)d.h. nach hinreichend langer Wartezeit (t ≫ 1/γ R ) erreicht die mRNA Konzentrationihren durch[mRNA] s= k Rγ R(1.21)denierten stationären Wert.1.3.2. Stochastische ModellierungFalls die Anzahl an mRNAs pro Zelle sehr gering ist, erwarten wir, durch zufällige AufundAbbauprozesse bedingte, Abweichungen von der in Gl. (1.21) denierten mittlerenmRNA Konzentration.Zur Aufstellung der zu Gl. (1.3) analogen Mastergleichung bilanzieren wir wieder dieWahrscheinlichkeiten für die entsprechenden Elementarprozesse:1. Wahrscheinlichkeit für die Synthese einer mRNA in ∆t: k R ∆t2. Wahrscheinlichkeit für den Abbau einer mRNA in ∆t: γ R n∆t17


1. Einleitungwobei n die Anzahl der mRNA Moleküle zur Zeit t ist. Dann lässt sich für die Wahrscheinlichkeit,dass zur Zeit t + ∆t genau n mRNA Moleküle vorhanden sind, wieder eineBilanzgleichung aufstellen (siehe Gl. 1.2), die durchP (n, t + ∆t) = (k R ∆t) P (n − 1, t) + γ R ∆t (n + 1) P (n + 1, t)+ (1 − k R ∆t) (1 − γ R n∆t) P (n, t)gegeben ist. Nach Umstellen und Vernachlässigung der in ∆t quadratischen Terme wirddaraus im Grenzwert ∆t → 0 die Mastergleichungddt P (n, t) = k R [P (n − 1, t) − P (n, t)] + γ R [(n + 1) P (n + 1, t) − nP (n, t)] ,die wir unter der Anfangsbedingung P (n, 0) = δ n0 lösen wollen.1.3.3. Gleichung für die wahrscheinlichkeitserzeugende FunktionDiese Gleichung lässt sich wieder mit Hilfe der wahrscheinlichkeitserzeugenden FunktionF (z, t) = ∑ ∞n=0 p n(t)z n lösen. Für F (z, t) erhalten wir, unter Berücksichtigung von∞∑(n + 1) z n p n+1 = ∂ ∞∑z n+1 p n+1 = ∂ ∞∑z m p m∂z∂zn=0die partielle Dierentialgleichungn=0m=1= ∂ ∂z (F (z, t) − p 0(t)) = ∂ F (z, t)∂z∂∂t F (z, t) = k R (z − 1) F (z, t) + γ R (1 − z) ∂ F (z, t), (1.22)∂zderen Lösung (mit der Anfangsbedingung F (z, 0) = 1) durchF (z, t) = exp [〈n (t)〉 (1 − z)] (1.23)gegeben ist. Die in Gl. (1.23) auftrende, zeitabhängige Funktion〈n (t)〉 = k Rγ R(1 − e−γ R t ) (1.24)ist mit dem in Gl. (1.20), auf der Basis der deterministischen Beschreibung, gefundenenAusdruck für die mRNA Konzentration identisch ist.Bemerkungen:1. Im Limes γ R → 0 geht die wahrscheinlichkeitserzeugende Funktion (1.23)[ ]lim F (z, t) = lim exp kR(z − 1) (1 − exp (−γ R t))γ R →0 γ R →0 γ R[= lim exp kR(z − 1) ( 1 − [ 1 − γ R t + O ( γ 2 )]) ]Rγ R →0 γ R= exp [k R t (z − 1)]in die des Poisson-Prozesses (1.15) über.18


1.3. Gentranskription als Poisson Prozess ∗2. Wir werden weiter unten sehen, dass der Ausdruck in Gl. (1.24) in der Tat diemittlere mRNA Konzentration angibt.1.3.4. Zeitabhängige WahrscheinlichkeitsdichteDurch Entwicklung von F (z, t) (Gl. 1.23) in eine Tayloreihe bezüglich z sehen wir, dassdieses einfache Modell der Gentranskription ebenfalls durch einen Poisson-Prozess beschriebenwird, dennF (z, t) = exp [〈n (t)〉 (z − 1)]∞∑ [〈n (t)〉] n= exp [− 〈n (t)〉]z n ,n!d.h. die Wahrscheinlichkeit, dass nach der Zeit t genau n mRNA Moleküle produziertworden sind, ist durch die Poisson Verteilung (siehe Abb. 1.1B)P (n, t) = exp [− 〈n (t)〉]n=0[〈n (t)〉]n, n = 0, 1, 2, . . . (1.25)n!gegeben, wobei Mittelwert und Varianz, in der Tat, mit der in Gl. (1.20) deniertenmittleren mRNA Konzentration〈n (t)〉 ≡ k Rγ R(1 − e−γ R t ) = σ 2 n (t)übereinstimmen. Insbesondere stellt sich nach hinreichend langer Wartezeit (t ≫ 1/γ R )eine stationäre Poisson-Verteilung ein (Abb. 1.1 B, blaue Kurve)P s (n) = exp [− 〈n〉 s] [〈n〉 s ]n, n = 0, 1, 2, . . . (1.26)n!die nur durch das Verhältnis 〈n〉 s= k R /γ R von Auf- und Abbaurate bestimmt ist undmit der in Gl. (1.21) denierten stationären mRNA Konzentration übereinstimmt.19


2. Stochastische Prozesse2.1. EinleitungEin stochastischer Prozess kann als Funktion von zwei Variablen aufgefasst werdenY X (t) = f(X, t),t ∈ Rwobei t ein reeller Parameter (oft die Zeit) und X eine Zufallsgröÿe mit Dichte p X (x)ist. Setzt man für X zu jeder Zeit einen seiner möglichen Werte x ein, so erhält man eineRealisierung Y x (t) = f(x, t) des Prozesses. Anschaulich stellt man sich vor, dass der Werteiner (physikalischen) Gröÿe bei einer Messung zufälligen Schwankungen unterliegt, diedurch unkontrollierte Wechselwirkung mit der Umgebung hervorgerufen werden. Kenntman eine möglichst groÿe Anzahl solcher Realisierungen, die unter identischen Bedingungengewonnen wurden, so spricht man von einem Ensemble. Für stationäre Prozessestellt sich die Frage, unter welchen Umständen man Mittelwerte über die Realisierungeneines Ensembles durch den zeitlichen Mittelwert einer einzelnen, hinreichend langenRealisierung ersetzen darf, was auf den Begri der Ergodizität führt.BeispielBeim Poisson-Prozessp n (t) = (λt)n e −λt , n ≥ 0, t ∈ Rn!ist die zufällige Gröÿe X ≡ n diskret. Zu jedem festen Zeitpunkt t = t 0 gilt:1.p n (t 0 ) ≡ p n = ¯λ ne−¯λ, ¯λ = λt0n!ist eine Wahrscheinlichkeitsverteilung der Zufallsgröÿe n ∈ N.2. Auÿerdem ist p n zu jedem Zeitpunkt normiert∞∑∞∑ ¯λp n = e −¯λnn! = 1.n=0Kennt man die Wahrscheinlichkeitsdichte p X (x) sind der (zeitabhängige) Mittelwert unddie Zweipunktkorrelationsfunktion durch∫〈Y (t)〉 = dx Y x (t) p X (x)∫〈Y (t 1 ) Y (t 2 )〉 = dx Y x (t 1 ) Y x (t 1 ) p X (x) .n=021


2. Stochastische Prozessegegeben. Analog deniert man Momente höherer Ordnung. Von zentraler Bedeutung istdie durchκ(t 1 , t 2 ) ≡ 〈(Y (t 1 ) − 〈Y (t 1 )〉) (Y (t 2 ) − 〈Y (t 2 )〉)〉= 〈Y (t 1 ) Y (t 2 )〉 − 〈Y (t 1 )〉 〈Y (t 2 )〉denierte Autokorrelationsfunktion. Sie beschreibt, wie stark Schwankungen um den Mittelwertzu verschiedenen Zeitpunkten miteinander korreliert sind.BeispielSei Y X (t) durch Y X (t) = cos (ωt + X) gegeben, wobei X ein in [0, 2π] gleichverteilterPhasenwinkel ist. Dieser Prozess ist ein einfaches Modell zur Beschreibung einer monochromatischen,inkohärenten Lichtquelle. Wie lautet die zugehörige Autokorrelationsfunktion?Da der Mittelwert verschwindet, bekommen wir mit p X = 1/2π einfachκ(t 1 , t 2 ) = 〈Y X (t 1 )Y X (t 2 )〉= 12π∫ 2π0= 1 2 cos [ω (t 1 − t 2 )] .dx cos (ωt 1 + x) cos (ωt 2 + x)Die Varianz dieses Prozesses ist zeitunabhängig σ 2 (t) = κ(t, t) = 1/2, da die Autokorrelationsfunktionnur von der Zeitdierenz abhängt.2.2. Beschreibung durch VerbundwahrscheinlichkeitenFúr viele Zwecke ist praktischer, eine handlichere Beschreibung stochastischer Prozessezu benutzen. Will man, zum Beispiel, wissen wie groÿ die Wahrscheinlichkeit ist, dassY X (t) zur Zeit t 1 den Wert y 1 annimmt, dann ist diese Einzelwahrscheinlichkeit durchden Ausdruck∫p 1 (y 1 , t 1 ) = dx δ [y 1 − Y x (t 1 )] p X (x)gegeben. Formal erhält man diesen Ausdruck aus der Formel zur Transformation vonWahrscheinlichkeitsdichten (siehe Abschnitt A.6).Analog erhält man die Verbundwahrscheinlichkeit, dass Y X (t) zur Zeit t 1 den Wert y 1und zur Zeit t 2 den Wert y 2 und zur Zeit t n den Wert y n hat, durch∫p n (y 1 , t 1 ; y 2 , t 2 ; . . . ; y n , t n ) =dx δ [y 1 − Y x (t 1 )] · · · δ [y n − Y x (t n )] p X (x).Anschaulich ist klar, dass der stochastische Prozess Y X (t) vollständig durch die Gesamtheitsolcher Verbundwahrscheinlichkeiten charakterisiert ist.22


2.2. Beschreibung durch VerbundwahrscheinlichkeitenBeispielSei Y X (t) wieder durch Y X (t) = cos (ωt + X) gegeben, wobei X ein in [0, 2π] gleichverteilterPhasenwinkel ist. Dann gilt für die Einzelwahrscheinlichkeit∫p 1 (y 1 , t 1 ) =dx δ [y 1 − Y x (t 1 )] p X (x)Zur Auswertung dieser Gleichung benutzen wir die Formeln= 1 ∫ 2πdx δ [y 1 − cos (ωt 1 + x)] . (2.1)2π 0∫ baδ [x − f (ϕ)] = ∑ i{dx δ (x − c) f (x) =δ (ϕ − ϕ i )|f ′ (ϕ i )|f (c) ,0 ,c ∈ (a, b)sonst(2.2)wobei die Summation in Gl. (2.2) über alle Lösungen der Gleichung x = f(ϕ) zu erstreckenist. Die Nullstellen des Arguments der δ-Funktion in Gl. (2.1) sind durch{y 1 = cos (ωt 1 + x) ↔x + ωt 1 = arccos y 1 ,x + ωt 1 = 2π − arccos y 1 ,0 < x + ωt 1 ≤ ππ < x + ωt 1 ≤ 2πgegeben. Damit erhalten wir für p 1 (y 1 , t 1 )p 1 (y 1 , t 1 ) = 1 ∫ 2π2π= 12π= 12π= 12π= 1 π0∫ 2π0∫ 2πdx δ [y 1 − cos (ωt 1 + x)]dx[ δ (x + ωt1 − arccos y 1 )|y 1 ′ (x)| + δ (x + ωt ]1 − (2π − arccos y 1 ))|y 1 ′ (x)|dx [δ (x + ωt 1 − arccos y 1 ) + δ (x + ωt 1 − (2π − arccos y 1 ))]0|− sin (ωt 1 + x)|[]1|sin(arccos y 1 )| + 1|sin (2π − arccos y 1 )|1√ , y1 − y2 1 ∈ (−1, 1),1d.h. die Wahrscheinlichkeit, einen bestimmten Wert y 1 zu beobachten ist unabhängigvom genauen Zeitpunkt der Beobachtung. Das liegt in dem speziellen Fall daran, dassder zugrunde liegende Prozess stationär ist.23


2. Stochastische Prozesse2.2.1. KonsistenzbedingungenAndererseits kann man zeigen, dass beliebig vorgegebene Funktionen p n nur dann einenstochastischen Prozess denieren, wenn sie folgende 4 Konsistenzbedingungen erfüllen:1. p n ≥ 02. p n ist invariant bei Vertauschung beliebiger Paare (y i , t i ) und (y k , t k )∫3. p 1 (y 1 , t 1 ) dy 1 = 1∫4. p n (y 1 , t 1 ; y 2 , t 2 ; . . . ; y n , t n ) dy n = p n−1 (y 1 , t 1 ; y 2 , t 2 ; . . . ; y n−1 , t n−1 ) .(2.3)Während die Bedingungen 1. - 3. unmittelbar einsichtig sind, stellt die 4. Bedingungeine nichttriviale Bedingung dar: Denn da p n bezüglich aller Paare symmetrisch ist (2.Bedingung), bedeutet die 4. Bedingung in Gl. (2.3), dass bei der Integration über einebeliebige Zustandsvariable nicht nur p n−1 mit den entsprechenden verbleibenden Variablen(hier y 1 , . . . , y n−1 ) heraus kommen, sondern dass dabei auch das zu y n gehörendeZeitargument (hier t n ) verschwinden muss.Mittelwerte werden mit Hilfe der Verbundwahrscheinlichkeiten wiefolgt gebildet:∫〈Y (t 1 ) · · · Y (t n )〉 = dy 1 · . . . · dy n y 1 · · · y n p n (y 1 , t 1 ; . . . ; y n , t n ).Im Folgenden nehmen wir an, dass die t i geordnet sind, also t n > . . . > t 1 und schreibendie früheste Zeit ganz nach rechts, also p n (y n , t n ; . . . ; y 1 , t 1 ).2.2.2. Bedingte WahrscheinlichkeitenBedingte Wahrscheinlichkeiten werden durchp l|k (y k+l , t k+l ; . . . ; y k+1 , t k+1 |y k , t k ; . . . ; y 1 , t 1 )= p l+k (y k+l , t k+l ; . . . ; y k+1 , t k+1 ; y k , t k ; . . . ; y 1 , t 1 )p k (y k , t k ; . . . ; y 1 , t 1 )deniert. Insbesondere gilt für die Übergangswahrscheinlichkeitp 1|1 (y 2 , t 2 |y 1 , t 1 ) = p 2(y 2 , t 2 ; y 1 , t 1 ).p 1 (y 1 , t 1 )Sie gibt die Wahrscheinlichkeit dafür an, dass der Prozess Y X (t) den Wert y 2 zum Zeitpunktt 2 annimmt, wenn er zur Zeit t 1 den Wert y 1 hatte.Unter Verwendung der Konsistenzbedingung (2.3) zeigt man leicht, dass die Übergangswahrscheinlichkeitp 1|1 normiert ist∫p 1|1 (y 2 , t 2 |y 1 , t 1 )dy 2 = 1,24


2.3. Stationarität und Ergodizitätdenn∫dy 2 p 2 (y 2 , t 2 ; y 1 , t 1 ) (4.)= p 1 (y 1 , t 1 )∫=p 1 (y 1 , t 1 )dy 2 p 1|1 (y 2 , t 2 |y 1 , t 1 ) .Einfache Beispiele1. Die gesamte Hierarchie an Verbundwahrscheinlichkeiten zerfällt in ein Produkt vonEinzelwahrscheinlichkeitenp n (y n , t n ; . . . ; y 1 , t 1 ) = Π i p 1 (y i t i ),d.h. der Wert, der Zufallsgröÿe Y am Zeitpunkt t ist komplett unabhängig vonihrem Wert in der Vergangenheit und Zukunft.2. Die nächstschwächere Annahme, die man machen kann, ist, dass der Wert einerZufallsgröÿe Y X (t) zur Zeit t nur vom Wert am unmittelbar davor gelegenen Zeitpunktabhängt. Diese Idee führt auf die Klasse der Markov Prozesse, der wir unsim nächsten Kapitel zuwenden werden.2.3. Stationarität und ErgodizitätEin Prozess heiÿt stationär, wenn alle seine Momente〈Y (t 1 ) · · · Y (t n )〉 = 〈Y (t 1 + τ) · · · Y (t n + τ)〉für beliebige t 1 , . . . , t n invariant unter Zeittranslationen sind. Auf der Ebene der Verbundwahrscheinlichkeitenübersetzt sich diese Forderung inp n (y n , t n ; . . . ; y 1 , t 1 ) = p n (y n , t n + τ n ; . . . ; y 1 , t 1 + τ 1 ),d.h. die p n hängen nur von Zeitdierenzen ab. Insbesondere sind alle gleichzeitigen Momente(wie Mittelwert und Varianz) zeitunabhängig. Für die Autokorrelationsfunktioneines stationären Prozesses giltBemerkungen:κ(t 1 , t 2 ) = κ(|t 1 − t 2 |) = κ(τ) = 〈Y (t + τ)Y (t)〉 − 〈Y 〉 2 .1. Die Varianz des Prozesses ist gerade σ 2 (Y ) = κ(0).2. Stochastische Prozesse heissen im weiteren Sinne stationär, wenn nur ihre erstenbeiden Momente zeitunabhängig sind. Diese Kriterium wird häug zur Abschätzungder Stationarität von experimentell gewonnenen Zeitserien benutzt, da sich höhereMomente oft nur sehr ungenau aus experimentellen Daten abschätzen lassen.25


2. Stochastische ProzesseEin stationärer stochastischer Prozess heiÿt ergodisch, wenn der zeitliche Mittelwert einerFunktion gleich dem Ensemblemittelwert bezüglich der stationären Dichte ist, d.h. wenn∫ ∞−∞∫1 T/2dy f(y)p s (y) ≡ 〈f(y)〉 = lim f(y(t))dt.T →∞ T −T/2Bemerkung:Man kann zeigen, dass für Ergodizität hinreichend ist, dass die durchdenierte Korrelationszeit endlich ist.τ c := 1κ(0)∫ ∞0dτ κ(τ)Beispiel:Sei κ(τ) = κ(0)e −kτ , dann folgtτ c =∫ ∞0dτ e −kτ = 1 k .2.4. Spektrale Leistungsdichte und Wiener-KhinchinTheorem2.4.1. Unendlich groÿe MessintervalleHier betrachten wir stochastische Prozesse auf dem Interval t ∈ (−∞, ∞) und fragennach den statistischen Eigenschaften des durch FouriertransformationY (t) =∫ ∞−∞dω C(ω)e iωt bzw. C(ω) = 1 ∫ ∞dt Y (t)e −iωt (2.4)2π −∞gebildeten stochastischen Prozesses c(ω). Im Folgenden nehmen wir an, dass der ProzessY (t) stationär ist und eine endliche Korrelationszeit τ c besitzt, d.h. Y (t) ist insbesondereergodisch. Auÿerdem nehmen wir (ohne Einschränkung der Allgemeinheit) an, dass derMittelwert 〈Y (t)〉 = 0 verschwindet. Dann hängt die Autokorrelationsfunktion κ(τ) nurvon der Zeitdierenz τ ab und kann sowohl durch Zeitmittelung als auch durch Ensemblemittelungberechnet werden∫1 T/2κ (τ) = 〈Y (t) Y (t + τ)〉 = lim dt Y (t) Y (t + τ) . (2.5)T →∞ T −T/226


2.4. Spektrale Leistungsdichte und Wiener-Khinchin TheoremDa c(ω) im Allgemeinen komplex-wertig ist, denieren wir die reelle Autokorrelationsfunktionder spektralen Komponenten durch〈c (ω) c∗ ( ω ′)〉 ∫1 ∞ ∫ ∞=(2π) 2 dt dt ′ 〈 (e −iωt+iω′ t ′ Y (t) Y t′ )〉t ′ =t+τ=12π−∞∫ ∞−∞= δ ( ω − ω ′) 12π−∞dt e −i(ω−ω′ )t 12π∫ ∞−∞∫ ∞−∞dτ e iω′τ 〈Y (t) Y (t + τ)〉dτ e iωτ κ (τ) , (2.6)wobei wir im letzten Schritt die Denition der Autokorrelationsfunktion in Gl. (2.5),sowie die Denition der δ-Funktionδ ( ω − ω ′) = 1 ∫ ∞dt e −i(ω−ω′ )t2πbenutzt haben.Der in Gl. (2.6) auftretende AusdruckS (ω) = 12π∫ ∞−∞−∞dτ e iωτ κ (τ)wird als spektrale Leistungsdichte bezeichnet. Sie lässt sich wegen κ(τ) = κ(−τ) auch inder FormS(ω) = 1 ∫ ∞dτ e iωτ κ (τ) τ→−τ = 1 ∫ −∞d (−τ) e iω(−τ) κ (−τ)2π −∞2π ∞= 1 ∫ ∞dτ e −iωτ κ (τ) = 1 ∫ ∞dτ cos (ωτ) κ (τ) .2π −∞ π 0schreiben, woraus ersichtlich wird, dass die spektrale Leistungsdichte und die Autokorrelationsfunktioneines stationären Prozesses über die Fouriertransformation miteinanderverknüpft sind, alsoS (ω) = 12πκ (τ) =∫ ∞−∞∫ ∞−∞dτ e −iωτ κ (τ) (2.7)dω e −iωτ S (ω)was als Wiener-Khinchin Theorem bezeichnet.BemerkungAus der Beziehung (siehe Gl. 2.6)〈c (ω) c∗ ( ω ′)〉 = δ ( ω − ω ′) S (ω)folgt, dass die spektrale Leistungsdichte gleich dem mittleren Betragsquadrat der demProzess zugeordneten Fourierkomponenten ist. Insbesondere folgt aus der Stationaritätdes Prozesses, dass spektrale Komponenten zu verschiedenen Frequenzen (ω ≠ ω ′ ) unkorreliertsind.27


2. Stochastische Prozesse2.4.2. Endliche MessintervalleStreng genommen, existieren die Fourierintegrale (2.4) nicht, da Y (t) nach Voraussetzungein stationärer Prozess ist, und daher insbesondere für t → ∞ nicht schnell genug gegenNull geht, um obige Integrale existieren zu lassen. Auÿerdem kann man im Experimentnur über einen endlichen Zeitraum Messungen durchführen.In diesem Fall beschränken wir die in Gl. (2.4) denierten Fourier Integrale zunächstauf das Interval [−T/2, T/2]Y T (t) =∫ T/2−T/2Wir wollen dann zeigen, dass die durchdω C T (ω) e iωt bzw. C T (ω) = 1 ∫ T/2dt Y T (t) e −iωt .2π −T/2S T (ω)S(ω) := limT →∞ Tmit S T (ω) = 2π 〈C T (ω) C ∗ T (ω)〉 (2.8)denierte spektrale Leistungsdichte mit dem in Gl. (2.7) gewonnenen Ausdruck identischist. Aus der Stationarität von Y T (t) und 〈Y T (t)〉 = 0 folgt zunächstS T (ω) = 1 ∫ T/22π= 12π−T/2∫ T/2−T/2∫ T/2dtdt−T/2∫ T/2−T/2dt ′ 〈 Y T (t) Y T(t′ )〉 e −iωt+iωt′dt ′ κ ( t − t ′) e −iω(t−t′) .Um diese Integrale zu berechnen, setzen wir τ = t−t ′ und beachten die dabei auftretendenÄnderungen des Integrationsgebietes, die auf∫ T/2 ∫ T/2 ∫ 0 ∫ T/2−|τ| ∫ T ∫ T/2dt dt ′ → dτ dt + dτ dt (2.9)−T/2 −T/2 −T −T/20 −T/2+τführen (siehe Abb. 2.1). Somit erhalten wirS T (ω) = 1 ∫ 0∫ T/2−|τ|dτκ (τ) e −iωτ dt + 12π2π= 12π= T 2π−T∫ 0−T∫ T−T−T/2dτκ (τ) (T − |τ|) e −iωτ + 12π(dτκ (τ) 1 − |τ| )e −iωτTund damit unter Verwendung von Gl. (2.8)S(ω) : = limT →∞∫ ∞= 12π12π−∞∫ T−T∫ T0∫ T0dτκ (τ) e −iωτ ∫ T/2−T/2+τdτκ (τ) (T − τ) e −iωτ(dτκ (τ) 1 − |τ| )e iωτTdτκ (τ) e iωτdt28


2.4. Spektrale Leistungsdichte und Wiener-Khinchin Theorem233201 441Abbildung 2.1.: Veranschaulichung der bei der Transformation τ = t − t ′ auftretendenÄnderung des Integrationsgebietes (siehe Gl. 2.9).was mit dem Ausdruck in Gl. (2.7) übereinstimmt, fallslimT →∞12πT∫ T−Tdτκ (τ) |τ| e iωτ = 0. (2.10)Bemerkungen:1. Die Bedingung in Gl. (2.10) gilt insbesondere für Autokorrelationsfunktionen derFormκ (τ) ∼ e −|τ|/τc , τ c > 0.2. Für jedes endliche T < ∞ ist das in Gl. (2.8) denierte Spektrum S T (ω) nachunten durch die Messzeit T und nach oben durch die Samplingrate ∆t der Messdatengemäÿ 2π/T < ω < 2π/∆t begrenzt.3. Falls der Mittelwert des Prozesses Y nicht verschwindet, giltd.h. das in Gl. (2.7) denierte Spektrum〈Y (t) Y (t + τ)〉 = κ (τ) + 〈Y 〉 2 ,S(ω) = ˜S(ω) + 〈Y 〉 2 δ(ω)enthält einen zusätzlichen Beitrag bei ω = 0.29


2. Stochastische Prozesse2.4.3. BeispieleWeiÿes RauschenWenn die Autokorrelationsfunktion von der Formκ(τ) = Cδ(τ)ist, erhält man für das Spektrum∫ ∞S(ω) = C 2π−∞dτ e iωτ δ(τ) = C 2πeine Konstante. Da in dem Spektrum alle Frequenzen mit gleicher Amplitude vertretensind, werden solche Prozesse als weiÿes Rauschen bezeichnet.Exponentielle RelaxationDie zugehörige Autokorrelationsfunktion hat die Gestaltκ(τ) = σ 2 Y e −k|τ| ,wobei k = 1/τ c umgekehrt proportional zur typischen Korrelationszeit des Systems undκ(0) = σY 2 gleich der Varianz des Prozesses ist. Unter Verwendung von Gl. (2.7) erhaltenwir für die spektrale LeistungsdichteS(ω) = σ2 Y2π= σ2 Y2π= σ2 Y2π= σ2 Yπ∫ ∞−∞(∫ ∞0dτ e iωτ e −k|τ|∫ 0dτ e (iω−k)τ +(− 1iω − k + 1iω + kkω 2 + k 2 ,−∞)dτ e (iω+k)τ )d.h. eine Lorentz-Verteilung, die sich in der dimensionslosen FormS(ω/k) =S(0)1 + (ω/k) 2 mit S(0) ≡ σ2 Yπk(2.11)darstellen lässt. Aus Gl. (2.11) erkennt man, dass S(ω) monoton fallend mit einem Maximumbei ω = 0 ist. Für ω ≫ k geht S (ω) wie 1/ω 2 gegen Null, sodass in einem log-logPlot der Graph der Funktion(log S(ω/k) = − log 1 + (ω/k) 2) + log (S (0))≈ −2 log (ω/k) + log (S (0))die Steigung −2 haben sollte (Abb. 2.2A). Auÿerdem lässt sich über den Beginn desasymptotischen Bereichs ω ≈ k die inverse Korrelationszeit abschätzen.30


2.4. Spektrale Leistungsdichte und Wiener-Khinchin TheoremBemerkung: Da beim Lorentzspektrum nicht mehr alle Frequenzen mit derselben Amplitudebeitragen, spricht man hier von farbigem Rauschen.Exponentiell gedämpfte OszillationenIn diesem Fall ist die Autokorrelationsfunktion durchκ(τ) = σ 2 Y e −k|τ| cos(ω 0 τ)gegeben, wobei 1/ω 0 eine durch die Systemdynamik bestimmte Zeitskala ist. Das zugehörigeSpektrum∫ ∞S(ω) = σ2 Ydτ e iωτ e −k|τ| cos(ω 0 τ)2π −∞∫ ∞= σ2 Ydτ[e i(ω+ω0)τ e −k|τ| + e i(ω−ω0)τ e −k|τ|]4π= σ2 Y4π+ σ2 Y4π= σ2 Y4π+ σ2 Y4π= σ2 Y2π−∞[∫ 0[∫ 0[dτ e [i(ω+ω0)+k]τ +−∞∫ ∞0∫ ∞dτ e [i(ω−ω0)+k]τ +−∞01i (ω + ω 0 ) + k − 1i (ω + ω 0 ) − k[]1i (ω − ω 0 ) + k − 1i (ω − ω 0 ) − k[kk 2 + (ω + ω 0 ) 2 +]dτ e [i(ω+ω 0)−k]τ]dτ e [i(ω−ω 0)−k]τ]]kk 2 + (ω − ω 0 ) 2lässt sich in der dimensionslosen FormS (ω/k) = S (0) 1 [1 + γ 22 1 + (ω/k + γ) 2 + 1 + γ 2 ]1 + (ω/k − γ) 2mitγ ≡ ω 0kundS (0) ≡ σ2 Y 1πk 1 + γ 2(2.12)schreiben. Für γ ≪ 1 geht das Spektrum in das der expontiell abfallenden Autokorrelationsfunktionüber (Gl. 2.11) während im Falle γ ≫ 1 ein ausgeprägtes Maximum in derNähe der durch das System vorgegebenen Frequenz ω ≈ ω 0 auftritt (Abb. 2.2B).31


2. Stochastische Prozesse(A)10.10.010.00110 - 40.01 0.1 1 10 100(B)1001010.10.010.00110 - 40.01 0.1 1 10 100Abbildung 2.2.: Vergleich der spektralen Leistungsdichten in Gl. (2.11) und (2.12).32


3. Markov ProzesseWir wollen im Folgenden annehmen, dass der Wert einer Zufallsgröÿe Y zur Zeit t nurvom Wert am unmittelbar davor gelegenen Zeitpunkt abhängt. Mit Hilfe bedingter Wahrscheinlichkeitenlässt sich das so formulieren: Für jede Menge aufeinanderfolgender Zeitpunktet 1 < t 2 < . . . < t n gilt:p 1|n−1 (y n , t n |y n−1 , t n−1 ; . . . ; y 1 , t 1 ) = p 1|1 (y n , t n |y n−1 , t n−1 ),d.h. alle bedingten Wahrscheinlichkeiten haben die Form von Übergangswahrscheinlichkeitenp 1|1 . Damit zerfällt die gesamte Hierarchie an Verteilungsfunktionen in Produktevon Übergangswahrscheinlichkeiten und die Einzelwahrscheinlichkeit p 1 (y 1 , t 1 ), z.B.p 3 (y 3 , t 3 ; y 2 , t 2 ; y 1 , t 1 ) = p 1|2 (y 3 , t 3 |y 2 , t 2 ; y 1 , t 1 ) · p 2 (y 2 , t 2 ; y 1 , t 1 )= p 1|1 (y 3 , t 3 |y 2 , t 2 ) · p 1|1 (y 2 , t 2 |y 1 , t 1 ) · p 1 (y 1 , t 1 ) . (3.1)Für beliebiges n erhält man dannp n (y n , t n ; . . . ; y 1 , t 1 ) = Π n i=2p 1|1 (y i , t i |y i−1 , t i−1 ) · p 1 (y 1 , t 1 ) .Damit ist ein Markov Prozess eindeutig durch die Übergangswahrscheinlichkeit p 1|1 unddie Anfangswahrscheinlichkeit p 1 , die beliebig vorgegeben werden kann, eindeutig bestimmt.Im Gegensatz dazu kann p 1|1 nicht beliebig vorgegeben werden, sondern musseine Konsistenzbedingung, die sogenannte Chapman-Kolmogorov Gleichung, erfüllen.3.1. Chapman-Kolmogorov GleichungIntegriert man (3.1) über y 2 und dividiert durch p 1 (y 1 , t 1 ) erhält man wegen∫dy 2 p 3 (y 3 , t 3 ; y 2 , t 2 ; y 1 , t 1 ) = p 2 (y 3 , t 3 ; y 1 , t 1 ) = p 1|1 (y 3 , t 3 |y 1 , t 1 )p 1 (y 1 , t 1 )die Chapman-Kolmogorov Gleichung∫p 1|1 (y 3 , t 3 |y 1 , t 1 ) = dy 2 p 1|1 (y 3 , t 3 |y 2 , t 2 )p 1|1 (y 2 , t 2 |y 1 , t 1 ) (3.2)oder in diskrete Variantep 1|1 (n 3 , t 3 |n 1 , t 1 ) = ∑ n 2p 1|1 (n 3 , t 3 |n 2 , t 2 )p 1|1 (n 2 , t 2 |n 1 , t 1 ).33


3. Markov ProzesseHier gilt t 1 < t 2 < t 3 . Die Chapman-Kolmogorov Gleichung ist eine Konsistenzbedingungfür die Übergangswahrscheinlichkeiten eines Markov Prozesses, die die Form einernichtlinearen Integralgleichung hat.Mit Hilfe der Übergangswahrscheinlichkeit p 1|1 kann man, ausgehend von einer Anfangsverteilungp 1 (y 0 , t 0 ), die Wahrscheinlichkeit p 1 (y, t) berechnen, das System zu einemspäteren Zeitpunkt t > t 0 im Zustand y anzutreen∫p 1 (y, t) = dy 0 p 2 (y, t; y 0 , t 0 )∫= dy 0 p 1|1 (y, t|y 0 , t 0 ) p 1 (y 0 , t 0 ) . (3.3)In diesem Sinne stellt der Integraloperator∫(Mp 1 ) (x, t 1 ) := dy p 1|1 (x, t 1 |y, t 0 ) p 1 (y, t 0 ) (3.4)eine natürliche Verallgemeinerung der Flussabbildung gewöhnlicher Dierentialgleichungendar (siehe Abb. 3.1).BemerkungDie Dynamik deterministischer Systeme lässt sich im Rahmen der Markov Prozesse durchdie singuläre Übergangswahrscheinlichkeitp 1|1 (x 1 , t 1 |x 0 , t 0 ) = δ [x 1 − Φ (x 0 , t 1 − t 0 )] ,wobei Φ die in Abb. 3.1A gezeigte Flussabbildung ist, beschreiben.3.2. Stationäre und homogene Markov ProzesseStationärer ProzessWie wir bereits wissen, sind stationäre Prozesse durch statistische Eigenschaften gekennzeichnet,die nicht davon anhängen, wann sie gemessen werden, d.h. alle Verbundwahrscheinlichkeitensind invariant gegen Zeitverschiebungenp n (y n , t n + τ; . . . ; y 1 , t 1 + τ) = p n (y n , t n ; . . . ; y 1 , t 1 )und hängen deshalb nur von Zeitdierenzen ab. Insbesondere sind die Momente einesstationären Prozesses zeitunabhängig. Da sich für Markov Prozesse alle Verbundwahrscheinlichkeitals Produkt von Übergangswahrscheinlichkeiten p 1|1 (y n , t n |y n−1 , t n−1 ) undeiner Startverteilung p 1 (y 1 , t 1 ) schreiben lassen, bedeutet die Forderung nach Zeittranslationsinvarianz,dass die Startverteilung nicht explizit von der Zeit und die Übergangswahrscheinlichkeitnur von der Zeitdierent abhängen darf, alsop 1 (y 1 , t 1 ) = p s (y)p 1|1 (y 2 , t 2 |y 1 , t 1 ) = p 1|1 (y 2 , t 2 − t 1 |y 1 , 0).34


3.2. Stationäre und homogene Markov Prozesse(A)Flussabbildung(B)2.01.51.00.50.00 2 4 6 8 10Abbildung 3.1.: Deterministische Beschreibung vs. Markov Prozess. (A) Die einer gewöhnlichenDierentialgleichung zugeordnete Flussabbildung Φ beschreibtdie zeitliche Entwicklung von Zuständen entlang einer Trajektorie.(B) An die Stelle der Flussabbildung tritt bei Markov Prozessender in Gl. (3.4) denierte Integraloperator M, dessen Kern aus der Übergangswahrscheinlichkeitp 1|1 (x 1 , t 1 |x 0 , t 0 ) des zugrunde liegenden MarkovProzesses gebildet wird.Homogener ProzessEin nicht notwendigerweise stationärer stochastischer Prozess heiÿt homogen (bezgl. derZeit), wenn seine Übergangswahrscheinlichkeit nur von der Zeitdierenz abhängt,p 1|1 (y 2 , t 2 |y 1 , t 1 ) = p 1|1 (y 2 , t 2 − t 1 |y 1 , 0).Im Gegensatz zu stationären Prozessen kann aber der Mittelwert und/oder die Varianzeines homogenen Prozesses noch von der Zeit abhängen. In diesem Sinne sind stationäreProzesse spezielle homogene Prozesse.Beispiel: Der Poisson Prozess aus Abschnitt 1.2 ist wegen−λt (λt)nP (n, t|0, 0) = en!homogen bezüglich der Zeit, aber nicht stationär, da mindestens eines seiner Momente,z.B. der Mittelwert〈n〉 = λtexplizit von der Zeit abhängt.35


3. Markov ProzesseStationäre AutokorrelationsfunktionFür allgemeine stochastische Prozesse berechnet man die Autokorrelationsfunktion wiefolgtκ(t 1 , t 2 ) ≡ 〈〈x(t 1 )x(t 2 )〉〉 = 〈x(t 1 )x(t 2 )〉 − 〈x(t 1 )〉〈x(t 2 )〉∫〈x(t 1 )x(t 2 )〉 = dx 1 dx 2 x 1 x 2 p(x 2 , t 2 ; x 1 , t 1 )∫∫= dx 1 x 1 p(x 1 , t 1 ) dx 2 x 2 p(x 2 , t 2 |x 1 , t 1 ).Für stationäre Prozesse hängt die Übergangswahrscheinlichkeit und damit die Autokorrelationsfunktionnur von der Zeitdierenz τ = |t 2 − t 1 | ab. Es gilt also∫∫〈x(t 1 )x(t 2 )〉 = dx 1 x 1 p(x 1 , t 1 ) dx 2 x 2 p(x 2 , t 2 − t 1 |x 1 , 0).Um daraus die stationäre Autokorrelationsfunktion zu erhalten, führen wir in der Einzeitpunktverteilungden Grenzwert lim t1 →∞ p(x 1 , t 1 ) = p s (x 1 ) durch, während wir inder Übergangswahrscheinlichkeit p(x 2 , t 2 |x 1 , t 1 ) = p(x 2 , t 2 − t 1 |x 1 , 0) die Zeitdierenzτ = t 2 − t 1 konstant halten. Damit bekommen wir∫∫〈x(t 1 )x(t 2 )〉 → 〈x(τ)x(0)〉 = dx 1 x 1 p s (x 1 ) dx 2 x 2 p(x 2 , τ|x 1 )und schlieÿlichκ(τ) = 〈x(τ)x(0)〉 − 〈x〉 2 .36


4. Die MastergleichungWie wir im letzten Abschnitt gesehen haben, sind Markov Prozesse eindeutig durch ihreÜbergangswahrscheinlichkeit p 1|1 (y 2 , t 2 |y 1 , t 1 ) bestimmt (siehe Gl. 3.3). Diese könnenallerdings nicht beliebig vorgegeben werden, sondern müssen die Chapman-KolmogorovGleichung (3.2) erfüllen. Zwar könnten wir mit dieser Gleichung sofort überprüfen, ob einevorgegebene Funktion p 1|1 (y 2 , t 2 |y 1 , t 1 ) einen Markov Prozess deniert oder nicht, aberzum systematischen Aunden neuer Lösungen ist die Chapman-Kolmogorov Gleichungaus zweierlei Gründen ungeeignet: Zum einen ist sie eine nichtlineare Integralgleichung,deren Lösungen schwer zu nden sind. Zum anderen enthält sie keine freien Parameter,was eine physikalisch oder biologisch motivierte Modellierung erschwert. Aus diesenGründen sucht man alternative Formulierungen der Chapman-Kolmogorov Gleichung,die mathematisch einfacher zu untersuchen und einer direkten Modellierung zugänglichsind. Das Resultat ist die Mastergleichung.4.1. Herleitung der MastergleichungWir beschränken uns zunächst auf zeitlich homogene Markov Prozesse, für die die Übergangswahrscheinlichkeiten(per Denition) nur von der Zeitdierenz abhängenp 1|1 (y, t 2 |z, t 1 ) := p(y, t 2 − t 1 |z).Hier und im Folgenden lassen wir die Indizes an den Übergangswahrscheinlichkeitsdichtenweg, da aus dem Zusammenhang klar sein wird, was gemeint ist. Damit erhält dieChapman-Kolmogorov Gleichung die Form∫p(x, t 3 − t 1 |z) = dy p(x, t 3 − t 2 |y)p(y, t 2 − t 1 |z)was sich unter Einführung von t 1 = 0, t 2 = t > 0 und t 3 = t + ∆t > t 2 auch in der Form∫p(x, t + ∆t|z) = dy p(x, ∆t|y)p(y, t|z)schreiben lässt.Die Idee besteht darin, die Übergangswahrscheinlichkeit p(x, ∆t|y) in eine funktionaleTaylorreihe in ∆t zu entwickeln und dann zum Grenzübergang ∆t → 0 überzugehen.Wir nehmen also an p(x, ∆t|y) habe eine Taylorentwicklung der Form[p(x, ∆t, |y) = δ(x − y) + q(x|y)∆t + O (∆t) 2] ,37


4. Die Mastergleichungd.h. die Wahrscheinlichkeit, dass ein Übergang von y nach x im Zeitintervall ∆t stattndet geht mit ∆t gegen Null. Unter Verwendung der Normierungsbedingung für diebedingte Wahrscheinlichkeit∫dx p(x, ∆t|y) = 1und Koezientenvergleich in Ordnung ∆t folgt, dass∫dx q(x|y) = 0sein muÿ. Das können wir formal durch den Ansatz∫!= dx [δ(x − y) + q(x|y)∆t]∫= 1 + ∆t dx q(x|y) + O[(∆t) 2]q(x|y) := W (x|y) − q 0 (y)δ(x − y) (4.1)erfüllen, wobei q 0 (y) gerade durch∫q 0 (y) =dx W (x|y) (4.2)gegeben ist. Anschaulich ist q 0 (y) die Gesamtrate aller Prozesse, die Übergänge aus demZustand y heraus beschreiben.Bemerkung: Ohne Beschränkung der Allgemeinheit können wir annehmen, dass dieDiagonalelemente W (x|x) = 0 sind, denn seien sie etwa durch ˜W (x|x) = W 0 (x) gegeben,dann können wir den Diagonalteil von ˜W immer abspalten und q 0 (y) entsprechendumdenieren, also˜q(x|y) = ˜W (x|y) − ˜q 0 (y)δ(x − y)= W 0 (y)δ(x − y) + W (x|y) − ˜q 0 (y)δ(x − y)= W (x|y) − q 0 (y)δ(x − y),d.h. ˜q(x|y) hat dieselbe Form wie q(x|y), wenn wir ˜q 0 (y) = q 0 (y) + W 0 (y) setzen. Wirkönnen also annehmen, dass die Übergangsraten W (x|y) nur echte Übergänge vo einemZustand in einen anderen beschreiben, d.h.W (x|y) ≠ 0, x ≠ y (4.3)W (x|x) = 0.Einsetzen von (4.1) in obigen Ansatz für die zeitliche Entwicklung der Übergangswahrscheinlichkeitliefert[p(x, ∆t, |y) = (1 − q 0 (y)∆t) δ(x − y) + W (x|y)∆t + O (∆t) 2] .38


4.1. Herleitung der MastergleichungDiese Gleichung besagt, dass, wenn das System im Zustand y startet, die Wahrscheinlichkeit,dass es in einem kleinen Zeitintervall ∆t im Zustand x endet, durch die Wahrscheinlichkeit1 − q 0 (y)∆t gegeben, dass es im Zustand y bleibt plus der Wahrscheinlichkeit,dass es einen Übergang in den Zustand x macht. Insofern kann die Funktion W (x|y) alsÜbergangswahrscheinlichkeit pro Zeiteinheit angesehen werden.Setzen wir diese Entwicklung in die Chapman-Kolmogorov Gleichung ein, erhalten wir∫p(x, t + ∆t|z) = dy p(x, ∆t|y)p(y, t|z)∫∫= dy (1 − q 0 (y)∆t) δ(x − y)p(y, t|z) + dy W (x|y)p(y, t|z)∆t∫= (1 − q 0 (x)∆t) p(x, t|z) + dy W (x|y)p(y, t|z)∆t,was unter Beachtung von (4.2) und Umordnung in∫∫p(x, t + ∆t|z) − p(x, t|z)= dy W (x|y)p(y, t|z) −∆tdy W (y|x)p(x, t|z)und schlieÿlich im Limes ∆t → 0 in die Mastergleichung∫∫ddt p(x, t|z) = dy W (x|y)p(y, t|z) − dy W (y|x)p(x, t|z) (4.4)übergeht mit der Anfangsbedingung p(x, 0|z) = δ(x − z).Bemerkungen1. Für diskrete Zufallsgröÿen lautet die (zeithomogene) Mastergleichungddt P (n, t|m) = ∑ l[W (n|l) p(l, t|m) − W (l|n) p(n, t|m)] (4.5)mit der Anfangsbedingung P (n, 0|m) = δ nm .2. Wenn man die Beschränkung auf zeithomogene Markov Prozesse fallen lässt, werdendie Funktionen q(x|z) in (4.1), und damit auch die Übergangsraten W (x|z) →W t (x|z), zeitabhängige Funktionen. An der Form der Mastergleichung ändert sichnichts, nur beschreiben die Lösungen p(x 2 , t 2 |x 1 , t 1 ) dann, im Allgemeinen, keinezeithomogenen Prozesse mehr.3. Im Gegensatz zur Chapman-Kolmogorov Gleichung (3.2) ist die Mastergleichung(Gl. 4.5), bei vorgegebenen Übergangsraten W (n|m), eine lineare Gleichung zurBestimmung der Übergangswahrscheinlichkeiten des zugrunde liegenden MarkovProzesses. In diesem Sinne sind die Übergangsraten als phänomenologische Gröÿenanzusehen, die sich entweder aus mikroskopischen Theorien ableiten lassen odernach Plausibilitätsgesichtspunkten zu wählen sind.39


4. Die Mastergleichung4.1.1. Detailed Balance und thermodynamisches Gleichgewicht ∗ :Stationäre Lösungen der Mastergleichung erfüllen∑[W (n|l) P s (l) − W (l|n) P s (n)] = 0 (4.6)lwas sich unter Verwendung der Matrix (W nl ≡ W (n|l))U nl := W nl − δ nl∑kW knauch in der Form∑U nl P s (l) = 0 mit P s (l) ≥ 0 undlschreiben lässt. Die Spalten von U sind aber wegen∑U nl = ∑ W nl − ∑ ∑δ nl W kn = ∑nnnnk∑P s (l) = 1lW nl − ∑ kW kl ≡ 0linear abhängig, d.h. rang(U) ≤ N − 1, wenn N die Gesamtanzahl möglicher Zuständeist. Es muss also mindestens eine nichttriviale stationäre Lösung geben muss. Die zugehörigeVerteilung p s beschreibt i.a. stationäre Nichtgleichgewichtszustände.Die n Gleichungen (4.6) sind insbesondere dann erfüllt, wenn die sogenannten detailedbalance BeziehungenW nl P s (l) − W ln P s (n) = 0, ∀n ≠ l (4.7)gelten. Die zugehörigen stationären Zustände sind dann thermodynamische Gleichgewichtszustände.Im Allgemeinen schränken die detailed balance Beziehungen die Übergangsratendahingehend ein, dass nicht mehr alle von ihnen frei vorgebbar sind.4.1.2. BeispieleFür n = 2 lautet die Mastergleichung mit konstanten Übergangsraten W 12 und W 21 :dP 1= W 12 P 2 − W 21 P 1dtdP 2= W 21 P 1 − W 12 P 2 .dtd.h. stationäre Zustände, deniert durch dP 1 /dt = 0 oder dP 2 /dt = 0, sind automatischGleichgewichtszustände, da die entsprechende Gleichung identisch mit der detailedbalance Beziehung istW 12 P 2 = W 21 P 1 .40


4.1. Herleitung der MastergleichungAbbildung 4.1.: Links: Denition der Übergangsraten für einen Markov Prozess mit 3 Zuständen.Rechts: Wenn die detailed balance Beziehungen gelten (Gln.4.12 und 4.13) ist das Produkt der Übergangsraten in Vorwärtsrichtung(J ) gleich dem Produkt der Übergangsraten in Rückwärtsrichtung (J ),d.h. es gibt keinen Nettouss im System.Unter Benutzung von P 2 = 1 − P 1 folgt für den stationären ZustandP 1 =W 12W 12 + W 21, P 2 =Für n = 3 lautet die Mastergleichung (siehe Abb. 4.1)W 21W 12 + W 21.dP 1= W 12 P 2 + W 13 P 3 − (W 31 + W 21 ) P 1dtdP 2= W 21 P 1 + W 23 P 3 − (W 12 + W 32 ) P 2dtdP 3= W 31 P 1 + W 32 P 2 − (W 13 + W 23 ) P 3 ,dtd.h. stationäre Zustände werden jetzt durch die Gleichungen(W 12 P 2 − W 21 P 1 ) + (W 13 P 3 − W 31 P 1 ) = 0 (4.8)(W 21 P 1 − W 12 P 2 ) + (W 23 P 3 − W 32 P 2 ) = 0 (4.9)P 1 + P 2 + P 3 = 1 (4.10)beschrieben, wobei wir die aus dP 3 /dt = 0 folgende Gleichung durch die Normierungsbedingungersetzt haben. Die allgemeine Lösung dieses Gleichungssystems lautetP 1 = W 12W 23 + W 12 W 13 + W 13 W 32DP 2 = W 23W 31 + W 23 W 21 + W 21 W 13DP 3 = W 31W 32 + W 31 W 12 + W 32 W 21DD ≡ W 23 (W 12 + W 31 + W 21 ) + W 13 (W 21 + W 32 + W 12 )+ W 31 (W 32 + W 12 ) + W 21 W 32 ,(4.11)41


4. Die Mastergleichungwobei die 6 Übergangsraten W 12 , W 21 ,W 13 , W 31 , W 23 und W 32 keinen weiteren Einschränkungenunterliegen. Fordert man jedoch, dass die in den Gleichungen (4.8) und (4.9) inKlammern stehenden Ausdrücke einzeln verschwinden (detailed balance Beziehungen)W 12 P 2 = W 21 P 1W 13 P 3 = W 31 P 1 (4.12)W 23 P 3 = W 32 P 2dann folgt daraus, dass die Übergangsraten nicht mehr frei vorgebbar, sondern durch dieGleichungW 21 W 13 W 32 = W 23 W 31 W 12 (4.13)eingeschränkt sind. Will man also thermodynamische Gleichgewichtszustände beschreiben,dann kann man sich nur 5 der 6 möglichen Übergangsraten vorgeben, die 6. ist danndurch Gl. (4.13) bestimmt.Man kann nun versuchen, unter Berücksichtigung der detailed balance Beziehungen(4.12) die Ausdrücke in Gleichung (4.11) zu vereinfachen. Schneller geht as aber, diedetailed balance Beziehungen (4.12) unter Berücksichtigung der Normierungsbedingung(Gl. 4.10) direkt zu lösen. Damit erhält man zunächstund darausW 12 P 2 = W 21 P 1W 13 (1 − P 1 − P 2 ) = W 31 P 1P 1 =11 + W 21W 12+ W , P31 2 =W 13W 21W 121 + W 21W 12+ W 31W 13und P 3 =W 31W 131 + W 21W 12+ W .31W 134.2. Random-Telegraph ProzessDer Random-Telegraph Prozess beschreibt Systeme, die nur in zwei Zuständen vorkommenkönnen (Abb. 4.2). Damit lässt sich, zum Beispiel, der zeitabhängige Strom, derdurch einen Ionenkanal ieÿt, modellieren. Im einfachsten Fall kann man annehmen,dass der Kanal in nur 2 Konformationszuständen (oen oder geschlossen) vorkommenkann, die entweder Ionen passieren lassen oder nicht. In Abwesenheit äuÿerer Signalenden die Übergänge zwischen oenem (1) und geschlossenem (0) Zustand in stochastischerWeise statt, wobei wir annehmen wollen, dass die Übergänge mit konstanterRate erfolgen sollen:W (1|0) := a und W (0|1) := b.42


4.2. Random-Telegraph Prozessoffen10.80.60.4geschlossen0.200 2 4 6 8 10Abbildung 4.2.: Links: Random-Telegraph Prozess - es nden stochastische Übergängezwischen 2 Zuständen 0 (Kanal geschlossen) und 1 (Kanal oen) mitkonstanten Raten (a und b) statt. Rechts: ÜbergangswahrscheinlichkeitenP (n, t|m) zur Zeit t im Zustand n = 0, 1 zu sein, wenn das Systemzur Zeit t = 0 im Zustand m = 0, 1 gestartet ist (vgl. Gleichungen 4.17und 4.18). Die Korrelationszeit beträgt τ c = 1/(a + b) = 1.25s.Da es nur zwei Zustände gibt läÿt sich die Mastergleichung für die ÜbergangswahrscheinlichkeitenP (0, t) und P (1, t) leicht hinschreibendP (0, t) = W (0|1) P (1, t) − W (1|0) P (0, t)dt= bP (1, t) − aP (0, t) (4.14)dP (1, t) = W (1|0) P (0, t) − W (0|1) P (1, t)dt= aP (0, t) − bP (1, t) . (4.15)4.2.1. Lösung der MastergleichungAddition der Gleichungen (4.14) und (4.15) liefertd(P (0, t) + P (1, t)) = 0,dtd.h. die Summe beider Wahrscheinlichkeiten ist konstant und wegen der Normierung derGesamtwahrscheinlichkeit ist diese Konstante gleich EinsP (0, t) + P (1, t) = 1. (4.16)Die Gleichungen (4.14) und (4.15) lassen sich leicht integrieren: Ersetzt man z.B. in Gl.(4.14) unter Berücksichtigung von Gl. (4.16) P (1, t) durch 1 − P (0, t), ergibt sichddt P (0, t) = −(a + b)P (0, t) + b, 43


4. Die MastergleichungalsoP (0, t) =ba + b + C 0e −(a+b)t .Zur Bestimmung der Integrationskonstanten benutzen wir die AnfangsbedingungP (0, t = 0|m) = δ 0m .Damit erhalten wir (jenachdem ob m = 0 oder m = 1 ist)P (0, t|0) =und aus P (1, t|m) = 1 − P (0, t|m)P (1, t|0) =ba + b + aa + b e−(a+b)t , P (0, t|1) = b [1 − e −(a+b)t] (4.17)a + ba [1 − e −(a+b)t] , P (1, t|1) = aa + ba + b + ba + b e−(a+b)t . (4.18)Für lange Zeiten konvergieren diese Ausdrücke gegen stationäre Werte:lim P (0, t|0) = lim P (0, t|1) =bt→∞ t→∞lim P (1, t|0) = lim P (1, t|1) =at→∞ t→∞a + b := P s (0) (4.19)a + b := P s (1) ,d.h. wenn t ≫ τ c := 1/(a + b) dann kann man die Übergangswahrscheinlichkeiten (4.17)und (4.18) durch ihre stationären Werte in Gl. (4.19) ersetzen. Das heiÿt aber auch, dassdas System für t ≫ τ c seinen Anfangszustand vergessen hat.In Abbildung 4.2 sind die zeitabhängigen und stationären Übergangswahrscheinlichkeiten(4.17), (4.18) und (4.19) grasch für den Fall a = 0.2/s und b = 0.6/s dargestellt.4.2.2. Mittelwert und Varianz im stationären RegimeIm Folgenden interessieren wir uns für Mittelwerte des Prozesses im stationären Regime(t ≫ 1/(a + b)). Diese berechnen sich unter Benutzung der stationären Übergangswahrscheinlichkeiten(4.19) gemäÿ〈f(n)〉 = ∑n=0,1f(n)P s (n) =f(0)b + f(1)a.a + bDamit ergeben sich Mittelwert und Varianz zu〈n〉 = 0 · P s (0) + 1 · P s (1) = aa + b = 〈n2 〉σn 2 = 〈n 2 〉 − 〈n〉 2= P s (1) [1 − P s (1)]ab=(a + b) 2 .und44


4.3. Zeitkontinuierlicher Random Walk (1d)BemerkungDie Varianz hat ein Maximum wenn beide Übergangsraten gleich sind:σ 2 n,max = 1 4 , ↔ a = b.Falls eine der beiden Übergangsraten wesentlich kleiner ist als die andere (z.B. a ≪ b)verhält sich die Varianz wieσ 2 n ∼ a b ≪ 1.4.2.3. Stationäre AutokorrelationsfunktionZum Schluss berechnen wir noch die stationäre Korrelationsfunktion mit Hilfe der inAbschnitt (3.2) eingeführten Methodeκ (t) = 〈n(t)n(0)〉 − 〈n〉 2∑〈n(t)n(0)〉 = nm · P 2 (n, t; m, 0) =n,m=0,1= ∑=m=0,1aa + bm · P s (m) ∑[ aa + b +n=0,1∑n,m=0,1nm · P (n, t|m, 0) P s (m)n · P (n, t|m, 0) = P s (1) · P (1, t|1, 0)b ]a + b e−(a+b)t .Als Ergebnis erhalten wirabκ(t) =(a + b) 2 e−(a+b)t ,d.h. die stationäre Autokorrelationsfunktion ist von der allgemeinen Formκ(τ) = σ 2 n exp(−τ/τ c ),wobei die Korrelationszeit durch τ c = 1/(a + b) gegeben ist.4.3. Zeitkontinuierlicher Random Walk (1d)Wir betrachten ein Teilchen, welches Sprünge der Länge 1 auf einem räumlich diskretenGitter macht (Abb. 4.3A). Wir wollen annehmen, dass Sprünge nach rechts bzw. linksmit den Übergangsraten a und b stattnden, alsoW 1 (n + 1|n) = a und W 2 (n − 1|n) = b.Die zugehörige Mastergleichung lautet dannddt P (n, t) = W 1 (n|n − 1) P (n − 1, t) − W 1 (n + 1|n) P (n, t)+W 2 (n|n + 1) P (n + 1, t) − W 2 (n − 1|n) P (n, t)= aP (n − 1, t) + bP (n + 1, t) − (a + b) P (n, t) (4.20)45


4. Die Mastergleichung(A)(B)0.40.30.20.10.0- 20 - 10 0 10 200.40.30.20.10.0- 10 0 10 20 30 40Abbildung 4.3.: (A) Random Walk auf einem 1d Gitter. (B) Aufenthaltswahrscheinlichkeitnach Gl. (4.30). Linke Seite: Symmetrischer Random Walk mita = b = 10/s. Rechte Seite: Asymmetrischer Random Walk mit a = 12/sund b = 8/s. Wenn a > b bewegt sich das Teilchen im Mittel nachrechts. Die gepunkteten Linien geben den Mittelwert 〈n〉 = 〈v〉 t nachGl. (4.24) an. Die durchgezogenen Linien entsprechen der Gauss'schenApproximation in Gl. (4.35) mit 〈v〉 = a − b und D = a + b.die wir unter AnfangsbedingungP (n, t = 0|0, 0) = δ n0 (4.21)lösen wollen, d.h. zur Zeit t = 0 soll sich das Teilchen am Ursprung bei n = 0 benden.4.3.1. Die wahrscheinlichkeitserzeugende FunktionZur Lösung der Mastergleichung (4.20) denieren wir wieder die wahrscheinlichkeitserzeugendeFunktion (siehe Abschnitt 1.2.4) durch∞∑F (z, t) = P (n, t)z n . (4.22)n=−∞Um eine Gleichung für F (z, t) zu erhalten, multiplizieren wir beide Seiten der Gl. (4.20)mit z n und summieren über n von −∞ bis ∞. Dann geht die Mastergleichung unterAusnutzung von∞∑∑∞P (n + 1, t) z n = z −1 P (n + 1, t) z n+1n=−∞n=−∞m=n+1= z −1 ∞ ∑m=−∞= z −1 F (z, t)P (m, t) z m46


und∞∑n=−∞in die partielle Dierentialgleichung4.3. Zeitkontinuierlicher Random Walk (1d)P (n − 1, t) z n = zF (z, t)(∂∂t F (z, t) = az + b )z − (a + b) F (z, t)über, die mit Hilfe der aus Gl. (4.21) folgenden Anfangsbedingung F (z, 0) = 1 zu lösenist. Das Ergebnis istF (z, t) = exp[(az + b ) ]z − (a + b) t . (4.23)4.3.2. Mittelwert und VarianzMittelwert und Varianz lassen sich aus den partiellen Ableitungen von F (z, t) (Gl. 4.23)nach z gewinnen. Für den Mittelwert bekommen wir〈n〉 = ∂ (∂z F (z, t) | z=1 = a − b )z 2 t exp[(az + b ) ]z − (a + b) t | z=1= (a − b) t (4.24)d.h. im Falle b > a bewegt sich das Teilchen im Mittel nach links während es sich imFalle a > b im Mittel nach rechts bewegt.Analog erhält man für die Varianz unter Benutzung vonden AusdruckBemerkungen∂ 2∂z 2 F (z, t) | z=1 = 2b(z 3 t exp [· · · ] | z=1 + a − b ) 2z 2 t 2 exp [· · · ] | z=1= (a − b) 2 t 2 + 2btσ 2 n(t) = ∂2∂z 2 F (z, t) | z=1 + 〈n〉 − 〈n〉 2= (a + b) t.1. Wegen 〈n〉 = ¯vt können wir ¯v = a − b als mittlere Geschwindigkeit des Teilchensinterpretieren.2. Aus der räumlich kontinuierlichen Betrachtung (siehe Abschnitt 4.3.4) des 1d-Random-Walks folgt die Relation σ 2 n(t) = 2Dt, d.h. D = (a + b) /2 spielt die Rolleeines eektiven Diusionskoezienten.47


4. Die Mastergleichung4.3.3. Zeitabhängige Lösung der MastergleichungDie zeitabhängige Übergangswahrscheinlichkeit ergibt sich aus der Entwicklung von F (z, t)in Gl. (4.23) nach Potenzen z nF (z, t) = exp[(az + b ) ]z − (a + b) t∑∞= e −(a+b)t (at) l z ll!l=0n=l−k= e −(a+b)t ∞ ∑∞∑ (bt) k z −kk=0∞∑k!n=−∞ k=max(0,−n)Die Summationsgrenzen überlegen wir uns wie folgt:sei l fest und k = ∞ → n = −∞sei k fest und l = ∞ → n = ∞,(at) k+n (bt) kz n . (4.25)(k + n)!k!d.h. n = . . . , −2, −1, 0, 1, 2, . . .. Damit weiterhin l = n + k ≥ 0 gelten kann, muss die k-Summation von 0 bis ∞ erstreckt werden, falls n ≥ 0 ist. Ist n < 0 läuft die k-Summationvon −n bis ∞, also insgesamt∞∑ ∞∑ ∞∑→.l,k=0n=−∞ k=max(0,−n)Der Vergleich von Gl. (4.25) mit Gl. (4.22) liefertFür n ≥ 0 wird darausP (n, t|0, 0) = e −(a+b)tP (n, t|0, 0) = e −(a+b)t ∞ ∑∞ ∑k=max(0,−n)k=0(at) k+n (bt) k.(k + n)!k!(at) k+n (bt) k, n ≥ 0. (4.26)(k + n)!k!Im Falle n ≤ 0 setzten wir k = max (0, −n) = −n = |n| und erhaltenP (n, t|0, 0) = e −(a+b)t∞ ∑k=|n|m=k−|n|= e −(a+b)t ∞ ∑(at) k−|n| (bt) k(k − |n|)!k!m=0(at) m (bt) m+|n|m! (m + |n|)! , n ≤ 0 (4.27)Aus dem Vergleich von Gln. (4.26) und (4.27) folgt P (n, t) = P (|n| , t) , wenn mangleichzeitig a und b vertauscht. Das heisst aber, wir brauchen uns im Folgenden nur aufden Fall n ≥ 0 in Gl. (4.26) zu konzentrieren. Dazu schreiben wira = √ √ aabbund b = √ ab√ba ,48


4.3. Zeitkontinuierlicher Random Walk (1d)was auf(at) k+n (bt) k =( ab) n2 ( √abt) 2k+nführt, sodass sich die Übergangswahrscheinlichkeit (4.26) in der Form(P (n, t|0, 0) = e −(a+b)t abschreiben lässt, wobei I n (z) die durch) n2( √abt ) 2k+n∞∑k=0(= e −(a+b)t a) n2I n(2 √ abtbI n (z) =∞∑k=0(z/2) 2k+n(k + n)!k!(k + n)!k!), n ≥ 0 (4.28)(4.29)denierten, modizierten Besselfunktionen sind.Den Fall n ≤ 0 erhält man aus Gl. (4.28) einfach, indem man n durch |n| ersetzt unda mit b vertauscht, alsoP (n, t|0, 0) = e −(a+b)t ( baund damit insgesamt (siehe Abb. 4.3B)) |n|2(I|n| 2 √ )abt , n ≤ 0,(P (n, t|0, 0) = e −(a+b)t a) n2Ib |n|(2 √ )abt , n ∈ Z. (4.30)4.3.4. Übergang zur räumlich kontinuierlichen BeschreibungIm Folgenden wollen wir den Übergang zu einer räumlich kontinuierlichen Beschreibungauf der Ebene der Mastergleichung (4.20) für den asymmetrischen Random Walk durchführen.Dazu setzen wirx = nl sowie p (x, t) := P (nl, t)und entwickeln die rechte Seite der Mastergleichung für kleine Schrittweite l ≪ 1 in eineTaylorreiheP ((n ± 1) l, t) = p(x ± l, t)Einsetzen in die für l = 1 gültige Mastergleichung≈p(x, t) ± l ∂∂x p(x, t) + 1 ∂2l22 ∂x 2 p(x, t) + O(l3 ). (4.31)ddt P (nl, t) = [aP ([n − 1] l, t) + bP ([n + 1] l, t) − (a + b) P (nl, t)] 49


4. Die Mastergleichungliefert im Grenzwert l → 0 (unter Berücksichtigung von x = nl) die partielle DGL[∂p (x, t) = lim ap (x, t) − al ∂∂t l→0∂x p (x, t) + a ∂2l22 ∂x 2 p (x, t) + O(l3 )falls, die durch+ bp (x, t) + bl ∂∂x p (x, t) + b ∂2l22 ∂x 2 p (x, t) + O(l3 ) − (a + b) p (x, t)= − 〈v〉 ∂∂2p (x, t) + D p (x, t) (4.32)∂x ∂x2 〈v〉 := lim (l [a − b]) und (4.33)l→0(D := lim l 2 a + b )(4.34)l→0 2denierten Gröÿen bei dem durchgeführten Grenzübergang endlich bleiben. Die in Gln.(4.33) und (4.34) denierten Gröÿen lassen sich als mittlere Driftgeschwindigkeit bzw.Diusionskoezient interpretieren - beides makroskopisch beobachtbare Gröÿen.Gleichung (4.32) ist eine spezielle Fokker-Planck Gleichung, die uns in Kapitel 6 inetwas allgemeinerem Kontext wieder begegnen wird. Falls sich das Teilchen bei t = 0 amUrsprung bendet, ist die Lösung von Gl. (4.32) durchp (x, t|0, 0) =1√4πDte − (x−〈v〉t)24Dt , t ≥ 0 (4.35)gegeben. Das ist die Aufentwaltswahrscheinlichkeitsdichte eines Teilchens, dass sich mitder mittleren Geschwindigkeit 〈v〉 in positive x-Richtung bewegt und deren Breite linearmit der Zeit anwächst (siehe Abb. 4.3B)〈x〉 = 〈v〉 tσ 2 x = 2Dt.Die lineare Abhängigkeit der Varianz bezüglich der Zeit ist charakteristisch für Diusion.4.4. Chemische Reaktionen4.4.1. Aufstellen der MastergleichungAls Beispiel betrachten wir das (autokatalytische) ReaktionsschemaA + X k 1⇄k 22X (4.36)X k 3→ B.Die Anzahl an A- und B-Teilchen sei konstant (Teilchenreservoir).]50


Zum Aufstellen der Mastergleichungddt P (N, t) = ∑ i4.4. Chemische Reaktionen[W i (N|M i )P (M i , t) − W i (M i |N)P (N, t)] (4.37)müssen wir uns überlegen, wie die Übergangsraten W i (N|M i ) von der Teilchenzahl derbeteiligten Molekülsorten abhängen. Betrachten wir zunächst die ReaktionA + X k 1→ 2X.Damit diese statt nden kann, müssen sich A- und X-Teilchen treen und miteinanderreagieren. Wir nehmen an, dass sich dieser Prozess durch einen eektiven Parameter (k 1 )beschreiben lässt, der die Dimension[k 1 ] =1mol · shat. Auÿerdem wird die Übergangsrate proportional zur Anzahl an A- und X-Teilchensein, alsoW 1 (N + 1|N) = k 1 AN,d.h. bei dieser Reaktion ändert sich die Anzahl an X-Teilchen um ∆N = +1.Die Übergangsraten für die beiden anderen Reaktionen in Gleichung (4.36) könnenanalog motiviert werden2X k 2→ A + X → W 2 (N − 1|N) = k 2 N (N − 1) (4.38)X k 3→ B → W 3 (N − 1|N) = k 3 N.Die Dimension der die Reaktion charakterisierenden Parameter k 2 und k 3 lautet1[k 2 ] =mol · s , [k 3] = 1 s .Zur Ableitung von W 2 in Gleichung (4.38) haben wir benutzt, dass die Anzahl an Möglichkeiten,für zwei X-Teilchen sich zu treen, proportional zu N (N − 1) ist. Hier zeigtsich der diskrete Charakter der chemischen Reaktion auf Teilchenebene im Vergleich zueiner Beschreibung durch Konzentrationen n = N/V , bei der die Reaktionsrate proportionalzu n 2 wäre.Insgesamt gibt es die 3 nichtverschwindenden ÜbergangsratenW 1 (N + 1|N) = k 1 AN (4.39)W 2 (N − 1|N) = k 2 N (N − 1)W 3 (N − 1|N) = k 3 Nmit deren Hilfe man die Mastergleichung sofort aufschreiben kann (siehe Abbildung 4.4):dP (N, t)dt= k 1 A(N − 1)P (N − 1, t) + (k 2 N(N + 1) + k 3 (N + 1)) P (N + 1, t)− (k 1 AN + k 2 N(N − 1) + k 3 N) P (N, t). (4.40)51


4. Die MastergleichungAbbildung 4.4.: Beziehung zwischen den in Gl. (4.39) denierten Übergangsraten undden von N aus erreichbaren Nachbarzuständen.4.4.2. Parametrisierung durch Ausgangszustand und SprungweiteFür spätere Anwendungen wollen wir noch eine andere Schreibweise der Mastergleichungeinführen. Die Übergangsraten (4.39) beschreiben Übergänge aus dem Zustand N in dieZustände N + 1 und N − 1, d.h. in (4.37) ist M = N + 1 oder M = N − 1. Genausogutkönnten wir die Übergangsraten durch den Ausgangszustand N und die SprungweiteS = M − N = ±1 parametrisieren. Die Übergangsrate hat dann die kompakte FormwobeiV (N, S) = k 1 ANδ (S,+1) + (k 2 N(N − 1) + k 3 N) δ (S,−1) , (4.41)δ (S,M) ={1, S = M0, S ≠ M,d.h. der 1. Term in Gl. (4.41) kommt nur dann zum Tragen, wenn ein Teilchen erzeugt,also S = +1 ist. Analog kommt der 2. Term nur dann zum Tragen, wenn ein Teilchenvernichtet wird, also S = −1 ist.Mit Hilfe der Übergangsrate V (N, S) läÿt sich die Mastergleichung (4.37) in der Formd∑P (N, t) = [V (N − S, S)P (N − S, t) − V (N, S)P (N, t)] (4.42)dtS=±1schreiben. Explizit lautet die Mastergleichung für unser einfaches Beispiel alsodP (N, t)dt= V (N − 1, 1) P (N − 1, t) + V (N + 1, −1) P (N + 1, t)− (V (N, 1) + V (N, −1)) P (N, t)was nach Einsetzen des Ausdruckes für die Übergangsrate (4.41) natürlich mit Gleichung(4.40) übereinstimmt.4.4.3. Multivariate MastergleichungWir betrachten ein System, in dem r chemische Reaktionen zwischen n Spezies stattnden.Die jte Reaktion 1 hat dann die allgemeine Formν 1j X 1 + . . . + ν nj X n → µ 1j X 1 + . . . + µ nj X n , j = 1, . . . , r.1 Bei reversiblen Reaktionen werden Hin- und Rückreaktion separat gezählt.52


4.4. Chemische ReaktionenAus den positiven stöchiometrischen Koezienten ν ij und µ ij lässt sich die sogenanntestöchiometrische Matrix N konstruieren. Ihre KomponentenN ij = µ ij − ν ij , i = 1, . . . , n, j = 1, . . . , r (4.43)geben an um wieviel Moleküle sich die Teilchenzahl der Spezies X i in der jten Reaktionändert.Der Zustand dieses n-Teilchensystems ist dann vollständig bestimmt, wenn alle TeilchenzahlenX i zur jeder Zeit t bekannt sind. Entsprechend hängt die Übergangswahrscheinlichkeitdes zugeordneten Markov Prozesses von den Teilchenzahlen der n Speziesund der Zeit ab. Die Mastergleichung lautet danndP (N 1 , . . . , N n , t)dtBeispiel=−r∑W j (N 1 , . . . , N n |N 1 − N 1j , . . . , N n − N nj ) P (N 1 − N 1j , . . . , N n − N nj , t)j=1r∑W j (N 1 + N 1j , . . . , N n + N nj |N 1 , . . . , N n ) P (N 1 , . . . , N n , t) .j=1Wir verallgemeinern das Beispiel aus Gl. (4.36) jetzt dahingehend, dass die Teilchenzahlender A- und B-Teilchen als dynamische Variable betrachtet werden. Dann lautet diestöchiometrische MatrixN =AXB⎛R1 R2 R3⎞−1 1 0⎝ 1 −1 −1⎠ .0 0 1(4.44)Bezeichnen wir die Teilchenzahlen von A, X und B mit X 1 , X 2 und X 3 , dann habendie 3 Übergangsraten die Form (vgl. Gl. 4.39)und die Mastergleichung lautetdP (N 1 , N 2 , N 3 , t)dtW 1 (N 1 − 1, N 2 + 1, N 3 |N 1 , N 2 , N 3 ) = k 1 N 1 N 2W 2 (N 1 + 1, N 2 − 1, N 3 |N 1 , N 2 , N 3 ) = k 2 N 2 (N 2 − 1)W 3 (N 1 , N 2 − 1, N 3 + 1|N 1 , N 2 , N 3 ) = k 3 N 2= k 1 (N 1 + 1) (N 2 − 1) P (N 1 + 1, N 2 − 1, N 3 , t)+ k 2 (N 2 + 1) N 2 P (N 1 − 1, N 2 + 1, N 3 , t)+ k 3 (N 2 + 1) P (N 1 , N 2 + 1, N 3 − 1, t)− (k 1 N 1 N 2 + k 2 N 2 (N 2 − 1) + k 3 N 2 ) P (N 1 , N 2 , N 3 , t) .53


4. Die MastergleichungAbbildung 4.5.: Zur Simulation der Mastergleichung müssen iterativ 2 Fragen beantwortetwerden: Wann ndet, ausgehend von einem Anfangszustandn k ≡ n(t k ), der nächste Übergang in einen der möglichen anderen Zuständestatt (P nk (τ)) und welcher (p i (n k → m i ))? Als Endzustände n k+1kommen alle Zustände m i in Frage für die W i (m i |n k ) ≠ 0. Speziell beichemischen Reaktionen kann es vorkommen, dass verschiedene Übergänge(W 2 und W 3 ) zu demselben Endzustand (m 2 = m 3 ) führen.4.5. Simulation der Mastergleichung: Gillespie AlgorithmusLösungen der Mastergleichungddt P (n, t) = ∑ i[W i (n|m i ) P (m i , t) − W i (m i |n) P (n, t)] , (4.45)geben die Wahrscheinlichkeit an, das System zur Zeit t im Zustand n zu nden, wobein ein beliebiger Zustand des Systems sein kann, d.h. P (n, t) enthält Information überalle möglichen Trajektorien (das Ensemble), die das System im Laufe der Zeit durchlaufenkann. Konkrete Realisierungen treten darin mit einer gewissen Wahrscheinlichkeit,entsprechend den zugrunde liegenden Übergangsraten W i , auf. Deshalb sollte es wesentlicheinfacher sein, auf der Grundlage der Übergangsraten einzelne Realisierungen zusimulieren, anstatt die Mastergleichung selbst zu lösen. Diese Idee stellt die Grundlageder von Daniel Gillespie entwickelten Methode 2 dar, mit deren Hilfe man Realisierungendes durch die Mastergleichung beschriebenen Markov Prozesses simulieren kann. Verfügtman über eine hinreichend groÿe Anzahl an Realisierungen, kann man daraus beliebigeErwartungswerte der jeweils interessierenden Gröÿen berechnen.Zur Erzeugung einer Realisierung müssen wir, ausgehend von einem Ausgangszustandn(t k ) = n k , nur wissen Wann? die nächste Reaktion stattndet und Welche? (Abb.4.5). Die iterierte Beantwortung dieser Fragen liefert dann eine Realisierung des durch2 D. T. Gillespie, Exact Stochastic Simulation of Coupled Chemical Reactions, J. Phys. Chem. 81,2340-2361, 1977.54


4.5. Simulation der Mastergleichung: Gillespie Algorithmusdie Mastergleichung beschriebenen stochastischen Prozesses in Form einer Reihe von(zufälligen) Zeitpunkten t 1 < t 2 < t 3 < . . ., zu denen Reaktionen im System stattndenund sich die Teilchenzahlen der Zustände n 1 → n 2 , → n 3 → . . . entsprechend ändern,wobein(t) = n k während t k ≤ t < t k+1 , k = 1, 2, 3, . . .gilt, d.h. während des Zeitintervalls t k ≤ t < t k+1 sind die Teilchenzahlen und damit dieÜbergangsraten W i (m i |n k ) konstant.4.5.1. Die Wahrscheinlichkeitsdichte p (τ, i|n k , t k )Zur Beantwortung der Frage: Wann die nächste Reaktion stattndet und welche? nehmenwir an, dass sich das System zur Zeit t k im Zustand n k bendet. Dann denierenwir die Wahrscheinlichkeit p (τ, i|n k , t) dτ, dass die nächste Reaktion im Intervall(t k + τ, t k + τ + dτ) stattndet und es sich dabei um die i-te Reaktion n k → m i handelt.Diese Wahrscheinlichkeit lässt sich als Produkt zweier Wahrscheinlichkeitenp (τ, i|n k , t k ) dτ = q (τ) · W i (m i |n k ) dτ (4.46)schreiben, wobei q (τ) die Wahrscheinlichkeit ist, dass im Zeitintervall (t k , t k + τ) keineReaktion stattndet während W i (m i |n k ) dτ der Wahrscheinlichkeit entspricht, dass imIntervall (τ, τ + dτ) der Übergang n k → m i erfolgt, also die i-te Reaktion stattndet.Zur Berechnung von q (t) machen wir uns klar, dass diese Wahrscheinlichkeit durchdie Wahrscheinlichkeit gegeben ist, dass sich das System zur Zeit t ≥ t k immer noch imAusgangszustand n k bendet, d.h. wir können q (n k , t) direkt aus der Mastergleichung(4.45) berechnen, wenn wir den möglichen Zustandsraum dahingehend einschränken, dassnur Übergänge aus dem aktuellen Zustand in andere Zustände möglich sind (d.h. wirsetzen W i (n k |m i ) = 0). Dann folgtddt q (n k, t) = −W nk q (n k , t) , mit W nk =R∑W i (m i |n k ) , t k ≤ t < t k+1 , (4.47)wobei W nk die Gesamtrate ist mit der Übergänge von n k in andere Zustände erfolgen.Da sich bis zum Eintreten einer neuen Reaktion (also im Zeitintervall t k ≤ t < t k+1 ) dieTeilchenzahl n k und damit auch die Übergangsraten W i (m i |n k ) nicht ändern, lautet dieLösung der DGL (4.47) mit der Anfangsbedingung q (n k , t k ) = 1i=1q (n k , t) = exp [−W nk (t − t k )] , t ≥ t k .Damit erhalten wir für die in Gl. (4.46) denierte Wahrscheinlichkeit den Ausdruckp (m i , τ|n k , t k ) dτ = W i (m i |n k ) exp(−)R∑W i (m i |n k ) τ dτ. (4.48)i=155


4. Die MastergleichungBerechnung von p nk (τ) und p i (n k → m i )Aus der Darstellung für p (m i , τ|n k , t k ) dτ in Gl. (4.48) erhalten wir die Wahrscheinlichkeitsdichtenfür den Zeitpunkt der nächsten Reaktion (p nk (τ)) und die Art der nächstenReaktion (p i (n k → m i )) durch Bildung der entsprechenden marginalen Dichten, d.h.p nk (τ) ==p i (n k → m i ) =R∑p (m i , τ|n k , t k )i=1()R∑R∑W i (m i |n k ) exp − W i (m i |n k ) τi=1= W nk exp (−W nk τ) und==∫ ∞0∫ ∞0i=1dτ p (m i , τ|n k , t k )(dτ W i (m i |n k ) expW i (m i |n k )∑ Ri=1 W i (m i |n k ) .−τ)R∑W i (m i |n k )Zur Berechnung von Zufallszahlen gemäÿ dieser Dichten brauchen wir noch die entsprechendenWahrscheinlichkeitsverteilungsfunktionen. Diese sind durchundgegeben.P nk (τ) =P j =∫ τ0i=1dt p nk (t) = 1 − exp (−W nk τ) , W nk =j∑p i (n k → m i ) =i=1R∑W i (m i |n k ) (4.49)i=1∑ ji=1 W i (m i |n k )∑ Ri=1 W i (m i |n k ) , j = 0, . . . , R , P 0 := 0 (4.50)Algorithmus zur Simulation von Realisierungen der MastergleichungDamit ergibt sich folgender Algorithmus zur Simulation von Realisierungen der Länge Tdes durch die Mastergleichung (4.45) beschriebenen Markov Prozesses:1. Setze k = 0 und lege den Ausgangszustand n k zur Zeit t k = 0 fest.2. Berechne alle nichtverschwindenden Übergangsraten W i (m i |n k ) sowie die GesamtrateW nk = ∑ Ri=1 W i (m i |n k ) aus dem Zustand n k heraus.3. Berechne 2 Zufallszahlen r, s ∈ (0, 1), setze aktuelle Zeit auf (vgl. Gl. 4.49)t k+1 = t k + 1 ( ) 1ln , k = 0, 1, 2, . . . (4.51)W nk 1 − r56


4.5. Simulation der Mastergleichung: Gillespie Algorithmusund vergleiche s mit P j aus Gl. (4.50). WennP j < s ≤ P j+1 , j = 0, 1, . . . , R − 1, P 0 = 0dann führe die W j+1 entsprechende Reaktion durch und ändere die Teilchenzahlgemäÿ n k → m j+1 ≡ n k+1 .4. Falls t k+1 < T , gehe zurück zu Schritt 2, andernfalls ist das Ende der Simulationerreicht.BeispielAls Beispiel zur Anwendung des Gillespie Algorithmus betrachten wir noch einmal dieautokatalytische Reaktion aus Abschnitt 4.4. Je nach stattndender chemische Reaktionändert sich die X-Teilchenzahl um höchsten ±1 (Abb. 4.6A), d.h. die Übergangsratenhaben die FormW i (m i |n k ) = W i (n k + l i |n k ) mit l i = ±1, i = 1, 2, 3.Die Gesamtrate, den Zustand n k zu verlassen, ist dann durchW nk =3∑W i (n k + l i |n k ) = k 1 An k + k 2 n k (n k − 1) + k 3 n ki=1gegeben.Um den Zeitpunkt der nächsten Reaktion zu berechnen, generieren wir eine in (0, 1)gleichverteilte Zufallszahl r und setzen (siehe Abb. 4.6B)t k+1 = t k + 1 1lnW nk 1 − r .Um zu entscheiden, welche Reaktion als nächste stattnden wird, setzen wir, Gleichung(4.50) folgend, P j = 0 und denierenP j =∑ ji=1 W i (n k + l i |n k )∑ 3i=1 W , j = 1, 2, 3.i (n k + l i |n k )Die P j vergleichen wir mit einer weiteren aus (0, 1) generierten Zufallszahl s, wobeiinsgesamt 3 Fälle auftreten können:0 < s < P 1 → Reaktion 1 ndet stattP 1 < s < P 2 → Reaktion 2 ndet stattP 2 < s < P 3 → Reaktion 3 ndet statt.Abbildung (4.6C) zeigt einen Ausschnitt einer typischen Realisierung des durch die Mastergleichung(4.45) beschriebenen Markov Prozesses. Sie besteht aus Parallelen zur x-Achse, die immer dann einen Sprung in y-Richtung aufweisen, wenn ein Übergang in57


4. Die Mastergleichung(A)ReaktionssystemAnzahl an X−TeilchenAnzahl an A−TeilchenÜbergangsratenReaktion 1:Reaktion 2:Reaktion 3:Gesamtrate aller Übergängevon in andere ZuständeWahrscheinlichkeit, dass Reaktion i stattfindet:(B)Ausgangs−zustandmöglicheEndzuständeWahrschein−lichkeit(C)X−Teilchenzahlist exponential verteiltAbbildung 4.6.: Anwendung des Gillespie Algorithmus auf die autokatalytische Reaktionaus Abschnitt 4.4. (A) Reaktionsgleichungen und Übergangsraten. (B)Ausgehend von einem Ausgangszustand n k = n(t k ) können nur Übergängein benachbarte Zustände n k ± 1 erfolgen. Die Wahrscheinlichkeitim Zustand n k + 1 bzw. n k − 1 zu landen ist P 1 bzw. P 2 + P 3 . (C)Ausschnitt einer durch Simulation der Mastergleichung erhaltenen Realisierung.Die statt gefundenen Übergänge sind durch die entsprechendeÜbergangsrate W i gekennzeichnet.einen neuen Zustand stattndet. Die dargestellten Übergänge entsprechen generiertenZufallszahlen s k ∈ (0, 1) im Intervallt k+1 : P 1 < s k+1 ≤ P 2 → W 2t k+2 : P 2 < s k+2 ≤ P 3 → W 3t k+3 : P 0 < s k+3 ≤ P 1 → W 1t k+4 : P 2 < s k+4 ≤ P 3 → W 3 .4.6. Kopplung von Transkription und TranslationIm Abschnitt 1.3 hatten wir gesehen, dass die Anzahl an mRNA Molekülen pro Zelledurch eine Poisson Verteilung beschrieben wird, wenn mRNA Auf- und Abbau unabhängigvoneinander erfolgen. Im Allgemeinen werden aber pro mRNA Molekül mehrere58


4.6. Kopplung von Transkription und Translation(A)1mRNA23Protein4(B)(C)Protein Protein ProteinmRNA mRNA mRNA mRNAAbbildung 4.7.: (A) Kombinierter Prozess bestehend aus mRNA Transkription (1) undProteintranslation (3) sowie mRNA-Abbau (2) und Proteinabbau (4).(B) Die zu (1)-(4) gehörigen Übergangsraten. (C) Beispielrealisierungdes in Abschnitt 4.6.2 denierten stochastischen Prozesses: Es werden 3Proteine synthetisiert, bevor die mRNA abgebaut wird.Proteine erzeugt, sodass diese oftmals in Bursts entstehen, was zu einer Abweichung vomPoisson'schen Verhalten und zu einer Verbreiterung der Proteinverteilung führt 3 .Im Folgenden soll der in Abschnitt 1.3 eingeführte Prozess dahingehend erweitert werden,dass die Proteinsynthese an den Auf- und Abbau von mRNA Molekülen gekoppeltwird. Dazu nehmen wir an, dass, pro mRNA Molekül, Proteine mit spezischer Rate k Perzeugt und mit spezischer Rate γ P wieder abgebaut werden (Abb. 4.7A).4.6.1. MastergleichungMit Hilfe der in Abbildung 4.7B denierten Übergangsraten wird der in Abbildung 4.7Agezeigte Prozess, bestehend aus mRNA Transkription und Proteintranslation, durch dieMastergleichungdp (r, n, t)dt= k R [p (r − 1, n, t) − p (r, n, t)] + γ R [(r + 1) p (r + 1, n, t) − rp (r, n, t)]+ k p r [p (r, n − 1, t) − p (r, n, t)] + γ P [(n + 1) p (r, n + 1, t) − np (r, n, t)]beschrieben, wobei p (r, n, t) die Wahrscheinlichkeit angibt, zur Zeit t genau r mRNAsund n Proteine im System zu haben. Eine exakte Lösung dieser Gleichung ist schwierig.Es lässt sich aber eine Näherungslösung konstruieren, wenn man den Umstand berücksichtigt,dass die Lebendauer eines mRNA Moleküls (1/γ R ) im Allgemeinen wesentlichkürzer als die eines Proteins (1/γ P ) ist, d.h. γ P /γ R ≪ 1 4 . Dann kann man annehmen, dassdie mRNA-Verteilung, auf der Zeitskala der Proteindynamik (1/γ P ), bereits ihre stationäreForm erreicht hat. Unter diesen Umständen lässt sich eine eektive Mastergleichung3 Otto Berg (1978) A model for the statistical uctuations of protein numbers in a microbial population.J. Theo. Biol. 71, 587-603.4 V. Shahrezaei and P. S. Swain (2008) Analytical distributions for stochastic gene expression. Proc.Natl. Acad. Sci. USA 105, 17256-17261.59


4. Die Mastergleichungallein für die Proteindynamik aufstellen. Dazu müssen wir wissen, wieviele Proteine promRNA Molekül synthetisiert werden, bevor das mRNA Molekül wieder abgebaut wird?4.6.2. Quasi-stationäre Beschreibung der ProteinsyntheseZur Beantwortung dieser Frage denieren wir folgenden stochastischen Prozess: Ausgehendvon 1 mRNA Molekül soll in jedem Zeischritt ∆t genau eine von zwei Möglichkeitenstattnden1. Entweder wird ein Protein synthetisiert (Übergangsrate: k p )2. oder die mRNA wird abgebaut (Übergangsrate: γ R ).Analog zum Random-Telegraph Prozess aus Abschnitt 4.2 hängt die stationäre Wahrscheinlichkeit,in dem einen oder anderen Zustand zu landen, nur vom relativen Anteilder jeweiligen Übergangsrate bezogen auf die Gesamtrate k P + γ R ab (siehe 4.19), alsop syn =k Pk P + γ Rund p deg =γ Rk P + γ R.Dann ist die Wahrscheinlichkeit, dass aus einem mRNA Molekül n Proteine erzeugtwerden, bevor die mRNA wieder abgebaut wird, durch die geometrische Verteilungh n = p n syn · p deggegeben (Abb. 4.7C). Dies lässt sich auch in der Formh n = q n (1 − q) , n = 0, 1, . . . mit q ≡ b1 + b < 1 (4.52)schreiben. Hierbei istb =∞∑nh n = (1 − q) q d dqn=0∞∑q n = (1 − q) q d dqn=011 − q = q1 − q = b ≡ k P /γ Rdie mittlere Anzahl an Proteinen, die pro mRNA Molekül synthetisiert werden.4.6.3. Eektive Mastergleichung für die ProteinsyntheseMit Hilfe von Gleichung (4.52) kann die eektive Mastergleichung für den Protein AufundAbbau in der Form( n−1)d∞∑dt p n (t) = k R h n−r p r (t) − p n (t) h r + γ P [(n + 1) p n+1 (t) − np n (t)] (4.53)∑r=0r=1geschrieben werden. Hierbei ist h n−r p r (t) die Wahrscheinlichkeit, dass zur Zeit t bereitsr Proteine vorhanden sind und im Zeitschritt dt pro mRNA Molekül noch n − r weitereProteine synthetisiert werden. Dann ist∑h n−r p rk Rn−1r=060


die Gesamtrate aller Übergänge in den Zustand n. Analog istp n (t)4.6. Kopplung von Transkription und Translation∞∑bh r = p n (t)1 + br=1die Wahrscheinlichkeit, dass zur Zeit t bereits n Proteine vorhanden sind und in dtmindestens ein weiteres Protein erzeugt wird. Multipliziert mit k R ergibt sich daraus dieGesamtrate, mit der Übergänge aus dem Zustand n heraus stattnden.Bemerkungen:1. Der in (4.53) scheinbar fehlende Term h 0 p n tritt nicht auf, da er keine Änderungdes Zustandes p n bewirkt und damit keinen echten Übergang in den Zustand nhinein oder aus n heraus beschreibt (siehe Gl. 4.3).2. In der Übung (Blatt 4) hatten wir gesehen, dass die Lösung der Mastergleichung(4.53) durch die negative Binomialverteilungp n =gegeben ist. Hierbei ist λ = k R /γ P .Γ (n + λ)n!Γ (λ) ρn (1 − ρ) λ , ρ ≡ b1 + b(4.54)4.6.4. Übergang zur kontinuierlichen BeschreibungIm Folgenden wollen wir die Proteinzahl als kontinuierliche Variable x betrachten undsetzen dazux = nl mit l ∈ [0, 1], n = 0, 1, 2, . . .Für kontinuierliche Zufallsgröÿen lässt sich die geometrische Verteilung durch die Exponentialverteilungw(x) = 1 (b exp − x ), x ∈ [o, ∞) (4.55)bapproximieren. Entsprechend approximieren wir die in (4.53) auftretenden Summen durchIntegrale der Formn−1∑∫ x∞∑∫ ∞→ dx ′ and → dx ′ .r=00Dann ist die Wahrscheinlichkeit, dass mindestens ein Protein erzeugt wird durchP (x ≥ 1) ≈∫ ∞0r=10dxw(x) = 1gegeben. Der in Gleichung (4.53) auftretende Protein Abbauterm nimmt in kontinuierlicherBeschreibung die Gestalt (∆n = 1)(n + 1)lp (n+1)l − nlp nl(∆n) · l→(x + l) p (x + l) − xp (x)ll→0→∂∂x (xp(x)) 61


4. Die Mastergleichungan. Für den verbleibenden Term erhalten wirn−1∑l→0h n−r p r →r=0∫ x0dx ′ w ( x − x ′) p ( x ′) .Damit geht die diskrete Mastergleichung (4.53) in die kontinuierliche Mastergleichung[∫∂∂t p(x, t) = γ ∂x]P∂x [xp(x, t)] + k R dx ′ w(x − x ′ )p(x ′ ) − p(x)über 5 .4.6.5. Stationäre LösungZur Lösung der stationären Mastergleichung[∫ x]0 = ∂ x [xp(x, t)] + λ dx ′ w(x − x ′ )p(x ′ ) − p(x) , λ = k R.γ P0multiplizieren wir beide Seiten mit e −sx und integrieren von 0 bis ∞. Das liefert∫ ∞0dxe −sx ∂ x [xp(x, t)] = [ e −sx xp(x, t) ] | ∞ x=0 + s∫ ∞= −s∂ s dxe −sx p(x, t)0= −s∂ s ˆp(s)0∫ ∞0dx xe −sx p(x, t)und∫ ∞0∫ xdxe −sx dx ′ w(x − x ′ )p(x ′ ) =0=∫ ∞0∫ ∞0dy∫ ∞0dye −sy w(y)= ŵ(s) · ˆp(s).dx ′ e −s(y+x′) w(y)p(x ′ )∫ ∞0dx ′ e −sx′ p(x ′ )Hier haben wir y = x − x ′ ≥ 0 gesetzt, da mit x auch x ′ nach ∞ geht. Auÿerdem habenwir überˆp(s) =∫ ∞0dxe −sx p(x) und ŵ(s) =∫ ∞0dxe −sx w(x)die zu p(x) und w(x) gehörigen Laplacetransformierten eingeführt. Für w(x) in Gleichung(4.55) bekommen wir die Laplacetransformierteŵ(s) = 1 ∫ ( )∞dxe −sx e − x 1 1b =b 0b1b + s = 11 + bs .5 N. Friedman, L. Cai and X. Sunney Xie, Phys. Rev. Lett. 97, 168302, 2006.62


4.6. Kopplung von Transkription und TranslationDamit erhalten wir aus der kontinuierlichen Mastergleichung die LaplacetransformierteGleichung( ) 1s∂ s ˆp(s) = λ1 + bs − 1 ˆp(s) = −λbs ˆp(s), ˆp(0) = 1.1 + bsDeren Lösung ist durchˆp(s) =gegeben. Rücktransformation liefert1(1 + bs) λ = 1b ( λ s + 1 ) λbMittelwert und Varianz der Verteilung sind durchp(x) = xλ−1 e − x bb λ Γ (λ) . (4.56)〈x〉 = λb und σ 2 x = 〈 x 2〉 − 〈x〉 2 = λb 2gegeben. Zm Vergleich: Mittelwert und Varianz der negativen Binomialverteilung sinddurch〈n〉 = λb und σ 2 n = 〈 n 2〉 − 〈n〉 2 = λb (b + 1)gegeben. Für b ≫ 1 stellt die kontinuierliche Approximation also eine sehr gute Näherungdar (Abbildung 4.8).In E. coli Zellpopulationen wurden kürzlich Proteinverteilungen für eine Vielzahl anProteinen experimentell vermessen 6 . Dazu hat man gezählt wie häug ein bestimmtesProtein pro Zelle vorkommt. Die sich daraus ergebenden Verteilungen liessen sich sehrgut mit Hilfe der Gammaverteilung (4.56) beschreiben.6 Y. Taniguchi et. al. Quantifying E. coli Proteome and Transcriptome with Single-Molecule Sensitivityin Single Cells. Science 329, 533-538 (2010)63


4. Die Mastergleichung0.300.250.200.150.100.050.000 5 10 15 20Abbildung 4.8.: Vergleich zwischen negativer Binomialverteilung (4.54) und ihrer kontinuierlichenApproximation (durchgezogene Linie) durch die Gammaverteilung(4.56) bei festem Mittelwert 〈n〉 = 〈x〉 = λ · b = 10.64


5. Fokker-Planck Gleichungen5.1. Die Kramers-Moyal EntwicklungIm Abschnitt 4.5 hatten wir gesehen, dass sich die Übergangsraten in der Mastergleichungdp (x, t)dt∫=ds [V (x − s|s) p (x − s, t) − V (x|s) p (x, t)] ,x, s ∈ Rin der Form(f+i(x)δ (s,+i) + f − i (x)δ (s,−i))V (x, s) = ∑ ischreiben lassen. Oftmals nden nur Übergänge in benachbarte Zustände statt, d.h. s =±1, sodass für x ≫ s eine Entwicklung der Übergangsraten im ersten Argument sinnvollerscheintV (x − s, s)p(x − s, t) =∞∑ (−s) k ∂ k[V (x, s)p(x, t)] .k! ∂xk k=0Setzt man diesen Ausdruck in die Mastergleichung ein, fällt der Term für k = 0 weg undman erhält die Kramers-Moyal Entwicklung∂p (x, t)∂t=∞∑ (−1) k ∂ kk! ∂x k [a k(x)p(x, t)] (5.1)k=1wobei die Sprungmomente k-ter Ordnung durch∫a k (x) =ds s k V (x, s)deniert sind. Die Kramers-Moyal Entwicklung is der Mastergleichung äquivalent, solangeman alle Terme auf der rechten Seite berücksichtigt. Oft bricht man aber die Entwicklungnach dem zweiten Term ab und erhält daraus die Fokker-Planck Gleichung∂p (x, t)∂t∂ 2= − ∂∂x (a 1 (x) p (x, t)) + 1 2 ∂x 2 (a 2 (x) p (x, t)) (5.2)die unter der Anfangsbedingung p(x, 0|y) = δ(x − y) zu lösen ist.65


5. Fokker-Planck GleichungenBemerkungen:1. Im Allgemeinen können die Funktionen a 1 (x, t) und a 2 (x, t) zeitabhängig sein. Diezugehörigen Lösungen der Fokker-Planck Gleichung sind dann aber nicht mehrnotwendigerweise zeit-homogen.2. Für vektorwertige Zufallsvariable ⃗z = (z 1 , . . . , z n ) hat die Fokker-Planck Gleichungdie Gestalt∂ t p(⃗z, t) = − ∑ i∂(A i (⃗z, t)p(⃗z, t)) + 1 ∑ ∂ 2(B ij (⃗z, t)p(⃗z, t)) .∂z i 2 ∂zij i ∂z j⃗A(⃗z, t) nennt man Driftvektor und B(⃗z, t) Diusionsmatrix (positiv denit, symmetrisch).Sind sie zeitunabhängig, ist der zugehörige Markov Prozess zeithomogenund die Übergangswahrscheinlichkeiten hängen nur von der Zeitdierenz ab.3. Die Fokker-Planck Gleichung hat die Form einer Kontinuitätsgleichungwobei die Gröÿe∂ ∂p (x, t) + j (x, t) = 0 (5.3)∂t ∂xj (x, t) = a 1 (x) p (x, t) − 1 ∂2 ∂x (a 2 (x) p (x, t)) (5.4)als Wahrscheinlichkeitsstromdichte interpretiert werden kann.4. Stationäre Lösungen der Fokker-Planck Gleichung sind durch∂∂x j s (x) = 0 ↔ j s (x) = j 0 = konstant (5.5)gekennzeichnet. Im einfachsten Fall kann man nach stationären Lösungen suchen,deren Wahrscheinlichkeitsstromdichte im Unendlichen verschwindet, sodasslim j (x) = 0 (5.6)|x|→∞gilt. Dann verschwindet auch die in Gleichung (5.5) denierte Konstante (j 0 ≡ 0)und aus der Kontinuitätsgleichung (5.3) folgt durch Integration über x ∈ (−∞, ∞)ddt∫ ∞−∞die Erhaltung der GesamtwahrscheinlichkeitP =∫ ∞dx p(x, t) = −j(x, t)| ∞ −∞ = 0,−∞dx p (x, t) = konstant = 1.Der Wert der Konstanten folgt aus der Normierung der Wahrscheinlichkeitsdichte.Falls die stationäre Wahrscheinlichkeitsstromdichte j s (x) identisch verschwindet66


5.1. Die Kramers-Moyal Entwicklung(Gleichung 5.6) dann werden stationäre Lösungen der Fokker-Planck Gleichung(5.2) durch die gewöhnliche DGL 1. Ordnungj s (x) = a 1 (x) p s (x) − 1 ∂2 ∂x (a 2 (x) p s (x)) = 0beschrieben. Integration liefertp s (x) =C [ ∫ xa 2 (x) exp 2 dy a ]1 (y)a 2 (y)wobei die hierbei auftretende Konstante C durch die Normierungsbedingung∫p s (x) dx = ! 11 ↔ C = ∫ [dxa 2 (x) exp 2 ∫ ]x dy a 1(y)a 2 (y)(5.7)bestimmt ist.(Je nach Art der Funktionen a 1 und a 2 kann es vorkommen, dass die formale Lösung(5.7) nicht normierbar ist. In diesem Falle gibt es keine stationäre Lösung.)5.1.1. Zeitliche Entwicklung von ErwartungswertenMit Hilfe der Fokker-Planck Gleichung können wir leicht eine Dierentialgleichung fürbeliebige Erwartungswerte der Form∫〈f (x)〉 = dx f (x) p (x, t)herleiten. Sei also p(x, t) eine Lösung der Fokker-Planck Gleichung (5.2), dann gilt∫ddt 〈f (x)〉 = dx f (x) ∂ p (x, t)∂t∫ [= dx f (x) − ∂∂x (a 1(x)p(x, t)) + 1 ∂ 2]2 ∂x 2 (a 2 (x) p (x, t))∫ [= dx a 1 (x) p (x, t) ∂∂x f(x) + 1 ]2 a 2 (x) p (x, t) ∂2∂x 2 f (x)ddt 〈f (x)〉 = 〈f ′ (x) a 1 (x)〉 + 1 2 〈f ′′ (x) a 2 (x)〉, (5.8)wobei wir angenommen haben, dass die in Zeile 3 auftretenden Randterme verschwindenlim|x|→∞lim|x|→∞lim [f (x) a 1 (x) p (x)] = 0|x|→∞[f (x) ∂]∂x (a 2 (x) p (x)) = 0]= 0.[( ∂∂x f (x) ) ∂∂x (a 2 (x) p (x))Typischerweise sind f (x), a 1 (x) und a 2 (x) Polynome in x, sodass p (x) hinreichendschnell (und ohne starke Oszillationen) gegen Null gehen muss, damit die Randtermeverschwinden.67


5. Fokker-Planck Gleichungen5.1.2. Gleichungen für Mittelwert und VarianzSetzt man in (5.8) f (x) = x oder f (x) = x 2 erhält manddt 〈x〉 = 〈a 1 (x)〉 (5.9)bzw.d 〈x2 〉 = 2 〈x · a 1 (x)〉 + 〈a 2 (x)〉 (5.10)dtdie oenbar nur dann geschlossene Gleichungen für 〈x〉 bzw. 〈 x 2〉 darstellen, wenna 1 (x) = ax + bbzw.a 2 (x) = cx 2 + dx + e .Im Allgemeinen erhält man keine geschlossenen Gleichungen für die Momente.Dierentialgleichung für die VarianzMit Hilfe 〈 von Gln. (5.9) und (5.10) kann man direkt eine Gleichung für die Varianzσx 2 = (∆x) 2〉 , wobei ∆x = x − 〈x〉 ist, herleitend〈(∆x) 2〉 ≡ d dtdt 〈x2 〉 − d dt 〈x〉2 = 2〈xa 1 (x)〉 + 〈a 2 (x)〉 − 2〈x〉 d dt 〈x〉= 2〈xa 1 (x)〉 + 〈a 2 (x)〉 − 2〈x〉〈a 1 (x)〉d〈(∆x) 2〉 = 2〈∆x a 1 (x)〉 + 〈a 2 (x)〉. (5.11)dtEbenso wie Gl. (5.10) ist Gl. (5.11) nur dann eine geschlossene Gleichung für 〈 (∆x) 2〉 ,wenn a 1 höchstens linear and a 2 höchstens quadratisch in ∆x ist.Gilt speziell a 2 (x) ≡ 0 and a 1 (x) = a∆x + b dann verschwindet die stationäre Varianzwegen2a〈(∆x) 2 〉 + 2b 〈∆x〉 = 2a〈(∆x) 2 〉 = 0.Das legt den Verdacht nahe, dass Fluktuationen nur dann auftreten können, wenn in derKramers-Moyal Entwicklung (5.1) der Term proportional zu a 2 (x) berücksichtigt wird.5.2. Der Wiener ProzessDer Wiener Prozess, den wir im Hinblick auf spätere Anwendungen mit `W ' bezeichnenwollen, spielt für das Verständnis stochastischer Dierentialgleichungen, welche in Kapitel6 behandelt werden, eine übergeordnete Rolle. Formal erhält man ihn als Lösung derFokker-Planck Gleichung (5.2) mit a 1 ≡ 0 und a 2 ≡ 1∂ 2∂∂t p (w, t) = 1 p (w, t)2 ∂w2 68


5.2. Der Wiener Prozessund der Anfangsbedingung p(w, t 0 |w 0 , t 0 ) = δ(w − w 0 ), d.h. die Übergangswahrscheinlichkeithat die Form einer Gauss-Verteilungp 1|1 (w, t|w 0 , t 0 ) =1√2π(t − t0 ) e− (w−w 0 )22(t−t 0) , t ≥ t 0 . (5.12)Für Mittelwert und Varianz ndet man〈X(t)〉 = w 0 (5.13)σ 2 W ≡ 〈 W 2 (t) 〉 − w 2 0 = t − t 0 , (5.14)d.h. die Übergangswahrscheinlichkeitsdichte bleibt um ihren Startwert w 0 zentriert, aberdie Varianz σ 2 W wächst proportional zur Zeitdierenz t − t 0 an, was charakteristisch fürdiusive Prozesse ist (siehe Abb. 4.3B).Bermerkung:Der Wiener Prozess ist ein Beispiel für einen zeit-homogenen, aber nicht stationärenProzess. Er ist zeit-homogen, da die Übergangswahrscheinlichkeitsdichte (5.12) nur vonder Zeitdierenz abhängt, aber er ist nicht stationär, da seine Varianz zeitabhängig ist.5.2.1. Unabhängige ZuwächseDa der Wiener Prozess ein Markov Prozess ist, lässt sich die n-Zeitpunkt Verbundwahrscheinlichkeitalsp n (w n , t n ; . . . ; w 0 , t 0 ) = Π n i=1p 1|1 (w i , t i |w i−1 , t i−1 )p 1 (w 0 , t 0 )schreiben. Nach Einsetzen der expliziten Ausdrücke für die Übergangswahrscheinlichkeiten(5.12) wird darausp n (w n , t n ; . . . ; w 0 , t 0 ) = Π n 1(w i −w i−1 )2i=1 √2π(ti − t i−1 ) e− 2(t i −t i−1) p 1 (w 0 , t 0 ).Da dieser Ausdruck nur von den Zuwächsen ∆w i = w i − w i−1 und den Zeitdierenzen∆t i = t i − t i−1 abhängt, liegt es Nahe, diese als neue Variablen zu benutzen:∆W i = W (t i ) − W (t i−1 )∆t i = t i − t i−1 , i = 1, . . . , n .Dann faktorisiert die n-Zeitpunkt Verbundwahrscheinlichkeit für die Zuwächse ∆W i inn Einzelwahrscheinlichkeitenp n (∆w n , ∆t n ; . . . ; ∆w 1 , ∆t 1 ; w 0 , t 0 ) = Π n i=1p 1 (∆w i , ∆t i ) · p 1 (w 0 , t 0 ) mit (5.15)p 1 (∆w i , ∆t i ) =1√2π(∆ti ) e− (∆w i )22∆t i69


5. Fokker-Planck Gleichungend.h. die Zuwächse ∆W i sind unabhängig voneinander und unabhängig von W (t 0 ). InsbesonderegiltBemerkungen:〈∆W i 〉 =〈(∆W i ) 2〉 =∫ ∞−∞∫ ∞−∞d (∆w i )d (∆w i )∆w i√2π(∆ti ) e− (∆w i )22∆t i = 0, i = 1, . . . , n (5.16)(∆w i ) 2√2π(∆ti ) e− (∆w i )22∆t i = ∆t i . (5.17)1. Der so konstruierte Prozess ist stationär, da alle zeitgleichen Momente (t 1 = t 2 =. . . = t n ), insbesondere die Varianz (5.17), wegen ∆t i = 0 zeitunabhängig sind.2. Für zwei aueinander folgende Zeitpunkte t 0 und t 1 > t 0 folgt aus Gleichung (5.15),dass der Zuwachs ∆W 1 = W (t 1 ) − W (t 0 ) unabhängig von W (t 0 ) ist, also〈[W (t 1 ) − W (t 0 )] W (t 0 )〉 ≡ 〈∆W 1 W (t 0 )〉 = 〈∆W 1 〉 〈W (t} {{ } 0 )〉 = 0 (5.18)=0wobei wir im letzten Schritt Gleichung (5.16) benutzt haben.3. Einen stationären Prozess mit unabhängigen Zuwächsen nennt man Lévy Prozess.5.2.2. AutokorrelationsfunktionBei der Berechnung der Autokorrelationsfunktion müssen wir beachten, dass der WienerProzess nicht stationär ist, sodass die Autokorrelationsfunktion explizit von zwei Zeitargumentenabhängt, alsoκ (t 1 , t 2 ) = 〈W (t 1 ) W (t 2 )〉 − 〈W (t)〉 2 .Insbesondere ist der Mittelwert nach Gleichung (5.13) durch〈W (t)〉 = w 0gegeben. Zur Berechnung von∫ ∫〈W (t 1 ) W (t 2 )〉 =dw 1 dw 2 w 1 w 2 p 2 (w 1 , t 1 ; w 2 , t 2 )müssen zwei Fälle unterschieden werden, jenachdem ob t 1 < t 2 oder t 2 < t 1 gilt. Dementsprechenderhält man〈W (t 1 ) W (t 2 )〉 ={ ∫ ∫dw1 dw 2 w 1 w 2 p 1|1 (w 2 , t 2 |w 1 , t 1 ) p 1 (w 1 , t 1 ) ,∫ ∫dw1 dw 2 w 1 w 2 p 1|1 (w 1 , t 1 |w 2 , t 2 ) p 1 (w 2 , t 2 ) ,falls t 1 < t 2falls t 2 < t 1.70


5.2. Der Wiener ProzessHierbei ist die Übergangswahrscheinlichkeit durchp 1|1 (w 2 , t 2 |w 1 , t 1 ) =1√2π(t2 − t 1 ) e− (w 2 −w 1 )22(t 2 −t 1) , t 2 ≥ t 1gegeben. Nimmt man weiterhin an, das Teilchen bende sich zur Zeit t 0 am Ort w 0 , dannndet man als Anfangsdichte∫p 1 (w 1 , t 1 ) = dzp 1|1 (w 1 , t 1 |z, t 0 ) δ (z − w 0 )= p 1|1 (w 1 , t 1 |w 0 , t 0 )=1√2π (t1 − t 0 ) e− (w 1 −w 0 )22(t 1 −t 0) .Damit erhalten wir im Falle t 1 < t 2∫ ∫〈W (t 1 ) W (t 2 )〉 = dw 1 dw 2 w 1 w 2 p 1|1 (w 2 , t 2 |w 1 , t 1 ) p 1 (w 1 , t 1 )==∫ ∞−∞∫ ∞−∞∫w 1dw 1 √ (w 1 −w 0 )2 ∞2π (t1 − t 0 ) e− 2(t 1 −t 0 )w12 dw 1 √ (w 1 −w 0 )22π (t1 − t 0 ) e− 2(t 1 −t 0 )= t 1 − t 0 + w 2 0, t 1 < t 2−∞w 2dw 2 √ (w 2 −w 1 )22π(t2 − t 1 ) e− 2(t 2 −t 1 )und analog∫ ∫〈W (t 1 ) W (t 2 )〉 =dw 1 dw 2 w 1 w 2 p 1|1 (w 1 , t 1 |w 2 , t 2 ) p 1 (w 2 , t 2 )=∫ ∞−∞∫w 2dw 2 √ (w 2 −w 0 )2 ∞2π (t2 − t 0 ) e− 2(t 2 −t 0 )= t 2 − t 0 + w 2 0, t 2 < t 1−∞w 1dw 1 √ (w 1 −w 2 )22π(t1 − t 2 ) e− 2(t 1 −t 2 )also insgesamtκ (t 1 , t 2 ) = 〈W (t 1 ) W (t 2 )〉 − w 2 0 = min(t 1 − t 0 , t 2 − t 0 ).Einfacher ist es, die Unabhängigkeit der Zuwächse ∆W zu benutzen. Im Falle t 2 > t 1kann man dann schreiben〈W (t 1 )W (t 2 )〉 = 〈(W (t 2 ) − W (t 1 )) W (t 1 )〉 + 〈 W 2 (t 1 ) 〉= 〈∆W (t 2 ) · W (t 1 )〉 + 〈 W 2 (t 1 ) 〉(5.18)= 〈∆W (t 2 )〉 · 〈W (t} {{ } 1 )〉 + 〈 W 2 (t 1 ) 〉=0= 〈 W 2 (t 1 ) 〉 = t 1 − t 0 + w 2 0, t 1 < t 271


5. Fokker-Planck Gleichungen(A)(B)Abbildung 5.1.: Autokorrelationsfunktion des Wiener Prozess (5.19) für t 0 = 0 als (A)Funktion von t 1 und t 2 und (B) als Funktion von t 2 für einen festenZeitpunkt t 1 . Im Bereich t 2 < t 1 steigt κ t1 (t 2 ) linear an und erreicht seinMaximum für t 2 = t 1 . Im Bereich t 2 > t 1 bleibt κ t1 (t 2 ) = t 1 konstant.In der letzten Zeile haben wir Gleichung (5.14) benutztσW 2 = 〈 W 2 (t 1 ) 〉 − w0 2 = t 1 − t 0 .Im Falle t 1 > t 2 erhalten wir analog〈W (t 1 ) W (t 2 )〉 = 〈(W (t 1 ) − W (t 2 )) W (t 2 )〉 + 〈 W 2 (t 2 ) 〉= 〈 W 2 (t 2 ) 〉 = t 2 − t 0 + w0, 2 t 2 < t 1also insgesamtκ (t 1 , t 2 ) = 〈W (t 1 ) W (t 2 )〉 − w0 2 = min(t 1 − t 0 , t 2 − t 0 ). (5.19)72


5.3. Der Ornstein-Uhlenbeck Prozess5.3. Der Ornstein-Uhlenbeck ProzessDer Ornstein-Uhlenbeck Prozess beschreibt ein (Brown'sches) Teilchen, das neben derungerichteten Molekularbewegung (Diusion) auch einer gerichteten Driftbewegung unterliegt.Er wird durch die Fokker-Planck Gleichungmit der Anfangsbedingung∂ ∂p (x, t) =∂t ∂x [k (x − x s) p (x, t)] + D 2p (x, t = 0|x 0 , 0) = δ (x − x 0 )∂ 2p (x, t) (5.20)∂x2 beschrieben. Gleichung (5.20) enthält neben einem konstanten Diusionsterm (a 2 (x) =D) auch einen linearen Driftterm (a 1 (x) = −k (x − x s )) .5.3.1. Zeitabhängige Lösung der Fokker-Planck GleichungZur Lösung der Gl. (5.20) setzen wiry = x − x s und p (x, t) = p (x s + y, t) := q (y, t) (5.21)In der neuen Koordinate hat die Fokker-Planck Gleichung die Gestalt∂∂t q (y, t) = ∂ ∂y [ky · q (y, t)] + D 2q (y, t = 0|x 0 , 0) = δ (y + x s − x 0 ) .Unter Verwendung der charakteristischen Funktionφ(s, t) =∫ ∞−∞dy q(y, t|x 0 , 0)e isyund nach partieller Integration (unter Vernachlässigung der Randterme)∫ ∞−∞∫ ∞dy ∂ ∂t q(y, t)eisy = dy e isy ∂−∞ ∂y [kyq (y, t)] + D 2∫∂∞∂t φ(s, t) = − dy iskyq (y, t) e isy − D−∞ 2= −ks ∂ ∂s∫ ∞−∞∂ 2q (y, t) (5.22)∂y2 ∫ ∞−∞∫ ∞−∞dy edy q (y, t) e isy − D 2 s2 φ(s, t)isy ∂2q (y, t)∂y2 dy ise isy ∂ q (y, t)∂ygeht die Fokker-Planck Gleichung (5.22) in eine partielle DGL 1. Ordnung für s überDeren allgemeine Lösung lautet∂∂t φ(s, t) + ks ∂ ∂s φ(s, t) = −1 2 Ds2 φ(s, t).φ(s, t) = e − Ds24k g[se −kt] 73


5. Fokker-Planck Gleichungenwobei g(u) aus der Anfangsbedingung p(y, 0|x 0 , 0) = δ(y + x s − x 0 ) zu bestimmen ist:alsobzw.φ(s, 0) = e − Ds24k!=φ(s, t) = exp∫ ∞[−∞g(s)dy e isy δ [y − (x 0 − x s )] = e is(x 0−x s) ,g(s) = e Ds24k eis(x 0 −x s)− Ds24k + D [ se −kt] 24k][+ i se −kt] (x 0 − x s )= exp[is (x 0 − x s ) e −kt − Ds2 (1 − e −2kt)]4k[]≡ exp isµ y (t) + (is)22 σ2 (t) .Das ist aber die charakteristische Funktion einer Gaussverteilung[]1q (y, t|x 0 , 0) = √2πσ 2 (t) exp − (y − µ y (t)) 22σ 2 (t)deren Mittelwert und Varianz durchµ y (t) = (x 0 − x s ) e −kt und σ 2 (t) = D 2k(1 − e −2kt) (5.23)gegeben sind.Unter Verwendung von Gl. (5.21) erhalten wir daraus die Lösung der ursprünglichenFokker-Planck Gleichung (5.20) in der Form (siehe Abb. 5.2)[]1p (x, t|x 0 , 0) = √2πσ 2 (t) exp − (x − µ x (t)) 22σ 2 , (5.24)(t)d.h. die Varianz bezüglich x bleibt unverändert wohingegen der Mittelwert um x s verschobenwird, alsoµ x (t) = x s + µ y (t) = x s + (x 0 − x s ) e −kt . (5.25)Im Grenzwert t → ∞ geht die Verteilung (5.24) in die Gaussverteilunglim p(x, t|x 0, 0) = p s (x) =t→∞1√π (D/k)e − (x−xs)2(D/k)(5.26)mit Mittelwert µ s x = x s und Varianz σs2 = D/(2k) über. Demnach kann man x s alsGleichgewichtslage des Teilchens (Systems) interpretieren.74


5.3. Der Ornstein-Uhlenbeck Prozess2.02.01.51.51.0Drift1.00.50.50.00 2 4 6 8 100.00 2 4 6 8 10Abbildung 5.2.: Aufenthaltswahrscheinlichkeitsdichte eines Brownschen Teilchens mitDriftrate k = 0.5/s für unterschiedliche Diusionskoezienten nachGleichung (5.24). Start- und Gleichgewichtsposition liegen bei x 0 = 8µmund x s = 3µm. Die blaue Kurve entspricht ungefähr der Gleichgewichtsverteilung(5.26), die für t ≫ 1/k = 2s erreicht wird.Bemerkungen:1. Aus Gleichungen (5.23) und (5.25) folgt, dass die Varianz ihren stationären Wertσ 2 s = D/2k früher erreicht (t ≈ 1/2k) als der Mittelwert µ s x = x s (t ≈ 1/k).Die spezische Driftrate k bestimmt demnach die Zeitskala, auf der der Ornstein-Uhlenbeck Prozess stationär wird und damit das Teilchen seine Anfangsbedingungx 0 vergessen hat. Die Breite der Aufenthaltswahrscheinlichkeit des Teilchens wirddurch das Verhältnis von Diusionskoezient und Driftrate bestimmt.2. Gleichung (5.26) erhält man einfacher durch direktes Lösen der stationären Fokker-Planck Gleichungddx j (x) = 0, mit j (x) ≡ k (x − x s) p (x) + D 2ddx p (x) .Wenn wir fordern, dass die Wahrscheinlichkeitsstromdichte im Unendlichen verschwindet,wird daraus die gewöhnliche Dierentialgleichungdpp = −2k (x − x s)dxDderen Lösung mit dem in Gleichung (5.26) angegebenem Ausdruck übereinstimmt.5.3.2. Stationäre AutokorrelationsfunktionZur Berechnung der stationären Autokorrelationsfunktionκ (τ) = 〈X (τ) X (0)〉 − 〈X〉 2 75


5. Fokker-Planck Gleichungennehmen wir ohne Beschränkung der Allgemeinheit an, dass der Mittelwert x s bezüglichder stationären Dichte (5.26) verschwindet (〈X〉 = x s = 0), d.h. zur Berechnung vonκ (τ) brauchen wir nur nochmit〈X (τ) X (0)〉 =∫ ∞ ∫ ∞−∞−∞dxdy xyp (x, τ|y, 0) p s (y)[ (1x − ye−kτ ) ]2p (x, τ|y, 0) = √exp −πDk (1 − πDe−2kτ )k (1 − e−2kτ )1p s (y) = √ e −π (D/k)y2(D/k)zu berücksichtigen. Direktes Einsetzen führt auf Gauss'sche Integrale undκ (τ) = D 2k e−kτ , τ ≥ 0. (5.27)Bemerkungen:1. Die Autokorrelationsfunktion (5.27) ist wieder von der allgemeinen Gestaltκ (τ) = σ 2 se −τ/τcwobeiσs 2 = D und τ c = 1 2kkdie Varianz bezüglich der stationären Dichte (5.26) und τ c die Korrelationszeitbezeichnen.2. Man kann zeigen, dass der Ornstein-Uhlenbeck Prozess bis auf lineare Transformationender stochastischen Variablen y und der Zeit, der einzige Prozess ist, derstationär, gauÿverteilt und ein Markov Prozess ist (Doob's Theorem).5.4. Die van Kampen EntwicklungDie Idee hinter der in Abschnitt 5.1 vorgestellten Kramers-Moyal Entwicklung (Gl. 5.1)bestand darin, in der Mastergleichungddt p (X, t)) = ∑ S[V (X − S, S) p (X − S, t) − V (X, S) p (X, t)] (5.28)den TermV (X − S, S) p (X − S, t) =∞∑ (−S) k ∂ k[V (X, S) p (X, t)] (5.29)k! ∂Xk k=076


5.4. Die van Kampen Entwicklungin eine Taylorreihe bezüglich der Sprungweite S zu entwickeln und diese nach dem zweitenGlied abzubrechen. Als Ergebnis haben wir eine Fokker-Planck Gleichung der Form∂p (X, t)∂t∂ 2= − ∂∂X [a 1 (X) p (X, t)] + 1 2 ∂X 2 [a 2 (X) p (X, t)] (5.30)erhalten, wobei die Funktionen a i (X) durcha i (X) = ∑ SS i V (X, S) , i = 1, 2 (5.31)gegeben sind. Die Rechtfertigung für den Abbruch der Kramers-Moyal Entwicklung nachdem 2. Term besteht in der Annahme, dass die Sprungweite S klein gegenüber dem Wertder Zustandsvariablen X ist, also |S| ≪ |X|. Da, in der Tat, für viele Prozesse die Übergangsratennur für Übergänge in benachbarte Zustände (S = ±1) von Null verschiedensind (Random Walk, chemische Reaktionen), kann man erwarten, dass die Fokker-PlanckGleichung (5.30) bereits für X ∼ 10 − 100 eine sinnvolle Näherung darstellt. Es erscheintaber dennoch wünschenswert, ein quantitativeres Maÿ für die Güte der in Gl. (5.30)gemachten Approximation zu haben.BemerkungMan kann sich auch auf den Standpunkt stellen, dass der Abbruch der Kramers-MoyalEntwicklung nach dem 2. Term reine Zweckmäÿigkeit ist, denn mit nur einem Term(a 2 ≡ 0) gibt es keine Fluktuationen und wenn man höhere Terme in der Entwicklung(5.29) zulässt, hat man Probleme mit der Interpretation von p (X, t) als Wahrscheinlichkeitsdichte,da Lösungen der resultierenden Gleichungen auch negativ werden können.5.4.1. Entwicklung der Mastergleichung nach der inversen SystemgröÿeUm eine geeignete Gröÿe zur Approximation der Mastergleichung (5.28) zu nden, lassenwir uns von der Vorstellung leiten, dass im thermodynamischen Limes N, V → ∞, wennTeilchenzahl und Volumen bei konstant gehaltener Teilchenzahldichte n = N/V gegenUnendlich streben, Teilchenzahluktuationen im System verschwinden sollten. Entsprechendsollte die Mastergleichung in eine gewöhnliche Dierentialgleichung übergehen,welche die deterministische Dynamik der Teilchenzahldichte beschreibt.Es erscheint daher sinnvoll, das inverse Systemvolumen 1/V als Parameter in dieMastergleichung einzuführen, denn im thermodynamischen Limes wird dieser Parameterklein, sodass eine Entwicklung der Mastergleichung nach inversen Potenzen V −n sinnvollerscheint. Für chemische Reaktionen ist das in der Tat ein gangbarer Weg, aber schonbeim Random Walk ist nicht sofort klar, welchen Parameter man als Systemvolumenbetrachten sollte. Deshalb wollen wir im Folgenden annehmen, dass man in die Mastergleichungeinen die Gröÿe des betrachteten Systems charakterisierenden Parameter Ωeinführen kann, sodass dessen Inverses im thermodynamischen Limes beliebig klein wird.77


5. Fokker-Planck GleichungenBemerkungen1. Für chemische Reaktionen ist Ω im Allgemeinen identisch mit dem Systemvolumen,d.h. Ω ≡ V .2. Im Falle des Random Walk werden wir Ω mit dem Inversen des Gitterabstandes l(siehe Abschnitt 4.3.4) identizieren können, also Ω = 1/l.Um zu sehen, wie das Systemvolumen in die Mastergleichung eingeführt werden kann,betrachten wir noch einmal die chemische Reaktion aus Abb. 4.6A. Für diese hatten wirfolgenden Ausdruck für die Übergangsrate abgeleitet (Gl. 4.41)V (N, S) = k 1 ANδ (S,+1) + (k 2 N(N − 1) + k 3 N) δ (S,−1) . (5.32)Die hier auftretenden bimolekularen Reaktionsraten sind auf die Teichenzahl bezogenund haben die Einheit1[k 1 ] = [k 2 ] =Teilchen · swährend die Ratenkonstante k 3 die Einheit[k 3 ] = 1 sbesitzt. Im Gegensatz dazu hängen makroskopische Gröÿen von Teilchenzahldichten n =N/V und a = A/V ab, mit deren Hilfe sich die Übergangsrate in Gl. (5.32) wiefolgtumschreiben lässtV (N, S) = V(k 1 V A V(NV δ (S,+1) + k 2 V N 2 − NV 2) )N+ k 3 δV (S,−1)= V ( k ′ 1anδ (S,+1) + ( k ′ 2n 2 + k 3 n ) δ (S,−1))− k′2 nδ (S,−1)≡ V v 0 (n, S) + v 1 (n, S)= V 1 · v 0 (n, S) + V 0 · v 1 (n, S) , (5.33)d.h. die Übergangsrate kann als Potenzreihe mit absteigenden V -Potenzen dargestelltwerden, wobei die Koezientenfunktionenv 0 (n, S) = k ′ 1anδ (S,+1) + ( k ′ 2n 2 + k 3 n ) δ (S,−1)v 1 (n, S) = −k ′ 2nδ (S,−1)nur noch von makroskopischen Gröÿen, den Teilchenzahldichten n und a, abhängen. Insbesonderesind die bimolekularen Reaktionsraten k ′ 1 = k 1V und k ′ 2 = k 2V jetzt bezogenauf die Teilchenzahldichte und haben damit die korrekte Einheit für eine makroskopischeBeschreibung auf der Basis von Teilchenzahldichten.78


5.4. Die van Kampen EntwicklungBemerkungAnstelle von Teilchenzahldichten verwendet man zur Beschreibung biochemischer Reaktionenoft molare Dichten (1M ≡ 1mol/liter ≈ 6 · 10 23 Teilchen/liter). Dabei hat manlediglich das Volumen durch das molare Volumen()V m = V · N A N A ≈ 6 · 10 23 Teilchen(5.34)molzu ersetzen. Bezogen auf molare Teilchendichten haben die bimolekularen Reaktionsratendie Einheit[ ]k′ 1i =M · s = liter , i = 1, 2.mol · s1. Schritt: Zerlegung der stochastischen VariableWir lassen uns von der Vorstellung leiten, dass die extensive Variable X in der Mastergleichung(5.28) einen deterministischen Anteil Ωx und einen uktuierenden Anteil Ω 1/2 ξbesitzt, sodass der AnsatzX = Ωx + Ω 1/2 ξ (5.35)sinnvoll erscheint. Hierbei spielt x ≈ 〈X〉 /Ω ∼ O(1) die Rolle einer mittleren Dichtewährend ξ eine uktuierende Gröÿe, mit 〈ξ 2 〉 ∼ O(1), beschreiben soll. Die Skalierungdes uktuierenden Anteils ist motiviert durch den zentralen Grenzwertsatz aus AbschnittA.8. Dort wird gezeigt, dass die Varianz einer Summe von unabhängigen Gröÿen proportionalzur Anzahl der unabhängigen Gröÿen, also der Systemgröÿe, ist. Wir erwartenalso 〈(X − 〈X〉) 2 〉 ∼ Ω (und nicht ∼ Ω 2 ).2. Schritt: Transformation der DichteGl. (5.35) beschreibt den Übergang von der stochastischen Variablen X zu der neuenstochastischen Variablen ξ. Das Transformationsverhalten der entsprechenden Dichtenkönnen wir aus der Invarianzforderung des Wahscheinlichkeitsmaÿes ablesenp(X, t)dX ! = q(ξ, t)dξMit der aus (5.35) folgenden Beziehung dX = Ω 1/2 dξ folgt darausp(X, t) = Ω −1/2 q(ξ, t). (5.36)Die Dichte p(X − S, t) am verschobenen Argument ersetzt man in (4.42) mit Hilfe von(5.35) gemäÿp(X − S, t) = Ω −1/2 q(ξ − Ω −1/2 S, t).Hier haben wir benutzt, dassX − S = Ωx + Ω 1/2 ξ − S = Ωx + Ω 1/2 ( ξ − Ω −1/2 S). (5.37)79


5. Fokker-Planck Gleichungen3. Schritt: Umrechnung der ZeitableitungBei der Umrechnung der Zeitableitung ∂ t p(X, t) ist zu berücksichtigen, dass diese fürfestes X auszuwerten ist. Aus (5.36) folgt also nach der Kettenregel∂p(X, t)∂t( ) [ (∂q(ξ, )∂q(ξ, t)t)= Ω −1/2 = Ω −1/2 +∂tX∂tξAus (5.35) folgt weiter dX = 0 = Ωdx + Ω 1/2 dξ bzw.( ) dξ1/2 dx= −ΩdtXdt( ) ∂q(ξ, t)∂ξt( ) ]dξ.dtXund schlieÿlich∂p(X, t)∂t= Ω −1/2 [ ∂q(ξ, t)∂t− Ω1/2 dxdt]∂q(ξ, t)∂ξwobei ∂ t q(ξ, t) usw. nun normale partielle Ableitungen sind, also bei fest gehaltenemzweiten Argument zu bilden sind.4. Schritt: Entwicklung der ÜbergangsratenMotiviert durch die in Gl. (5.33), am Beispiel einer chemischen Reaktion, gefundenenDarstellung für die Übergangsrate erwarten wir für V (X, S) eine Entwicklung nach PotenzenΩ −1 der FormV (X, S) = Ωv 0 ( X Ω , S) + v 1( X Ω , S) + 1 Ω v 2( X Ω , S) + . . .= Ω∞∑λ=0Ω −λ v λ ( X , S) (5.38)Ωworin bereits berücksichtigt ist, dass im thermodynamischen Limes V (X, S) ∼ Ω fürΩ → ∞ gilt, d.h. wir nehmen an, dass v i ( X Ω, S) ∼ O(1). Setzen wir in diese Entwicklungfür X den Ansatz (5.35) ein bekommen wirV (X, S) = Ωbzw. unter Verwendung von (5.37)V (X − S, S) = Ω∞∑λ=0∞∑Ω −λ v λ (x + Ω −1/2 ξ, S)λ=0( )Ω −λ v λ (x + Ω −1/2 ξ − Ω −1/2 S , S).80


5.4. Die van Kampen Entwicklung5. Schritt: Einsetzen in die Mastergleichung und Entwicklung nach Potenzen Ω 1/2Setzt man obige Ausdrücke für p(X, t), p(X − S, t), V (X, S), V (X − S, S) und ∂ t p(X, t)in die Mastergleichung (4.42) ein, so erhält man auf der rechten Seite den AusdruckΩ 1− 1 2∑S∞∑λ=0{ Ω −λ v λ[x ( ) ] ()+ Ω −1/2 ξ − Ω −1/2 S , S q ξ − Ω −1/2 S, t] }−v λ[x + Ω −1/2 ξ, S q (ξ, t) .Entwickln wir hierin den ersten Ausdruck in geschweiften Klammern im Argument ξ −Ω − 1 2 S nach Potenzen von Ω − 1 2 , so hebt sich der Term ν = 0 mit dem Ausdruck in der 2.Zeile weg und wir erhaltenΩ 1− 1 2∑S∞∑λ=0 ν=1( ∞∑ −ΩΩ −λ −1/2 S ) νν!∂ ν []∂ξ ν v λ x + Ω −1/2 ξ, S q (ξ, t) .Anschlieÿende Entwicklung von v λ nach Potenzen von Ω − 1 2Kampen Entwicklung∂q(ξ, t)∂t− Ω1/2 dxdt∂q(ξ, t)∂ξ=∞∑∞∑λ,µ=0 ν=1liefert schlieÿlich die van(−1) ν[]∂νΩ1−λ−ν/2−µ/2ν!µ! ∂ξ ν ξ µ ∂µ∂x µ a ν,λ(x)q(ξ, t) .(5.39)Die hierbei auftretenden Funktionen a ν,λ (x) heissen verallgemeinerte Sprungmomenteund sind durchdeniert.Bemerkunga ν,λ (x) = ∑ SS ν v λ (x, S)Im Gegensatz zu den aus der Kramers-Moyal Entwicklung folgenden Sprungmomenten(Gl. 5.31) hängen die verallgemeinerten Sprungmomente von einem zusätzlichen Index λab, der von der Entwicklung der Übergangsraten V (X, S) nach Ω herrührt (Gl. 5.38).6. Schritt: Vergleich von Termen gleicher Ordnung: O ( Ω 1/2) und O (1)Durch die van Kampen Entwicklung zerfällt die Mastergleichung in eine Hierarchie vonGleichungen, die sich nach absteigenden Ω-Potenzen ordnen lassen. Im thermodynamischenLimes Ω → ∞ ist der dominante Term (der Term mit der höchsten Ω-Potenz) vonder Ordnung O ( Ω 1/2) . Auf der rechten Seite von Gl. (5.39) gibt es nur einen Term dieserOrdnung, nämlich den mit λ = 0 = µ und ν = 1. Durch Vergleich beider Seiten ndenwir zur Ordnung O ( Ω 1/2) die Gleichung(O Ω 1/2) :− dx ∂q(ξ, t)= − ∂ dt ∂ξ ∂ξ [a 1,0 (x) q (ξ, t)] .81


5. Fokker-Planck GleichungenDiese lässt sich folgendermaÿen interpretieren: Falls∂q (ξ, t)≠ 0 (5.40)∂ξist, dann gilt für die mittlere Dichte die gewöhnliche Dierentialgleichungdxdt = a 1,0 (x) , (5.41)welche die makroskopische (deterministische) Dynamik des Systems beschreibt.BemerkungDie Bedingung in Gl. (5.40) bedeutet, dass q bezüglich ξ nicht konstant sein darf, d.h. nurwenn es Fluktuationen im System gibt, existiert eine Gleichung für die mittlere Dichte.Der nächste Term in der van Kampen Entwicklung ist von der Ordnung O ( Ω 0) ∼O (1). Dieses Mal tragen 2 Terme auf der rechten Seite von Gl. (5.39) zu dieser Ordnungbei (λ = 0, µ = 1 = ν und λ = 0 = µ, ν = 2). Der Vergleich beider Seiten liefert dannfür q (ξ, t) eine Fokker-Planck Gleichung der FormO ( Ω 0) :∂q(ξ, t)∂t= −a ′ 1,0(x) ∂ ∂ξ [ξq(ξ, t)] + 1 2 a 2,0(x) ∂2 q(ξ, t)∂ξ 2 (5.42)wobei a ′ 1,0 (x) die Ableitung der Funktion a 1,0(x) nach x bezeichnet.BemerkungLösungen dieser Fokker-Planck Gleichung sind im Allgemeinen nicht zeit-homogen, dadie Koezientenfunktionen a 1,0 (x(t)) und a 2,0 (x(t)) über die mittlere Dichte von der Zeitabhängen.5.4.2. Vergleich mit Kramers-Moyal Fokker-Planck GleichungVergleichen wir diese Fokker-Planck Gleichung mit der in Abschnitt (5.1) aus der Kramers-Moyal Entwicklung abgeleiteten Fokker-Planck Gleichung∂p (ξ, t)= − ∂ ∂t ∂ξ [a 1 (ξ) p (ξ, t)] + 1 2 ∂ξ 2 [a 2 (ξ) p (ξ, t)] (5.43)dann fällt auf, dass die der Koezientenfunktion a 1 (ξ) in Gleichung (5.42) korrespondierendeFunktion a ′ 1,0 (x) ξ linear in der uktuierenden Gröÿe ξ und die a 2 (ξ) entsprechendeFunktion a 2,0 (ξ) sogar konstant bezüglich ξ ist, d.h. auf der Ebene der van Kampen Entwicklungwird jedes System durch den in Abschnitt 5.3 diskutierten Ornstein-UhlenbeckProzess, d.h. durch Gauss'sche Fluktuationen, beschrieben.Da mit ξ auch X eine Gauss'sche Variable ist, sind alle ihre statistischen Eigenschaftendurch die ersten beiden Momente gegeben〈X (t)〉 = Ωx (t) + Ω 1/2 〈ξ (t)〉∂ 2σ 2 X (t) = 〈X (t) 2 〉 − 〈X (t)〉 2 = Ωσ 2 ξ (t) ,d.h. p (X, t) ist eine Gauÿ-Verteilung mit diesem Mittelwert und Varianz.82


5.4.3. Diskussion der van Kampen Entwicklung5.4. Die van Kampen EntwicklungZur Diskussion der aus der van Kampen Entwicklung folgenden Gleichungen (5.41) und(5.42) denieren wir die FunktionenF (x) ≡ a 1,0 (x) ,A (x) = ddx a 1,0 (x) = F ′ (x) , D (x) = a 2,0 (x) ,mit deren Hilfe die beiden Gleichungen (5.41) und (5.42) die Formannehmen.dxdt∂q (ξ, t)∂t= F (x) (5.44)= −A (x) ∂ ∂ξ [ξq (ξ, t)] + 1 2 D (x) ∂2 q (ξ, t)∂ξ 2 ,1. Stationäre Lösungen der Gleichungen (5.44) sind durch F (x s ) = 0 gekennzeichnet.In diesem Fall sind die Koezientenfunktionen A (x s ) und D (x s ) zeitunabhängigund die Lösungen der Fokker-Planck Gleichung sind zeit-homogen. Da die FunktionF (x) ≡ a 1,0 (x) = ∑ SSv 0 (x, S)beliebig nichtlinear sein kann, können auch mehrfach stationäre Lösungen exisitieren.Wie wir unter Punkt 2. sehen werden, lässt sich die van Kampen Entwicklungnur entlang stabiler Lösungszweige mit F ′ (x s ) < 0 durchführen.2. Mit der in Abschnitt (5.1.2) erhaltenen Ausdrücke (5.9) and (5.11) für die zeitlicheEntwicklung der ersten beiden Momente nden wird〈ξ〉dt= A (x) 〈ξ〉d〈ξ 2 〉dt= 2A (x) 〈ξ 2 〉 + D (x) . (5.45)Die stationären Lösungen dieser Gleichungen lauten〈ξ〉 s = 0 und 〈ξ 2 〉 s = − D (x s)2A (x s ) = D (x s)2 |A (x s )| > 0,d.h. stationäre Fluktuationen existieren nur, wenn der stationäre Zustand x s derdeterministischen Gleichung (5.44) lokal stabil ist, d.h. wenn A (x s ) ≡ F ′ (x s ) < 0gilt. Die Funktion D (x) = ∑ S S2 v (x, S) > 0 ist per denition positiv.3. Beschränkt man sich auf stationäre Lösungen der deterministischen Gleichung(F (x s ) = 0), dann ist die zeitabhängige Lösung der Fokker-Planck Gleichung in(5.44) mit der des Ornstein-Uhlenbeck Prozesses (siehe Abschnitt 5.3) identischq (ξ, t|ξ 0 ) =1√2πσ 2 ξ (t) exp[]− (ξ − µ ξ (t)) 22σξ 2 (t) , (5.46)83


5. Fokker-Planck Gleichungenwobei Mittelwert und Varianz durchµ ξ (t) = ξ 0 e −|A(xs)|tσ 2 ξ (t) ≡ 〈ξ2 〉 − µ 2 ξ (t) = 〈ξ2 〉 s(1 − e −2|A(xs)|t)gegeben sind. Für t ≫ 1/ |A (x s )| erhält man aus Gl. (5.46) die stationäre Dichteq s (ξ) = limt→∞q (ξ, t|ξ 0 ) =]1√ exp[− ξ22π〈ξ 2 〉 s2〈ξ 2 〉 sund die stationäre Autokorrelationsfunktion ist durchdurchgegeben.κ (τ) = D(x s)2 |A (x s )| exp [− |A (x s)| τ]4. Falls die in Gleichung (5.44) auftretende Funktion F (x) konstant ist, dann verschwindetA (x) = F ′ (x) = 0 und die Lösung von Gl. (5.45) für das zweite Momentd〈ξ 2 〉dt= D (x) > 0divergiert für t → ∞. Insbesondere kann die Grösse Ω −1/2 ξ in endlicher Zeit vonderselben Grössenordnung wie x(∼ O(1)) werden, sodass die van Kampen Entwicklunginkonsistent wird. Man muss also für die Existenz der Entwicklung (5.39)fordern, dass F (x) nicht konstant ist.5.4.4. Mastergleichungen vom DiusionstypIm vorherigen Abschnitt hatten wir gesehen, dass die van Kampen Entwicklung (5.39)inkonsistent wird, wenn das erste SprungmomentF (x) ≡ a 1,0 (x) = ∑ SSv 0 (x, S) = F 0konstant ist, da in diesem Fall die Fluktuationen Ω 1/2 ξ in Gleichung (5.35) von derselbenGröÿenordnung wie der deterministische Term Ωx werden können und damit eine Zerlegungder Form X = Ω ( x + Ω −1/2 ξ ) mit kleinen Fluktuationen Ω −1/2 ξ nicht mehr inkonsistenter Weise möglich ist. Das tritt zum Beispiel beim Random Walk in Abschnitt4.3 auf, da die Übergangsraten unabhängig vom Gitterplatz n sind.In diesem Fall macht man den AnsatzX = Ωxin dem x nun keine mittlere Dichte, sondern eine uktuierende Gröÿe von der GröÿenordnungO (1) ist. Im Gegensatz zum letzten Abschnitt muss X nicht notwendigerweise eine84


5.4. Die van Kampen Entwicklungextensive Variable sein. Bei Random Walk Prozessen ist X z.B. der Ort eines Teilchensauf einem räumlichen Gitter. Für X soll aber weiterhin eine Mastergleichung von derFormdp (X, t)= ∑ [V (X − S, S) p (X − S, t) − V (X, S) p (X, t)] (5.47)dtSgelten. Umrechnen der Wahrscheinlichkeitsdichte liefert wegenfolgende Beziehungenp (X, t) dX = p (X, t) Ωdx ! = q (x, t) dxp (X, t) = Ω −1 q (x, t) , p (X − S, t) = Ω −1 q ( x − Ω −1 S, t ) ,∂p (X, t)∂t−1 ∂q (x, t)= Ω .∂tFür die Übergangsraten V (X, S) machen wir jetzt den etwas allgemeineren Ansatz( ) XV (X, S) = f (Ω)(v 0Ω , S + 1 ( ) )XΩ v 1Ω , S + . . .= f (Ω)∞∑Ω −λ v λ (x, S)λ=0wobei f (Ω) eine zunächst unbestimmte Funktion der Systemgröÿe (Skalenfunktion) ist.Für die Übergangsrate am verschobenen Argument erhalten wir∞∑(V (X − S, S) = f (Ω) Ω −λ v λ x − S )Ω , S .λ=0Setzen wir obige ( Ausdrücke wieder in die Mastergleichung (5.47) ein und entwickeltenden Ausdruck v λ x − Ω −1 S, S ) p(x − Ω −1 S, t) nach Potenzen von −Ω −1 S, bekommenwir∂q (x, t)∂t= f (Ω)∞∑λ=0 ν=1∞∑ (−1) νmit den verallgemeinerten Sprungmomentenν!−λ−ν ∂νΩ∂x ν [a ν,λ (x) q (x, t)] (5.48)a ν,λ (x) = ∑ SS ν v λ (x, S) .Die linke Seite von Gl. (5.48) ist oensichtlich von der Ordnung O ( Ω 0) = O (1). Dererste Term auf der rechten Seite von Gl. (5.48) (ν = 1, λ = 0) ist ebenfalls von dieserOrdnung falls manf (Ω) = Ωsetzt. In diesem Falle wäre q (x, t) durch die Gleichung∂q (x, t) ∂q (x, t)= −v , v ≡ a 1,0 = konstant∂t∂xq (x, t = 0) = δ (x − x 0 )85


5. Fokker-Planck Gleichungenbestimmt, deren Lösung durch q (x, t) = δ (x − x 0 − vt) gegeben ist, d.h. die entsprechendeÜbergangswahrscheinlichkeit beschreibt keine Fluktuationen, sondern eine deterministischeBewegung.Um eine Fokker-Planck Gleichung zu erhalten, welche auch Fluktuationen beschreibt,müssen die nächsten beiden Terme auf der rechten Seite von Gl. (5.48) (ν = 1, λ = 1 undν = 2, λ = 0) ebenfalls berücksichtigt werden. Damit diese von derselben Gröÿenordnungwie der Term auf der linken Seite von GL. (5.48) wird, muss oensichtlichf (Ω) = Ω 2gelten. Das führt auf die Fokker-Planck Gleichung∂q(x, t)∂t= −Ωa 1,0∂q (x, t)∂xwobei a 1,0 , nach Voraussetzung, unabhängig von x ist.∂ 2− ∂∂x (a 1,1(x)q(x, t)) + 1 2 ∂x 2 (a 2,0(x)q(x, t)) (5.49)Bemerkung: Damit die 3 Terme auf der rechten Seite von Gl. (5.49) von derselbenGröÿenordnung sind, muss oenbar geltenO (Ωa 1,0 ) = 1.Beispiel: Random WalkIn Abschnitt 4.3.4 hatten wir aus der Mastergleichung für den asymmetrischen RandomWalkdP (n, t)dtdie Fokker-Planck Gleichungmit= a [P (n − 1, t) − P (n, t)] + b [P (n + 1, t) − P (n, t)] , n ∈ Z (5.50)∂q (x, t)∂t∂q (x, t)= −v + D ∂2 q (x, t)(5.51)∂x ∂x 2v := l (a − b) und D := l 2 a + b2abgeleitet. Beim Übergang zur räumlich kontinuierlichen Beschreibung haben wir x = n·lmit l ∈ [0, 1] gesetzt.Entwicklung der MastergleichungDie Übergangsraten in Gl. (5.50) lassen sich in der FormV (n, S) = aδ S,+1 + bδ S,−1 (5.52)86


5.5. Von der Mastergleichung zur Fokker-Planck Gleichungzusammenfassen, d.h. die Raten a und b mit denen das Teilchen nach rechts bzw. linksspringt, sind unabhängig vom Gitterplatz n. Wegenn = 1 l x ≡ Ωx.spielt der inverse Gitterabstand 1/l oenbar die Rolle der Systemgröÿe, sodass wir dieÜbergangsrate in Gl. (5.32) folgendermaÿen entwickeln können( aV (n, S) = Ω 2 Ω 2 δ S,+1 + b )Ω 2 δ S,−1wobei= Ω 2 v 0 (S)v 0 (S) = al 2 δ S,+1 + bl 2 δ S,−1 .Dann erhalten wir für die ersten drei Sprungmomentea 1,0 = ∑S · v 0 (S) = l 2 (a − b)S=±1a 1,1 = ∑S=±1a 2,0 = ∑S=±1S · v 1 (S) = 0S 2 · v 0 (S) = l 2 (a + b) ,also insbesondereΩa 1,0 = a 1,0= l (a − b) ≡ vlwas, nach Einsetzen in Gl. (5.49), auf die Fokker-Planck Gleichung in Gl. (5.51) führt.5.5. Von der Mastergleichung zur Fokker-Planck GleichungAls Anwendungsbeispiel zum Umgang mit Fokker-Planck Gleichungen betrachten wirdas einfache ReaktionsschemaA → ksX,2X k d→ Bbei dem die Konzentrationen der Teilchen A und B konstant gehalten werden sollen.Dieses Schema kann als einfaches Modell zur Synthese und anschliessenden Dimerisierungvon Rezeptormolekülen dienen, bei dem die jeweiligen Rückreaktionen vernachlässigtwerden.Im Folgenden wollem wir die stationäre Dichte für die Teilchenzahl N der X-Teilchenmit drei verschiedenen Methoden berechnen: Zunächst exakt mit Hilfe der Mastergleichung,danach approximativ auf der Basis von Fokker-Planck Gleichungen, die aus derKramers-Moyal Entwicklung und der van Kampen Entwicklung der Mastergleichung erhaltenwurden. Am Ende werden Vor- und Nachteile beider Approximationsmethodendiskutiert.87


5. Fokker-Planck Gleichungen5.5.1. Stationäre Lösung der MastergleichungDie Übergangsraten haben die Formoder, in kombinierter Schreibweise,Damit lautet die MastergleichungdP NdtW (N + 1|N) = k s AW (N − 2|N) = k d N (N − 1)V (N, S) = k s Aδ (S,+1) + k d N (N − 1) δ (S,−2) .= k s A (P N−1 − P N ) + k d ((N + 2) (N + 1) P N+2 − N (N − 1) P N ) .Mit Hilfe der wahrscheinlichkeitserzeugenden FunktionF (z, t) =∞∑z N P N (t) (5.53)N=0bekommen wir zunächst(∂∞∑∑ ∞z N P N (t) = k s A z N P N−1 −∂tN=0und daraus die partielle DGLHier haben wir benutzt, dassund∞∑N=0N=0)∞∑z N P NN=0(∑ ∞+ k d (N + 2) (N + 1) z N P N+2 −N=0)∞∑N (N − 1) z N P NN=0∂∂t F (z, t) = k (sA (z − 1) F (z, t) + k d 1 − z2 ) ∂ 2F (z, t). (5.54)∂z2 (N + 2) (N + 1) z N P N+2 = d2dz 2∞∑N=0∞ ∑N=0= d2dz 2 ( ∞∑m=0= d2F (z, t)dz2 N (N − 1) z N P N = z 2 d2dz 2z N+2 P N+2z m P m − zP 1 − P 0)∞ ∑N=0z N P N= z 2 d2F (z, t).dz2 88


5.5. Von der Mastergleichung zur Fokker-Planck GleichungDie stationäre Lösung der Gleichung (5.54) ist durch die gewöhnliche DGLbestimmt. Sie ist durchd 2dz 2 F (z) = k sA F (z)1 + z ≡ γ21 + z F (z)k dF (z) = C 1√1 + zI1(2γ√1 + z)+ C2√1 + zK1(2γ√1 + z)gegeben, wobei I 1 (x) und K 1 (x) modizierte Besselfunktionen der Ordnung 1 sind. DamitF (z) im Einheitskreis |z| ≤ 1 regulär ist, müssen wir C 2 = 0 setzen, da K 1(2γ√ 1 + z)bei z = −1 singulär wird.Die Konstante C 1 ist durch die Bedingung F (1) = 1 bestimmt, alsoC 1 ≡1√2I1(2√2γ).Die stationäre Wahrscheinlichkeitsdichte p NTaylorentwicklung von F (z) bei z = 0, d.h.in Gleichung (A.6) bekommen wir durchF (z) = C 1Unter Verwendung von 1∞ ∑N=0z N d N (√1 + zI1N! dz N (2γ √ 1 + z) ) | z=0 .erhalten wir somitd Ndz N (√1 + zI1 (2γ √ 1 + z) ) | z=0 = γ N I N−1 (2γ),P N = C 1γ NN! I N−1 (2γ) , γ 2 ≡ k sAk d.5.5.2. Kramers-Moyal EntwicklungUm die aus der Kramers-Moyal Entwicklung folgende Fokker-Planck Gleichung abzuleitenbrauchen wir die ersten beiden Sprungmomente bezüglich V (N, S):a 1 (N) = ∑S · V (N, S) = k s A − 2k d N (N − 1)S=1,−2a 2 (N) = ∑S=1,−2Somit erhalten wir die FPG (vgl. Gleichung (5.2))∂∂p(N, t) = −∂t ∂N [(k sA − 2k d N (N − 1)) p(N, t)]+ 1 21 Hier haben wir I 1(z) = I −1(z) benutzt.S 2 · V (N, S) = k s A + 4k d N (N − 1) .∂ 2∂N 2 [(k sA + 4k d N (N − 1)) p(N, t)]89


5. Fokker-Planck Gleichungenund daraus die stationäre Dichte in der Form[ ∫1Np s (N) ∼a 2 (N) exp 2 dx a 1 (x)a 2 (x)==[1k s A + 4k d N (N − 1) exp 2C(γ 2 )[−Nγ 2 + 4N(N − 1) exp + 3 2]∫ N]dx γ2 − 2x (x − 1)γ 2 + 4x (x − 1)[γ 2√γ 2 − 1 arctan]]2N − 1√ .γ 2 − 1Die Normierungskonstante C ( γ 2) kann nicht explizit berechnet werden, sie kann aber(numerisch) für jedes γ so bestimmt werden, dass ∫ p s (N) dN = 1 gilt.5.5.3. Van Kampen EntwicklungZur Durchführung der van Kampen Entwicklung setzen wir N = Ωn + Ω 1 2 ξ wobei n dermakroskopischen Teilchenzahldichte und ξ den Fluktuationen entspricht. Als nächstesmüssen die in der ÜbergangsrateV (N, S) = k s Aδ (S,+1) + k d N (N − 1) δ (S,−2) (5.55)vorkommenden Grössen durch makroskopische Grössen und das Volumen Ω ausgedrücktwerden. Dazu denieren wir die Teilchenzahldichten n = N/Ω and a = A/Ω und berücksichtigendie Volumenabhängigkeit der makroskopischen Reaktionsrate ¯k d = Ωk d .Einsetzen dieser Ausdrücke in (5.55) liefertV (n, S) = k s aΩδ (S,+1) + ¯k dΩ nΩ (nΩ − 1) δ (S,−2)= Ω ( k s aδ (S,+1) + ¯k d n 2 δ (S,−2))− ¯kd nδ (S,−2)≡ Ωv 0 (n, S) + v 1 (n, S) .Sprungmomente Um die Fokker-Planck Gleichung für die Fluktuationen ξ aufzuschreiben,brauchen wir die ersten beiden Sprungmomente bezüglich v 0 (n, S):a 1,0 (n) = ∑S=1,−2S · v 0 (n, S)= 1 · v 0 (n, 1) + (−2) · v 0 (n, −2)= k s a − 2¯k d n 2unda 2,0 (n) = ∑S 2 · v 0 (n, S)S=1,−2= k s a + 4¯k d n 2 .90


Deterministische DynamikDGLbeschrieben. Die Lösung ist durchgegeben. Hier haben wir5.5. Von der Mastergleichung zur Fokker-Planck GleichungDie makroskopische Dynamik wird durch die gewöhnlicheddt n = a 1,0(n) = k s a − 2¯k d n 2n(t) =γ 2 ≡ k sAk dbenutzt. Die stationäre Lösung ist einfach√ γ [√ γtanh 2 2Ω Ω ¯k]d (t − t 0 )n s = limt→∞n(t) == k saΩ¯k d /Ω = Ω2 k sa¯k d√k s a2¯k d=γ √2Ω.Fokker-Planck Gleichung Für die Teilchenzahluktuationen q(ξ) bekommen wir die(lineare) FPG∂∂t q(ξ) = −a′ 1,0(n) ∂ ∂ξ (ξq(ξ)) + 1 2 a 2,0(n) ∂2∂ξ 2 q(ξ)mit a ′ 1,0 (n) = −4¯k d n. Die stationäre Dichte ist durch[ ∫ [ ]q s (ξ) ∼ exp 2 a′ 1,0 (ns ) ξa 2,0 (n s dx x]= exp −ξ2)2 ( 34 ns)gegeben, wobei wira ′ 1,0 (ns )a 2,0 (n s ) = − 4¯k d n sk s a + 4¯k d (n s ) 2 = − 4¯k d n s2¯k d (n s ) 2 + 4¯k d (n s ) 2 = − 23n sbenutzt haben. Normierung liefertq s (ξ) =1√ e − ξ22σξ 2 , σ 22πσξ2 ξ ≡ 3 4 ns .Nach Rücktransformation auf die Teilchenzahl N = Ωn + Ω 1 2 ξ wird daraus[]p s (N) = Ω − 1 12 qs (ξ) = √ exp − (N − Ωn s) 22πΩσN2 2ΩσN2 .Um diese Dichte mit der aus der Mastergleichung abgeleiteten Dichte vergleichen zukönnen, drücken wir die mittlere Teilchenzahl n s und die Varianz σN 2 durch den Parameterγ ausΩn s = √ γ und σξ 2 ≡ Ωσ2 N = 3 2 4 Ωns = 3 γ2 5 291


5. Fokker-Planck Gleichungenund erhalten⎡ ) 2⎤p s (N) = 2 3 4⎢(N − √ γ 2√ exp ⎣−2 3 ⎥2 ⎦ .3πγ 3γ5.5.4. ZusammenfassungIm letzten Abschnitt haben wir den nichtlinearen ReaktionsmechanismusA → ksX,2X k d→ Bmit Hilfe dreier verschiedener Methoden untersucht: Exakte Lösung der Mastergleichung,Kramers-Moyal-Entwicklung der Mastergleichung und van Kampen Entwicklungder Mastergleichung. Als Resultat haben wir 3 verschiede Ausdrücke für die stationäreDichte bekommenp MGs (N) = C γNN! I N−1 (2γ) , C ≡p KMs (N) =1√2I1(2√2γ)[ ]]C(γ 2 )[−Nγ 2 + 4N(N − 1) exp + 3 γ 2√2 γ 2 − 1 arctan 2N − 1√γ 2 − 1⎡ ) 2⎤(N − √ γ 2p vKs (N) = 2 3 4⎢√ exp ⎣−3πγ3γ2 3 2⎥⎦ .Wie Abbildung (5.3) zeigt stimmen für 〈N〉 ≫ 1 sowohl die Kramers-Moyal FPG als auchdie van Kampen FPG hervorragend mit der exakten Lösung der Mastergleichung überein,obwohl die expliziten Ausdrücke der stationären Dichten völlig verschieden aussehen. Erstbei sehr kleinen mittleren Teilchenzahlen zeigen sich deutliche Unterschiede: Währenddie aus der Kramers-Moyal Entwicklung folgende Dichte nur den Mittelwert der exaktenVerteilung richtig wieder gibt, wird durch die aus der van Kampen Entwicklung folgendenNäherung sogar die Form der Verteilung sehr gut wieder gegeben (linke Abbildung),sodass diese hier die bessere Näherung darstellt.Im Allgemeinen erwarten wir, dass die van Kampen Entwicklung (per Konstruktion)die ersten beiden Momente der exakten Verteilung richtig wieder gibt, während das fürdie Kramers-Moyal Entwicklung nicht garantiert ist. Da die van Kampen Entwicklungimmer nur eine Gauÿ'sche Näherung der wahren Verteilung darstellt, kann man stärkereAbweichungen bei der Beschreibung von Prozessen erwarten, die zu einer stark asymmetrischenoder zu einer bimodalen Verteilung führen. Die Kramers-Moyal Entwicklungunterliegt dieser Einschränkung nicht, sodass man von Fall zu Fall untersuchen muss, obsich dadurch eine bessere Beschreibung des betrachteten Systems erreichen lässt.92


5.6. van Kampen-Entwicklung für Reaktionsnetzwerke0.80.60.40.20.00 1 2 3 4 50.140.120.100.080.060.040.020.000 5 10 15 20Abbildung 5.3.: Vergleich der stationären Dichte für γ = √ 2 (links) und γ = √ 2 · 10(rechts): Mastergleichung (durchgezogene Linie), Kramers-Moyal (gepunkteteLinie) und van Kampen Entwicklung (gestrichelte Linie). Diemittlere Teilchenzahl ist 〈N〉 = γ/ √ 2.5.6. van Kampen-Entwicklung für ReaktionsnetzwerkeIn Abschnitt 4.4.3 hatten wir gesehen, dass sich biochemische Reaktionenν 1j X 1 + . . . + ν nj X n → µ 1j X 1 + . . . + µ nj X n ,j = 1, . . . , rdurch die Komponenten der stöchiometrischen MatrixN ij = µ ij − ν ij , i = 1, . . . , n, j = 1, . . . , r (5.56)charakterisieren lassen. Diese geben an um wieviel Moleküle sich die Teilchenzahl derSpezies X i in der jten Reaktion ändert. Bezeichnen wir mit n i die Teilchenzahl der SorteX i dann hat die entsprechende Mastergleichung die GestaltdP (⃗n, t)dt=r∑j=1[W j(⃗n|⃗n − N ⃗ ) (j P ⃗n − N ⃗ ) (j , t − W j ⃗n + N ⃗ ) ]j |⃗n P (⃗n, t) ,d.h. die Komponenten der stöchiometrischen Matrix geben die Sprungweite in benachbarteZustände an.Analog wie im eindimensionalen Fall zerlegt man die Teilchenzahl ⃗n in eine mittlereDichte ⃗x und einen uktuierenden Anteil ⃗ ξ gemäÿ⃗n = V m ⃗x + V 1 2 m ξ ⃗〈⃗n〉mit ⃗x := lim . (5.57)V m→∞ V mHierbei ist V m = V · N A das in Gl. (5.34) denierte molare Volumen, d.h. die Einheit dermittleren Dichte ist dann [⃗x] = mol/liter ≡ M. Entsprechend entwickelt man auch die93


5. Fokker-Planck GleichungenÜbergangsraten nach absteigenden Potenzen von V m , wobei der führende Term proportionalzu V m sein soll, also( ) ( )⃗n⃗nW j (⃗n) = V m f 0,j + f 1,j + 1 ( ) ⃗nf 2,j + . . .V m V m V m V m∞∑( )= Vm 1−l f l,j ⃗x + V − 1 2m ξ ⃗ . (5.58)l=0Entwicklung der Mastergleichung liefert dann in niedrigster Ordnung die Gleichungdx idt =r∑N ij f 0,j (⃗x) , i = 1, . . . , k (5.59)j=1welche ein System gekoppelter nichtlinearer Dierentialgleichungen für die mittleren( molarenTeilchendichten x i ist. Für die Wahrscheinlichkeitsdichte der Fluktuationen Π ⃗ξ, t)erhält man die lineare Fokker-Planck-Gleichung( ) ⎛ [ ( )]( ) ⎞∂Π ⃗ξ, t n∑∂ ξ i ′Π ⃗ξ, t= ⎝−K ii ′ (⃗x)+ 1 ∂ 2 Π ⃗ξ, t∂t∂ξ i 2 D ii ′ (⃗x) ⎠ , (5.60)∂ξ i ∂ξ i ′i,i ′ =1in der die Driftmatrix K und die Diusionsmatrix D durchr∑ ∂f 0,j (⃗x)r∑K ii ′ (⃗x) := N ij und D ii ′ (⃗x) := f 0,j (⃗x) N ij N i∂x ′ j . (5.61)i ′j=1gegeben sind, d.h. K ist identisch mit der Jabobimatrix des in Gl. (5.59) deniertenSystems.Die durch Gl. (5.60) bestimmte Dichte ist eine multivariate Gaussverteilung( )Π ⃗ξ, t =⎛1√(2π) n det σ (t) exp ⎝−i,i ′ =1j=1⎞n∑ (ξ i − 〈ξ i (t)〉) σ −1ii(t) (ξ ′ i ′ − 〈ξ i ′ (t)〉)⎠ (5.62)2die durch die Mittelwerte 〈ξ i (t)〉 und die Komponenten der Varianz-Kovarianzmatrixσ ii′ = 〈ξ i ξ i ′〉 , i, i ′ = 1, . . . , n (5.63)eindeutig bestimmt ist (σ −1iisind die Komponenten der inversen Matrix und det σ ihre′Determinante). Mit Hilfe der Fokker-Planck-Gleichung 5.60 kann man zeigen (sieheÜbung), dass 〈ξ〉 ⃗ und σ durch das System linearer Gleichungenbestimmt sind.d〈ξ〉⃗dtdσdt= K · ⃗ 〈ξ〉= K · σ + σ · K T + D (5.64)94


5.6.1. Teilchenzahluktuationen5.6. van Kampen-Entwicklung für ReaktionsnetzwerkeDie in Gl. (5.63) denierten Komponenten der Varianz-Kovarianzmatrix haben dieselbeEinheit wie die in Gl. (5.57) denierten mittleren Konzentration x i , d.h. mol/liter.Ist man stattdessen direkt an Teilchenzahluktuationen interessiert, so kann man dieentsprechenden Gröÿen mit Hilfe von Gl. (5.57) umrechnen:ξ i = n i − V m x iV 1 2 mξ i − 〈ξ i 〉 = n i − V m x i − V 1 2 m 〈ξ i 〉V 1 2 m≡ n i − 〈n i 〉dξ ⃗ = V − n 2m d⃗n.Man erhält dann aus Gl. (5.62) für die ursprüngliche Wahrscheinlichkeitsdichte P (⃗n, t)die Approximation⎛⎞1n∑P (⃗n, t) = √(2π) n det C (t) exp (n i − 〈n i (t)〉) C⎝−−1ii(t) (n ′ i ′ − 〈n i ′ (t)〉)⎠2i,i ′ =1wobei die Komponenten der auf die Teilchenzahl bezogenen Varianz-KovarianzmatrixdurchC ii ′ = V m σ ii ′ (5.65)gegeben sind. Ausgehend von Gl. (5.64) erhält man für C die GleichungdCdt = K · C + C · KT + V m D .5.6.2. Berechnung stochastischer KenngröÿenKennt man die mittleren Dichten und die Komponenten der Varianz-Kovarianzmatrix alsFunktion der Zeit und/oder der Systemparameter kann man daraus wichtige stochastischeKenngröÿen, wie den Fanofaktor, den coecient of variation oder Korrelationen zwischenFluktuationen in der linearen Rauschapproximation berechnen. Speziell erhält manF i = C ii〈n i 〉 = σ ii, i = 1, . . . , n (5.66)x iCV i =r ii ′ =√CiiV 1 2 m√〈n i 〉 = σii√ , i = 1, . . . , n (5.67)Vm x iσ ii ′√ √ , i, i ′ = 1, . . . , n ., (5.68)σii σi ′ i ′d.h. in der linearen Rauschapproximation sind Fanofaktor und Korrelationskoezientenunabhängig vom Systemvolumen. Im Gegensatz verschwinden relative Fluktuationen,gemessen durch den CV, wie 1/ √ V m mit wachsender Systemgröÿe.95


5. Fokker-Planck Gleichungen5.6.3. Beispiel: Ligand-RezeptorbindungWir betrachten das einfache ReaktionsschemaL + Rk + 1⇄ R-L (5.69)k − 1welches, zum Beispiel, das Anbinden eines Liganden an einen Rezeptor oder das Anbindeneines Transkriptionsfaktors (L) an eine freie Operatorbindestelle auf der DNA(R) modellieren könnte. Vereinfachend wollen wir annehmen, dass sowohl die Ligandenzahlals auch die Rezeptorzahl konstant ist. Das hat den Vorteil, den Umgang mitin biologischen Netzwerken oft vorhandenen Erhaltungsrelationen an einem einfachenBeispiel demonstrieren zu können.Bezeichnen wir mit n 1 die Anzahl an Liganden, mit n 2 die Anzahl an Rezeptoren undmit n 3 die Anzahl an Ligand-Rezeptorkomplexen. Dann sind die Übergangsraten durchW 1 (n 1 − 1, n 2 − 1, n 3 + 1|n 1 , n 2 , n 3 ) = k + 1 n 1n 2undW 2 (n 1 + 1, n 2 + 1, n 3 − 1|n 1 , n 2 , n 3 ) = k − 1 n 3gegeben, wobei k 1 + und k− 1 die Einheiten 1/Teilchen·s und 1/s haben. Die stöchiometrischeMatrix lautet⎛ ⎞R −1 1N = L ⎝ −1 1 ⎠ . (5.70)R-L 1 −1Zur Berechnung der in Gl.Übergangsraten gemäÿW 1 = V m(Vm k + 1W 2 = V m k − 1(5.58) denierten Funktionen f 0,j (⃗x) entwickeln wir die) n 1 n 2V 2 m= V m k +′1 x 1x 2 ≡ V m f 0,1n 3V m= V m k − 1 x 3 ≡ V m f 0,2 ,d.h. die Komponenten des Reaktionsratenvektors sind durch⃗f 0 =( k+′1 x 1x 2k − 1 x 3gegeben, wobei k +′1 jetzt die Einheit liter/mol · s = 1/M · s hat. GemäÿGl. (5.59) ist dieDynamik der mittleren Dichten dann durchbestimmt.⎛d⎝dt⎞⎛x 1x 2⎠ = N · ⃗f 0 = ⎝x 3)−k 1 +′ x 1x 2 + k1 − x 3−k 1 +′ x 1x 2 + k1 − x 3k 1 +′ x 1x 2 − k1 − x 3⎞⎠ (5.71)96


5.6. van Kampen-Entwicklung für ReaktionsnetzwerkeBerechnung von ErhaltungsgröÿenAus Gl. (5.71) ist ersichtlich, dassddt (x 1 + x 3 ) = 0 = d dt (x 2 + x 3 ) ,woraus folgt, dass x 1 +x 3 und x 2 +x 3 zeitlich konstant sind. Entsprechend der Zuordnungenx 1 ↔ L, x 2 ↔ R und x 3 ↔ R-L besagt die erste Relation, dass die Gesamtkonzentrationan Liganden bei der durch Gl. (5.69) beschriebenen Reaktion konstant bleibtwährend die zweite Relation selbiges für die Gesamtkonzentration an Rezeptoren ausdrückt.Demnach können wir also die Erhaltungsrelationen in der Formx 1 + x 3 = L T und (5.72)x 2 + x 3 = R Tschreiben, wobei L T and R T die Gesamtkonzentrationen an Liganden und Rezeptorensind.Erhaltungsrelationen gibt es immer dann, wenn die stöchiometrische Matrix in Gl.(5.70) linear abhängige Zeilen besitzt. Im Allgemeinen gibt es soviele Erhaltungsgröÿenwie es linear abhängige in der stöchiometrischen Matrix gibt. Zur Berechnung der Erhaltungsgröÿensucht man zunächst eine positive Basis des linken Nullraumes der stöchiometrischenMatrix, alsoL · N = 0, L ij ≥ 0. (5.73)Dann sind die Erhaltungsgröÿen durch⃗s = L · ⃗xgegeben, denn es gilt (unter Verwendung von Gl. 5.59 und 5.73)d⃗sdt = L · d⃗xdt = L · N · ⃗f 0 = 0 ↔ ⃗s (t) = ⃗s 0 .Im Falle von Gl. (5.72) sind L und ⃗s 0 durch( ) 1 0 1L =und ⃗s0 1 10 =gegeben.Wie benutzt man Erhaltungsrelationen?(LTR T)Mit Hilfe der Erhaltungsrelationen in Gl. (5.72) können 2 dynamische Variablen, zumBeispiel x 1 und x 2 , zu Gunsten der dritten (x 3 ) eliminiert werden. Für diese erhaltenwir dann aus Gl. (5.59) die Gleichungdx 3dt = N R · ⃗f 0 = k +′1 (L T − x 3 ) (R T − x 3 ) − k − 1 x 3.97


5. Fokker-Planck GleichungenHierbei ist N R = (1 − 1) die reduzierte stöchiometrische Matrix, die man durch Streichender 1. und 2. Zeile (entsprechend den elimierten Variablen) erhält. Der stationäreZustand ist durch die quadratische Gleichungbestimmt deren Lösung durchx 2 3 − x 3 (R T + L T + K 1 ) + R T L T = 0. K 1 ≡ k− 1k +′1x s 3 == L T + R T + K 12( √)L T R T1 − 1 − 4(L T + R T + K 1 ) 2(5.74)gegeben ist. Hierbei ist K 1 die Dissoziationskonstante des Liganden-Rezeptorkomplexes.Die stationären Liganden- und Rezeptorkonzentrationen erhält man aus den Erhaltungsrelationenin Gl. (5.72), d.h.x s 1 = L T − x s 3 und x s 2 = R T − x s 3. (5.75)Jacobimatrix und Diusionsmatrix des reduzierten Systems berechnen sich zuK R = −k +′1 (L T + R T − 2x s 3) − k − 1 undD R = N R · ⃗f 0 · N T R = k +′1 (L T − x s 3) (R T − x s 3) + k − 1 xs 3 = 2k − 1 xs 3,wobei wir in der 2. Zeile die aus der steady-state-Gleichung folgenden Beziehungk +′1 (L T − x s 3) (R T − x s 3) = k − 1 xs 3benutzt haben. Die Varianz-Kovarianzmatrix des Systems lautet⎛⎞σ 11 σ 12 σ 13σ = ⎝ σ 21 σ 22 σ 23⎠ . (5.76)σ 31 σ 32 σ 33Wegen der Symmetrieeigenschaft σ ij = σ ji sind von den 9 Komponenten nur 6 unabhängig.Die Varianz-Kovarianzmatrix des reduzierten Systems besitzt nur 1 Komponenteσ R = σ 33 ≡ σ 2 3, die Varianz des Liganden-Rezeptorkomplexes. Die anderen 5 Komponentenkönnen dann mit Hilfe der Erhaltungsrelationen (Gl. 5.72) berechnet werden.Im stationären Fall, folgt für σ R aus Gl. (5.64) die Gleichungderen Lösung durch2K R σ R + D R = 0σ R = σ 2 3 = − D R2K R==L T + R T + K 1 − 2x s 3k − 1 xs 3k +′1 (L T + R T − 2x s 3 ) + k− 1x s 3(5.77)98


5.6. van Kampen-Entwicklung für Reaktionsnetzwerkegegeben ist. Hier ist für x s 3 noch der Ausdruck in Gl. (5.74) einzusetzen. Zur Berechnungder übrigen Komponenten benutzen wir die Formel für die Varianz einer Summestochastischer Gröÿenvar (X + Y ) = var (X) + var (Y ) + 2cov (X, Y ) .Auÿerdem gilt cov (X, X) = var (X) und var (X) = cov (X, Y ) = 0 falls X eine Zahl(und keine stochastische Gröÿe) ist. Damit erhalten wirAnalog erhält manσ 11 = σ 2 1 = var (x 1 ) = var (L T − x 3 )= var (L T ) + var (x 3 ) − 2cov (L T , x 3 ) = var (x 3 ) = σ 2 3.σ 22 = σ 2 2 = var (R T − x 3 ) = σ 2 3σ 12 = cov (x 1 , x 2 ) = cov (L T − x 3 , R T − x 3 ) = cov (x 3 , x 3 ) = σ 2 3σ 13 = cov (L T − x 3 , x 3 ) = −σ 2 3 = cov (R T − x 3 , x 3 ) = σ 23 ,d.h. die Varianzen für Ligand, Rezeptor und Ligand-Rezeptorkomplex sind identisch unddie Korrelationskoezienten lautenr 12 =σ 12√σ11√σ22= 1 , r 13 = r 23 = −1.Die perfekte Korrelation zwischen Ligand und Rezeptor (r 12 = 1) spiegelt die Tatsachewieder, dass das Verschwinden eines Liganden immer an das Verschwinden eines freienRezeptors gekoppelt ist. Entsprechend ist das Verschwinden eines Liganden oder einesRezeptors immer an die Erzeugung eines Ligand-Rezeptorkomplexes gekoppelt, sodassdiese jeweils perfekt anti-korreliert sind. Gäbe es noch weitere Reaktionen, durch dieLiganden verschwinden oder erzeugt werden können (z.B. durch Auf- und Abbaureaktionen),wären die Korrelationskoezienten vom Betrage her kleiner als Eins und würdenvon den Parametern abhängen.Aus Abbildung 5.4 ist ersichtlich, dass die Fluktuationen in allen 3 Spezies immerkleiner sind als die eines Poissonprozesses. Das liegt in erster Linie daran, dass Liganden,freie Rezeptoren und Komplexe immer in stark korrelierter Weise erzeugt odervernichtet werden. Nur bei sehr hohen oder sehr niedrigen Ligandenkonzentrationenkommt es zur Annäherung an Poisson'sches Verhalten. Bie hinreichend hohen Ligandenkonzentrationensind fast alle Rezeptoren mit Liganden belegt, sodass die mittlereAnzahl freier Rezeptoren im Bereich weniger Moleküle liegt. Andererseits werden beihoher Ligandenkonzentration frei werdende Rezeptorstellen sofort wieder besetzt, d.h.die Fluktuationen bewegen sich ebenfalls im Bereich weniger Moleküle, sodass F R ≈ 1(rote Kurve).Im Bereich niedriger Ligandenkonzentration hängt es von der Bindungsanität ab, obPoisson'sches Verhalten beim Liganden oder beim Ligand-Rezeptorkomplex auftritt. Istdie Bindungsanität hoch, bleibt die Konzentration freier Liganden niedrig, da fast alle99


5. Fokker-Planck GleichungenFigure 5.4.: Vergleich der mittleren Konzentrationen (obere Bilder) and der Fanofaktoren(untere Bilder) für den Fall hoher (linke Spalte) und niedriger Bindungsaf-nität (rechte Spalte) zwischen Ligand und Rezeptor. Die mittleren KonzentrationenL, R und R-L entsprechen dabei x s 1, x s 2 und x s 3 aus Gln. (5.74)und (5.75). Die Fanofaktoren wurden wiefolgt berechnet: F L = σ 2 3 /(L T −x s 3 ),F R = σ 2 3 /(R T − x s 3 ) und F R-L = σ 2 3 /xs 3 wobei σ 2 3 in Gl. (5.77) deniert ist.Liganden an Rezeptormoleküle gebunden sind. Wegen der hohen Anität kommt es seltenzu Dissoziationen, sodass auch die Fluktuationen wieder im Bereich weniger Moleküleliegen was das annährend Poisson'sche Verhalten in den Ligandenuktuationen erklärt(blaue Linie, linke Spalte). Steigt die Ligandenkonzentration über den SättigungspunktL T ≈ R T sind alle Rezeptoren mit Liganden besetzt und die Anzahl freier Ligandensteigt rapide an. Wegen der hohen Bindungsanität bleiben die Fluktuationen aber imBereich weniger Moleküle, sodass der Fanofaktor für L T ≫ R T schnell gegen Null geht.Analog kann man sich das Verhalten von F R-L erklären.100


6. Stochastische Dierentialgleichungen6.1. EinleitungIn Abschnitt 1.3 hatten wir gesehen, das die bei der Gentranskription statt ndenden AufundAbbauprozesse der mRNA Moleküle als Poisson-Prozess beschrieben werden können.Da die Anzahl vorhandener mRNA Moleküle innerhalb einer Zelle sehr gering sein kann(1-10), wollen wir uns nun fragen, wie sich Fluktuationen in der Anzahl vorhandenermRNA Moleküle auf Fluktuationen in der Anzahl daraus gebildeter Proteine auswirken.Dazu betrachten wir noch einmal das in Abbildung 6.1 dargestellte Modell (vgl. Abb.4.7), welches die Kopplung von Gentranskription und Proteintranslation beschreibt. Danachwerden mRNA Moleküle mit der Rate k R erzeugt und mit der spezischen Rateγ R wieder abgebaut. Jedes mRNA Molekül wird dann mit der spezischen Rate k P inein entsprechendes Protein übersetzt. Der Proteinabbau erfolgt mit der spezischen Rateγ P .Auf deterministischer Ebene wird die Dynamik dieses Systems durchdrdt = k R − γ R r,undbeschrieben. Der stationäre Zustand ist durchdpdt = k P r − γ P pr s = k Rγ R, und p s = k Pγ Pr s = k Pγ Pk Rγ Rgegeben. In stationär wachsenden Bakterienkulturen beobachtet man aber für einige Proteinegroÿe Schwankungen in der Anzahl gebildeter Proteine pro Zelle. Solche Schwankungenwerden durch die deterministischen Gleichungen nicht wieder gegeben.6.1.1. Die Langevin MethodeZur Beschreibung dieser auf Zell Populationsebene auftretenden Schwankungen in dermittleren Anzahl bestimmer Proteine pro Zelle nehmen wir an, dass Gentranskription undAbbildung 6.1.: Gekoppelter Prozess bestehend aus Gentranskription (k R ) und anschliessendeTranslation (k p ). γ R und γ P bezeichnen die jeweiligen Abbauraten.101


6. Stochastische DierentialgleichungenTranslation zufälligen Einüssen unterliegen, die wir durch zwei separate stochastischeProzesse η R (t) und η P (t) modellieren. Von diesen Prozessen nehmen wir nur an, dass ihrMittelwert verschwindet und dass sie eine sehr kurze Korrelationszeit besitzen, d.h.〈η i 〉 = 0 〈η i (t)η i (t + τ)〉 = q i δ(τ), i = R, P.Die Parameter q i sind ein Maÿ für die Stärke der zufälligen Einüsse. Die Dynamik desSystems wird dann durch die Langevin Gleichungendrdt = k R − γ R r + η R (t) (6.1)dpdt = k P r − γ P p + η P (t)beschrieben, in denen die zufälligen Prozesse η R (t) und η P (t) die Rolle von stochastischenKräften übernehmen. Die Idee besteht nun darin, die vorgegebenen stochastischenEigenschaften dieser Prozesse zu benutzen, um daraus die stochastischen Eigenschaftender nun zufälligen Gröÿen r und p zu berechnen. Insbesondere wollen wir berechnen wiesich Fluktuationen in der mRNA Zahl auf Fluktuationen im Protein Level auswirken undwie diese von den phänomenologischen Parametern abhängen.Wegen 〈η P 〉 = 0 = 〈η R 〉 bekommen wir für die Mittelwerte〈r〉 s= k Rγ Rund 〈p〉 s= k Pγ P〈r〉 s= k Pγ Pk Rγ Rdieselben Werte wie im deterministischen Fall.Stationäre mRNA FluktuationenZur Berechnung 1 der zufälligen Abweichungen vom stationären Zustand setzen wir r =〈r〉 s+ δr. Für δr bekommen wirFourier Transformation mittelsdδrdt = k R − γ R (〈r〉 s+ δr) + η R (t).= −γ R δr + η R (t).δr(t) = 12π∫ ∞−∞dω δr(ω)e iωtliefertiωδr(ω) = −γ R δr(ω) + η R (ω) oder δr(ω) = η R(ω)γ R + iω .1 Diese Rechnungen basieren auf denen in EM Ozbudak, M Thattai, I Kurtser, AD Grossman und Avan Oudenaarden. Nature Genetics 31, 69-73 (2002).102


Zur Berechnung der mittleren Fluktuationen schreiben wir〈δr(ω)δr ∗ (ω)〉 = 〈η R(ω)η ∗ R (ω)〉γ 2 R + ω2und benutzen die Eigenschaft der Autokorrelationsfunktion〈ηR (ω)η ∗ R(ω ′ ) 〉 =t ′ =t+τ==∫ ∞−∞∫ ∞dtdt∫ ∞−∞∫ ∞−∞∫ ∞−∞∫ ∞dte i(ω−ω′ )t−∞−∞= q R δ ( ω − ω ′)d.h. 〈|δr(ω)| 2〉 =Rücktransformation liefert〈δr(t)2 〉 = q ∫ ∞R2π −∞dωdt ′ e iωt e −iω′ t ′ 〈ηR (t)η R (t ′ ) 〉dτe iωt e −iω′ (t+τ) 〈η R (t)η R (t + τ)〉q Rγ 2 R + ω2 .eiωtdτe −iω′τ q R δ (τ)γ 2 R + ω2 = q R2γ Re −γ Rt .6.1. EinleitungAus Abschnitt 1.3 wissen wir bereits, dass der durch Abb. 6.1 beschriebene Prozessfür die Gentranskription ein Poisson-Prozess sein muss. Deshalb fordern wir für diestationären Fluktuationen dieses Prozesses〈δr(0)2 〉 = q R != 〈r〉2γ s= k R,R γ Rwas die Rauschstärke auf q R = 2k R xiert.Stationäre Protein FluktuationenDie Rauschstärke q P kann auf ähnliche Weise xiert werden. Für fest vorgegebene Zahlan mRNA Molekülen 〈r〉 ssind auch Protein Auf- und Abbau unabhängige Prozesse. Indiesem Fall wird die Proteindynamik ebenfalls durch einen Poisson-Prozess beschrieben,der nun der Gleichungdpdt = k P 〈r〉 s− γ P p + η P (t)genügt. Die Struktur dieser Gleichung ist identisch mit der für die mRNA Dynamik (6.1),wenn man k R durch k P 〈r〉 sersetzt. Entsprechend bekommt man für q P = 2k P 〈r〉 s.Im Allgemeinen führen jedoch Fluktuationen im mRNA Level zu nicht Poisson'schenFluktuationen in der Proteinanzahl. Um diese zu berechnen, setzen wir p = 〈p〉 s+ δp,analog zum vorherigen Fall. Für δp erhalten wir die Gleichungdδpdt = k P (〈r〉 s+ δr) − γ P (〈p〉 s+ δp) + η P (t)= −γ P δp + k P δr + η P (t)103


6. Stochastische Dierentialgleichungenwas aufδp(ω) = k P δr + η P (ω)γ P + iωund wegen 〈η R (ω)η P (ω)〉 = 0 weiter auf= k P η R(ω)γ R +iω + η P (ω)γ P + iω〈|δp(ω)| 2〉 = ( k2 P 〈η R(ω)ηR ∗ (ω)〉γ2P+ ω 2) ( γR 2 + ω2) + 〈η P (ω)η(P ∗ (ω)〉γ2P+ ω 2)[]1 k= ( 2 γ2P+ ω 2) P q R(γ2R+ ω 2) + q Pführt. Rücktransformation liefert〈δp(0)2 〉 =k 2 P q R2γ R γ P (γ P + γ R ) + q P2γ PkP 2 =k Rγ R γ P (γ P + γ R ) + k P k Rγ R γ P)k p= 〈p〉 s(1 +γ P + γ R= 〈p〉 s(1 + b1 + η), b ≡ k Pγ R,η ≡ γ Pγ R≪ 1.Hierbei bezeichnet b die mittlere Anzahl an Proteinen, die pro mRNA Molekül synthetisiertwerden (Burstrate). Es ist also der Umstand, dass pro mRNA Molekül in der Regelmehrere Proteine synthetisiert werden, der zu grösseren Fluktuationen führt, als man imrein Poisson'schen Fall erwarten würde, d.h.〈δp2 〉 s〈p〉 s≈ 1 + b.Die Abweichungen sind umso gröÿer, je mehr Proteine aus einem mRNA Molekül erzeugtwerden.6.1.2. Allgemeine ProblemstellungWie beschränken uns zunächst auf eindimensionale stochastische Dierentialgleichungender Formdx= a(x, t) + b(x, t)ξ(t) , (6.2)dtwobei a(x, t) und b(x, t) deterministische Funktionen und ξ(t) ein stochastischer Prozessmit vorgegebenen statistischen Eigenschaften ist:〈ξ (t)〉 = 0 (6.3)〈ξ (t) ξ (s)〉 = δ (t − s) (6.4)104


6.1. EinleitungWährend die erste Eigenschaft (Gl. 6.3) immer erreicht werden kann, stellt die zweiteAnnahme (Gl. 6.4) eine (wichtige) Idealisierung dar, die man als weiÿes Rauschen bezeichnet.Reale Vorgänge mit einem kurzen Gedächtnis lassen sich oftmals durch eineAutokorrelationsfunktion der Form (siehe Abschnitte 4.2 und 5.3)κ (t − s) = 1 τ ce − |t−s|τc (6.5)beschreiben, wobei τ c die Korrelationszeit bezeichnet. Im Grenzfall τ c → 0 geht derAusdruck in Gl. (6.5) in die Deltafunktion in Gl. (6.4) über. Für praktische Anwendungenreicht es aus, dass die Korrelationszeit τ c ≪ τ s viel kleiner als alle anderen im Systemauftretenden Zeitskalen τ s ist, um die stochastischen Fluktuationen in Gleichung (6.2)sinnvoll als weiÿes Rauschen modellieren zu können.Additives und Multiplikatives RauschenJe nach Form der den Rauschterm multiplizierenden Funktion b (x, t) in Gleichung (6.2)unterscheidet man verschiedene Arten des Rauschens:1. Additives Rauschen: b (x, t) = konstant, d.h. die Rauschstärke hängt nicht vomSystemzustand ab. Dieser Fall tritt typischerweise dann auf, wenn die Rauschquelleausserhalb des betrachteten Systems liegt. Die zugehörige stochastische Dierentialgleichung(6.2) wird dann als Langevin Gleichung bezeichnet.2. Multiplikatives Rauschen: b (x, t) ≠ konstant. Hier hängt die Rauschstärke explizitvom Systemzustand x und/oder der Zeit t ab, sodass die Quelle des Rauschens imSystem selber liegt, also von der Systemdynamik verursacht wird.6.1.3. Weiÿes RauschenWir wollen im Folgenden untersuchen, welcher stochastische Prozess weiÿem Rauschenentspricht. Zu diesem Zweck betrachten wir den Spezialfall a (x, t) = 0 und b (x, t) ≡ 1,sodass aus Gleichung (6.2) die Langevin Gleichungdxdt= ξ (t) (6.6)wird. Damit diese Dierentialgleichung einen Sinn bekommt, müssen wir annehmen, dassξ(t) (in einem noch zu denierenden Sinne) integrierbar ist, sodass wir schreiben könnenx (t) = x (0) +∫ t0ξ ( t ′) dt ′ . (6.7)Man kann zeigen, dass durch (6.7) ein zeit-stetiger Markov Prozess deniert wird, d.h.x (t + ∆t) = x (t) +∫ t+∆ttds ξ(s).105


6. Stochastische DierentialgleichungenEs ist daher naheliegend, dass er sich durch eine Fokker-Planck Gleichung beschreibenlässt. Die zugehörigen Drift- und Diusionskoezienten a 1 (x) und a 2 (x) berechnen sichdann gemäÿbzw.a 2 (x) = lim∆t→0〈x (t + ∆t) − x (t)〉a 1 (x) = lim= lim∆t→0 ∆t∆t→0〈[x (t + ∆t) − x (t)] 2〉∆t= lim∆t→0= lim∆t→0= lim∆t→0Die entsprechende Fokker-Planck Gleichung hat dann die Gestalt∫ t+∆ttds 〈ξ (s)〉= 0∆t∫ t+∆ttds ∫ t+∆ttds ′ 〈ξ (s) ξ (s ′ )〉∆t∫ t+∆ttds ∫ t+∆ttds ′ δ(s − s ′ )∆t∫ t+∆ttds= 1.∆t∂∂t p(x, t) = 1 p(x, t),2 ∂x2 d.h. sie beschreibt den in Abschnitt 5.2 untersuchten Wiener Prozess. Dessen Übergangswahrscheinlichkeitensind durchp (w, t|w 0 , t 0 ) =∂ 21√2π (t − t0 ) e− (w−w 0 )22(t−t 0) , t ≥ t 0 . (6.8)bzw.p(∆w, ∆t) =1√2π (∆t)e − (∆w)22(∆t), (∆t) ≥ 0 (6.9)gegeben, da mit W (t) auch der Zuwachs ∆W = W (t + ∆t) − W (t) ein Wiener Prozessist.Realisierungen des Wiener Prozesses sind nirgends dierenzierbarDamit Gl. (6.6) einen Sinn hat, müssten die Realisierungen des Wiener Prozesse dierenzierbarsein, d.h. es müsste gelten[ ]W (t + ∆t) − W (t)lim P < ε = 1.∆t→0 ∆tUnter Verwendung von Gl. (6.9) lässt sich aber leicht das Gegenteil zeigen, denn[ ]W (t + ∆t) − W (t)lim P > ε = lim P [∆W > ε∆t]∆t→0 ∆t∆t→0(y :== lim∆t→0∫ ∞ε∆te−w22∆tdw √2π∆t√ w ) ∫ ∞y2= lim∆t ∆t→0 ε √ dy e− 2√ = 1.∆t 2π106


6.2. Stochastischer IntegralbegriIn diesem Sinne besitzt Gleichung (6.6) also nur in der integralen Form (6.7) einen Sinnund wir können schreibendx = ξ (t) dt ≡ dW (t) ,wobei dW (t) = W (t + dt) − W (t).Wir können also die allgemeine stochastische Dierentialgleichung (6.2) in der Formdx = a (x, t) dt + b (x, t) dW (t) ,schreiben, wobei dW (t) ein Wiener Prozess ist. Die formale Lösung dieser Gleichunglautetx (t) − x (0) =∫ t0ds a (x (s) , s) +∫ t0b (x (s) , s) dW (s) .Formal deshalb, weil wir noch nicht wissen wie wir über Realisierungen des WienerProzesses zu integrieren haben.6.2. Stochastischer Integralbegri6.2.1. Denition des stochastischen IntegralsWie beim Riemannschen Integral gehen wir von einer Zerlegung eines vorgegebenen Intervalls[t 0 , t] in n Subintervalle mit den Stützstellent 0 ≤ t 1 ≤ . . . ≤ t n = taus und wählen aus jedem Subintervall Zwischenpunkte τ i , sodasst i−1 ≤ τ i ≤ t igilt. Wir denieren dann ein dem Riemann-Stieltjes Integral analoges stochastisches Integral∫ tt 0G(t)dW (t) als Grenzwert der TeilsummenS n =n∑G(τ i ) [W (t i ) − W (t i−1 )] . (6.10)i=1Bemerkung:Man kann zeigen, dass die Realisierungen eines Wiener Prozesses nicht von beschränkterVariation sind und somit obiges stochastisches Integral kein Riemann-Stieltjes Integralsein kann. Das folgt im Wesentlichen aus dem Umstand, dass die Zuwächse dW (t) desWiener Prozesses wegen Gl. (6.9) die beliebig groÿ werden können. Als Folge davonhängt der Wert der Teilsummen S n von der Wahl der Zwischenstützstellen bezüglich derbetrachteten Intervallzerlegung ab.107


6. Stochastische DierentialgleichungenBeispielWähle G(t) = W (t) undτ i = αt i + (1 − α)t i−1 , 0 ≤ α ≤ 1dann gilt für den Erwartungswert von S n unter Benutzung von 〈W (t) W (s)〉 = min (t, s)〈S n 〉 ==== α〈 n∑W (τ i ) [W (t i ) − W (t i−1 )]i=1n∑[min (τ i , t i ) − min (τ i , t i−1 )]i=1n∑[τ i − t i−1 ]i=1n∑[t i − t i−1 ] = α(t − t 0 ),d.h. 〈S n 〉 kann jeden Wert zwischen Null und t − t 0 annehmen.6.2.2. Das Ito Integrali=1Das Ito Integral erhält man durch die Wahl der Zwischenstützstellen τ i = t i−1 in (6.10)also α = 0 . Das Ito Integral einer stochastischen Funktion G(t) bezgl. des WienerProzesses wird dann als}∫ tt 0G(t ′ )dW (t ′ ) = ms-lim n→∞{ n∑i=1〉G(t i−1 ) [W (t i ) − W (t i−1 )]deniert, wobei ms-lim Konvergenz im quadratischen Mittel bedeutet.Bemerkung:Sei Y Xn (t) eine Familie stochastischer Prozesse und Y X (t) ein stochastischer Prozess,wobei X n eine Folge von Zufallsgröÿen ist, die dieselbe Wahrscheinlichkeitsdichte p X (x)besitzt wie X, dann sagen wirms-lim n→∞ Y Xn (t) = Y X (t)wenn∫lim 〈(Y Xn→∞ n(t) − Y X (t)) 2 〉 = limn→∞dx p X (x) (Y xn (t) − Y x (t)) 2 = 0.108


6.2.3. Eigenschaften des Ito IntegralsMan kann zeigen, dass unter Verwendung des Ito'schen Integralbegris∫ tt 0W ( t ′) dW ( t ′) = 1 26.2. Stochastischer Integralbegri[W 2 (t) − W 2 (t 0 ) − (t − t 0 ) ]gilt. Im Gegensatz zum Riemann Integral tritt hier also der Zusatzterm t − t 0 auf. DieseAbweichung führt zu anderen Regeln im Umgang mit Dierentialen und erfordert einenneuen Calculus (→ Ito Calculus).Bemerkung:Wir berechnen die Teilsummen (und setzen W i ≡ W (t i ))S n == 1 2= 1 2= 1 2n∑W i−1 (W i − W i−1 ) ≡i=1n∑W i−1 ∆W ii=1n∑ [(W i−1 + ∆W i ) 2 − (W i−1 ) 2 − (∆W i ) 2]i=1n∑ [(W i ) 2 − (W i−1 ) 2 − (∆W i ) 2]i=1[W 2 (t) − W 2 (t 0 ) ] − 1 2n∑(∆W i ) 2 .Der Ausdruck in eckigen Klammern ist unabhängig von n, sodass wir im Folgenden nurdie Summe betrachten. Sie strebt im Mittel gegeni=1i=1n∑n∑〈 (∆W i ) 2 〉 = 〈 (W i − W i−1 ) (W i − W i−1 )〉===i=1n∑(〈W i W i 〉 − 2 〈W i W i−1 〉 + 〈W i−1 W i−1 〉)i=1n∑(min(t i , t i ) − 2min(t i , t i−1 ) + min(t i−1 , t i−1 ))i=1n∑(t i − t i−1 ) = t − t 0 , (6.11)i=1Wir haben also die Vermutung, dass∫ tt 0W ( t ′) dW ( t ′) = 1 2[W 2 (t) − W 2 (t 0 ) − (t − t 0 ) ] .109


6. Stochastische DierentialgleichungenUm diese Vermutung zu bestätigen, müssten wir noch zeigen, dasslimn→∞ms-lim n→∞n∑(∆W i ) 2 = t − t 0 , alsoi=1〈{ n∑(∆W i ) 2 − (t − t 0 )i=1} 2 〉= 0.Der Ausdruck dW 2 (t) = dt:Diese Beziehung folgt aus dem Ito'schen Integralbegri und bedeutet formal∫ tt 0G (s) [dW (s)] 2 =∫ tt 0G (s) ds. (6.12)Damit eine solche Identität gilt, muss man die Klasse zulässiger Funktionen G(s) aufsogenannte nicht antizipierende Funktionen (nonanticipating functions, siehe W. Gardiner)einschränken. Nicht antizipierende Funktionen zeichnen sich dadurch aus, dass ihrWert zur Zeit t 1 unabhängig vom Zuwachs W (t 2 ) − W (t 1 ) des Wiener Prozess in derZukunft ist, wobei t 2 > t 1 angenommen wird, d.h.〈G (t 1 ) (W (t 2 ) − W (t 1 ))〉 = 〈G (t 1 ) ∆W (t 2 )〉 = 〈G (t 1 )〉 〈∆W (t 2 )〉 = 0Bemerkungen:1. Man kann weiter zeigen, dass alle höheren Dierentiale der Form dW N+2 (t) fürN > 0 verschwinden, gleiches gilt für Dierentiale der Form dW (t) dt, d.h. es gilt∫ tt 0G (s) dW (s) ds = 02. Sei f[W (t) , t] eine Funktion einer Wiener Prozess Variablen W und der Zeit t,dann gilt für ihr Dierentialdf = ∂f∂t dt + 1 ∂ 2 f2 ∂t 2 dt2 + ∂f∂W dW + 1 ∂ 2 f2 ∂W 2 dW 2 +( ∂fdf =∂t + 1 ∂ 2 )f2 ∂W 2∂2 f∂t∂W dtdW + . . .dt + ∂f dW. (6.13)∂WHier haben wir dW 2 = dt benutzt und alle Dierentiale höherer als erster Ordnungvernachlässigt. Im Gegensatz zum normalen Dierential tritt hier ein Zusatztermauf, falls f nichtlinear von W abhängt.110


6.2. Stochastischer Integralbegri6.2.4. Das Stratonowich IntegralEine alternative Denition des stochastischen Integrals wurde von Stratonovich vorgeschlagen,bei der der lineare Term t − t 0 nicht auftritt. Anstatt den Wert der zu integrierendenFunktion an der unteren Stützstelle zu nehmen (W (t i−1 )), wählt man nachStratonovich eine symmetrische Bildung und deniert∫ tt 0W ( t ′) ◦ dW ( t ′) := ms-lim n→∞{ n∑i=1W (t i ) + W (t i−1 )2[W (t i ) − W (t i−1 )]Zur Berechnung des Grenzwertes schreiben wir ähnlich wie beim Ito Integral (mit ∆W i =W i − W i−1 = W (t i ) − W (t i−1 ))W i−1 ∆W i = 1 [(W i−1 + ∆W i ) 2 − (W i−1 ) 2 − (∆W i ) 2]2= 1 [(W i ) 2 − (W i−1 ) 2 − (∆W i ) 2] und2W i ∆W i = − 1 [(W i − ∆W i ) 2 − (W i ) 2 − (∆W i ) 2]2= 1 [(W i ) 2 − (W i−1 ) 2 + (∆W i ) 2] .2Addition beider Terme liefert für obige Summen∑i=1W (t i ) + W (t i−1 )2unabhängig von n und damit∫ t[W (t i ) − W (t i−1 )] = 1 2t 0W ( t ′) ◦ dW ( t ′) = 1 2= 1 2= 1 2n∑[W i ∆W i + W i−1 ∆W i ]i=1n∑ [(W i ) 2 − (W i−1 ) 2]i=1(W 2 (t) − W 2 (t 0 ) )(W 2 (t) − W 2 (t 0 ) )wie man es vom Riemann'schen Integralbegri gewohnt ist.}.6.2.5. Zugeordnete Fokker-Planck GleichungWir wollen zunächst das Transformationsverhalten der stochastischen Dierentialgleichungdx = a (x, t) dt + b (x, t) dW (t) (6.14)111


6. Stochastische Dierentialgleichungenunter einer Koordinatentransformation f (x) untersuchen. Wir erhaltendf (x) = f ′ (x) dx + 1 2 f ′′ (x) dx 2= f ′ (x) (a (x, t) dt + b (x, t) dW (t)) + 1 2 f ′′ (x) b 2 (x, t) dW 2 (t)(= f ′ (x) a(x, t) + 1 )2 f ′′ (x) b 2 (x, t) dt + f ′ (x) b (x, t) dW (t) , (6.15)wobei wir Dierentiale zweiter Ordnung der Form dt 2 und dtdW (t) vernachlässigt haben.Wir wissen bereits, dass eine stochastische Dierentialgleichung von der Form (6.14)einen Markov Prozess beschreibt, d.h. für die stochastische Variable x exisitiert eineÜbergangswahrscheinlichkeitsdichte p(x, t|x 0 , t 0 ). Wir wollen im Folgenden eine Gleichungfür diese Übergangswahrscheinlichkeitsdichte ableiten. Zu diesem Zweck betrachtenwir die zeitliche Änderung des Erwartungswertes (bezüglich p (x, t|x 0 , t 0 ) ≡ p (x, t))einer beliebigen Funktion f (x) und erhalten unter Benutzung von Gleichung (6.15) sowie〈dW (t)〉 = 0〈 〉d12 f ′′ (x) b(x, t) 2∫dx f (x)dt 〈f (x)〉 = 〈 f ′ (x) a(x, t) 〉 +∫= dx∂p(x, t)∂t=∫dx(f ′ (x) a(x, t) + 1 2 f ′′ (x) b(x, t) 2 )p(x, t)(− ∂∂x [a(x, t)p(x, t)] + 1 2was für beliebige Funktionen f die Fokker-Planck Gleichung∂p(x, t)∂t∂ 2∂ 2∂x 2 [b(x, t) 2 p(x, t) ]) f (x) ,= − ∂∂x [a(x, t)p(x, t)] + 1 [b(x, t) 22 ∂x 2 p(x, t) ] (6.16)impliziert. Die Anfangsbedingung ist durch p(x, t 0 |x 0 , t 0 ) = δ(x − x 0 ) gegeben.Bemerkungen:1. Wir können also jeder stochastischen Dierentialgleichung der Form (6.14), wobeidW (t) = ξ(t)dt ein Wiener Prozess ist, eindeutig eine Fokker-Planck Gleichungder Form (6.16) zuordnen. Zur Ableitung dieser Zuordnung haben wir zwei Eigenschaftendes Wiener Prozesses benutzt, nämlich 〈dW (t)〉 = 0 und dW (t) 2 = dt,wobei letztere nur dann gilt, wenn die stochastische Dierentialgleichung (6.14) imIto'schen Sinne interpretiert wird (siehe Gleichung 6.12).2. Realisierungen des durch Gl. (6.14) beschriebenen stochastischen Prozesses könnenunter Zuhilfenahme der Denition des Ito-Integrals durch folgendes explizitesSchema simuliert werden:x (t i + ∆t) = x (t i ) + a (x (t i ) , t i ) ∆t+ b (x (t i ) , t i ) (W (t i + ∆t) − W (t i )) , i = 0, 1, 2, . . . .112


6.2. Stochastischer IntegralbegriDie Funktionen a (x, t) und b (x, t) werden hierbei als bekannt voraus gesetzt. Startwertx (t 0 ) und Schrittweite ∆t müssen vorgegeben werden. Ausserdem ist für jedenZeitpunkt t i der ZuwachsW (t i + ∆t) − W (t i ) := ∆W (t i )bezüglich einer Gaussverteilung mit Mittelwert 〈∆W 〉 = 0 und σ 2 = ∆t gemäÿ[ ]1 (∆W )2p (∆W, ∆t) = √ exp −2π∆t 2∆tzu wählen.Stratonovich-InterpretationMan kann zeigen, dass die nach Stratonovich interpretierte stochastische DGLdx = a (x, t) dt + b (x, t) ◦ dW (t) (6.17)äquivalent der nach Ito interpretierten Gleichung(dx = a (x, t) + 1 )∂b (x, t)b (x, t) dt + b (x, t) dW (t) (6.18)2 ∂xist. Die mit der Stratonovich Gleichung (6.17) assoziierte Fokker-Planck Gleichung könnenwir nun leicht aus der zugeordneten Ito Gleichung (6.18) ableiten, für die wir jabereits wissen, wie die zugehörige Fokker-Planck Gleichung aussieht (siehe Gleichung6.16). Wir erhalten somit∂p (x, t)∂t= − ∂∂x[(a (x, t) + 1 ∂b (x, t)b (x, t)2 ∂xDer Term([ ( )1 ∂ ∂b−b + ∂ ] )2 ∂x ∂x ∂x b2 p(x, t)kann wegen der Operatoridentitätauch in der Form1 ∂2 ∂x([−b ∂∂x = − ( ∂b∂x( ) ∂b+ ∂b ] )bp (x, t)∂x ∂x= 1 ∂2 ∂x= 1 ∂2 ∂x) ]p (x, t))+ ∂b∂x([−∂ 2+ 1 (b 22 ∂x 2 (x, t) p (x, t) ) .(6.19)( ) ∂b+ ∂b ] )bp(x, t)∂x ∂x(b (x, t) ∂∂x (b (x, t) p (x, t)) )(6.20)geschrieben werden. Demnach kann die, der nach Stratonovich interpretierten stochastischenDierentialgleichung (6.17), zugeordnete Fokker-Planck Gleichung (6.19) auch inder Form∂p (x, t)= − ∂∂t∂x (a (x, t) p (x, t)) + 1 ∂2 ∂xgeschrieben werden.(b (x, t) ∂∂x b (x, t) p (x, t) )(6.21)113


6. Stochastische Dierentialgleichungen6.2.6. Alternative SchreibweisenAlternativ zu der in Gl. (6.14) benutzten Darstellung, schreibt man stochastische Dierentialgleichungenauch häug in der Formdx = a (x, t) dt + √ b (x, t)dW (t) . (6.22)Die entsprechende Fokker-Planck Gleichung hat dann die Gestalt∂p (x, t)∂t∂ 2= − ∂∂x [a(x, t)p(x, t)] + 1 [b(x, t)p(x, t)] , (6.23)2 ∂x2 d.h. die Funktion b (x, t) geht in den Diusionsterm nur linear und nicht mehr quadratischein (siehe Gl. (6.16)).Eine weitere Schreibweise ergibt sich, wenn man die Rauschstärke in die Denition derstochastischen Kraft einbezieht. Formal erreicht man das durch die Substitutiond ¯W (x, t) := √ b (x, t)dW (t) = √ b (x, t)ξ (t) dt ≡ η (x, t) dt.Die entsprechende stochastische Dierentialgleichung lautet danndxdt= a (x, t) + η (x, t) , (6.24)wobei sich die statistischen Eigenschaften von η aus denen von ξ (Gl. 6.3 und 6.4) zu〈η (x, t)〉 = √ b (x, t) 〈ξ (t)〉 = 0 (6.25)〈η (x, t) η(x, t′ )〉 = b (x, t) 〈 ξ (t) ξ ( t ′)〉 = b (x, t) δ ( t − t ′) (6.26)ergeben, d.h. in dieser Formulierung tritt die Rauschstärke b (x, t) in der Denition derAutokorrelationsfunktion der stochastischen Kraft auf.6.3. Das Rayleigh TeilchenAls Beispiel betrachten wir die Bewegung eines Teilchens, dass sich unter dem Einusszufälliger Stöÿe durch benachbarte Teilchen bewegt. Dazu wollen wir annehmen, dasssich die Gesamtkraft auf das herausgegriene Teilchen durch 2 Anteile beschreiben lässt:einen deterministschen Anteil −γv, den man als mittlere Reibungskraft interpretierenkann und eine stochastische Kraft ξ(t), welche zufällige Stöÿe zwischen dem herausgegrienenTeilchen und den benachbarten Teilchen beschreibt und die im Mittel zu keinermakroskopischen Bewegung führen soll, für die also 〈ξ(t)〉 = 0 gilt. Im Sinne frühererBemerkungen betrachten wir die zufälligen Zusammenstöÿe zwischen dem herausgegriffenenund den benachbarten Teilchen als externe Rauschquelle. Die zugehörige LangevinGleichung hat somit die Gestaltdvdt= −γv + ξ (t) bzw. dv = −γvdt + dW (t) (6.27)114


wobei dW (t) = ξ (t) dt ein Wiener Prozess mit6.3. Das Rayleigh Teilchen〈ξ (t) ξ (s)〉 = Γδ (t − s) (6.28)ist. Da die Langevin Gleichung linear in v ist, ergibt sich für den Mittelwert der Geschwindigkeitdiesselbe Gleichung wie im rein deterministischen System (ohne ξ -Term),nämlichd 〈v〉= −γ 〈v〉 → 〈v〉 (t) = v 0 e −γt , (6.29)dtd.h. der Mittelwert der Geschwindigkeit relaxiert auf der Zeitskala 1/γ gegen Null.6.3.1. Berechnung der AutokorrelationsfunktionFür jede konkrete Realisierung der stochastischen Kraft können wir Gl. (6.27) sofortdurch∫ tv (t) = v 0 e −γt + e −γt ds e γs ξ (s) (6.30)integrieren. Damit bekommen wir für die Autokorrelationsfunktion〈v (t 1 ) v (t 2 )〉 = v 2 0e −γ(t 1+t 2 ) + e −γ(t 1+t 2 )∫ t100dt∫ t20ds e γ(t+s) 〈ξ (t) ξ (s)〉 (6.31)Der gemischte Term ∼ 〈ξ (t)〉 tritt nicht auf, da der Mittelwert der stochastischen Kraftnach Voraussetzung verschwindet. Unter Benutzung von Gl. (6.28) lässt sich der zweiteTerm in G. (6.31) umformen zu∫ t1∫ t2∫ t1∫ t2dt ds e γ(t+s) 〈ξ (t) ξ (s)〉 = Γ dt ds e γ(t+s) δ (t − s) .0 00 0Zur Auswertung dieses Doppelintegrals müssen 2 Fälle unterschieden werden, jenachdemob t 1 ≥ t 2 oder t 1 ≤ t 2 . Sei deshalb zunächst t 1 ≥ t 2 . Dann können wir das innereIntegral zuerst lösen und bekommen∫ t20ds e γ(t+s) δ (t − s) = Θ (t 2 − t) e 2γt ≡Hier haben wir die Eigenschaft der δ-Funktion∫ bads f (s) δ (t − s) = Θ (b − t) Θ (t − a) f (t) =benutzt. Das äuÿere Integral ergibt dann∫ t10dt∫ t20ds e γ(t+s) 〈ξ (t) ξ (s)〉 = Γ= Γ= Γ 2γ∫ t10∫ t20{e 2γt , 0 ≤ t ≤ t 20, sonst.{f (t) , a ≤ t ≤ b0, sonstdt Θ (t 2 − t) e 2γtdt e 2γt(e2γt 2− 1 ) .115


6. Stochastische DierentialgleichungenInsgesamt bekommt man für die Autokorrelationsfunktion den Ausdruck〈v (t 1 ) v (t 2 )〉 = v 2 0e −γ(t 1+t 2 ) + Γ 2γ(e −γ(t 1−t 2 ) − e −γ(t 1+t 2 ) ) . (6.32)Da dieser Ausdruck nicht nur von der Zeitdierenz t 1 − t 2 abhängt, kann der zugrundeliegende Prozess nicht stationär sein.6.3.2. Stationärer Prozess und Fluktuations-DissipationstheoremAufgrund der Form von Gl. (6.27) kann man erwarten, dass der zugehörige Prozess nachhinreichend langer Wartezeit (t ≫ 1/γ) einen stationären Zustand einnimmt. Die zugehörigestationäre Autokorrelationsfunktion erhält man aus Gl. (6.32) durch die Grenzwertbildungt 1 , t 2 → ∞ wobei die Zeitdierenz τ = t 1 − t 2 konstant zu halten ist, alsoκ (t 1 − t 2 ) =Analog erhält man unter der Voraussetzung t 2 ≥ t 1κ (t 2 − t 1 ) =lim 〈v (t 1 ) v (t 2 )〉 = Γt 1 ,t 2 →∞2γ e−γ(t 1−t 2 ) , t 1 ≥ t 2 . (6.33)t 1 −t 2 =τlim 〈v (t 1 ) v (t 2 )〉 = Γt 1 ,t 2 →∞2γ e−γ(t 2−t 1 ) , t 2 ≥ t 1t 2 −t 1 =τalso insgesamtκ (|t 1 − t 2 |) = Γ 2γ e−γ|t 1−t 2 | . (6.34)Hieraus folgt für das mittlere Geschwindigkeitsquadrat〈v2 〉 = Γ 2γ .Wenn wir uns die Rauschkraft ξ (t) nicht von auÿen vorgegeben denken, sondern als Teildes Gesamtsystems betrachten (internes Rauschen), dann kann man den sich einstellendenstationären Zustand als thermodynamischen Gleichgewichtszustand interpretieren.Das heraus gegriene Teilchen stellt dann das System dar und die restlichen Teilchenbilden ein Wärmebad der Temperatur T .Nach dem aus der Statistischen Physik bekannten Gleichverteilungssatz sind alle translatorischen(also mit kinetischer Energie verknüpften) Freiheitsgrade im Gleichgewichtmit der Energie kT/2 angeregt. Hier ist k die Boltzmannkonstante und T die absoluteTemperatur. Für unser System (Teilchen der Masse m) muss demnach geltenalsom2〈v2 〉 = 1 2 kTΓ = 2kTmγ. (6.35)116


6.4. Multivariate Stochastische DierentialgleichungenDiese Gleichung ist ein Beispiel für eine sogenannte Fluktuations-Dissipations-Relation.Sie verknüpft die Rauschstärke Γ mit der Reibungskonstanten γ welche das Abbremsendes Teilchens durch Wechselwirkung mit seiner Umgebung verursacht und demnachdissipativ wirkt. Relationen dieser Art sind immer dann zu erwarten, wenn die Rauschquelleim System selber liegt, sodass das Gesamtsystem (im thermodynamischen Sinne)abgeschlossen ist.6.3.3. Beschreibung durch Fokker-Planck GleichungDie der stochastischen Dierentialgleichung dv = −γvdt+ √ ΓdW (t) zugeordnete Fokker-Planck Gleichung lautet∂∂t p(v, t) = γ ∂ ∂v (vp(v, t)) + Γ ∂ 2 p(v, t)2 ∂v 2 .Sie beschreibt also einen Ornstein-Uhlenbeck Prozess (siehe Abschnitt 5.3), wenn mandie Rauschstärke Γ als Diusionskoezient des Teilchens interpretiert. Die stationäreDichte ist dann durch (siehe Gl. 5.26)p(v) =√ γ(πΓ exp − γ Γ v2) (6.35)=√( m2πkT exp − mv22kT)(6.36)gegeben, was einer Maxwellschen Geschwindigkeitsverteilung entspricht. Dies ist genaudie Verteilung, die man für ein freies Teilchen in einem Wärmebad der Temperatur Terwarten würde und bestätigt somit nochmal unsere Vorgehensweise, den durch Gl. (6.27)beschriebenen stationären Zustand als einen thermodynamischen Gleichgewichtszustandzu interpretieren.6.4. Multivariate Stochastische DierentialgleichungenIn Verallgemeinerung von Gl. (6.24) - (6.26) betrachten wir jetzt Systeme stochastischerDierentialgleichungen der Formmitdx idt = a i (⃗x, t) + η i (⃗x, t) , i = 1, . . . , n (6.37)〈η i (⃗x, t)〉 = 0, i = 1, . . . , n (6.38)〈ηi (⃗x, t) η j(⃗x, t′ )〉 = Γ ij (⃗x, t) δ ( t − t ′) , i, j = 1, . . . , n. (6.39)Die Komponenten der symmetrischen Matrix Γ ij beschreiben Korrelationen zwischen deri-ten und der j-ten Komponente der stochastischen Kraft ⃗η = (η 1 , . . . , η n ).In Analogie zu Gl. (6.23) kann man zeigen, dass die dem System (6.37) - (6.39) zugeordnetemultivariate Fokker-Planck Gleichung die Gestaltbesitzt.∂p (⃗x, t)∂t= −n∑i=1∂∂x i[a i (⃗x, t) p (⃗x, t)] + 1 2n∑i,j=1∂∂x i∂∂x j[Γ ij (⃗x, t) p (⃗x, t)] (6.40)117


6. Stochastische Dierentialgleichungen6.4.1. Korreliertes bzw. Farbiges RauschenBisher haben wir in der stochastischen Dierentialgleichung (6.2) die zufälligen Einüsseder Umgebung immer durch weiÿes Rauschen modelliert (Gl. 6.3 und 6.4). Diese idealisierteBeschreibung ist aber nur dann sinnvoll, wenn die Korrelationszeit des die zufälligenEinüsse modellierenden stochastischen Prozesses wesentlich kürzer als alle anderen, imSystem auftretenden Zeitskalen sind. Gerade bei der Beschreibung biologischer Systemeist eine solche Zeitskalentrennung nicht immer möglich, sodass wir uns nun der Fragezuwenden wollen, wie man Systeme beschreibt, deren Dynamik durch zufällige Prozessegestört wird, die auf derselben Zeitskala wie die Systemdynamik stattnden.Um Korrelationen in der Dynamik des zufälligen Prozesses zu berücksichtigen, soll diein Gl. (6.4) auftretende Korrelationsfunktion durch eine beliebige Funktion gemäÿ〈ξ (t) ξ(t′ )〉 = δ ( t − t ′) → κ ( t − t ′)ersetzt werden. Die Idee besteht nun darin, für die in GL. (6.2) auftretende stochastischeKraft ξ (t) eine eigene Langevin Gleichung der Formdξ= r (ξ) + σ (t) , (6.41)dtwobei σ (t) dt ein Wiener Prozess ist (also weiÿem Rauschen entspricht)〈σ (t)〉 = 0 (6.42)〈σ (t) σ(t′ )〉 = Γ (x, t) δ ( t − t ′) , (6.43)aufzuschreiben und durch geeignete Wahl von r (x) in Gl. (6.37) die gewünschte Korrelationsfunktion〈ξ (t) ξ(t′ )〉 = κ ( t − t ′)zu erzeugen. Der so konstruierte stochastische Prozess ξ (t) dient dann als Rauschquellefür die uns eigentlich interessierende Systemdynamikdxdt= a (x, t) + ξ (t) .6.4.2. Farbiges Rauschen und Nicht-Markov'sche DynamikAls Beispiel wollen wir einen stochastischen Prozess mit einer exponentiell abfallendenAutokorrelationsfunktion erzeugen und diesen dann als Rauschquelle für einen deterministischenProzess benutzen. Aus Abschnitt 6.3 wissen wir, dass der Ornstein-UhlenbeckProzess eine stationäre Autokorrelationsfunktion von der Formκ ( t − t ′) = Γ 2k e−k|t−t′ |besitzt. Auÿerdem kann er durch die stochastische Dierentialgleichung (6.27) erzeugtwerden kann, sodass das gekoppelte stochastische Dierentialgleichungssystemdx= a (x) + ξ (t)dtdξdt = −kξ (t) + √ Γσ (t) ,118


6.4. Multivariate Stochastische Dierentialgleichungenwobei σ (t) die Gl. (6.42) und (6.43) erfüllt, oenbar das Gewünschte leistet.Die zugeordnete Fokker-Planck Gleichung ist von der Form (siehe Gl. 6.40)∂p (x, ξ, t)∂t= − ∂∂x [(a (x) + ξ) p (x, ξ, t)] + k ∂ ∂ξ [ξp (x, ξ, t)] + Γ ∂ 2 p (x, ξ, t)2 ∂ξ 2 . (6.44)Man kann sich nun fragen, ob es möglich ist, aus dieser Gleichung eine eektive Gleichungfür die x-Dynamik abzuleiten, welche durch die marginale Verteilungp (x, t) =∫ ∞−∞dξ p (x, ξ, t)beschrieben wird. Dazu integrieren wir Gl. (6.44) über ξ und benutzen, dass die dabeiauftretenden Randterme∫ ∞−∞∫ ∞dξ ∂ ∂ξ [ξp (x, ξ, t)] = [ξp (x, ξ, t)] |∞ −∞ = 0−∞dξ ∂2 p (x, ξ, t)∂ξ 2 =[ ∂p (x, ξ, t)∂ξ]| ∞ −∞ = 0verschwinden, falls p (x, ξ, t) hinreichend schnell im Unendlichen gegen Null geht. Dannerhalten wir aus Gl. (6.44) den Ausdruck∂p (x, t)∂t= − ∂∂[a (x) p (x, t)] −∂x ∂x∫ ∞−∞dξ ξp (x, ξ, t) ,der oenbar keine geschlossene Gleichung für p (x, t) darstellt. Daraus schlieÿen wir, dassdie x-Dynamik, allein betrachtet, nicht mehr durch einen Markov Prozess darstellbar ist.Anschaulich ist das auch klar, da der gegenwärtige Zustand von x, aufgrund der vonNull verschiedenen Korrelationszeit des Rauschprozesses, auch von früheren Werten derRauschkraft abhängt.BemerkungDurch Integration von Gl. (6.44) über x kann man zeigen, dass die marginale Verteilungp (ξ, t) der Fokker-Planck Gleichung∂p (ξ, t)∂t= k ∂ ∂ξ [ξp (ξ, t)] + Γ 2∂ 2 p (ξ, t)∂ξ 2genügt und somit die ξ-Dynamik, allein betrachtet, einen Markov Prozess darstellt.119


A. Elemente derWahrscheinlichkeitstheorieA.1. Objektivierung von WahrscheinlichkeitenRealen Vorgängen wird eine mathematische Struktur [Ω, S, P ] (Maÿraum) zugeordnet,wobei1. Ω der Raum der Elementarereignisse ist, der alle möglichen Versuchsausgänge beschreibt,2. S eine Familie von Untermengen des Raumes Ω ist, die eine σ-Algebra bilden undalle interessierenden Versuchsausgänge enthalten sollten,3. P ein Verteilungsgesetz auf S ist, d.h.: P : S → [0, 1]. Jedem Ereignis A ∈ S wirdeine nichtnegative Zahl aus [0, 1] mit folgenden Eigenschaften zugeordnet:a) P (Ω) = 1 und P (∅) = 0b) P (∪ i A i ) = ∑ i P (A i), falls die A i eine abzählbare und paarweise disjunkteMenge bilden., insbesondere P (A c ) = 1 − P (A).Bemerkung:BeispieleFalls A ∩ B ≠ ∅, dann gilt P (A ∪ B) = P (A) + P (B) − P (A ∩ B).1. Einmaliger Münzwurf (Kopf=1, Zahl=0):mit P ({1}) = p und P ({0}) = q = 1 − p.2. n-maliger Münzwurf:Ω = {0, 1}Ω = {(a 1 , . . . , a n ) : a i ∈ {0, 1}}mit P ({(a 1 , . . . , a n )}) = p k (1 − p) n−k , falls ∑ ni=1 a i = k und die Reihenfolge, inder die k Einsen erscheinen, eine Rolle spielt. Dies entspricht der W.keit für einekonkrete Realisierung des k-Tupels. Spielt die Reihenfolge keine Rolle, dann ist dieZufallsgröÿe ∑ ni=1 a i = k binomialverteilt gemäÿ:()n∑( nP {(a 1 , . . . , a n )} : a i = k = pk)k (1 − p) n−k .i=1121


A. Elemente der WahrscheinlichkeitstheorieBemerkung: Zu jeder Realisierung mit k Einsen und n−k Nullen, z.B. (0, 1, 1, . . . , 0, 1, 0)gibt es n! Realisierungen, die den Wert der Zufallsgröÿe ∑ ni=1 a i = k nicht ändern.Davon sind jedoch k! · (n − k)! identisch, da sie dem Vertauschen der Einsen undNullen untereinander entsprechen.3. Gleichverteilung auf [Ω, P(Ω), P ] mit |Ω| < ∞. Sei ω ∈ Ω ein Elementarereignis,dann gilt:P ({ω}) = 1|Ω| , ∀ω ∈ ΩalsoP (A) = |A| Anzahl günstiger Ereignisse= , ∀A ⊆ Ω.|Ω| Anzahl möglicher EreignisseDies entspricht der Laplace'schen Wahrscheinlichkeitsdenition.4. Bertrand'sches Paradoxon: Eine Gerade werde auf gut Glück in den Einheitskreisgeworfen. Wie hoch ist die Wahrscheinlichkeit, dass die dabei entstehende Sehnelänger als √ 3 ist. Die Seitenlänge des einbeschriebenen Dreiecks ist √ 3 (AbbildungA.1a). Dieses Problem ist in der Form noch nicht eindeutig formuliert und die zuerwartende Wahrscheinlichkeit hängt von der Versuchsdurchführung bzw. den alsgleichwahrscheinlich betrachteten Elementarereignissen ab.a) Jeder Punkt innerhalb des Einheitskreises wird als gleichwahrscheinlich betrachtet(Abbildung A.1b). Ω 1 = {(ω x , ω y ) : ω 2 x + ω 2 y ≤ 1}. Die Länge l derSehne ist dann gröÿer als √ 3 wenn ihr Mittelpunkt innerhalb eines Kreisesvom Radius 1/2 zu liegen kommt, d.h. A 1 = {(ω x , ω y ) : ω 2 x + ω 2 y < 1 2 } undP 1 (l > √ 3) = |A 1||Ω 1 | = π(1/2)2π= 1 4 .b) Ein Endpunkt der Sehne werde fest gehalten, der andere werde auf den Randdes Kreises ∂Ω 1 geworfen (Abbildung A.1c). Bei dieser Versuchsanordnungwerden alle Winkel im Bereich Ω 2 = {ω : −π/2 < ω < π/2} als gleichwahrscheinlichangesehen. Wenn die Sehne im Bereich A 2 = {ω : −π/6 < ω < π/6}liegt, ist sie länger als √ 3. AlsoP 2 (l > √ 3) = |A 2||Ω 2 | = π/3π = 1 3 .c) Die Richtung der Sehne sei fest vorgegeben (z.B. vertikal). Der Mittelpunktder Sehne kann bei diesem Versuch in das Intervall Ω 3 = {ω : −1 < ω < 1}fallen (Abbildung A.1d). Die Länge der Sehne ist genau dann gröÿer als √ 3wenn sie in das Intervall A 3 = {ω : −1/2 < ω < 1/2} fällt. AlsoP 3 (l > √ 3) = |A 3||Ω 3 | = 1 2 .122


A.1. Objektivierung von Wahrscheinlichkeiten(a)(b)√310.5A 1Ω 1(c)(d)AA Ω 33 2 Ω 3− π −0.5 0.56Ω 2Ω 2Abbildung A.1.:Bertrand'sches Paradoxon (a) Versuchsaufbau, (b) Alle Punkte innerhalb des Einheitskreisessind gleich wahrscheinlich, (c) alle Winkel im Bereich (−π/2, π/2) sind gleichwahrscheinlich and (d) alle Punkte innerhalb des Intervalls (−1, 1) sind gleich wahrscheinlich.123


A. Elemente der WahrscheinlichkeitstheorieA.2. Bedingte Wahrscheinlichkeit, Unabhängigkeit undBayesche FormelVerbundwahrscheinlichkeit und bedingte WahrscheinlichkeitAls Verbundwahrscheinlichkeit zweier Ereignisse A und B mit A∩B ≠ ∅ bezeichnet manP (A ∩ B) = P {ω ∈ A und ω ∈ B}und entsprechend für mehrere Mengen A, B, C, . . ..Die Verbundwahrscheinlichkeit kann geschrieben werden als die Wahrscheinlichkeit,dass das Ereignis A eintritt unter der Bedingung, dass B bereits eingetreten ist multipliziertmit der Wahrscheinlichkeit, dass B überhaupt eintritt, alsoP (A ∩ B) = P (A|B)P (B).(A.1)Genausogut kann man schreibenP (A ∩ B) = P (B|A)P (A).(A.2)Anschaulich fragt man bei der bedingten W.keit nach dem Eintreten des Ereignisses A,wenn der Raum aller möglichen Elementarereignisse nicht mehr Ω, sondern nur noch eineTeilmenge, z.B. B ⊆ Ω in (A.1) ist.Beispiel: Würfeln mit einem (idealen) WürfelHier ist Ω = {1, 2, 3, 4, 5, 6} undP ({ω}) = 1|Ω| = 1 , ∀ω ∈ Ω.6Wie groÿ ist die W.keit, eine gerade Zahl (A) zu würfeln, die gröÿer als 3 (B) ist?P (A ∩ B) =|{4, 6}||Ω|= 2 6 = 1 3 .Mit Hilfe von Gleichung (A.1) können wir diese Verbundw.keit auch folgendermaÿenberechnen. Die W.keit, dass B eintritt, ist durchP (B) =|{4, 5, 6}||Ω|= 1 2gegeben. Zur Berechnung der bedingten W.keit P (A|B) zählen wir die Anzahl der Möglichkeiten,eine gerade Zahl zu würfeln, wenn der zugrunde liegende Wahrscheinlichkeitsraumnicht mehr Ω, sondern B ist, alsoP (A|B) =|{4, 6}||{4, 5, 6}| = 2 3 .Wir bekommen also wieder P (A|B)P (B) = P (A).124


A.2. Bedingte Wahrscheinlichkeit, Unabhängigkeit und Bayesche FormelUnabhängigkeitZwei Ereignisse A und B heiÿen unabhängig, wenn die Wahrscheinlichkeit des Eintretensvon A nicht durch die Kenntnis der Wahrscheinlichkeit des Eintretens von B beeinuÿtwird, alsoP (A|B) = P (A)und insbesondereP (A ∩ B) = P (A|B)P (B) = P (A)P (B),d.h. die W.keit des gleichzeitigen Eintretens von A und B ist gleich dem Produkt derW.keiten beider Einzelereignisse. Im Falle mehrerer Ereignisse muÿ man für Unabhängigkeitfordern, dass für jede Untermenge (i 1, , i 2 , . . . , i k ) aus der Menge (1, 2, . . . , n) dieVerbundwahrscheinlichkeitenP (A i1 ∩ A i2 ∩ . . . ∩ A ik ) = P (A i1 ) · P (A i2 ) · . . . · P (A ik )faktorisieren.Beispiel: Die beiden Ereignisse aus dem vorherigen Beispiel sind natürlich nicht unabhängigvoneinander, da die beiden Mengen A = {2, 4, 6} und B = {4, 5, 6} nicht disjunktsind. Formal sieht man die Unabhängigkeit anhand vonP (A|B) = 2 3 ≠ P (A) = 1 2 .Totale Wahrscheinlichkeit und Bayesche FormelSeien A 1 , . . . , A n ∈ S mit ∪ n i=1 A i = Ω, A i ∩A j = ∅, falls i ≠ j und P (A i ) > 0 (Zerlegungvon Ω in paarweise disjunkte Mengen). Dann gilt für jedes B ∈ S:P (B) =n∑P (B|A i )P (A i ) =i=1n∑P (B ∩ A i ) Formel der totalen W.keit. (A.3)i=1Allgemeiner gilt auch∑P (A i ∩ B j ∩ C k ∩ . . .) = P (B j ∩ C k ∩ . . .)iSummation über alle Ereignisse A i eliminiert diese Variable. Gilt darüberhinaus P (B) >0, so erhält man aus (A.1) und (A.2) die Bayesche Formel für die bedingten W.keitenP (A j |B) = P (A j)P (B|A j )P (B)=P (A j )P (B|A j )∑ ni=1 P (B|A i)P (A i ) , ∀j = 1, . . . , n. 125


A. Elemente der WahrscheinlichkeitstheorieBeispielEs sei bekannt, dass das Ablesen eines Gens X von 3 verschiedenen Transkriptionsfaktoren(TF) gesteuert werden kann, die unterschiedlich eektiv sind und unterschiedlichstark in der Zelle exprimiert werden. Insbesondere seien P (T F 1) = 0.1, P (T F 2) = 0.3und P (T F 3) = 0.6 die a priori Wahrscheinlichkeiten für das Vorkommen der einzelnenTFs in einer Zelle. Durch Ausschalten von jeweils 2 TFs läÿt sich die Aktivitätdes jeweils dritten TFs experimentell bestimmen. Insbesondere seien P (X|T F 1) = 0.5,P (X|T F 2) = 0.1 und P (X|T F 3) = 0.2 die Wahrscheinlichkeiten dafür, dass Gen Xexprimiert wird, wenn jeweils nur TF1, TF2 oder TF3 aktiv ist. Wie hoch ist die Wahrscheinlichkeit,dass Gen X in einer Zelle expremiert wird? Antwort:P (X) = P (X|T F 1)P (T F 1) + P (X|T F 2)P (T F 2) + P (X|T F 3)P (T F 3) = 1 5 .Wie groÿ ist die Wahrscheinlichkeit, dass, falls Gen X transkribiert wird (mRNA nachweisbar),die Transkription durch TF1 verursacht worden ist? Antwort:P (T F 1|X) =P (X|T F 1)P (T F 1)P (X)A.3. Kontinuierliche Zufallsvariablen= 0.050.2 = 1 4 .Im Falle einer kontinuierlichen Zufallsvariablen (z.B. Ort des Teilchens x ∈ R, Energiex ∈ [0, ∞)) denieren wir die Wahrscheinlichkeit für das Ereignis(a ≤ x < b)mit Hilfe der Wahrscheinlichkeitsdichte p(x) gemäÿmit∫ bP [x ∈ (a, b)] = p(x)dxa∫p(x)dx = 1 und p(x) ≥ 0.RBemerkung: p(x)dx ist die Wahrscheinlichkeit dafür, dass die Zufallsgröÿe X Werte imIntervall (x, x+dx) annimmt. Insbesondere ist die Wahrscheinlichkeit dafür, dass x einenfest vorgegebenen Wert annimmt gleich Null (Lebesgue Nullmenge).Mathematiker bevorzugen zur Beschreibung einer Wahrscheinlichkeitsverteilung einerZufallsgröÿe x ∈ (−∞, ∞) die durchP [X < x] ≡ P (x) :=∫ x−∞dx ′ p(x ′ )denierte Wahrscheinlichkeitsverteilungsfunktion. Sie gibt die Wahrscheinlichkeit an, dassdie Zufallsgröÿe X einen Wert kleiner als x annimmt. P ist monoton wachsend (aber nichtstreng) mit P (−∞) = 0 und P (∞) = 1.126


A.3. Kontinuierliche ZufallsvariablenBemerkungen: (i) Im Falle singulärer Dichten wie z.B. p(x) = ∑ i p iδ(x − x i ) ist∫ x n∑{ ∑ kP (x) = dx ′ p i δ(x ′ − x i ) = i=1 p i, x k < x0 sonst−∞i=1eine Treppenfunktion und damit weniger singulär als die Dichte selbst. (Bild malen) (ii)P (x) spielt eine groÿe Rolle bei der Transformation von Zufallsvariablen.Beispiel: Erzeugen Sie eine gleichverteilte Punktmenge (ϕ, θ) ∈ S 2 auf der Oberächeder Einheitskugel mit 0 ≤ ϕ ≤ 2π und 0 ≤ θ ≤ π! Die Dichte auf der Kugeloberächeergibt sich aus der Invarianz des Volumenelements (allgemeine Transformation vonDichten später) mit x = sin θ cos ϕ, y = sin θ sin ϕ, z = cos θalso (mit Normierung)Die durchdxdydz = sin θdθdϕ,p(θ, ϕ)dθdϕ = 1 sin θdθdϕ.4π∫ ϕ∫ θP (ϕ, θ) = 1 dϕ ′ 1 dθ ′ sin θ ′2π 0 2 0= ϕ 12π 2 (1 − cos θ) = ϕ 2π · θ sin2 2≡ P ϕ · P θdenierte Verteilungsfunktion erfüllt P (0, 0) = 0 und P (2π, π) = 1. Zufallsgeneratorenerzeugen normalerweise gleichverteilte Zufallszahlen auf dem Intervall [0, 1]. Mit Hilfe derVerteilungsfunktion können wir aus zweien solcher Zufallszahlen (x 1 , x 2 ) ∈ [0, 1] × [0, 1]leicht gleichverteilte Zufallszahlen auf der Einheitskugel vermittelst der Transformation(ϕ, θ) = P −1 (x 1 , x 2 )ϕ = P −1ϕ (x 1 ) = 2πx 1θ = P −1θ(x 2 ) = 2 arcsin √ x 2erzeugen.Bemerkung: Die Wahrscheinlichkeit, dass ϕ ∈ (ϕ 1 , ϕ 2 ) mit 0 ≤ ϕ 1 < ϕ 2 ≤ 2π istdurchP [ϕ ∈ (ϕ 1 , ϕ 2 )] = 1 ∫ ϕ2dϕ = ϕ 2 − ϕ 12π ϕ 12πgegeben. Die Wahrscheinlichkeitsdichte p(ϕ) = 1/2π ist die Gleichverteilung auf demIntervall (0, 2π). Die zugehörige Wahrscheinlichkeit P ist gerade das Lebesgue Maÿ diesesIntervalls. Hingegeben ist die Wahrscheinlichkeit, dass θ ∈ (θ 1 , θ 2 ) mit 0 ≤ θ 1 < θ 2 ≤ πnicht einfach durch den (euklidischen) Abstand θ 2 − θ 1 , sondern durchgegeben.P [θ ∈ (θ 1 , θ 2 )] = 1 2∫ θ2θ 1sin θdθ = 1 2 [cos θ 1 − cos θ 2 ]127


A. Elemente der WahrscheinlichkeitstheorieA.4. Erwartungswerte und Charakteristische FunktionDer Erwartungswert einer Funktion f(X) einer Zufallsgröÿe X ∈ R ist deniert durch〈f(X)〉 =∫ ∞−∞dxf(x)p(x) bzw. 〈f〉 = ∑ iVon besonderem Interesse sind die k-ten Momente µ k = 〈X k 〉 einer Verteilung, insbesondereMittelwert µ 1 und Varianz σ 2∫µ 1 ≡ 〈X〉 = dx xp(x)f i p i ,var(X) ≡ σ 2 (X) := 〈[X − 〈X〉] 2 〉 = 〈X 2 〉 − 〈X〉 2 = µ 2 − µ 2 1.Die Varianz ist ein Maÿ für die mittlere quadratische Abweichung einer Zufallsgröÿe vonihrem Mittelwert. Die Wurzel aus der Varianz bezeichnet man als Standardabweichung,alsoσ(X) = √ var(X).Für die Cauchy Verteilungp(x) = 1 γπ (x − a) 2 , x ∈ (−∞, ∞)+ γ2 existiert der Mittelwert nicht und die Varianz ist ∞.Charakteristische Funktion als Momente-generierende FunktionFür eine reellwertige bzw. diskrete Zufallsgröÿe ist die charakteristische Funktion deniertals∫∞∑G(k) = 〈e ikX 〉 = dx e ikx p(x) bzw. G n = e ikn p k . (A.4)Es gelten folgende Beziehungen:R∫G(0) =|G(k)| ≤ 1.Rdx p(x) = 1In diesem Sinne ist die charakteristische Funktion also nichts weiter als die Fouriertransformierteder W.keitsverteilung in kontinuierlicher oder diskreter Variante. Im Prinzipkann man die W.keitsverteilung aus der charakteristischen Funktion rekonstruieren, dadiese die gesamte Information über die W.keitsverteilung in Form ihrer Momente enthält,dennG(k) =∫Rdx (1 + ikx + (ikx)22!= 1 + ik〈x〉 + (ik)2 〈x 2 〉 + . . .2!∞∑ (ik) m=〈x m 〉,m!m=0k=0+ . . .)p(x)128


A.4. Erwartungswerte und Charakteristische Funktionsodasss man die Momente der Verteilung∫µ m ≡ 〈x m 〉 = dx p(x)x m = dmds m G(s) | s=0R(A.5)aus den Ableitungen der charakteristischen Funktion G(s ≡ ik) erhalten kann. Hierhaben wir der Einfachheit halber s = ik gesetzt. Für manche Anwendungen sind diedurch∞∑ (ik) mlog G(k) = κ m bzw. G(k) = e ∑ ∞ (ik) mm=1 κ m! mm!m=1denierten Kumulanten κ m ≡ 〈〈x m 〉〉 von Vorteil. Die Beziehung zwischen Momentenund Kumulanten erhält man ausκ m = dmds m ln G(s)| s=0unter Verwendung von (A.5) und G(0) = 1. Es gilt z.B.〈〈x〉〉 ≡ κ 1 = d [ G ′ ]ds ln G(s)| (s)s=0 =G(s)s=0= µ 1 ≡ 〈x〉oder[〈〈x 2 〉〉 ≡ κ 2 = d2G ′′ ]ds 2 ln G(s)| (s)s=0 =G(s) − G′2 (s)G 2 = µ 2 − µ 2 1 ≡ 〈x 2 〉 − 〈x〉 2(s)s=0usw. Insgesamt erhalten wir für die ersten vier Kumulantenκ 1 = µ 1κ 2 = µ 2 − µ 2 1κ 3 = µ 3 − 3µ 2 µ 1 + 2µ 3 1κ 4 = µ 4 − 4µ 1 µ 3 − 3µ 2 2 + 12µ 2 1µ 2 − 6µ 4 1.Wahrscheinlichkeitserzeugende FunktionBei diskreten Verteilungen p n erweist es sich oft als Vorteil, die durch∞∑F (z) = p n z nn=0(A.6)denierte w.keitserzeugende Funktion zu benutzen. Hier treten die gesuchten W.keitenp n als Koezienten einer (komplex-wertigen) Potenzreihe in der z-Variablen auf. Diew.keitserzeugende Funktion erhält man aus der charakteristischen Funktion in (A.4), indemman e ik ≡ z setzt. Umgekehrt ist die charakteristische Funktion gleich der w.keitserzeugendenFunktion eingeschränkt auf den Einheitskreis. Falls die in (A.6) denierte formalePotenzreihe konvergent ist, kann man diese Reihe als Laurentreihe deuten. Dannsind aber die Entwicklungskoezienten p n durch1p n = limz→0 n! ∂z n F (z)gegeben. Daher der Name w.keitserzeugende Funktion.∂ n129


A. Elemente der WahrscheinlichkeitstheorieA.5. Wichtige Verteilungen und deren charakteristischeFunktionA.5.1. Poisson-Verteilung und Poisson'scher GrenzwertsatzAufgabe: Zwei Volumina V 1 und V 2 > V 1 sind durch ein kleines Loch verbunden und könnenN nichtwechselwirkende Teilchen austauschen. Wie hoch ist die Wahrscheinlichkeitim Teilvolumen V 1 n < N Teilchen zu nden? Antwort:p n =( Nn)q n (1 − q) N−n mit q ≡ V 1V 1 + V 2.Im Grenzfall V 1 ≪ V 2 , also q ≪ 1 und N → ∞ mit lim N→∞ Nq = λ ergibt sich einePoisson-Verteilung (Poisson'scher Grenzwertsatz):( Nlim)q n (1 − q) N−n = λnN→∞ nn! e−λ , n = 0, 1, 2, . . .Zum Beweis schreiben wir( ) [ ] N λ n [lim1 − λ ] N−nN→∞ n N N= limN→∞= limN→∞N(N − 1) . . . (N − n + 1)n!N n (1 − 1 (n−1)N) . . . (1 −N )N n} {{ }1λ n[1N n − λ Nλ n [1 − λ n! N] N [1 − λ ] −nN] N} {{ }e −λ(1 − λ N )−n} {{ }1d.h.( ) [ ] N λ n [lim1 − λ ] N−n= λnN→∞ n N N n! e−λ ≡ p λ (n).Hierbei ist λ ∈ R und n = 0, 1, 2, . . . .Die Poisson-Verteilung liefert auch die Wahrscheinlichkeit dafür, dass in einem Zeitintervall[0, T ] genau N unabhängige Ereignisse stattnden, z.B. das Eintreen vonKunden an einem Fahrkartenschalter oder das Zerfallen radioaktiver Kerne. In diesemFall ist der Parameter λ durch λ = ft gegeben, wobei f die konstante (mittlere) Frequenzdes Eintretens der Ereignisse ist.130


A.5. Wichtige Verteilungen und deren charakteristische FunktionCharakteristische Funktion von Binomial- und Poisson-VerteilungDie charakteristische Funktion der Binomial- bzw. Poisson-Verteilung berechnet sich zuG(k) ===N∑( ) Ne ikn q n (1 − q) N−nnn=0N∑( ) N ( ) ne ik q (1 − q)N−nnn=0(qe ik + 1 − q) Nbzw.G(k) =∞∑n=0ikn e−λen! λn∑∞= = e −λ (λe ik ) nn!n=0= e λ(eik −1) .Zur Berechnung der Momente setzen wirund rechnen:G(s ≡ ik) = e λ(es −1)µ 1 = G ′ (s) | s=0 = λe s e λ(es −1) | s=0 = λµ 2 = G ′′ (s) | s=0 = ( (λe s ) 2 + λe s) e λ(es −1) | s=0 = λ 2 + λ,sodass die Varianz der Poisson-Verteilungσ 2 ≡ 〈(n − 〈n〉) 2 〉 = µ 2 − µ 2 1 = λ 2 + λ − λ 2 = λgleich dem Erwartungswert ist. Alle höheren Momente µ n sind gewisse Polynome in λ.Im Gegensatz dazu haben die Kumulanten eine sehr einfache Gestalt, dennlog G(k) = λ(e ik − 1) = λ(ik + (ik)22!∞∑! (ik) m=κ m ,m!m=1+ . . .)sodassist.κ m = λ, ∀m = 1, 2, . . .131


A. Elemente der WahrscheinlichkeitstheorieBemerkung: Analog zeigt man für die Binomialverteilung, dass Mittelwert und Varianzdurch µ 1 = Nq und σ 2 = Nq(1 − q) gegeben sind. Hierzu setzen wirund weiterG(ik ≡ s) = (qe s + 1 − q) Nµ 1 = G ′ (s)| s=0 = N (qe s + 1 − q) N−1 qe s | s=0 = Nq(µ 2 = G ′′ (s)| s=0 = N (N − 1) (qe s + 1 − q) N−2 (qe s ) 2 + N (qe s + 1 − q) N−1 qe s) | s=0= N (N − 1) q 2 + Nq.Daraus folgt für die Varianzσ 2 = µ 2 − µ 2 1 = N (N − 1) q 2 + Nq − (Nq) 2 = Nq (1 − q) .A.5.2. Wartezeiten und exponentiell verteilte ZufallsgröÿenIm vorherigen Unterabschnitt hatten wir gesehen, dass die Wahrscheinlichkeit dafür, dassin einem Zeitintervall [0, T ] genau n unabhängige Ereignisse mit konstanter Frequenz fstattnden, durch die Poisson-Verteilungp n (t) = (ft)n e −ftn!gegeben ist. Wir wollen uns nun fragen, wie lange wir im Mittel warten müssen, bisvon einem beliebigen Startzeitpunkt t 0 aus gesehen, das nächste Ereignis eintritt. SeidW (t 0 + t) die Wahrscheinlichkeit dafür, dass nach der Zeit t 0 das nächste Ereignisim Intervall [t 0 + t, t 0 + t + dt] statt ndet. Diese Wahrscheinlichkeit berechnet sichaus Wahrscheinlichkeit p 0 (t 0 , t 0 + t), dass im Zeitintervall [t 0 , t 0 + t] noch kein Ereigniseingetreten ist minus der Wahrscheinlichkeit p 0 (t 0 , t 0 + t + dt), dass auch im innitesimalgröÿeren Intervall [t 0 , t 0 + t + dt] kein Ereignis eingetreten ist. Unter Benutzung desAusdruckes für die Poisson-Verteilung ist klar, dass die Wahrscheinlichkeit dafür, dassim Intervall [t 0 , t 0 + t] kein (n = 0) Ereignis eintritt durch p 0 (t 0 , t 0 + t) = exp(−ft)gegeben ist. Daraus folgtdW (t 0 , t 0 + t) = p 0 (t 0 , t 0 + t) − p 0 (t 0 , t 0 + t + dt)= − dp 0(t 0 , t 0 + t)dtdt= fe −ft dt := ρ(t).Die Zufallsgröÿe ist hier die Zeit t im Gegensatz zur Poisson-Verteilung, wo die Zufallsgröÿedurch die Anzahl n der Ereignisse gegeben war, die einem vorgegebenen Zeitintervall[0, t] statt nden. Da ρ(t) die Wahrscheinlichtsdichte für das erstmalige Eintreten eines132


A.5. Wichtige Verteilungen und deren charakteristische FunktionEreignisses nach einem beliebigen Zeitpunkt t 0 ist, können wir für diesen auch den Zeitpunktdes vorherigen Ereignisses wählen, sodass ρ(t) auch die Bedeutung einer Dichtefür die Wartezeiten zwischen zwei aufeinanderfolgenden Ereignissen hat.Die Dichte ρ(t) ist normiert, da∫ ∞0dt fe −ft = 1,d.h. die Wahrscheinlichkeit, dass irgendwann in der Zukunft das nächste Ereignis eintritt,ist Eins. Mittelwert und Varianz der Exponentialverteilung sind durch〈t〉 = f∫ ∞0dt te −ft = 1 fbzw. var(T ) = 〈t 2 〉 − 〈t〉 2 = 2f 2 − 1f 2 = 1f 2gegeben, d.h. f ist in der Tat die mittlere Frequenz. Für numerische Simulationen derExponentialverteilung ist noch deren Verteilungsfunktionvon Bedeutung.P (t) =∫ t0dt ′ ρ(t ′ ) = f∫ t0dt ′ e −ft′ = 1 − e −ftA.5.3. Gauÿ-VerteilungDie Gauÿ-Verteilung ist durch zwei Parameter (µ, σ) vollständig charakterisiert:p(x; µ, σ) =1 (x−µ)2√ e− 2σ 2 , x ∈ R.2πσ 2Die charakteristische Funktion ist durch∫1G(k) = √ dx e ikx e − (x−µ)22σ 22πσ 2= e ikµ− k2 2 σ2gegeben. Wegenln G(k) = ikµ + i 2 k 2 σ22 := ∞ ∑m=1(ik) mκ mm!sieht man, dass die zwei Parameter gerade den ersten beiden Kumulanten entsprechen(κ 1 = µ 1 und κ 2 = σ 2 ).Bemerkung: Möchte man eine Verteilung dadurch charakterisieren, dass ihre Momente〈x k 〉 ab einem gewissen Index k an verschwinden, so ist das im Allgemeinen nicht inkonsistenter Weise möglich, da die höheren Momente durch die niederen eingeschränktwerden. Das sieht man schon bei der Varianzdie ja immer positiv oder Null sein muÿ.σ 2 = 〈x 2 〉 − 〈x〉 2 ≥ 0,133


A. Elemente der WahrscheinlichkeitstheorieBeispielWelche Verteilung entspricht der Vorgabe, dass nur die erste Kumulante von Null verschiedenist? Die entsprechende charakteristische Funktion ist allein durch den Mittelwertcharakterisiert und hat demnach die einfach GestaltRücktransformation liefertp(x) = 12πG(k) = e ik〈〈x〉〉 = e ik〈x〉 .∫Rdk e −ikx e ik〈x〉 = δ(x − 〈x〉),d.h. aber X ist keine Zufallsvariable, sondern eine deterministische Gröÿe.A.6. Transformation von ZufallsgröÿenSei Y = f(X) eine Transformation der Zufallsvariablen X in eine neue Zufallsgröÿe Y .Wie verhalten sich die Wahrscheinlichkeitsdichten p y (y) und p x (x) zueinander? Natürlicherweisefordern wir, dass sich Erwartungswerte beliebiger Funktionen unter Koordinatentransformationennicht ändern sollen, dass also∫∫〈g(y)〉 = 〈g(f(x))〉 bzw. dy g(y)p Y (y) = dx g(f(x))p X (x)für beliebige Funktionen g(y) gilt. Setzen wir insbesondere g(y) = δ(y − y 0 ), dann folgt∫p Y (y 0 ) = dx δ [f(x) − y 0 ] p X (x)und da y 0 beliebig ist, so erhalten wir auf diese Weise die gesamte Dichte∫p Y (y) = dx δ [f(x) − y] p X (x).Die zugehörige charakteristische Funktion ist∫∫ ∫G Y (k) = dy e iky p Y (y) = dy e iky dx δ [f(x) − y] p X (x)∫= dx e ikf(x) p X (x) = 〈exp(ikf(X))〉 ≡ G f(X) (k).Im Falle einer bijektiven Abbildung zwischen X und Y erhält man das Transformationsverhaltender Dichten einfach aus der Invarianz des Maÿesp Y (y)dy = p X (x)dx = p X (x)dx∣ dy ∣ dy.134


A.6. Transformation von ZufallsgröÿenBeispiel 1Sei ϕ gleichverteilt auf (0, 2π). Wie sieht die Verteilung für X = cos Φ aus?∫ 2πp X (x) = 〈δ(x − cos ϕ)〉 = 1 dϕδ(x − cos ϕ)2π 0= 1 ∫ 2π[]11dϕ2π |x ′ δ(ϕ − arccos x) +(ϕ)| |x ′ (ϕ)| δ(2π − ϕ − arccos x)0∫ 2π= 1 dϕ 1 [δ(ϕ − arccos x) + δ(2π − ϕ − arccos x)]2π 0 |sin ϕ|= 1 []12π |sin(arccos x)| + 1|sin(2π − arccos x)|= 1 []1√2π+ 11 − x 2 |− sin(arccos x)|p X (x) = 1 1√ , x ∈ (−1, 1).π 1 − x 2Hier haben wir die Formelδ(x − f(ϕ)) = ∑ δ(ϕ − ϕ i )|f ′ (ϕi i )|benutzt, wobei die Summation über alle Wurzeln der Gleichung x = f(ϕ) läuft. Auÿerdembesitzt der Arkuskosinus zwei Zweige im Intervall ϕ ∈ (0, 2π){ϕ = arccos x, 0 < ϕ < πx = cos ϕ ↔ϕ = 2π − arccos x, π < ϕ < 2π .Beispiel 2(Vorgri auf mehrdimensionale Verteilungen) Seien X 1 , X 2 , . . . , X n Gauÿ'sche Variablenmit Mittelwert Null, gleicher Varianz σ 2 und unabhängig, also( )1n∑p(x 1 , . . . , x n ) =(2πσ 2 ) n/2 exp x 2 i−2σ 2 .Wie lautet die Verteilung der Summe ihrer Quadrate Y = ∑ ni=1 X2 i ?p(y) ====∫Π n i=1dx i δ(i=1(n∑x 2 1i − y)(2πσ 2 ) n/2 exp −i=11 2π n/2(2πσ 2 ) n/2 Γ(n/2)∫ ∞2 1y(2σ 2 ) n/2 Γ(n/2) 2y 1/2 e− 2σ 2[(2σ 2 ) −1] n/2y n/2−1 e −(2σ2 ) −1y .Γ(n/2)0y (n−1)/2dRR n−1 ( δ(R −√ y)2 √ yn∑i=1)x 2 i2σ 2+ δ(R + √ y)2 √ y)e − R22σ 2135


A. Elemente der WahrscheinlichkeitstheorieDies entspricht einer Γ-Verteilungp(x) =aνΓ(ν) xν−1 e −axmit a ≡ 1/(2σ 2 ) > 0, ν = n/2 > 0 und 0 < x < ∞. Beim Übergang von Zeile 1 nach 2haben wir auf Polarkoordinaten transformiert R 2 = ∑ ni=1 x2 i und∫n∑∫Π n i=1dx i δ( x 2 i − y) = dΩ n dR R n−1 δ(R 2 − y)i=1= 2πn/2Γ(n/2)= 2πn/2Γ(n/2)= 2πn/2Γ(n/2)∫ ∞0∫ ∞0∫ ∞0dR R n−1 δ(R 2 − y)dR R n−1 [ δ(R −√ y)2 √ ydR R n−1 δ(R − √ y)2 √ y+ δ(R + √ ]y)2 √ ybenutzt. Hierbei ist Ω n = 2π n/2 /Γ(n/2) die Oberäche der Einheitskugel im R n .A.7. Mehrdimensionale VerteilungenSei X Zufallsgröÿe mit Komponenten X 1 , X 2 , . . . , X n . Dann ist p n (x 1 , . . . , x n ) die Verbundwahrscheinlichkeitsdichteund p n (x 1 , . . . , x n )dx 1 · . . . · dx n die Wahrscheinlichkeitdafür, dass die Zufallsgröÿe X Werte im Intervall X 1 ∈ (x 1 , x 1 + dx 1 ) und . . . undX n ∈ (x n , x n + dx n ) annimmt. Interessiert man sich nur für die Verteilung der erstens < n Variablen unabhängig vom Werte der letzten n − s Variablen, erhält man diemarginale Wahrscheinlichkeitsdichte durch ausintegrieren der n − s Variablen∫p s (x 1 , . . . , x s ) = dx s+1 · . . . · dx n p n (x 1 , . . . , x s , x s+1 , . . . , x n ).Fixiert man hingegen die Werte der letzten n − s Variablen, erhält man die bedingteWahrscheinlichkeitsdichtep s|n−s (x 1 , . . . , x s |x s+1 , . . . , x n )für die ersten s Komponenten unter der Bedingung, dass die letzten n − s GröÿenX s+1 , . . . , X n die vorgegebenen Werte x s+1 , . . . , x n annehmen.Analog zu Abschnitt A.2 läÿt sich die bedingte Wahrscheinlichkeit alsp n (x 1 , . . . , x n ) = p s|n−s (x 1 , . . . , x s |x s+1 , . . . , x n )p n−s (x s+1 , . . . , x n )schreiben. Die beiden Gruppen X 1 , . . . , X s und X s+1 , . . . , X n sind unabhängig wenn diebedingte Wahrscheinlichkeitsdichte faktorisiert, alsop s|n−s (x 1 , . . . , x s |x s+1 , . . . , x n ) = p s (x 1 , . . . , x s )gilt. Insbesondere sind zwei Zufallsgröÿen X und Y unabhängig, wenn giltp XY (x, y) = p X|Y (x|y) · p Y (y) = p X (x) · p Y (y).136


A.7. Mehrdimensionale VerteilungenA.7.1. Momente, charakteristische Funktion und (Ko-)VarianzenMomente und charakteristische Funktion werden in naheliegender Weise deniert〈X m 11 · · · X mnn 〉 =∫dx 1 · . . . · dx n x m 11 · · · x mnn p(x 1 , . . . , x n )G(k 1 , . . . , k n ) = 〈e i(k 1x 1 +...+k nx n) 〉=∞∑ (ik 1 ) m1 · . . . · (ik n ) mn〈X m 11 · · · Xn mn 〉,m 1 ! · . . . · m n !m i =0d.h. die Momente lassen sich wieder aus der charakteristischen Funktion gewinnen:(〈Π i X m ii〉 =[Π i −i ∂ ) mi]G(k) .∂k i k=0Im Falle mehrerer Variabler deniert man die Kovarianz Matrix〈〈X i X j 〉〉 ≡ Σ ij := 〈(X i − 〈X i 〉) (X j − 〈X j 〉)〉 ≡ 〈X i X j 〉 − 〈X i 〉〈X j 〉.(A.7)Sie ist ein Maÿ für die Korrelation (lineare Abhängigkeit) zweier Zufallsvariabler. Σ ijist gröÿer (kleiner) als Null wenn die Abweichungen von X i und X j von ihrem Mittelwertim Mittel in dieselbe (entgegengesetzte) Richtung verlaufen. Sind die Variablenunkorreliert, ist Σ ij = σi 2δ ij diagonal. Normiert man die Kovarianzmatrix erhält man dieKorrelationsmatrixρ(X i , X j ) ≡ ρ ij := 〈〈X iX j 〉〉∈ [−1, 1]σ(X i )σ(X j ) (A.8)mit σ(X i ) = √ Σ ii . Der Korrelationskoezient zweier Zufallsvariabler misst deren lineareAbhängigkeit, denn ρ ij = ±1 wenn X i und X j linear abhängig sind.Wenn zwei Zufallsvariablen X und Y unabhängig sind, also 〈XY 〉 = 〈X〉〈Y 〉 gilt, sosind sie auch unkorrelliert (insbesondere nicht linear abhängig). Die Umkehrung gilt i.a.nur für Gauÿ'sche Variablen.Charakteristische Funktion einer Summe von unabhängigen ZufallsvariablenSei X = ∑ Ni=1 x i, wobei die x i unabhängig sind und alle die gleiche Wahrscheinlichkeitsverteilungp(x i ) und damit die gleiche charakteristische Funktion G(k) besitzen. Danngilt: G X (k) = [G(k)] N . Zunächst haben wirN∑∫p(X) = 〈δ(X − x i )〉 =i=1∫. . .N∑dx 1 · . . . · dx N p(x 1 , . . . , x N )δ(X − x i )i=1137


A. Elemente der WahrscheinlichkeitstheorieDamit erhalten wir für die charakteristische FunktionG X (k) ====∫∫∫[∫dXe ikX p(X)( ∫ ∫dXe ikX . . .∫. . .dx 1 · . . . · dx N p(x 1 , . . . , x N )δ(X −dx 1 · . . . · dx N e ik ∑ Ni=1 x ip(x 1 ) · . . . · p(x N )dx p(x)e ikx ] N= [G(k)] N .)N∑x i )i=1Im Übergang von Zeile 2 nach 3 wurde die Unabhängigkeit benutzt und über dX integriert.Bemerkung: Wenn die x i nicht identisch verteilt, aber weiterhin unabhängig sind, gilt:G X (k) = G x1 (k) · . . . · G xn (k), wobei G xi (k) die charakteristischen Funktionen der p i (x i )sind.Beispiel: Asymmetrischer Random WalkBetrachte die Zufallsvariable x i = {1, −1} auf dem eindimensionalen Gitter {. . . , −2, −1, 0, 1, 2, . . .}.Die folgenden Wahrscheinlichkeiten sind deniert:p −1 ≡ p(x i = −1) = q (Schritt nach links)p 1 ≡ p(x i = 1) = 1 − q (Schritt nach rechts).Die neue Zufallsvariable X ≡ ∑ rj=0 x i gibt die Position auf dem Gitter nach r Schrittenan, wenn man bei n = 0 gestartet ist. Die charakteristische Funktion der x i ist einfachG xi (k) =∑n={−1,1}Da diese unabhängig sind, gilt für deren Summe X:p n e ikn = qe −ik + (1 − q)e ik .G X (k, r) = [G xi (k)] r = [qe −ik + (1 − q)e ik ] r .(A.9)Ordnet man diesen Ausdruck nach Potenzen in e ikn , ndet man die gesuchten Wahrscheinlichkeiten,da sich die charakteristische Funktion immer in der Gestalt G(k) = ∑ n p ne ikn138


schreiben läÿt:A.7. Mehrdimensionale VerteilungenG Y (k, r) = [qe −ik + (1 − q)e ik ] rr∑( ) r=q n e −ikn (1 − q) (r−n) e ik(r−n)nn=0r∑( ) r=q n (1 − q) (r−n) e ik(r−2n)nr−2n→m=→ p m (r) =n=0r∑( )r1m=−r 2 (r − m)( )r12 (r − m)q r−m2 (1 − q) r+m2 e ikmq r−m2 (1 − q) r+m2 .Ist der Random Walk symmetrisch, also q ≡ 1/2, dann ergibt sich( )r 1p m (r) = 12 (r − m) 2 r .A.7.2. Mehrdimensionale Gauÿ-VerteilungSei X ein Vektor von n gauÿverteilten Zufallsgröÿen. Dann kann deren gemeinsame Wahrscheinlichkeitsdichte(nach eventueller linearer Transformation) in die Form1p(x) = √(−(2π) n det Σ exp 1 )2 (x − µ)T · Σ −1 · (x − µ)gebracht werden. Mittelwert und Kovarianzmatrix sind durch∫〈X〉 = dx xp(x) = µΣ = 〈XX T 〉 − 〈X〉〈X〉 Tgegeben. Die charakteristische Funktion lautetG(k) = exp(ik · µ − 1 )2 k · Σ · kWenn alle X i unkorrelliert sind, sind Σ ij = σi 2δ ij und die zugehörige inverse MatrixΣ −1ij= σi−2 δ ij diagonal, sodass die Verbundwahrscheinlichkeit in ein n-faches Produktvon 1-dimensionalen Gauÿ-Verteilungen zerfällt:()1n∑ (xp(x) = √ i − µ i ) 2(2π) n σ1 2 · . . . · exp −σ2 2σni2= p 1 (x 1 ) · . . . · p n (x n ),d.h. unkorrelliert und unabhängig sind äquivalent für mehrdimensional gauÿverteilteVariablen.i=1139


A. Elemente der WahrscheinlichkeitstheorieBemerkung: Seien X 1 , . . . , X n stochastische Variablen mit beliebiger Verteilung, dannläÿt sich durch entsprechende LinearkombinationenY i =n∑a ij X jj=1immer ein Satz an neuen Variablen nden, die paarweise unkorrelliert, also im Mittellinear unabhängig sind. Das läuft unter dem Stichwort: Principal Component Analysis.Da die Korrelationsmatrix ρ ij (A.8) per Konstruktion symmetrisch ist, kann sie immerdiagonalisiert werden.MomenteDie Momente der mehrdimensionalen Gauÿ-Verteilung werden besonders einfach, wenno.B.d.A. der Mittelwert verschwindet. Dann verschwinden auch alle ungeraden Momenteund für eine gerade Anzahl gilt〈X i X j X k X l . . .〉 = (2n)!n!2 n {σ ijσ kl . . .} sym (A.10)wobei {} sym bedeutet vollständige Symmetrisierung bezgl. aller Indizes. 2n ist die Ordnungdes Moments.Beispiel〈X 1 X 2 X 3 X 4 〉 =4!4 · 2! {1 3 (σ 12σ 34 + σ 41 σ 23 + σ 13 σ 24 )}= σ 12 σ 34 + σ 41 σ 23 + σ 13 σ 24〈X1〉 4 =4!4 · 2! {σ2 11} = 3σ11. 2 (A.11)A.8. Gesetz der groÿen Zahlen und Zentraler GrenzwertsatzGesetz der groÿen Zahlen (Modell einer Messung):In einem Experiment messen wir dieselbe Gröÿe X(n) zu n = 1, 2, . . . aufeinanderfolgendenZeitpunkten. Wir nehmen an, dass die Wahrscheinlichkeitsverteilung p X (n) immerdiegleiche ist. Im Allgemeinen werden die X(n) in aufeinanderfolgenden Messungen abernicht unabhängig sein. Als Messergebnis nimmt man für gewöhnlich nach hinreichendvielen Messungen den durch¯X N = 1 N∑X(n)(A.12)Ndenierten Mittelwert der Gröÿe X in der Honung, dass er den wahren Mittelwertn=1〈X〉 = ∑ np X (n)X(n)140


A.8. Gesetz der groÿen Zahlen und Zentraler Grenzwertsatzhinsichtlich der i.a. unbekannten Verteilung p X (n) möglichst gut approximiert.Wir wollen nun zeigen, dass, wenn die Korrelationen〈〈X n X m 〉〉 = 〈X n X m 〉 − 〈X n 〉〈X m 〉zwischen aufeinanderfolgenden Messungen für |n − m| → ∞ hinreichend schnell gegenNull gehen, diese Vorgehensweise in der Tat gerechtfertigt ist und dassgilt. Zunächst ist klar, dasslimN→∞¯X N = 〈X〉〈 ¯X N 〉 = 〈 1 NN∑X(n)〉 = 1 Nn=1N∑〈X(n)〉 = 〈X〉 1 Nn=1N∑= 〈X〉n=1gilt. Dann berechnen wir die Varianz der Gröÿe ¯X Nvar{ ¯X N } = 〈 ¯X N ¯XN 〉 − 〈 ¯X N 〉 2 = 1N 2und nehmen an, dass die Korrelationen von der FormN ∑m,n=1〈〈X(n)X(m)〉〉 = Kλ |m−n|mit λ < 1 und K gleich konstant ist. Dann haben wirvar{ ¯X N } = K N 2 N ∑〈〈X(n)X(m)〉〉[λ |m−n| = K ∑N 2 λ |m−n| + 2 ∑m,n=1 m=n n>m]= K N−1∑ N∑[NN 2 + 2 λ |m−n|= K N 2 [N + 2m=1 n=m+1N−1∑m=1= K N + 2 K N−1∑N 2m=1N−m∑s=1λ s ]λ 1−m (λ N − λ m )λ − 1= K [ N(1 − λ) + (λ N ]N + 2Kλ− 1)N 2 (λ − 1) 2 → 0λ |m−n| ]im Limes N → ∞. Insbesondere geht die Standardabweichung σ( ¯X N ) = √ var( ¯X N ) wie1/ √ N gegen Null.141


A. Elemente der WahrscheinlichkeitstheorieZentraler GrenzwertsatzVorbetrachtung: Seien X 1 , X 2 , . . . , X n unabhängig und identisch verteilte Gauÿ'sche Zufallsvariablenmit verschwindendem Mittelwert, also()1p(x 1 , . . . , x n ) =(2πσ 2 ) n/2 exp − 1 n∑2σ 2 x 2 idann ist die Zufallsgröÿe Y = ∑ ni=1 X i ebenfalls gauÿverteilt mit Mittelwert Null undVarianz σ 2 (Y ) = nσ 2 , alsoDas folgt unmittelbar ausp Y (y) =i=1( )1√ exp − y22πnσ 2 2nσ 2 . (A.13)G Y (k) = [G X (k)] n[ ] n= e − k2 σ 22 .Die Rücktranformation liefert obiges Resultat für p Y (y).Skaliert man in Gleichung (A.13)Z = Y √ n= X 1 + . . . + X n√ n,dann ist Z wieder gauÿverteilt mit Mittelwert Null und Varianz σ(Z) = σ 2 , besitzt alsodieselbe Verteilung wie die ursprünglichen Zufallsgröÿen X i .Der zentrale Grenzwertsatz behauptet nun, dass diese Aussage gültig bleibt, auch wenndie X i nicht gauÿverteilt sind, also: Seien X 1 , . . . , X n unabhängig und identisch verteilteZufallsvariable mit endlichem Mittelwert µ < ∞ und endlicher Varianz σ 2 < ∞, dannist die durchZ = (X 1 + . . . + X n ) − nµσ √ ndenierte Zufallsgröÿe gauÿverteilt mit Mittelwert Null und Varianz Eins und es gilt( ) ∫lim P (X1 + . . . + X n ) − nµxn→∞ σ √ < x = dx ′ 1√ e − x′22 .n2πPlausibilitätsargumentDie charakteristische Funktion einer beliebigen Verteilung mit verschwindendem Mittelwertµ = 0 läÿt sich schreiben als∫G X (k) = dx e ikx P X (x) = 1 − 1 2 k2 〈x 2 〉 + . . . = 1 − 1 2 k2 σ 2 + . . .−∞142


A.8. Gesetz der groÿen Zahlen und Zentraler GrenzwertsatzDa alle X i identisch verteilt und unabhängig sind, gilt für die charakteristische Funktion[ ( )] k nG Z (k) = G X √n =[1 − k2 σ 2 ] n→ e − k2 σ 22 ,2nmit Z = ( ∑ ni=1 X i)/ √ n. Im Grenzfall n → ∞ geht die charakteristische Funktion für Zgegen die einer Gauÿ-Verteilung mit µ = 0 und Varianz σ 2 .Bemerkungen: (i) Die Terme von Ordnung k 3 in G X tragen Terme der Ordnung 1/n 3/2in G Z bei und verschwinden im Grenzfall n → ∞. (ii) Obige Aussage bleibt auch dannrichtig, wenn die X i nicht identisch verteilt sind, sondern in Gruppen identisch verteilterZufallsvariabler mit jeweils endlichem Mittelwert und endlicher Varianz zerfallen.Bemerkung Das Gesetz der groÿen Zahlen und der zentrale Grenzwertsatz werden oftin einem Atemzug erwähnt. Ihr Inhalt ist allerdings recht verschieden. Das Gesetz dergroÿen Zahlen rechtfertigt die oft gemachte Annahme, den Mittelwert einer Gröÿe durchden Ausdruck (A.12) approximieren zu können, falls die Korrelationen zwischen aufeinanderfolgendenMessungen schnell genug mit dem (zeitlichen) Abstand zwischen zweiMessungen gegen Null gehen. Hier wird an keiner Stelle eine Annahme über die Verteilungder beobachteten Gröÿe gemacht. Im Gegensatz dazu macht der zentrale Grenzwertsatzeine direkte Aussage über die Verteilung der Summe einer hinreichend groÿen Anzahlvon unabhängigen Zufallsvariablen (über deren Verteilung nur vorausgesetzt wird, dassderen Mittelwert und Varianz existieren und endlich sind).143

Weitere Magazine dieses Users
Ähnliche Magazine