Skript
Skript
Skript
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
10. Schnell mischende Markov-Ketten 85<br />
Auch diese Markov-Kette ist reversibel, was man zum Beispiel so sieht. Sei i = j und (i, j) ∈ E<br />
(die anderen Fälle sind trivial). Dann gilt:<br />
piPij<br />
=<br />
pjPji<br />
pi min(1, pj p ) · β/d<br />
i<br />
pj min(1, pi p ) · β/d<br />
j =<br />
⎧<br />
⎨ pi p /<br />
j<br />
⎩<br />
pi p falls pi pj<br />
j<br />
p = 1<br />
i falls pi > pj<br />
p ·<br />
j pj pi Wegen des folgenden Lemmas kennt man auch sofort die stationäre Verteilung dieser Markov-<br />
Kette: Es ist p.<br />
10.5 Lemma. Ist M eine ergodische Markov-Kette und q eine Verteilung mit der Eigenschaft, dass für<br />
alle Zustände i und j gilt, dass qiPij = qjPji ist, dann ist q die (eindeutig bestimmte) stationäre<br />
Verteilung von M.<br />
10.6 Beweis. Für alle i ist<br />
(qP)i = <br />
qjPji = <br />
j<br />
j<br />
qiPij = qi<br />
<br />
j<br />
Pij = qi .<br />
10.7 Für den klassischen Algorithmus von Metropolis u. a. (1953) ist eine zeilenstochastische Matrix Q<br />
gegeben, die symmetrisch ist (diese Einschränkung wurde von Hastings (1970) beseitigt). Ziel<br />
ist aber eine reversible Markov-Kette mit Übergangsmatrix P, deren stationäre Verteilung w nur<br />
indirekt gegeben ist. Festgelegt ist nämlich nur eine Funktion H: S → R mit der Eigenschaft, dass<br />
e−H(i) proportional zur Wahrscheinlichkeit von Zustand i in w ist. Der Proportionalitätsfaktor<br />
ist natürlich Z = <br />
i∈S e−H(i) .<br />
Q heißt üblicherweise proposal matrix, H energy function und Z partition function.<br />
Das Schöne am Metropolis-Algorithmus ist, dass man Z gar nicht kennen muss. (In manchen<br />
Anwendungen in der Physik ist S sehr groß.)<br />
10.8 Algorithmus. Der Metropolis-Algorithmus, oder auch Metropolis sampler, funktioniert wie folgt:<br />
Man startet in einem beliebigen Zustand i0 ∈ S. Ist man nach t Schritten in Zustand it ∈ S,<br />
dann ergibt sich it+1 in zwei Teilschritten:<br />
• Zunächst wird gemäß der Verteilung Q(it, ·) zufällig ein j ∈ S bestimmt.<br />
• Dann gibt es zwei Möglichkeiten:<br />
– Falls H(j) H(it) ist, also wj wit , dann wählt man it+1 = j.<br />
– Falls H(j) > H(it) ist, also wj < wit , wählt man<br />
<br />
j mit Wahrscheinlichkeit wj/wit<br />
it+1 =<br />
it sonst<br />
= eH(it)−H(j)<br />
10.9 Satz. Die durch den Metropolis-Algorithmus festgelegte Markov-Kette auf S ist reversibel und in ihrer<br />
stationären Verteilung hat Zustand i Wahrscheinlichkeit e −H(i) /Z.<br />
10.10 Beweis. Sei P die durch den Algorithmus festgelegte Übergangsmatrix. Es genügt zu beweisen,<br />
dass für alle i, j ∈ S Balancierheit vorliegt, d. h.:<br />
e −H(i) /Z · Pij = e −H(j) /Z · Pji<br />
Das ist eine einfache Rechnung analog zu der in Punkt 10.4.<br />
31. Januar 2013 c○ Th. Worsch 2000-2013