20.07.2013 Aufrufe

Skript

Skript

Skript

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

10. Schnell mischende Markov-Ketten 85<br />

Auch diese Markov-Kette ist reversibel, was man zum Beispiel so sieht. Sei i = j und (i, j) ∈ E<br />

(die anderen Fälle sind trivial). Dann gilt:<br />

piPij<br />

=<br />

pjPji<br />

pi min(1, pj p ) · β/d<br />

i<br />

pj min(1, pi p ) · β/d<br />

j =<br />

⎧<br />

⎨ pi p /<br />

j<br />

⎩<br />

pi p falls pi pj<br />

j<br />

p = 1<br />

i falls pi > pj<br />

p ·<br />

j pj pi Wegen des folgenden Lemmas kennt man auch sofort die stationäre Verteilung dieser Markov-<br />

Kette: Es ist p.<br />

10.5 Lemma. Ist M eine ergodische Markov-Kette und q eine Verteilung mit der Eigenschaft, dass für<br />

alle Zustände i und j gilt, dass qiPij = qjPji ist, dann ist q die (eindeutig bestimmte) stationäre<br />

Verteilung von M.<br />

10.6 Beweis. Für alle i ist<br />

(qP)i = <br />

qjPji = <br />

j<br />

j<br />

qiPij = qi<br />

<br />

j<br />

Pij = qi .<br />

10.7 Für den klassischen Algorithmus von Metropolis u. a. (1953) ist eine zeilenstochastische Matrix Q<br />

gegeben, die symmetrisch ist (diese Einschränkung wurde von Hastings (1970) beseitigt). Ziel<br />

ist aber eine reversible Markov-Kette mit Übergangsmatrix P, deren stationäre Verteilung w nur<br />

indirekt gegeben ist. Festgelegt ist nämlich nur eine Funktion H: S → R mit der Eigenschaft, dass<br />

e−H(i) proportional zur Wahrscheinlichkeit von Zustand i in w ist. Der Proportionalitätsfaktor<br />

ist natürlich Z = <br />

i∈S e−H(i) .<br />

Q heißt üblicherweise proposal matrix, H energy function und Z partition function.<br />

Das Schöne am Metropolis-Algorithmus ist, dass man Z gar nicht kennen muss. (In manchen<br />

Anwendungen in der Physik ist S sehr groß.)<br />

10.8 Algorithmus. Der Metropolis-Algorithmus, oder auch Metropolis sampler, funktioniert wie folgt:<br />

Man startet in einem beliebigen Zustand i0 ∈ S. Ist man nach t Schritten in Zustand it ∈ S,<br />

dann ergibt sich it+1 in zwei Teilschritten:<br />

• Zunächst wird gemäß der Verteilung Q(it, ·) zufällig ein j ∈ S bestimmt.<br />

• Dann gibt es zwei Möglichkeiten:<br />

– Falls H(j) H(it) ist, also wj wit , dann wählt man it+1 = j.<br />

– Falls H(j) > H(it) ist, also wj < wit , wählt man<br />

<br />

j mit Wahrscheinlichkeit wj/wit<br />

it+1 =<br />

it sonst<br />

= eH(it)−H(j)<br />

10.9 Satz. Die durch den Metropolis-Algorithmus festgelegte Markov-Kette auf S ist reversibel und in ihrer<br />

stationären Verteilung hat Zustand i Wahrscheinlichkeit e −H(i) /Z.<br />

10.10 Beweis. Sei P die durch den Algorithmus festgelegte Übergangsmatrix. Es genügt zu beweisen,<br />

dass für alle i, j ∈ S Balancierheit vorliegt, d. h.:<br />

e −H(i) /Z · Pij = e −H(j) /Z · Pji<br />

Das ist eine einfache Rechnung analog zu der in Punkt 10.4.<br />

31. Januar 2013 c○ Th. Worsch 2000-2013

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!