24.01.2013 Aufrufe

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

18.3 Markovketten Monte Carlo Methode 381<br />

⎧ � �<br />

1<br />

⎪⎨ #Λ 1 ∧ exp 2β<br />

p(x, y)=<br />

⎪⎩<br />

�<br />

( {x(j)�=x(i)}−<br />

j: j∼i<br />

1<br />

2 )<br />

��<br />

, falls y = xi für ein i ∈ Λ,<br />

1 − �<br />

i∈Λ p(x, xi ), falls x = y,<br />

0, sonst.<br />

Praktisch wird man diese Kette simulieren, indem man sich unabhängige Zufallsvariablen<br />

I1,I2,... und U1,U2,... verschafft mit In ∼UΛ und Un ∼U [0,1]. Man<br />

setzt nun<br />

Fn(x) =<br />

� �<br />

In x , falls Un ≤ exp 2β �<br />

j: j∼i ( {x(j)�=x(i)} − 1<br />

2 )<br />

�<br />

,<br />

x, sonst,<br />

und definiert die Markovkette (Xn)n∈N durch Xn = Fn(Xn−1) für n ∈ N. ✸<br />

Gibbs-Sampler<br />

Wir betrachten eine Situation, in der, wie im obigen Beispiel, ein Zustand aus vielen<br />

Komponenten x =(xi)i∈Λ ∈ E besteht, wobei Λ eine endliche Menge ist. Alternativ<br />

zur Metropolis-Kette betrachten wir ein weiteres Verfahren, um eine Markovkette<br />

mit gegebener invarianter Verteilung herzustellen. Beim so genannten Gibbs-<br />

Sampler oder heat bath algorithm ist die Idee, den Zustand lokal an die stationäre<br />

Verteilung anzupassen. Ist x der momentane Zustand, dann verfährt man wie folgt.<br />

Für i ∈ Λ setze<br />

x−i := {y ∈ E : y(j) =x(j) für j �= i}.<br />

Definition 18.22 (Gibbs-Sampler). Sei q ∈M1(Λ) mit q(i) > 0 für jedes i ∈ Λ.<br />

Die Übergangsmatrix p auf E mit<br />

�<br />

qi<br />

p(x, y) =<br />

π(xi,σ )<br />

π(x−i) , falls y = xi,σ für ein i ∈ Λ,<br />

0, sonst.<br />

heißt Gibbs-Sampler zur invarianten Verteilung π.<br />

In Worten verfährt eine nach p konstruierte Kette in jedem Schritt wie folgt:<br />

(1) Wähle eine Komponente I gemäß einer Verteilung (qi)i∈Λ.<br />

(2) Ersetze in x durch x I,σ mit Wahrscheinlichkeit π(x I,σ )/π(x−I).<br />

Falls I = i ist, dann hat der neue Zustand also die Verteilung L(X|X−i = x−i),<br />

wobei X eine Zufallsvariable mit Verteilung π bezeichnet. Man beachte, dass man<br />

auch beim Gibbs-Sampler die Verteilung π nur bis auf die Normierungskonstante<br />

zu kennen braucht (in einem etwas allgemeineren Rahmen lassen sich der Gibbs-<br />

Sampler und der Metropolis Algorithmus als Spezialfälle ein und desselben Verfahren<br />

auffassen). Für Zustände x und y, die sich nur in der i-ten Komponente unterscheiden,<br />

gilt (wegen x−i = y−i)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!