24.01.2013 Aufrufe

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

382 18 Konvergenz von Markovketten<br />

π(x) p(x, y) =π(x) qi<br />

π(y)<br />

π(x)<br />

= π(y) qi = π(y) p(y, x).<br />

π(x−i) π(y−i)<br />

Der Gibbs-Sampler beschreibt also eine reversible Markovkette mit Gleichgewicht<br />

π. Die Irreduzibilität des Gibbs-Samplers ist von Fall zu Fall zu klären.<br />

Beispiel 18.23 (Ising Modell). Im oben beschriebenen Ising-Modell ist x−i =<br />

{x i,−1 ,x i,+1 }. Daher ist für i ∈ Λ und σ ∈{−1, +1}<br />

π(x i,σ� � x−i) =<br />

π(x i,σ )<br />

π({x i,−1 ,x i,+1 })<br />

e −βH(xi,σ )<br />

=<br />

e−βH(xi,−1 ) + e−βH(xi,+1 )<br />

� �<br />

= 1+expβ<br />

� H(x i,σ ) − H(x i,−σ ) ���−1 � �<br />

= 1+exp2β<br />

�<br />

j: j∼i ( {x(j)�=σ} − 1<br />

2 )<br />

�� −1<br />

Der Gibbs-Sampler des Ising-Modells ist also die Markovkette (Xn)n∈N0 mit Werten<br />

in E = {−1, 1} Λ und mit Übergangsmatrix<br />

⎧ � �<br />

⎨ 1<br />

#Λ 1+exp 2β<br />

p(x, y)=<br />

⎩<br />

�<br />

( {x(j)�=x(i)}−<br />

j: j∼i<br />

1<br />

2 )<br />

��−1 , falls y = xi für ein i ∈ Λ,<br />

0, sonst.<br />

✸<br />

Perfekte Simulation<br />

Die bislang betrachtete MCMC Methode baut auf dem Prinzip Hoffnung: Wir lassen<br />

die Kette lange laufen und hoffen, dass sie sich in einem Zustand nahe dem<br />

Gleichgewicht befindet. Selbst wenn wir die Konvergenzgeschwindigkeit bestimmen<br />

können (und das ist oft nicht ganz leicht – wir kommen dazu in Abschnitt 18.4),<br />

werden wir doch nie einen Zustand bekommen, der exakt wie das Gleichgewicht<br />

verteilt ist.<br />

Tatsächlich ist es, zumindest theoretisch, möglich, ein der MCMC Methode verwandtes<br />

Verfahren anzugeben, das perfektes Ziehen von Stichproben nach der Verteilung<br />

π ermöglicht, sogar, wenn wir über die Konvergenzgeschwindigkeit gar<br />

nichts wissen. Hierzu nehmen wir an, dass F1,F2,... u.i.v. zufällige Abbildungen<br />

E → E sind mit P[F (x) =y] =p(x, y) für alle x, y ∈ E. Wir hatten gesehen,<br />

dass wir die Markovkette X mit Start in x durch Xn = Fn ◦ Fn−1 ◦···◦F1(x)<br />

konstruieren können.<br />

Nun gilt F n 1 (x) :=F1◦ ...◦ Fn(x) D = Fn ◦ ...◦ F1(x). Also gilt P[F n 1 (x) =<br />

y] n→∞<br />

−→ π(y) für jedes y. Ist nun aber F n 1 die konstante Abbildung, etwa F n 1 ≡ x∗ .

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!