24.01.2013 Aufrufe

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

376 18 Konvergenz von Markovketten<br />

Übung 18.2.3. Sei X eine beliebige aperiodische, irreduzible, rekurrente Irrfahrt<br />

auf Z d . Man zeige, dass dann zu je zwei Startpunkten die unabhängige Verschmelzung<br />

eine erfolgreiche Kopplung ist.<br />

Hinweis: Man zeige, dass die Differenz zweier rekurrenter Irrfahrten stets wieder<br />

rekurrent ist. ♣<br />

Übung 18.2.4. Sei X eine Markovkette auf Z2 mit Übergangsmatrix<br />

⎧<br />

1<br />

4<br />

⎪⎨<br />

p((x1,x2), (y1,y2)) =<br />

⎪⎩<br />

, falls x1 =0, �y − x�2 =1,<br />

1<br />

4 , falls x1 �= 0und y1 = x1 ± 1, x2 = y2,<br />

1<br />

2 , falls x1 �= 0und y1 = x1, x2 = y2,<br />

0, sonst.<br />

Anschaulich ist dies die symmetrische einfache Irrfahrt, bei der alle senkrechten<br />

Übergänge außerhalb der senkrechten Koordinatenachse blockiert werden. Man zeige,<br />

dass X nullrekurrent, irreduzibel und aperiodisch ist, und dass die unabhängige<br />

Verschmelzung keine erfolgreiche Kopplung ist. ♣<br />

18.3 Markovketten Monte Carlo Methode<br />

Es sei E eine endliche Menge und π ∈M1(E) mit π(x) :=π({x}) > 0 für jedes<br />

x ∈ E. Wir betrachten das Problem, eine Zufallsvariable Y mit Verteilung π mit<br />

dem Computer zu generieren. Dies ist etwa dann relevant, wenn E eine sehr große<br />

Menge ist und Summen vom Typ �<br />

x∈E<br />

f(x)π(x) numerisch approximiert werden<br />

sollen durch Schätzer n−1 �n i=1 f(Yi) (siehe Beispiel 5.21).<br />

Wir nehmen an, dass unser Computer in der Lage ist, Realisierungen von u.i.v. Zufallsvariablen<br />

U1,U2,... zu generieren, die uniform auf [0, 1] verteilt sind. Die Verteilung<br />

π soll jedoch nicht leicht direkt herstellbar sein.<br />

Metropolis-Algorithmus<br />

Wir haben schon gesehen, wie man Markovketten mit dem Computer simulieren<br />

kann (Beispiel 17.19). Die Idee ist nun, eine Markovkette X zu erzeugen, deren<br />

Verteilung gegen π konvergiert. Wenn wir X lange genug laufen lassen, so wird<br />

Xn ungefähr wie π verteilt sein. Gleichzeitig sollte die Kette so gestaltet sein, dass<br />

in jedem Schritt immer nur wenige Übergänge wirklich möglich sind, sodass das<br />

in Beispiel 17.19 beschriebene Verfahren auch effizient umsetzbar ist. (Natürlich<br />

wäre eine Kette mit Übergangsmatrix p(x, y) =π(y) gegen π konvergent, aber das<br />

Problem ließe sich hiermit nicht vereinfachen.) Die so beschriebene Methode des<br />

Ziehens von π-verteilten Stichproben wird Markovketten Monte Carlo Methode<br />

oder MCMC (für Markov chain Monte Carlo) genannt (siehe [18, 110, 115]).

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!