10.07.2015 Views

Information Theory, Inference, and Learning ... - Inference Group

Information Theory, Inference, and Learning ... - Inference Group

Information Theory, Inference, and Learning ... - Inference Group

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Copyright Cambridge University Press 2003. On-screen viewing permitted. Printing not permitted. http://www.cambridge.org/0521642981You can buy this book for 30 pounds or $50. See http://www.inference.phy.cam.ac.uk/mackay/itila/ for links.372 29 — Monte Carlo Methods29.6 Terminology for Markov chain Monte Carlo methodsWe now spend a few moments sketching the theory on which the Metropolismethod <strong>and</strong> Gibbs sampling are based. We denote by p (t) (x) the probabilitydistribution of the state of a Markov chain simulator. (To visualize thisdistribution, imagine running an infinite collection of identical simulators inparallel.) Our aim is to find a Markov chain such that as t → ∞, p (t) (x) tendsto the desired distribution P (x).A Markov chain can be specified by an initial probability distributionp (0) (x) <strong>and</strong> a transition probability T (x ′ ; x).The probability distribution of the state at the (t+1)th iteration of theMarkov chain, p (t+1) (x), is given by∫p (t+1) (x ′ ) = d N x T (x ′ ; x)p (t) (x). (29.39)Example 29.6. An example of a Markov chain is given by the Metropolisdemonstration of section 29.4 (figure 29.12), for which the transition probabilityisT =¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¡¢1/ 2 1/ 2 · · · · · · · · · · · · · · · · · · ·1/ 2 · 1/ 2 · · · · · · · · · · · · · · · · · ·· 1/ 2 · 1/ 2 · · · · · · · · · · · · · · · · ·· · 1/ 2 · 1/ 2 · · · · · · · · · · · · · · · ·· · · 1/ 2 · 1/ 2 · · · · · · · · · · · · · · ·· · · · 1/ 2 · 1/ 2 · · · · · · · · · · · · · ·· · · · · 1/ 2 · 1/ 2 · · · · · · · · · · · · ·· · · · · · 1/ 2 · 1/ 2 · · · · · · · · · · · ·· · · · · · · 1/ 2 · 1/ 2 · · · · · · · · · · ·· · · · · · · · 1/ 2 · 1/ 2 · · · · · · · · · ·· · · · · · · · · 1/ 2 · 1/ 2 · · · · · · · · ·· · · · · · · · · · 1/ 2 · 1/ 2 · · · · · · · ·· · · · · · · · · · · 1/ 2 · 1/ 2 · · · · · · ·· · · · · · · · · · · · 1/ 2 · 1/ 2 · · · · · ·· · · · · · · · · · · · · 1/ 2 · 1/ 2 · · · · ·· · · · · · · · · · · · · · 1/ 2 · 1/ 2 · · · ·· · · · · · · · · · · · · · · 1/ 2 · 1/ 2 · · ·· · · · · · · · · · · · · · · ·£¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤¤1/ 2 · 1/ 2 · ·· · · · · · · · · · · · · · · · · 1/ 2 · 1/ 2 ·· · · · · · · · · · · · · · · · · · 1/ 2 · 1/ 2· · · · · · · · · · · · · · · · ·¥· · 1/ 2 1/ 2<strong>and</strong> the initial distribution wasp (0) (x) = [ · · · · · · · · · · 1 · · · · · · · · · · ] . (29.40)The probability distribution p (t) (x) of the state at the tth iteration is shownfor t = 0, 1, 2, 3, 5, 10, 100, 200, 400 in figure 29.14; an equivalent sequence ofdistributions is shown in figure 29.15 for the chain that begins in initial statex 0 = 17. Both chains converge to the target density, the uniform density, ast → ∞.p (0) (x)p (1) (x)p (2) (x)p (3) (x)p (10) (x)p (100) (x)p (200) (x)p (400) (x)0 5 10 15 200 5 10 15 200 5 10 15 200 5 10 15 200 5 10 15 200 5 10 15 200 5 10 15 200 5 10 15 20Figure 29.14. The probabilitydistribution of the state of theMarkov chain of example 29.6.Required propertiesWhen designing a Markov chain Monte Carlo method, we construct a chainwith the following properties:1. The desired distribution P (x) is an invariant distribution of the chain.A distribution π(x) is an invariant distribution of the transition probabilityT (x ′ ; x) if∫π(x ′ ) = d N x T (x ′ ; x)π(x). (29.41)An invariant distribution is an eigenvector of the transition probabilitymatrix that has eigenvalue 1.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!