03.07.2015 Views

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

2.3. LA DYNAMIQUE <strong>DE</strong> METROPOLIS-HASTINGS 25<br />

loi conditionnelle est gaussienne, explicitable lorsque Q = § ¡1 l’est. La transition P(x;y) admet<br />

donc une densité, positive partout, tout comme la densité de X. L’échantillonneur de Gibbs<br />

fournit bien une simulation de ¼.<br />

Rappelons que la loi conditionnelle au site i est donnée en fonction des coe¢cients (q ij ) de<br />

Q par :<br />

Loi(X i j x i ) » N 1 (¡q ¡1<br />

ii<br />

X<br />

j:j6=i<br />

q ij x j ; q ¡1<br />

ii<br />

)<br />

Dans le cas d’un champ gaussien et markovien (cf. chapitre 4), Q = § ¡1 prend une forme<br />

simpli…ée, ¼ i (x i j x i ) dépendant de x i par l’intermédiaire de x @i , @i le voisinage de i pour le<br />

graphe markovien. En particulier, q ij 6= 0 , j 2 @i. Plaçons nous sur S = f1; 2; ¢¢¢ ;ng 2 et<br />

considérons la variable gaussienne X sur S de densité :<br />

¼(x) = Z ¡1 expU(x) où U(x) = ¡ 1t xQx, avec t xQx = a X x 2 i<br />

2<br />

+ b<br />

i2S<br />

Si ¯¯b<br />

¯<br />

a<br />

< 1 2<br />

, Q est dé…nie positive et<br />

Loi(X i j x i ) » N 1 (¡ b a<br />

X<br />

j:ki¡jk 1 =1<br />

x j ; 1 a ):<br />

X<br />

ki¡jk 1 =1<br />

Cette méthode de simulation peut être comparée à la méthode classique. Soit § = T t T une<br />

décomposition de Cholesky de §, " un échantillon gaussien réduit de taille N = n 2 : alors, X = T"<br />

est alors N N (0;§). Pour la décomposition de Cholesky et pour un champ sur f1;2;¢¢ ¢ ; 100g 2 ,<br />

§ est de dimension 10 4 £ 10 4 . Pour la simulation par l’échantillonneur de Gibbs, il faut réaliser<br />

100 balayages, soit 100£10 4 visites successives des sites, avec à chaque visite la simulation d’une<br />

gaussienne, mais sans recherche de la forme de Cholesky de §.<br />

Exemple 2.4 Espace d’état mixte E = (¤ £ R) n<br />

L’échantillonneur de Gibbs est aussi adapté à la simulation de modèle markovien à espace<br />

d’état E = (¤£R) n mixte : ¤ = f1;2;¢¢¢ ;rg est un espace qualitatif repérant le label ¸i du site<br />

i, alors que R repère le niveau de gris x i en ce même site i. Ces modèles, très utiles en analyse<br />

d’images ou en théorie du signal, seront précisés au chapitre 4.<br />

2.3 La dynamique de Metropolis-Hastings<br />

Proposée par Métropolis en 1953 ([74]), l’algorithme a pris sa forme générale avec Hastings<br />

en 1970 ([51]). A la di¤érence de l’échantillonneur de Gibbs, l’algorithme de Metropolis-Hastings<br />

(noté dorénavant M.H.) est utilisable sur un espace d’état E général (pour l’échantillonneur de<br />

Gibbs, E doit être un ensemble produit).<br />

2.3.1 Construction de la transition de M.H.<br />

Soit E = f1;2;¢¢ ¢ ; rg un espace d’état …ni, ¼ > 0 une loi sur E. Deux familles de lois sont<br />

à la base de l’algorithme,<br />

(i) Q une transition irréductible sur E, dite proposition de changement : Q(x;y) est la<br />

probabilité de proposer le changement x 7! y<br />

(ii) a : E £ E !]0;1] la fonction d’acceptation du changement : a(x;y) est la probabilité<br />

d’accepter le changement x 7! y. On supposera que pour tout x, a(x;x) = 1 : si on ne bouge<br />

pas, on l’accepte.<br />

x i x j

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!