03.07.2015 Views

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

TABLE <strong>DE</strong>S MATIÈRES 5<br />

Introduction<br />

Les méthodes de Monte Carlo utilisent la simulation de variables aléatoires dans le but<br />

de résoudre un problème numérique. Leur développement tient à la fois aux capacités croissantes<br />

de calcul informatique et à leur facilité d’adaptation à de très nombreux contextes. Le champ<br />

des applications est vaste : statistique, analyse numérique, optimisation, résolution de problèmes<br />

inverses, d’équations di¤érentielles, etc......<br />

L’opération de base est la simulation d’une loi ¼ dé…nie sur un espace d’état E. Si<br />

l’espace E est complexe, par exemple …ni mais de grand cardinal, les méthodes de simulation<br />

classiques ne fonctionnent pas. Une alternative est de construire une chaîne de Markov ergodique<br />

de transition P et de loi invariante ¼. Alors, pour n grand et º une loi initiale, on retiendra ºP n<br />

comme réalisation approximative de ¼. L’étude de ces méthodes, de leurs variantes et de leurs<br />

applications est l’objet de ce cours. L’article des frères Geman (IEEE-PAMI, 1984) a initié les<br />

développements théoriques autant qu’appliqués sur le sujet.<br />

Le chapitre 1 résume les résultats de base sur les chaînes de Markov à nombre …ni<br />

d’états. Les deux principales méthodes de simulations sont ensuite présentées au chapitre 2 : (i)<br />

l’échantillonneur de Gibbs, applicable si l’espace d’état a une structure exponentielle (E = F S );<br />

(ii) la simulation par dynamique de Metropolis. Dans ces deux cas, les chaînes considérées sont<br />

homogènes, c’est-à-dire à transition constante dans le temps.<br />

Un problème d’optimisation, “minimiser la fonction U : E ! R + ”, peut être interprété<br />

comme le problème de simulation suivant : “simuler ¼ 1 ; la loi uniforme sur l’ensemble E 0 où<br />

U atteint son minimum”. Pour ce faire, on peut construire une suite de transitions (P T(n) ) n¸0 ,<br />

dépendant d’un paramètre T(n); dit de température, telle que la chaîne de Markov inhomogène<br />

converge vers ¼ 1 . C’est l’algorithme de Recuit Simulé que nous présenterons au chapitre 3. Au<br />

préalable, on établira di¤érents résultats d’ergodicité d’une chaîne inhomogène.<br />

Le chapitre 4 présente des applications à la résolution de problèmes inverses : on veut<br />

reconstruire (…ltrer) un objet x 2 E au vu d’une observation y = ©(x;M). M est un modèle<br />

de bruitage et © traduit le processus de formation de l’observation y. Pour cela, on va munir<br />

E d’une structure de champ de Markov a…n de traduire les informations a priori que l’expert<br />

a sur l’objet x. Couplée avec la simulation et/ou l’optimisation, cette information permet une<br />

reconstruction algorithmique e¢cace de x.<br />

La question centrale dans la simulation par chaîne de Markov est la suivante : “quand<br />

faut-il arrêter la chaîne pour être assré que ºP n est proche de ¼ ?”. Nous présentons au chapitre<br />

5 deux approches permettant de répondre à cette question. L’une, liée à l’étude du phénomène<br />

de convergence abrupte (cuto¤) d’une chaîne de Markov, permet de proposer une règle d’arrêt<br />

assurant que la chaîne est bien entrée dans son régime stationnaire (B. Ycart). L’autre est la<br />

simulation exacte par couplage depuis le passé (Coupling From The Past, CFTP). L’idée, simple<br />

et très novatrice, revient à Propp et Wilson (1996) : l’algorithme test automatiquement quand il<br />

doit s’arrêter, produisant un échantillon sans biais de ¼. Cette approche a fortement redynamisé<br />

les recherches sur la simulation.<br />

Les livres de références sur ces sujets sont nombreux : sur les aspects théoriques, on peut<br />

citer M. Du‡o (1997), S. Geman (St. Flour, 1990), X. Guyon (1995), G. Winkler (1995); et sur<br />

les applications, Aarts et Korst (1989), S. Li (1995), B.Chalmond (2000) et B.Ycart (1997).

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!