03.07.2015 Views

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3.2. OPTIMISATION <strong>PAR</strong> RECUIT SIMULÉ 51<br />

Les deux résultats précédents de convergence du RS dans les deux contextes de la dynamique<br />

de Gibbs et de la dynamique de Metropolis donnent des conditions su¢santes non-optimales de<br />

convergence du recuit simulé. Obtenir une condition nécessaire et su¢sante d’ergodicité forte<br />

sur la suite (¯k) est beaucoup plus di¢cile.<br />

Décrivons une telle condition obtenue par Hajek [50] dans le contexte de le dynamique<br />

de Metropololis. Q est supposée symétrique dé…nissant la relation de Q-voisinage : x » y ,<br />

Q(x;y) > 0. L’ensemble E¤ loc des minimums locaux est l’ensemble des x t.q. U(x) U(y) si<br />

x » y. La profondeur d(x) d’un minimun local x 2 E¤ loc est<br />

d(x) = inffd > 0 : 9y t.q. U(y) < U(x) et 9 x à y de niveau U(x) + dg<br />

où x à y est un chemin qui va de x à y : pour sortir du puits local de U en x a…n d’aller vers y,<br />

plus bas que x (U(y) < U(x)), on peut trouver un chemin qui ne monte pas à plus que U(x)+d.<br />

On dé…nit alors la profondeur maximum du paysage de l’énergie U par :<br />

D = maxfd(x);x 2 E loc<br />

¤ nE ¤g<br />

La condition nécessaire et su¢sante de convergence du RS est :<br />

Proposition 3.14 Condition nécessaire et su¢sante de convergence du RS (Hajek, [50])<br />

lim P(X k 2 E ¤ j X 0 = x 0 ) = 1 () X exp¡fD¯kg = +1<br />

k!1<br />

k¸0<br />

On remarque que D M¢. Pour la suite ¯k = ° log k, le résultat de Hajek implique bien le<br />

résultat précédent puisque ° (M¢) ¡1 D ¡1 .<br />

Exemple 3.2 Lissage de courbe (suite)<br />

Reprenons l’exemple 3.1. Supposons que l’espace d’état F est l’intervalle [¡5;+5] discrétisé<br />

à pas 0:1 (F a 101 éléments): Soit " petit (" = 0:1). La proposition de changement x 7! z est la<br />

suivante :<br />

(i) on décide de ne rien changer avec la probabilités "<br />

(ii) on choisit au hasard i 2 S = f0;1;2;¢¢¢ ;ng et on change la valeur x i 7! z i en ce seul<br />

site i de §0:1 si x i =2 f¡5;+5g, ou z i 2 fx i ou x i § 0:1 si x i = ¨5g; cela avec la probabilité<br />

Q(x;z) = 1¡"<br />

2n ;<br />

(iii) Q(x;z) = 0 sinon.<br />

Q est symétrique, régulière, M 101 £ (n + 1). Un calcul direct de ¢U = U(z) ¡ U(x),<br />

conditionnel à y, donne :<br />

¢U = °(z i ¡ x i )[(z i + x i )(6 + ° ¡1 ) ¡ 2y i ¡ 8(x i¡1 + x i+1 ) + 2(x i¡2 + x i+2 )]<br />

On garde z i avec une probabilité 1 si ¢U 0, et sinon avec la probabilité e ¡¯k¢U .<br />

Exemple 3.3 Un problème de recouvrement<br />

On dispose de N segments de longueurs l i > 0;i = 1;N avec lesquels on veut recouvrir<br />

sans chevauchement ni dépassement un intervalle de longueur L < l 1 + l 2 + ¢¢¢ + l N . Notons<br />

S = f1;2;¢¢ ¢ ; Ng, E = fA ½ S : A 6= ; et P i2A l i Lg et U(A) = P i2A l i. Recouvrir au<br />

mieux l’intervalle [0;L] revient à optimiser U sur E. On va décrire l’algorithme de Metropolis<br />

pour la transition de proposition Q(A;B) suivante :<br />

(i) Choisir un s uniformément dans S:<br />

½ Si s 2 A; passer à B = Anfsg<br />

(ii) Les seuls changements A 7! B sont :<br />

Si s =2 A, passer à B = A [ fsg

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!