03.07.2015 Views

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

METHODES NUMERIQUES PAR CHAÎNES DE MARKOV

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

3.2. OPTIMISATION <strong>PAR</strong> RECUIT SIMULÉ 47<br />

En e¤et, P n k¼ n ¡ ¼ n+1 k = 2 P P<br />

x n j¼ n(x) ¡ ¼ n+1 (x)j + . Les x étant en nombre …ni, il su¢t<br />

de s’assurer de la convergence de chaque série numérique à x …xé: La condition de monotonie<br />

(3.7) assure bien cette convergence : en e¤et, pour n assez grand, j¼ n (x) ¡ ¼ n+1 (x)j + = ¼ n (x)¡<br />

¼ n+1 (x) si (¼ n (x)) est décroissante, = 0 sinon.<br />

(3) Trois conditions su¢santes assurant l’ergodicité faible (3.5) sont :<br />

(3.5-1) : 8m ¸ 0, Q n¸m c(P n) = 0<br />

(3.5-2) : 8n; c(P n ) > 0 et Q n¸0 c(P n) = 0<br />

(3.5-3) : 8n, 9k ¸ n tel que c(P k ) = 0.<br />

(4) Une technique classique pour contrôler c(P i P i+1 ¢¢¢P i+k ) est de décomposer l’intervalle<br />

[i; i + k + 1[ en l intervalles successifs et adjacents I s = [¿ s¡1 ;¿ s [, s = 1;l. Si on note P (s) =<br />

P ¿s¡1 P ¿s¡1 +1 ¢¢¢P ¿s¡1, on obtient :<br />

c(P i P i+1 ¢¢ ¢P i+k ) <br />

lY<br />

c(P (s) )<br />

Si de plus on a choisi ¿ s de telle sorte que P (s) > 0, on a c(P (s) ) (1 ¡ r"(P (s) )). Cette<br />

technique est facile à utiliser mais elle est loin d’être optimale.<br />

(5) La condition (3.5) : 8m ¸ 0, c(P m P m+1 ¢¢¢ P n ) ! 0; pour tous les m; est nécessaire (cf.<br />

exercice).<br />

Chaînes inhomogènes : loi des grands nombres et T.L.C.<br />

s=1<br />

Soit X = (X n ) une chaîne inhomogène, de transitions (P n ). Si la loi initiale est º; on notera<br />

P º la loi de la chaîne. Notons par ailleurs c n = sup 1in c(P i ). On a les deux résultats suivants :<br />

Proposition 3.10 Loi des Grands Nombres (Gantert [35]; [52])<br />

On suppose que la chaîne est fortement ergodique convergeant vers ¼ 1 . Soit f : E ! R.<br />

Alors, 1 P<br />

n i=1;n f(X i) ! ¼ 1 (f)<br />

(i) dans L 2 (P º ) si lim n n(1 ¡ c n ) = 1:<br />

(ii) P º -p:s: si P 1<br />

n¸1 2 n (1¡c 2<br />

< 1:<br />

n) 2<br />

Proposition 3.11 Théorème de la Limite Centrale (Dobrushin [26]).<br />

Soient f i : E ! R, et S n = P i=1;n f i(X i ). On suppose que :<br />

(i) Il existe un c > 0 tel que, pour tout i, Var(f i (X i )) ¸ c<br />

(ii) sup i kf i k 1<br />

< 1 et<br />

(iii) lim n n 1 3 (1 ¡ c n ) = +1. Alors :<br />

S n ¡ E(S n )<br />

à N(0;1)<br />

V ar(S n ) 1 2<br />

La constante 1 3<br />

de (iii) est optimale.<br />

Pour ces deux résultats, le cas di¢cile est celui où c n ! 1 ¡ . Supposons par exemple que<br />

c n = 1 ¡ an n , 0 < a n < n et a n ! 1. Pour la loi des grands nombres, la convergence a lieu dans<br />

L 2 (P º ) et P º -p:s: si P n a¡2 n < 1. Le TCL a lieu si a n n ¡2 3 ! +1.<br />

3.2 Optimisation par recuit simulé<br />

Soit U : E ! R une fonction à minimiser sur E …ni, U ¤ = minfU(x) : x 2 Eg et E ¤ = fx 2<br />

E : U(x) = U ¤ g. Soit ¯ = T ¡1 le paramètre inverse d’une température T > 0 (T ! 0 équivaut<br />

à ¯ ! 1), et ¼¯ la loi sur E associée à U et à ¯ :<br />

¼¯(x) = Z ¡1 (¯)exp¡¯U(x)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!