METHODES NUMERIQUES PAR CHAÃNES DE MARKOV
METHODES NUMERIQUES PAR CHAÃNES DE MARKOV
METHODES NUMERIQUES PAR CHAÃNES DE MARKOV
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
3.2. OPTIMISATION <strong>PAR</strong> RECUIT SIMULÉ 47<br />
En e¤et, P n k¼ n ¡ ¼ n+1 k = 2 P P<br />
x n j¼ n(x) ¡ ¼ n+1 (x)j + . Les x étant en nombre …ni, il su¢t<br />
de s’assurer de la convergence de chaque série numérique à x …xé: La condition de monotonie<br />
(3.7) assure bien cette convergence : en e¤et, pour n assez grand, j¼ n (x) ¡ ¼ n+1 (x)j + = ¼ n (x)¡<br />
¼ n+1 (x) si (¼ n (x)) est décroissante, = 0 sinon.<br />
(3) Trois conditions su¢santes assurant l’ergodicité faible (3.5) sont :<br />
(3.5-1) : 8m ¸ 0, Q n¸m c(P n) = 0<br />
(3.5-2) : 8n; c(P n ) > 0 et Q n¸0 c(P n) = 0<br />
(3.5-3) : 8n, 9k ¸ n tel que c(P k ) = 0.<br />
(4) Une technique classique pour contrôler c(P i P i+1 ¢¢¢P i+k ) est de décomposer l’intervalle<br />
[i; i + k + 1[ en l intervalles successifs et adjacents I s = [¿ s¡1 ;¿ s [, s = 1;l. Si on note P (s) =<br />
P ¿s¡1 P ¿s¡1 +1 ¢¢¢P ¿s¡1, on obtient :<br />
c(P i P i+1 ¢¢ ¢P i+k ) <br />
lY<br />
c(P (s) )<br />
Si de plus on a choisi ¿ s de telle sorte que P (s) > 0, on a c(P (s) ) (1 ¡ r"(P (s) )). Cette<br />
technique est facile à utiliser mais elle est loin d’être optimale.<br />
(5) La condition (3.5) : 8m ¸ 0, c(P m P m+1 ¢¢¢ P n ) ! 0; pour tous les m; est nécessaire (cf.<br />
exercice).<br />
Chaînes inhomogènes : loi des grands nombres et T.L.C.<br />
s=1<br />
Soit X = (X n ) une chaîne inhomogène, de transitions (P n ). Si la loi initiale est º; on notera<br />
P º la loi de la chaîne. Notons par ailleurs c n = sup 1in c(P i ). On a les deux résultats suivants :<br />
Proposition 3.10 Loi des Grands Nombres (Gantert [35]; [52])<br />
On suppose que la chaîne est fortement ergodique convergeant vers ¼ 1 . Soit f : E ! R.<br />
Alors, 1 P<br />
n i=1;n f(X i) ! ¼ 1 (f)<br />
(i) dans L 2 (P º ) si lim n n(1 ¡ c n ) = 1:<br />
(ii) P º -p:s: si P 1<br />
n¸1 2 n (1¡c 2<br />
< 1:<br />
n) 2<br />
Proposition 3.11 Théorème de la Limite Centrale (Dobrushin [26]).<br />
Soient f i : E ! R, et S n = P i=1;n f i(X i ). On suppose que :<br />
(i) Il existe un c > 0 tel que, pour tout i, Var(f i (X i )) ¸ c<br />
(ii) sup i kf i k 1<br />
< 1 et<br />
(iii) lim n n 1 3 (1 ¡ c n ) = +1. Alors :<br />
S n ¡ E(S n )<br />
à N(0;1)<br />
V ar(S n ) 1 2<br />
La constante 1 3<br />
de (iii) est optimale.<br />
Pour ces deux résultats, le cas di¢cile est celui où c n ! 1 ¡ . Supposons par exemple que<br />
c n = 1 ¡ an n , 0 < a n < n et a n ! 1. Pour la loi des grands nombres, la convergence a lieu dans<br />
L 2 (P º ) et P º -p:s: si P n a¡2 n < 1. Le TCL a lieu si a n n ¡2 3 ! +1.<br />
3.2 Optimisation par recuit simulé<br />
Soit U : E ! R une fonction à minimiser sur E …ni, U ¤ = minfU(x) : x 2 Eg et E ¤ = fx 2<br />
E : U(x) = U ¤ g. Soit ¯ = T ¡1 le paramètre inverse d’une température T > 0 (T ! 0 équivaut<br />
à ¯ ! 1), et ¼¯ la loi sur E associée à U et à ¯ :<br />
¼¯(x) = Z ¡1 (¯)exp¡¯U(x)