Percolation de premier passage et Coloriages ... - Normalesup.org
Percolation de premier passage et Coloriages ... - Normalesup.org
Percolation de premier passage et Coloriages ... - Normalesup.org
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong><br />
<strong>et</strong><br />
<strong>Coloriages</strong> aléatoires <strong>de</strong> Z d<br />
Jérémie B<strong>et</strong>tinelli<br />
Avril 2008<br />
Mémoire réalisé sous la direction d'Olivier Gar<strong>et</strong>
Table <strong>de</strong>s matières<br />
Introduction 1<br />
1 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> 2<br />
1.1 Modèle général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />
1.2 <strong>Coloriages</strong> aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />
1.2.1 Dénitions <strong>et</strong> notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />
1.2.2 Lien avec le modèle général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.3 Constantes <strong>de</strong> temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.3.1 Théorème sous-additif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.3.2 Cadre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.3.3 Constantes <strong>de</strong> temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1.4 Forme asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
1.4.1 Preuve du théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
1.4.2 Encadrement <strong>de</strong> B 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
1.5 Continuité <strong>de</strong> la constante <strong>de</strong> temps <strong>et</strong> critère <strong>de</strong> distinction dans le cas standard . . 16<br />
1.5.1 <strong>Percolation</strong> classique sur Z d . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />
1.5.2 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par arêtes . . . . . . . . . . . . . . . . . . . . 17<br />
1.5.3 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par sites . . . . . . . . . . . . . . . . . . . . . 18<br />
2 Application aux coloriages aléatoires 19<br />
2.1 Rappel <strong>de</strong>s principaux résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
2.2 Continuité <strong>de</strong> µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
2.2.1 Restriction aux chemins courts . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
2.2.2 Continuité <strong>de</strong>s µ n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
2.2.3 Continuité <strong>de</strong> µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />
2.3 Critère <strong>de</strong> distinction entre les cas µ = 0 <strong>et</strong> µ > 0 . . . . . . . . . . . . . . . . . . . . 26<br />
2.3.1 Résultats préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />
2.3.2 Théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />
2.4 <strong>Coloriages</strong> dépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />
2.5 Quelques simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />
Références 38
Introduction<br />
Au cours <strong>de</strong> ce mémoire, nous présentons le modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> sur Z d ,<br />
d ≥ 2. Nous supposons que la famille <strong>de</strong>s temps d'arête a une loi invariante par translation <strong>et</strong> est<br />
ergodique (pour les translations). Nous établissons, dans le cas où les temps T (0, u), u ∈ Z d , sont L 1 ,<br />
l'existence <strong>de</strong>s constantes <strong>de</strong> temps, <strong>et</strong> démontrons une version du théorème <strong>de</strong> forme asymptotique<br />
(théorème 1.4.1) en supposant <strong>de</strong> plus que les temps d'arête sont bornés.<br />
Dans un second temps, nous nous intéressons plus particulièrement aux coloriages aléatoires<br />
(indépendants) <strong>de</strong> Z d , d ≥ 2. Nous montrons tout d'abord la continuité <strong>de</strong> la constante <strong>de</strong> temps<br />
en fonction <strong>de</strong> la loi <strong>de</strong>s couleurs quand chaque couleur apparaît avec une probabilité strictement<br />
inférieure à l'inverse <strong>de</strong> la constante <strong>de</strong> connectivité du réseau (théorème 2.2.3).<br />
Ensuite, nous regardons un critère <strong>de</strong> distinction entre les <strong>de</strong>ux cas du théorème <strong>de</strong> forme<br />
asymptotique, à savoir qu'on a une vraie forme asymptotique (i.e. diérente <strong>de</strong> R d tout entier) si<br />
<strong>et</strong> seulement si chaque couleur apparaît avec une probabilité strictement inférieure à p c (Z d , site)<br />
(théorème 2.3.6).<br />
Enn, nous étendons la susance <strong>de</strong> ce critère au cas <strong>de</strong>s coloriages aléatoires dépendants,<br />
lorsque la famille <strong>de</strong> couleur a une loi invariante par translation <strong>et</strong> est ergodique (théorème 2.4.1).<br />
Nous nissons par quelques illustrations <strong>de</strong> simulations informatiques <strong>de</strong> coloriages aléatoires<br />
<strong>de</strong> Z 2 .<br />
1
Chapitre 1<br />
<strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong><br />
Nous dénissons au cours <strong>de</strong> ce chapitre le modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> sur Z d ,<br />
d ≥ 2, faisons le lien avec celui <strong>de</strong>s coloriages aléatoires, <strong>et</strong> démontrons les théorèmes généraux<br />
d'existence <strong>de</strong>s constantes <strong>de</strong> temps <strong>et</strong> <strong>de</strong> forme asymptotique.<br />
Nous nissons ce chapitre en donnant (sans démonstration) le théorème <strong>de</strong> continuité <strong>de</strong> la<br />
constante <strong>de</strong> temps dans le cas standard.<br />
1.1 Modèle général<br />
La percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> a été introduite en 1965 par J. M. Hammersley <strong>et</strong> D. J. A.<br />
Welsh pour modéliser la propagation d'un ui<strong>de</strong> à travers un matériau poreux. Le matériau est<br />
modélisé par un graphe dont les arêtes nécessitent plus ou moins <strong>de</strong> temps pour être traversées par<br />
le ui<strong>de</strong>. Deux questions se posent alors : Quand un somm<strong>et</strong> donné sera-t-il atteint? <strong>et</strong> Comment<br />
évolue la zone imprégnée?.<br />
Ici, on considère le graphe (Z d , E d ) dont les somm<strong>et</strong>s sont les points <strong>de</strong> Z d <strong>et</strong> dont l'ensemble<br />
d'arêtes est<br />
E d := { (u, v) ∈ Z d × Z d ; |u − v| = 1 } ,<br />
où | · | est la norme 1 <strong>de</strong> R d (pour x = (x 1 , x 2 , . . . , x d ) ∈ R d , |x| := ∑ d<br />
i=1 |x i|).<br />
Le cas d = 1 ne présentant pas beaucoup d'intérêt, on ne considérera dans ce rapport que le cas<br />
d ≥ 2.<br />
À chaque arête e ∈ E d , on associe un temps aléatoire positif t(e), appelé temps d'arête, qui<br />
représente le temps mis par le ui<strong>de</strong> pour la traverser.<br />
Dénition 1.1.1 Soient u <strong>et</strong> v <strong>de</strong>ux points <strong>de</strong> Z d . Un chemin <strong>de</strong> u à v est une suite (e 1 , e 2 , . . . , e n )<br />
d'arêtes telle que u ∈ e 1 , v ∈ e n , <strong>et</strong> pour tout i ∈ 1, n − 1, e i <strong>et</strong> e i+1 ont (au moins) un somm<strong>et</strong><br />
en commun. Si Γ est un chemin <strong>de</strong> u à v, on note u Γ v.<br />
v<br />
u<br />
v<br />
u<br />
Figure 1.1 Représentation <strong>de</strong> u Γ v <strong>et</strong> exemple <strong>de</strong> chemin non auto-évitant<br />
2
Dénition 1.1.2 Un chemin (e 1 , e 2 , . . . , e n ) est dit auto-évitant si :<br />
pour tout 1 ≤ i ≤ n − 1, e i <strong>et</strong> e i+1 n'ont qu'un somm<strong>et</strong> en commun,<br />
pour 1 ≤ i ≤ n − 2 <strong>et</strong> 3 ≤ j ≤ n tels que |j − i| > 1, e i <strong>et</strong> e j n'ont aucun somm<strong>et</strong> en commun.<br />
Si Γ est un chemin auto-évitant <strong>de</strong> u à v, on notera u v.<br />
Soit Γ = (e 1 , e 2 , . . . , e n ) un chemin, on lui associe le temps <strong>de</strong> <strong>passage</strong><br />
T (Γ) :=<br />
Γ<br />
⌢<br />
n∑<br />
t(e i ),<br />
qui représente le temps mis par le ui<strong>de</strong> pour parcourir ce chemin.<br />
Enn, pour u <strong>et</strong> v <strong>de</strong>s points <strong>de</strong> Z d , on dénit le temps <strong>de</strong> voyage <strong>de</strong> u à v par<br />
i=1<br />
T (u, v) := inf T (Γ) = inf<br />
uv<br />
Γ Γ<br />
⌢<br />
uv<br />
T (Γ).<br />
C'est le temps nécessaire au ui<strong>de</strong> pour se propager <strong>de</strong> u à v.<br />
Dénition 1.1.3 Si un chemin u Γ v vérie<br />
on dit que c'est une route <strong>de</strong> u à v.<br />
T (Γ) = T (u, v),<br />
Pour simplier certains résultats, on étend la notion <strong>de</strong> temps <strong>de</strong> voyage à R d tout entier. Pour<br />
cela, on associe <strong>de</strong> façon déterministe à tout point x ∈ R d un point x ∗ ∈ Z d qui minimise la<br />
distance |x − x ∗ |. En d'autres termes, on associe à x le point <strong>de</strong> Z d le plus proche, avec <strong>de</strong>s règles<br />
déterministes pour départager en cas d'égalité. Ensuite, on dénit naturellement, pour x, y ∈ R d ,<br />
T (x, y) := T (x ∗ , y ∗ ).<br />
On a alors la proposition suivante, simple mais très utile.<br />
Proposition 1.1.4 (Inégalité triangulaire) Quels que soient x, y, z dans R d , on a l'inégalité :<br />
Preuve. On a<br />
T (x, z) ≤ T (x, y) + T (y, z).<br />
T (x, z) = T (x ∗ , z ∗ )<br />
= inf<br />
{T }<br />
(Γ) | x ∗ Γ z<br />
∗<br />
{<br />
≤ inf T (Γ) | x ∗<br />
= inf<br />
}<br />
Γ z ∗ , y ∗ ∈ Γ<br />
{<br />
}<br />
T (Γ 1 · Γ 2 ) | x ∗ Γ 1<br />
y ∗ , y ∗ Γ 2<br />
z ∗<br />
{<br />
}<br />
= inf T (Γ 1 ) + T (Γ 2 ) | x ∗ Γ 1<br />
y ∗ , y ∗ Γ 2<br />
z ∗<br />
{<br />
} {<br />
}<br />
= inf T (Γ 1 ) | x ∗ Γ 1<br />
y ∗ + inf T (Γ 2 ) | y ∗ Γ 2<br />
z ∗<br />
= T (x ∗ , y ∗ ) + T (y ∗ , z ∗ )<br />
= T (x, y) + T (y, z),<br />
où on a noté Γ 1 · Γ 2 la concaténation <strong>de</strong>s chemins Γ 1 <strong>et</strong> Γ 2 , c'est-à-dire que si Γ 1 = (e 1 , . . . , e k ), Γ 2 = (f 1 , . . . , f l ),<br />
alors Γ 1 · Γ 2 := (e 1 , . . . , e k , f 1 , . . . , f l ). Bien sûr, Γ 1 · Γ 2 ne peut exister que s'il existe u, v, w ∈ Z d tels que u Γ 1<br />
v <strong>et</strong><br />
v Γ 2<br />
w comme c'est le cas ici.<br />
□<br />
3
Le <strong>premier</strong> point <strong>de</strong> vue consiste donc à regar<strong>de</strong>r les quantités T (0, u) pour un u ∈ Z d donné (le<br />
point 0 étant l'origine <strong>de</strong> Z d , i.e. (0, 0, . . . , 0)).<br />
Le second consiste à s'intéresser à la zone imprégnée au temps t ∈ R + si le ui<strong>de</strong> part <strong>de</strong> l'origine,<br />
c'est-à-dire à<br />
˜B(t) := { u ∈ Z d | T (0, u) ≤ t } .<br />
Pour simplier les résultats concernant le comportement asymptotique <strong>de</strong> ˜B(t), on introduit<br />
l'ensemble<br />
[<br />
B(t) := ˜B(t) + − 1 2 , 1 d {<br />
= u + (x 1 , x 2 , . . . , x d ) | u ∈<br />
2] ˜B(t) ; ∀i ∈ 1, d, − 1 2 ≤ x i ≤ 1 }<br />
. (1.1)<br />
2<br />
~<br />
B(t)<br />
B(t)<br />
0<br />
On a alors clairement<br />
˜B(t) +<br />
Figure 1.2 Représentation <strong>de</strong>s ensembles ˜B(t) <strong>et</strong> B(t)<br />
(<br />
− 1 2 , 1 2) d<br />
⊆ { x ∈ R d | T (0, x) ≤ t } ⊆ ˜B(t) +<br />
[<br />
− 1 2 , 1 2] d<br />
,<br />
<strong>et</strong> donc<br />
B(t) = {x ∈ R d | T (0, x) ≤ t}. (1.2)<br />
Et enn, pour i ∈ 1, d, on notera ε i l'arête (0, 0, . . . , 1, 0, . . . , 0) où le 1 est en i-ème position.<br />
1.2 <strong>Coloriages</strong> aléatoires<br />
1.2.1 Dénitions <strong>et</strong> notations<br />
Les modèles les plus standards consistent à prendre les t(e) i.i.d., ou éventuellement indépendants<br />
dont la loi ne dépend que <strong>de</strong> la direction <strong>de</strong> l'arête 1 . Au cours <strong>de</strong> ce mémoire, on s'intéressera plus<br />
particulièrement au modèle <strong>de</strong> coloriage aléatoire, déni comme suit.<br />
On se donne un ensemble S ni ou dénombrable <strong>et</strong> une famille (X u ) u∈Z d <strong>de</strong> variables aléatoires<br />
i.i.d. à valeurs dans S . Il faut imaginer les éléments <strong>de</strong> S comme <strong>de</strong>s couleurs, on colorie donc<br />
aléatoirement les somm<strong>et</strong>s du graphe Z d .<br />
Pour les représentations, on coloriera souvent tout l'ensemble u + ( − 1 2 , 1 2) d<br />
<strong>de</strong> la couleur du<br />
point u pour plus <strong>de</strong> clarté.<br />
1. c'est-à-dire qu'il existe un probabilité µ (resp. d probabilités µ 1 , µ 2 , ..., µ d ) telle que la famille ( t(e) ) soit<br />
e∈E<br />
distribuée selon d µ ⊗Ed (resp. µ ⊗E<br />
1 ⊗ µ ⊗E<br />
2 ⊗ . . . ⊗ µ ⊗E<br />
d ). 4
Figure 1.3 Réalisation d'un coloriage aléatoire <strong>de</strong> Z 2 , S contient 4 éléments, <strong>et</strong> les (X u ) u∈Z 2 sont<br />
uniformes<br />
Dénition 1.2.1 On appelle cluster <strong>de</strong> ce coloriage toute composante connexe du graphe aléatoire<br />
(<br />
Z d , { {u, v} ∈ E d | X u = X v<br />
})<br />
.<br />
Figure 1.4 Exemple <strong>de</strong> cluster <strong>de</strong> la réalisation précé<strong>de</strong>nte (gure 1.3) situé dans le quart supérieur<br />
droit<br />
Une façon <strong>de</strong> voir les choses consiste à imaginer le coloriage aléatoire comme une carte géographique<br />
<strong>et</strong> les clusters comme les pays <strong>de</strong> c<strong>et</strong>te carte.<br />
Pour n ∈ N, on considère l'ensemble ˜B(n) <strong>de</strong>s points que l'on peut atteindre en partant <strong>de</strong><br />
l'origine en traversant au plus n frontières, c'est-à-dire l'ensemble <strong>de</strong>s points <strong>de</strong> Z d tels qu'il existe<br />
un chemin les reliant à l'origine <strong>et</strong> qui contient moins <strong>de</strong> n arêtes dont les extrémités appartiennent<br />
à <strong>de</strong>s clusters diérents.<br />
Figure 1.5 Représentation <strong>de</strong> ˜B(2) <strong>et</strong> ˜B(4) pour la réalisation <strong>de</strong> la gure 1.3<br />
Ainsi, en notant, pour u ∈ Z d , C (u) le cluster (aléatoire) contenant le point u, <strong>et</strong> pour A ⊆ Z d ,<br />
∂A sa frontière (extérieure), c'est-à-dire<br />
∂A := { u ∈ Z d \A | ∃v ∈ A, {u, v} ∈ E d} ,<br />
(voir gure 1.6) on obtient immédiatement la proposition suivante.<br />
Proposition 1.2.2 On a :<br />
˜B(0) = C (0)<br />
<strong>et</strong>, pour tout n ∈ N,<br />
˜B(n + 1) = ˜B(n) ∪<br />
⋃<br />
u∈∂ ˜B(n)<br />
C (u).<br />
Remarque. C<strong>et</strong>te proposition très simple est très utile pour programmer <strong>de</strong>s simulations. On<br />
s'en servira au cours <strong>de</strong> la section 2.5.<br />
5
Figure 1.6 Représentation <strong>de</strong> ∂A<br />
1.2.2 Lien avec le modèle général<br />
Il s'agit bien d'un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong>. Les temps d'arête sont dénis,<br />
pour {u, v} ∈ E d , par<br />
t ({u, v}) = 1 {Xu ≠X v }.<br />
Ainsi, si on étend naturellement la dénition donnée au cours <strong>de</strong> c<strong>et</strong>te section <strong>de</strong> ˜B(n) en posant,<br />
pour t ∈ R + ,<br />
˜B(t) := ˜B (⌊t⌋) ,<br />
on voit aisément que c<strong>et</strong>te dénition coïnci<strong>de</strong> avec celle donnée lors <strong>de</strong> la section 1.1.<br />
Remarques.<br />
i. Bien que la famille <strong>de</strong> variables aléatoires réelles (X u ) u∈Z d soit i.i.d., les temps d'arête ne le<br />
sont pas. Ils ont même loi mais ne sont pas indépendants comme on peut le voir par exemple<br />
en prenant un carré unitaire (gure 1.7). Si trois <strong>de</strong>s arêtes ont un temps nul, alors les quatre<br />
somm<strong>et</strong>s du carré sont <strong>de</strong> la même couleur <strong>et</strong> le quatrième temps est nécessairement nul.<br />
ii. Néanmoins, <strong>de</strong>ux arêtes qui n'ont aucun somm<strong>et</strong> en commun ont <strong>de</strong>s temps indépendants. C<strong>et</strong>te<br />
remarque sera utilisée plus tard.<br />
0<br />
0<br />
0<br />
?<br />
Figure 1.7 Les temps d'arête ne sont pas indépendants<br />
1.3 Constantes <strong>de</strong> temps<br />
1.3.1 Théorème sous-additif<br />
On aura besoin par la suite d'un résultat général, le théorème sous-additif ergodique. On en<br />
donne sans démonstration une version due à Thomas M. Ligg<strong>et</strong>t [13]. La version originale <strong>de</strong> ce<br />
théorème, due à John Kingman [12], aurait été susante pour son application à la percolation <strong>de</strong><br />
<strong>premier</strong> <strong>passage</strong>, mais la version <strong>de</strong> Ligg<strong>et</strong>t est un peu plus précise.<br />
Théorème 1.3.1 (sous-additif ergodique) Soit (X m,n ) 0≤m
Alors<br />
E [ X + 0,1]<br />
< ∞ <strong>et</strong> ∃ c ∈ R | ∀n ≥ 1, E [X 0,n ] ≥ −cn (1.6)<br />
E [X 0,n ]<br />
lim<br />
n→∞ n<br />
existe <strong>et</strong> vaut γ := inf<br />
n∈N ∗ E [X 0,n ]<br />
n<br />
X 0,n<br />
X := lim existe p.s. <strong>et</strong> dans <strong>et</strong><br />
n→∞ n L1 E [X] = γ (1.8)<br />
De plus, si les processus dénis en (1.5) sont ergodiques 3 , alors X = γ p.s.<br />
Remarque. Dans la version <strong>de</strong> Kingman, les hypothèses (1.3), (1.4) <strong>et</strong> (1.5) sont remplacées<br />
par : quel que soit 0 ≤ l < m < n, X l,n ≤ X l,m + X m,n <strong>et</strong> la loi jointe <strong>de</strong> (X m+k,n+k ) 0≤m
Dénition 1.3.2 Un événement A ∈ F est dit invariant par translation <strong>de</strong> vecteur u ∈ Z d si<br />
A +u = A.<br />
Dénition 1.3.3 On dit que la famille <strong>de</strong> temps d'arête (t(e)) e∈E d est ergodique si tout événement<br />
mesurable par rapport à F <strong>et</strong> invariant par translation est <strong>de</strong> probabilité 0 ou 1.<br />
On peut maintenant expliciter le cadre dans lequel on se place. On suppose simplement que la<br />
famille ( t(e) ) e∈E d a une loi invariante par translation (c'est-à-dire que la loi <strong>de</strong> ( t(u + e) ) e∈E d ne<br />
dépend pas <strong>de</strong> u ∈ Z d ), est ergodique, <strong>et</strong> que E [T (0, ε 1 )] < ∞.<br />
Il est clair que les modèles que l'on considère vérient la première hypothèse 4 . La secon<strong>de</strong> est<br />
un peu plus délicate à montrer, elle fait l'obj<strong>et</strong> <strong>de</strong> la proposition suivante.<br />
Proposition 1.3.4 Dans le cas d'un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard 5 ou d'un<br />
coloriage aléatoire, la famille <strong>de</strong> temps d'arête ( t(e) ) est ergodique.<br />
e∈E d<br />
Preuve. Soit A ∈ F <strong>et</strong> u ∈ Z d tels que A +u = A. Nous procédons en <strong>de</strong>ux étapes.<br />
1) La première consiste à approcher A par une suite d'événements (A n ) n≥1 mesurables par rapport à un nombre<br />
ni d'arêtes (c'est-à-dire appartenant à A ). Pour cela, utilisons la martingale fermée E [1 A | F n ] qui converge p.s.<br />
<strong>et</strong> dans L 1 vers 1 A pour dénir<br />
{<br />
A n := E [1 A | F n] > 1 }<br />
.<br />
2<br />
La variable aléatoire E [1 A | F n ] étant mesurable par rapport à F n , A n ∈ F n . De plus, en notant ∆ la diérence<br />
symétrique entre <strong>de</strong>ux ensembles 6 , on a que<br />
car sur l'ensemble A\A n ,<br />
1 A∆An ≤ 2. |1 A − E [1 A | F n ]| ,<br />
donc<br />
<strong>et</strong> sur A n\A,<br />
donc<br />
Ainsi,<br />
E [1 A | F n ] ≤ 1 2<br />
2. |1 A − E [1 A | F n]| = 2(1 − E [1 A | F n]) ≥ 1,<br />
E [1 A | F n] ≥ 1 2<br />
2. |1 A − E [1 A | F n ]| = 2 E [1 A | F n ] ≥ 1.<br />
P(A∆A n ) ≤ 2 E [|1 A − E [1 A | F n ]|] GGGGGGGA 0. (1.9)<br />
n → ∞<br />
alors<br />
2) Maintenant, remarquons que si une suite (B n) n≥1 vérie<br />
En e<strong>et</strong><br />
P(A∆B n ) GGGGGGGA<br />
n → ∞ 0,<br />
P(B n ) GGGGGGGA P(A). (1.10)<br />
n → ∞<br />
P(B n) = P(B n\A) + P(A) − P(A\B n),<br />
<strong>et</strong> comme<br />
P(A∆B n) = P(B n\A) + P(A\B n) GGGGGGGA<br />
n → ∞ 0,<br />
chacun <strong>de</strong>s <strong>de</strong>ux termes P(B n\A) <strong>et</strong> P(A\B n) tend vers 0.<br />
En utilisant le fait que pour X, Y , Z quelconques, on a P(X∆(Y ∩ Z)) = P(X ∪ Y c ∪ Z c ) + P((Y ∩ Z)\X) ≤<br />
P(X ∪ Y c ) + P(X ∪ Z c ) + P(Y \X) ≤ P(X∆Y ) + P(X∆Z), on trouve que<br />
4. Rappelons que l'on a déni au début <strong>de</strong> la section 1.2.1 un coloriage aléatoire en prenant <strong>de</strong>s variables aléatoires<br />
i.i.d.<br />
5. déni au début <strong>de</strong> la section 1.2.1<br />
6. Par dénition, A∆B := A\B ∪ B\A.<br />
8
P ( A∆(A n ∩ A +3nu<br />
n ) ) ≤ P ( ) ( )<br />
A∆A n + P A∆A<br />
+3nu<br />
n<br />
= P ( ) (<br />
A∆A n + P A +3nu ∆A +3nu )<br />
n<br />
= P ( ) (<br />
A∆A n + P (A∆An ) +3nu)<br />
= 2P ( A∆A n<br />
)<br />
GGGGGGGA<br />
n → ∞ 0.<br />
On a utilisé dans la <strong>de</strong>uxième ligne que A +3nu = A, <strong>et</strong> dans la quatrième que la loi <strong>de</strong>s ( t(e) ) e∈E d est invariante<br />
par translation.<br />
Ainsi, d'après (1.10),<br />
P(A n ∩ A +3nu<br />
n ) GGGGGGGA<br />
n → ∞ P(A).<br />
Or, A n étant dans F n, A n <strong>et</strong> A +3nu<br />
n sont indépendants car [−n, n] d <strong>et</strong> 3nu+[−n, n] d n'ont aucun point commun.<br />
Cela est immédiat dans un cas <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard car les t(e), e ∈ E d , sont indépendants.<br />
Dans le cas d'un coloriage aléatoire, les (X u ) u∈Z d étant indépendantes, les arêtes qui ne se touchent pas ont aussi<br />
<strong>de</strong>s temps indépendants, donc les arêtes <strong>de</strong> Λ n <strong>et</strong> celles <strong>de</strong> 3nu + Λ n ont <strong>de</strong>s temps indépendants.<br />
En combinant (1.9) <strong>et</strong> (1.10), il vient,<br />
<strong>et</strong> enn<br />
ce qui perm<strong>et</strong> <strong>de</strong> conclure.<br />
P(A n ∩ A +3nu<br />
n ) = P(A n ) 2 GGGGGGGA<br />
n → ∞ P(A)2 ,<br />
P(A) 2 = P(A),<br />
Enn, dans le cas <strong>de</strong> coloriage aléatoire, la troisième hypothèse est clairement vériée car<br />
T (0, ε 1 ) ≤ t({0, ε 1 }) ≤ 1. Dans les cas standards, il faut rajouter une hypothèse, comme par<br />
exemple, E [t({0, ε 1 })] < ∞. Il existe <strong>de</strong>s hypothèses plus faibles (voir Howard [9] ou Kesten [11])<br />
mais nous n'entrerons pas dans les détails ici.<br />
1.3.3 Constantes <strong>de</strong> temps<br />
Avant <strong>de</strong> s'intéresser au comportement <strong>de</strong> B(t), on commence par regar<strong>de</strong>r ce qu'il se passe dans<br />
une direction xée. En l'occurrence, on privilégie la direction <strong>de</strong> ε 1 .<br />
Pour 0 ≤ m < n, on dénit les variables aléatoires<br />
T (m, n) := T (mε 1 , nε 1 )<br />
auxquelles on va appliquer le théorème sous-additif ergodique (théorème 1.3.1).<br />
L'inégalité triangulaire (proposition 1.1.4) appliquée aux points 0, mε 1 <strong>et</strong> nε 1 nous donne l'hypothèse<br />
(1.3). Les conditions (1.4) <strong>et</strong> (1.5) sont vériées car la loi <strong>de</strong> (t(e)) e∈E d est invariante par<br />
translation, donc aussi celle <strong>de</strong> (T (u, v)) u,v∈Z d.<br />
La condition (1.6) est vériée en prenant c = 0 car T (0, 1) ≥ 0 <strong>et</strong> on a supposé E [T (0, 1)] < ∞.<br />
Enn, pour k ≥ 1, le processus T (kn, k(n + 1)) n≥0 est ergodique car les ensembles invariants <strong>de</strong><br />
σ ( T (kn, k(n + 1)), n ≥ 0 ) sont <strong>de</strong>s ensembles <strong>de</strong> σ(t(e), e ∈ E d ) qui sont invariants par translation<br />
<strong>de</strong> vecteur kε 1 , <strong>et</strong> donc <strong>de</strong> probabilité 0 ou 1 car on a choisi la famille (t(e)) e∈E d ergodique.<br />
On peut donc appliquer le théorème 1.3.1. Bien sûr, il est possible <strong>de</strong> mener le même raisonnement<br />
dans n'importe quelle direction ε i , on obtient ainsi la proposition suivante :<br />
Proposition 1.3.5 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> tel que la famille <strong>de</strong> temps<br />
d'arête (t(e)) e∈E d ait une loi invariante par translation <strong>et</strong> soit ergodique. Si E [T (0, ε i )] < ∞, alors<br />
il existe un constante µ i ∈ R + telle que<br />
T (0, nε i )<br />
n<br />
p.s., L 1<br />
GGGGGGGGGGGGA<br />
n → ∞ µ i.<br />
□<br />
Dénition 1.3.6 Les constantes µ i introduites dans la proposition précé<strong>de</strong>nte sont appelées les<br />
constantes <strong>de</strong> temps. Lorsqu'elles sont toutes égales, on note µ la valeur commune <strong>et</strong> on la<br />
nomme constante <strong>de</strong> temps.<br />
9
Remarque. Dans le cas i.i.d. ainsi que dans le cas <strong>de</strong> coloriage aléatoire, il est évi<strong>de</strong>nt que la loi<br />
<strong>de</strong> T (0, nε i ) ne dépend pas <strong>de</strong> i, on est donc en mesure <strong>de</strong> parler <strong>de</strong> constante <strong>de</strong> temps au singulier.<br />
1.4 Forme asymptotique<br />
1.4.1 Preuve du théorème<br />
On s'intéresse à présent à la forme asymptotique <strong>de</strong> B(t) dénie par (1.1) lorsque t → ∞. On<br />
donne ici une version un peu modiée <strong>de</strong> la version originale du théorème <strong>de</strong> forme asymptotique<br />
<strong>de</strong> Richardson. La version classique est donnée par exemple dans Howard [9] ou Kesten [11],<br />
mais elle ne s'applique pas directement au cas <strong>de</strong>s coloriages aléatoires. Nous établirons dans ce<br />
mémoire la version due à Y. Derriennic, comme reporté page 259 <strong>de</strong> Kesten [11].<br />
Dans une version plus récente due à Daniel Boivin, l'hypothèse que les (t(e)) e∈E d sont bornés<br />
est allégée (c.f. Boivin [1]).<br />
Théorème 1.4.1 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> tel que la famille <strong>de</strong> temps<br />
d'arête (t(e)) e∈E d ait une loi invariante par translation <strong>et</strong> soit ergodique. On suppose <strong>de</strong> plus les<br />
(t(e)) e∈E d bornés. Alors on a :<br />
i. Si pour tout i ∈ 1, d, µ i > 0, alors il existe un convexe compact déterministe d'intérieur non<br />
vi<strong>de</strong> B 0 ⊆ R d , symétrique par rapport aux hyperplans d'équation x i = 0, tel que, p.s., pour tout<br />
ε > 0, pour t assez grand, on ait<br />
(1 − ε)B 0 ⊆ 1 t B(t) ⊆ (1 + ε)B 0.<br />
ii. Si pour tout i ∈ 1, d, µ i = 0, alors, p.s., pour tout compact K ⊆ R d , pour t assez grand, on a<br />
K ⊆ 1 t B(t).<br />
Preuve. 1) On commence par établir la convergence radiale, c'est-à-dire <strong>de</strong><br />
T (0, nˆx)<br />
n<br />
pour ˆx dans un ensemble <strong>de</strong>nse <strong>de</strong> la sphère unitaire. On note C un majorant <strong>de</strong>s (t(e)) e∈E d (qui existe car il y a au<br />
plus d lois diérentes, compte tenu <strong>de</strong> l'invariance par translation).<br />
Pour u ∈ Z d \{0}, on applique le même raisonnement qu'à la section 1.3.3, en remplaçant ε 1 par u. Le seul point<br />
qui dière est qu'il faut montrer que E [T (0, u)] est nie, ce qui est évi<strong>de</strong>nt car<br />
E [T (0, u)] ≤ C|u| < ∞.<br />
Ainsi,<br />
T (0, nu)<br />
n‖u‖<br />
converge p.s. <strong>et</strong> dans L 1 (où ‖ · ‖ désigne la norme euclidienne <strong>de</strong> R d ). C<strong>et</strong>te limite ne dépend que <strong>de</strong> la direction <strong>de</strong><br />
u,<br />
û :=<br />
u<br />
‖u‖ ,<br />
car si v a la même direction, il existe p <strong>et</strong> q dans N ∗ tels que pu = qv <strong>et</strong><br />
T (0, npu) T (0, nqv)<br />
lim<br />
= lim<br />
n→∞ np‖u‖ n→∞ nq‖v‖ .<br />
Notons µ(û) c<strong>et</strong>te limite. Montrons que c'est aussi la limite p.s. <strong>et</strong> L 1 <strong>de</strong><br />
T (0, rû)<br />
r<br />
quand r tend vers l'inni (r réel). Pour cela, il sut <strong>de</strong> voir que<br />
<strong>et</strong><br />
1<br />
∣ r T (0, rû) − 1 (<br />
r T 0,<br />
⌊ r<br />
‖u‖<br />
⌋<br />
u<br />
)∣ ∣∣∣<br />
≤ 1 (<br />
r T rû,<br />
⌊ r<br />
‖u‖<br />
( ⌊ ⌋ ) ⌊ ⌋<br />
1 r<br />
r ‖u‖<br />
r T 0, u =<br />
‖u‖ ‖u‖ r<br />
⌋<br />
u<br />
)<br />
≤ C r<br />
1<br />
⌊ ⌋ T<br />
r<br />
‖u‖<br />
‖u‖<br />
10<br />
[( r<br />
‖u‖ − ⌊ r<br />
‖u‖<br />
⌋) ]<br />
|u| + 2 ≤ C (|u| + 2) GGGGGGA<br />
r r → ∞ 0<br />
( ⌊ ⌋ ) r p.s., L 1<br />
0, u GGGGGGGGGGGGGA<br />
‖u‖ r → ∞<br />
µ(û).
x*<br />
x<br />
y<br />
y *<br />
Figure 1.9 Exemple <strong>de</strong> cas où |x − y| < |x ∗ − y ∗ |<br />
Le +2 du <strong>de</strong>rnier membre <strong>de</strong> la première ligne provient du fait que rû n'est pas nécessairement dans Z d , <strong>et</strong> il se<br />
peut que |x − y| < |x ∗ − y ∗ |, mais on a toujours |x ∗ − y ∗ | ≤ |x − y| + 2 grâce à l'inégalité triangulaire (c.f. gure 1.9).<br />
On a ainsi montré la convergence pour l'ensemble<br />
<strong>de</strong>nse dans la sphère <strong>de</strong> R d , que l'on note S d−1 .<br />
donc,<br />
2) Maintenant, pour ˆx, ŷ ∈ S d−1 , on a<br />
T (0, rˆx)<br />
∣ r<br />
−<br />
T (0, rŷ)<br />
r<br />
∣<br />
lim sup<br />
r→∞<br />
U :=<br />
≤<br />
T (rˆx, rŷ)<br />
r<br />
∣<br />
T (0, rˆx)<br />
r<br />
{ u<br />
‖u‖ , u ∈ Zd }<br />
−<br />
(<br />
r|ˆx − ŷ| + 2<br />
≤ C = C |ˆx − ŷ| + 2 )<br />
,<br />
r<br />
r<br />
T (0, rŷ)<br />
r<br />
L'ensemble U étant dénombrable, on a p.s., pour tout ˆx, ŷ ∈ U,<br />
|µ(ˆx) − µ(ŷ)| ≤ C|ˆx − ŷ|.<br />
∣ ≤ C|ˆx − ŷ|. (1.11)<br />
Sur l'ensemble <strong>de</strong> mesure 1 où ces inégalités ont lieu, la fonction µ dénie sur U est donc lipschitzienne, on peut<br />
la prolonger à S d−1 d'après le théorème <strong>de</strong> prolongement <strong>de</strong>s applications uniformément continues. On a donc, sur<br />
c<strong>et</strong> ensemble <strong>de</strong> mesure 1, que quels que soient ˆx, ŷ ∈ S d−1 ,<br />
|µ(ˆx) − µ(ŷ)| ≤ C|ˆx − ŷ|.<br />
De plus, en prenant ˆx ∈ S d−1 <strong>et</strong> une suite (ˆx n ) ∈ U N telle que ˆx n → ˆx, l'équation (1.11) appliquée à ˆx <strong>et</strong> ˆx n<br />
<strong>de</strong>vient<br />
lim sup<br />
r→∞<br />
∣<br />
T (0, rˆx)<br />
r<br />
− µ(ˆx n )<br />
∣ ≤ C|ˆx − ˆx n|,<br />
puis en prenant la limite quand n tend vers l'inni, on obtient que, p.s., quel que soit ˆx ∈ S d−1 ,<br />
3) On va à présent montrer que, p.s.,<br />
T (0, rˆx)<br />
lim = µ(ˆx), (1.12)<br />
r→∞ r<br />
lim<br />
T (0, x)<br />
∣<br />
‖x‖→∞ ‖x‖<br />
( )∣ x ∣∣∣<br />
− µ = 0.<br />
‖x‖<br />
Pour ce faire, xons ε ∈ (0, 1), <strong>et</strong> découpons R d en un nombre ni <strong>de</strong> secteurs angulaires <strong>de</strong> la manière suivante :<br />
choisissons ˆα 1 , ˆα 2 , ..., ˆα m ∈ S d−1 tels que<br />
R d =<br />
m⋃<br />
⋃<br />
B(aˆα i , aε).<br />
i=1 a≥0<br />
1<br />
x<br />
a x<br />
x<br />
x<br />
a x<br />
Figure 1.10 Notations<br />
11
Pour x ∈ R d , soit ˆα x ∈ {ˆα 1 , ˆα 2 , . . . , ˆα m } tel que<br />
<strong>et</strong> enn,<br />
donc<br />
On a alors les inégalités suivantes :<br />
En notant toujours ˆx :=<br />
T (0, x)<br />
∣ ‖x‖<br />
x<br />
‖x‖<br />
− µ(ˆx)<br />
∣<br />
x ∈ ⋃<br />
B(aˆα x , aε),<br />
a≥0<br />
a x := inf{a | x ∈ B(aˆα x , aε)}<br />
α x := a x ˆα x .<br />
a x ≤ ‖x‖ ≤ a x (1 + ε) <strong>et</strong> |x − α x | ≤ 2a x ε. (1.13)<br />
, il vient,<br />
≤<br />
T (0, x)<br />
∣ ‖x‖<br />
Traitons séparément les quatre parties du membre <strong>de</strong> droite.<br />
i. ∣ ∣∣∣ T (0, x)<br />
‖x‖<br />
ii. ∣ ∣∣∣ T (0, α x )<br />
‖x‖<br />
− T (0, αx )<br />
‖x‖<br />
∣ ≤ T (x, αx )<br />
‖x‖<br />
lim sup<br />
T (0, x)<br />
∣<br />
‖x‖→∞ ‖x‖<br />
− T (0, ∣ αx )<br />
∣∣∣ ‖x‖ ∣ + T (0, α x )<br />
− ax<br />
‖x‖ ‖x‖ µ(ˆαx )<br />
∣<br />
+<br />
a x<br />
∣ ‖x‖ µ(ˆαx ) − µ(ˆα x )<br />
∣ + |µ(ˆαx ) − µ(ˆx)| .<br />
≤ C |x − αx | + 2<br />
‖x‖<br />
− T (0, αx )<br />
‖x‖<br />
≤ C 2ax ε + 2<br />
‖x‖<br />
∣ ≤ 2Cε.<br />
≤ C 2‖x‖ε + 2 ,<br />
‖x‖<br />
− ax<br />
‖x‖ µ(ˆαx )<br />
∣ = ax<br />
T (0, α x ∣<br />
)<br />
‖x‖ ∣ a x − µ(ˆα x ∣∣∣<br />
)<br />
∣ ≤ T (0, α x )<br />
a x − µ(ˆα x )<br />
∣ ,<br />
<strong>et</strong> comme d'après (1.13), a x → ∞ quand ‖x‖ → ∞, l'équation (1.12) implique que, p.s.,<br />
iii.<br />
lim sup<br />
T (0, α x )<br />
∣<br />
‖x‖→∞ ‖x‖<br />
− ax<br />
‖x‖ µ(ˆαx )<br />
∣ = 0.<br />
∣ ∣∣∣ a x<br />
∣<br />
‖x‖ µ(ˆαx ) − µ(ˆα x ∣∣∣<br />
)<br />
∣ ≤ a x ∣ ∣∣∣<br />
‖x‖ − 1 . sup µ ≤ ε sup µ,<br />
S d−1 S d−1<br />
la <strong>de</strong>rnière inégalité résultant <strong>de</strong> (1.13). La fonction µ étant continue sur le compact S d−1 , sup S d−1 µ < ∞.<br />
iv.<br />
|µ(ˆα x ) − µ(ˆx)| ≤ C|ˆα x − ˆx| ≤ C<br />
√<br />
2<br />
(1 − √ 1 − ε 2 )<br />
≤ 2Cε.<br />
Ainsi, en faisant tendre ε vers 0 suivant un ensemble dénombrable, on obtient bien que, p.s.,<br />
lim<br />
T (0, x)<br />
∣<br />
‖x‖→∞ ‖x‖<br />
− µ<br />
( )∣ x ∣∣∣<br />
= 0. (1.14)<br />
‖x‖<br />
4) Étudions à présent les propriétés <strong>de</strong> la fonction µ. Pour <strong>de</strong>s raisons pratiques, on l'étend à R d en posant, pour<br />
x ∈ R d ,<br />
µ(x) := ‖x‖µ(ˆx).<br />
Ainsi, en faisant le changement r ↦→ r‖x‖, l'équation (1.12) <strong>de</strong>vient : p.s., quel que soit x ∈ R d ,<br />
T (0, rx)<br />
lim = µ(x). (1.15)<br />
r→∞ r<br />
Remarquons que, si on choisit une suite (r n ) n∈N <strong>de</strong> réels telle que r n → ∞ quand n → ∞ <strong>et</strong> telle que tous les<br />
r n x <strong>et</strong> r n y soient dans Z d , on a,<br />
T (0, r n y)<br />
∣ r n<br />
− T (0, r ∣<br />
nx) ∣∣∣<br />
≤ T (r nx, r n y) (loi)<br />
= T (0, r n(y − x))<br />
r n r n<br />
r n<br />
P<br />
GGGGGGGA µ(y − x),<br />
n → ∞<br />
P<br />
où GGGGGA désigne la limite en probabilité.<br />
Le fait que r nx <strong>et</strong> r ny soient dans Z d assure l'égalité en loi par invariance par translation <strong>de</strong> la loi <strong>de</strong>s arêtes.<br />
Sans c<strong>et</strong>te hypothèse, on pourrait se trouver dans un cas où T (x, y) (loi)<br />
≠ T (0, y − x), si (y − x) ∗ ≠ y ∗ − x ∗ , comme<br />
le montre la gure 1.11.<br />
Par suite, en prenant la limite en probabilité dans l'équation précé<strong>de</strong>nte, on obtient que µ vérie l'inégalité<br />
triangulaire : p.s., pour tout x, y ∈ R d ,<br />
|µ(y) − µ(x)| ≤ µ(y − x). (1.16)<br />
12
y *<br />
x<br />
x*<br />
y<br />
y* - x*<br />
y - x<br />
0<br />
(y - x)*<br />
Figure 1.11 Exemple <strong>de</strong> cas où (y − x) ∗ ≠ y ∗ − x ∗<br />
De plus, l'invariance par translation implique que, quels que soient (x 1 , x 2 , . . . , x d ) ∈ R d ,<br />
T ( 0, (x 1 , x 2 , . . . , x d ) ) (loi)<br />
= T ( 0, (±x 1 , ±x 2 , . . . , ±x d ) ) ,<br />
sauf éventuellement pour les points critiques dont une coordonnée appartient à Z + 1 . Cependant, il est possible<br />
2<br />
<strong>de</strong> choisir les règles <strong>de</strong> dénition <strong>de</strong> x ∗ <strong>de</strong> telle façon que ce ne soit pas le cas.<br />
Dans tous les cas, pour un (x 1 , x 2 , . . . , x d ) ∈ R d xé, en choisissant une suite (r n) n∈N convenable qui évite ces<br />
points, on obtient<br />
µ(x 1 , x 2 , . . . , x d ) = µ(±x 1 , ±x 2 , . . . , ±x d ). (1.17)<br />
Les équations (1.16) <strong>et</strong> (1.17) impliquent les propriétés suivantes :<br />
i. Si pour tout i ∈ 1, d, µ i > 0, alors<br />
inf µ > 0. (1.18)<br />
Sd−1 ii. Si pour tout i ∈ 1, d, µ i = 0, alors<br />
µ ≡ 0. (1.19)<br />
En e<strong>et</strong>, s'il existe (x 1 , x 2 , . . . , x d ) ∈ S d−1 tel que µ ( (x 1 , x 2 , . . . , x d ) ) = 0, alors soit i ∈ 1, d tel que x i ≠ 0,<br />
on a<br />
µ i = µ(ε i ) ≤ 1<br />
2|x i |<br />
<strong>et</strong> pour tout (x 1 , x 2 , . . . , x d ) ∈ R d ,<br />
(<br />
µ<br />
(<br />
(x1 , x 2 , . . . , x i−1 , |x i |, x i+1 , . . . , x d ) ) + µ ( (−x 1 , −x 2 , . . . , −x i−1 , |x i |, −x i+1 , . . . , −x d ) )) = 0,<br />
µ ( (x 1 , x 2 , . . . , x d ) ) ≤<br />
d∑<br />
|x i |µ i .<br />
5) On est maintenant en mesure <strong>de</strong> conclure. Dans le <strong>premier</strong> cas, dénissons<br />
B 0 := {x | µ(x) ≤ 1} = {λx | λµ(ˆx) ≤ 1}.<br />
C'est un convexe : Si x, y ∈ B 0 , λ ∈ (0, 1), d'après (1.16),<br />
µ ( λx + (1 − λ)y ) ≤ µ(λx) + µ ( (1 − λ)y ) = λµ(x) + (1 − λ)µ(y) ≤ 1.<br />
C'est un compact d'intérieur non vi<strong>de</strong> compte tenu <strong>de</strong> (1.18), symétrique par rapport aux hyperplans d'équation<br />
x i = 0 à cause <strong>de</strong> (1.17). Notons<br />
i=1<br />
m := inf µ > 0.<br />
Sd−1 Plaçons nous sur l'ensemble <strong>de</strong> mesure 1 sur lequel (1.14) a lieu. Soit ε > 0. Montrons que pour t assez grand,<br />
on a<br />
(1 − ε)B 0 ⊆ 1 t B(t) ⊆ (1 + ε)B 0.<br />
Pour η dont on xera la valeur ultérieurement, il existe M ∈ R tel que, dès que ‖x‖ ≥ M,<br />
µ(x) − η‖x‖ ≤ T (0, x) ≤ µ(x) + η‖x‖. (1.20)<br />
a) (1 − ε)tB 0 ⊆ B(t) :<br />
Soit (1 − ε)tλˆx ∈ (1 − ε)tB 0 , on a donc λµ(ˆx) ≤ 1. Montrons que<br />
T ( 0, (1 − ε)tλˆx ) ≤ t<br />
pour t assez grand. Cela sura étant donné la dénition (1.2) <strong>de</strong> B(t).<br />
Prenons pour η la valeur mε. Alors, si<br />
λ ≤<br />
1<br />
4C(1 − ε)<br />
13<br />
<strong>et</strong> t ≥ 2C,
il vient<br />
T ( 0, (1 − ε)tλˆx ) ≤ C [(1 − ε)tλ|ˆx| + 1] ≤ t 2 + t 2 = t,<br />
compte tenu <strong>de</strong> la majoration grossière |ˆx| ≤ 2.<br />
Et si<br />
1<br />
λ ≥ <strong>et</strong> t ≥ 4CM,<br />
4C(1 − ε)<br />
alors<br />
<strong>et</strong><br />
d'après (1.20).<br />
b)<br />
1<br />
(1+ε)t B(t) ⊆ B 0 :<br />
(1 − ε)tλˆx ≥ M,<br />
T ( 0, (1 − ε)tλˆx ) ≤ (1 − ε)t λµ(ˆx) + η (1 − ε)t λ ≤ (1 − ε 2 ) t ≤ t,<br />
} {{ } }{{} }{{}<br />
≤1 mε<br />
≤m −1<br />
x<br />
Soit<br />
(1+ε)t ∈ 1<br />
B(t). Alors on a T (0, x) ≤ t + 2C. En e<strong>et</strong>, il se peut que x ∈ ∂B(t) auquel cas, on n'a pas<br />
(1+ε)t<br />
nécessairement x ∗ ∈ ˜B(t), mais on a tout <strong>de</strong> même x ∗ ∈ ˜B(t + 2C) (voir gure 1.12).<br />
x*<br />
x<br />
B(t)<br />
Montrons que pour η bien choisi <strong>et</strong> t assez grand,<br />
Figure 1.12 Exemple <strong>de</strong> cas où x ∗ /∈ ˜B(t)<br />
‖x‖<br />
µ(ˆx) ≤ 1.<br />
(1 + ε)t<br />
D'après (1.20), pour ‖x‖ ≥ M (qui dépend encore pour l'instant <strong>de</strong> η) <strong>et</strong> t ≥ 4C , ε<br />
‖x‖<br />
(1 + ε)t µ(ˆx) ≤ 1<br />
(1 + ε)t<br />
pour η xé, susamment p<strong>et</strong>it.<br />
µ(ˆx)<br />
µ(ˆx) − η T (0, x) ≤ 1<br />
(1 + ε)t<br />
1<br />
1 − η m<br />
(t + 2C) ≤<br />
1 + ε 2<br />
(1 + ε)(1 − η m ) ≤ 1,<br />
Ainsi, p.s, pour t assez grand, les inclusions a) <strong>et</strong> b) sont vériées, ce qui perm<strong>et</strong> <strong>de</strong> conclure pour le i. du<br />
théorème.<br />
6) Passons au <strong>de</strong>uxième cas, supposons que pour tout i ∈ 1, d, µ i = 0. Alors d'après (1.19), la fonction µ est<br />
i<strong>de</strong>ntiquement nulle.<br />
On se place encore sur l'ensemble <strong>de</strong> mesure 1 sur lequel (1.14) a lieu. Soit K ⊆ R d un compact. Il existe A ∈ R<br />
tel que K ⊆ B(0, A). Soit x ∈ K, montrons que<br />
T (0, tx) ≤ t,<br />
ce qui sura pour conclure comme dans le cas a) précé<strong>de</strong>nt.<br />
Si<br />
on a<br />
alors<br />
Sinon on choisit η = 1 dans (1.20), <strong>et</strong> pour<br />
A<br />
<strong>et</strong> (1.20) implique<br />
‖x‖ ≤ 1<br />
4C<br />
<strong>et</strong> t ≥ 2C,<br />
T (0, tx) ≤ C(t|x| + 1) ≤ Ct2‖x‖ + C ≤ t.<br />
‖x‖ ≥ 1<br />
4C<br />
<strong>et</strong><br />
‖tx‖ ≥ M,<br />
t ≥ 4CM,<br />
T (0, tx) ≤ η‖tx‖ ≤ ‖x‖<br />
A t ≤ t.<br />
On a ainsi, p.s., quel que soit K ⊆ R d compact, pour t assez grand, K ⊆ 1 B(t), ce qui achève la preuve <strong>de</strong> ce<br />
t<br />
théorème.<br />
□<br />
14
1.4.2 Encadrement <strong>de</strong> B 0<br />
D'une certaine manière, dans le cas ii. du théorème 1.4.1, la forme asymptotique est R d tout<br />
entier. On s'intéressera ici seulement au cas i., c'est-à-dire lorsque pour tout i ∈ 1, d, µ i > 0.<br />
On sait déjà d'après le théorème que B 0 est convexe compacte d'intérieur non vi<strong>de</strong> <strong>et</strong> symétrique<br />
par rapport aux hyperplans d'équation x i = 0.<br />
Elle a été dénie au cours <strong>de</strong> la preuve par<br />
où<br />
On a donc, pour x ∈ R\{0},<br />
Mais comme on a, pour i ∈ 1, d,<br />
il vient, pour i ∈ 1, d,<br />
B 0 := {x | µ(x) ≤ 1}.<br />
B 0 ∩ (R.x) =<br />
ˆx :=<br />
[<br />
− 1 ]<br />
µ(ˆx) , 1<br />
,<br />
µ(ˆx)<br />
x<br />
‖x‖ .<br />
µ i = µ(ε i ),<br />
B 0 ∩ (R.ε i ) =<br />
[− 1 µ i<br />
, 1 µ i<br />
]<br />
.<br />
De plus, par convexité <strong>et</strong> symétrie, on obtient un encadrement <strong>de</strong> B 0 , à savoir<br />
{<br />
(x 1 , x 2 , . . . , x d ) ∈ R d |<br />
}<br />
d∑<br />
|µ i x i | ≤ 1 ⊆ B 0 ⊆<br />
i=1<br />
{<br />
}<br />
(x 1 , x 2 , . . . , x d ) ∈ R d | sup<br />
1≤i≤d<br />
|µ i x i | ≤ 1 .<br />
C<br />
1<br />
3<br />
1<br />
2<br />
1<br />
1<br />
A<br />
Figure 1.13 Encadrement <strong>de</strong> B 0 , on a A ⊆ B 0 ⊆ C<br />
C'est-à-dire, si on appelle M la matrice diagonale<br />
⎛<br />
1<br />
µ 1<br />
0 · · · · · · 0<br />
1<br />
0<br />
µ 2<br />
0 · · · 0<br />
M :=<br />
.<br />
...<br />
...<br />
... .<br />
,<br />
⎜<br />
⎟<br />
⎝ .<br />
...<br />
... 0 ⎠<br />
1<br />
0 · · · · · · 0<br />
15<br />
µ d<br />
⎞
alors<br />
M.B |·| ⊆ B 0 ⊆ M.B ‖·‖∞ ,<br />
où 7 B |·| := {x ∈ R d | |x| ≤ 1} <strong>et</strong> B ‖·‖∞ := {x ∈ R d | ‖x‖ ∞ ≤ 1}.<br />
Dans le cas où toutes les constantes <strong>de</strong> temps sont égales, on a alors simplement<br />
1<br />
µ B |·| ⊆ B 0 ⊆ 1 µ B ‖·‖ ∞<br />
.<br />
1.5 Continuité <strong>de</strong> la constante <strong>de</strong> temps <strong>et</strong> critère <strong>de</strong> distinction<br />
dans le cas standard<br />
Nous donnons sans démonstrations au cours <strong>de</strong> c<strong>et</strong>te section quelques résultats concernant le<br />
cas standard. Le second chapitre <strong>de</strong> ce mémoire sera consacré à <strong>de</strong>s résultats similaires pour les<br />
coloriages aléatoires.<br />
1.5.1 <strong>Percolation</strong> classique sur Z d<br />
Rappelons brièvement ici quelques résultats <strong>de</strong> percolation. Pour plus <strong>de</strong> détails, voir Grimm<strong>et</strong>t<br />
[8].<br />
<strong>Percolation</strong> par arêtes<br />
Soit p ∈ [0, 1]. On se donne une famille <strong>de</strong> v.a. i.i.d. ( ˜X e ) e∈E d <strong>de</strong> Bernoulli <strong>de</strong> paramètre p. Une<br />
façon <strong>de</strong> voir les choses consiste à imaginer qu'on eace les arêtes <strong>de</strong> E d indépendamment avec<br />
probabilité 1 − p (on ne gar<strong>de</strong> que les 1). Si ˜Xe = 1, on dit que e est ouverte, si ˜Xe = 0, on dit<br />
que e est fermée.<br />
Une <strong>de</strong>s principales préoccupations <strong>de</strong> la percolation est <strong>de</strong> voir si le graphe aléatoire<br />
(<br />
Z d ,<br />
{<br />
e ∈ E d | ˜Xe = 1<br />
aura ou non une (ou plusieurs) composante(s) connexe(s) innie(s). Le théorème répondant à c<strong>et</strong>te<br />
question est le suivant (voir Grimm<strong>et</strong>t [8]).<br />
Théorème 1.5.1 Il existe p c (Z d , arête) ∈ (0, 1) tel que<br />
i. pour tout p < p c (Z d , arête), il n'existe p.s. pas <strong>de</strong> composante connexe innie,<br />
ii. pour tout p > p c (Z d , arête), il existe p.s. une unique composante connexe innie.<br />
Remarque. Ce théorème ne dit pas ce qu'il se passe pour p = p c (Z d , arête).<br />
<strong>Percolation</strong> par sites<br />
Soit p ∈ [0, 1]. On se donne une famille <strong>de</strong> v.a. i.i.d. ( ˜X u ) u∈Z d <strong>de</strong> Bernoulli <strong>de</strong> paramètre p. Il<br />
s'agit maintenant d'eacer les points <strong>de</strong> Z d indépendamment avec probabilité 1 − p. Si ˜Xu = 1, on<br />
dit que u est ouvert, si ˜Xu = 0, on dit que u est fermé.<br />
On s'intéresse aux liaisons entre les points <strong>de</strong> Z d : on dit que u <strong>et</strong> v sont reliés s'il existe un<br />
chemin u Γ v qui ne passe que par <strong>de</strong>s sites ouverts. On notera alors u v.<br />
Dénition 1.5.2 Pour tout u ∈ Z d , on dénit le cluster (<strong>de</strong> percolation) <strong>de</strong> u, par l'ensemble<br />
})<br />
C(u) := {v ∈ Z d | u v}. (1.21)<br />
7. Si (x 1 , x 2 , . . . , x d ) ∈ R d , on note ‖(x 1 , x 2 , . . . , x d )‖ ∞ := sup 1≤i≤d |x i | sa norme innie.<br />
16
Les clusters sont les composantes connexes du sous-graphe aléatoire <strong>de</strong> (Z d , E d ) suivant :<br />
(<br />
{<br />
{u ∈ Z d | ˜Xu = 1}, {u, v} ∈ E d | ˜Xu = ˜X<br />
})<br />
v = 1 .<br />
En d'autres termes, cela revient à considérer un coloriage aléatoire <strong>de</strong> Z d avec S = {0, 1} <strong>et</strong><br />
p 1 = p. Alors u v si <strong>et</strong> seulement si X u = 1 <strong>et</strong> T (u, v) = 0.<br />
Pour u ∈ Z d , son cluster <strong>de</strong> percolation C(u) peut être relié à son cluster <strong>de</strong> coloriage aléatoire<br />
C (u) par la relation<br />
{<br />
C (u) si X<br />
C(u) =<br />
u = 1<br />
∅ si X u<br />
(1.22)<br />
= 0<br />
Là encore, on regar<strong>de</strong> les clusters innis (c.f. Grimm<strong>et</strong>t [8]).<br />
Théorème 1.5.3 Il existe p c (Z d , site) ∈ (0, 1) tel que<br />
i. pour tout p < p c (Z d , site), il n'existe p.s. pas <strong>de</strong> cluster inni,<br />
ii. pour tout p > p c (Z d , site), il existe p.s. un unique cluster inni.<br />
Remarque. Comme pour le cas <strong>de</strong> la percolation par arêtes, on ne sait pas ce qu'il se passe pour<br />
p = p c (Z d , site).<br />
Citons encore un théorème que l'on utilisera par la suite (voir Grimm<strong>et</strong>t [8] pour la preuve) :<br />
Théorème 1.5.4 (Moments du cardinal d'un cluster en régime sous-critique) Pour tout<br />
p < p c , pour tout n ∈ N, on a<br />
E [|C(0)| n ] < ∞.<br />
1.5.2 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par arêtes<br />
On se place ici dans le cas standard où les t(e) sont i.i.d. Si les t(e) suivent la loi U, notons<br />
µ(U)<br />
la constante <strong>de</strong> temps associée (qui est unique en vertu <strong>de</strong> la <strong>de</strong>rnière remarque <strong>de</strong> la section 1.3.3).<br />
J. Theodore Cox <strong>et</strong> Harry Kesten démontrent dans Cox Kesten [5] (théorème 3) le théorème<br />
suivant que nous énonçons sans preuve.<br />
Théorème 1.5.5 Soit une suite <strong>de</strong> lois <strong>de</strong> probabilité (U n ) n∈N qui tend faiblement vers la probabilité<br />
U. Alors<br />
µ(U n ) → µ(U).<br />
En d'autres termes, µ est continue pour la topologie <strong>de</strong> la convergence faible.<br />
Harry Kesten prouve dans Kesten [11] le théorème suivant, perm<strong>et</strong>tant <strong>de</strong> savoir dans quel<br />
cas du théorème <strong>de</strong> forme asymptotique on est.<br />
Théorème 1.5.6 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard. Alors<br />
µ > 0 si <strong>et</strong> seulement si P(t(e) = 0) < p c (Z d , arête).<br />
17
1.5.3 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par sites<br />
Plutôt que <strong>de</strong> se donner <strong>de</strong>s temps d'arête, c'est-à-dire considérer que traverser une arête prend<br />
un certain temps, on peut aussi envisager le modèle qui consiste à se donner <strong>de</strong>s temps <strong>de</strong> site,<br />
c'est-à-dire considérer que c'est la traversée d'un site qui prend du temps.<br />
Ainsi, on se donne une famille <strong>de</strong> v.a. ( t(u) ) <strong>et</strong> on dénit le temps <strong>de</strong> <strong>passage</strong> du chemin<br />
u∈Z d<br />
Γ = (e 1 , e 2 , . . . , e l ) par<br />
T (Γ) =<br />
<strong>et</strong> toujours le temps <strong>de</strong> voyage <strong>de</strong> u à v par<br />
∑<br />
u∈ ⋃ l<br />
i=1 ei t(u),<br />
T (u, v) := inf T (Γ).<br />
uv<br />
Γ<br />
Ce modèle est très utile dans l'étu<strong>de</strong> <strong>de</strong>s coloriages aléatoires car on peut <strong>de</strong> temps en temps<br />
s'y ramener par comparaison comme on le verra au cours du second chapitre. C'est pourquoi on<br />
l'introduit brièvement ici.<br />
On r<strong>et</strong>rouve alors les mêmes résultats que ceux énoncés au cours <strong>de</strong> ce chapitre, à savoir l'existence<br />
<strong>de</strong> la constante <strong>de</strong> temps, que l'on notera ˜µ pour éviter toute ambiguïté, <strong>et</strong> le théorème <strong>de</strong><br />
forme asymptotique. De plus, on a l'analogue <strong>de</strong>s théorèmes 1.5.6 <strong>et</strong> 1.5.5, à savoir :<br />
Théorème 1.5.7 Soit une suite <strong>de</strong> lois <strong>de</strong> probabilité (U n ) n∈N qui tend faiblement vers la probabilité<br />
U. Alors<br />
˜µ(U n ) → ˜µ(U).<br />
En d'autres termes, ˜µ est continue pour la topologie <strong>de</strong> la convergence faible.<br />
Théorème 1.5.8 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard par site. Alors<br />
˜µ > 0 si <strong>et</strong> seulement si P(t(u) = 0) < p c (Z d , site).<br />
18
Chapitre 2<br />
Application aux coloriages aléatoires<br />
Nous commençons ce chapitre en reformulant le théorème <strong>de</strong> forme asymptotique pour les coloriages<br />
aléatoires. Dans un <strong>premier</strong> temps, nous nous intéresserons à la continuité <strong>de</strong> la constante<br />
<strong>de</strong> temps. Dans un second temps, nous donnerons un critère <strong>de</strong> distinction du cas µ = 0 du cas<br />
µ > 0. Et dans un troisième temps, nous étendrons ce résultat au cas où les coloriages ne sont plus<br />
nécessairement indépendants.<br />
2.1 Rappel <strong>de</strong>s principaux résultats<br />
Dans le cas d'un coloriage aléatoire, on a montré au cours <strong>de</strong> la section 1.3.3 que la constante <strong>de</strong><br />
temps µ ∈ R + était bien dénie. La proposition 1.3.4 perm<strong>et</strong> l'application du théorème 1.4.1 que<br />
l'on reformule ici.<br />
Théorème 2.1.1 (<strong>de</strong> forme asymptotique) Soit un modèle <strong>de</strong> coloriage aléatoire. Notons µ la<br />
constante <strong>de</strong> temps associée.<br />
Alors <strong>de</strong>ux cas sont possibles :<br />
i. Soit µ > 0, <strong>et</strong> il existe un convexe compact déterministe d'intérieur non vi<strong>de</strong> B 0 ⊆ R d , symétrique<br />
par rapport aux hyperplans d'équation x i = 0, tel que, p.s., pour tout ε > 0, pour t assez<br />
grand, on ait<br />
(1 − ε)B 0 ⊆ 1 t B(t) ⊆ (1 + ε)B 0.<br />
ii. Soit µ = 0, <strong>et</strong>, p.s., pour tout compact K ⊆ R d , pour t assez grand, on a<br />
K ⊆ 1 t B(t).<br />
Remarques.<br />
i. Pour tout n ∈ N, on a<br />
nB |·| ⊆ B(n),<br />
donc dans la cas µ > 0, on aura B |·| ⊆ B 0 .<br />
ii. Si'l y a un cluster inni d'une certaine couleur, alors au bout d'un certain temps, B(t) n'est<br />
plus borné <strong>et</strong> on est donc dans le cas où µ = 0.<br />
2.2 Continuité <strong>de</strong> µ<br />
2.2.1 Restriction aux chemins courts<br />
On s'intéresse maintenant à la dépendance <strong>de</strong> µ en fonction <strong>de</strong> la loi <strong>de</strong>s (X u ) u∈Z d. On commence<br />
tout d'abord par démontrer un lemme.<br />
19
Lemme 2.2.1 Pour tout n ∈ N ∗ <strong>et</strong> 0 ≤ k < l, dénissons les variables 1<br />
T n (k, l) := inf<br />
{<br />
}<br />
Γ<br />
T (Γ) ; kε 1 lε1 , |Γ| ≤ n(l − k) .<br />
Alors il existe <strong>de</strong>s constantes µ 1 , µ 2 , . . . ∈ R + telles que pour tout n ∈ N ∗ ,<br />
De plus<br />
lorsque n → ∞.<br />
T n (0, k)<br />
k<br />
p.s., L 1<br />
GGGGGGGGGGGGA µ n .<br />
k → ∞<br />
µ n ↓ µ<br />
Remarques.<br />
i. On se restreint ainsi aux chemins courts, dont la taille croît au plus linéairement en fonction<br />
<strong>de</strong> la distance à parcourir.<br />
ii. Le point important <strong>de</strong> ce lemme est la convergence <strong>de</strong> µ n vers µ lorsque n → ∞.<br />
Preuve. 1) On peut appliquer à la famille <strong>de</strong> variables aléatoires ( T n (k, l) ) le théorème sous-additif ergodique<br />
en suivant le schéma <strong>de</strong> la section 1.3.3 pour obtenir l'existance <strong>de</strong>s constantes µ n ∈ R + telles que<br />
0≤k
Par suite, pour n assez grand, |γ k | ≤ nk <strong>et</strong> T n (0, k) = T (0, kε 1 ), <strong>et</strong> p.s.<br />
quand n → ∞.<br />
Ainsi, par convergence monotone,<br />
quand n → ∞.<br />
Et enn,<br />
d'où (2.1).<br />
T n (0, k) ↓ T (0, kε 1 ),<br />
P ( T (0, kε 1 ) < T n (0, k) ) ↓ 0,<br />
inf E [T n(0, k)] ≤ E [T (0, kε 1 )] + k P ( T (0, kε 1 ) < T m (0, k) ) GGGGGGGA<br />
n∈N ∗ m → ∞ E [T (0, kε 1)] ,<br />
□<br />
2.2.2 Continuité <strong>de</strong>s µ n<br />
On introduit à présent quelques notations. Soient<br />
avec la convention que 1, s = N ∗ si s = ∞.<br />
On note encore<br />
P (S ) :=<br />
s = |S | <strong>et</strong> S = { s i , i ∈ 1, s } ,<br />
{<br />
(p 1 , p 2 , . . . , p s ) ∈ [0, 1] S |<br />
}<br />
s∑<br />
p i = 1 ,<br />
<strong>de</strong> sorte que P (S ) s'i<strong>de</strong>ntie canoniquement à l'ensemble <strong>de</strong>s mesures <strong>de</strong> probabilité sur S .<br />
On munit P (S ) <strong>de</strong> la distance <strong>de</strong> la norme innie, c'est-à-dire que si p = (p 1 , p 2 , . . . , p s ) <strong>et</strong><br />
q = (q 1 , q 2 , . . . , q s ) sont dans P (S ), on pose<br />
|p − q| := sup |p i − q i |.<br />
i∈1,s<br />
Si p = (p 1 , p 2 , . . . , p s ) ∈ P (S ), <strong>et</strong> si X u suit la loi<br />
s∑<br />
p i δ si ,<br />
i=1<br />
on notera µ(p) la constante <strong>de</strong> temps associée, <strong>et</strong> pour n ∈ N ∗ , µ n (p) les constantes introduites<br />
dans l'énoncé du lemme 2.2.1.<br />
Proposition 2.2.2 Pour tout n ∈ N, l'application<br />
i=1<br />
P (S ) → R +<br />
p ↦→ µ n (p)<br />
est continue.<br />
Preuve. 1) L'idée est <strong>de</strong> procé<strong>de</strong>r par couplage. On se donne une famille <strong>de</strong> v.a. (U u ) u∈Z d<br />
[0, 1] <strong>et</strong>, pour p = (p 1 , p 2 , . . . , p s ) ∈ P (S ), on dénit pour tout u ∈ Z d<br />
avec la convention que p 0 = 0.<br />
Ainsi,<br />
X (p)<br />
u =<br />
s∑<br />
s i 1 {p0 +...+p i−1 ≤U u 0. On va commencer par montrer que si q ∈ P (S ) est susamment proche <strong>de</strong> p, alors pour tout<br />
u ∈ Z d ,<br />
P(X (p)<br />
u<br />
≠ X (q)<br />
u ) ≤ δ.<br />
21
on a<br />
Pour cela, commençons par xer S ∈ 1, s tel que, si s < ∞, S = s, <strong>et</strong> si s = ∞,<br />
Alors si<br />
(<br />
P X u<br />
(p)<br />
s∑<br />
i=S+1<br />
p i < δ 2 .<br />
|q − p| ≤ δ<br />
4S ,<br />
)<br />
≠ X u<br />
(q) ≤ S<br />
(<br />
2 δ<br />
4S<br />
)<br />
+ δ 2 = δ.<br />
On a majoré par la probabilité que U u tombe autour <strong>de</strong>s S <strong>premier</strong>s points p 1 + . . . + p i à moins <strong>de</strong> δ<br />
le point p 1 + . . . + p S (voir gure 2.1).<br />
4S<br />
ou après<br />
s S<br />
q 0 q 1 q 1 +q 2 q 1 +q 2 +q 3 q 1 +...+q S<br />
s 3<br />
s 2<br />
s 1<br />
2<br />
4S<br />
2<br />
4S<br />
2<br />
4S<br />
2<br />
4S<br />
2<br />
0<br />
1<br />
p 0 p 1 p 1 +p 2 p 1 +p 2 +p 3 p 1 +...+p S<br />
Figure 2.1 Représentation <strong>de</strong>s lois <strong>de</strong> X u<br />
(p)<br />
3) Fixons ε > 0 <strong>et</strong> δ > 0. Soit encore p ′ ∈ P (S ) tel que<br />
<strong>et</strong> X u<br />
(q)<br />
P(X u (p) ≠ X (p′ )<br />
u ) ≤ δ.<br />
Pour n <strong>et</strong> k ∈ N ∗ , notons T n (0, k) <strong>et</strong> T n(0, ′ k) les variables dénies au cours <strong>de</strong> l'énoncé du lemme 2.2.1 associées<br />
respectivement aux congurations<br />
(<br />
X :=<br />
Si on appelle γ k n un chemin tel que<br />
X (p)<br />
u<br />
alors γ k n est mesurable par rapport à σ(X) <strong>et</strong><br />
P ( T ′ n (0, k) ≥ T n(0, k) + εk | X ) ≤ P<br />
Ainsi, pour n <strong>et</strong> k ∈ N ∗ ,<br />
)<br />
(<br />
<strong>et</strong> X ′ :=<br />
u∈Z d<br />
≤<br />
≤<br />
≤<br />
T n(0, k) = T (γ k n),<br />
X (p′ )<br />
u<br />
)<br />
u∈Z d .<br />
(<br />
X ′ dière <strong>de</strong> X en au moins ⌊ ⌋<br />
εk<br />
2 points <strong>de</strong> γ<br />
k<br />
n | X)<br />
C ⌊εk/2⌋<br />
|γ k n | δ ⌊εk/2⌋<br />
2 |γk n | δ εk 2 −1<br />
1 ( )<br />
2 n δ 2 ε k<br />
.<br />
δ<br />
P ( T ′ n(0, k) ≥ T n (0, k) + εk ) ≤ 1 δ<br />
(<br />
2 n δ ε 2<br />
) k<br />
.<br />
Donc si δ < 2 − 2n ε , le lemme <strong>de</strong> Borel-Cantelli implique que, p.s. pour k assez grand,<br />
T ′ n(0, k) < T n (0, k) + εk.<br />
En appliquant le même raisonnement en changeant les rôles <strong>de</strong> p <strong>et</strong> p ′ , on trouve que, p.s. pour k assez grand,<br />
<strong>et</strong> donc<br />
ce qui perm<strong>et</strong> <strong>de</strong> conclure.<br />
|T ′ n(0, k) − T n(0, k)| ≤ εk,<br />
|µ n (p) − µ n (p ′ )| ≤ ε,<br />
□<br />
Corollaire. L'application<br />
est semi-continue supérieurement.<br />
P (S ) → R +<br />
p ↦→ µ(p)<br />
22
Preuve. Ceci découle immédiatement du lemme 2.2.1 <strong>et</strong> <strong>de</strong> la proposition 2.2.2 car l'application µ est un inmum<br />
<strong>de</strong> fonctions continues.<br />
□<br />
2.2.3 Continuité <strong>de</strong> µ<br />
Passons maintenant au résultat principal <strong>de</strong> c<strong>et</strong>te section. Commençons par rappeler un résultat<br />
classique sur le nombre <strong>de</strong> chemins auto-évitants qui partent <strong>de</strong> l'origine. Si on appelle a n le nombre<br />
<strong>de</strong> chemins auto-évitants issus <strong>de</strong> 0 <strong>de</strong> longueur n, alors en coupant un chemin <strong>de</strong> longueur m + n<br />
en un chemin <strong>de</strong> longueur m <strong>et</strong> un autre <strong>de</strong> longueur n, on obtient que<br />
a m+n ≤ a m a n ,<br />
<strong>et</strong> donc en appliquant le lemme sous-additif on obtient l'existence d'une constante λ > 0 telle que<br />
λ = lim<br />
n→∞ a1/n n = inf<br />
n∈N a1/n n .<br />
C<strong>et</strong>te constante est appelée constante <strong>de</strong> connectivité du réseau.<br />
Remarques.<br />
i. On peut minorer simplement a n par le nombre <strong>de</strong> chemins <strong>de</strong> longueur n issus <strong>de</strong> 0 qui ne vont<br />
que dans une direction donnée (par exemple vers la droite <strong>et</strong> vers le haut en dimension 2), ces<br />
chemins étant nécessairement auto-évitants, donc<br />
d n ≤ a n .<br />
On peut majorer a n par le nombres <strong>de</strong> chemin <strong>de</strong> longueur n issus <strong>de</strong> 0 qui ne reviennent<br />
jamais sur leur pas, c'est-à-dire qui n'ont pas <strong>de</strong>ux arêtes consécutives égales, d'où<br />
a n ≤ 2d(2d − 1) n−1 ,<br />
<strong>et</strong> donc<br />
d ≤ λ ≤ 2d − 1.<br />
ii. Il existe <strong>de</strong>s encadrements plus ns <strong>de</strong> la constante λ, mais sa valeur exacte n'est connue que<br />
dans le cas trivial <strong>de</strong> la dimension 1 où λ = 1.<br />
Théorème 2.2.3 L'application<br />
{<br />
p ∈ P (S ) | |p| <<br />
1<br />
λ}<br />
→ R+<br />
p ↦→ µ(p)<br />
est continue.<br />
Preuve. 1) Commençons par traiter le cas s < ∞. Soit 0 < α < 1 λ<br />
. On va montrer un résultat plus fort, que<br />
pour n assez grand, quel que soit p tel que |p| ≤ α, µ n = µ, c'est-à-dire que la suite d'applications (µ n ) n∈N ∗ est<br />
uniformément stationnaire sur {p ∈ P (S ) | |p| < α}. Ceci entraînera la continuité <strong>de</strong> µ sur { p ∈ P (S ) | |p| < 1 }<br />
λ<br />
grâce à la proposition 2.2.2.<br />
Soit<br />
Γ = (e 1 , e 2 , . . . , e l )<br />
un chemin <strong>de</strong> longueur l ∈ N ∗ , <strong>et</strong> k un entier. Notons u 0 , u 1 , . . . , u l les points par lesquels passe Γ, c'est-à-dire que,<br />
pour i ∈ 1, l, u i := e i ∩ e i+1 , <strong>et</strong> u 0 est tel que e 1 = {u 0 , u 1 } (voir gure 2.2).<br />
On a<br />
P(T (Γ) ≤ k)<br />
≤<br />
≤<br />
≤<br />
≤<br />
∑<br />
P(X u0 = X u1 = . . . = X ui1 )P(X ui1 +1 = . . . = X u i2<br />
) . . . P(X uik +1 = . . . = X ul )<br />
0≤i 1
La première inégalité est obtenue en majorant P(T (Γ) ≤ k) par la probabilité qu'il existe k indices i 1 , i 2 , . . . , i k<br />
tels que<br />
X u0 = X u1 = . . . = X ui1 ,<br />
(c.f. gure 2.2).<br />
X ui1 +1 = Xu i 1 +2 = . . . = Xu i 2<br />
,<br />
. . .<br />
X uik +1 = X uik +2 = . . . = Xu l ,<br />
e l<br />
u ik<br />
u<br />
u i5<br />
i1<br />
u i2<br />
u i4<br />
u i3<br />
u 0<br />
e 2<br />
e 1<br />
Appelons<br />
Figure 2.2 Majoration <strong>de</strong> P(T (Γ) ≤ k)<br />
{<br />
}<br />
N k := inf |Γ| | 0 Γ kε 1 , T (Γ) = T (0, kε 1 )<br />
la longueur minimale d'une route <strong>de</strong> 0 à kε 1 .<br />
On avait obtenu au cours <strong>de</strong> la démonstration du lemme 2.2.1<br />
ce que l'on peut réécrire<br />
E [T n(0, k)] ≤ E [T (0, kε 1 )] + k P ( T (0, kε 1 ) < T n(0, k) ) ,<br />
[ Tn(0, k)<br />
E<br />
k<br />
]<br />
≤ E<br />
[ T (0, kε1 )<br />
k<br />
(2.3)<br />
]<br />
+ P(N k > nk). (2.4)<br />
Montrons que pour n assez grand, P(N k > nk) tend uniformément vers 0 sur l'ensemble <strong>de</strong>s p tels que |p| ≤ α.<br />
On a<br />
P(N k > nk) ≤ P(il existe un chemin auto-évitant Γ <strong>de</strong> longueur nk tel que T (Γ) ≤ k)<br />
≤<br />
≤<br />
∑<br />
P ( T (Γ) ≤ k )<br />
Γ<br />
⌢<br />
0·, |Γ|=nk<br />
( ) nk<br />
a nk s<br />
k<br />
k+1 |p| nk+1<br />
La première inégalité provient du fait que si N k > nk, il existe un chemin auto-évitant <strong>de</strong> 0 à kε 1 <strong>de</strong> longueur<br />
supérieure à nk dont le temps <strong>de</strong> parcours est T (0, kε 1 ) ≤ k. A fortiori, il existe un chemin auto-évitant <strong>de</strong> longueur<br />
nk issu <strong>de</strong> 0 dont le temps <strong>de</strong> parcours est inférieur à k (c.f. gure 2.3).<br />
Γ<br />
⌢<br />
La notation 0 · signie que Γ est un chemin auto-évitant issu <strong>de</strong> 0.<br />
Et comme<br />
il existe γ < 1 tel que pour n assez grand (k ≥ 1),<br />
λ < 1 α ,<br />
Dans ce cas, pour |p| ≤ α, on a<br />
P(N k > nk)<br />
( γ<br />
) nk<br />
a nk ≤ .<br />
α<br />
≤<br />
≤<br />
( γ<br />
) nk (nk) k<br />
s k+1 α nk<br />
α k!<br />
s (snkγn ) k<br />
.<br />
k!<br />
24
0<br />
nk<br />
k<br />
1<br />
donc<br />
Or, la formule <strong>de</strong> Stirling implique que<br />
Figure 2.3 Majoration <strong>de</strong> P(N k > nk)<br />
k! ∼ √ ( ) k k<br />
2πk ,<br />
e<br />
(snkγ n ) k<br />
k!<br />
∼ (sneγn ) k<br />
√<br />
2πk<br />
.<br />
Ainsi, pour n assez grand tel que<br />
(sneγ n ) < 1,<br />
on obtient que P(N k > nk) tend uniformément vers 0 sur l'ensemble {p ∈ P (S ) | |p| < α}.<br />
On a alors, en passant à la limite k → ∞ dans (2.4), pour n assez grand, quel que soit p ∈ P (S ) tel que |p| < α,<br />
d'où l'égalité.<br />
µ n(p) ≤ µ(p),<br />
2) Traitons maintenant le cas où s = ∞. Soit ˜p ∈ P (S ) tel que |˜p| < 1 . On va montrer <strong>de</strong> façon analogue au 1)<br />
λ<br />
que (µ n ) n∈N ∗ est uniformément stationnaire au voisinage <strong>de</strong> ˜p.<br />
Soit |˜p| < α < 1 . Il existe S ∈ N tel que<br />
λ ∑<br />
il vient<br />
donc<br />
Alors si<br />
Ainsi, sur le voisinage <strong>de</strong> ˜p<br />
pour r ∈ N ∗ , par convexité <strong>de</strong> x ↦→ x r , il vient<br />
s∑<br />
i=1<br />
p r i ≤ Sαr + ∑ i>S<br />
i>S<br />
˜p i ≤ α 2 .<br />
|p − ˜p| < α<br />
2S ,<br />
∑<br />
p i ≥ ∑ ˜p i − S α<br />
2S ≥ 1 − α,<br />
i≤S i≤S<br />
∑<br />
p i ≤ α.<br />
iS i>S<br />
Le reste <strong>de</strong> la preuve est le même en remplaçant s par S + 1 <strong>et</strong> en restant sur le voisinage V .<br />
Remarque. On a simplement majoré la probabilité que N k soit grand par la probabilité qu'il<br />
existe un long chemin <strong>de</strong> faible temps <strong>de</strong> parcours. On n'a à aucun moment pris en compte le fait<br />
que c'est la longueur d'une route minimale. C<strong>et</strong> argument ne pourra donc pas fonctionner si un <strong>de</strong>s<br />
p i est grand, car alors, il va y avoir <strong>de</strong> grands clusters <strong>de</strong> la i-ème couleur <strong>et</strong> donc <strong>de</strong>s long chemins<br />
<strong>de</strong> faible temps <strong>de</strong> parcours.<br />
Par exemple, si p i dépasse le seuil critique <strong>de</strong> percolation <strong>de</strong> Z d par site, il va y avoir un cluster<br />
inni <strong>de</strong> couleur i <strong>et</strong> dans ce cas, on pourra avoir <strong>de</strong>s chemins arbitrairement grands <strong>de</strong> très faible<br />
temps <strong>de</strong> parcours.<br />
25<br />
□
La preuve du théorème 2.2.3 suggère un résultat intéressant que nous reformulons ici.<br />
Proposition 2.2.4 Soit N k la longueur d'une route minimale 2 <strong>de</strong> 0 à kε 1 . Alors la quantité<br />
lim sup<br />
k→∞<br />
est uniformément bornée au voisinage <strong>de</strong> tout point p ∈ P (S ) tel que |p| < 1 λ.<br />
Preuve. Soit p ∈ P (S ) tel que |p| < 1 λ . La majoration que l'on a obtenue pour P(N k<br />
> nk) dans l'un <strong>de</strong>s<br />
( <strong>de</strong>ux cas <strong>de</strong> la preuve du théorème 2.2.3 prouve qu'il existe un n ∈ N <strong>et</strong> un voisinage <strong>de</strong> p sur lequel la série <strong>de</strong>s<br />
P(Nk > nk) ) converge, donc en appliquant le lemme <strong>de</strong> Borel-Cantelli, on obtient que, sur ce voisinage, p.s.,<br />
k≥1<br />
pour k assez grand,<br />
N k ≤ nk.<br />
Ceci implique bien que<br />
est uniformément borné au voisinage <strong>de</strong> p.<br />
lim sup<br />
k→∞<br />
N k<br />
k<br />
N k<br />
k<br />
□<br />
2.3 Critère <strong>de</strong> distinction entre les cas µ = 0 <strong>et</strong> µ > 0<br />
2.3.1 Résultats préliminaires<br />
Pour alléger les notations, notons à partir <strong>de</strong> maintenant simplement p c pour p c (Z d , site). Nous<br />
allons voir au cours <strong>de</strong> c<strong>et</strong>te section quelques résultats préliminaires en vue d'établir le théorème<br />
2.3.6 à la section suivante.<br />
Commençons par énoncer sans démonstration (voir Cox Gandolfi Griffin Kesten [4] pour la<br />
preuve <strong>de</strong> ce théorème) un théorème dû à J. Theodore Cox, Alberto Gandolfi, Philip S. Griffin,<br />
<strong>et</strong> Harry Kesten.<br />
Dénition 2.3.1 On appelle animal un sous-ensemble ni ξ <strong>de</strong> Z d contenant l'origine 0 <strong>et</strong> tel<br />
que le graphe (<br />
ξ,<br />
{<br />
{u, v} ∈ E d | u, v ∈ ξ })<br />
soit connexe.<br />
0<br />
Figure 2.4 Exemple d'animal (l'animal est en rouge, le fond orange ne sert qu'à le faire ressortir)<br />
Pour tout l ∈ N ∗ , notons Ξ(l) l'ensemble <strong>de</strong>s animaux <strong>de</strong> taille l,<br />
Ξ(l) := {ξ animal | |ξ| = l}. (2.5)<br />
2. dénie au cours <strong>de</strong> la preuve du théorème 2.2.3 par l'équation (2.3).<br />
26
Notons encore Ξ l'ensemble <strong>de</strong> tous les animaux,<br />
Ξ := ⋃<br />
l∈N ∗ Ξ(l).<br />
On se donne une famille (Z u ) u∈Z d <strong>de</strong> v.a. i.i.d. positives, <strong>et</strong> on s'intéresse aux animaux gourmands<br />
qui, pour une taille xée, maximisent la quantité<br />
∑<br />
Z u ,<br />
u∈ξ<br />
c'est-à-dire qu'on regar<strong>de</strong> les animaux qui, pour une taille donnée, mangent le plus, si on considère<br />
les variables Z u comme une quantité <strong>de</strong> nourriture.<br />
Donnons une version simpliée du théorème :<br />
Théorème 2.3.2 (<strong>de</strong> Cox Gandolfi Griffin Kesten) Soit (Z u ) u∈Z d une famille <strong>de</strong> v.a.<br />
positives i.i.d. telle qu'il existe ε > 0 tel que<br />
Alors, p.s.,<br />
lim sup<br />
l→∞<br />
E [ Z d+ε<br />
u<br />
1<br />
l<br />
sup<br />
]<br />
< ∞.<br />
ξ∈Ξ(l)<br />
u∈ξ<br />
∑<br />
Z u < ∞.<br />
Remarque. Dans Cox Gandolfi Griffin Kesten [4], les hypothèses sont allégées, mais c<strong>et</strong>te<br />
version sera susante pour ce mémoire.<br />
Nous allons, à l'ai<strong>de</strong> <strong>de</strong> ce théorème, démontrer un théorème similaire pour les clusters <strong>de</strong> la<br />
percolation. Commençons tout d'abord par <strong>de</strong>ux lemmes <strong>de</strong> théorie <strong>de</strong>s graphes.<br />
Lemme 2.3.3 Soit, pour tout w ∈ Z d , un sous-ensemble ξ(w) <strong>de</strong> Z d vi<strong>de</strong>, ou alors contenant w <strong>et</strong><br />
tel que le graphe (<br />
ξ(w),<br />
{<br />
{u, v} ∈ E d | u, v ∈ ξ(w) })<br />
soit connexe (ξ(w) n'est a priori pas supposé ni).<br />
Soit encore une application z : Z d → Z d telle que pour tout u ∈ Z d , z(u) est tel que<br />
z(u) = u ou u ∈ ξ ( z(u) ) .<br />
Alors, pour tout ξ ∈ Ξ, il existe ξ ′ ∈ Ξ tel que ξ ⊆ ξ ′ <strong>et</strong><br />
1<br />
|ξ|<br />
∑<br />
u∈ξ<br />
|ξ ( z(u) ) | ≤ 2<br />
|ξ ′ |<br />
∑<br />
u ′ ∈ξ ′ |ξ(u ′ )| 2 .<br />
Preuve. S'il existe u 0 ∈ Z d tel que |ξ(u 0 )| = ∞, alors il sut <strong>de</strong> prendre<br />
ξ ′ := ξ ∪ {u 0 }.<br />
Sinon, pour tout u ∈ Z d , |ξ(u)| < ∞, c'est-à-dire<br />
Posons<br />
ξ(u) ∈ (u + Ξ) ∪ {∅}.<br />
A := 1<br />
|ξ|<br />
∑<br />
|ξ ( z(u) ) |.<br />
u∈ξ<br />
C'est la taille moyenne <strong>de</strong>s ξ ( z(u) ) pour u ∈ ξ. On va alors grossir ξ en lui rajoutant les points z(u) pour lesquels<br />
|ξ ( z(u) ) | est grand : soit<br />
<strong>et</strong><br />
{<br />
˜ξ := u ∈ ξ | |ξ ( z(u) ) | ≥ A }<br />
,<br />
2<br />
⎛<br />
⎞<br />
ξ ′ := ξ ∪ ⎝ ⋃ ξ ( z(u) ) ⎠ .<br />
u∈˜ξ<br />
27
Si u ∈ ˜ξ <strong>et</strong> ξ ( z(u) ) ≠ ∅ (ce qui arrive nécessairement si A ≠ 0), alors u ∈ ξ ( z(u) ) , donc<br />
<strong>et</strong> comme ξ ∈ Ξ <strong>et</strong> |˜ξ| < ∞,<br />
ξ ∩ ξ ( z(u) ) ≠ ∅,<br />
ξ ′ ∈ Ξ.<br />
Pour v ∈ ξ ′ \ξ, il existe u ∈ ˜ξ tel que v ∈ ξ ( z(u) ) . Posons z ′ (v) := z(u). Ainsi z ′ (v) ∈ ξ ( z(u) ) ⊆ ξ ′ <strong>et</strong><br />
Pour v ∈ ˜ξ, posons simplement z ′ (v) = z(v) ∈ ξ ′ .<br />
Dans tous les cas,<br />
ξ ( z ′ (v) ) ≥ A 2 .<br />
v ∈ ξ ( z ′ (v) ) ,<br />
<strong>et</strong> donc, pour u ′ ∈ ξ ′ , {<br />
v ∈ (ξ ′ \ξ) ∪ ˜ξ, z ′ (v) = u ′} ⊆ ξ(u ′ ).<br />
Ainsi,<br />
∑<br />
|ξ(u ′ )| 2 ≥ ∑<br />
u ′ ∈ξ ′<br />
{<br />
|ξ(u ′ )| ∣ v ∈ (ξ ′ \ξ) ∪ ˜ξ, z ′ (v) = u ′}∣ ∣ u ′ ∈ξ ′<br />
= ∑ ∑<br />
|ξ ( z ′ (v) ) |<br />
u ′ ∈ξ ′ v∈(ξ ′ \ξ)∪˜ξ, z ′ (v)=u ′<br />
∑<br />
=<br />
|ξ ( z ′ (v) ) |<br />
=<br />
v∈(ξ ′ \ξ)∪˜ξ<br />
∑<br />
|ξ ( z ′ (v) ) | + ∑ |ξ ( z(v) ) |<br />
v∈ξ ′<br />
v∈(ξ ′ \ξ)<br />
∑<br />
= |ξ ( z ′ (v) ) | + ∑ |ξ ( z(v) ) | −<br />
∑<br />
|ξ ( z(v) ) |<br />
v∈(ξ ′ } {{ }<br />
} {{ }<br />
\ξ)<br />
v∈ξ<br />
≥ A v∈(ξ\˜ξ)<br />
} {{ }<br />
≤<br />
2<br />
A 2<br />
=A|ξ|<br />
≥ A ( (|ξ ′ | − |ξ| ) ( ))<br />
+ 2|ξ| − |ξ| − |˜ξ|<br />
2<br />
ce qui est l'inégalité voulue.<br />
≥ A 2 |ξ′ |,<br />
□<br />
Lemme 2.3.4 Soit, pour tout w ∈ Z d , un sous-ensemble ξ(w) <strong>de</strong> Z d vi<strong>de</strong>, ou alors contenant w <strong>et</strong><br />
tel que le graphe (<br />
ξ(w),<br />
{<br />
{u, v} ∈ E d | u, v ∈ ξ(w) })<br />
soit connexe.<br />
Si pour u ∈ Z d , on dénit, avec la convention sup ∅ = 0,<br />
alors, pour tout ξ ∈ Ξ, on a<br />
U(u) := sup { |ξ(v)| | v ∈ Z d , u ∈ ξ(v) } ,<br />
1 ∑<br />
1 ∑<br />
U(u) ≤ 2 sup<br />
|ξ|<br />
ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |<br />
u∈ξ<br />
u ′ ∈ξ ′ |ξ(u ′ )| 2 . (2.6)<br />
Preuve. Si le terme <strong>de</strong> gauche <strong>de</strong> (2.6) est inni, cela signie qu'il existe u 0 ∈ Z d tel que U(u 0 ) = ∞ vu que la<br />
somme est nie. Dans ce cas<br />
sup |ξ(v)| = ∞,<br />
v∈Z<br />
<strong>et</strong> le membre <strong>de</strong> droite <strong>de</strong> (2.6) est aussi inni, comme d on peut le voir par exemple en se restreignant aux animaux<br />
ξ ∪ {v}, v parcourant Z d .<br />
Sinon, pour tout u, le supremum dénissant U(u) est atteint, il existe donc z(u) ∈ Z d tel que u ∈ ξ ( z(u) ) <strong>et</strong><br />
U(u) = |ξ ( z(u) ) |.<br />
On dénit ainsi une application z qui vérie les hypothèses <strong>de</strong> lemme 2.3.3. On a donc<br />
ce qui est l'inégalité voulue.<br />
1<br />
|ξ|<br />
∑<br />
u∈ξ<br />
|ξ ( z(u) ) 1<br />
| ≤ 2 sup<br />
ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |<br />
Passons maintenant au théorème principal <strong>de</strong> c<strong>et</strong>te section.<br />
28<br />
∑<br />
u ′ ∈ξ ′ |ξ(u ′ )| 2 ,<br />
□
Théorème 2.3.5 Considérons sur Z d un modèle <strong>de</strong> percolation par site <strong>de</strong> paramètre p < p c . Pour<br />
tout u ∈ Z d , notons C(u) le cluster (<strong>de</strong> percolation 3 ) du point u.<br />
Alors, p.s.,<br />
lim sup<br />
l→∞<br />
1<br />
l<br />
sup<br />
ξ∈Ξ(l)<br />
u∈ξ<br />
∑<br />
|C(u)| < ∞.<br />
Preuve. On ne peut pas appliquer directement le théorème 2.3.2 car les v.a. |C(u)|, u ∈ Z d ne sont bien sûr pas<br />
indépendantes. Nous allons les majorer stochastiquement 4 .<br />
1) On considère une famille ( ˜C(u) ) <strong>de</strong> v.a. i.i.d. <strong>de</strong> même loi que C(0). Posons, pour tout u,<br />
<strong>de</strong> sorte que ξ(u) (loi) = C(u).<br />
Z d ,<br />
ξ(u) = u + ˜C(u),<br />
On va construire algorithmiquement les clusters <strong>de</strong> percolation. On commence par ordonner <strong>de</strong> façon déterministe<br />
Z d = {u i , i ∈ N}.<br />
On prend Ĉ(u 1) := ξ(u 1 ) <strong>et</strong> on procè<strong>de</strong> par récurrence. Si on a déjà Ĉ(u 1), Ĉ(u 2), ..., Ĉ(u n), on prend Ĉ(u n+1)<br />
comme suit :<br />
s'il existe i ∈ 1, n tel que u n+1 ∈ Ĉ(u i), on dénit<br />
Ĉ(u n+1 ) := Ĉ(u i),<br />
si u n+1 ∈ ∂ ˆB n (voir gure 1.6 pour la dénition <strong>de</strong> la frontière), avec ˆB n :=<br />
( ⋃n<br />
i=1 Ĉ(u i))<br />
, on dénit<br />
Ĉ(u n+1 ) := ∅,<br />
sinon, en appelant ˆB n := ˆB n ∪ ∂ ˆB n , on prend pour Ĉ(u n+1) le cluster <strong>de</strong> u n+1 dans<br />
ξ(u n+1 )\ ˆB n.<br />
1<br />
0<br />
u n+1<br />
(u n+1 )<br />
Figure 2.5 Dénition <strong>de</strong> Ĉ(u n+1) (en jaune)<br />
3. Voir (1.21) ou (1.22).<br />
4. Voir Ge<strong>org</strong>ii Häggström Maes [7] pour <strong>de</strong>s rappels sur les dominations stochastiques.<br />
29
Ceci dénit bien les clusters d'un modèle <strong>de</strong> percolation par site sur Z d : on vérie par récurrence que pour tout<br />
n ∈ N ∗ ,<br />
(Ĉ(u1 ), Ĉ(u 2), . . . , Ĉ(u n)<br />
) (loi)<br />
=<br />
(<br />
)<br />
C(u 1 ), C(u 2 ), . . . , C(u n ) .<br />
En e<strong>et</strong>,<br />
Ĉ(u 1 ) (loi) = C(u 1 ),<br />
<strong>et</strong>, conditionnellement à (C(u 1 ), C(u 2 ), . . . , C(u n)), trois cas sont possibles :<br />
s'il existe i ∈ 1, n tel que u n+1 ∈ C(u i ), c'est-à-dire u i u n+1 , on a<br />
C(u n+1 ) = C(u i ),<br />
si u n+1 ∈ ∂B n , avec B n := (⋃ n<br />
i=1 C(u i) ) , alors u n+1 ne peut pas être ouvert car sinon il serait relié à un point<br />
<strong>de</strong> B n donc à un C(u i ) pour un certain i ∈ 1, n. On a donc<br />
C(u n+1 ) := ∅,<br />
enn, si u n+1 /∈ B n := B n ∪ ∂B n , la loi <strong>de</strong> C(u n+1 ) est celle du cluster <strong>de</strong> percolation <strong>de</strong> u n+1 sur Z d \B n ,<br />
donc C(u n+1 ) a la loi du cluster <strong>de</strong> u n+1 <strong>de</strong><br />
ξ(u n+1 )\B n .<br />
On obtient ainsi que la famille (Ĉ(u)) u∈Z d a bien la loi <strong>de</strong>s clusters d'une percolation par site sur Zd .<br />
2) On va pouvoir maintenant majorer stochastiquement leur cardinal. Grâce à c<strong>et</strong>te construction, on a que pour<br />
tout u ∈ Z d , il existe v ∈ Z d tel que<br />
Ĉ(u) ⊆ ξ(v) <strong>et</strong> u ∈ ξ(v).<br />
Donc, pour tout u ∈ Z d ,<br />
En appelant<br />
}<br />
{|ξ(v)| |Ĉ(u)| ≤ sup | v ∈ Z d , u ∈ ξ(v) .<br />
{<br />
}<br />
U(u) := sup |ξ(v)| | v ∈ Z d , u ∈ ξ(v) ,<br />
on vient <strong>de</strong> montrer la majoration stochastique<br />
(<br />
( )<br />
|C(u)|<br />
)u∈Z ≼ U(u)<br />
d u∈Zd. (2.7)<br />
3) Les ξ(u) vérient pour tout ω les hypothèses du lemme 2.3.4 (en fait, comme p < p c, on a même que p.s.<br />
ξ(u) ∈ (u + Ξ) ∪ {∅}). L'équation (2.6) montre que, pour tout ξ ∈ Ξ, on a p.s.<br />
1<br />
|ξ|<br />
Compte tenu <strong>de</strong> la domination stochastique (2.7), on a<br />
lim sup<br />
l→∞<br />
1<br />
l<br />
∑<br />
sup<br />
ξ∈Ξ(l)<br />
u∈ξ<br />
∑<br />
1 ∑<br />
U(u) ≤ 2 sup<br />
u∈ξ<br />
ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |ξ(u ′ )| 2 .<br />
|<br />
u ′ ∈ξ ′<br />
1 ∑<br />
sup |C(u)|<br />
ξ∈Ξ(l) |ξ|<br />
u∈ξ<br />
1 ∑<br />
≤ lim sup sup U(u)<br />
l→∞ ξ∈Ξ(l) |ξ|<br />
u∈ξ<br />
1 ∑<br />
≤ 2 lim sup sup<br />
l→∞ ξ∈Ξ(l), ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |ξ(u ′ )| 2<br />
|<br />
u ′ ∈ξ ′<br />
1 ∑<br />
= 2 lim sup sup<br />
l→∞ ξ ′ ∈Ξ, |ξ ′ |≥l |ξ ′ |ξ(u ′ )| 2<br />
|<br />
u ′ ∈ξ ′<br />
= 2 lim sup<br />
1 ∑<br />
sup<br />
l→∞ k≥l ξ ′ ∈Ξ, |ξ ′ |≥k |ξ ′ |ξ(u ′ )| 2<br />
|<br />
u ′ ∈ξ ′<br />
= 2 lim sup 1 ∑<br />
sup<br />
l→∞ k≥l ξ ′ ∈Ξ(k) |ξ ′ |ξ(u ′ )| 2<br />
|<br />
u ′ ∈ξ ′<br />
1 ∑<br />
= 2 lim sup sup |ξ(u ′ )| 2<br />
l→∞ ξ ′ ∈Ξ(l) l<br />
u ′ ∈ξ ′<br />
1 ∑<br />
= 2 lim sup sup |ξ(u)| 2 .<br />
l→∞ l ξ∈Ξ(l)<br />
u∈ξ<br />
|C(u)| = lim sup<br />
l→∞<br />
Les variables ( |ξ(u)| 2) sont i.i.d. <strong>et</strong> ont <strong>de</strong>s moments exponentiels <strong>de</strong> tout ordre d'après le théorème 1.5.4<br />
u∈Z<br />
puisque d p < p c , donc le théorème 2.3.2 s'applique <strong>et</strong> on obtient le résultat désiré.<br />
□<br />
30
2.3.2 Théorème<br />
Nous sommes maintenant en mesure <strong>de</strong> démontrer le théorème.<br />
Théorème 2.3.6 On a l'équivalence<br />
µ(p) > 0 si <strong>et</strong> seulement si |p| < p c .<br />
Preuve. 1) Si |p| > p c , alors il existe i ∈ 1, s tel que p i > p c donc il existe p.s. un cluster inni <strong>de</strong> couleur s i<br />
d'après le théorème 1.5.3. Ainsi, p.s. pour n assez grand, B(n) n'est plus bornée. Dès que B(n) contient un point du<br />
cluster inni (ce qui arrive nécessairement car nB |·| ⊆ B(n)) elle contient tout le cluster inni.<br />
On est alors dans le cas ii. du théorème 2.1.1 <strong>de</strong> forme asymptotique, c'est-à-dire µ = 0.<br />
2) Maintenant, si |p| = p c, il existe i ∈ 1, s tel que p i = p c (bien sûr |p| = max i∈1,s p i compte tenu <strong>de</strong> la<br />
condition ∑ i∈1,s p i = 1).<br />
Soit<br />
X ∼ (p) Zd .<br />
Dénissons, pour tout u ∈ Z d ,<br />
˜X u := 1 {Xu ≠s i }.<br />
Ainsi, les ˜X u sont <strong>de</strong>s v.a. <strong>de</strong> Bernoulli i.i.d. <strong>de</strong> paramètre 1 − p i = 1 − p c. Notons ˜µ la constante <strong>de</strong> temps<br />
associée.<br />
Pour tout u, v ∈ Z d ,<br />
T (u, v) ≤ 2 ˜T (u, v),<br />
où il s'agit <strong>de</strong>s temps <strong>de</strong> parcours associés respectivement à X <strong>et</strong><br />
C<strong>et</strong>te majoration provient du fait que sur un chemin Γ, si <strong>de</strong>ux ˜X.<br />
points sont <strong>de</strong> couleur s i <strong>et</strong> tels qu'il n'y a pas<br />
d'autre point <strong>de</strong> couleur s i entre eux, alors le temps entre ces <strong>de</strong>ux points est majoré par le nombre <strong>de</strong> points entre<br />
eux plus un, donc par <strong>de</strong>ux fois ce nombre (voir gure 2.6).<br />
v<br />
s i<br />
u<br />
Figure 2.6 Majoration <strong>de</strong> T par 2 ˜T<br />
Ainsi, on a aussi<br />
µ ≤ 2˜µ. (2.8)<br />
Or P( ˜X u = 0) = p c ≥ p c, donc ˜µ = 0 d'après le théorème 1.5.8 <strong>et</strong> donc µ = 0.<br />
On aurait pu mener le même raisonnement si |p| ≥ p c mais l'argument donné en 1) est plus simple.<br />
3) Si |p| < p c, on va montrer que µ > 0. On se ramène au cas s < ∞. Si s = ∞, il existe S tel que ∑ i≥S p i < p c,<br />
on considère alors que toutes les couleurs s i , i ≥ S ne sont qu'une seule <strong>et</strong> même couleur s S . Ceci a pour e<strong>et</strong> <strong>de</strong><br />
diminuer les temps <strong>de</strong> parcours, donc aussi la constante <strong>de</strong> temps.<br />
Commençons par minorer µ. Si Γ est un chemin, notons Γ ∗ l'ensemble <strong>de</strong>s sites par lesquels il passe. Alors T (Γ)<br />
est le nombre <strong>de</strong> changements <strong>de</strong> couleur le long <strong>de</strong> Γ, donc est supérieur au nombre <strong>de</strong> clusters que Γ ∗ rencontre<br />
moins un : chaque fois que Γ rencontre un nouveau cluster, T augmente d'un, sauf pour le cluster dans lequel Γ<br />
commence (voir gure 2.7).<br />
Donc, en notant encore C (u) le cluster du point u ∈ Z d , <strong>et</strong><br />
C := {C cluster | C ∩ Γ ∗ ≠ ∅},<br />
31
u<br />
(u)<br />
Figure 2.7 Minoration <strong>de</strong> µ<br />
alors en remarquant que {C ∩ Γ ∗ , C ∈ C} forme une partition <strong>de</strong> Γ ∗ , on a<br />
Ainsi,<br />
1 + T (0, kε 1 )<br />
k<br />
1 + T (Γ) ≥ |C|<br />
= ∑ C ∈C<br />
1<br />
= ∑ ∑ 1<br />
|C ∩ Γ ∗ |<br />
C ∈C u∈C ∩Γ ∗<br />
= ∑ ∑ 1<br />
|C (u) ∩ Γ ∗ |<br />
C ∈C u∈C ∩Γ ∗<br />
= ∑ 1<br />
|C (u) ∩ Γ ∗ | .<br />
u∈Γ ∗<br />
1 + T (Γ)<br />
= inf<br />
0kε Γ k<br />
1<br />
∑<br />
≥<br />
1<br />
inf<br />
0kε Γ k<br />
1<br />
1<br />
|C (u) ∩ Γ ∗ |<br />
u∈Γ ∗ ∑<br />
1<br />
1<br />
≥ inf<br />
0kε Γ |Γ ∗ | |C (u) ∩ Γ ∗ |<br />
1 u∈Γ ∗<br />
⎛<br />
⎞−1<br />
≥ inf ⎝ 1 ∑<br />
0kε Γ |Γ ∗ |C (u) ∩ Γ ∗ | ⎠<br />
|<br />
1 u∈Γ ∗<br />
⎛<br />
⎞−1<br />
≥ inf ⎝ 1 ∑<br />
0kε Γ |Γ ∗ |C (u)| ⎠<br />
|<br />
1 u∈Γ ∗<br />
⎛<br />
⎞−1<br />
≥ inf ⎝ 1 ∑<br />
Γ<br />
|Γ ∗ |C (u)| ⎠<br />
|<br />
⌢<br />
0·, |Γ ∗ u∈Γ<br />
|≥k<br />
∗ ⎛<br />
⎞−1<br />
= inf inf ⎝ 1 ∑<br />
|C (u)| ⎠ .<br />
l≥k Γ<br />
l<br />
⌢<br />
0·, |Γ ∗ u∈Γ<br />
|=l<br />
∗<br />
L'inégalité <strong>de</strong> la troisième ligne provient du fait que si 0 Γ kε 1 , alors |Γ ∗ | ≥ k, celle <strong>de</strong> la quatrième est<br />
Γ<br />
l'inégalité <strong>de</strong> Jensen pour la fonction concave x ↦→ 1 . On rappelle que la notation ⌢<br />
0<br />
x · signie que Γ est un chemin<br />
auto-évitant issu <strong>de</strong> 0.<br />
En passant à la limite p.s. k → ∞, il vient,<br />
⎛<br />
⎞−1<br />
µ ≥ ⎜<br />
1 ∑<br />
⎝lim sup sup<br />
|C (u)| ⎟<br />
l→∞ Γ l<br />
⎠ .<br />
⌢<br />
0·, |Γ ∗ u∈Γ ∗ |=l<br />
32
Il sut donc <strong>de</strong> montrer que, p.s.<br />
Si on note, pour u ∈ Z d ,<br />
on a pour tout u ∈ Z d ,<br />
lim sup<br />
l→∞<br />
où la notation ⊔ désigne l'union disjointe.<br />
Ainsi,<br />
lim sup<br />
l→∞<br />
sup<br />
Γ<br />
⌢<br />
0·, |Γ ∗ |=l<br />
1<br />
l<br />
sup<br />
Γ<br />
⌢<br />
0·, |Γ ∗ |=l<br />
1<br />
l<br />
∑<br />
u∈Γ ∗ |C (u)| < ∞.<br />
{ C (u)<br />
C i<br />
si X<br />
(u) :=<br />
u = s i<br />
,<br />
∅ si X u ≠ s i<br />
∑<br />
C (u) =<br />
u∈Γ ∗ |C (u)| =<br />
s⊔<br />
C i ,<br />
i=1<br />
s∑<br />
i=1<br />
lim sup<br />
l→∞<br />
sup<br />
Γ<br />
⌢<br />
0·, |Γ ∗ |=l<br />
1<br />
l<br />
∑<br />
u∈Γ ∗ |C i (u)|.<br />
Étant donné que l'on s'est ramené au cas s < ∞, il s'agit donc <strong>de</strong> montrer que, pour tout i ∈ 1, s, p.s.<br />
Or<br />
lim sup<br />
l→∞<br />
lim sup<br />
l→∞<br />
sup<br />
Γ<br />
⌢<br />
0·, |Γ ∗ |=l<br />
sup<br />
Γ<br />
⌢<br />
0·, |Γ ∗ |=l<br />
1<br />
l<br />
∑<br />
1<br />
l<br />
∑<br />
u∈Γ ∗ |C i (u)| < ∞.<br />
|C i (u)| ≤ lim sup<br />
u∈Γ ∗ l→∞<br />
sup<br />
ξ∈Ξ(l)<br />
1<br />
l<br />
∑<br />
|C i (u)|<br />
où l'ensemble Ξ(l) a été déni précé<strong>de</strong>mment par (2.5) : pour tout chemin Γ auto-évitant issu <strong>de</strong> 0, Γ ∗ est bien sûr<br />
un animal.<br />
Mais les C i (u), u ∈ Z d sont les clusters d'une percolation (par site) <strong>de</strong> paramètre p i < p c (c.f. (1.22)), le théorème<br />
2.3.5 perm<strong>et</strong> donc <strong>de</strong> conclure que, pour tout i ∈ 1, s,<br />
ce qui achève la preuve <strong>de</strong> ce théorème.<br />
lim sup<br />
l→∞<br />
2.4 <strong>Coloriages</strong> dépendants<br />
sup<br />
ξ∈Ξ(l)<br />
1<br />
l<br />
∑<br />
|C i (u)| < ∞,<br />
u∈ξ<br />
On cherche à étendre le résultat du théorème 2.3.6 à <strong>de</strong>s coloriages aléatoires dépendants. On<br />
considère toujours une famille (X u ) u∈Z d <strong>de</strong> variables aléatoires à valeurs dans S , mais au lieu <strong>de</strong><br />
les supposer i.i.d., on suppose simplement que c<strong>et</strong>te famille a une loi invariante par translation <strong>et</strong><br />
qu'elle est ergodique.<br />
On dénit encore les temps d'arêtes par la relation<br />
t ({u, v}) = 1 {Xu≠X v}.<br />
Ces temps d'arête héritent <strong>de</strong>s propriétés d'invariance par translation <strong>et</strong> d'ergodicité <strong>de</strong> la famille<br />
(X u ) u∈Z d, <strong>et</strong> le théorème 1.4.1 s'applique toujours. En revanche, on n'a pas en général une<br />
unique constante <strong>de</strong> temps µ comme c'était le cas précé<strong>de</strong>mment.<br />
On connaît néanmoins une condition garantissant qu'on se trouve dans le cas i. du théorème <strong>de</strong><br />
forme asymptotique, c'est-à-dire dans le cas où la forme asymptotique n'est pas R d tout entier.<br />
Pour u ∈ Z d , notons<br />
G u := σ ( X v , v ∈ Z d \{u} ) ,<br />
la tribu <strong>de</strong>s événements qui ne dépen<strong>de</strong>nt pas <strong>de</strong> ce qu'il se passe en u.<br />
Théorème 2.4.1 Pour que toutes les constantes <strong>de</strong> temps soient strictement positives (cas i. du<br />
théorème 1.4.1), il sut que<br />
sup P(X 0 = s i | G 0 ) < p c .<br />
i∈1,s<br />
Remarque. En notant p la loi <strong>de</strong>s X u conditionnellement à G u (qui ne dépend pas <strong>de</strong> u ∈ Z d<br />
par invariance par translation), on r<strong>et</strong>rouve la même condition que pour le théorème 2.3.6, à savoir<br />
|p| < p c .<br />
u∈ξ<br />
□<br />
33
Preuve. On procè<strong>de</strong> <strong>de</strong> la même manière qu'au cas 3) <strong>de</strong> la preuve du théorème 2.3.6. On commence par se<br />
ramener au cas s < ∞ puis on mène les mêmes calculs <strong>et</strong> on est amené à montrer que pour tout i ∈ 1, s,<br />
lim sup<br />
l→∞<br />
sup<br />
ξ∈Ξ(l)<br />
1<br />
l<br />
∑<br />
|C i (u)| < ∞.<br />
u∈ξ<br />
Les C i (u) ne sont plus les clusters d'une percolation (indépendante) par site. Fixons i ∈ 1, s <strong>et</strong> dénissons les<br />
v.a.<br />
N u := 1 {Xu =s i },<br />
<strong>de</strong> sorte que les C i (u) sont les clusters <strong>de</strong> la percolation dépendante (N u) u∈Z d. Soit encore une famille (Ñu) u∈Z d <strong>de</strong><br />
v.a. i.i.d. <strong>de</strong> loi <strong>de</strong> Bernoulli <strong>de</strong> paramètre |p|.<br />
Nous allons montrer la domination stochastique 4 suivante :<br />
(N u ) u∈Z d ≼ (Ñu) u∈Z d. (2.9)<br />
Pour cela, nous allons montrer que pour toute fonction f croissante sur {0, 1} Ed ,<br />
E<br />
[<br />
f<br />
( (<br />
N u<br />
)u∈Z d )]<br />
≤ E<br />
Pour toute fonction g croissante sur {0, 1}, <strong>et</strong> u ∈ Z d , on a<br />
Donc si f est <strong>de</strong> la forme<br />
E [g(N u ) | G u ] = g(0) P(N u = 0 | G u ) + g(1) P(N u = 1 | G u )<br />
[<br />
f<br />
= g(0) + (g(1) − g(0)) P(X u = s i | G u )<br />
} {{ }<br />
≥0<br />
≤<br />
g(0) + (g(1) − g(0)) |p|<br />
= g(0) (1 − |p|) + g(1) |p|<br />
[ )]<br />
= E g<br />
(Ñu .<br />
f ( (ω(u)) u∈Z d)<br />
= f1 (ω(u 1 ))f 2 (ω(u 2 )) . . . f m(ω(u m)),<br />
avec les u i , i ∈ 1, m, distincts, alors les f i , i ∈ 1, m, sont croissantes sur {0, 1} <strong>et</strong><br />
E<br />
[<br />
f<br />
( (<br />
N u<br />
)u∈Z d )]<br />
= E [f 1 (N u1 )f 2 (N u2 ) . . . f m (N um )]<br />
= E [E [f 1 (N u1 )f 2 (N u2 ) . . . f m (N um ) | G u1 ]]<br />
= E [E [f 1 (N u1 ) | G u1 ] f 2 (N u2 ) . . . f m (N um )]<br />
.<br />
( (Ñu<br />
)u∈Z d )]<br />
. (2.10)<br />
= E [E [f 1 (N u1 ) | G u1 ] E [f 2 (N u2 ) | G u2 ] . . . E [f m (N um ) | G um ]]<br />
[<br />
)]<br />
)]<br />
)]]<br />
≤ E E<br />
[f 1<br />
(Ñu1 E<br />
[f 2<br />
(Ñu2 . . . E<br />
[f m<br />
(Ñum<br />
) )<br />
)]<br />
= E<br />
[f 1<br />
(Ñu1 f 2<br />
(Ñu2 . . . f m<br />
(Ñum<br />
[ ( )]<br />
= E f<br />
(Ñu .<br />
)u∈Z d<br />
On a utilisé dans l'ordre le fait que pour i ≠ j, N ui est G uj -mesurable, l'inégalité précé<strong>de</strong>nte, <strong>et</strong> le fait que les<br />
Ñ u , u ∈ Z d , sont indépendantes. On conclut que l'inégalité (2.10) est vraie pour toute fonction croissante sur {0, 1} Ed<br />
à l'ai<strong>de</strong> du lemme <strong>de</strong> classe monotone.<br />
La domination stochastique (2.9) implique la suivante :<br />
(<br />
|C i (u)|<br />
( )<br />
)u∈Z ≼ |C(u)|<br />
d<br />
u∈Z d,<br />
où les C(u), u ∈ Z d , sont les clusters d'une percolation (indépendante, par site) <strong>de</strong> paramètre |p| < p c . En e<strong>et</strong>, il<br />
existe une fonction croissante déterministe ϕ telle que<br />
On a alors<br />
grâce au théorème 2.3.5.<br />
(<br />
|C i (u)|<br />
)<br />
= ϕ ( )<br />
(N u )<br />
u∈Z d u∈Z d<br />
lim sup<br />
l→∞<br />
sup<br />
ξ∈Ξ(l)<br />
1<br />
l<br />
∑<br />
u∈ξ<br />
<strong>et</strong><br />
|C i (u)| ≤ lim sup<br />
l→∞<br />
(<br />
( )<br />
|C(u)|<br />
)u∈Z = ϕ (Ñu) d u∈Z d .<br />
sup<br />
ξ∈Ξ(l)<br />
1<br />
l<br />
∑<br />
|C(u)| < ∞,<br />
u∈ξ<br />
□<br />
34
2.5 Quelques simulations<br />
Dans le cas général, il n'est pas toujours aisé <strong>de</strong> calculer les T (0, u), pour u ∈ Z d , surtout dans<br />
le cas où les temps d'arête ne sont pas minorés par une constante strictement positive (comme c'est<br />
le cas pour les coloriages aléatoires), car il faut considérer un inmum sur un ensemble inni. L'idée<br />
pour simuler B(t ′ ) à partir <strong>de</strong> B(t), t < t ′ est <strong>de</strong> faire grossir B(t) en regardant les points que l'on<br />
peut atteindre à partir <strong>de</strong> B(t) en restant en <strong>de</strong>ssous <strong>de</strong> t ′ . En procédant ainsi, on obtient à chaque<br />
étape un majorant <strong>de</strong>s T (0, u) pour les u ∈ B(t).<br />
C<strong>et</strong>te métho<strong>de</strong> impose <strong>de</strong> considérer beaucoup <strong>de</strong> chemins <strong>et</strong> donc <strong>de</strong> faire beaucoup <strong>de</strong> calculs.<br />
Dans le cas <strong>de</strong>s coloriages aléatoires <strong>de</strong> Z 2 , on peut facilement simuler l'évolution <strong>de</strong> B(n), n ∈ N,<br />
à l'ai<strong>de</strong> <strong>de</strong> la proposition 1.2.2, il sut <strong>de</strong> rajouter à B(n) les clusters <strong>de</strong>s points <strong>de</strong> ∂B(n) pour<br />
obtenir B(n + 1).<br />
Sur la gure 2.8, on peut voir une réalisation <strong>de</strong> B(100) (en blanc), ∂B(100) (en noir) sur<br />
−250, 250 2 où les couleurs sont uniformes sur {bleu clair, bleu foncé, viol<strong>et</strong>, jaune}.<br />
250<br />
200<br />
150<br />
100<br />
B(100)<br />
50<br />
0<br />
-50<br />
-100<br />
-150<br />
-200<br />
-250<br />
-250 -200 -150 -100 -50 0 50 100 150 200 250<br />
Figure 2.8 Simulation <strong>de</strong> B(100)<br />
Sur la gure 2.9, on peut voir une réalisation d'un coloriage aléatoire sur −400, 400 2 où les<br />
couleurs sont uniformes sur {bleu, viol<strong>et</strong>, jaune}. Au centre, toutes les B(i + 1)\B(i), i ∈ 0, 99,<br />
sont représentés avec <strong>de</strong>s teintes <strong>de</strong> plus en plus claires. On peut ainsi voir tous les B(i), i ∈ 0, 99,<br />
en regardant les points plus foncés qu'une teinte donnée. Il s'agit, au cadre près, <strong>de</strong> l'illustration <strong>de</strong><br />
la couverture.<br />
Enn, sur la gure 2.10, il s'agit d'un coloriage aléatoire sur Z 2 où s = 4 <strong>et</strong> les couleurs sont<br />
uniformes. On n'a représenté que les B(i + 1)\B(i), i ∈ 0, 299, avec le même procédé que sur la<br />
gure 2.9. On voit la forme asymptotique se <strong>de</strong>ssiner p<strong>et</strong>it à p<strong>et</strong>it.<br />
D'autres simulations sont disponibles sur mon site web 5 , notamment <strong>de</strong>s vidéos représentant<br />
l'évolution <strong>de</strong> B(n).<br />
5. dont l'adresse est : www.eleves.ens.fr/home/b<strong>et</strong>tinel/Fpp.html<br />
35
400<br />
300<br />
200<br />
100<br />
0<br />
-100<br />
-200<br />
-300<br />
-400<br />
-400 -300 -200 -100 0 100 200 300 400<br />
Figure 2.9 Simulation <strong>de</strong> B(0), B(1), ...B(100)<br />
Figure 2.10 Simulation <strong>de</strong> B(0), B(1), ...B(300)<br />
36
Remerciements<br />
Je tiens à remercier chaleureusement Olivier Gar<strong>et</strong> qui m'a proposé ce suj<strong>et</strong> <strong>et</strong> m'a aidé,<br />
conseillé <strong>et</strong> encadré tout au long <strong>de</strong> la rédaction <strong>de</strong> ce mémoire, en particulier au cours <strong>de</strong> l'élaboration<br />
<strong>de</strong> la section 2.2. Je tiens à remercier également Bernard B<strong>et</strong>tinelli, Nicolas Curien, Hugo<br />
Duminil, Thibault Espinasse <strong>et</strong> Adrien Joseph pour leur relecture attentive.<br />
37
Références<br />
[1] Daniel Boivin. First Passage <strong>Percolation</strong> : The Stationary Case. Probability Theory Related<br />
Fields, 86 :491499, 1990.<br />
[2] J. Theodore Cox. The Time Constant of First-Passage <strong>Percolation</strong> on the Square Lattice.<br />
Advances in Applied Probability, 12(4) :864879, 1980.<br />
[3] J. Theodore Cox and Richard Durr<strong>et</strong>t. Some Limit Theorems for <strong>Percolation</strong> Processes<br />
with Necessary and Sucient Conditions. The Annals of Applied Probability, 9(4) :583603,<br />
1981.<br />
[4] J. Theodore Cox, Alberto Gandolfi, Philip S. Griffin, and Harry Kesten. Greedy Lattice<br />
Animals I : Upper Bounds. The Annals of Applied Probability, 3(4) :11511169, 1993.<br />
[5] J. Theodore Cox and Harry Kesten. On the Continuity of the Time Constant of First-Passage<br />
<strong>Percolation</strong>. Journal of Applied Probability, 18(4) :809819, 1981.<br />
[6] Luiz Fontes and Charles M. Newman. First Passage <strong>Percolation</strong> For Random Colorings of<br />
Z d . The Annals of Applied Probability, 3(3) :746762, 1993.<br />
[7] Hans-Otto Ge<strong>org</strong>ii, Olle Häggström, and Christian Maes. The Random Geom<strong>et</strong>ry of Equilibrium<br />
Phases. eprint arXiv : math/9905031, http ://arxiv.<strong>org</strong>/abs/math/9905031, 1999.<br />
[8] Georey R. Grimm<strong>et</strong>t. <strong>Percolation</strong>. New York; Berlin; Paris : Springer, 1989.<br />
[9] C. Douglas Howard. Mo<strong>de</strong>ls of First Passage <strong>Percolation</strong>. In Harry Kesten, editor, Probability<br />
on Discr<strong>et</strong>e Structures, volume 110 of Encyclopaedia of Mathematical Sciences, pages<br />
126173. Berlin; New York; Paris : Springer, 2004.<br />
[10] Harry Kesten. On the Time Constant and Path Length of First-Passage <strong>Percolation</strong>. Advances<br />
in Applied Probability, 12(4) :848863, 1980.<br />
[11] Harry Kesten. Aspects of First Passage <strong>Percolation</strong>. In Paul-Louis Hennequin, editor, École<br />
d'été <strong>de</strong> probabilités <strong>de</strong> Saint-Flour XIV, volume 1180 of Lecture Notes in Mathematics, pages<br />
125264. Berlin; Hei<strong>de</strong>lberg; New York : Springer, 1986.<br />
[12] J.F.C. Kingman. The Ergodic Theory of Subadditive Stochastic Processes. Journal of the<br />
Royal Statistical Soci<strong>et</strong>y. Series B (M<strong>et</strong>hodological), 30(3) :499510, 1968.<br />
[13] Thomas M. Ligg<strong>et</strong>t. An Improved Subadditive Ergodic Theorem. The Annals of Applied<br />
Probability, 13(4) :12791285, 1985.<br />
38