17.11.2013 Views

Percolation de premier passage et Coloriages ... - Normalesup.org

Percolation de premier passage et Coloriages ... - Normalesup.org

Percolation de premier passage et Coloriages ... - Normalesup.org

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong><br />

<strong>et</strong><br />

<strong>Coloriages</strong> aléatoires <strong>de</strong> Z d<br />

Jérémie B<strong>et</strong>tinelli<br />

Avril 2008<br />

Mémoire réalisé sous la direction d'Olivier Gar<strong>et</strong>


Table <strong>de</strong>s matières<br />

Introduction 1<br />

1 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> 2<br />

1.1 Modèle général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />

1.2 <strong>Coloriages</strong> aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

1.2.1 Dénitions <strong>et</strong> notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

1.2.2 Lien avec le modèle général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.3 Constantes <strong>de</strong> temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.3.1 Théorème sous-additif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.3.2 Cadre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.3.3 Constantes <strong>de</strong> temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.4 Forme asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.4.1 Preuve du théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.4.2 Encadrement <strong>de</strong> B 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

1.5 Continuité <strong>de</strong> la constante <strong>de</strong> temps <strong>et</strong> critère <strong>de</strong> distinction dans le cas standard . . 16<br />

1.5.1 <strong>Percolation</strong> classique sur Z d . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

1.5.2 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par arêtes . . . . . . . . . . . . . . . . . . . . 17<br />

1.5.3 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par sites . . . . . . . . . . . . . . . . . . . . . 18<br />

2 Application aux coloriages aléatoires 19<br />

2.1 Rappel <strong>de</strong>s principaux résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.2 Continuité <strong>de</strong> µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.2.1 Restriction aux chemins courts . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.2.2 Continuité <strong>de</strong>s µ n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

2.2.3 Continuité <strong>de</strong> µ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

2.3 Critère <strong>de</strong> distinction entre les cas µ = 0 <strong>et</strong> µ > 0 . . . . . . . . . . . . . . . . . . . . 26<br />

2.3.1 Résultats préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

2.3.2 Théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

2.4 <strong>Coloriages</strong> dépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

2.5 Quelques simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

Références 38


Introduction<br />

Au cours <strong>de</strong> ce mémoire, nous présentons le modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> sur Z d ,<br />

d ≥ 2. Nous supposons que la famille <strong>de</strong>s temps d'arête a une loi invariante par translation <strong>et</strong> est<br />

ergodique (pour les translations). Nous établissons, dans le cas où les temps T (0, u), u ∈ Z d , sont L 1 ,<br />

l'existence <strong>de</strong>s constantes <strong>de</strong> temps, <strong>et</strong> démontrons une version du théorème <strong>de</strong> forme asymptotique<br />

(théorème 1.4.1) en supposant <strong>de</strong> plus que les temps d'arête sont bornés.<br />

Dans un second temps, nous nous intéressons plus particulièrement aux coloriages aléatoires<br />

(indépendants) <strong>de</strong> Z d , d ≥ 2. Nous montrons tout d'abord la continuité <strong>de</strong> la constante <strong>de</strong> temps<br />

en fonction <strong>de</strong> la loi <strong>de</strong>s couleurs quand chaque couleur apparaît avec une probabilité strictement<br />

inférieure à l'inverse <strong>de</strong> la constante <strong>de</strong> connectivité du réseau (théorème 2.2.3).<br />

Ensuite, nous regardons un critère <strong>de</strong> distinction entre les <strong>de</strong>ux cas du théorème <strong>de</strong> forme<br />

asymptotique, à savoir qu'on a une vraie forme asymptotique (i.e. diérente <strong>de</strong> R d tout entier) si<br />

<strong>et</strong> seulement si chaque couleur apparaît avec une probabilité strictement inférieure à p c (Z d , site)<br />

(théorème 2.3.6).<br />

Enn, nous étendons la susance <strong>de</strong> ce critère au cas <strong>de</strong>s coloriages aléatoires dépendants,<br />

lorsque la famille <strong>de</strong> couleur a une loi invariante par translation <strong>et</strong> est ergodique (théorème 2.4.1).<br />

Nous nissons par quelques illustrations <strong>de</strong> simulations informatiques <strong>de</strong> coloriages aléatoires<br />

<strong>de</strong> Z 2 .<br />

1


Chapitre 1<br />

<strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong><br />

Nous dénissons au cours <strong>de</strong> ce chapitre le modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> sur Z d ,<br />

d ≥ 2, faisons le lien avec celui <strong>de</strong>s coloriages aléatoires, <strong>et</strong> démontrons les théorèmes généraux<br />

d'existence <strong>de</strong>s constantes <strong>de</strong> temps <strong>et</strong> <strong>de</strong> forme asymptotique.<br />

Nous nissons ce chapitre en donnant (sans démonstration) le théorème <strong>de</strong> continuité <strong>de</strong> la<br />

constante <strong>de</strong> temps dans le cas standard.<br />

1.1 Modèle général<br />

La percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> a été introduite en 1965 par J. M. Hammersley <strong>et</strong> D. J. A.<br />

Welsh pour modéliser la propagation d'un ui<strong>de</strong> à travers un matériau poreux. Le matériau est<br />

modélisé par un graphe dont les arêtes nécessitent plus ou moins <strong>de</strong> temps pour être traversées par<br />

le ui<strong>de</strong>. Deux questions se posent alors : Quand un somm<strong>et</strong> donné sera-t-il atteint? <strong>et</strong> Comment<br />

évolue la zone imprégnée?.<br />

Ici, on considère le graphe (Z d , E d ) dont les somm<strong>et</strong>s sont les points <strong>de</strong> Z d <strong>et</strong> dont l'ensemble<br />

d'arêtes est<br />

E d := { (u, v) ∈ Z d × Z d ; |u − v| = 1 } ,<br />

où | · | est la norme 1 <strong>de</strong> R d (pour x = (x 1 , x 2 , . . . , x d ) ∈ R d , |x| := ∑ d<br />

i=1 |x i|).<br />

Le cas d = 1 ne présentant pas beaucoup d'intérêt, on ne considérera dans ce rapport que le cas<br />

d ≥ 2.<br />

À chaque arête e ∈ E d , on associe un temps aléatoire positif t(e), appelé temps d'arête, qui<br />

représente le temps mis par le ui<strong>de</strong> pour la traverser.<br />

Dénition 1.1.1 Soient u <strong>et</strong> v <strong>de</strong>ux points <strong>de</strong> Z d . Un chemin <strong>de</strong> u à v est une suite (e 1 , e 2 , . . . , e n )<br />

d'arêtes telle que u ∈ e 1 , v ∈ e n , <strong>et</strong> pour tout i ∈ 1, n − 1, e i <strong>et</strong> e i+1 ont (au moins) un somm<strong>et</strong><br />

en commun. Si Γ est un chemin <strong>de</strong> u à v, on note u Γ v.<br />

v<br />

u<br />

v<br />

u<br />

Figure 1.1 Représentation <strong>de</strong> u Γ v <strong>et</strong> exemple <strong>de</strong> chemin non auto-évitant<br />

2


Dénition 1.1.2 Un chemin (e 1 , e 2 , . . . , e n ) est dit auto-évitant si :<br />

pour tout 1 ≤ i ≤ n − 1, e i <strong>et</strong> e i+1 n'ont qu'un somm<strong>et</strong> en commun,<br />

pour 1 ≤ i ≤ n − 2 <strong>et</strong> 3 ≤ j ≤ n tels que |j − i| > 1, e i <strong>et</strong> e j n'ont aucun somm<strong>et</strong> en commun.<br />

Si Γ est un chemin auto-évitant <strong>de</strong> u à v, on notera u v.<br />

Soit Γ = (e 1 , e 2 , . . . , e n ) un chemin, on lui associe le temps <strong>de</strong> <strong>passage</strong><br />

T (Γ) :=<br />

Γ<br />

⌢<br />

n∑<br />

t(e i ),<br />

qui représente le temps mis par le ui<strong>de</strong> pour parcourir ce chemin.<br />

Enn, pour u <strong>et</strong> v <strong>de</strong>s points <strong>de</strong> Z d , on dénit le temps <strong>de</strong> voyage <strong>de</strong> u à v par<br />

i=1<br />

T (u, v) := inf T (Γ) = inf<br />

uv<br />

Γ Γ<br />

⌢<br />

uv<br />

T (Γ).<br />

C'est le temps nécessaire au ui<strong>de</strong> pour se propager <strong>de</strong> u à v.<br />

Dénition 1.1.3 Si un chemin u Γ v vérie<br />

on dit que c'est une route <strong>de</strong> u à v.<br />

T (Γ) = T (u, v),<br />

Pour simplier certains résultats, on étend la notion <strong>de</strong> temps <strong>de</strong> voyage à R d tout entier. Pour<br />

cela, on associe <strong>de</strong> façon déterministe à tout point x ∈ R d un point x ∗ ∈ Z d qui minimise la<br />

distance |x − x ∗ |. En d'autres termes, on associe à x le point <strong>de</strong> Z d le plus proche, avec <strong>de</strong>s règles<br />

déterministes pour départager en cas d'égalité. Ensuite, on dénit naturellement, pour x, y ∈ R d ,<br />

T (x, y) := T (x ∗ , y ∗ ).<br />

On a alors la proposition suivante, simple mais très utile.<br />

Proposition 1.1.4 (Inégalité triangulaire) Quels que soient x, y, z dans R d , on a l'inégalité :<br />

Preuve. On a<br />

T (x, z) ≤ T (x, y) + T (y, z).<br />

T (x, z) = T (x ∗ , z ∗ )<br />

= inf<br />

{T }<br />

(Γ) | x ∗ Γ z<br />

∗<br />

{<br />

≤ inf T (Γ) | x ∗<br />

= inf<br />

}<br />

Γ z ∗ , y ∗ ∈ Γ<br />

{<br />

}<br />

T (Γ 1 · Γ 2 ) | x ∗ Γ 1<br />

y ∗ , y ∗ Γ 2<br />

z ∗<br />

{<br />

}<br />

= inf T (Γ 1 ) + T (Γ 2 ) | x ∗ Γ 1<br />

y ∗ , y ∗ Γ 2<br />

z ∗<br />

{<br />

} {<br />

}<br />

= inf T (Γ 1 ) | x ∗ Γ 1<br />

y ∗ + inf T (Γ 2 ) | y ∗ Γ 2<br />

z ∗<br />

= T (x ∗ , y ∗ ) + T (y ∗ , z ∗ )<br />

= T (x, y) + T (y, z),<br />

où on a noté Γ 1 · Γ 2 la concaténation <strong>de</strong>s chemins Γ 1 <strong>et</strong> Γ 2 , c'est-à-dire que si Γ 1 = (e 1 , . . . , e k ), Γ 2 = (f 1 , . . . , f l ),<br />

alors Γ 1 · Γ 2 := (e 1 , . . . , e k , f 1 , . . . , f l ). Bien sûr, Γ 1 · Γ 2 ne peut exister que s'il existe u, v, w ∈ Z d tels que u Γ 1<br />

v <strong>et</strong><br />

v Γ 2<br />

w comme c'est le cas ici.<br />

□<br />

3


Le <strong>premier</strong> point <strong>de</strong> vue consiste donc à regar<strong>de</strong>r les quantités T (0, u) pour un u ∈ Z d donné (le<br />

point 0 étant l'origine <strong>de</strong> Z d , i.e. (0, 0, . . . , 0)).<br />

Le second consiste à s'intéresser à la zone imprégnée au temps t ∈ R + si le ui<strong>de</strong> part <strong>de</strong> l'origine,<br />

c'est-à-dire à<br />

˜B(t) := { u ∈ Z d | T (0, u) ≤ t } .<br />

Pour simplier les résultats concernant le comportement asymptotique <strong>de</strong> ˜B(t), on introduit<br />

l'ensemble<br />

[<br />

B(t) := ˜B(t) + − 1 2 , 1 d {<br />

= u + (x 1 , x 2 , . . . , x d ) | u ∈<br />

2] ˜B(t) ; ∀i ∈ 1, d, − 1 2 ≤ x i ≤ 1 }<br />

. (1.1)<br />

2<br />

~<br />

B(t)<br />

B(t)<br />

0<br />

On a alors clairement<br />

˜B(t) +<br />

Figure 1.2 Représentation <strong>de</strong>s ensembles ˜B(t) <strong>et</strong> B(t)<br />

(<br />

− 1 2 , 1 2) d<br />

⊆ { x ∈ R d | T (0, x) ≤ t } ⊆ ˜B(t) +<br />

[<br />

− 1 2 , 1 2] d<br />

,<br />

<strong>et</strong> donc<br />

B(t) = {x ∈ R d | T (0, x) ≤ t}. (1.2)<br />

Et enn, pour i ∈ 1, d, on notera ε i l'arête (0, 0, . . . , 1, 0, . . . , 0) où le 1 est en i-ème position.<br />

1.2 <strong>Coloriages</strong> aléatoires<br />

1.2.1 Dénitions <strong>et</strong> notations<br />

Les modèles les plus standards consistent à prendre les t(e) i.i.d., ou éventuellement indépendants<br />

dont la loi ne dépend que <strong>de</strong> la direction <strong>de</strong> l'arête 1 . Au cours <strong>de</strong> ce mémoire, on s'intéressera plus<br />

particulièrement au modèle <strong>de</strong> coloriage aléatoire, déni comme suit.<br />

On se donne un ensemble S ni ou dénombrable <strong>et</strong> une famille (X u ) u∈Z d <strong>de</strong> variables aléatoires<br />

i.i.d. à valeurs dans S . Il faut imaginer les éléments <strong>de</strong> S comme <strong>de</strong>s couleurs, on colorie donc<br />

aléatoirement les somm<strong>et</strong>s du graphe Z d .<br />

Pour les représentations, on coloriera souvent tout l'ensemble u + ( − 1 2 , 1 2) d<br />

<strong>de</strong> la couleur du<br />

point u pour plus <strong>de</strong> clarté.<br />

1. c'est-à-dire qu'il existe un probabilité µ (resp. d probabilités µ 1 , µ 2 , ..., µ d ) telle que la famille ( t(e) ) soit<br />

e∈E<br />

distribuée selon d µ ⊗Ed (resp. µ ⊗E<br />

1 ⊗ µ ⊗E<br />

2 ⊗ . . . ⊗ µ ⊗E<br />

d ). 4


Figure 1.3 Réalisation d'un coloriage aléatoire <strong>de</strong> Z 2 , S contient 4 éléments, <strong>et</strong> les (X u ) u∈Z 2 sont<br />

uniformes<br />

Dénition 1.2.1 On appelle cluster <strong>de</strong> ce coloriage toute composante connexe du graphe aléatoire<br />

(<br />

Z d , { {u, v} ∈ E d | X u = X v<br />

})<br />

.<br />

Figure 1.4 Exemple <strong>de</strong> cluster <strong>de</strong> la réalisation précé<strong>de</strong>nte (gure 1.3) situé dans le quart supérieur<br />

droit<br />

Une façon <strong>de</strong> voir les choses consiste à imaginer le coloriage aléatoire comme une carte géographique<br />

<strong>et</strong> les clusters comme les pays <strong>de</strong> c<strong>et</strong>te carte.<br />

Pour n ∈ N, on considère l'ensemble ˜B(n) <strong>de</strong>s points que l'on peut atteindre en partant <strong>de</strong><br />

l'origine en traversant au plus n frontières, c'est-à-dire l'ensemble <strong>de</strong>s points <strong>de</strong> Z d tels qu'il existe<br />

un chemin les reliant à l'origine <strong>et</strong> qui contient moins <strong>de</strong> n arêtes dont les extrémités appartiennent<br />

à <strong>de</strong>s clusters diérents.<br />

Figure 1.5 Représentation <strong>de</strong> ˜B(2) <strong>et</strong> ˜B(4) pour la réalisation <strong>de</strong> la gure 1.3<br />

Ainsi, en notant, pour u ∈ Z d , C (u) le cluster (aléatoire) contenant le point u, <strong>et</strong> pour A ⊆ Z d ,<br />

∂A sa frontière (extérieure), c'est-à-dire<br />

∂A := { u ∈ Z d \A | ∃v ∈ A, {u, v} ∈ E d} ,<br />

(voir gure 1.6) on obtient immédiatement la proposition suivante.<br />

Proposition 1.2.2 On a :<br />

˜B(0) = C (0)<br />

<strong>et</strong>, pour tout n ∈ N,<br />

˜B(n + 1) = ˜B(n) ∪<br />

⋃<br />

u∈∂ ˜B(n)<br />

C (u).<br />

Remarque. C<strong>et</strong>te proposition très simple est très utile pour programmer <strong>de</strong>s simulations. On<br />

s'en servira au cours <strong>de</strong> la section 2.5.<br />

5


Figure 1.6 Représentation <strong>de</strong> ∂A<br />

1.2.2 Lien avec le modèle général<br />

Il s'agit bien d'un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong>. Les temps d'arête sont dénis,<br />

pour {u, v} ∈ E d , par<br />

t ({u, v}) = 1 {Xu ≠X v }.<br />

Ainsi, si on étend naturellement la dénition donnée au cours <strong>de</strong> c<strong>et</strong>te section <strong>de</strong> ˜B(n) en posant,<br />

pour t ∈ R + ,<br />

˜B(t) := ˜B (⌊t⌋) ,<br />

on voit aisément que c<strong>et</strong>te dénition coïnci<strong>de</strong> avec celle donnée lors <strong>de</strong> la section 1.1.<br />

Remarques.<br />

i. Bien que la famille <strong>de</strong> variables aléatoires réelles (X u ) u∈Z d soit i.i.d., les temps d'arête ne le<br />

sont pas. Ils ont même loi mais ne sont pas indépendants comme on peut le voir par exemple<br />

en prenant un carré unitaire (gure 1.7). Si trois <strong>de</strong>s arêtes ont un temps nul, alors les quatre<br />

somm<strong>et</strong>s du carré sont <strong>de</strong> la même couleur <strong>et</strong> le quatrième temps est nécessairement nul.<br />

ii. Néanmoins, <strong>de</strong>ux arêtes qui n'ont aucun somm<strong>et</strong> en commun ont <strong>de</strong>s temps indépendants. C<strong>et</strong>te<br />

remarque sera utilisée plus tard.<br />

0<br />

0<br />

0<br />

?<br />

Figure 1.7 Les temps d'arête ne sont pas indépendants<br />

1.3 Constantes <strong>de</strong> temps<br />

1.3.1 Théorème sous-additif<br />

On aura besoin par la suite d'un résultat général, le théorème sous-additif ergodique. On en<br />

donne sans démonstration une version due à Thomas M. Ligg<strong>et</strong>t [13]. La version originale <strong>de</strong> ce<br />

théorème, due à John Kingman [12], aurait été susante pour son application à la percolation <strong>de</strong><br />

<strong>premier</strong> <strong>passage</strong>, mais la version <strong>de</strong> Ligg<strong>et</strong>t est un peu plus précise.<br />

Théorème 1.3.1 (sous-additif ergodique) Soit (X m,n ) 0≤m


Alors<br />

E [ X + 0,1]<br />

< ∞ <strong>et</strong> ∃ c ∈ R | ∀n ≥ 1, E [X 0,n ] ≥ −cn (1.6)<br />

E [X 0,n ]<br />

lim<br />

n→∞ n<br />

existe <strong>et</strong> vaut γ := inf<br />

n∈N ∗ E [X 0,n ]<br />

n<br />

X 0,n<br />

X := lim existe p.s. <strong>et</strong> dans <strong>et</strong><br />

n→∞ n L1 E [X] = γ (1.8)<br />

De plus, si les processus dénis en (1.5) sont ergodiques 3 , alors X = γ p.s.<br />

Remarque. Dans la version <strong>de</strong> Kingman, les hypothèses (1.3), (1.4) <strong>et</strong> (1.5) sont remplacées<br />

par : quel que soit 0 ≤ l < m < n, X l,n ≤ X l,m + X m,n <strong>et</strong> la loi jointe <strong>de</strong> (X m+k,n+k ) 0≤m


Dénition 1.3.2 Un événement A ∈ F est dit invariant par translation <strong>de</strong> vecteur u ∈ Z d si<br />

A +u = A.<br />

Dénition 1.3.3 On dit que la famille <strong>de</strong> temps d'arête (t(e)) e∈E d est ergodique si tout événement<br />

mesurable par rapport à F <strong>et</strong> invariant par translation est <strong>de</strong> probabilité 0 ou 1.<br />

On peut maintenant expliciter le cadre dans lequel on se place. On suppose simplement que la<br />

famille ( t(e) ) e∈E d a une loi invariante par translation (c'est-à-dire que la loi <strong>de</strong> ( t(u + e) ) e∈E d ne<br />

dépend pas <strong>de</strong> u ∈ Z d ), est ergodique, <strong>et</strong> que E [T (0, ε 1 )] < ∞.<br />

Il est clair que les modèles que l'on considère vérient la première hypothèse 4 . La secon<strong>de</strong> est<br />

un peu plus délicate à montrer, elle fait l'obj<strong>et</strong> <strong>de</strong> la proposition suivante.<br />

Proposition 1.3.4 Dans le cas d'un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard 5 ou d'un<br />

coloriage aléatoire, la famille <strong>de</strong> temps d'arête ( t(e) ) est ergodique.<br />

e∈E d<br />

Preuve. Soit A ∈ F <strong>et</strong> u ∈ Z d tels que A +u = A. Nous procédons en <strong>de</strong>ux étapes.<br />

1) La première consiste à approcher A par une suite d'événements (A n ) n≥1 mesurables par rapport à un nombre<br />

ni d'arêtes (c'est-à-dire appartenant à A ). Pour cela, utilisons la martingale fermée E [1 A | F n ] qui converge p.s.<br />

<strong>et</strong> dans L 1 vers 1 A pour dénir<br />

{<br />

A n := E [1 A | F n] > 1 }<br />

.<br />

2<br />

La variable aléatoire E [1 A | F n ] étant mesurable par rapport à F n , A n ∈ F n . De plus, en notant ∆ la diérence<br />

symétrique entre <strong>de</strong>ux ensembles 6 , on a que<br />

car sur l'ensemble A\A n ,<br />

1 A∆An ≤ 2. |1 A − E [1 A | F n ]| ,<br />

donc<br />

<strong>et</strong> sur A n\A,<br />

donc<br />

Ainsi,<br />

E [1 A | F n ] ≤ 1 2<br />

2. |1 A − E [1 A | F n]| = 2(1 − E [1 A | F n]) ≥ 1,<br />

E [1 A | F n] ≥ 1 2<br />

2. |1 A − E [1 A | F n ]| = 2 E [1 A | F n ] ≥ 1.<br />

P(A∆A n ) ≤ 2 E [|1 A − E [1 A | F n ]|] GGGGGGGA 0. (1.9)<br />

n → ∞<br />

alors<br />

2) Maintenant, remarquons que si une suite (B n) n≥1 vérie<br />

En e<strong>et</strong><br />

P(A∆B n ) GGGGGGGA<br />

n → ∞ 0,<br />

P(B n ) GGGGGGGA P(A). (1.10)<br />

n → ∞<br />

P(B n) = P(B n\A) + P(A) − P(A\B n),<br />

<strong>et</strong> comme<br />

P(A∆B n) = P(B n\A) + P(A\B n) GGGGGGGA<br />

n → ∞ 0,<br />

chacun <strong>de</strong>s <strong>de</strong>ux termes P(B n\A) <strong>et</strong> P(A\B n) tend vers 0.<br />

En utilisant le fait que pour X, Y , Z quelconques, on a P(X∆(Y ∩ Z)) = P(X ∪ Y c ∪ Z c ) + P((Y ∩ Z)\X) ≤<br />

P(X ∪ Y c ) + P(X ∪ Z c ) + P(Y \X) ≤ P(X∆Y ) + P(X∆Z), on trouve que<br />

4. Rappelons que l'on a déni au début <strong>de</strong> la section 1.2.1 un coloriage aléatoire en prenant <strong>de</strong>s variables aléatoires<br />

i.i.d.<br />

5. déni au début <strong>de</strong> la section 1.2.1<br />

6. Par dénition, A∆B := A\B ∪ B\A.<br />

8


P ( A∆(A n ∩ A +3nu<br />

n ) ) ≤ P ( ) ( )<br />

A∆A n + P A∆A<br />

+3nu<br />

n<br />

= P ( ) (<br />

A∆A n + P A +3nu ∆A +3nu )<br />

n<br />

= P ( ) (<br />

A∆A n + P (A∆An ) +3nu)<br />

= 2P ( A∆A n<br />

)<br />

GGGGGGGA<br />

n → ∞ 0.<br />

On a utilisé dans la <strong>de</strong>uxième ligne que A +3nu = A, <strong>et</strong> dans la quatrième que la loi <strong>de</strong>s ( t(e) ) e∈E d est invariante<br />

par translation.<br />

Ainsi, d'après (1.10),<br />

P(A n ∩ A +3nu<br />

n ) GGGGGGGA<br />

n → ∞ P(A).<br />

Or, A n étant dans F n, A n <strong>et</strong> A +3nu<br />

n sont indépendants car [−n, n] d <strong>et</strong> 3nu+[−n, n] d n'ont aucun point commun.<br />

Cela est immédiat dans un cas <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard car les t(e), e ∈ E d , sont indépendants.<br />

Dans le cas d'un coloriage aléatoire, les (X u ) u∈Z d étant indépendantes, les arêtes qui ne se touchent pas ont aussi<br />

<strong>de</strong>s temps indépendants, donc les arêtes <strong>de</strong> Λ n <strong>et</strong> celles <strong>de</strong> 3nu + Λ n ont <strong>de</strong>s temps indépendants.<br />

En combinant (1.9) <strong>et</strong> (1.10), il vient,<br />

<strong>et</strong> enn<br />

ce qui perm<strong>et</strong> <strong>de</strong> conclure.<br />

P(A n ∩ A +3nu<br />

n ) = P(A n ) 2 GGGGGGGA<br />

n → ∞ P(A)2 ,<br />

P(A) 2 = P(A),<br />

Enn, dans le cas <strong>de</strong> coloriage aléatoire, la troisième hypothèse est clairement vériée car<br />

T (0, ε 1 ) ≤ t({0, ε 1 }) ≤ 1. Dans les cas standards, il faut rajouter une hypothèse, comme par<br />

exemple, E [t({0, ε 1 })] < ∞. Il existe <strong>de</strong>s hypothèses plus faibles (voir Howard [9] ou Kesten [11])<br />

mais nous n'entrerons pas dans les détails ici.<br />

1.3.3 Constantes <strong>de</strong> temps<br />

Avant <strong>de</strong> s'intéresser au comportement <strong>de</strong> B(t), on commence par regar<strong>de</strong>r ce qu'il se passe dans<br />

une direction xée. En l'occurrence, on privilégie la direction <strong>de</strong> ε 1 .<br />

Pour 0 ≤ m < n, on dénit les variables aléatoires<br />

T (m, n) := T (mε 1 , nε 1 )<br />

auxquelles on va appliquer le théorème sous-additif ergodique (théorème 1.3.1).<br />

L'inégalité triangulaire (proposition 1.1.4) appliquée aux points 0, mε 1 <strong>et</strong> nε 1 nous donne l'hypothèse<br />

(1.3). Les conditions (1.4) <strong>et</strong> (1.5) sont vériées car la loi <strong>de</strong> (t(e)) e∈E d est invariante par<br />

translation, donc aussi celle <strong>de</strong> (T (u, v)) u,v∈Z d.<br />

La condition (1.6) est vériée en prenant c = 0 car T (0, 1) ≥ 0 <strong>et</strong> on a supposé E [T (0, 1)] < ∞.<br />

Enn, pour k ≥ 1, le processus T (kn, k(n + 1)) n≥0 est ergodique car les ensembles invariants <strong>de</strong><br />

σ ( T (kn, k(n + 1)), n ≥ 0 ) sont <strong>de</strong>s ensembles <strong>de</strong> σ(t(e), e ∈ E d ) qui sont invariants par translation<br />

<strong>de</strong> vecteur kε 1 , <strong>et</strong> donc <strong>de</strong> probabilité 0 ou 1 car on a choisi la famille (t(e)) e∈E d ergodique.<br />

On peut donc appliquer le théorème 1.3.1. Bien sûr, il est possible <strong>de</strong> mener le même raisonnement<br />

dans n'importe quelle direction ε i , on obtient ainsi la proposition suivante :<br />

Proposition 1.3.5 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> tel que la famille <strong>de</strong> temps<br />

d'arête (t(e)) e∈E d ait une loi invariante par translation <strong>et</strong> soit ergodique. Si E [T (0, ε i )] < ∞, alors<br />

il existe un constante µ i ∈ R + telle que<br />

T (0, nε i )<br />

n<br />

p.s., L 1<br />

GGGGGGGGGGGGA<br />

n → ∞ µ i.<br />

□<br />

Dénition 1.3.6 Les constantes µ i introduites dans la proposition précé<strong>de</strong>nte sont appelées les<br />

constantes <strong>de</strong> temps. Lorsqu'elles sont toutes égales, on note µ la valeur commune <strong>et</strong> on la<br />

nomme constante <strong>de</strong> temps.<br />

9


Remarque. Dans le cas i.i.d. ainsi que dans le cas <strong>de</strong> coloriage aléatoire, il est évi<strong>de</strong>nt que la loi<br />

<strong>de</strong> T (0, nε i ) ne dépend pas <strong>de</strong> i, on est donc en mesure <strong>de</strong> parler <strong>de</strong> constante <strong>de</strong> temps au singulier.<br />

1.4 Forme asymptotique<br />

1.4.1 Preuve du théorème<br />

On s'intéresse à présent à la forme asymptotique <strong>de</strong> B(t) dénie par (1.1) lorsque t → ∞. On<br />

donne ici une version un peu modiée <strong>de</strong> la version originale du théorème <strong>de</strong> forme asymptotique<br />

<strong>de</strong> Richardson. La version classique est donnée par exemple dans Howard [9] ou Kesten [11],<br />

mais elle ne s'applique pas directement au cas <strong>de</strong>s coloriages aléatoires. Nous établirons dans ce<br />

mémoire la version due à Y. Derriennic, comme reporté page 259 <strong>de</strong> Kesten [11].<br />

Dans une version plus récente due à Daniel Boivin, l'hypothèse que les (t(e)) e∈E d sont bornés<br />

est allégée (c.f. Boivin [1]).<br />

Théorème 1.4.1 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> tel que la famille <strong>de</strong> temps<br />

d'arête (t(e)) e∈E d ait une loi invariante par translation <strong>et</strong> soit ergodique. On suppose <strong>de</strong> plus les<br />

(t(e)) e∈E d bornés. Alors on a :<br />

i. Si pour tout i ∈ 1, d, µ i > 0, alors il existe un convexe compact déterministe d'intérieur non<br />

vi<strong>de</strong> B 0 ⊆ R d , symétrique par rapport aux hyperplans d'équation x i = 0, tel que, p.s., pour tout<br />

ε > 0, pour t assez grand, on ait<br />

(1 − ε)B 0 ⊆ 1 t B(t) ⊆ (1 + ε)B 0.<br />

ii. Si pour tout i ∈ 1, d, µ i = 0, alors, p.s., pour tout compact K ⊆ R d , pour t assez grand, on a<br />

K ⊆ 1 t B(t).<br />

Preuve. 1) On commence par établir la convergence radiale, c'est-à-dire <strong>de</strong><br />

T (0, nˆx)<br />

n<br />

pour ˆx dans un ensemble <strong>de</strong>nse <strong>de</strong> la sphère unitaire. On note C un majorant <strong>de</strong>s (t(e)) e∈E d (qui existe car il y a au<br />

plus d lois diérentes, compte tenu <strong>de</strong> l'invariance par translation).<br />

Pour u ∈ Z d \{0}, on applique le même raisonnement qu'à la section 1.3.3, en remplaçant ε 1 par u. Le seul point<br />

qui dière est qu'il faut montrer que E [T (0, u)] est nie, ce qui est évi<strong>de</strong>nt car<br />

E [T (0, u)] ≤ C|u| < ∞.<br />

Ainsi,<br />

T (0, nu)<br />

n‖u‖<br />

converge p.s. <strong>et</strong> dans L 1 (où ‖ · ‖ désigne la norme euclidienne <strong>de</strong> R d ). C<strong>et</strong>te limite ne dépend que <strong>de</strong> la direction <strong>de</strong><br />

u,<br />

û :=<br />

u<br />

‖u‖ ,<br />

car si v a la même direction, il existe p <strong>et</strong> q dans N ∗ tels que pu = qv <strong>et</strong><br />

T (0, npu) T (0, nqv)<br />

lim<br />

= lim<br />

n→∞ np‖u‖ n→∞ nq‖v‖ .<br />

Notons µ(û) c<strong>et</strong>te limite. Montrons que c'est aussi la limite p.s. <strong>et</strong> L 1 <strong>de</strong><br />

T (0, rû)<br />

r<br />

quand r tend vers l'inni (r réel). Pour cela, il sut <strong>de</strong> voir que<br />

<strong>et</strong><br />

1<br />

∣ r T (0, rû) − 1 (<br />

r T 0,<br />

⌊ r<br />

‖u‖<br />

⌋<br />

u<br />

)∣ ∣∣∣<br />

≤ 1 (<br />

r T rû,<br />

⌊ r<br />

‖u‖<br />

( ⌊ ⌋ ) ⌊ ⌋<br />

1 r<br />

r ‖u‖<br />

r T 0, u =<br />

‖u‖ ‖u‖ r<br />

⌋<br />

u<br />

)<br />

≤ C r<br />

1<br />

⌊ ⌋ T<br />

r<br />

‖u‖<br />

‖u‖<br />

10<br />

[( r<br />

‖u‖ − ⌊ r<br />

‖u‖<br />

⌋) ]<br />

|u| + 2 ≤ C (|u| + 2) GGGGGGA<br />

r r → ∞ 0<br />

( ⌊ ⌋ ) r p.s., L 1<br />

0, u GGGGGGGGGGGGGA<br />

‖u‖ r → ∞<br />

µ(û).


x*<br />

x<br />

y<br />

y *<br />

Figure 1.9 Exemple <strong>de</strong> cas où |x − y| < |x ∗ − y ∗ |<br />

Le +2 du <strong>de</strong>rnier membre <strong>de</strong> la première ligne provient du fait que rû n'est pas nécessairement dans Z d , <strong>et</strong> il se<br />

peut que |x − y| < |x ∗ − y ∗ |, mais on a toujours |x ∗ − y ∗ | ≤ |x − y| + 2 grâce à l'inégalité triangulaire (c.f. gure 1.9).<br />

On a ainsi montré la convergence pour l'ensemble<br />

<strong>de</strong>nse dans la sphère <strong>de</strong> R d , que l'on note S d−1 .<br />

donc,<br />

2) Maintenant, pour ˆx, ŷ ∈ S d−1 , on a<br />

T (0, rˆx)<br />

∣ r<br />

−<br />

T (0, rŷ)<br />

r<br />

∣<br />

lim sup<br />

r→∞<br />

U :=<br />

≤<br />

T (rˆx, rŷ)<br />

r<br />

∣<br />

T (0, rˆx)<br />

r<br />

{ u<br />

‖u‖ , u ∈ Zd }<br />

−<br />

(<br />

r|ˆx − ŷ| + 2<br />

≤ C = C |ˆx − ŷ| + 2 )<br />

,<br />

r<br />

r<br />

T (0, rŷ)<br />

r<br />

L'ensemble U étant dénombrable, on a p.s., pour tout ˆx, ŷ ∈ U,<br />

|µ(ˆx) − µ(ŷ)| ≤ C|ˆx − ŷ|.<br />

∣ ≤ C|ˆx − ŷ|. (1.11)<br />

Sur l'ensemble <strong>de</strong> mesure 1 où ces inégalités ont lieu, la fonction µ dénie sur U est donc lipschitzienne, on peut<br />

la prolonger à S d−1 d'après le théorème <strong>de</strong> prolongement <strong>de</strong>s applications uniformément continues. On a donc, sur<br />

c<strong>et</strong> ensemble <strong>de</strong> mesure 1, que quels que soient ˆx, ŷ ∈ S d−1 ,<br />

|µ(ˆx) − µ(ŷ)| ≤ C|ˆx − ŷ|.<br />

De plus, en prenant ˆx ∈ S d−1 <strong>et</strong> une suite (ˆx n ) ∈ U N telle que ˆx n → ˆx, l'équation (1.11) appliquée à ˆx <strong>et</strong> ˆx n<br />

<strong>de</strong>vient<br />

lim sup<br />

r→∞<br />

∣<br />

T (0, rˆx)<br />

r<br />

− µ(ˆx n )<br />

∣ ≤ C|ˆx − ˆx n|,<br />

puis en prenant la limite quand n tend vers l'inni, on obtient que, p.s., quel que soit ˆx ∈ S d−1 ,<br />

3) On va à présent montrer que, p.s.,<br />

T (0, rˆx)<br />

lim = µ(ˆx), (1.12)<br />

r→∞ r<br />

lim<br />

T (0, x)<br />

∣<br />

‖x‖→∞ ‖x‖<br />

( )∣ x ∣∣∣<br />

− µ = 0.<br />

‖x‖<br />

Pour ce faire, xons ε ∈ (0, 1), <strong>et</strong> découpons R d en un nombre ni <strong>de</strong> secteurs angulaires <strong>de</strong> la manière suivante :<br />

choisissons ˆα 1 , ˆα 2 , ..., ˆα m ∈ S d−1 tels que<br />

R d =<br />

m⋃<br />

⋃<br />

B(aˆα i , aε).<br />

i=1 a≥0<br />

1<br />

x<br />

a x<br />

x<br />

x<br />

a x<br />

Figure 1.10 Notations<br />

11


Pour x ∈ R d , soit ˆα x ∈ {ˆα 1 , ˆα 2 , . . . , ˆα m } tel que<br />

<strong>et</strong> enn,<br />

donc<br />

On a alors les inégalités suivantes :<br />

En notant toujours ˆx :=<br />

T (0, x)<br />

∣ ‖x‖<br />

x<br />

‖x‖<br />

− µ(ˆx)<br />

∣<br />

x ∈ ⋃<br />

B(aˆα x , aε),<br />

a≥0<br />

a x := inf{a | x ∈ B(aˆα x , aε)}<br />

α x := a x ˆα x .<br />

a x ≤ ‖x‖ ≤ a x (1 + ε) <strong>et</strong> |x − α x | ≤ 2a x ε. (1.13)<br />

, il vient,<br />

≤<br />

T (0, x)<br />

∣ ‖x‖<br />

Traitons séparément les quatre parties du membre <strong>de</strong> droite.<br />

i. ∣ ∣∣∣ T (0, x)<br />

‖x‖<br />

ii. ∣ ∣∣∣ T (0, α x )<br />

‖x‖<br />

− T (0, αx )<br />

‖x‖<br />

∣ ≤ T (x, αx )<br />

‖x‖<br />

lim sup<br />

T (0, x)<br />

∣<br />

‖x‖→∞ ‖x‖<br />

− T (0, ∣ αx )<br />

∣∣∣ ‖x‖ ∣ + T (0, α x )<br />

− ax<br />

‖x‖ ‖x‖ µ(ˆαx )<br />

∣<br />

+<br />

a x<br />

∣ ‖x‖ µ(ˆαx ) − µ(ˆα x )<br />

∣ + |µ(ˆαx ) − µ(ˆx)| .<br />

≤ C |x − αx | + 2<br />

‖x‖<br />

− T (0, αx )<br />

‖x‖<br />

≤ C 2ax ε + 2<br />

‖x‖<br />

∣ ≤ 2Cε.<br />

≤ C 2‖x‖ε + 2 ,<br />

‖x‖<br />

− ax<br />

‖x‖ µ(ˆαx )<br />

∣ = ax<br />

T (0, α x ∣<br />

)<br />

‖x‖ ∣ a x − µ(ˆα x ∣∣∣<br />

)<br />

∣ ≤ T (0, α x )<br />

a x − µ(ˆα x )<br />

∣ ,<br />

<strong>et</strong> comme d'après (1.13), a x → ∞ quand ‖x‖ → ∞, l'équation (1.12) implique que, p.s.,<br />

iii.<br />

lim sup<br />

T (0, α x )<br />

∣<br />

‖x‖→∞ ‖x‖<br />

− ax<br />

‖x‖ µ(ˆαx )<br />

∣ = 0.<br />

∣ ∣∣∣ a x<br />

∣<br />

‖x‖ µ(ˆαx ) − µ(ˆα x ∣∣∣<br />

)<br />

∣ ≤ a x ∣ ∣∣∣<br />

‖x‖ − 1 . sup µ ≤ ε sup µ,<br />

S d−1 S d−1<br />

la <strong>de</strong>rnière inégalité résultant <strong>de</strong> (1.13). La fonction µ étant continue sur le compact S d−1 , sup S d−1 µ < ∞.<br />

iv.<br />

|µ(ˆα x ) − µ(ˆx)| ≤ C|ˆα x − ˆx| ≤ C<br />

√<br />

2<br />

(1 − √ 1 − ε 2 )<br />

≤ 2Cε.<br />

Ainsi, en faisant tendre ε vers 0 suivant un ensemble dénombrable, on obtient bien que, p.s.,<br />

lim<br />

T (0, x)<br />

∣<br />

‖x‖→∞ ‖x‖<br />

− µ<br />

( )∣ x ∣∣∣<br />

= 0. (1.14)<br />

‖x‖<br />

4) Étudions à présent les propriétés <strong>de</strong> la fonction µ. Pour <strong>de</strong>s raisons pratiques, on l'étend à R d en posant, pour<br />

x ∈ R d ,<br />

µ(x) := ‖x‖µ(ˆx).<br />

Ainsi, en faisant le changement r ↦→ r‖x‖, l'équation (1.12) <strong>de</strong>vient : p.s., quel que soit x ∈ R d ,<br />

T (0, rx)<br />

lim = µ(x). (1.15)<br />

r→∞ r<br />

Remarquons que, si on choisit une suite (r n ) n∈N <strong>de</strong> réels telle que r n → ∞ quand n → ∞ <strong>et</strong> telle que tous les<br />

r n x <strong>et</strong> r n y soient dans Z d , on a,<br />

T (0, r n y)<br />

∣ r n<br />

− T (0, r ∣<br />

nx) ∣∣∣<br />

≤ T (r nx, r n y) (loi)<br />

= T (0, r n(y − x))<br />

r n r n<br />

r n<br />

P<br />

GGGGGGGA µ(y − x),<br />

n → ∞<br />

P<br />

où GGGGGA désigne la limite en probabilité.<br />

Le fait que r nx <strong>et</strong> r ny soient dans Z d assure l'égalité en loi par invariance par translation <strong>de</strong> la loi <strong>de</strong>s arêtes.<br />

Sans c<strong>et</strong>te hypothèse, on pourrait se trouver dans un cas où T (x, y) (loi)<br />

≠ T (0, y − x), si (y − x) ∗ ≠ y ∗ − x ∗ , comme<br />

le montre la gure 1.11.<br />

Par suite, en prenant la limite en probabilité dans l'équation précé<strong>de</strong>nte, on obtient que µ vérie l'inégalité<br />

triangulaire : p.s., pour tout x, y ∈ R d ,<br />

|µ(y) − µ(x)| ≤ µ(y − x). (1.16)<br />

12


y *<br />

x<br />

x*<br />

y<br />

y* - x*<br />

y - x<br />

0<br />

(y - x)*<br />

Figure 1.11 Exemple <strong>de</strong> cas où (y − x) ∗ ≠ y ∗ − x ∗<br />

De plus, l'invariance par translation implique que, quels que soient (x 1 , x 2 , . . . , x d ) ∈ R d ,<br />

T ( 0, (x 1 , x 2 , . . . , x d ) ) (loi)<br />

= T ( 0, (±x 1 , ±x 2 , . . . , ±x d ) ) ,<br />

sauf éventuellement pour les points critiques dont une coordonnée appartient à Z + 1 . Cependant, il est possible<br />

2<br />

<strong>de</strong> choisir les règles <strong>de</strong> dénition <strong>de</strong> x ∗ <strong>de</strong> telle façon que ce ne soit pas le cas.<br />

Dans tous les cas, pour un (x 1 , x 2 , . . . , x d ) ∈ R d xé, en choisissant une suite (r n) n∈N convenable qui évite ces<br />

points, on obtient<br />

µ(x 1 , x 2 , . . . , x d ) = µ(±x 1 , ±x 2 , . . . , ±x d ). (1.17)<br />

Les équations (1.16) <strong>et</strong> (1.17) impliquent les propriétés suivantes :<br />

i. Si pour tout i ∈ 1, d, µ i > 0, alors<br />

inf µ > 0. (1.18)<br />

Sd−1 ii. Si pour tout i ∈ 1, d, µ i = 0, alors<br />

µ ≡ 0. (1.19)<br />

En e<strong>et</strong>, s'il existe (x 1 , x 2 , . . . , x d ) ∈ S d−1 tel que µ ( (x 1 , x 2 , . . . , x d ) ) = 0, alors soit i ∈ 1, d tel que x i ≠ 0,<br />

on a<br />

µ i = µ(ε i ) ≤ 1<br />

2|x i |<br />

<strong>et</strong> pour tout (x 1 , x 2 , . . . , x d ) ∈ R d ,<br />

(<br />

µ<br />

(<br />

(x1 , x 2 , . . . , x i−1 , |x i |, x i+1 , . . . , x d ) ) + µ ( (−x 1 , −x 2 , . . . , −x i−1 , |x i |, −x i+1 , . . . , −x d ) )) = 0,<br />

µ ( (x 1 , x 2 , . . . , x d ) ) ≤<br />

d∑<br />

|x i |µ i .<br />

5) On est maintenant en mesure <strong>de</strong> conclure. Dans le <strong>premier</strong> cas, dénissons<br />

B 0 := {x | µ(x) ≤ 1} = {λx | λµ(ˆx) ≤ 1}.<br />

C'est un convexe : Si x, y ∈ B 0 , λ ∈ (0, 1), d'après (1.16),<br />

µ ( λx + (1 − λ)y ) ≤ µ(λx) + µ ( (1 − λ)y ) = λµ(x) + (1 − λ)µ(y) ≤ 1.<br />

C'est un compact d'intérieur non vi<strong>de</strong> compte tenu <strong>de</strong> (1.18), symétrique par rapport aux hyperplans d'équation<br />

x i = 0 à cause <strong>de</strong> (1.17). Notons<br />

i=1<br />

m := inf µ > 0.<br />

Sd−1 Plaçons nous sur l'ensemble <strong>de</strong> mesure 1 sur lequel (1.14) a lieu. Soit ε > 0. Montrons que pour t assez grand,<br />

on a<br />

(1 − ε)B 0 ⊆ 1 t B(t) ⊆ (1 + ε)B 0.<br />

Pour η dont on xera la valeur ultérieurement, il existe M ∈ R tel que, dès que ‖x‖ ≥ M,<br />

µ(x) − η‖x‖ ≤ T (0, x) ≤ µ(x) + η‖x‖. (1.20)<br />

a) (1 − ε)tB 0 ⊆ B(t) :<br />

Soit (1 − ε)tλˆx ∈ (1 − ε)tB 0 , on a donc λµ(ˆx) ≤ 1. Montrons que<br />

T ( 0, (1 − ε)tλˆx ) ≤ t<br />

pour t assez grand. Cela sura étant donné la dénition (1.2) <strong>de</strong> B(t).<br />

Prenons pour η la valeur mε. Alors, si<br />

λ ≤<br />

1<br />

4C(1 − ε)<br />

13<br />

<strong>et</strong> t ≥ 2C,


il vient<br />

T ( 0, (1 − ε)tλˆx ) ≤ C [(1 − ε)tλ|ˆx| + 1] ≤ t 2 + t 2 = t,<br />

compte tenu <strong>de</strong> la majoration grossière |ˆx| ≤ 2.<br />

Et si<br />

1<br />

λ ≥ <strong>et</strong> t ≥ 4CM,<br />

4C(1 − ε)<br />

alors<br />

<strong>et</strong><br />

d'après (1.20).<br />

b)<br />

1<br />

(1+ε)t B(t) ⊆ B 0 :<br />

(1 − ε)tλˆx ≥ M,<br />

T ( 0, (1 − ε)tλˆx ) ≤ (1 − ε)t λµ(ˆx) + η (1 − ε)t λ ≤ (1 − ε 2 ) t ≤ t,<br />

} {{ } }{{} }{{}<br />

≤1 mε<br />

≤m −1<br />

x<br />

Soit<br />

(1+ε)t ∈ 1<br />

B(t). Alors on a T (0, x) ≤ t + 2C. En e<strong>et</strong>, il se peut que x ∈ ∂B(t) auquel cas, on n'a pas<br />

(1+ε)t<br />

nécessairement x ∗ ∈ ˜B(t), mais on a tout <strong>de</strong> même x ∗ ∈ ˜B(t + 2C) (voir gure 1.12).<br />

x*<br />

x<br />

B(t)<br />

Montrons que pour η bien choisi <strong>et</strong> t assez grand,<br />

Figure 1.12 Exemple <strong>de</strong> cas où x ∗ /∈ ˜B(t)<br />

‖x‖<br />

µ(ˆx) ≤ 1.<br />

(1 + ε)t<br />

D'après (1.20), pour ‖x‖ ≥ M (qui dépend encore pour l'instant <strong>de</strong> η) <strong>et</strong> t ≥ 4C , ε<br />

‖x‖<br />

(1 + ε)t µ(ˆx) ≤ 1<br />

(1 + ε)t<br />

pour η xé, susamment p<strong>et</strong>it.<br />

µ(ˆx)<br />

µ(ˆx) − η T (0, x) ≤ 1<br />

(1 + ε)t<br />

1<br />

1 − η m<br />

(t + 2C) ≤<br />

1 + ε 2<br />

(1 + ε)(1 − η m ) ≤ 1,<br />

Ainsi, p.s, pour t assez grand, les inclusions a) <strong>et</strong> b) sont vériées, ce qui perm<strong>et</strong> <strong>de</strong> conclure pour le i. du<br />

théorème.<br />

6) Passons au <strong>de</strong>uxième cas, supposons que pour tout i ∈ 1, d, µ i = 0. Alors d'après (1.19), la fonction µ est<br />

i<strong>de</strong>ntiquement nulle.<br />

On se place encore sur l'ensemble <strong>de</strong> mesure 1 sur lequel (1.14) a lieu. Soit K ⊆ R d un compact. Il existe A ∈ R<br />

tel que K ⊆ B(0, A). Soit x ∈ K, montrons que<br />

T (0, tx) ≤ t,<br />

ce qui sura pour conclure comme dans le cas a) précé<strong>de</strong>nt.<br />

Si<br />

on a<br />

alors<br />

Sinon on choisit η = 1 dans (1.20), <strong>et</strong> pour<br />

A<br />

<strong>et</strong> (1.20) implique<br />

‖x‖ ≤ 1<br />

4C<br />

<strong>et</strong> t ≥ 2C,<br />

T (0, tx) ≤ C(t|x| + 1) ≤ Ct2‖x‖ + C ≤ t.<br />

‖x‖ ≥ 1<br />

4C<br />

<strong>et</strong><br />

‖tx‖ ≥ M,<br />

t ≥ 4CM,<br />

T (0, tx) ≤ η‖tx‖ ≤ ‖x‖<br />

A t ≤ t.<br />

On a ainsi, p.s., quel que soit K ⊆ R d compact, pour t assez grand, K ⊆ 1 B(t), ce qui achève la preuve <strong>de</strong> ce<br />

t<br />

théorème.<br />

□<br />

14


1.4.2 Encadrement <strong>de</strong> B 0<br />

D'une certaine manière, dans le cas ii. du théorème 1.4.1, la forme asymptotique est R d tout<br />

entier. On s'intéressera ici seulement au cas i., c'est-à-dire lorsque pour tout i ∈ 1, d, µ i > 0.<br />

On sait déjà d'après le théorème que B 0 est convexe compacte d'intérieur non vi<strong>de</strong> <strong>et</strong> symétrique<br />

par rapport aux hyperplans d'équation x i = 0.<br />

Elle a été dénie au cours <strong>de</strong> la preuve par<br />

où<br />

On a donc, pour x ∈ R\{0},<br />

Mais comme on a, pour i ∈ 1, d,<br />

il vient, pour i ∈ 1, d,<br />

B 0 := {x | µ(x) ≤ 1}.<br />

B 0 ∩ (R.x) =<br />

ˆx :=<br />

[<br />

− 1 ]<br />

µ(ˆx) , 1<br />

,<br />

µ(ˆx)<br />

x<br />

‖x‖ .<br />

µ i = µ(ε i ),<br />

B 0 ∩ (R.ε i ) =<br />

[− 1 µ i<br />

, 1 µ i<br />

]<br />

.<br />

De plus, par convexité <strong>et</strong> symétrie, on obtient un encadrement <strong>de</strong> B 0 , à savoir<br />

{<br />

(x 1 , x 2 , . . . , x d ) ∈ R d |<br />

}<br />

d∑<br />

|µ i x i | ≤ 1 ⊆ B 0 ⊆<br />

i=1<br />

{<br />

}<br />

(x 1 , x 2 , . . . , x d ) ∈ R d | sup<br />

1≤i≤d<br />

|µ i x i | ≤ 1 .<br />

C<br />

1<br />

3<br />

1<br />

2<br />

1<br />

1<br />

A<br />

Figure 1.13 Encadrement <strong>de</strong> B 0 , on a A ⊆ B 0 ⊆ C<br />

C'est-à-dire, si on appelle M la matrice diagonale<br />

⎛<br />

1<br />

µ 1<br />

0 · · · · · · 0<br />

1<br />

0<br />

µ 2<br />

0 · · · 0<br />

M :=<br />

.<br />

...<br />

...<br />

... .<br />

,<br />

⎜<br />

⎟<br />

⎝ .<br />

...<br />

... 0 ⎠<br />

1<br />

0 · · · · · · 0<br />

15<br />

µ d<br />


alors<br />

M.B |·| ⊆ B 0 ⊆ M.B ‖·‖∞ ,<br />

où 7 B |·| := {x ∈ R d | |x| ≤ 1} <strong>et</strong> B ‖·‖∞ := {x ∈ R d | ‖x‖ ∞ ≤ 1}.<br />

Dans le cas où toutes les constantes <strong>de</strong> temps sont égales, on a alors simplement<br />

1<br />

µ B |·| ⊆ B 0 ⊆ 1 µ B ‖·‖ ∞<br />

.<br />

1.5 Continuité <strong>de</strong> la constante <strong>de</strong> temps <strong>et</strong> critère <strong>de</strong> distinction<br />

dans le cas standard<br />

Nous donnons sans démonstrations au cours <strong>de</strong> c<strong>et</strong>te section quelques résultats concernant le<br />

cas standard. Le second chapitre <strong>de</strong> ce mémoire sera consacré à <strong>de</strong>s résultats similaires pour les<br />

coloriages aléatoires.<br />

1.5.1 <strong>Percolation</strong> classique sur Z d<br />

Rappelons brièvement ici quelques résultats <strong>de</strong> percolation. Pour plus <strong>de</strong> détails, voir Grimm<strong>et</strong>t<br />

[8].<br />

<strong>Percolation</strong> par arêtes<br />

Soit p ∈ [0, 1]. On se donne une famille <strong>de</strong> v.a. i.i.d. ( ˜X e ) e∈E d <strong>de</strong> Bernoulli <strong>de</strong> paramètre p. Une<br />

façon <strong>de</strong> voir les choses consiste à imaginer qu'on eace les arêtes <strong>de</strong> E d indépendamment avec<br />

probabilité 1 − p (on ne gar<strong>de</strong> que les 1). Si ˜Xe = 1, on dit que e est ouverte, si ˜Xe = 0, on dit<br />

que e est fermée.<br />

Une <strong>de</strong>s principales préoccupations <strong>de</strong> la percolation est <strong>de</strong> voir si le graphe aléatoire<br />

(<br />

Z d ,<br />

{<br />

e ∈ E d | ˜Xe = 1<br />

aura ou non une (ou plusieurs) composante(s) connexe(s) innie(s). Le théorème répondant à c<strong>et</strong>te<br />

question est le suivant (voir Grimm<strong>et</strong>t [8]).<br />

Théorème 1.5.1 Il existe p c (Z d , arête) ∈ (0, 1) tel que<br />

i. pour tout p < p c (Z d , arête), il n'existe p.s. pas <strong>de</strong> composante connexe innie,<br />

ii. pour tout p > p c (Z d , arête), il existe p.s. une unique composante connexe innie.<br />

Remarque. Ce théorème ne dit pas ce qu'il se passe pour p = p c (Z d , arête).<br />

<strong>Percolation</strong> par sites<br />

Soit p ∈ [0, 1]. On se donne une famille <strong>de</strong> v.a. i.i.d. ( ˜X u ) u∈Z d <strong>de</strong> Bernoulli <strong>de</strong> paramètre p. Il<br />

s'agit maintenant d'eacer les points <strong>de</strong> Z d indépendamment avec probabilité 1 − p. Si ˜Xu = 1, on<br />

dit que u est ouvert, si ˜Xu = 0, on dit que u est fermé.<br />

On s'intéresse aux liaisons entre les points <strong>de</strong> Z d : on dit que u <strong>et</strong> v sont reliés s'il existe un<br />

chemin u Γ v qui ne passe que par <strong>de</strong>s sites ouverts. On notera alors u v.<br />

Dénition 1.5.2 Pour tout u ∈ Z d , on dénit le cluster (<strong>de</strong> percolation) <strong>de</strong> u, par l'ensemble<br />

})<br />

C(u) := {v ∈ Z d | u v}. (1.21)<br />

7. Si (x 1 , x 2 , . . . , x d ) ∈ R d , on note ‖(x 1 , x 2 , . . . , x d )‖ ∞ := sup 1≤i≤d |x i | sa norme innie.<br />

16


Les clusters sont les composantes connexes du sous-graphe aléatoire <strong>de</strong> (Z d , E d ) suivant :<br />

(<br />

{<br />

{u ∈ Z d | ˜Xu = 1}, {u, v} ∈ E d | ˜Xu = ˜X<br />

})<br />

v = 1 .<br />

En d'autres termes, cela revient à considérer un coloriage aléatoire <strong>de</strong> Z d avec S = {0, 1} <strong>et</strong><br />

p 1 = p. Alors u v si <strong>et</strong> seulement si X u = 1 <strong>et</strong> T (u, v) = 0.<br />

Pour u ∈ Z d , son cluster <strong>de</strong> percolation C(u) peut être relié à son cluster <strong>de</strong> coloriage aléatoire<br />

C (u) par la relation<br />

{<br />

C (u) si X<br />

C(u) =<br />

u = 1<br />

∅ si X u<br />

(1.22)<br />

= 0<br />

Là encore, on regar<strong>de</strong> les clusters innis (c.f. Grimm<strong>et</strong>t [8]).<br />

Théorème 1.5.3 Il existe p c (Z d , site) ∈ (0, 1) tel que<br />

i. pour tout p < p c (Z d , site), il n'existe p.s. pas <strong>de</strong> cluster inni,<br />

ii. pour tout p > p c (Z d , site), il existe p.s. un unique cluster inni.<br />

Remarque. Comme pour le cas <strong>de</strong> la percolation par arêtes, on ne sait pas ce qu'il se passe pour<br />

p = p c (Z d , site).<br />

Citons encore un théorème que l'on utilisera par la suite (voir Grimm<strong>et</strong>t [8] pour la preuve) :<br />

Théorème 1.5.4 (Moments du cardinal d'un cluster en régime sous-critique) Pour tout<br />

p < p c , pour tout n ∈ N, on a<br />

E [|C(0)| n ] < ∞.<br />

1.5.2 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par arêtes<br />

On se place ici dans le cas standard où les t(e) sont i.i.d. Si les t(e) suivent la loi U, notons<br />

µ(U)<br />

la constante <strong>de</strong> temps associée (qui est unique en vertu <strong>de</strong> la <strong>de</strong>rnière remarque <strong>de</strong> la section 1.3.3).<br />

J. Theodore Cox <strong>et</strong> Harry Kesten démontrent dans Cox Kesten [5] (théorème 3) le théorème<br />

suivant que nous énonçons sans preuve.<br />

Théorème 1.5.5 Soit une suite <strong>de</strong> lois <strong>de</strong> probabilité (U n ) n∈N qui tend faiblement vers la probabilité<br />

U. Alors<br />

µ(U n ) → µ(U).<br />

En d'autres termes, µ est continue pour la topologie <strong>de</strong> la convergence faible.<br />

Harry Kesten prouve dans Kesten [11] le théorème suivant, perm<strong>et</strong>tant <strong>de</strong> savoir dans quel<br />

cas du théorème <strong>de</strong> forme asymptotique on est.<br />

Théorème 1.5.6 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard. Alors<br />

µ > 0 si <strong>et</strong> seulement si P(t(e) = 0) < p c (Z d , arête).<br />

17


1.5.3 <strong>Percolation</strong> <strong>de</strong> <strong>premier</strong> <strong>passage</strong> par sites<br />

Plutôt que <strong>de</strong> se donner <strong>de</strong>s temps d'arête, c'est-à-dire considérer que traverser une arête prend<br />

un certain temps, on peut aussi envisager le modèle qui consiste à se donner <strong>de</strong>s temps <strong>de</strong> site,<br />

c'est-à-dire considérer que c'est la traversée d'un site qui prend du temps.<br />

Ainsi, on se donne une famille <strong>de</strong> v.a. ( t(u) ) <strong>et</strong> on dénit le temps <strong>de</strong> <strong>passage</strong> du chemin<br />

u∈Z d<br />

Γ = (e 1 , e 2 , . . . , e l ) par<br />

T (Γ) =<br />

<strong>et</strong> toujours le temps <strong>de</strong> voyage <strong>de</strong> u à v par<br />

∑<br />

u∈ ⋃ l<br />

i=1 ei t(u),<br />

T (u, v) := inf T (Γ).<br />

uv<br />

Γ<br />

Ce modèle est très utile dans l'étu<strong>de</strong> <strong>de</strong>s coloriages aléatoires car on peut <strong>de</strong> temps en temps<br />

s'y ramener par comparaison comme on le verra au cours du second chapitre. C'est pourquoi on<br />

l'introduit brièvement ici.<br />

On r<strong>et</strong>rouve alors les mêmes résultats que ceux énoncés au cours <strong>de</strong> ce chapitre, à savoir l'existence<br />

<strong>de</strong> la constante <strong>de</strong> temps, que l'on notera ˜µ pour éviter toute ambiguïté, <strong>et</strong> le théorème <strong>de</strong><br />

forme asymptotique. De plus, on a l'analogue <strong>de</strong>s théorèmes 1.5.6 <strong>et</strong> 1.5.5, à savoir :<br />

Théorème 1.5.7 Soit une suite <strong>de</strong> lois <strong>de</strong> probabilité (U n ) n∈N qui tend faiblement vers la probabilité<br />

U. Alors<br />

˜µ(U n ) → ˜µ(U).<br />

En d'autres termes, ˜µ est continue pour la topologie <strong>de</strong> la convergence faible.<br />

Théorème 1.5.8 Soit un modèle <strong>de</strong> percolation <strong>de</strong> <strong>premier</strong> <strong>passage</strong> standard par site. Alors<br />

˜µ > 0 si <strong>et</strong> seulement si P(t(u) = 0) < p c (Z d , site).<br />

18


Chapitre 2<br />

Application aux coloriages aléatoires<br />

Nous commençons ce chapitre en reformulant le théorème <strong>de</strong> forme asymptotique pour les coloriages<br />

aléatoires. Dans un <strong>premier</strong> temps, nous nous intéresserons à la continuité <strong>de</strong> la constante<br />

<strong>de</strong> temps. Dans un second temps, nous donnerons un critère <strong>de</strong> distinction du cas µ = 0 du cas<br />

µ > 0. Et dans un troisième temps, nous étendrons ce résultat au cas où les coloriages ne sont plus<br />

nécessairement indépendants.<br />

2.1 Rappel <strong>de</strong>s principaux résultats<br />

Dans le cas d'un coloriage aléatoire, on a montré au cours <strong>de</strong> la section 1.3.3 que la constante <strong>de</strong><br />

temps µ ∈ R + était bien dénie. La proposition 1.3.4 perm<strong>et</strong> l'application du théorème 1.4.1 que<br />

l'on reformule ici.<br />

Théorème 2.1.1 (<strong>de</strong> forme asymptotique) Soit un modèle <strong>de</strong> coloriage aléatoire. Notons µ la<br />

constante <strong>de</strong> temps associée.<br />

Alors <strong>de</strong>ux cas sont possibles :<br />

i. Soit µ > 0, <strong>et</strong> il existe un convexe compact déterministe d'intérieur non vi<strong>de</strong> B 0 ⊆ R d , symétrique<br />

par rapport aux hyperplans d'équation x i = 0, tel que, p.s., pour tout ε > 0, pour t assez<br />

grand, on ait<br />

(1 − ε)B 0 ⊆ 1 t B(t) ⊆ (1 + ε)B 0.<br />

ii. Soit µ = 0, <strong>et</strong>, p.s., pour tout compact K ⊆ R d , pour t assez grand, on a<br />

K ⊆ 1 t B(t).<br />

Remarques.<br />

i. Pour tout n ∈ N, on a<br />

nB |·| ⊆ B(n),<br />

donc dans la cas µ > 0, on aura B |·| ⊆ B 0 .<br />

ii. Si'l y a un cluster inni d'une certaine couleur, alors au bout d'un certain temps, B(t) n'est<br />

plus borné <strong>et</strong> on est donc dans le cas où µ = 0.<br />

2.2 Continuité <strong>de</strong> µ<br />

2.2.1 Restriction aux chemins courts<br />

On s'intéresse maintenant à la dépendance <strong>de</strong> µ en fonction <strong>de</strong> la loi <strong>de</strong>s (X u ) u∈Z d. On commence<br />

tout d'abord par démontrer un lemme.<br />

19


Lemme 2.2.1 Pour tout n ∈ N ∗ <strong>et</strong> 0 ≤ k < l, dénissons les variables 1<br />

T n (k, l) := inf<br />

{<br />

}<br />

Γ<br />

T (Γ) ; kε 1 lε1 , |Γ| ≤ n(l − k) .<br />

Alors il existe <strong>de</strong>s constantes µ 1 , µ 2 , . . . ∈ R + telles que pour tout n ∈ N ∗ ,<br />

De plus<br />

lorsque n → ∞.<br />

T n (0, k)<br />

k<br />

p.s., L 1<br />

GGGGGGGGGGGGA µ n .<br />

k → ∞<br />

µ n ↓ µ<br />

Remarques.<br />

i. On se restreint ainsi aux chemins courts, dont la taille croît au plus linéairement en fonction<br />

<strong>de</strong> la distance à parcourir.<br />

ii. Le point important <strong>de</strong> ce lemme est la convergence <strong>de</strong> µ n vers µ lorsque n → ∞.<br />

Preuve. 1) On peut appliquer à la famille <strong>de</strong> variables aléatoires ( T n (k, l) ) le théorème sous-additif ergodique<br />

en suivant le schéma <strong>de</strong> la section 1.3.3 pour obtenir l'existance <strong>de</strong>s constantes µ n ∈ R + telles que<br />

0≤k


Par suite, pour n assez grand, |γ k | ≤ nk <strong>et</strong> T n (0, k) = T (0, kε 1 ), <strong>et</strong> p.s.<br />

quand n → ∞.<br />

Ainsi, par convergence monotone,<br />

quand n → ∞.<br />

Et enn,<br />

d'où (2.1).<br />

T n (0, k) ↓ T (0, kε 1 ),<br />

P ( T (0, kε 1 ) < T n (0, k) ) ↓ 0,<br />

inf E [T n(0, k)] ≤ E [T (0, kε 1 )] + k P ( T (0, kε 1 ) < T m (0, k) ) GGGGGGGA<br />

n∈N ∗ m → ∞ E [T (0, kε 1)] ,<br />

□<br />

2.2.2 Continuité <strong>de</strong>s µ n<br />

On introduit à présent quelques notations. Soient<br />

avec la convention que 1, s = N ∗ si s = ∞.<br />

On note encore<br />

P (S ) :=<br />

s = |S | <strong>et</strong> S = { s i , i ∈ 1, s } ,<br />

{<br />

(p 1 , p 2 , . . . , p s ) ∈ [0, 1] S |<br />

}<br />

s∑<br />

p i = 1 ,<br />

<strong>de</strong> sorte que P (S ) s'i<strong>de</strong>ntie canoniquement à l'ensemble <strong>de</strong>s mesures <strong>de</strong> probabilité sur S .<br />

On munit P (S ) <strong>de</strong> la distance <strong>de</strong> la norme innie, c'est-à-dire que si p = (p 1 , p 2 , . . . , p s ) <strong>et</strong><br />

q = (q 1 , q 2 , . . . , q s ) sont dans P (S ), on pose<br />

|p − q| := sup |p i − q i |.<br />

i∈1,s<br />

Si p = (p 1 , p 2 , . . . , p s ) ∈ P (S ), <strong>et</strong> si X u suit la loi<br />

s∑<br />

p i δ si ,<br />

i=1<br />

on notera µ(p) la constante <strong>de</strong> temps associée, <strong>et</strong> pour n ∈ N ∗ , µ n (p) les constantes introduites<br />

dans l'énoncé du lemme 2.2.1.<br />

Proposition 2.2.2 Pour tout n ∈ N, l'application<br />

i=1<br />

P (S ) → R +<br />

p ↦→ µ n (p)<br />

est continue.<br />

Preuve. 1) L'idée est <strong>de</strong> procé<strong>de</strong>r par couplage. On se donne une famille <strong>de</strong> v.a. (U u ) u∈Z d<br />

[0, 1] <strong>et</strong>, pour p = (p 1 , p 2 , . . . , p s ) ∈ P (S ), on dénit pour tout u ∈ Z d<br />

avec la convention que p 0 = 0.<br />

Ainsi,<br />

X (p)<br />

u =<br />

s∑<br />

s i 1 {p0 +...+p i−1 ≤U u 0. On va commencer par montrer que si q ∈ P (S ) est susamment proche <strong>de</strong> p, alors pour tout<br />

u ∈ Z d ,<br />

P(X (p)<br />

u<br />

≠ X (q)<br />

u ) ≤ δ.<br />

21


on a<br />

Pour cela, commençons par xer S ∈ 1, s tel que, si s < ∞, S = s, <strong>et</strong> si s = ∞,<br />

Alors si<br />

(<br />

P X u<br />

(p)<br />

s∑<br />

i=S+1<br />

p i < δ 2 .<br />

|q − p| ≤ δ<br />

4S ,<br />

)<br />

≠ X u<br />

(q) ≤ S<br />

(<br />

2 δ<br />

4S<br />

)<br />

+ δ 2 = δ.<br />

On a majoré par la probabilité que U u tombe autour <strong>de</strong>s S <strong>premier</strong>s points p 1 + . . . + p i à moins <strong>de</strong> δ<br />

le point p 1 + . . . + p S (voir gure 2.1).<br />

4S<br />

ou après<br />

s S<br />

q 0 q 1 q 1 +q 2 q 1 +q 2 +q 3 q 1 +...+q S<br />

s 3<br />

s 2<br />

s 1<br />

2<br />

4S<br />

2<br />

4S<br />

2<br />

4S<br />

2<br />

4S<br />

2<br />

0<br />

1<br />

p 0 p 1 p 1 +p 2 p 1 +p 2 +p 3 p 1 +...+p S<br />

Figure 2.1 Représentation <strong>de</strong>s lois <strong>de</strong> X u<br />

(p)<br />

3) Fixons ε > 0 <strong>et</strong> δ > 0. Soit encore p ′ ∈ P (S ) tel que<br />

<strong>et</strong> X u<br />

(q)<br />

P(X u (p) ≠ X (p′ )<br />

u ) ≤ δ.<br />

Pour n <strong>et</strong> k ∈ N ∗ , notons T n (0, k) <strong>et</strong> T n(0, ′ k) les variables dénies au cours <strong>de</strong> l'énoncé du lemme 2.2.1 associées<br />

respectivement aux congurations<br />

(<br />

X :=<br />

Si on appelle γ k n un chemin tel que<br />

X (p)<br />

u<br />

alors γ k n est mesurable par rapport à σ(X) <strong>et</strong><br />

P ( T ′ n (0, k) ≥ T n(0, k) + εk | X ) ≤ P<br />

Ainsi, pour n <strong>et</strong> k ∈ N ∗ ,<br />

)<br />

(<br />

<strong>et</strong> X ′ :=<br />

u∈Z d<br />

≤<br />

≤<br />

≤<br />

T n(0, k) = T (γ k n),<br />

X (p′ )<br />

u<br />

)<br />

u∈Z d .<br />

(<br />

X ′ dière <strong>de</strong> X en au moins ⌊ ⌋<br />

εk<br />

2 points <strong>de</strong> γ<br />

k<br />

n | X)<br />

C ⌊εk/2⌋<br />

|γ k n | δ ⌊εk/2⌋<br />

2 |γk n | δ εk 2 −1<br />

1 ( )<br />

2 n δ 2 ε k<br />

.<br />

δ<br />

P ( T ′ n(0, k) ≥ T n (0, k) + εk ) ≤ 1 δ<br />

(<br />

2 n δ ε 2<br />

) k<br />

.<br />

Donc si δ < 2 − 2n ε , le lemme <strong>de</strong> Borel-Cantelli implique que, p.s. pour k assez grand,<br />

T ′ n(0, k) < T n (0, k) + εk.<br />

En appliquant le même raisonnement en changeant les rôles <strong>de</strong> p <strong>et</strong> p ′ , on trouve que, p.s. pour k assez grand,<br />

<strong>et</strong> donc<br />

ce qui perm<strong>et</strong> <strong>de</strong> conclure.<br />

|T ′ n(0, k) − T n(0, k)| ≤ εk,<br />

|µ n (p) − µ n (p ′ )| ≤ ε,<br />

□<br />

Corollaire. L'application<br />

est semi-continue supérieurement.<br />

P (S ) → R +<br />

p ↦→ µ(p)<br />

22


Preuve. Ceci découle immédiatement du lemme 2.2.1 <strong>et</strong> <strong>de</strong> la proposition 2.2.2 car l'application µ est un inmum<br />

<strong>de</strong> fonctions continues.<br />

□<br />

2.2.3 Continuité <strong>de</strong> µ<br />

Passons maintenant au résultat principal <strong>de</strong> c<strong>et</strong>te section. Commençons par rappeler un résultat<br />

classique sur le nombre <strong>de</strong> chemins auto-évitants qui partent <strong>de</strong> l'origine. Si on appelle a n le nombre<br />

<strong>de</strong> chemins auto-évitants issus <strong>de</strong> 0 <strong>de</strong> longueur n, alors en coupant un chemin <strong>de</strong> longueur m + n<br />

en un chemin <strong>de</strong> longueur m <strong>et</strong> un autre <strong>de</strong> longueur n, on obtient que<br />

a m+n ≤ a m a n ,<br />

<strong>et</strong> donc en appliquant le lemme sous-additif on obtient l'existence d'une constante λ > 0 telle que<br />

λ = lim<br />

n→∞ a1/n n = inf<br />

n∈N a1/n n .<br />

C<strong>et</strong>te constante est appelée constante <strong>de</strong> connectivité du réseau.<br />

Remarques.<br />

i. On peut minorer simplement a n par le nombre <strong>de</strong> chemins <strong>de</strong> longueur n issus <strong>de</strong> 0 qui ne vont<br />

que dans une direction donnée (par exemple vers la droite <strong>et</strong> vers le haut en dimension 2), ces<br />

chemins étant nécessairement auto-évitants, donc<br />

d n ≤ a n .<br />

On peut majorer a n par le nombres <strong>de</strong> chemin <strong>de</strong> longueur n issus <strong>de</strong> 0 qui ne reviennent<br />

jamais sur leur pas, c'est-à-dire qui n'ont pas <strong>de</strong>ux arêtes consécutives égales, d'où<br />

a n ≤ 2d(2d − 1) n−1 ,<br />

<strong>et</strong> donc<br />

d ≤ λ ≤ 2d − 1.<br />

ii. Il existe <strong>de</strong>s encadrements plus ns <strong>de</strong> la constante λ, mais sa valeur exacte n'est connue que<br />

dans le cas trivial <strong>de</strong> la dimension 1 où λ = 1.<br />

Théorème 2.2.3 L'application<br />

{<br />

p ∈ P (S ) | |p| <<br />

1<br />

λ}<br />

→ R+<br />

p ↦→ µ(p)<br />

est continue.<br />

Preuve. 1) Commençons par traiter le cas s < ∞. Soit 0 < α < 1 λ<br />

. On va montrer un résultat plus fort, que<br />

pour n assez grand, quel que soit p tel que |p| ≤ α, µ n = µ, c'est-à-dire que la suite d'applications (µ n ) n∈N ∗ est<br />

uniformément stationnaire sur {p ∈ P (S ) | |p| < α}. Ceci entraînera la continuité <strong>de</strong> µ sur { p ∈ P (S ) | |p| < 1 }<br />

λ<br />

grâce à la proposition 2.2.2.<br />

Soit<br />

Γ = (e 1 , e 2 , . . . , e l )<br />

un chemin <strong>de</strong> longueur l ∈ N ∗ , <strong>et</strong> k un entier. Notons u 0 , u 1 , . . . , u l les points par lesquels passe Γ, c'est-à-dire que,<br />

pour i ∈ 1, l, u i := e i ∩ e i+1 , <strong>et</strong> u 0 est tel que e 1 = {u 0 , u 1 } (voir gure 2.2).<br />

On a<br />

P(T (Γ) ≤ k)<br />

≤<br />

≤<br />

≤<br />

≤<br />

∑<br />

P(X u0 = X u1 = . . . = X ui1 )P(X ui1 +1 = . . . = X u i2<br />

) . . . P(X uik +1 = . . . = X ul )<br />

0≤i 1


La première inégalité est obtenue en majorant P(T (Γ) ≤ k) par la probabilité qu'il existe k indices i 1 , i 2 , . . . , i k<br />

tels que<br />

X u0 = X u1 = . . . = X ui1 ,<br />

(c.f. gure 2.2).<br />

X ui1 +1 = Xu i 1 +2 = . . . = Xu i 2<br />

,<br />

. . .<br />

X uik +1 = X uik +2 = . . . = Xu l ,<br />

e l<br />

u ik<br />

u<br />

u i5<br />

i1<br />

u i2<br />

u i4<br />

u i3<br />

u 0<br />

e 2<br />

e 1<br />

Appelons<br />

Figure 2.2 Majoration <strong>de</strong> P(T (Γ) ≤ k)<br />

{<br />

}<br />

N k := inf |Γ| | 0 Γ kε 1 , T (Γ) = T (0, kε 1 )<br />

la longueur minimale d'une route <strong>de</strong> 0 à kε 1 .<br />

On avait obtenu au cours <strong>de</strong> la démonstration du lemme 2.2.1<br />

ce que l'on peut réécrire<br />

E [T n(0, k)] ≤ E [T (0, kε 1 )] + k P ( T (0, kε 1 ) < T n(0, k) ) ,<br />

[ Tn(0, k)<br />

E<br />

k<br />

]<br />

≤ E<br />

[ T (0, kε1 )<br />

k<br />

(2.3)<br />

]<br />

+ P(N k > nk). (2.4)<br />

Montrons que pour n assez grand, P(N k > nk) tend uniformément vers 0 sur l'ensemble <strong>de</strong>s p tels que |p| ≤ α.<br />

On a<br />

P(N k > nk) ≤ P(il existe un chemin auto-évitant Γ <strong>de</strong> longueur nk tel que T (Γ) ≤ k)<br />

≤<br />

≤<br />

∑<br />

P ( T (Γ) ≤ k )<br />

Γ<br />

⌢<br />

0·, |Γ|=nk<br />

( ) nk<br />

a nk s<br />

k<br />

k+1 |p| nk+1<br />

La première inégalité provient du fait que si N k > nk, il existe un chemin auto-évitant <strong>de</strong> 0 à kε 1 <strong>de</strong> longueur<br />

supérieure à nk dont le temps <strong>de</strong> parcours est T (0, kε 1 ) ≤ k. A fortiori, il existe un chemin auto-évitant <strong>de</strong> longueur<br />

nk issu <strong>de</strong> 0 dont le temps <strong>de</strong> parcours est inférieur à k (c.f. gure 2.3).<br />

Γ<br />

⌢<br />

La notation 0 · signie que Γ est un chemin auto-évitant issu <strong>de</strong> 0.<br />

Et comme<br />

il existe γ < 1 tel que pour n assez grand (k ≥ 1),<br />

λ < 1 α ,<br />

Dans ce cas, pour |p| ≤ α, on a<br />

P(N k > nk)<br />

( γ<br />

) nk<br />

a nk ≤ .<br />

α<br />

≤<br />

≤<br />

( γ<br />

) nk (nk) k<br />

s k+1 α nk<br />

α k!<br />

s (snkγn ) k<br />

.<br />

k!<br />

24


0<br />

nk<br />

k<br />

1<br />

donc<br />

Or, la formule <strong>de</strong> Stirling implique que<br />

Figure 2.3 Majoration <strong>de</strong> P(N k > nk)<br />

k! ∼ √ ( ) k k<br />

2πk ,<br />

e<br />

(snkγ n ) k<br />

k!<br />

∼ (sneγn ) k<br />

√<br />

2πk<br />

.<br />

Ainsi, pour n assez grand tel que<br />

(sneγ n ) < 1,<br />

on obtient que P(N k > nk) tend uniformément vers 0 sur l'ensemble {p ∈ P (S ) | |p| < α}.<br />

On a alors, en passant à la limite k → ∞ dans (2.4), pour n assez grand, quel que soit p ∈ P (S ) tel que |p| < α,<br />

d'où l'égalité.<br />

µ n(p) ≤ µ(p),<br />

2) Traitons maintenant le cas où s = ∞. Soit ˜p ∈ P (S ) tel que |˜p| < 1 . On va montrer <strong>de</strong> façon analogue au 1)<br />

λ<br />

que (µ n ) n∈N ∗ est uniformément stationnaire au voisinage <strong>de</strong> ˜p.<br />

Soit |˜p| < α < 1 . Il existe S ∈ N tel que<br />

λ ∑<br />

il vient<br />

donc<br />

Alors si<br />

Ainsi, sur le voisinage <strong>de</strong> ˜p<br />

pour r ∈ N ∗ , par convexité <strong>de</strong> x ↦→ x r , il vient<br />

s∑<br />

i=1<br />

p r i ≤ Sαr + ∑ i>S<br />

i>S<br />

˜p i ≤ α 2 .<br />

|p − ˜p| < α<br />

2S ,<br />

∑<br />

p i ≥ ∑ ˜p i − S α<br />

2S ≥ 1 − α,<br />

i≤S i≤S<br />

∑<br />

p i ≤ α.<br />

iS i>S<br />

Le reste <strong>de</strong> la preuve est le même en remplaçant s par S + 1 <strong>et</strong> en restant sur le voisinage V .<br />

Remarque. On a simplement majoré la probabilité que N k soit grand par la probabilité qu'il<br />

existe un long chemin <strong>de</strong> faible temps <strong>de</strong> parcours. On n'a à aucun moment pris en compte le fait<br />

que c'est la longueur d'une route minimale. C<strong>et</strong> argument ne pourra donc pas fonctionner si un <strong>de</strong>s<br />

p i est grand, car alors, il va y avoir <strong>de</strong> grands clusters <strong>de</strong> la i-ème couleur <strong>et</strong> donc <strong>de</strong>s long chemins<br />

<strong>de</strong> faible temps <strong>de</strong> parcours.<br />

Par exemple, si p i dépasse le seuil critique <strong>de</strong> percolation <strong>de</strong> Z d par site, il va y avoir un cluster<br />

inni <strong>de</strong> couleur i <strong>et</strong> dans ce cas, on pourra avoir <strong>de</strong>s chemins arbitrairement grands <strong>de</strong> très faible<br />

temps <strong>de</strong> parcours.<br />

25<br />


La preuve du théorème 2.2.3 suggère un résultat intéressant que nous reformulons ici.<br />

Proposition 2.2.4 Soit N k la longueur d'une route minimale 2 <strong>de</strong> 0 à kε 1 . Alors la quantité<br />

lim sup<br />

k→∞<br />

est uniformément bornée au voisinage <strong>de</strong> tout point p ∈ P (S ) tel que |p| < 1 λ.<br />

Preuve. Soit p ∈ P (S ) tel que |p| < 1 λ . La majoration que l'on a obtenue pour P(N k<br />

> nk) dans l'un <strong>de</strong>s<br />

( <strong>de</strong>ux cas <strong>de</strong> la preuve du théorème 2.2.3 prouve qu'il existe un n ∈ N <strong>et</strong> un voisinage <strong>de</strong> p sur lequel la série <strong>de</strong>s<br />

P(Nk > nk) ) converge, donc en appliquant le lemme <strong>de</strong> Borel-Cantelli, on obtient que, sur ce voisinage, p.s.,<br />

k≥1<br />

pour k assez grand,<br />

N k ≤ nk.<br />

Ceci implique bien que<br />

est uniformément borné au voisinage <strong>de</strong> p.<br />

lim sup<br />

k→∞<br />

N k<br />

k<br />

N k<br />

k<br />

□<br />

2.3 Critère <strong>de</strong> distinction entre les cas µ = 0 <strong>et</strong> µ > 0<br />

2.3.1 Résultats préliminaires<br />

Pour alléger les notations, notons à partir <strong>de</strong> maintenant simplement p c pour p c (Z d , site). Nous<br />

allons voir au cours <strong>de</strong> c<strong>et</strong>te section quelques résultats préliminaires en vue d'établir le théorème<br />

2.3.6 à la section suivante.<br />

Commençons par énoncer sans démonstration (voir Cox Gandolfi Griffin Kesten [4] pour la<br />

preuve <strong>de</strong> ce théorème) un théorème dû à J. Theodore Cox, Alberto Gandolfi, Philip S. Griffin,<br />

<strong>et</strong> Harry Kesten.<br />

Dénition 2.3.1 On appelle animal un sous-ensemble ni ξ <strong>de</strong> Z d contenant l'origine 0 <strong>et</strong> tel<br />

que le graphe (<br />

ξ,<br />

{<br />

{u, v} ∈ E d | u, v ∈ ξ })<br />

soit connexe.<br />

0<br />

Figure 2.4 Exemple d'animal (l'animal est en rouge, le fond orange ne sert qu'à le faire ressortir)<br />

Pour tout l ∈ N ∗ , notons Ξ(l) l'ensemble <strong>de</strong>s animaux <strong>de</strong> taille l,<br />

Ξ(l) := {ξ animal | |ξ| = l}. (2.5)<br />

2. dénie au cours <strong>de</strong> la preuve du théorème 2.2.3 par l'équation (2.3).<br />

26


Notons encore Ξ l'ensemble <strong>de</strong> tous les animaux,<br />

Ξ := ⋃<br />

l∈N ∗ Ξ(l).<br />

On se donne une famille (Z u ) u∈Z d <strong>de</strong> v.a. i.i.d. positives, <strong>et</strong> on s'intéresse aux animaux gourmands<br />

qui, pour une taille xée, maximisent la quantité<br />

∑<br />

Z u ,<br />

u∈ξ<br />

c'est-à-dire qu'on regar<strong>de</strong> les animaux qui, pour une taille donnée, mangent le plus, si on considère<br />

les variables Z u comme une quantité <strong>de</strong> nourriture.<br />

Donnons une version simpliée du théorème :<br />

Théorème 2.3.2 (<strong>de</strong> Cox Gandolfi Griffin Kesten) Soit (Z u ) u∈Z d une famille <strong>de</strong> v.a.<br />

positives i.i.d. telle qu'il existe ε > 0 tel que<br />

Alors, p.s.,<br />

lim sup<br />

l→∞<br />

E [ Z d+ε<br />

u<br />

1<br />

l<br />

sup<br />

]<br />

< ∞.<br />

ξ∈Ξ(l)<br />

u∈ξ<br />

∑<br />

Z u < ∞.<br />

Remarque. Dans Cox Gandolfi Griffin Kesten [4], les hypothèses sont allégées, mais c<strong>et</strong>te<br />

version sera susante pour ce mémoire.<br />

Nous allons, à l'ai<strong>de</strong> <strong>de</strong> ce théorème, démontrer un théorème similaire pour les clusters <strong>de</strong> la<br />

percolation. Commençons tout d'abord par <strong>de</strong>ux lemmes <strong>de</strong> théorie <strong>de</strong>s graphes.<br />

Lemme 2.3.3 Soit, pour tout w ∈ Z d , un sous-ensemble ξ(w) <strong>de</strong> Z d vi<strong>de</strong>, ou alors contenant w <strong>et</strong><br />

tel que le graphe (<br />

ξ(w),<br />

{<br />

{u, v} ∈ E d | u, v ∈ ξ(w) })<br />

soit connexe (ξ(w) n'est a priori pas supposé ni).<br />

Soit encore une application z : Z d → Z d telle que pour tout u ∈ Z d , z(u) est tel que<br />

z(u) = u ou u ∈ ξ ( z(u) ) .<br />

Alors, pour tout ξ ∈ Ξ, il existe ξ ′ ∈ Ξ tel que ξ ⊆ ξ ′ <strong>et</strong><br />

1<br />

|ξ|<br />

∑<br />

u∈ξ<br />

|ξ ( z(u) ) | ≤ 2<br />

|ξ ′ |<br />

∑<br />

u ′ ∈ξ ′ |ξ(u ′ )| 2 .<br />

Preuve. S'il existe u 0 ∈ Z d tel que |ξ(u 0 )| = ∞, alors il sut <strong>de</strong> prendre<br />

ξ ′ := ξ ∪ {u 0 }.<br />

Sinon, pour tout u ∈ Z d , |ξ(u)| < ∞, c'est-à-dire<br />

Posons<br />

ξ(u) ∈ (u + Ξ) ∪ {∅}.<br />

A := 1<br />

|ξ|<br />

∑<br />

|ξ ( z(u) ) |.<br />

u∈ξ<br />

C'est la taille moyenne <strong>de</strong>s ξ ( z(u) ) pour u ∈ ξ. On va alors grossir ξ en lui rajoutant les points z(u) pour lesquels<br />

|ξ ( z(u) ) | est grand : soit<br />

<strong>et</strong><br />

{<br />

˜ξ := u ∈ ξ | |ξ ( z(u) ) | ≥ A }<br />

,<br />

2<br />

⎛<br />

⎞<br />

ξ ′ := ξ ∪ ⎝ ⋃ ξ ( z(u) ) ⎠ .<br />

u∈˜ξ<br />

27


Si u ∈ ˜ξ <strong>et</strong> ξ ( z(u) ) ≠ ∅ (ce qui arrive nécessairement si A ≠ 0), alors u ∈ ξ ( z(u) ) , donc<br />

<strong>et</strong> comme ξ ∈ Ξ <strong>et</strong> |˜ξ| < ∞,<br />

ξ ∩ ξ ( z(u) ) ≠ ∅,<br />

ξ ′ ∈ Ξ.<br />

Pour v ∈ ξ ′ \ξ, il existe u ∈ ˜ξ tel que v ∈ ξ ( z(u) ) . Posons z ′ (v) := z(u). Ainsi z ′ (v) ∈ ξ ( z(u) ) ⊆ ξ ′ <strong>et</strong><br />

Pour v ∈ ˜ξ, posons simplement z ′ (v) = z(v) ∈ ξ ′ .<br />

Dans tous les cas,<br />

ξ ( z ′ (v) ) ≥ A 2 .<br />

v ∈ ξ ( z ′ (v) ) ,<br />

<strong>et</strong> donc, pour u ′ ∈ ξ ′ , {<br />

v ∈ (ξ ′ \ξ) ∪ ˜ξ, z ′ (v) = u ′} ⊆ ξ(u ′ ).<br />

Ainsi,<br />

∑<br />

|ξ(u ′ )| 2 ≥ ∑<br />

u ′ ∈ξ ′<br />

{<br />

|ξ(u ′ )| ∣ v ∈ (ξ ′ \ξ) ∪ ˜ξ, z ′ (v) = u ′}∣ ∣ u ′ ∈ξ ′<br />

= ∑ ∑<br />

|ξ ( z ′ (v) ) |<br />

u ′ ∈ξ ′ v∈(ξ ′ \ξ)∪˜ξ, z ′ (v)=u ′<br />

∑<br />

=<br />

|ξ ( z ′ (v) ) |<br />

=<br />

v∈(ξ ′ \ξ)∪˜ξ<br />

∑<br />

|ξ ( z ′ (v) ) | + ∑ |ξ ( z(v) ) |<br />

v∈ξ ′<br />

v∈(ξ ′ \ξ)<br />

∑<br />

= |ξ ( z ′ (v) ) | + ∑ |ξ ( z(v) ) | −<br />

∑<br />

|ξ ( z(v) ) |<br />

v∈(ξ ′ } {{ }<br />

} {{ }<br />

\ξ)<br />

v∈ξ<br />

≥ A v∈(ξ\˜ξ)<br />

} {{ }<br />

≤<br />

2<br />

A 2<br />

=A|ξ|<br />

≥ A ( (|ξ ′ | − |ξ| ) ( ))<br />

+ 2|ξ| − |ξ| − |˜ξ|<br />

2<br />

ce qui est l'inégalité voulue.<br />

≥ A 2 |ξ′ |,<br />

□<br />

Lemme 2.3.4 Soit, pour tout w ∈ Z d , un sous-ensemble ξ(w) <strong>de</strong> Z d vi<strong>de</strong>, ou alors contenant w <strong>et</strong><br />

tel que le graphe (<br />

ξ(w),<br />

{<br />

{u, v} ∈ E d | u, v ∈ ξ(w) })<br />

soit connexe.<br />

Si pour u ∈ Z d , on dénit, avec la convention sup ∅ = 0,<br />

alors, pour tout ξ ∈ Ξ, on a<br />

U(u) := sup { |ξ(v)| | v ∈ Z d , u ∈ ξ(v) } ,<br />

1 ∑<br />

1 ∑<br />

U(u) ≤ 2 sup<br />

|ξ|<br />

ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |<br />

u∈ξ<br />

u ′ ∈ξ ′ |ξ(u ′ )| 2 . (2.6)<br />

Preuve. Si le terme <strong>de</strong> gauche <strong>de</strong> (2.6) est inni, cela signie qu'il existe u 0 ∈ Z d tel que U(u 0 ) = ∞ vu que la<br />

somme est nie. Dans ce cas<br />

sup |ξ(v)| = ∞,<br />

v∈Z<br />

<strong>et</strong> le membre <strong>de</strong> droite <strong>de</strong> (2.6) est aussi inni, comme d on peut le voir par exemple en se restreignant aux animaux<br />

ξ ∪ {v}, v parcourant Z d .<br />

Sinon, pour tout u, le supremum dénissant U(u) est atteint, il existe donc z(u) ∈ Z d tel que u ∈ ξ ( z(u) ) <strong>et</strong><br />

U(u) = |ξ ( z(u) ) |.<br />

On dénit ainsi une application z qui vérie les hypothèses <strong>de</strong> lemme 2.3.3. On a donc<br />

ce qui est l'inégalité voulue.<br />

1<br />

|ξ|<br />

∑<br />

u∈ξ<br />

|ξ ( z(u) ) 1<br />

| ≤ 2 sup<br />

ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |<br />

Passons maintenant au théorème principal <strong>de</strong> c<strong>et</strong>te section.<br />

28<br />

∑<br />

u ′ ∈ξ ′ |ξ(u ′ )| 2 ,<br />


Théorème 2.3.5 Considérons sur Z d un modèle <strong>de</strong> percolation par site <strong>de</strong> paramètre p < p c . Pour<br />

tout u ∈ Z d , notons C(u) le cluster (<strong>de</strong> percolation 3 ) du point u.<br />

Alors, p.s.,<br />

lim sup<br />

l→∞<br />

1<br />

l<br />

sup<br />

ξ∈Ξ(l)<br />

u∈ξ<br />

∑<br />

|C(u)| < ∞.<br />

Preuve. On ne peut pas appliquer directement le théorème 2.3.2 car les v.a. |C(u)|, u ∈ Z d ne sont bien sûr pas<br />

indépendantes. Nous allons les majorer stochastiquement 4 .<br />

1) On considère une famille ( ˜C(u) ) <strong>de</strong> v.a. i.i.d. <strong>de</strong> même loi que C(0). Posons, pour tout u,<br />

<strong>de</strong> sorte que ξ(u) (loi) = C(u).<br />

Z d ,<br />

ξ(u) = u + ˜C(u),<br />

On va construire algorithmiquement les clusters <strong>de</strong> percolation. On commence par ordonner <strong>de</strong> façon déterministe<br />

Z d = {u i , i ∈ N}.<br />

On prend Ĉ(u 1) := ξ(u 1 ) <strong>et</strong> on procè<strong>de</strong> par récurrence. Si on a déjà Ĉ(u 1), Ĉ(u 2), ..., Ĉ(u n), on prend Ĉ(u n+1)<br />

comme suit :<br />

s'il existe i ∈ 1, n tel que u n+1 ∈ Ĉ(u i), on dénit<br />

Ĉ(u n+1 ) := Ĉ(u i),<br />

si u n+1 ∈ ∂ ˆB n (voir gure 1.6 pour la dénition <strong>de</strong> la frontière), avec ˆB n :=<br />

( ⋃n<br />

i=1 Ĉ(u i))<br />

, on dénit<br />

Ĉ(u n+1 ) := ∅,<br />

sinon, en appelant ˆB n := ˆB n ∪ ∂ ˆB n , on prend pour Ĉ(u n+1) le cluster <strong>de</strong> u n+1 dans<br />

ξ(u n+1 )\ ˆB n.<br />

1<br />

0<br />

u n+1<br />

(u n+1 )<br />

Figure 2.5 Dénition <strong>de</strong> Ĉ(u n+1) (en jaune)<br />

3. Voir (1.21) ou (1.22).<br />

4. Voir Ge<strong>org</strong>ii Häggström Maes [7] pour <strong>de</strong>s rappels sur les dominations stochastiques.<br />

29


Ceci dénit bien les clusters d'un modèle <strong>de</strong> percolation par site sur Z d : on vérie par récurrence que pour tout<br />

n ∈ N ∗ ,<br />

(Ĉ(u1 ), Ĉ(u 2), . . . , Ĉ(u n)<br />

) (loi)<br />

=<br />

(<br />

)<br />

C(u 1 ), C(u 2 ), . . . , C(u n ) .<br />

En e<strong>et</strong>,<br />

Ĉ(u 1 ) (loi) = C(u 1 ),<br />

<strong>et</strong>, conditionnellement à (C(u 1 ), C(u 2 ), . . . , C(u n)), trois cas sont possibles :<br />

s'il existe i ∈ 1, n tel que u n+1 ∈ C(u i ), c'est-à-dire u i u n+1 , on a<br />

C(u n+1 ) = C(u i ),<br />

si u n+1 ∈ ∂B n , avec B n := (⋃ n<br />

i=1 C(u i) ) , alors u n+1 ne peut pas être ouvert car sinon il serait relié à un point<br />

<strong>de</strong> B n donc à un C(u i ) pour un certain i ∈ 1, n. On a donc<br />

C(u n+1 ) := ∅,<br />

enn, si u n+1 /∈ B n := B n ∪ ∂B n , la loi <strong>de</strong> C(u n+1 ) est celle du cluster <strong>de</strong> percolation <strong>de</strong> u n+1 sur Z d \B n ,<br />

donc C(u n+1 ) a la loi du cluster <strong>de</strong> u n+1 <strong>de</strong><br />

ξ(u n+1 )\B n .<br />

On obtient ainsi que la famille (Ĉ(u)) u∈Z d a bien la loi <strong>de</strong>s clusters d'une percolation par site sur Zd .<br />

2) On va pouvoir maintenant majorer stochastiquement leur cardinal. Grâce à c<strong>et</strong>te construction, on a que pour<br />

tout u ∈ Z d , il existe v ∈ Z d tel que<br />

Ĉ(u) ⊆ ξ(v) <strong>et</strong> u ∈ ξ(v).<br />

Donc, pour tout u ∈ Z d ,<br />

En appelant<br />

}<br />

{|ξ(v)| |Ĉ(u)| ≤ sup | v ∈ Z d , u ∈ ξ(v) .<br />

{<br />

}<br />

U(u) := sup |ξ(v)| | v ∈ Z d , u ∈ ξ(v) ,<br />

on vient <strong>de</strong> montrer la majoration stochastique<br />

(<br />

( )<br />

|C(u)|<br />

)u∈Z ≼ U(u)<br />

d u∈Zd. (2.7)<br />

3) Les ξ(u) vérient pour tout ω les hypothèses du lemme 2.3.4 (en fait, comme p < p c, on a même que p.s.<br />

ξ(u) ∈ (u + Ξ) ∪ {∅}). L'équation (2.6) montre que, pour tout ξ ∈ Ξ, on a p.s.<br />

1<br />

|ξ|<br />

Compte tenu <strong>de</strong> la domination stochastique (2.7), on a<br />

lim sup<br />

l→∞<br />

1<br />

l<br />

∑<br />

sup<br />

ξ∈Ξ(l)<br />

u∈ξ<br />

∑<br />

1 ∑<br />

U(u) ≤ 2 sup<br />

u∈ξ<br />

ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |ξ(u ′ )| 2 .<br />

|<br />

u ′ ∈ξ ′<br />

1 ∑<br />

sup |C(u)|<br />

ξ∈Ξ(l) |ξ|<br />

u∈ξ<br />

1 ∑<br />

≤ lim sup sup U(u)<br />

l→∞ ξ∈Ξ(l) |ξ|<br />

u∈ξ<br />

1 ∑<br />

≤ 2 lim sup sup<br />

l→∞ ξ∈Ξ(l), ξ ′ ∈Ξ, ξ⊆ξ ′ |ξ ′ |ξ(u ′ )| 2<br />

|<br />

u ′ ∈ξ ′<br />

1 ∑<br />

= 2 lim sup sup<br />

l→∞ ξ ′ ∈Ξ, |ξ ′ |≥l |ξ ′ |ξ(u ′ )| 2<br />

|<br />

u ′ ∈ξ ′<br />

= 2 lim sup<br />

1 ∑<br />

sup<br />

l→∞ k≥l ξ ′ ∈Ξ, |ξ ′ |≥k |ξ ′ |ξ(u ′ )| 2<br />

|<br />

u ′ ∈ξ ′<br />

= 2 lim sup 1 ∑<br />

sup<br />

l→∞ k≥l ξ ′ ∈Ξ(k) |ξ ′ |ξ(u ′ )| 2<br />

|<br />

u ′ ∈ξ ′<br />

1 ∑<br />

= 2 lim sup sup |ξ(u ′ )| 2<br />

l→∞ ξ ′ ∈Ξ(l) l<br />

u ′ ∈ξ ′<br />

1 ∑<br />

= 2 lim sup sup |ξ(u)| 2 .<br />

l→∞ l ξ∈Ξ(l)<br />

u∈ξ<br />

|C(u)| = lim sup<br />

l→∞<br />

Les variables ( |ξ(u)| 2) sont i.i.d. <strong>et</strong> ont <strong>de</strong>s moments exponentiels <strong>de</strong> tout ordre d'après le théorème 1.5.4<br />

u∈Z<br />

puisque d p < p c , donc le théorème 2.3.2 s'applique <strong>et</strong> on obtient le résultat désiré.<br />

□<br />

30


2.3.2 Théorème<br />

Nous sommes maintenant en mesure <strong>de</strong> démontrer le théorème.<br />

Théorème 2.3.6 On a l'équivalence<br />

µ(p) > 0 si <strong>et</strong> seulement si |p| < p c .<br />

Preuve. 1) Si |p| > p c , alors il existe i ∈ 1, s tel que p i > p c donc il existe p.s. un cluster inni <strong>de</strong> couleur s i<br />

d'après le théorème 1.5.3. Ainsi, p.s. pour n assez grand, B(n) n'est plus bornée. Dès que B(n) contient un point du<br />

cluster inni (ce qui arrive nécessairement car nB |·| ⊆ B(n)) elle contient tout le cluster inni.<br />

On est alors dans le cas ii. du théorème 2.1.1 <strong>de</strong> forme asymptotique, c'est-à-dire µ = 0.<br />

2) Maintenant, si |p| = p c, il existe i ∈ 1, s tel que p i = p c (bien sûr |p| = max i∈1,s p i compte tenu <strong>de</strong> la<br />

condition ∑ i∈1,s p i = 1).<br />

Soit<br />

X ∼ (p) Zd .<br />

Dénissons, pour tout u ∈ Z d ,<br />

˜X u := 1 {Xu ≠s i }.<br />

Ainsi, les ˜X u sont <strong>de</strong>s v.a. <strong>de</strong> Bernoulli i.i.d. <strong>de</strong> paramètre 1 − p i = 1 − p c. Notons ˜µ la constante <strong>de</strong> temps<br />

associée.<br />

Pour tout u, v ∈ Z d ,<br />

T (u, v) ≤ 2 ˜T (u, v),<br />

où il s'agit <strong>de</strong>s temps <strong>de</strong> parcours associés respectivement à X <strong>et</strong><br />

C<strong>et</strong>te majoration provient du fait que sur un chemin Γ, si <strong>de</strong>ux ˜X.<br />

points sont <strong>de</strong> couleur s i <strong>et</strong> tels qu'il n'y a pas<br />

d'autre point <strong>de</strong> couleur s i entre eux, alors le temps entre ces <strong>de</strong>ux points est majoré par le nombre <strong>de</strong> points entre<br />

eux plus un, donc par <strong>de</strong>ux fois ce nombre (voir gure 2.6).<br />

v<br />

s i<br />

u<br />

Figure 2.6 Majoration <strong>de</strong> T par 2 ˜T<br />

Ainsi, on a aussi<br />

µ ≤ 2˜µ. (2.8)<br />

Or P( ˜X u = 0) = p c ≥ p c, donc ˜µ = 0 d'après le théorème 1.5.8 <strong>et</strong> donc µ = 0.<br />

On aurait pu mener le même raisonnement si |p| ≥ p c mais l'argument donné en 1) est plus simple.<br />

3) Si |p| < p c, on va montrer que µ > 0. On se ramène au cas s < ∞. Si s = ∞, il existe S tel que ∑ i≥S p i < p c,<br />

on considère alors que toutes les couleurs s i , i ≥ S ne sont qu'une seule <strong>et</strong> même couleur s S . Ceci a pour e<strong>et</strong> <strong>de</strong><br />

diminuer les temps <strong>de</strong> parcours, donc aussi la constante <strong>de</strong> temps.<br />

Commençons par minorer µ. Si Γ est un chemin, notons Γ ∗ l'ensemble <strong>de</strong>s sites par lesquels il passe. Alors T (Γ)<br />

est le nombre <strong>de</strong> changements <strong>de</strong> couleur le long <strong>de</strong> Γ, donc est supérieur au nombre <strong>de</strong> clusters que Γ ∗ rencontre<br />

moins un : chaque fois que Γ rencontre un nouveau cluster, T augmente d'un, sauf pour le cluster dans lequel Γ<br />

commence (voir gure 2.7).<br />

Donc, en notant encore C (u) le cluster du point u ∈ Z d , <strong>et</strong><br />

C := {C cluster | C ∩ Γ ∗ ≠ ∅},<br />

31


u<br />

(u)<br />

Figure 2.7 Minoration <strong>de</strong> µ<br />

alors en remarquant que {C ∩ Γ ∗ , C ∈ C} forme une partition <strong>de</strong> Γ ∗ , on a<br />

Ainsi,<br />

1 + T (0, kε 1 )<br />

k<br />

1 + T (Γ) ≥ |C|<br />

= ∑ C ∈C<br />

1<br />

= ∑ ∑ 1<br />

|C ∩ Γ ∗ |<br />

C ∈C u∈C ∩Γ ∗<br />

= ∑ ∑ 1<br />

|C (u) ∩ Γ ∗ |<br />

C ∈C u∈C ∩Γ ∗<br />

= ∑ 1<br />

|C (u) ∩ Γ ∗ | .<br />

u∈Γ ∗<br />

1 + T (Γ)<br />

= inf<br />

0kε Γ k<br />

1<br />

∑<br />

≥<br />

1<br />

inf<br />

0kε Γ k<br />

1<br />

1<br />

|C (u) ∩ Γ ∗ |<br />

u∈Γ ∗ ∑<br />

1<br />

1<br />

≥ inf<br />

0kε Γ |Γ ∗ | |C (u) ∩ Γ ∗ |<br />

1 u∈Γ ∗<br />

⎛<br />

⎞−1<br />

≥ inf ⎝ 1 ∑<br />

0kε Γ |Γ ∗ |C (u) ∩ Γ ∗ | ⎠<br />

|<br />

1 u∈Γ ∗<br />

⎛<br />

⎞−1<br />

≥ inf ⎝ 1 ∑<br />

0kε Γ |Γ ∗ |C (u)| ⎠<br />

|<br />

1 u∈Γ ∗<br />

⎛<br />

⎞−1<br />

≥ inf ⎝ 1 ∑<br />

Γ<br />

|Γ ∗ |C (u)| ⎠<br />

|<br />

⌢<br />

0·, |Γ ∗ u∈Γ<br />

|≥k<br />

∗ ⎛<br />

⎞−1<br />

= inf inf ⎝ 1 ∑<br />

|C (u)| ⎠ .<br />

l≥k Γ<br />

l<br />

⌢<br />

0·, |Γ ∗ u∈Γ<br />

|=l<br />

∗<br />

L'inégalité <strong>de</strong> la troisième ligne provient du fait que si 0 Γ kε 1 , alors |Γ ∗ | ≥ k, celle <strong>de</strong> la quatrième est<br />

Γ<br />

l'inégalité <strong>de</strong> Jensen pour la fonction concave x ↦→ 1 . On rappelle que la notation ⌢<br />

0<br />

x · signie que Γ est un chemin<br />

auto-évitant issu <strong>de</strong> 0.<br />

En passant à la limite p.s. k → ∞, il vient,<br />

⎛<br />

⎞−1<br />

µ ≥ ⎜<br />

1 ∑<br />

⎝lim sup sup<br />

|C (u)| ⎟<br />

l→∞ Γ l<br />

⎠ .<br />

⌢<br />

0·, |Γ ∗ u∈Γ ∗ |=l<br />

32


Il sut donc <strong>de</strong> montrer que, p.s.<br />

Si on note, pour u ∈ Z d ,<br />

on a pour tout u ∈ Z d ,<br />

lim sup<br />

l→∞<br />

où la notation ⊔ désigne l'union disjointe.<br />

Ainsi,<br />

lim sup<br />

l→∞<br />

sup<br />

Γ<br />

⌢<br />

0·, |Γ ∗ |=l<br />

1<br />

l<br />

sup<br />

Γ<br />

⌢<br />

0·, |Γ ∗ |=l<br />

1<br />

l<br />

∑<br />

u∈Γ ∗ |C (u)| < ∞.<br />

{ C (u)<br />

C i<br />

si X<br />

(u) :=<br />

u = s i<br />

,<br />

∅ si X u ≠ s i<br />

∑<br />

C (u) =<br />

u∈Γ ∗ |C (u)| =<br />

s⊔<br />

C i ,<br />

i=1<br />

s∑<br />

i=1<br />

lim sup<br />

l→∞<br />

sup<br />

Γ<br />

⌢<br />

0·, |Γ ∗ |=l<br />

1<br />

l<br />

∑<br />

u∈Γ ∗ |C i (u)|.<br />

Étant donné que l'on s'est ramené au cas s < ∞, il s'agit donc <strong>de</strong> montrer que, pour tout i ∈ 1, s, p.s.<br />

Or<br />

lim sup<br />

l→∞<br />

lim sup<br />

l→∞<br />

sup<br />

Γ<br />

⌢<br />

0·, |Γ ∗ |=l<br />

sup<br />

Γ<br />

⌢<br />

0·, |Γ ∗ |=l<br />

1<br />

l<br />

∑<br />

1<br />

l<br />

∑<br />

u∈Γ ∗ |C i (u)| < ∞.<br />

|C i (u)| ≤ lim sup<br />

u∈Γ ∗ l→∞<br />

sup<br />

ξ∈Ξ(l)<br />

1<br />

l<br />

∑<br />

|C i (u)|<br />

où l'ensemble Ξ(l) a été déni précé<strong>de</strong>mment par (2.5) : pour tout chemin Γ auto-évitant issu <strong>de</strong> 0, Γ ∗ est bien sûr<br />

un animal.<br />

Mais les C i (u), u ∈ Z d sont les clusters d'une percolation (par site) <strong>de</strong> paramètre p i < p c (c.f. (1.22)), le théorème<br />

2.3.5 perm<strong>et</strong> donc <strong>de</strong> conclure que, pour tout i ∈ 1, s,<br />

ce qui achève la preuve <strong>de</strong> ce théorème.<br />

lim sup<br />

l→∞<br />

2.4 <strong>Coloriages</strong> dépendants<br />

sup<br />

ξ∈Ξ(l)<br />

1<br />

l<br />

∑<br />

|C i (u)| < ∞,<br />

u∈ξ<br />

On cherche à étendre le résultat du théorème 2.3.6 à <strong>de</strong>s coloriages aléatoires dépendants. On<br />

considère toujours une famille (X u ) u∈Z d <strong>de</strong> variables aléatoires à valeurs dans S , mais au lieu <strong>de</strong><br />

les supposer i.i.d., on suppose simplement que c<strong>et</strong>te famille a une loi invariante par translation <strong>et</strong><br />

qu'elle est ergodique.<br />

On dénit encore les temps d'arêtes par la relation<br />

t ({u, v}) = 1 {Xu≠X v}.<br />

Ces temps d'arête héritent <strong>de</strong>s propriétés d'invariance par translation <strong>et</strong> d'ergodicité <strong>de</strong> la famille<br />

(X u ) u∈Z d, <strong>et</strong> le théorème 1.4.1 s'applique toujours. En revanche, on n'a pas en général une<br />

unique constante <strong>de</strong> temps µ comme c'était le cas précé<strong>de</strong>mment.<br />

On connaît néanmoins une condition garantissant qu'on se trouve dans le cas i. du théorème <strong>de</strong><br />

forme asymptotique, c'est-à-dire dans le cas où la forme asymptotique n'est pas R d tout entier.<br />

Pour u ∈ Z d , notons<br />

G u := σ ( X v , v ∈ Z d \{u} ) ,<br />

la tribu <strong>de</strong>s événements qui ne dépen<strong>de</strong>nt pas <strong>de</strong> ce qu'il se passe en u.<br />

Théorème 2.4.1 Pour que toutes les constantes <strong>de</strong> temps soient strictement positives (cas i. du<br />

théorème 1.4.1), il sut que<br />

sup P(X 0 = s i | G 0 ) < p c .<br />

i∈1,s<br />

Remarque. En notant p la loi <strong>de</strong>s X u conditionnellement à G u (qui ne dépend pas <strong>de</strong> u ∈ Z d<br />

par invariance par translation), on r<strong>et</strong>rouve la même condition que pour le théorème 2.3.6, à savoir<br />

|p| < p c .<br />

u∈ξ<br />

□<br />

33


Preuve. On procè<strong>de</strong> <strong>de</strong> la même manière qu'au cas 3) <strong>de</strong> la preuve du théorème 2.3.6. On commence par se<br />

ramener au cas s < ∞ puis on mène les mêmes calculs <strong>et</strong> on est amené à montrer que pour tout i ∈ 1, s,<br />

lim sup<br />

l→∞<br />

sup<br />

ξ∈Ξ(l)<br />

1<br />

l<br />

∑<br />

|C i (u)| < ∞.<br />

u∈ξ<br />

Les C i (u) ne sont plus les clusters d'une percolation (indépendante) par site. Fixons i ∈ 1, s <strong>et</strong> dénissons les<br />

v.a.<br />

N u := 1 {Xu =s i },<br />

<strong>de</strong> sorte que les C i (u) sont les clusters <strong>de</strong> la percolation dépendante (N u) u∈Z d. Soit encore une famille (Ñu) u∈Z d <strong>de</strong><br />

v.a. i.i.d. <strong>de</strong> loi <strong>de</strong> Bernoulli <strong>de</strong> paramètre |p|.<br />

Nous allons montrer la domination stochastique 4 suivante :<br />

(N u ) u∈Z d ≼ (Ñu) u∈Z d. (2.9)<br />

Pour cela, nous allons montrer que pour toute fonction f croissante sur {0, 1} Ed ,<br />

E<br />

[<br />

f<br />

( (<br />

N u<br />

)u∈Z d )]<br />

≤ E<br />

Pour toute fonction g croissante sur {0, 1}, <strong>et</strong> u ∈ Z d , on a<br />

Donc si f est <strong>de</strong> la forme<br />

E [g(N u ) | G u ] = g(0) P(N u = 0 | G u ) + g(1) P(N u = 1 | G u )<br />

[<br />

f<br />

= g(0) + (g(1) − g(0)) P(X u = s i | G u )<br />

} {{ }<br />

≥0<br />

≤<br />

g(0) + (g(1) − g(0)) |p|<br />

= g(0) (1 − |p|) + g(1) |p|<br />

[ )]<br />

= E g<br />

(Ñu .<br />

f ( (ω(u)) u∈Z d)<br />

= f1 (ω(u 1 ))f 2 (ω(u 2 )) . . . f m(ω(u m)),<br />

avec les u i , i ∈ 1, m, distincts, alors les f i , i ∈ 1, m, sont croissantes sur {0, 1} <strong>et</strong><br />

E<br />

[<br />

f<br />

( (<br />

N u<br />

)u∈Z d )]<br />

= E [f 1 (N u1 )f 2 (N u2 ) . . . f m (N um )]<br />

= E [E [f 1 (N u1 )f 2 (N u2 ) . . . f m (N um ) | G u1 ]]<br />

= E [E [f 1 (N u1 ) | G u1 ] f 2 (N u2 ) . . . f m (N um )]<br />

.<br />

( (Ñu<br />

)u∈Z d )]<br />

. (2.10)<br />

= E [E [f 1 (N u1 ) | G u1 ] E [f 2 (N u2 ) | G u2 ] . . . E [f m (N um ) | G um ]]<br />

[<br />

)]<br />

)]<br />

)]]<br />

≤ E E<br />

[f 1<br />

(Ñu1 E<br />

[f 2<br />

(Ñu2 . . . E<br />

[f m<br />

(Ñum<br />

) )<br />

)]<br />

= E<br />

[f 1<br />

(Ñu1 f 2<br />

(Ñu2 . . . f m<br />

(Ñum<br />

[ ( )]<br />

= E f<br />

(Ñu .<br />

)u∈Z d<br />

On a utilisé dans l'ordre le fait que pour i ≠ j, N ui est G uj -mesurable, l'inégalité précé<strong>de</strong>nte, <strong>et</strong> le fait que les<br />

Ñ u , u ∈ Z d , sont indépendantes. On conclut que l'inégalité (2.10) est vraie pour toute fonction croissante sur {0, 1} Ed<br />

à l'ai<strong>de</strong> du lemme <strong>de</strong> classe monotone.<br />

La domination stochastique (2.9) implique la suivante :<br />

(<br />

|C i (u)|<br />

( )<br />

)u∈Z ≼ |C(u)|<br />

d<br />

u∈Z d,<br />

où les C(u), u ∈ Z d , sont les clusters d'une percolation (indépendante, par site) <strong>de</strong> paramètre |p| < p c . En e<strong>et</strong>, il<br />

existe une fonction croissante déterministe ϕ telle que<br />

On a alors<br />

grâce au théorème 2.3.5.<br />

(<br />

|C i (u)|<br />

)<br />

= ϕ ( )<br />

(N u )<br />

u∈Z d u∈Z d<br />

lim sup<br />

l→∞<br />

sup<br />

ξ∈Ξ(l)<br />

1<br />

l<br />

∑<br />

u∈ξ<br />

<strong>et</strong><br />

|C i (u)| ≤ lim sup<br />

l→∞<br />

(<br />

( )<br />

|C(u)|<br />

)u∈Z = ϕ (Ñu) d u∈Z d .<br />

sup<br />

ξ∈Ξ(l)<br />

1<br />

l<br />

∑<br />

|C(u)| < ∞,<br />

u∈ξ<br />

□<br />

34


2.5 Quelques simulations<br />

Dans le cas général, il n'est pas toujours aisé <strong>de</strong> calculer les T (0, u), pour u ∈ Z d , surtout dans<br />

le cas où les temps d'arête ne sont pas minorés par une constante strictement positive (comme c'est<br />

le cas pour les coloriages aléatoires), car il faut considérer un inmum sur un ensemble inni. L'idée<br />

pour simuler B(t ′ ) à partir <strong>de</strong> B(t), t < t ′ est <strong>de</strong> faire grossir B(t) en regardant les points que l'on<br />

peut atteindre à partir <strong>de</strong> B(t) en restant en <strong>de</strong>ssous <strong>de</strong> t ′ . En procédant ainsi, on obtient à chaque<br />

étape un majorant <strong>de</strong>s T (0, u) pour les u ∈ B(t).<br />

C<strong>et</strong>te métho<strong>de</strong> impose <strong>de</strong> considérer beaucoup <strong>de</strong> chemins <strong>et</strong> donc <strong>de</strong> faire beaucoup <strong>de</strong> calculs.<br />

Dans le cas <strong>de</strong>s coloriages aléatoires <strong>de</strong> Z 2 , on peut facilement simuler l'évolution <strong>de</strong> B(n), n ∈ N,<br />

à l'ai<strong>de</strong> <strong>de</strong> la proposition 1.2.2, il sut <strong>de</strong> rajouter à B(n) les clusters <strong>de</strong>s points <strong>de</strong> ∂B(n) pour<br />

obtenir B(n + 1).<br />

Sur la gure 2.8, on peut voir une réalisation <strong>de</strong> B(100) (en blanc), ∂B(100) (en noir) sur<br />

−250, 250 2 où les couleurs sont uniformes sur {bleu clair, bleu foncé, viol<strong>et</strong>, jaune}.<br />

250<br />

200<br />

150<br />

100<br />

B(100)<br />

50<br />

0<br />

-50<br />

-100<br />

-150<br />

-200<br />

-250<br />

-250 -200 -150 -100 -50 0 50 100 150 200 250<br />

Figure 2.8 Simulation <strong>de</strong> B(100)<br />

Sur la gure 2.9, on peut voir une réalisation d'un coloriage aléatoire sur −400, 400 2 où les<br />

couleurs sont uniformes sur {bleu, viol<strong>et</strong>, jaune}. Au centre, toutes les B(i + 1)\B(i), i ∈ 0, 99,<br />

sont représentés avec <strong>de</strong>s teintes <strong>de</strong> plus en plus claires. On peut ainsi voir tous les B(i), i ∈ 0, 99,<br />

en regardant les points plus foncés qu'une teinte donnée. Il s'agit, au cadre près, <strong>de</strong> l'illustration <strong>de</strong><br />

la couverture.<br />

Enn, sur la gure 2.10, il s'agit d'un coloriage aléatoire sur Z 2 où s = 4 <strong>et</strong> les couleurs sont<br />

uniformes. On n'a représenté que les B(i + 1)\B(i), i ∈ 0, 299, avec le même procédé que sur la<br />

gure 2.9. On voit la forme asymptotique se <strong>de</strong>ssiner p<strong>et</strong>it à p<strong>et</strong>it.<br />

D'autres simulations sont disponibles sur mon site web 5 , notamment <strong>de</strong>s vidéos représentant<br />

l'évolution <strong>de</strong> B(n).<br />

5. dont l'adresse est : www.eleves.ens.fr/home/b<strong>et</strong>tinel/Fpp.html<br />

35


400<br />

300<br />

200<br />

100<br />

0<br />

-100<br />

-200<br />

-300<br />

-400<br />

-400 -300 -200 -100 0 100 200 300 400<br />

Figure 2.9 Simulation <strong>de</strong> B(0), B(1), ...B(100)<br />

Figure 2.10 Simulation <strong>de</strong> B(0), B(1), ...B(300)<br />

36


Remerciements<br />

Je tiens à remercier chaleureusement Olivier Gar<strong>et</strong> qui m'a proposé ce suj<strong>et</strong> <strong>et</strong> m'a aidé,<br />

conseillé <strong>et</strong> encadré tout au long <strong>de</strong> la rédaction <strong>de</strong> ce mémoire, en particulier au cours <strong>de</strong> l'élaboration<br />

<strong>de</strong> la section 2.2. Je tiens à remercier également Bernard B<strong>et</strong>tinelli, Nicolas Curien, Hugo<br />

Duminil, Thibault Espinasse <strong>et</strong> Adrien Joseph pour leur relecture attentive.<br />

37


Références<br />

[1] Daniel Boivin. First Passage <strong>Percolation</strong> : The Stationary Case. Probability Theory Related<br />

Fields, 86 :491499, 1990.<br />

[2] J. Theodore Cox. The Time Constant of First-Passage <strong>Percolation</strong> on the Square Lattice.<br />

Advances in Applied Probability, 12(4) :864879, 1980.<br />

[3] J. Theodore Cox and Richard Durr<strong>et</strong>t. Some Limit Theorems for <strong>Percolation</strong> Processes<br />

with Necessary and Sucient Conditions. The Annals of Applied Probability, 9(4) :583603,<br />

1981.<br />

[4] J. Theodore Cox, Alberto Gandolfi, Philip S. Griffin, and Harry Kesten. Greedy Lattice<br />

Animals I : Upper Bounds. The Annals of Applied Probability, 3(4) :11511169, 1993.<br />

[5] J. Theodore Cox and Harry Kesten. On the Continuity of the Time Constant of First-Passage<br />

<strong>Percolation</strong>. Journal of Applied Probability, 18(4) :809819, 1981.<br />

[6] Luiz Fontes and Charles M. Newman. First Passage <strong>Percolation</strong> For Random Colorings of<br />

Z d . The Annals of Applied Probability, 3(3) :746762, 1993.<br />

[7] Hans-Otto Ge<strong>org</strong>ii, Olle Häggström, and Christian Maes. The Random Geom<strong>et</strong>ry of Equilibrium<br />

Phases. eprint arXiv : math/9905031, http ://arxiv.<strong>org</strong>/abs/math/9905031, 1999.<br />

[8] Georey R. Grimm<strong>et</strong>t. <strong>Percolation</strong>. New York; Berlin; Paris : Springer, 1989.<br />

[9] C. Douglas Howard. Mo<strong>de</strong>ls of First Passage <strong>Percolation</strong>. In Harry Kesten, editor, Probability<br />

on Discr<strong>et</strong>e Structures, volume 110 of Encyclopaedia of Mathematical Sciences, pages<br />

126173. Berlin; New York; Paris : Springer, 2004.<br />

[10] Harry Kesten. On the Time Constant and Path Length of First-Passage <strong>Percolation</strong>. Advances<br />

in Applied Probability, 12(4) :848863, 1980.<br />

[11] Harry Kesten. Aspects of First Passage <strong>Percolation</strong>. In Paul-Louis Hennequin, editor, École<br />

d'été <strong>de</strong> probabilités <strong>de</strong> Saint-Flour XIV, volume 1180 of Lecture Notes in Mathematics, pages<br />

125264. Berlin; Hei<strong>de</strong>lberg; New York : Springer, 1986.<br />

[12] J.F.C. Kingman. The Ergodic Theory of Subadditive Stochastic Processes. Journal of the<br />

Royal Statistical Soci<strong>et</strong>y. Series B (M<strong>et</strong>hodological), 30(3) :499510, 1968.<br />

[13] Thomas M. Ligg<strong>et</strong>t. An Improved Subadditive Ergodic Theorem. The Annals of Applied<br />

Probability, 13(4) :12791285, 1985.<br />

38

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!