P{(X s,Y s) = (x s, y s)[(X t1,Y t1),...,(X t4,Y t4)] = [(x t1, y t1),...,(x t4, y t4)]}∝ e − ∑ ϕ[( x s , y s ),( x t i, y ti )] −ϕ*[( x s , y s )]i=1,..., 4== e − ∑ [ϕ 1 ( x s , x t i)+a xs x tiy s y ti ] −[ϕ 2 ( x s )+a xs x sy 2 s +b xs y s ]i=1,..., 4=∑ ∑ ]y s −[ϕ 2 ( x s )+a xs x sy 2 s ]= e − ϕ 1 ( x s , x t i)+[b xs + a xs x tiy tii=1,..., 4i=1,..., 4Posons temporairement :∑α = ϕ 2(x s) + ϕ 1(x s, x ti)∑i=1,..., 4β = b xs+ a xs x tiy ti(10)i=1,..., 4δ = a xs x sM xs2σ xs= −1=2a xs x sb xs+ ∑ a xs x tiy tii=1,..., 42a xs x s(12)<strong>et</strong> par la probabilité p définie sur l'ensemble <strong>de</strong>s classespar :p(x s) ==∑ω ∈Ω∑ ) 2i=1,..., 4(b xs + a xs x tiy ti[ (a xs x s) ] −1 e−ϕ 2 (x s )− ∑ ϕ 1 (x s , x ti )2a xs x s i=1,..., 4∑ ) 2i=1,..., 4(b ω + a ωxti y ti[ (a ωω) ] −1 e−ϕ 2 (ω )− ∑ ϕ 1 (ω , x ti )2a ωω i=1,..., 4La loi <strong>de</strong> probabilité (9) <strong>de</strong>vient :2exp− [ α + βy s+ δy s ] =⎡(y s+ β ⎤⎢= exp− 2δ )2− ( β ⎥⎢δ −1 2δ )2 δ + α⎥=⎢⎥⎣⎦πδ −1 ⎡exp ( β ⎤δ )2 δ − α⎣⎢⎦⎥⎡−(y1πδ exp s+ β ⎤⎢ 2δ )2 ⎥⎢ −1 ⎢δ −1 ⎥ =⎥⎣⎦πδ −1 ⎡exp ( β ⎤2δ )2 δ − α⎣⎢⎦⎥ f x s(y s)(11)Finalement, les principales différences entre le modèleclassique par <strong>Champs</strong> <strong>de</strong> <strong>Markov</strong> Cachés <strong>et</strong> celui par<strong>Champs</strong> <strong>de</strong> <strong>Markov</strong> Couples proposé sont les suivantes :(i) La loi <strong>de</strong> X (sa loi a priori) est une loi <strong>de</strong><strong>Markov</strong> dans le modèle classique <strong>et</strong> n'est pasnécessairement une loi <strong>de</strong> <strong>Markov</strong> dans le modèleproposé;(ii) La loi <strong>de</strong> X a posteriori n'est pasnécessairement une loi <strong>de</strong> <strong>Markov</strong> dans le modèleclassique <strong>et</strong> c'est une loi <strong>de</strong> <strong>Markov</strong> dans le modèleproposé;(iii) Contrairement au modèle classique, il estpossible, dans le modèle proposé, <strong>de</strong> simuler lesréalisations <strong>de</strong> X selon sa loi a posteriori sansapproximations du modèle, ce qui perm<strong>et</strong> l'utilisation <strong>de</strong>smétho<strong>de</strong>s classiques <strong>de</strong> <strong>segmentation</strong> comme MAP[GeG84, Bes86] or MPM [MMP87].où f xsest une <strong>de</strong>nsité gaussienne avec la moyenne− β 2δ <strong>et</strong> la variance 1. Finalement, en tenant compte2δdu (10), la <strong>de</strong>nsité h(x s, y s) = p(x s) f xs(y s) figurantdans (8) est donnée par la <strong>de</strong>nsité gaussienne f xsdéterminée par sa moyenne M xs2σ xs:<strong>et</strong> sa variance variancesRemarques1. Le modèle classique par champs <strong>de</strong> <strong>Markov</strong> s'appliqueégalement dans le cas <strong>de</strong>s données multicapteur [YaG95].Pour m capteurs les observations sur chaque pixels ∈S sont supposées être une réalisation d'un vecteuraléatoire Y s= Y 1 m[ s,...,Y s ]. On peut également étendrele modèle proposé au cas multicapteur : à titre d'exemple,on remplacerait y sy t<strong>et</strong> y 2sfigurant dans (6) par <strong>de</strong>s[ ] <strong>et</strong>fonctions φ 1(y 1 s,..., y m s),(y 1 t,..., y m t)φ 2 [(y 1 s,..., y m s)].
2. Dans certains cas particuliers le modèle classique peutprendre en compte une texture ou un bruit corrélé[Guy93]. En particulier, le cas d'un bruit gaussien corréléadditif est traité dans [Lee98].3. L'estimation <strong>de</strong>s paramètres du modèle par champs <strong>de</strong><strong>Markov</strong> <strong>couples</strong> pourrait, a priori, être effectuée par <strong>de</strong>svariantes <strong>de</strong> la métho<strong>de</strong>s Estimation ConditionnelleItérative (ICE [Pie92], [Pie94]). En eff<strong>et</strong>, X étantsimulable selon sa loi conditionnelle à Y , il reste àconsidérer un estimateur <strong>de</strong>s paramètres défini à partir <strong>de</strong>(X,Y). On pourrait alors envisager l'adaptation à(X,Y), dont la structure est relativement inhabituellecar X prend ses valeurs dans un espace discr<strong>et</strong> <strong>et</strong> Yprend les siennes dans un espace continu, <strong>de</strong>s diversestechniques connues [Guy93], <strong>et</strong> en particulierl'algorithme du gradient stochastique [You88].2.3 Cas général Champ <strong>de</strong> <strong>Markov</strong> CoupleLa généralisation <strong>de</strong> l'exemple donné par (6) à uneécriture quelconque <strong>de</strong> l'énergie ne pose pas <strong>de</strong> problèmemajeur. Soit S l'ensemble <strong>de</strong>s pixels, avecN = Card(S). On considère k classesΩ = {ω 1,...,ω k}, m capteurs (chaqueY s= (Y s 1 ,...,Y s m ) est à valeurs dans R m ), <strong>et</strong> l'ensemble<strong>de</strong> cliques défini par un certain système <strong>de</strong> voisinages. Lechamp aléatoire Z = (Z s) s∈S, avec Z s= (X s,Y s), estun <strong>Champs</strong> <strong>de</strong> <strong>Markov</strong> Couple si sa loi s'écritP[Z = z] = λe∑− ϕ c (z c )c∈C(14)Notons que dans certains cas, comme le cas gaussien, ondoit s'assurer <strong>de</strong> l'existence <strong>de</strong> la mesure <strong>de</strong> probabilitédonnée par (14).En particulier, le cas <strong>de</strong> trois capteurs peut être utilisépour la <strong>segmentation</strong> <strong>de</strong>s <strong>images</strong> couleur.3 Exemples visuelsNous présentons dans ce paragraphe quelques résultats <strong>de</strong>simulations <strong>et</strong> <strong>de</strong> <strong>segmentation</strong> par la métho<strong>de</strong> MPM. Ilapparaît que la variation <strong>de</strong>s paramètres d'un champ <strong>de</strong><strong>Markov</strong> couple simple perm<strong>et</strong> d'obtenir un certainnombre d'<strong>images</strong> texturées. Nous avons choisi <strong>de</strong>présenter <strong>de</strong>s cas relativement "bruités" (on distinguel'image <strong>de</strong>s classes avec quelque difficulté). Nousremarquons que les <strong>images</strong> <strong>de</strong>s classes ressemblent à <strong>de</strong>sréalisations <strong>de</strong>s champs <strong>de</strong> <strong>Markov</strong>, ce qui peutéventuellement signifier que dans les cas simplesprésentés le modèle classique, où le champ <strong>de</strong>s classes estun champ <strong>de</strong> <strong>Markov</strong>, n'est pas très "éloigné" du modèlepar champ couple. Nous notons également la possibilitéd'obtenir différents types <strong>de</strong> textures.Les champs <strong>couples</strong> présentés sur la Fig.1 sont <strong>de</strong>schamps <strong>de</strong> <strong>Markov</strong> relativement aux quatre plus prochesvoisins <strong>et</strong> tels que la loi <strong>de</strong> Y conditionnelle à X estune lei gaussienne. L'écriture <strong>de</strong> la loi <strong>de</strong> (X,Y) choisiepour les simulations estP[X = x,Y = y] =∑ − ϕ*[( x s ,s= λe − ϕ[( x s , y s ),( x t , y t )](s,t) voisinsavecϕ[(x s, y s),(x t, y t)] =∑ y s )] (15)12 (a x s x ty sy t+ b xs x ty s+ c xs x ty t+ d xs x t)ϕ *[(x s, y s)] = 1 2 (α x sy s 2 + β xsy s+ γ xs x t)(16)Les coefficients définissant l'énergie donnée par (16) sontprécisés dans le tableau Tab.1. Notons qu'il estintéressant, pour avoir une idée <strong>de</strong> l'importance du bruit,d'avoir <strong>de</strong>s renseignements sur la loi <strong>de</strong> Y conditionnelleà X = x . C'est en eff<strong>et</strong> une loi gaussienne <strong>et</strong> laconnaissance <strong>de</strong>s paramètres comme les moyennes ou lesvariances correspondant aux classes perm<strong>et</strong> d'avoir, enpremière approximation, une idée sur les bruitages. Lesrenseignements sont cependant incompl<strong>et</strong>s car le niveaudu bruit dépend également <strong>de</strong>s corrélations <strong>de</strong>s v. a. (Y s)conditionnellement à X <strong>et</strong> <strong>de</strong> la loi <strong>de</strong> X a priori.Notons qu'un lien simple unit certains coefficients <strong>de</strong>spotentiels donnés par (16) aux moyennes <strong>et</strong> auxvariances. En eff<strong>et</strong>, en notant Σ xla matrice <strong>de</strong>covariance <strong>de</strong> la loi gaussiennes <strong>de</strong> Y conditionnellementà X = x <strong>et</strong> en posant Q x= [q x st] s, t∈S= Σ −1 x, nousavons⎡P[Y = y X = x] ∝ exp − (y − m)t Q x(y − m) ⎤⎢⎣ 2⎥⎦(17)En développant (17) <strong>et</strong> en i<strong>de</strong>ntifiant avec (16) nousavons en particulierm xs2σ xs= − β x s2α xs(18)= 1α xs