13.07.2015 Views

Champs aléatoires de Markov couples et segmentation des images ...

Champs aléatoires de Markov couples et segmentation des images ...

Champs aléatoires de Markov couples et segmentation des images ...

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Champs</strong> aléatoires <strong>de</strong> <strong>Markov</strong> <strong>couples</strong> <strong>et</strong> <strong>segmentation</strong> <strong>de</strong>s <strong>images</strong>texturéesPairwise <strong>Markov</strong> Random Fields and Textured Images SegmentationWojciech PieczynskiAb<strong>de</strong>l-Nasser TebbacheInstitut National <strong>de</strong>s TélécommunicationsDépartement Signal <strong>et</strong> Image9, rue Charles Fourier, 91000 Evry, Francee-mail : Wojciech.Pieczynski@int-evry.frRésuméLes modèles par champs aléatoires, qui perm<strong>et</strong>tent <strong>de</strong>tenir compte <strong>de</strong>s interactions spatiales dans <strong>de</strong>s situationscomplexes, trouvent <strong>de</strong> nombreuses applications dansdifférents problèmes <strong>de</strong> traitement d'<strong>images</strong>, comme<strong>segmentation</strong> ou détection <strong>de</strong> contours.En <strong>segmentation</strong> statistique d'<strong>images</strong> on r<strong>et</strong>ientgénéralement le modèle par champs <strong>de</strong> <strong>Markov</strong> cachés :le processus <strong>de</strong>s classes est un champ <strong>de</strong> <strong>Markov</strong> <strong>et</strong> onobserve sa version "bruitée". La loi du champs <strong>de</strong>sclasses a posteriori n'étant pas toujours une loi <strong>de</strong><strong>Markov</strong> dans le cas <strong>de</strong>s <strong>images</strong> texturées, l'application<strong>de</strong>s métho<strong>de</strong>s Bayésiennes classiques nécessite <strong>de</strong>sapproximations du modèle.L'originalité <strong>de</strong> la modélisation proposée dans ce travailest <strong>de</strong> considérer la markovianité du couple (champ <strong>de</strong>sclasses, champ <strong>de</strong>s observations). Le modèle obtenu estdifférent du modèle par champs <strong>de</strong> <strong>Markov</strong> cachés, enparticulier la loi du champ <strong>de</strong>s classes a priori n'est pasnécessairement une loi markovienne. Les <strong>images</strong>texturées peuvent alors être segmentées sansapproximations du modèle. On présente quelquespremières simulations attestant l'intérêt du modèleproposé.Mots ClefSegmentation, <strong>images</strong>, champs <strong>de</strong> <strong>Markov</strong>, texture.AbstractThe use of random fields, which allows one to take intoaccount the spatial interaction among random variablesin complex systems, becomes a frequent tool innumerous problems of statistical image processingproblems, like <strong>segmentation</strong> or edge <strong>de</strong>tection.In statistical image <strong>segmentation</strong>, the mo<strong>de</strong>l is generally<strong>de</strong>fined by the probability distribution of the class field,which is assumed to be a <strong>Markov</strong> field, and theprobability distributions of the observations fieldconditionally to the class field. In such mo<strong>de</strong>ls the<strong>segmentation</strong> of textured <strong>images</strong> is difficult to performand one has to resort to some mo<strong>de</strong>l approximations.The originality of our contribution is to consi<strong>de</strong>r themarkovianity of the couple (class field, observationsfield). We obtain a different mo<strong>de</strong>l; in particular, theclass field is not necessarily a <strong>Markov</strong> field. The mo<strong>de</strong>lproposed makes possible textured image <strong>segmentation</strong>with no approximations. Some first simulations tovalidate the mo<strong>de</strong>l proposed are also presented.Key WordsSegmentation, <strong>images</strong>, <strong>Markov</strong> fields, texture.1 IntroductionNous présentons dans c<strong>et</strong> article un modèle par champsaléatoires <strong>de</strong> <strong>Markov</strong>, original par rapport aux champs <strong>de</strong><strong>Markov</strong> cachés classiques (HMRF). La différenceprincipale avec les modèles HMRF rési<strong>de</strong> dans le fait quele champ <strong>de</strong>s classes n'est pas nécessairement markovien.Un <strong>de</strong>s avantages discuté dans la suite est la possibilité<strong>de</strong> segmenter <strong>de</strong>s <strong>images</strong> texturées sans approximationsdu modèle. Plus précisément, considérons un ensemble<strong>de</strong>s pixels S <strong>et</strong> <strong>de</strong>ux champs aléatoires X = (X s) s∈S<strong>et</strong>Y = (Y s) s∈S. Le champ <strong>de</strong>s classes X est inobservable<strong>et</strong> le problème est d'estimer sa réalisation à partir <strong>de</strong> celleobservée <strong>de</strong> Y . Dans la modélisation classique onsuppose que X est un champ <strong>de</strong> <strong>Markov</strong> <strong>et</strong> Y est saversion "bruitée". En d'autres termes, X est "caché" pardu bruit. Il existe alors diverses métho<strong>de</strong>s Bayésiennes <strong>de</strong><strong>segmentation</strong> <strong>de</strong> Y , comme MPM [MMP87], MAP


En pratique, les variables aléatoires (Y s) ne sont pas, engénéral, indépendantes conditionnellement à X . L'égalité(2) est en particulier trop simpliste pour représenter laprésence <strong>de</strong> <strong>de</strong>ux classes texturées <strong>et</strong> on est amené àconsidérer, si l'on souhaite modéliser les <strong>de</strong>ux texturespar <strong>de</strong>ux champs markoviens gaussiens, la définitiondonnée par (4) :P[Y = y X = x] =⎢λ (x)e −⎣⎡∑ a x s x ty s y t − 1 2 ⎤∑ [a xs x(s,t) voisins 2 sy s +b xs y s ] ⎥s⎦Le champ Y est ainsi markovien conditionnellement àX . La difficulté rési<strong>de</strong> dans le fait que le produit <strong>de</strong> (1)par (4) n'est pas, dans le cas général, une loimarkovienne. En eff<strong>et</strong>, si Γ(x) est la matrice <strong>de</strong>covariance <strong>de</strong> la loi gaussienne <strong>de</strong> Y = (Y s) s∈S(conditionnelle à X = x ), nous avons(4)simulations <strong>de</strong> X selon sa loi a posteriori, ce qui perm<strong>et</strong>l'application <strong>de</strong>s métho<strong>de</strong>s Bayésiennes comme MPM ouMAP.Notons qu'il se pose le problème, que nous n'abor<strong>de</strong>ronspas dans c<strong>et</strong> article, <strong>de</strong> l'existence <strong>de</strong> la loi définie par (6).En eff<strong>et</strong>, c<strong>et</strong>te loi n'existe pas nécessairement pour toutesles fonctions ϕ 1, ϕ 2, a xs x t, a xs x s, b xs. Il existecependant <strong>de</strong>s conditions d'existence, portant surl'énergie, <strong>de</strong>s champs markoviens gaussiens nonstationnaires [Guy93]. Le champ Y étant gaussienconditionnellement à X , une <strong>de</strong>s possibilités <strong>de</strong> montrerl'existence <strong>de</strong> la loi définie par (6) pourrait être <strong>de</strong>montrer que sa loi conditionnelle à X = x existe pourtout x .Le couple (X,Y) étant markovien, il est possible <strong>de</strong>calculer les lois <strong>de</strong>s (X s,Y s) conditionnellement auvoisinage. Explicitons, à titre d'exemple, le calcul <strong>de</strong> laloi <strong>de</strong> (X s,Y s) conditionnelle aux observations faites surson voisinage composé <strong>de</strong>s quatre plus proches voisinsλ (x) =1(2π) N <strong>de</strong>t(Γ(x))(5)[(X t1,Y t1),(X t2,Y t2),(X t3,Y t3),(X t4,Y t4)] =[(x t1, y t1),(x t2, y t2),(x t3, y t3),(x t4, y t4)](7)qui ne peut pas être écrit, dans le général, comme unedistribution markovienne en x .Finalement, X est markovien, Y est markovienconditionnellement à X , mais ni (X,Y), ni Xconditionnellement à Y , ne sont markoviens dans le casgénéral. C<strong>et</strong>te absence <strong>de</strong> markovianité <strong>de</strong> la loi aposteriori rend difficile l'application rigoureuse <strong>de</strong>smétho<strong>de</strong>s <strong>de</strong> <strong>segmentation</strong> comme MPM ou MAP;cependant, ce problème peut être traité par <strong>de</strong>sapproximations du modèle, comme dans [KDH88,WoD92].2.2 Cas simple <strong>de</strong> Champ <strong>de</strong> <strong>Markov</strong>CoupleUne autre possibilité, que nous proposons dans c<strong>et</strong>ravail, consiste à considérer directement le couple(X,Y) comme markovien. Plus précisément, on poseP[X = x,Y = y] =⎡λe − ϕ[( x s , y s ),( x t , y t )]⎤⎢ ∑ −∑ ϕ*[( x s , y s )] ⎥⎣ (s,t) voisinss⎦ =(6)L'écriture explicite <strong>de</strong> ces lois perm<strong>et</strong>tra leur simulation,ce qui rendra possible la simulation <strong>de</strong>s réalisations <strong>de</strong>(X,Y) par l'échantillonneur <strong>de</strong> Gibbs. Montrons quec<strong>et</strong>te loi est <strong>de</strong> la forme (qui dépend également <strong>de</strong>(x t1, y t1), (x t2, y t2), (x t2, y t2), <strong>et</strong> (x t4, y t4);dépendance que nous om<strong>et</strong>tons afin <strong>de</strong> simplifierl'écriture) :h(x s, y s) = p(x s) f xs(y s) (8)où p est une probabilité sur l'ensemble <strong>de</strong>s classes <strong>et</strong>,pour chaque classe x s, f xsest la <strong>de</strong>nsité gaussiennecorrespondante à x s. L'écriture (8) perm<strong>et</strong>tra alors <strong>de</strong>ssimulations aisées <strong>de</strong>s réalisations <strong>de</strong> (X s,Y s) : onpourra simuler d'abord x sselon la probabilité p, <strong>et</strong>simuler ensuite y sselon la <strong>de</strong>nsité f xs.Nous avons les égalités (9) suivantes :2∑ − ∑ [ϕ 2 ( x s )+a xs x sy s +b xs y s ]s= λe − [ϕ 1 ( x s , x t )+a x s x ty s y t ](s,t) voisinsLa markovianité du couple (X,Y) implique lamarkovianité <strong>de</strong> Y conditionnellement à X , <strong>et</strong> lamarkovianité <strong>de</strong> X conditionnellement à Y . Lapremière propriété perm<strong>et</strong> <strong>de</strong> modéliser les textures,comme dans (4), <strong>et</strong> la <strong>de</strong>uxième rend possible les


P{(X s,Y s) = (x s, y s)[(X t1,Y t1),...,(X t4,Y t4)] = [(x t1, y t1),...,(x t4, y t4)]}∝ e − ∑ ϕ[( x s , y s ),( x t i, y ti )] −ϕ*[( x s , y s )]i=1,..., 4== e − ∑ [ϕ 1 ( x s , x t i)+a xs x tiy s y ti ] −[ϕ 2 ( x s )+a xs x sy 2 s +b xs y s ]i=1,..., 4=∑ ∑ ]y s −[ϕ 2 ( x s )+a xs x sy 2 s ]= e − ϕ 1 ( x s , x t i)+[b xs + a xs x tiy tii=1,..., 4i=1,..., 4Posons temporairement :∑α = ϕ 2(x s) + ϕ 1(x s, x ti)∑i=1,..., 4β = b xs+ a xs x tiy ti(10)i=1,..., 4δ = a xs x sM xs2σ xs= −1=2a xs x sb xs+ ∑ a xs x tiy tii=1,..., 42a xs x s(12)<strong>et</strong> par la probabilité p définie sur l'ensemble <strong>de</strong>s classespar :p(x s) ==∑ω ∈Ω∑ ) 2i=1,..., 4(b xs + a xs x tiy ti[ (a xs x s) ] −1 e−ϕ 2 (x s )− ∑ ϕ 1 (x s , x ti )2a xs x s i=1,..., 4∑ ) 2i=1,..., 4(b ω + a ωxti y ti[ (a ωω) ] −1 e−ϕ 2 (ω )− ∑ ϕ 1 (ω , x ti )2a ωω i=1,..., 4La loi <strong>de</strong> probabilité (9) <strong>de</strong>vient :2exp− [ α + βy s+ δy s ] =⎡(y s+ β ⎤⎢= exp− 2δ )2− ( β ⎥⎢δ −1 2δ )2 δ + α⎥=⎢⎥⎣⎦πδ −1 ⎡exp ( β ⎤δ )2 δ − α⎣⎢⎦⎥⎡−(y1πδ exp s+ β ⎤⎢ 2δ )2 ⎥⎢ −1 ⎢δ −1 ⎥ =⎥⎣⎦πδ −1 ⎡exp ( β ⎤2δ )2 δ − α⎣⎢⎦⎥ f x s(y s)(11)Finalement, les principales différences entre le modèleclassique par <strong>Champs</strong> <strong>de</strong> <strong>Markov</strong> Cachés <strong>et</strong> celui par<strong>Champs</strong> <strong>de</strong> <strong>Markov</strong> Couples proposé sont les suivantes :(i) La loi <strong>de</strong> X (sa loi a priori) est une loi <strong>de</strong><strong>Markov</strong> dans le modèle classique <strong>et</strong> n'est pasnécessairement une loi <strong>de</strong> <strong>Markov</strong> dans le modèleproposé;(ii) La loi <strong>de</strong> X a posteriori n'est pasnécessairement une loi <strong>de</strong> <strong>Markov</strong> dans le modèleclassique <strong>et</strong> c'est une loi <strong>de</strong> <strong>Markov</strong> dans le modèleproposé;(iii) Contrairement au modèle classique, il estpossible, dans le modèle proposé, <strong>de</strong> simuler lesréalisations <strong>de</strong> X selon sa loi a posteriori sansapproximations du modèle, ce qui perm<strong>et</strong> l'utilisation <strong>de</strong>smétho<strong>de</strong>s classiques <strong>de</strong> <strong>segmentation</strong> comme MAP[GeG84, Bes86] or MPM [MMP87].où f xsest une <strong>de</strong>nsité gaussienne avec la moyenne− β 2δ <strong>et</strong> la variance 1. Finalement, en tenant compte2δdu (10), la <strong>de</strong>nsité h(x s, y s) = p(x s) f xs(y s) figurantdans (8) est donnée par la <strong>de</strong>nsité gaussienne f xsdéterminée par sa moyenne M xs2σ xs:<strong>et</strong> sa variance variancesRemarques1. Le modèle classique par champs <strong>de</strong> <strong>Markov</strong> s'appliqueégalement dans le cas <strong>de</strong>s données multicapteur [YaG95].Pour m capteurs les observations sur chaque pixels ∈S sont supposées être une réalisation d'un vecteuraléatoire Y s= Y 1 m[ s,...,Y s ]. On peut également étendrele modèle proposé au cas multicapteur : à titre d'exemple,on remplacerait y sy t<strong>et</strong> y 2sfigurant dans (6) par <strong>de</strong>s[ ] <strong>et</strong>fonctions φ 1(y 1 s,..., y m s),(y 1 t,..., y m t)φ 2 [(y 1 s,..., y m s)].


2. Dans certains cas particuliers le modèle classique peutprendre en compte une texture ou un bruit corrélé[Guy93]. En particulier, le cas d'un bruit gaussien corréléadditif est traité dans [Lee98].3. L'estimation <strong>de</strong>s paramètres du modèle par champs <strong>de</strong><strong>Markov</strong> <strong>couples</strong> pourrait, a priori, être effectuée par <strong>de</strong>svariantes <strong>de</strong> la métho<strong>de</strong>s Estimation ConditionnelleItérative (ICE [Pie92], [Pie94]). En eff<strong>et</strong>, X étantsimulable selon sa loi conditionnelle à Y , il reste àconsidérer un estimateur <strong>de</strong>s paramètres défini à partir <strong>de</strong>(X,Y). On pourrait alors envisager l'adaptation à(X,Y), dont la structure est relativement inhabituellecar X prend ses valeurs dans un espace discr<strong>et</strong> <strong>et</strong> Yprend les siennes dans un espace continu, <strong>de</strong>s diversestechniques connues [Guy93], <strong>et</strong> en particulierl'algorithme du gradient stochastique [You88].2.3 Cas général Champ <strong>de</strong> <strong>Markov</strong> CoupleLa généralisation <strong>de</strong> l'exemple donné par (6) à uneécriture quelconque <strong>de</strong> l'énergie ne pose pas <strong>de</strong> problèmemajeur. Soit S l'ensemble <strong>de</strong>s pixels, avecN = Card(S). On considère k classesΩ = {ω 1,...,ω k}, m capteurs (chaqueY s= (Y s 1 ,...,Y s m ) est à valeurs dans R m ), <strong>et</strong> l'ensemble<strong>de</strong> cliques défini par un certain système <strong>de</strong> voisinages. Lechamp aléatoire Z = (Z s) s∈S, avec Z s= (X s,Y s), estun <strong>Champs</strong> <strong>de</strong> <strong>Markov</strong> Couple si sa loi s'écritP[Z = z] = λe∑− ϕ c (z c )c∈C(14)Notons que dans certains cas, comme le cas gaussien, ondoit s'assurer <strong>de</strong> l'existence <strong>de</strong> la mesure <strong>de</strong> probabilitédonnée par (14).En particulier, le cas <strong>de</strong> trois capteurs peut être utilisépour la <strong>segmentation</strong> <strong>de</strong>s <strong>images</strong> couleur.3 Exemples visuelsNous présentons dans ce paragraphe quelques résultats <strong>de</strong>simulations <strong>et</strong> <strong>de</strong> <strong>segmentation</strong> par la métho<strong>de</strong> MPM. Ilapparaît que la variation <strong>de</strong>s paramètres d'un champ <strong>de</strong><strong>Markov</strong> couple simple perm<strong>et</strong> d'obtenir un certainnombre d'<strong>images</strong> texturées. Nous avons choisi <strong>de</strong>présenter <strong>de</strong>s cas relativement "bruités" (on distinguel'image <strong>de</strong>s classes avec quelque difficulté). Nousremarquons que les <strong>images</strong> <strong>de</strong>s classes ressemblent à <strong>de</strong>sréalisations <strong>de</strong>s champs <strong>de</strong> <strong>Markov</strong>, ce qui peutéventuellement signifier que dans les cas simplesprésentés le modèle classique, où le champ <strong>de</strong>s classes estun champ <strong>de</strong> <strong>Markov</strong>, n'est pas très "éloigné" du modèlepar champ couple. Nous notons également la possibilitéd'obtenir différents types <strong>de</strong> textures.Les champs <strong>couples</strong> présentés sur la Fig.1 sont <strong>de</strong>schamps <strong>de</strong> <strong>Markov</strong> relativement aux quatre plus prochesvoisins <strong>et</strong> tels que la loi <strong>de</strong> Y conditionnelle à X estune lei gaussienne. L'écriture <strong>de</strong> la loi <strong>de</strong> (X,Y) choisiepour les simulations estP[X = x,Y = y] =∑ − ϕ*[( x s ,s= λe − ϕ[( x s , y s ),( x t , y t )](s,t) voisinsavecϕ[(x s, y s),(x t, y t)] =∑ y s )] (15)12 (a x s x ty sy t+ b xs x ty s+ c xs x ty t+ d xs x t)ϕ *[(x s, y s)] = 1 2 (α x sy s 2 + β xsy s+ γ xs x t)(16)Les coefficients définissant l'énergie donnée par (16) sontprécisés dans le tableau Tab.1. Notons qu'il estintéressant, pour avoir une idée <strong>de</strong> l'importance du bruit,d'avoir <strong>de</strong>s renseignements sur la loi <strong>de</strong> Y conditionnelleà X = x . C'est en eff<strong>et</strong> une loi gaussienne <strong>et</strong> laconnaissance <strong>de</strong>s paramètres comme les moyennes ou lesvariances correspondant aux classes perm<strong>et</strong> d'avoir, enpremière approximation, une idée sur les bruitages. Lesrenseignements sont cependant incompl<strong>et</strong>s car le niveaudu bruit dépend également <strong>de</strong>s corrélations <strong>de</strong>s v. a. (Y s)conditionnellement à X <strong>et</strong> <strong>de</strong> la loi <strong>de</strong> X a priori.Notons qu'un lien simple unit certains coefficients <strong>de</strong>spotentiels donnés par (16) aux moyennes <strong>et</strong> auxvariances. En eff<strong>et</strong>, en notant Σ xla matrice <strong>de</strong>covariance <strong>de</strong> la loi gaussiennes <strong>de</strong> Y conditionnellementà X = x <strong>et</strong> en posant Q x= [q x st] s, t∈S= Σ −1 x, nousavons⎡P[Y = y X = x] ∝ exp − (y − m)t Q x(y − m) ⎤⎢⎣ 2⎥⎦(17)En développant (17) <strong>et</strong> en i<strong>de</strong>ntifiant avec (16) nousavons en particulierm xs2σ xs= − β x s2α xs(18)= 1α xs


Tous les autres paramètres égaux par ailleurs, on peutainsi utiliser (18) pour augmenter ou diminuer le bruit.À titre d'exemple, en gardant les variances constantes, onaugmente le bruit en rapprochant les moyennes. Notonsqu'il n'existe pas <strong>de</strong> lien simple entre les corrélations <strong>et</strong>les fonctions figurant dans (16). Les corrélations figurantdans le tableau Tab.1, qui montrent qu'il est possibled'obtenir diverses valeurs donnant <strong>de</strong>s texturesvisuellement différentes, sont <strong>de</strong>s estimées.Les valeurs <strong>de</strong>s moyennes montrent que les bruitagessont relativement élevés, particulièrement dans les cas 2(Image 5) <strong>et</strong> 3 (Image 8), ce qui est confirmévisuellement. En eff<strong>et</strong>, il est difficile <strong>de</strong> distinguer lesclasses à partir <strong>de</strong> l'image bruitée. Remarquons cependantque le cas 1 (Images 1, 2, 3), qui semble visuellementmoins bruité (les moyennes sont également les pluséloignées), est celui qui donne le taux d'erreur <strong>de</strong> la<strong>segmentation</strong> par le MPM le plus élevé. Ce fait confirmel'influence <strong>de</strong> la loi a priori <strong>et</strong> <strong>de</strong>s corrélations du bruitsur l'importance, du moins en ce qui concerne la fonction<strong>de</strong> perte <strong>de</strong> la métho<strong>de</strong> Bayésienne MPM, <strong>de</strong> ce <strong>de</strong>rnier.Image 1 Image 2 Image 3Image 4 Image 5 Image 6Image 7 Image 8 Image 9Fig. 1. Trois réalisations <strong>de</strong>s champs <strong>de</strong> <strong>Markov</strong> <strong>couples</strong> : (Image 1, Image 2), (Image 4, Image 5), (Image 7, Image 8), <strong>et</strong>les <strong>segmentation</strong>s par le MPM correspondantes.


Images 1, 2, 3 Images 4, 5, 6 Images 7, 8, 9α xs1 1 1β xs−2m xs−2m xs−2m xsγ xs x t2m xs2m xs2m xsa xs x t− 0,5 − 0,1 − 0,3b xs x t0,5m xt− 0,1m xt− 0,3m xtc xs x t0,5m xs− 0,1m xs− 0,3m xsd xs x t−0,5m xsm xt+ −0,1m xsm xt+ −0,1m xsm xt+ϕ(x s, x t)ϕ(x s, x t)m 11 1 1m 21,7 1,5 1,52σ 11 1 11,5ϕ(x s, x t)2σ 21 1 1ρ 110,65 0,05 0,18ρ 220,67 0,07 0,17τ 18,0% 07,9% 11,7%Nb 30 × 30 30 × 30 30 × 30Tab.1α xs, ... , d xs x t: les fonctions potentiels dans (16), lafonction ϕ étant définie par ϕ(x s, x t) = −1 six s= x t<strong>et</strong> ϕ(x s, x t) = 1 si x s≠ x t. m 1, m 2, σ 1 2 ,σ 2 2 : les moyennes <strong>et</strong> les variances dans (17). ρ 11, ρ 22: les covariances inter-classe estimées (pixels voisins). τ: les taux d'erreur <strong>de</strong>s <strong>segmentation</strong>s par le MPM. Nb :nombre d'itérations dans le MPM (lois marginalesestimées à partir <strong>de</strong> 30 réalisations, chaque réalisationétant obtenue après 30 itérations <strong>de</strong> l'échantillonneur <strong>de</strong>Gibbs).4 ConclusionsNous avons proposé dans c<strong>et</strong> article une modélisationoriginale par champs <strong>de</strong> <strong>Markov</strong>, pouvant être utiliséedans <strong>de</strong>s problèmes d'estimation <strong>de</strong>s champs aléatoiresinobservables. Dans le cadre <strong>de</strong>s traitements d'<strong>images</strong>c<strong>et</strong>te modélisation perm<strong>et</strong>, en particulier, d'effectuer <strong>de</strong>s<strong>segmentation</strong>s statistiques d'<strong>images</strong> texturées <strong>et</strong> bruitéespar du bruit corrélé. Contrairement au modèlehiérarchique <strong>de</strong> Derin <strong>et</strong> al., le modèle proposé perm<strong>et</strong>d'appliquer les métho<strong>de</strong>s Bayésiennes MPM <strong>et</strong> MAP sansavoir recours à une quelconque approximation.La principale différence avec les modélisations parchamps <strong>de</strong> <strong>Markov</strong> cachés rési<strong>de</strong> dans le fait que la loi apriori du champ aléatoire <strong>de</strong>s classes n'est pasnécessairement une loi <strong>de</strong> <strong>Markov</strong> (ainsi le modèle n'estpas un champ <strong>de</strong> <strong>Markov</strong> caché car le champ caché n'estpas nécessairement <strong>de</strong> <strong>Markov</strong>).Nous avons présenté quelques simulations montrant lespossibilités <strong>de</strong> synthèse <strong>de</strong>s <strong>images</strong> <strong>de</strong> classes texturéesd'une part, <strong>et</strong> <strong>de</strong> leur <strong>segmentation</strong> par la métho<strong>de</strong>Bayésienne MPM, d'autre part. Les simulations montrentque l'on peut obtenir, dans un cadre <strong>de</strong>s modèlesrelativement simples, aussi bien <strong>de</strong>s différenteshomogénéités <strong>de</strong>s <strong>images</strong> <strong>de</strong> classes, que <strong>de</strong>s différentescorrélations du bruit, donnant visuellement <strong>de</strong>s texturesdifférentes. Malgré l'importance visuelle du bruit (ondistingue difficilement les classes dans les <strong>images</strong>bruitées) la <strong>segmentation</strong> par le MPM donne <strong>de</strong>s résultatsencourageants.L'application du modèle proposé en <strong>segmentation</strong>d'<strong>images</strong> texturées <strong>et</strong>, éventuellement, bruitées par dubruit corrélé, réelles nécessiterait une métho<strong>de</strong>d'estimation <strong>de</strong> ses paramètres. La recherche <strong>de</strong> tellesmétho<strong>de</strong>s constitue une perspective naturelle pour lapoursuite <strong>de</strong> notre travail.RemerciementsNous remercions Alain Hillion, Directeur Scientifique <strong>de</strong>l'École Nationale Supérieure <strong>de</strong>s Télécommunications <strong>de</strong>Br<strong>et</strong>agne, pour les nombreuses discussions qui ontfortement contribué à la conception <strong>de</strong> ce travail.Références[Bes86] J. Besag, On the statistical analysis of dirtypictures, Journal of the Royal Statistical Soci<strong>et</strong>y, SeriesB, 48, pp. 259-302, 1986.[ChJ93] R. Chellapa, A. Jain Ed., <strong>Markov</strong> RandomFields, Theory and Application, Aca<strong>de</strong>mic Press, SanDiego, 1993.[CrJ83] G. R. Cross and A. K. Jain, <strong>Markov</strong> RandomField Texture Mo<strong>de</strong>ls, IEEE Trans. on PAMI, Vol. 5,No. 1, pp. 25-39, 1983.[DeE87] H. Derin and H. Elliot, Mo<strong>de</strong>lling and<strong>segmentation</strong> of noisy and textured <strong>images</strong> using Gibbsrandom fields, IEEE Trans. on PAMI, Vol. 9, No. 1,pp. 39-55, 1987.[GeG84] S. Geman, G. Geman, Stochastic relaxation,Gibbs distributions and the Bayesian restoration of<strong>images</strong>, IEEE Trans. on PAMI, Vol. 6, No. 6, pp. 721-741, 1984.[Guy93] X. Guyon, <strong>Champs</strong> aléatoires sur un réseau,Collection Techniques Stochastiques, Masson, Paris,1993.


[NgC93] H. H. Nguyen and P. Cohen, Gibbs RandomFields, Fuzzy Clustering, and the UnsupervisedSegmentation of Textured Images, CVGIP: GraphicalMo<strong>de</strong>ls and Image Processing, Vol. 55, No. 1, pp. 1-19,1993.[KDH88] P. A. Kelly, H. Derin, and K.D. Hart,Adaptive <strong>segmentation</strong> of Speckled <strong>images</strong> using ahierarchical random field mo<strong>de</strong>l, IEEE Trans. on ASSP,Vol. 36, No 10, pp. 1628-1641, 1988.[LaD89] S. Lakshmanan, H. Derin, Simultaneousparam<strong>et</strong>er estimation and <strong>segmentation</strong> of Gibbs randomfields, IEEE Transactions on PAMI, Vol. 11, pp. 799-813, 1989.[Lee98] T. C. M. Lee, Segmenting <strong>images</strong> corrupted bycorrelated noise, IEEE Trans. on PAMI, Vol. 20, No. 5,pp. 481-492, 1998.[MMP87] J. Marroquin, S. Mitter, T. Poggio,Probabilistic solution of ill-posed problems incomputational vision, Journal of the AmericanStatistical Association, 82, pp. 76-89, 1987.[Pie92] W. Pieczynski, Statistical image <strong>segmentation</strong>,Machine Graphics and Vision, Vol. 1, No. 1/2, pp. 261-268, 1992.[Pie94] W. Pieczynski, <strong>Champs</strong> <strong>de</strong> <strong>Markov</strong> cachés <strong>et</strong>estimation conditionnelle itérative, Traitement duSignal, Vol. 11, No. 2, pp. 141-153, 1994.[WoD92] C. S. Won and H. Derin, Unsupervised<strong>segmentation</strong> of noisy and textured <strong>images</strong> using<strong>Markov</strong> random fields, CVGIP: Graphical Mo<strong>de</strong>ls andImage Processing, Vol. 54, No 4, 1992, pp. 308-328.[YaG95] T. Yamazaki and D. Gingras, Imageclassification using spectral and spatial information basedon MRF mo<strong>de</strong>ls, IEEE Trans. on IP, Vol. 4, No. 9, pp.1333-1339, 1995.[You88] L. Younes, Estimation and annealing forGibbsian fields, Annales <strong>de</strong> l'Institut Henri Poincaré,Vol. 24, No. 2, 1988, pp. 269-294.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!