13.07.2015 Views

Champs aléatoires de Markov couples et segmentation des images ...

Champs aléatoires de Markov couples et segmentation des images ...

Champs aléatoires de Markov couples et segmentation des images ...

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Images 1, 2, 3 Images 4, 5, 6 Images 7, 8, 9α xs1 1 1β xs−2m xs−2m xs−2m xsγ xs x t2m xs2m xs2m xsa xs x t− 0,5 − 0,1 − 0,3b xs x t0,5m xt− 0,1m xt− 0,3m xtc xs x t0,5m xs− 0,1m xs− 0,3m xsd xs x t−0,5m xsm xt+ −0,1m xsm xt+ −0,1m xsm xt+ϕ(x s, x t)ϕ(x s, x t)m 11 1 1m 21,7 1,5 1,52σ 11 1 11,5ϕ(x s, x t)2σ 21 1 1ρ 110,65 0,05 0,18ρ 220,67 0,07 0,17τ 18,0% 07,9% 11,7%Nb 30 × 30 30 × 30 30 × 30Tab.1α xs, ... , d xs x t: les fonctions potentiels dans (16), lafonction ϕ étant définie par ϕ(x s, x t) = −1 six s= x t<strong>et</strong> ϕ(x s, x t) = 1 si x s≠ x t. m 1, m 2, σ 1 2 ,σ 2 2 : les moyennes <strong>et</strong> les variances dans (17). ρ 11, ρ 22: les covariances inter-classe estimées (pixels voisins). τ: les taux d'erreur <strong>de</strong>s <strong>segmentation</strong>s par le MPM. Nb :nombre d'itérations dans le MPM (lois marginalesestimées à partir <strong>de</strong> 30 réalisations, chaque réalisationétant obtenue après 30 itérations <strong>de</strong> l'échantillonneur <strong>de</strong>Gibbs).4 ConclusionsNous avons proposé dans c<strong>et</strong> article une modélisationoriginale par champs <strong>de</strong> <strong>Markov</strong>, pouvant être utiliséedans <strong>de</strong>s problèmes d'estimation <strong>de</strong>s champs aléatoiresinobservables. Dans le cadre <strong>de</strong>s traitements d'<strong>images</strong>c<strong>et</strong>te modélisation perm<strong>et</strong>, en particulier, d'effectuer <strong>de</strong>s<strong>segmentation</strong>s statistiques d'<strong>images</strong> texturées <strong>et</strong> bruitéespar du bruit corrélé. Contrairement au modèlehiérarchique <strong>de</strong> Derin <strong>et</strong> al., le modèle proposé perm<strong>et</strong>d'appliquer les métho<strong>de</strong>s Bayésiennes MPM <strong>et</strong> MAP sansavoir recours à une quelconque approximation.La principale différence avec les modélisations parchamps <strong>de</strong> <strong>Markov</strong> cachés rési<strong>de</strong> dans le fait que la loi apriori du champ aléatoire <strong>de</strong>s classes n'est pasnécessairement une loi <strong>de</strong> <strong>Markov</strong> (ainsi le modèle n'estpas un champ <strong>de</strong> <strong>Markov</strong> caché car le champ caché n'estpas nécessairement <strong>de</strong> <strong>Markov</strong>).Nous avons présenté quelques simulations montrant lespossibilités <strong>de</strong> synthèse <strong>de</strong>s <strong>images</strong> <strong>de</strong> classes texturéesd'une part, <strong>et</strong> <strong>de</strong> leur <strong>segmentation</strong> par la métho<strong>de</strong>Bayésienne MPM, d'autre part. Les simulations montrentque l'on peut obtenir, dans un cadre <strong>de</strong>s modèlesrelativement simples, aussi bien <strong>de</strong>s différenteshomogénéités <strong>de</strong>s <strong>images</strong> <strong>de</strong> classes, que <strong>de</strong>s différentescorrélations du bruit, donnant visuellement <strong>de</strong>s texturesdifférentes. Malgré l'importance visuelle du bruit (ondistingue difficilement les classes dans les <strong>images</strong>bruitées) la <strong>segmentation</strong> par le MPM donne <strong>de</strong>s résultatsencourageants.L'application du modèle proposé en <strong>segmentation</strong>d'<strong>images</strong> texturées <strong>et</strong>, éventuellement, bruitées par dubruit corrélé, réelles nécessiterait une métho<strong>de</strong>d'estimation <strong>de</strong> ses paramètres. La recherche <strong>de</strong> tellesmétho<strong>de</strong>s constitue une perspective naturelle pour lapoursuite <strong>de</strong> notre travail.RemerciementsNous remercions Alain Hillion, Directeur Scientifique <strong>de</strong>l'École Nationale Supérieure <strong>de</strong>s Télécommunications <strong>de</strong>Br<strong>et</strong>agne, pour les nombreuses discussions qui ontfortement contribué à la conception <strong>de</strong> ce travail.Références[Bes86] J. Besag, On the statistical analysis of dirtypictures, Journal of the Royal Statistical Soci<strong>et</strong>y, SeriesB, 48, pp. 259-302, 1986.[ChJ93] R. Chellapa, A. Jain Ed., <strong>Markov</strong> RandomFields, Theory and Application, Aca<strong>de</strong>mic Press, SanDiego, 1993.[CrJ83] G. R. Cross and A. K. Jain, <strong>Markov</strong> RandomField Texture Mo<strong>de</strong>ls, IEEE Trans. on PAMI, Vol. 5,No. 1, pp. 25-39, 1983.[DeE87] H. Derin and H. Elliot, Mo<strong>de</strong>lling and<strong>segmentation</strong> of noisy and textured <strong>images</strong> using Gibbsrandom fields, IEEE Trans. on PAMI, Vol. 9, No. 1,pp. 39-55, 1987.[GeG84] S. Geman, G. Geman, Stochastic relaxation,Gibbs distributions and the Bayesian restoration of<strong>images</strong>, IEEE Trans. on PAMI, Vol. 6, No. 6, pp. 721-741, 1984.[Guy93] X. Guyon, <strong>Champs</strong> aléatoires sur un réseau,Collection Techniques Stochastiques, Masson, Paris,1993.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!