21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

68 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />

à la classification réalisée <strong>par</strong> le classificateur e j lorsqu’il associe à x la classe ω i . Soit I ωi (x)<br />

l’ensemble de ces indices défini comme suit :<br />

I ωi (x) = {indice(e j , ω i )|e j ∈ E ωi (x)} (3.7)<br />

L’ensemble I ωi (x) correspond donc aux indices de confiance respectifs des classificateurs qui<br />

classent l’entrée x comme étant de la classe ω i . A <strong>par</strong>tir de ces ensembles d’indices, nous pouvons<br />

calculer la probabilité d’ap<strong>par</strong>tenance de x à la classe ω i <strong>par</strong> la relation suivante :<br />

p(w = ω i |x) = g(I ωi (x)) (3.8)<br />

où g représente une fonction de combinaison <strong>par</strong>mi les fonctions suivantes : vote majoritaire,<br />

minimum, maximum, somme, moyenne que nous pouvons retrouver dans les travaux de KIT-<br />

TLER ET AL. [KITTLE98]. Nous assignons ensuite au pixel p, décrit <strong>par</strong> le vecteur d’attributs x,<br />

la classe ω k telle que :<br />

ω k = arg max<br />

l<br />

p(w = ω l |x) (3.9)<br />

Comme nous l’avons déjà mentionné, une classification de pixels néglige le contexte spatial<br />

de l’image. Combiner plusieurs classifications de pixels obtenues <strong>par</strong> plusieurs classificateurs<br />

pour un même pixel présente le même défaut. Afin d’y pallier, nous intégrons une information<br />

de voisinage lors de la fusion des résultats des classificateurs : nous ne combinons pas uniquement<br />

k classifications mais 9 × k classifications, ce qui revient à prendre en compte toutes les<br />

classifications autour du pixel central dans une fenêtre d’analyse 3 × 3 et à les fusionner.<br />

Classificateur Indice cytoplasme Indice noyau<br />

Règle de combinaison non-supervisée (somme) 78.3 % 74.9 %<br />

Règle de combinaison non-supervisée (vote majoritaire) 78.1 % 74.8 %<br />

Règle de combinaison supervisée (BKS) 78.5 % 74.8 %<br />

Combinaison <strong>par</strong> Dempster-Shafer 76.3 % 74.7 %<br />

TAB. 3.4 – Résultats des différentes combinaisons de classifications de pixels.<br />

Nous avons pu mettre en évidence, en étudiant toutes les combinaisons possibles des classificateurs<br />

du tableau 3.3, que la combinaison des trois meilleurs classificateurs permettait d’obtenir<br />

les meilleurs résultats (k-moyennes, SVM et Bayes). Le tableau 3.4 présente plusieurs résultats<br />

de combinaison avec la méthode proposée et deux autres méthodes de la littérature (Behaviour<br />

Knowledge Space [HUANG95] et une combinaison basée <strong>sur</strong> la théorie de l’évidence [11]). La<br />

combinaison que nous avons proposée permet d’obtenir les meilleurs résultats. Ce résultat de<br />

classification est utilisé comme base de dé<strong>par</strong>t d’une ligne de <strong>par</strong>tage des eaux couleur adaptative.<br />

L’image classifiée est étiquetée en composantes connexes et les frontières des objets sont<br />

considérées comme non étiquetées puis érodées. Les composantes connexes constituent alors les<br />

marqueurs de la ligne de <strong>par</strong>tage des eaux et les zones non étiquetées les zones d’influence des<br />

marqueurs.<br />

Le tableau 3.5 et la figure 3.6 présentent respectivement le résultat de l’étape de segmentation<br />

de façon quantitative et le résultat avec les frontières colorées des objets superposés. Dans<br />

ce tableau, nous présentons tout d’abord, les résultats de segmentation (classification de pixels et

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!