traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
68 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />
à la classification réalisée <strong>par</strong> le classificateur e j lorsqu’il associe à x la classe ω i . Soit I ωi (x)<br />
l’ensemble de ces indices défini comme suit :<br />
I ωi (x) = {indice(e j , ω i )|e j ∈ E ωi (x)} (3.7)<br />
L’ensemble I ωi (x) correspond donc aux indices de confiance respectifs des classificateurs qui<br />
classent l’entrée x comme étant de la classe ω i . A <strong>par</strong>tir de ces ensembles d’indices, nous pouvons<br />
calculer la probabilité d’ap<strong>par</strong>tenance de x à la classe ω i <strong>par</strong> la relation suivante :<br />
p(w = ω i |x) = g(I ωi (x)) (3.8)<br />
où g représente une fonction de combinaison <strong>par</strong>mi les fonctions suivantes : vote majoritaire,<br />
minimum, maximum, somme, moyenne que nous pouvons retrouver dans les travaux de KIT-<br />
TLER ET AL. [KITTLE98]. Nous assignons ensuite au pixel p, décrit <strong>par</strong> le vecteur d’attributs x,<br />
la classe ω k telle que :<br />
ω k = arg max<br />
l<br />
p(w = ω l |x) (3.9)<br />
Comme nous l’avons déjà mentionné, une classification de pixels néglige le contexte spatial<br />
de l’image. Combiner plusieurs classifications de pixels obtenues <strong>par</strong> plusieurs classificateurs<br />
pour un même pixel présente le même défaut. Afin d’y pallier, nous intégrons une information<br />
de voisinage lors de la fusion des résultats des classificateurs : nous ne combinons pas uniquement<br />
k classifications mais 9 × k classifications, ce qui revient à prendre en compte toutes les<br />
classifications autour du pixel central dans une fenêtre d’analyse 3 × 3 et à les fusionner.<br />
Classificateur Indice cytoplasme Indice noyau<br />
Règle de combinaison non-supervisée (somme) 78.3 % 74.9 %<br />
Règle de combinaison non-supervisée (vote majoritaire) 78.1 % 74.8 %<br />
Règle de combinaison supervisée (BKS) 78.5 % 74.8 %<br />
Combinaison <strong>par</strong> Dempster-Shafer 76.3 % 74.7 %<br />
TAB. 3.4 – Résultats des différentes combinaisons de classifications de pixels.<br />
Nous avons pu mettre en évidence, en étudiant toutes les combinaisons possibles des classificateurs<br />
du tableau 3.3, que la combinaison des trois meilleurs classificateurs permettait d’obtenir<br />
les meilleurs résultats (k-moyennes, SVM et Bayes). Le tableau 3.4 présente plusieurs résultats<br />
de combinaison avec la méthode proposée et deux autres méthodes de la littérature (Behaviour<br />
Knowledge Space [HUANG95] et une combinaison basée <strong>sur</strong> la théorie de l’évidence [11]). La<br />
combinaison que nous avons proposée permet d’obtenir les meilleurs résultats. Ce résultat de<br />
classification est utilisé comme base de dé<strong>par</strong>t d’une ligne de <strong>par</strong>tage des eaux couleur adaptative.<br />
L’image classifiée est étiquetée en composantes connexes et les frontières des objets sont<br />
considérées comme non étiquetées puis érodées. Les composantes connexes constituent alors les<br />
marqueurs de la ligne de <strong>par</strong>tage des eaux et les zones non étiquetées les zones d’influence des<br />
marqueurs.<br />
Le tableau 3.5 et la figure 3.6 présentent respectivement le résultat de l’étape de segmentation<br />
de façon quantitative et le résultat avec les frontières colorées des objets superposés. Dans<br />
ce tableau, nous présentons tout d’abord, les résultats de segmentation (classification de pixels et