traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
78 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />
De <strong>par</strong>t nos travaux en fusion de classification de pixels, nous avons pu mettre en évidence que la<br />
représentation associée à un pixel a une influence <strong>sur</strong> les résultats. Plutôt que de choisir a priori<br />
un espace couleur donné pour cette représentation des pixels, nous avons choisi de chercher à<br />
l’optimiser en considérant ceci comme un problème de sélection d’attributs. En conséquence,<br />
chaque pixel est décrit <strong>par</strong> un vecteur de dimension 25 qui contient les composantes couleur extraites<br />
des principaux espaces couleur [TRÉM04] à savoir 1 (R, V, B), (X, Y 1 , Z), (L ∗ , a ∗ , b ∗ ),<br />
(L ∗ , u ∗ , v ∗ ), (L 1 , C, H 1 ), (Y 2 , Ch 1 , Ch 2 ), (I 1 , I 2 , I 3 ), (H 2 , S, L 2 ), (Y 3 , C b , C r ). Sélectionner les<br />
attributs colorimétriques pertinents dans un espace colorimétrique hybride (provenant de plusieurs<br />
espace couleur) de grande dimension a déjà été proposé en utilisant une approche en<br />
cascade [VANDEN03] (les attributs sont filtrés avant classification sans optimisation globale)<br />
et cela permet d’améliorer les résultats. Nous proposons donc de construire un espace couleur<br />
hybride optimal qui permet d’améliorer la qualité des fonctions de décision produites <strong>par</strong> des<br />
SVM. En conséquence, chaque pixel est représenté <strong>par</strong> un vecteur de dimension 25 correspondant<br />
à l’espace couleur hybride initial suivant :<br />
E = (R, V, B, X, Y 1 , Z, L ∗ , a ∗ , b ∗ , u ∗ , v ∗ , C, H 1 ,<br />
Y 2 , Ch 1 , Ch 2 , I 1 , I 2 , I 3 , H 2 , S, L 2 , Y 3 , C b , C r )<br />
(3.13)<br />
Nous avons donc appliqué notre construction de fonctions de décision de complexités réduites<br />
<strong>par</strong> recherche tabou au problème de la classification de pixels en imagerie microscopique couleur.<br />
Nous rappelons que nous cherchons à discriminer trois classes (fond, cytoplasmes et noyaux),<br />
ce qui nous amène à optimiser indépendamment trois fonctions de décisions pour estimer l’ap<strong>par</strong>tenance<br />
à chacune de ces classes. Le tableau 3.7 présente les résultats que nous avons obtenu<br />
avec une décomposition un-contre-un (la classe finale retenue est obtenue <strong>par</strong> le schéma de<br />
décodage de Price [PRICE94], voir la section 3.5).<br />
Nous avons me<strong>sur</strong>é le taux de reconnaissance du schéma global (T R , taux d’erreur balancé<br />
me<strong>sur</strong>é <strong>sur</strong> une base de test indépendante), le nombre total de vecteurs de support (n V S ), le temps<br />
d’entraînement total (TE), le temps moyen de classification d’une image complète (T CI). Pour<br />
le nombre de vecteurs support et les temps d’entraînement, ce sont les sommes des quantités<br />
associées à chaque fonction de décision binaire. Les résultats sont présentes avec l’utilisation<br />
d’un espace couleur hybride (ECH) et d’un espace couleur classique (ECC) pour lesquels aucune<br />
sélection d’attributs n’est effectuée lors de l’optimisation (chaque pixel est alors décrit<br />
<strong>par</strong> trois attributs). La première remarque qui s’impose est que même si des schémas basés <strong>sur</strong><br />
l’exploitation d’espaces couleur classiques peuvent être efficaces, ceux-ci sont globalement plus<br />
complexes que ceux construits <strong>par</strong> notre approche réalisant une sélection d’un espace couleur<br />
hybride. En modifiant la pénalité <strong>sur</strong> le nombre de vecteur supports, nous pouvons obtenir un<br />
schéma de classification encore plus <strong>par</strong>cimonieux et de performances quasiment équivalentes<br />
(dernière ligne du tableau 3.7). Un compromis entre efficacité et complexité permet donc bien<br />
de sélectionner un modèle performant. La classification rapide de pixels <strong>par</strong> SVM permet de<br />
produire les cartes de probabilité d’ap<strong>par</strong>tenance de chaque pixel à l’une des classes. On notera<br />
que les SVM ne fournissent pas directement des probabilités, mais la distance à la frontière de<br />
décision. PLATT [PLATT99A] a néanmoins proposé une méthode pour produire une estimation<br />
de cette probabilité, c’est ce que nous réalisons. Les figures 3.9(b) à 3.9(d) illustrent les résultats<br />
obtenus avec l’image microscopique de la figure 3.9(a). La figure 3.9(e) présente le résultat<br />
obtenu en affectant chaque pixel à sa classe la plus probable, les probabilités finales étant calculées<br />
avec la méthode de Price [PRICE94]. Nous avons, à <strong>par</strong>tir de ces classifications, défini<br />
1 Nous ajoutons des exposants à certaines composantes couleur pour différencier celles qui ont le même nom<br />
dans différents espaces couleur mais pas les mêmes formules de calcul.