21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3.3. Fusion de décisions de classificateurs 63<br />

ligne de <strong>par</strong>tage des eaux adaptative qui combine information globales et locales proposée dans<br />

ma thèse et améliorée ensuite [6, 7, 33].<br />

3.3.1 Évaluation de classifications de pixels<br />

Avant d’aller plus loin, il nous faut aborder un point important qu’est celui de l’évaluation<br />

des résultats d’une classification. Classiquement, on peut considérer le taux de réussite global<br />

d’un classificateur <strong>sur</strong> toutes les classes. Ceci n’est cependant pas approprié pour les cas où les<br />

quantités de pixels sont très disproportionnées. Le tableau 3.1 illustre ce fait <strong>par</strong> des proportions<br />

extraites de deux bases d’images de microscopie dont les pixels ont étés manuellement étiquetés.<br />

Ainsi, un classificateur qui classerait tous les pixels comme du fond aura un taux de réussite<br />

Type de base P roportion fond P roportion cytoplasme P roportion noyau<br />

Base d’apprentissage 89,6 % 6,6 % 3,7 %<br />

Base de tests 89 % 7,1 % 3,9 %<br />

TAB. 3.1 – Statistiques de ré<strong>par</strong>titions des pixels <strong>par</strong> classe <strong>sur</strong> différentes bases.<br />

proche des 90%, ce qui peut sembler bon mais qui en fait est très mauvais. Un simple pourcentage<br />

de taux de classification correcte n’est donc pas du tout approprié. Une façon de pallier ce<br />

problème est soit d’utiliser un taux d’erreur balancé soit une me<strong>sur</strong>e d’évaluation spécifique. Un<br />

taux d’erreur balancé (BER : Balanced Error Rate) est défini <strong>par</strong> :<br />

e BER = 1<br />

|Y|<br />

∑<br />

e ω (3.3)<br />

avec e ω le taux d’exemples mal classés de la classe ω. Nous avons alors proposé, pour le cas des<br />

images microscopiques, une me<strong>sur</strong>e d’évaluation spécifique de la classification obtenue. Cette<br />

me<strong>sur</strong>e se base <strong>sur</strong> une vérité terrain. Avec l’aide d’experts pathologistes du Centre Hospitalier<br />

Public du Cotentin, nous avons pu constituer de telles vérités terrain (constituées de 8 images<br />

pour la cytologie bronchique et de 10 images pour le cytologie des séreuses). Nous pouvons<br />

donc com<strong>par</strong>er des classifications automatiques <strong>par</strong> rapport à des vérités terrain. En microscopie,<br />

on cherche classiquement à distinguer trois classes de pixels : le fond, les cytoplasmes et les<br />

noyaux. La méthode que nous avons proposée fournit un indice de qualité <strong>sur</strong> la reconnaissance<br />

du cytoplasme « Indice cytoplasme » et du noyau « Indice noyau ». Pour calculer ces indices, nous<br />

calculons le nombre de pixels ap<strong>par</strong>tenant à chaque classe de l’image. Le taux de commun<br />

« Com cytoplasme » ou « Com noyau » montre le nombre de pixels correctement identifiés dans<br />

l’image de référence. Tandis que le taux de différence « Dif cytopasme » ou « Dif noyau » globalise<br />

pour une classe ω i donnée (cytoplasme ou noyau), les deux erreurs suivantes :<br />

1. Un pixel de la classe ω i dans l’image de référence n’est pas reconnu comme étant de la<br />

même classe dans l’image segmentée ;<br />

2. Un pixel n’étant pas de la classe ω i dans l’image segmentée est reconnu comme étant de<br />

la classe ω i dans l’image de référence.<br />

Cette méthode d’évaluation peut alors être définie <strong>par</strong> les équations suivantes :<br />

ω∈Y<br />

Indice cytoplasme = Com cytoplasme + (1 − Dif cytoplasme )<br />

2<br />

(3.4)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!