21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

90 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />

3.5.3 Propositions de schémas de décodage<br />

Les schémas de décodage dépendent du principe de décomposition utilisé et leur influence<br />

varie <strong>sur</strong>tout pour des décompositions de type un-contre-un (même si l’on peut chercher à améliorer<br />

le décodage pour une approche un-contre-tous [BEYGEL05]). De plus, les fonctions de<br />

décisions produites <strong>par</strong> ce type de décomposition sont beaucoup moins complexes que celles<br />

induites <strong>par</strong> une décomposition ECOC ou un-contre-tous (dans cet ordre de complexité). Ceci a<br />

été également constaté <strong>par</strong> d’autres études [DUAN05, TSUJIN04, HSU02, TAX02]. Cependant,<br />

dans une décomposition un-contre-un, le nombre important de décompositions et la spécialisation<br />

des fonctions de décision rend le décodage plus difficile. Si bien que suivant le schéma<br />

de décodage utilisé et différentes réglages des <strong>par</strong>amètres, un schéma de décomposition uncontre-un<br />

peut être globalement moins performant qu’un schéma de décomposition un-contretous<br />

[RIFKIN04] même si les fonctions de décision du premier schéma sont plus performantes et<br />

moins complexes. La principale difficulté dans l’utilisation de schémas de combinaison de classificateurs<br />

binaires issus d’une décomposition un-contre-un est le problème des inconsistances<br />

qui peuvent exister entre l’ensemble des prédictions produites <strong>par</strong> ces classificateurs binaires. En<br />

effet, chaque classificateur est spécialisé dans la discrimination des exemples relativement à deux<br />

classes et lorsque qu’un exemple n’ap<strong>par</strong>tenant à aucune de ces deux classes est présenté à ce<br />

classificateur, la prédiction produite pour cet exemple n’est pas informative. Globalement, il n’y<br />

a que (n c −1) classificateurs binaires pertinents pour un exemple donné et (n c −1)(n c −2)/2 classificateurs<br />

binaires non pertinents pour le même exemple. Dans nos travaux, nous nous sommes<br />

donc attachés à concevoir des schémas de décodage pour des décompositions de type un-contreun.<br />

Nous ne donnons pas ici tous les résultats quantitatifs obtenus car ils ont été obtenus pour des<br />

bases de données différentes avec des classificateurs différents et des protocoles expérimentaux<br />

<strong>par</strong>fois différents [LEBRUN06, 1, 5, 10, 26, 31, 46, 53]<br />

3.5.3.1 Décodage direct<br />

Nous avons proposé un nouveau décodage direct [46] basé <strong>sur</strong> le principe Maximin [DEMYAN90]<br />

provenant de la théorie des jeux. Ce principe est basé <strong>sur</strong> l’hypothèse que la meilleure supposition<br />

est celle dont les plus mauvais résultats sont les meilleurs. Dans le cadre d’un schéma de<br />

décodage d’une décomposition un-contre-un, cela revient à choisir la classe dont la probabilité<br />

d’ap<strong>par</strong>tenance est la moins mauvaise. Etant donné qu’un classificateur peut être non informatif,<br />

une forte probabilité d’ap<strong>par</strong>tenance envers une classe donnée ne traduit pas forcément une<br />

forte décision envers cette classe. A l’inverse, si la probabilité d’ap<strong>par</strong>tenance est faible, il est<br />

raisonnable de rejeter cette classe. Nous pouvons alors énoncer ce principe comme suit. Les<br />

probabilités d’ap<strong>par</strong>tenance à chaque classe sont estimées ainsi :<br />

p(ω = ω i |x) = min( { D(ψ ωa,ω b<br />

, x)|ω a = ω i ∨ ω b = ω i<br />

}<br />

) (3.26)<br />

On choisi ensuite la plus probable (h = arg max). Nous avons com<strong>par</strong>é expérimentalement ce<br />

principe de décodage direct avec les décodages directs classiques (pour des classificateurs de<br />

type réseaux de neurones). On ne peut pas conclure qu’une méthode de décodage soit toujours<br />

meilleure qu’une autre, cela dépend des bases de données. Cependant, nous pouvons retenir trois<br />

méthodes de décodage direct car lors de toutes nos expérimentations, au moins une d’entre elles<br />

est toujours la meilleure. Ce sont les décodages <strong>par</strong> Price, Maximin et ECOC (pour une matrice<br />

exhaustive avec valeurs nulles et une fonction de décodage de type perte).

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!