21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3.3. Fusion de décisions de classificateurs 65<br />

(a)<br />

(b)<br />

(c)<br />

(d)<br />

FIG. 3.4 – Résultats de différentes évaluations <strong>sur</strong> la segmentation d’une image <strong>par</strong> classification<br />

Bayésienne comme germes d’une LPE ((a) l’image initiale, (b) la vérité terrain, (c-d) deux<br />

images segmentées).<br />

Pour le cas des classificateurs supervisés (classification bayésienne, k-ppv, réseaux de neurones<br />

multi-couches notés RNMC, machines à support de vecteurs notées SVM), la classification<br />

supervisée se fait en une seule étape et chaque pixel est étiqueté dans l’une des trois classes<br />

possibles. La principale difficulté réside dans la construction des bases de données permettant<br />

d’effectuer l’apprentissage du classificateur. La taille de la base d’apprentissage a une influence<br />

certaine <strong>sur</strong> les algorithmes supervisés. Certains, tels que les k-PPV et les SVM, réclament des<br />

puissances de calculs importantes et pour des grandes bases d’apprentissage, les temps d’apprentissage<br />

deviennent alors prohibitifs. Nous avons pu mettre en évidence que ne retenir qu’un<br />

tiers des pixels de chaque classe détériore très peu les résultats et ce, quelque soit l’espace de<br />

représentation ou l’algorithme utilisé. En conséquence, nous avons retenu, pour des raisons de<br />

temps de calcul, un apprentissage basé <strong>sur</strong> un tiers de la base d’apprentissage (la différence<br />

avec un apprentissage effectué <strong>sur</strong> toute la base est très faible). Nous reviendrons plus loin <strong>sur</strong><br />

ce problème de prototypage lorsque nous considérerons la construction de fonctions de décision<br />

<strong>par</strong>cimonieuses. Dans la suite, les <strong>par</strong>amètres des algorithmes de classification supervisée<br />

ont réglés afin d’optimiser notre me<strong>sur</strong>e d’évaluation (nous reviendrons également plus loin <strong>sur</strong><br />

l’importance de ces <strong>par</strong>amètres).<br />

Pour chacun des schémas de classification (supervisés ou non), nous avons considéré l’influence<br />

de la représentation de chaque pixel. En effet, la couleur d’un pixel peut être représentée autrement<br />

que <strong>par</strong> ses composantes Rouge, Verte et Bleue. Changer de représentation peut permettre<br />

d’améliorer les performances de la classification. Nous avons considéré chacun des schéma de<br />

classification dans plusieurs espaces couleurs et nous avons retenu la meilleure représentation<br />

en évaluant la qualité des classification obtenues <strong>sur</strong> une base de test (avec notre me<strong>sur</strong>e d’évaluation).<br />

Le tableau 3.3 résume les résultats obtenus. On remarque d’une <strong>par</strong>t que le changement<br />

d’espace couleur permet d’améliorer les résultats d’un classificateur donné et d’autre <strong>par</strong>t que

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!