21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

72 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />

FIG. 3.7 – Synopsis de notre méthode de simplification <strong>par</strong> quantification vectorielle à <strong>par</strong>tir<br />

de l’algorithme LBG. Il y a 16 prototypes <strong>par</strong> classes (k = 4) pour cet exemple. Les données<br />

proviennent d’un problème de discrimination de pixels en microscopie bronchique : fond (rouge)<br />

ou cellule (bleu) où deux caractéristiques ont été sélectionnées (les composantes bleu et vert d’un<br />

espace RV B).<br />

tion de la base d’apprentissage <strong>par</strong> prototypage permet donc une identification plus marquée<br />

des hyper-<strong>par</strong>amètres qui permettent de produire des fonctions de décision qui ont de bonnes<br />

capacités de généralisation ainsi qu’un nombre réduit de vecteurs de support pour le niveau de<br />

simplification utilisé, mais également pour des niveaux de simplification moins importants. Ce<br />

résultat est très important si l’on cherche à optimiser ces deux critères. Il est donc possible de<br />

construire des fonctions de décision performantes et <strong>par</strong>cimonieuses (peu de vecteurs supports).<br />

De plus, apprendre <strong>sur</strong> une base prototypée est évidemment plus rapide. La figure 3.8 présente<br />

une illustration de ces remarques. Sont présentés le taux de reconnaissance balancé <strong>sur</strong> une base<br />

de test, le nombre de vecteurs support et le temps d’apprentissage avec différents niveaux de<br />

simplification k. On remarque qu’un ensemble de prototypes bien choisis permet d’améliorer<br />

les capacités de généralisation tout en diminuant la complexité des fonctions de décision produites<br />

et leur temps d’apprentissage. Ces résultats illustrent le fait que le choix d’un compromis<br />

efficace entre performances en généralisation et complexité est difficile à réaliser. De plus, la<br />

sélection des hyper-<strong>par</strong>amètres des SVM peut être plus ou moins dépendante du niveau de simplification,<br />

suivant la nature des données utilisées.<br />

3.4.2.2 Optimisation globale <strong>par</strong> recherche avec tabous<br />

Si l’on considère le problème de la construction d’un modèle le plus efficace possible à<br />

base de SVM, cela nous ramène au problème de la sélection d’un modèle. Tous les problèmes<br />

d’apprentissage correspondent à la recherche d’une fonction de décision h ∗ de qualité optimale,<br />

suivant un critère q. L’espace des fonctions de décision admissibles est défini <strong>par</strong> un ensemble de<br />

<strong>par</strong>amètres ou variables libres θ, généralement contraints dans un ensemble de valeurs possibles

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!