traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
72 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />
FIG. 3.7 – Synopsis de notre méthode de simplification <strong>par</strong> quantification vectorielle à <strong>par</strong>tir<br />
de l’algorithme LBG. Il y a 16 prototypes <strong>par</strong> classes (k = 4) pour cet exemple. Les données<br />
proviennent d’un problème de discrimination de pixels en microscopie bronchique : fond (rouge)<br />
ou cellule (bleu) où deux caractéristiques ont été sélectionnées (les composantes bleu et vert d’un<br />
espace RV B).<br />
tion de la base d’apprentissage <strong>par</strong> prototypage permet donc une identification plus marquée<br />
des hyper-<strong>par</strong>amètres qui permettent de produire des fonctions de décision qui ont de bonnes<br />
capacités de généralisation ainsi qu’un nombre réduit de vecteurs de support pour le niveau de<br />
simplification utilisé, mais également pour des niveaux de simplification moins importants. Ce<br />
résultat est très important si l’on cherche à optimiser ces deux critères. Il est donc possible de<br />
construire des fonctions de décision performantes et <strong>par</strong>cimonieuses (peu de vecteurs supports).<br />
De plus, apprendre <strong>sur</strong> une base prototypée est évidemment plus rapide. La figure 3.8 présente<br />
une illustration de ces remarques. Sont présentés le taux de reconnaissance balancé <strong>sur</strong> une base<br />
de test, le nombre de vecteurs support et le temps d’apprentissage avec différents niveaux de<br />
simplification k. On remarque qu’un ensemble de prototypes bien choisis permet d’améliorer<br />
les capacités de généralisation tout en diminuant la complexité des fonctions de décision produites<br />
et leur temps d’apprentissage. Ces résultats illustrent le fait que le choix d’un compromis<br />
efficace entre performances en généralisation et complexité est difficile à réaliser. De plus, la<br />
sélection des hyper-<strong>par</strong>amètres des SVM peut être plus ou moins dépendante du niveau de simplification,<br />
suivant la nature des données utilisées.<br />
3.4.2.2 Optimisation globale <strong>par</strong> recherche avec tabous<br />
Si l’on considère le problème de la construction d’un modèle le plus efficace possible à<br />
base de SVM, cela nous ramène au problème de la sélection d’un modèle. Tous les problèmes<br />
d’apprentissage correspondent à la recherche d’une fonction de décision h ∗ de qualité optimale,<br />
suivant un critère q. L’espace des fonctions de décision admissibles est défini <strong>par</strong> un ensemble de<br />
<strong>par</strong>amètres ou variables libres θ, généralement contraints dans un ensemble de valeurs possibles