traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
70 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />
3.4 Construction de fonctions de décision <strong>par</strong>cimonieuses<br />
☞ Mes publications associées : [13, 14, 43, 44, 48–50, 52, 60, 64, 65, 71]<br />
3.4.1 Sélection de modèle et <strong>par</strong>cimonie<br />
La construction de fonctions de décision simplifiées est essentielle dans les applications<br />
ayant des contraintes de temps réel importantes. L’objectif est alors de pouvoir produire des<br />
solutions fortement <strong>par</strong>cimonieuses tout en conservant des capacités en généralisation performantes.<br />
Dans nos travaux, nous nous sommes intéressés à la construction de fonctions de décision<br />
<strong>par</strong>cimonieuses pour les SVM [ABE05, CRISTI00]. La réduction de la complexité des<br />
fonctions de décision des SVM peut être réalisée en agissant <strong>sur</strong> deux points essentiels :<br />
– la réduction de la taille de la base d’apprentissage, en ne conservant que les exemples les<br />
plus informatifs,<br />
– la sélection des attributs les plus utiles pour un problème donné de classification.<br />
La complexité, en temps d’évaluation de la fonction de décision d’un SVM, est linéairement<br />
dépendante du nombre de vecteurs de support. Comme ce nombre est borné <strong>par</strong> le nombre<br />
d’exemples, l’utilisation d’une base d’apprentissage de taille réduite permet de s’as<strong>sur</strong>er une<br />
limitation contrôlée de sa complexité. Les SVM ont <strong>par</strong> nature la possibilité de sélectionner un<br />
nombre réduit d’exemples comme vecteurs de support, mais les données d’apprentissage étant<br />
bruitées dans la majorité des cas, ce nombre est généralement élevé.<br />
Nous avons vu dans la section précédente qu’il n’est pas toujours nécessaire d’utiliser l’ensemble<br />
des données d’apprentissage. En revanche, il est très intéressant de choisir un ensemble réduit<br />
d’exemples représentatifs du problème d’apprentissage, pour produire une fonction de décision<br />
performante avec l’algorithme des SVM. Bien entendu, plus il y a de données pour décrire un<br />
problème d’apprentissage et plus les possibilités pour produire une fonction de décision performante<br />
à <strong>par</strong>tir de ces données sont grandes. La sélection d’un sous-ensemble réduit d’exemples<br />
(ou d’attributs) est lui-même un processus d’apprentissage et elle doit utiliser un principe d’inférence<br />
robuste pour garantir de bonnes capacités en généralisation. Ces deux points se retrouvent<br />
également dans le processus de fouille de données.<br />
Pour tous les classificateurs, la sélection d’un modèle a une grande influence <strong>sur</strong> les capacités<br />
en généralisation. Les SVM n’y échappent pas. Il est en effet nécéssaire de régler deux hyper<strong>par</strong>amètres<br />
que sont la largeur de bande du noyau Gaussien σ et la constante de régularisation<br />
C. Si l’algorithme des SVM permet de sélectionner un hyperplan de sé<strong>par</strong>ation optimal, lorsque<br />
ces différents <strong>par</strong>amètres sont fixés, la façon de réaliser le choix des valeurs optimales à donner<br />
aux <strong>par</strong>amètres libres d’un modèle reste à définir. Une procédure classique, nommée grid search<br />
[CHANG01], est suffisante dans le cas où le noyau n’a qu’un <strong>par</strong>amètre à sélectionner (en plus<br />
de la valeur de la constante de régularisation C), mais elle devient difficilement exploitable avec<br />
plus de deux <strong>par</strong>amètres. Parmi les <strong>par</strong>amètres que l’on peut souhaiter régler, on trouve <strong>par</strong><br />
exemple :<br />
– La recherche d’un sous-ensemble d’exemples pertinents,<br />
– La recherche d’un sous-ensemble d’attributs pertinents,<br />
– Le réglage des hyper-<strong>par</strong>amètres de l’algorithme (σ et C).<br />
Dans la littérature liée à la classification de données provenant d’images, les SVM sont souvent<br />
écartés pour plusieurs raisons [MARÉ03, MARTIN04]. Premièrement, si la base d’apprentissage<br />
est grande, l’apprentissage des SVM peut s’avérer très long. De plus, si la fonction de