21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

70 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />

3.4 Construction de fonctions de décision <strong>par</strong>cimonieuses<br />

☞ Mes publications associées : [13, 14, 43, 44, 48–50, 52, 60, 64, 65, 71]<br />

3.4.1 Sélection de modèle et <strong>par</strong>cimonie<br />

La construction de fonctions de décision simplifiées est essentielle dans les applications<br />

ayant des contraintes de temps réel importantes. L’objectif est alors de pouvoir produire des<br />

solutions fortement <strong>par</strong>cimonieuses tout en conservant des capacités en généralisation performantes.<br />

Dans nos travaux, nous nous sommes intéressés à la construction de fonctions de décision<br />

<strong>par</strong>cimonieuses pour les SVM [ABE05, CRISTI00]. La réduction de la complexité des<br />

fonctions de décision des SVM peut être réalisée en agissant <strong>sur</strong> deux points essentiels :<br />

– la réduction de la taille de la base d’apprentissage, en ne conservant que les exemples les<br />

plus informatifs,<br />

– la sélection des attributs les plus utiles pour un problème donné de classification.<br />

La complexité, en temps d’évaluation de la fonction de décision d’un SVM, est linéairement<br />

dépendante du nombre de vecteurs de support. Comme ce nombre est borné <strong>par</strong> le nombre<br />

d’exemples, l’utilisation d’une base d’apprentissage de taille réduite permet de s’as<strong>sur</strong>er une<br />

limitation contrôlée de sa complexité. Les SVM ont <strong>par</strong> nature la possibilité de sélectionner un<br />

nombre réduit d’exemples comme vecteurs de support, mais les données d’apprentissage étant<br />

bruitées dans la majorité des cas, ce nombre est généralement élevé.<br />

Nous avons vu dans la section précédente qu’il n’est pas toujours nécessaire d’utiliser l’ensemble<br />

des données d’apprentissage. En revanche, il est très intéressant de choisir un ensemble réduit<br />

d’exemples représentatifs du problème d’apprentissage, pour produire une fonction de décision<br />

performante avec l’algorithme des SVM. Bien entendu, plus il y a de données pour décrire un<br />

problème d’apprentissage et plus les possibilités pour produire une fonction de décision performante<br />

à <strong>par</strong>tir de ces données sont grandes. La sélection d’un sous-ensemble réduit d’exemples<br />

(ou d’attributs) est lui-même un processus d’apprentissage et elle doit utiliser un principe d’inférence<br />

robuste pour garantir de bonnes capacités en généralisation. Ces deux points se retrouvent<br />

également dans le processus de fouille de données.<br />

Pour tous les classificateurs, la sélection d’un modèle a une grande influence <strong>sur</strong> les capacités<br />

en généralisation. Les SVM n’y échappent pas. Il est en effet nécéssaire de régler deux hyper<strong>par</strong>amètres<br />

que sont la largeur de bande du noyau Gaussien σ et la constante de régularisation<br />

C. Si l’algorithme des SVM permet de sélectionner un hyperplan de sé<strong>par</strong>ation optimal, lorsque<br />

ces différents <strong>par</strong>amètres sont fixés, la façon de réaliser le choix des valeurs optimales à donner<br />

aux <strong>par</strong>amètres libres d’un modèle reste à définir. Une procédure classique, nommée grid search<br />

[CHANG01], est suffisante dans le cas où le noyau n’a qu’un <strong>par</strong>amètre à sélectionner (en plus<br />

de la valeur de la constante de régularisation C), mais elle devient difficilement exploitable avec<br />

plus de deux <strong>par</strong>amètres. Parmi les <strong>par</strong>amètres que l’on peut souhaiter régler, on trouve <strong>par</strong><br />

exemple :<br />

– La recherche d’un sous-ensemble d’exemples pertinents,<br />

– La recherche d’un sous-ensemble d’attributs pertinents,<br />

– Le réglage des hyper-<strong>par</strong>amètres de l’algorithme (σ et C).<br />

Dans la littérature liée à la classification de données provenant d’images, les SVM sont souvent<br />

écartés pour plusieurs raisons [MARÉ03, MARTIN04]. Premièrement, si la base d’apprentissage<br />

est grande, l’apprentissage des SVM peut s’avérer très long. De plus, si la fonction de

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!