21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3.4. Construction de fonctions de décision <strong>par</strong>cimonieuses 71<br />

décision produite <strong>par</strong> un SVM utilise beaucoup de vecteurs de support (ce qui risque d’arriver<br />

si les données sont bruitées), le processus de classification sera également long. En outre, les<br />

SVM sont souvent utilisés sans réellement prendre garde à optimiser les précédents <strong>par</strong>amètres<br />

que nous avons cités et ceci peut avoir une grande influence <strong>sur</strong> leurs performances, comme<br />

pour tout algorithme d’apprentissage artificiel supervisé. Nous nous attacherons dans la suite à<br />

montrer qu’en cherchant à construire des fonctions de décision simplifiées, les SVM peuvent,<br />

à l’aide d’une sélection de modèle appropriée, fournir les <strong>modèles</strong> <strong>par</strong>cimonieux adaptés à la<br />

classification de données d’images.<br />

3.4.2 Construction de fonctions de décision simplifiées<br />

Partant des constatations précédentes, nous avons proposé d’exploiter des techniques de classification<br />

non-supervisées pour réduire la redondance inutile dans les données, et ainsi découvrir<br />

une représentation simplifiée et représentative de la base initiale. Comme les SVM sont<br />

sensibles à une sélection efficace des hyper-<strong>par</strong>amètres, nous avons également pour objectif de<br />

réaliser une optimisation de ceux-ci. La recherche d’un modèle performant combinant le choix<br />

des hyper-<strong>par</strong>amètres des SVM, la simplification de la base en nombre d’exemples et en nombre<br />

d’attributs utilisés correspond à l’exploration d’un espace de recherche de dimension importante.<br />

Pour pallier cet inconvénient, une méthode méta-heuristique à base de recherche avec tabous a<br />

été définie. Un nouveau critère de qualité qui correspond à un compromis entre capacité de<br />

généralisation et rapidité de la décision est proposé. Il permet à l’utilisateur de spécifier quel<br />

taux de dégradation de la qualité prédictive de la fonction de décision il est prêt à accepter, si<br />

cela conduit à une amélioration significative des temps de décision. Nous détaillons tous ces<br />

principes dans la suite.<br />

3.4.2.1 Prototypage d’une base<br />

Naturellement, nous nous sommes intéressés aux techniques d’apprentissage non supervisé<br />

pour produire un ensemble réduit de prototypes à <strong>par</strong>tir d’un ensemble plus conséquent de données<br />

d’apprentissage [JAIN99, MEILA05, XU05, TAN06]. Notre but est de produire un ensemble<br />

de prototypes suffisamment représentatifs de la base de données. Ces prototypes seront<br />

ensuite utilisés pour entraîner un SVM. Les prototypes ne sont pas nécessairement des exemples<br />

de la base d’apprentissage, mais des données synthétisées à <strong>par</strong>tir d’elle. Nous avons choisi<br />

d’utiliser l’algorithme de quantification vectorielle LBG (Linde, Buzo et Gray [LINDE80]).<br />

Le but de notre méthode de simplification est de produire, pour un niveau donné de simplification,<br />

un ensemble réduit de prototypes qui soit fortement représentatif de la ré<strong>par</strong>tition des données<br />

de chaque classe. Chaque prototype produit <strong>par</strong> notre méthode de simplification doit résumer<br />

le mieux possible un ensemble d’exemples d’une classe donnée de la base d’apprentissage.<br />

Pour produire ce résultat, l’algorithme LBG est appliqué, pour une valeur de k fixée représentant<br />

le niveau de simplification, à tous les exemples d’une classe donnée (maximum 2 k prototypes<br />

sont obtenus). Une valeur de k faible correspondra à un niveau de simplification important, et<br />

réciproquement. La figure 3.7 présente la construction d’un ensemble de prototypes <strong>sur</strong> une base<br />

d’apprentissage de classification de pixels. Nous avons pu mettre en évidence [LEBRUN06], <strong>sur</strong><br />

plusieurs bases de référence, que l’apprentissage d’un SVM <strong>sur</strong> une base prototypée est plus sensible<br />

aux choix de ses hyper-<strong>par</strong>amètres (C et σ). Cependant, l’apprentissage <strong>sur</strong> des prototypes<br />

fournit des informations utiles <strong>sur</strong> les couples d’hyper-<strong>par</strong>amètres performants. La simplifica-

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!