21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

76 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />

1. Choisir une solution initiale θ 0 ∈ Θ (θ ∗ = θ 0 , ¯Θ = ∅, it = 0),<br />

2. Sélectionner la meilleure solution non taboue θ it+1 = arg max q (θ) dans le voisinage<br />

θ∈Ṽ (θ it)<br />

Ṽ (θ it ) de θ it ,<br />

3. Mettre à jour la meilleure solution actuelle θ ∗ si q(θ it+1 ) > q(θ ∗ ),<br />

4. Mettre à jour la liste des solutions taboues,<br />

5. Répéter les étapes 2 à 5 (it = it + 1) jusqu’à ce que le critère d’arrêt soit vrai,<br />

6. Retourner θ ∗ .<br />

Algorithme 6: Synopsis de la recherche tabou.<br />

La recherche avec tabous [DRÉO03, GLOVER97] est basée <strong>sur</strong> une recherche itérative qui<br />

choisit dans un voisinage restreint la meilleure solution même si elle est plus mauvaise que<br />

celle de l’itération précédente. Une mémoire à court terme est utilisée pour éviter tout cycle<br />

visitant périodiquement le même optimum local. À <strong>par</strong>tir des derniers mouvements mémorisés,<br />

un ensemble de solutions est considéré comme tabou. Un mouvement n’est donc réalisable que<br />

vers l’une des solutions voisines qui n’est pas taboue. Le choix des solutions taboues peut être<br />

tout simplement les dernières solutions visitées, mais en général le critère déterminant les solutions<br />

taboues à un moment précis de la recherche dépend du problème à optimiser et de la<br />

représentation d’une solution. Nous avons donc proposé d’utiliser la recherche avec tabous pour<br />

optimiser l’ensemble des <strong>par</strong>amètres liés à un SVM (attributs pertinents et hyper-<strong>par</strong>amètres),<br />

ainsi que la sélection du niveau de simplification. L’objectif est de permettre une sélection rapide<br />

de bons <strong>modèles</strong> à <strong>par</strong>tir d’une représentation simplifiée et de n’utiliser les représentations<br />

moins simplifiées que si elles diminuent suffisamment le taux d’erreur. Pour obtenir un tel résultat,<br />

la recherche avec tabous doit commencer avec une représentation fortement simplifiée de<br />

la base d’entraînement (une valeur de k faible). Ceci permet, dès les premières itérations de la<br />

recherche, de produire des solutions qui permettront de réaliser une sélection rapide des attributs<br />

et des hyper-<strong>par</strong>amètres pour identifier des régions d’intérêt dans l’espace de recherche. De plus,<br />

nous avons défini des stratégies spécifiques d’intensification et de diversification afin d’améliorer<br />

les performances de notre modèle de recherche avec tabous. L’intensification a pour objectif<br />

de réaliser une recherche exhaustive dans des zones prometteuses de l’espace de recherche et faiblement<br />

explorées. La diversification a pour objectif de réaliser des modifications significatives<br />

de la solution pour permettre de quitter rapidement une zone de recherche peu efficace où déjà<br />

explorée <strong>par</strong> intensification afin de découvrir des zones prometteuses de l’espace de recherche.<br />

Nous avons mené de nombreuses expérimentations pour me<strong>sur</strong>er l’efficacité de la méthode<br />

de sélection de modèle proposée pour produire des fonctions de décision efficaces en généralisation<br />

et de complexité réduite. Nous n’en montrons ici qu’une petite <strong>par</strong>tie <strong>sur</strong> la base OpticDigits<br />

[ASUNCI07] à travers le tableau 3.6 où les notations suivantes sont utilisées :<br />

– T app désigne la durée en secondes nécessaires à notre méthode pour la sélection d’un<br />

modèle θ ∗ qui est considéré comme la solution optimale du problème.<br />

– k désigne le niveau de simplification optimal de la base d’entraînement,<br />

– q BER est égal à 1 − e BER et l’erreur BER est évaluée à <strong>par</strong>tir de la base de test Z T ,<br />

– n VS correspond au nombre de vecteurs de support utilisés <strong>par</strong> la fonction de décision,<br />

– n AS correspond au nombre d’attributs sélectionnés relativement au modèle θ ∗ .

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!