traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
76 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />
1. Choisir une solution initiale θ 0 ∈ Θ (θ ∗ = θ 0 , ¯Θ = ∅, it = 0),<br />
2. Sélectionner la meilleure solution non taboue θ it+1 = arg max q (θ) dans le voisinage<br />
θ∈Ṽ (θ it)<br />
Ṽ (θ it ) de θ it ,<br />
3. Mettre à jour la meilleure solution actuelle θ ∗ si q(θ it+1 ) > q(θ ∗ ),<br />
4. Mettre à jour la liste des solutions taboues,<br />
5. Répéter les étapes 2 à 5 (it = it + 1) jusqu’à ce que le critère d’arrêt soit vrai,<br />
6. Retourner θ ∗ .<br />
Algorithme 6: Synopsis de la recherche tabou.<br />
La recherche avec tabous [DRÉO03, GLOVER97] est basée <strong>sur</strong> une recherche itérative qui<br />
choisit dans un voisinage restreint la meilleure solution même si elle est plus mauvaise que<br />
celle de l’itération précédente. Une mémoire à court terme est utilisée pour éviter tout cycle<br />
visitant périodiquement le même optimum local. À <strong>par</strong>tir des derniers mouvements mémorisés,<br />
un ensemble de solutions est considéré comme tabou. Un mouvement n’est donc réalisable que<br />
vers l’une des solutions voisines qui n’est pas taboue. Le choix des solutions taboues peut être<br />
tout simplement les dernières solutions visitées, mais en général le critère déterminant les solutions<br />
taboues à un moment précis de la recherche dépend du problème à optimiser et de la<br />
représentation d’une solution. Nous avons donc proposé d’utiliser la recherche avec tabous pour<br />
optimiser l’ensemble des <strong>par</strong>amètres liés à un SVM (attributs pertinents et hyper-<strong>par</strong>amètres),<br />
ainsi que la sélection du niveau de simplification. L’objectif est de permettre une sélection rapide<br />
de bons <strong>modèles</strong> à <strong>par</strong>tir d’une représentation simplifiée et de n’utiliser les représentations<br />
moins simplifiées que si elles diminuent suffisamment le taux d’erreur. Pour obtenir un tel résultat,<br />
la recherche avec tabous doit commencer avec une représentation fortement simplifiée de<br />
la base d’entraînement (une valeur de k faible). Ceci permet, dès les premières itérations de la<br />
recherche, de produire des solutions qui permettront de réaliser une sélection rapide des attributs<br />
et des hyper-<strong>par</strong>amètres pour identifier des régions d’intérêt dans l’espace de recherche. De plus,<br />
nous avons défini des stratégies spécifiques d’intensification et de diversification afin d’améliorer<br />
les performances de notre modèle de recherche avec tabous. L’intensification a pour objectif<br />
de réaliser une recherche exhaustive dans des zones prometteuses de l’espace de recherche et faiblement<br />
explorées. La diversification a pour objectif de réaliser des modifications significatives<br />
de la solution pour permettre de quitter rapidement une zone de recherche peu efficace où déjà<br />
explorée <strong>par</strong> intensification afin de découvrir des zones prometteuses de l’espace de recherche.<br />
Nous avons mené de nombreuses expérimentations pour me<strong>sur</strong>er l’efficacité de la méthode<br />
de sélection de modèle proposée pour produire des fonctions de décision efficaces en généralisation<br />
et de complexité réduite. Nous n’en montrons ici qu’une petite <strong>par</strong>tie <strong>sur</strong> la base OpticDigits<br />
[ASUNCI07] à travers le tableau 3.6 où les notations suivantes sont utilisées :<br />
– T app désigne la durée en secondes nécessaires à notre méthode pour la sélection d’un<br />
modèle θ ∗ qui est considéré comme la solution optimale du problème.<br />
– k désigne le niveau de simplification optimal de la base d’entraînement,<br />
– q BER est égal à 1 − e BER et l’erreur BER est évaluée à <strong>par</strong>tir de la base de test Z T ,<br />
– n VS correspond au nombre de vecteurs de support utilisés <strong>par</strong> la fonction de décision,<br />
– n AS correspond au nombre d’attributs sélectionnés relativement au modèle θ ∗ .