traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
86 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />
Dans la majorité des schémas de combinaison utilisés, cette structure est prédéfinie [DIETTE95,<br />
VAPNIK98, KREBEL99]. Pour d’autres méthodes, la structure de la matrice (les différentes décompositions<br />
binaires) est produite <strong>par</strong> un schéma d’apprentissage [PÉREZ-02, ABE05]. Nous<br />
ne considérons que des décompositions pré-définies et nous présentons les principales dans la<br />
suite ; il en existe d’autres (on consultera <strong>par</strong> exemple [LEI05, MOREIR98]).<br />
3.5.1.1 Un contre tous<br />
La méthode un-contre-tous (One Versus All [VAPNIK98, RIFKIN04]) est la plus simple et<br />
elle produit autant de problèmes binaires que de classes. Chaque problème binaire correspond<br />
à la discrimination des exemples d’une classe avec ceux des autres classes. La matrice (3.16)<br />
illustre la décomposition un-contre-tous pour un problème avec 4 classes.<br />
Ψ =<br />
⎡<br />
⎢<br />
⎣<br />
+1 −1 −1 −1<br />
−1 +1 −1 −1<br />
−1 −1 +1 −1<br />
−1 −1 −1 +1<br />
⎤<br />
⎥<br />
⎦ (3.16)<br />
Cette méthode de décomposition produit peu de problèmes binaires. Cependant, ceux-ci ont<br />
l’inconvénient d’utiliser systématiquement l’ensemble des exemples du problème multi-classes<br />
et <strong>par</strong> conséquent les temps d’apprentissage de chaque sous-problème binaire sont importants<br />
[LEI05]. De plus, les fonctions de décision produites sont généralement complexes.<br />
3.5.1.2 Un contre un<br />
La méthode un-contre-un (One Versus One [KREBEL99], Round Robin [FÜRNK03], ou Pairwise<br />
Coupling [PRICE94]) est sûrement la méthode la plus utilisée. L’idée est que pour chaque<br />
sous-problème binaire seules deux classes du problème initial sont retenues. Le nombre de problèmes<br />
binaires induits <strong>par</strong> cette décomposition est de n c (n c − 1)/2. La matrice (3.17) illustre<br />
cette décomposition pour un problème avec 4 classes.<br />
⎡<br />
Ψ =<br />
⎢<br />
⎣<br />
+1 −1 0 0<br />
+1 0 −1 0<br />
+1 0 0 −1<br />
0 +1 −1 0<br />
0 +1 0 −1<br />
0 0 +1 −1<br />
⎤<br />
⎥<br />
⎦<br />
(3.17)<br />
Avec cette décomposition, chaque problème binaire est de taille plus faible que le problème<br />
initial, ce qui réduit les temps d’entraînement liés à chaque problème de discrimination. Ce gain<br />
est atténué <strong>par</strong> l’augmentation du nombre de problèmes binaires à traiter. La discrimination est<br />
facilitée, car la frontière de décision ne concerne que deux classes à chaque fois. Pour simplifier<br />
les notations, nous noterons ψ wi ,w j<br />
le classificateur binaire qui discrimine la classe w i de la<br />
classe w j .<br />
3.5.1.3 ECOC : Error Correcting Output Codes<br />
Les matrices Ψ de type ECOC comportent k lignes et le nombre de lignes désigne la longueur<br />
du code utilisé [DIETTE95]. Le principe est de produire un grand nombre de lignes (donc