21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

3.5. Schémas multi-classes de combinaison de classificateurs binaires 93<br />

principe de décodage donne de meilleurs résultats qu’un DDAG mais pas qu’un décodage direct.<br />

Cependant, cela atténue fortement les différences entre les schémas de décodage direct<br />

dont l’influence semble minime dans notre décodage indirect en cascade. Cela semble cohérent<br />

avec les observations de PLATT [PLATT99B] qui précise que l’utilisation d’un DDAG permet<br />

de réduire la borne d’erreur du décodage (même si cela ne permet pas de <strong>sur</strong>passer un décodage<br />

direct). Notre décodage indirect en cascade semble réduire encore plus cette borne sans toutefois<br />

à nouveau <strong>sur</strong>passer un décodage direct.<br />

➋ Décodage direct <strong>par</strong> stacking Les schémas de décodage direct permettent d’obtenir<br />

de meilleurs résultats que les schémas en cascade simples de type DDAG. Cependant il n’est<br />

pas possible de faire un choix entre les décodages <strong>par</strong> Price, Maximin et ECOC car cela dépend<br />

des bases de données. Ceci s’explique facilement car ces schémas de décodage ne peuvent pas<br />

s’adapter aux mauvaises configurations qui peuvent ap<strong>par</strong>aître. Par exemple, pour classer un<br />

exemple, si des classificateurs non pertinents prédisent une mauvaise classe et si des classificateurs<br />

pertinents prédisent cette même mauvaise classe, alors la décision finale risque fort d’être<br />

fausse. Savicky et Furnkranz [SAVICK03] ont alors proposé de construire <strong>par</strong> apprentissage le<br />

schéma de décodage direct <strong>par</strong> stacking [WOLPER92].<br />

ω 3 vs ω 4 ω 2 vs ω 4 ω 2 vs ω 3 ω 1 vs ω 4 ω 1 vs ω 3 ω 1 vs ω 2<br />

D(x) = (D(ψ ω3,ω4 , x), D(ψ ω2,ω4 , x), D(ψ ω2,ω3 , x), D(ψ ω1,ω4 , x), D(ψ ω1,ω3 , x), D(ψ ω1,ω2 , x))<br />

Stacked<br />

classificateur<br />

ω 3<br />

FIG. 3.16 – Décodage direct <strong>par</strong> Stacking.<br />

Le principe est le suivant, chaque exemple x ∈ Z(ψ i ) E est présenté à tous les classificateurs<br />

binaires et l’on obtient un vecteur D(x) = (D(ψ 1 , x), · · · , D(ψ k , x)) T pour chaque<br />

exemple. Ceci permet de construire une nouvelle base de données Z = {(D(x), y), ∀x ∈ X }.<br />

Cette nouvelle base de données peut être alors apprise <strong>par</strong> un classificateur n-aire. Ce classificateur<br />

construit donc une fonction de décision multi-classes qui émule le schéma de décodage.<br />

La figure 3.16 résume le fonctionnement de ce schéma de décodage. SAVICKY et FURNKRANZ<br />

[SAVICK03] n’ont montré aucune amélioration à l’aide du stacking pour des classificateurs binaires<br />

de type arbres de décision, cependant ils utilisaient non pas les sorties des classificateurs<br />

mais des prédictions de type classe. Nous avons pu montrer qu’en utilisant les sorties de classificateur<br />

neuronaux avec un arbre de décision pour effectuer le stacking, cela permet d’améliorer<br />

grandement les résultats [46], ce qui en fait un très bon schéma de décodage. Cependant, en<br />

effectuant le stacking <strong>par</strong> un classificateur n-aire, nous allons exactement à l’inverse de ce qui<br />

était voulu avec le schéma de décomposition à savoir simplifier le problème car les arbres de<br />

décisions obtenus pour le stacking sont d’une grande complexité. Néanmoins, cela a permis de<br />

montrer que les schémas de décodage directs sont limités <strong>par</strong> leur faible adaptation au cas des<br />

classificateurs non pertinents.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!