traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
3.5. Schémas multi-classes de combinaison de classificateurs binaires 93<br />
principe de décodage donne de meilleurs résultats qu’un DDAG mais pas qu’un décodage direct.<br />
Cependant, cela atténue fortement les différences entre les schémas de décodage direct<br />
dont l’influence semble minime dans notre décodage indirect en cascade. Cela semble cohérent<br />
avec les observations de PLATT [PLATT99B] qui précise que l’utilisation d’un DDAG permet<br />
de réduire la borne d’erreur du décodage (même si cela ne permet pas de <strong>sur</strong>passer un décodage<br />
direct). Notre décodage indirect en cascade semble réduire encore plus cette borne sans toutefois<br />
à nouveau <strong>sur</strong>passer un décodage direct.<br />
➋ Décodage direct <strong>par</strong> stacking Les schémas de décodage direct permettent d’obtenir<br />
de meilleurs résultats que les schémas en cascade simples de type DDAG. Cependant il n’est<br />
pas possible de faire un choix entre les décodages <strong>par</strong> Price, Maximin et ECOC car cela dépend<br />
des bases de données. Ceci s’explique facilement car ces schémas de décodage ne peuvent pas<br />
s’adapter aux mauvaises configurations qui peuvent ap<strong>par</strong>aître. Par exemple, pour classer un<br />
exemple, si des classificateurs non pertinents prédisent une mauvaise classe et si des classificateurs<br />
pertinents prédisent cette même mauvaise classe, alors la décision finale risque fort d’être<br />
fausse. Savicky et Furnkranz [SAVICK03] ont alors proposé de construire <strong>par</strong> apprentissage le<br />
schéma de décodage direct <strong>par</strong> stacking [WOLPER92].<br />
ω 3 vs ω 4 ω 2 vs ω 4 ω 2 vs ω 3 ω 1 vs ω 4 ω 1 vs ω 3 ω 1 vs ω 2<br />
D(x) = (D(ψ ω3,ω4 , x), D(ψ ω2,ω4 , x), D(ψ ω2,ω3 , x), D(ψ ω1,ω4 , x), D(ψ ω1,ω3 , x), D(ψ ω1,ω2 , x))<br />
Stacked<br />
classificateur<br />
ω 3<br />
FIG. 3.16 – Décodage direct <strong>par</strong> Stacking.<br />
Le principe est le suivant, chaque exemple x ∈ Z(ψ i ) E est présenté à tous les classificateurs<br />
binaires et l’on obtient un vecteur D(x) = (D(ψ 1 , x), · · · , D(ψ k , x)) T pour chaque<br />
exemple. Ceci permet de construire une nouvelle base de données Z = {(D(x), y), ∀x ∈ X }.<br />
Cette nouvelle base de données peut être alors apprise <strong>par</strong> un classificateur n-aire. Ce classificateur<br />
construit donc une fonction de décision multi-classes qui émule le schéma de décodage.<br />
La figure 3.16 résume le fonctionnement de ce schéma de décodage. SAVICKY et FURNKRANZ<br />
[SAVICK03] n’ont montré aucune amélioration à l’aide du stacking pour des classificateurs binaires<br />
de type arbres de décision, cependant ils utilisaient non pas les sorties des classificateurs<br />
mais des prédictions de type classe. Nous avons pu montrer qu’en utilisant les sorties de classificateur<br />
neuronaux avec un arbre de décision pour effectuer le stacking, cela permet d’améliorer<br />
grandement les résultats [46], ce qui en fait un très bon schéma de décodage. Cependant, en<br />
effectuant le stacking <strong>par</strong> un classificateur n-aire, nous allons exactement à l’inverse de ce qui<br />
était voulu avec le schéma de décomposition à savoir simplifier le problème car les arbres de<br />
décisions obtenus pour le stacking sont d’une grande complexité. Néanmoins, cela a permis de<br />
montrer que les schémas de décodage directs sont limités <strong>par</strong> leur faible adaptation au cas des<br />
classificateurs non pertinents.