21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

3.5. Schémas multi-classes de combinaison de classificateurs binaires 91<br />

3.5.3.2 Décodage en cascade<br />

Initialement, nos propositions de schémas de décodage reposaient tout d’abord <strong>sur</strong> des schémas<br />

en cascade [5] basés <strong>sur</strong> des DDAG. Les classificateurs que nous avons considérés étaient<br />

des réseaux de neurones multi-couches dont les hyper-<strong>par</strong>amètres ont étés optimisés. Nous avons<br />

tout d’abord proposé (lors de mes travaux de thèse) de construire une fois pour toutes un DDAG<br />

en ordonnant les noeuds de l’arbre selon les performances en généralisation de chaque classificateur<br />

me<strong>sur</strong>ées <strong>sur</strong> une base validation. Puis, nous avons proposé de construire ce DDAG<br />

dynamiquement à chaque présentation d’un nouvel exemple à classer [10, 31]. Pour cela, nous<br />

avons défini un critère de qualité (QI pour Quality Index) de la décision effectuée <strong>par</strong> chaque<br />

classificateur qui prend en compte la sortie du classificateur D(ψ i , x), une estimation de ses performances<br />

en généralisation Q(ψ i ) <strong>sur</strong> un ensemble de validation ainsi que la représentativité<br />

R(Z(ψ i ) E ) des données utilisées pour son apprentissage :<br />

QI(ψ i , x) = D(ψ i , x) × Q(ψ i ) × R(Z(ψ i ) E ) (3.27)<br />

Nous avions appelé ce modèle GNN pour Graph of Neural Networks. La figure 3.14 présente un<br />

tel GNN où toutes les possibilités de chemin pour passer d’un classificateur à un autre sont présentées.<br />

Deux chemins différents amenant à des décisions différentes sont présentés dans cette<br />

figure. Comme pour un DDAG, lorsqu’une classe est éliminée, l’ensemble des classificateurs<br />

discriminant cette classe ne sont plus utilisables (cela permet de contraindre à n c − 1 la profondeur<br />

de l’arbre développé). Les GNN correspondent donc à une version alternative des ODAG<br />

qui ont été proposés ultérieurement à nos travaux.<br />

¬ω 4<br />

ω 1 vs ω 3 ω 3 vs ω 4<br />

¬ω 1<br />

¬ω 3 ¬ω 3<br />

¬ω 2<br />

¬ω 4 ¬ω 1<br />

¬ω 3<br />

¬ω 4 ¬ω 2<br />

¬ω 2<br />

ω 1 vs ω 4 ¬ω 1 ¬ω 2 ω 2 vs ω<br />

¬ω 4<br />

¬ω 3 1 ¬ω 2<br />

¬ω 2 ¬ω 4<br />

¬ω 3 ¬ω 4<br />

¬ω 4 ¬ω 1<br />

¬ω 1<br />

ω 3 ω 2 vs ω 3 ω 1 vs ω 2 ω 2<br />

¬ω 2 ¬ω<br />

¬ω 1<br />

3<br />

FIG. 3.14 – Graphe de classificateurs binaires.<br />

Même si les GNN nous ont permis d’obtenir de meilleures performances qu’un DDAG,<br />

on peut leur faire le même reproche. Si l’un des classificateurs interrogés réalise une erreur, il<br />

est impossible d’y pallier. Ceci peut s’en trouver accentué si les classificateurs non pertinents<br />

prennent des décisions arbitraires. De plus, si tous les classificateurs sont performants, il devient<br />

difficile de choisir leur ordre d’interrogation. Lorsque l’on utilise un DDAG ou un ODAG pour<br />

effectuer une classification, cela revient à développer un chemin selon une branche de l’arbre.<br />

Puisque ce chemin peut prendre de mauvaises décisions d’élimination, il peut être intéressant<br />

de chercher à développer plusieurs branches qui peuvent amener à des décisions différentes<br />

et choisir la décision la plus probable (figure 3.14). Nous avons proposé d’associer à chaque

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!