traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
3.5. Schémas multi-classes de combinaison de classificateurs binaires 91<br />
3.5.3.2 Décodage en cascade<br />
Initialement, nos propositions de schémas de décodage reposaient tout d’abord <strong>sur</strong> des schémas<br />
en cascade [5] basés <strong>sur</strong> des DDAG. Les classificateurs que nous avons considérés étaient<br />
des réseaux de neurones multi-couches dont les hyper-<strong>par</strong>amètres ont étés optimisés. Nous avons<br />
tout d’abord proposé (lors de mes travaux de thèse) de construire une fois pour toutes un DDAG<br />
en ordonnant les noeuds de l’arbre selon les performances en généralisation de chaque classificateur<br />
me<strong>sur</strong>ées <strong>sur</strong> une base validation. Puis, nous avons proposé de construire ce DDAG<br />
dynamiquement à chaque présentation d’un nouvel exemple à classer [10, 31]. Pour cela, nous<br />
avons défini un critère de qualité (QI pour Quality Index) de la décision effectuée <strong>par</strong> chaque<br />
classificateur qui prend en compte la sortie du classificateur D(ψ i , x), une estimation de ses performances<br />
en généralisation Q(ψ i ) <strong>sur</strong> un ensemble de validation ainsi que la représentativité<br />
R(Z(ψ i ) E ) des données utilisées pour son apprentissage :<br />
QI(ψ i , x) = D(ψ i , x) × Q(ψ i ) × R(Z(ψ i ) E ) (3.27)<br />
Nous avions appelé ce modèle GNN pour Graph of Neural Networks. La figure 3.14 présente un<br />
tel GNN où toutes les possibilités de chemin pour passer d’un classificateur à un autre sont présentées.<br />
Deux chemins différents amenant à des décisions différentes sont présentés dans cette<br />
figure. Comme pour un DDAG, lorsqu’une classe est éliminée, l’ensemble des classificateurs<br />
discriminant cette classe ne sont plus utilisables (cela permet de contraindre à n c − 1 la profondeur<br />
de l’arbre développé). Les GNN correspondent donc à une version alternative des ODAG<br />
qui ont été proposés ultérieurement à nos travaux.<br />
¬ω 4<br />
ω 1 vs ω 3 ω 3 vs ω 4<br />
¬ω 1<br />
¬ω 3 ¬ω 3<br />
¬ω 2<br />
¬ω 4 ¬ω 1<br />
¬ω 3<br />
¬ω 4 ¬ω 2<br />
¬ω 2<br />
ω 1 vs ω 4 ¬ω 1 ¬ω 2 ω 2 vs ω<br />
¬ω 4<br />
¬ω 3 1 ¬ω 2<br />
¬ω 2 ¬ω 4<br />
¬ω 3 ¬ω 4<br />
¬ω 4 ¬ω 1<br />
¬ω 1<br />
ω 3 ω 2 vs ω 3 ω 1 vs ω 2 ω 2<br />
¬ω 2 ¬ω<br />
¬ω 1<br />
3<br />
FIG. 3.14 – Graphe de classificateurs binaires.<br />
Même si les GNN nous ont permis d’obtenir de meilleures performances qu’un DDAG,<br />
on peut leur faire le même reproche. Si l’un des classificateurs interrogés réalise une erreur, il<br />
est impossible d’y pallier. Ceci peut s’en trouver accentué si les classificateurs non pertinents<br />
prennent des décisions arbitraires. De plus, si tous les classificateurs sont performants, il devient<br />
difficile de choisir leur ordre d’interrogation. Lorsque l’on utilise un DDAG ou un ODAG pour<br />
effectuer une classification, cela revient à développer un chemin selon une branche de l’arbre.<br />
Puisque ce chemin peut prendre de mauvaises décisions d’élimination, il peut être intéressant<br />
de chercher à développer plusieurs branches qui peuvent amener à des décisions différentes<br />
et choisir la décision la plus probable (figure 3.14). Nous avons proposé d’associer à chaque