traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
88 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />
➋ Décomposition un-contre-un<br />
Dans une méthode de décomposition un-contre-un, on cherche à définir les valeurs des p(ω =<br />
ω i | x) à <strong>par</strong>tir des estimations des p(ω = ω i | x, ω ∈ {ω i , ω j }) = D(ψ ωi ,ω j<br />
, x) (ou 1 −<br />
D(ψ ωi ,ω j<br />
, x)) fournies <strong>par</strong> chacun des classificateurs binaires ψ ωi ,ω j<br />
qui discriminent deux classes<br />
ω i et ω j . Idéalement, les estimations p(ω = ω i | x) doivent satisfaire la relation suivante :<br />
∀ω i : p(ω = ω i |x, ω ∈ {ω i , ω j }) =<br />
p(ω = ω i |x)<br />
p(ω = ω i |x) + p(ω = ω j |x)<br />
(3.20)<br />
Pour ce type de schéma de décomposition, on aura w(x) = arg max<br />
ω i<br />
p(ω = ω i |x) soit h =<br />
arg max.<br />
➲ Méthode basée <strong>sur</strong> le vote majoritaire : Ce principe de décodage est basé <strong>sur</strong><br />
l’utilisation du vote majoritaire et l’estimation de la probabilité d’ap<strong>par</strong>tenance à chaque classe<br />
est la suivante :<br />
p(ω = ω i |x) = 1 ∑n c ( ( ) )<br />
I D ψ<br />
N<br />
ωi ,ω j<br />
, x > 0, 5<br />
(3.21)<br />
j=1<br />
j≠i<br />
avec N = nc(nc−1)<br />
2<br />
un coefficient de normalisation et I(v) une fonction qui vaut 1 si v est vrai et<br />
0 sinon.<br />
➲ Méthode de Price et al : Price et al [PRICE94] démontrent que :<br />
∑n c<br />
j=1<br />
j≠i<br />
p(ω = ω i |x, ω ∈ {ω i , ω j }) − (n c − 2)p(ω = ω i |x) = 1 (3.22)<br />
A <strong>par</strong>tir de (3.20) et (3.22) ils obtiennent alors la relation suivante :<br />
p(ω = ω i |x) =<br />
∑n c<br />
j=1<br />
j≠i<br />
1<br />
(<br />
D ψ ωi ,ω j<br />
, x<br />
)<br />
− (n c − 2)<br />
(3.23)<br />
➲ Méthode d’Hastie et al : HASTIE et al [HASTIE97] proposent de choisir les valeurs<br />
p(ω = ω i |x) de façon à ce qu’elles minimisent une me<strong>sur</strong>e d’entropie relative (la distance de<br />
KULLBACK-LEIBLER [KULLBA51]) entre les valeurs déduites(<br />
de l’application ) de la relation<br />
(3.20) et celles prédites <strong>par</strong> les fonctions de décision binaires D ψ ωi ,ω j<br />
, x . Notons respectivement<br />
ces deux types d’estimation p i,j et D i,j . Notons également p i les valeurs de p(ω = ω i |x)<br />
et p le vecteur contenant l’ensemble des valeurs p i . L’objectif est de minimiser la fonctionnelle<br />
l(p) suivante :<br />
l(p) = ∑ i≠j<br />
n i,j D i,j ln D i,j<br />
p i,j<br />
(3.24)<br />
avec p i,j = p i /(p i + p j ) et n i,j le nombre d’exemples dans la base d’entraînement binaire<br />
correspondante. HASTIE et al proposent alors un algorithme itératif simple pour réaliser la minimisation<br />
de (3.24). WU et al [WU04] ont proposé une amélioration de cette méthode.