21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

88 Chapitre 3 - Classification de données d’images <strong>par</strong> apprentissage<br />

➋ Décomposition un-contre-un<br />

Dans une méthode de décomposition un-contre-un, on cherche à définir les valeurs des p(ω =<br />

ω i | x) à <strong>par</strong>tir des estimations des p(ω = ω i | x, ω ∈ {ω i , ω j }) = D(ψ ωi ,ω j<br />

, x) (ou 1 −<br />

D(ψ ωi ,ω j<br />

, x)) fournies <strong>par</strong> chacun des classificateurs binaires ψ ωi ,ω j<br />

qui discriminent deux classes<br />

ω i et ω j . Idéalement, les estimations p(ω = ω i | x) doivent satisfaire la relation suivante :<br />

∀ω i : p(ω = ω i |x, ω ∈ {ω i , ω j }) =<br />

p(ω = ω i |x)<br />

p(ω = ω i |x) + p(ω = ω j |x)<br />

(3.20)<br />

Pour ce type de schéma de décomposition, on aura w(x) = arg max<br />

ω i<br />

p(ω = ω i |x) soit h =<br />

arg max.<br />

➲ Méthode basée <strong>sur</strong> le vote majoritaire : Ce principe de décodage est basé <strong>sur</strong><br />

l’utilisation du vote majoritaire et l’estimation de la probabilité d’ap<strong>par</strong>tenance à chaque classe<br />

est la suivante :<br />

p(ω = ω i |x) = 1 ∑n c ( ( ) )<br />

I D ψ<br />

N<br />

ωi ,ω j<br />

, x > 0, 5<br />

(3.21)<br />

j=1<br />

j≠i<br />

avec N = nc(nc−1)<br />

2<br />

un coefficient de normalisation et I(v) une fonction qui vaut 1 si v est vrai et<br />

0 sinon.<br />

➲ Méthode de Price et al : Price et al [PRICE94] démontrent que :<br />

∑n c<br />

j=1<br />

j≠i<br />

p(ω = ω i |x, ω ∈ {ω i , ω j }) − (n c − 2)p(ω = ω i |x) = 1 (3.22)<br />

A <strong>par</strong>tir de (3.20) et (3.22) ils obtiennent alors la relation suivante :<br />

p(ω = ω i |x) =<br />

∑n c<br />

j=1<br />

j≠i<br />

1<br />

(<br />

D ψ ωi ,ω j<br />

, x<br />

)<br />

− (n c − 2)<br />

(3.23)<br />

➲ Méthode d’Hastie et al : HASTIE et al [HASTIE97] proposent de choisir les valeurs<br />

p(ω = ω i |x) de façon à ce qu’elles minimisent une me<strong>sur</strong>e d’entropie relative (la distance de<br />

KULLBACK-LEIBLER [KULLBA51]) entre les valeurs déduites(<br />

de l’application ) de la relation<br />

(3.20) et celles prédites <strong>par</strong> les fonctions de décision binaires D ψ ωi ,ω j<br />

, x . Notons respectivement<br />

ces deux types d’estimation p i,j et D i,j . Notons également p i les valeurs de p(ω = ω i |x)<br />

et p le vecteur contenant l’ensemble des valeurs p i . L’objectif est de minimiser la fonctionnelle<br />

l(p) suivante :<br />

l(p) = ∑ i≠j<br />

n i,j D i,j ln D i,j<br />

p i,j<br />

(3.24)<br />

avec p i,j = p i /(p i + p j ) et n i,j le nombre d’exemples dans la base d’entraînement binaire<br />

correspondante. HASTIE et al proposent alors un algorithme itératif simple pour réaliser la minimisation<br />

de (3.24). WU et al [WU04] ont proposé une amélioration de cette méthode.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!