21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

3.5. Schémas multi-classes de combinaison de classificateurs binaires 85<br />

PRICE remarque alors que la majorité des frontières de décision binaires sont linéaires et la<br />

complexité globale du schéma multi-classes basé <strong>sur</strong> une décomposition binaire est beaucoup<br />

moins grande que le schéma multi-classes direct. Le même type de comportement a été constaté<br />

pour les arbres de décision [FÜRNK01, FRANK04]. En conséquence, des approches basées <strong>sur</strong><br />

une décomposition d’un problème en sous-problèmes binaires bénéficie de plusieurs avantages<br />

majeurs : simplicité des fonctions de décision, apprentissage rapide et donc une sélection de<br />

modèle plus aisée (attributs pertinents, exemples pertinents, hyper-<strong>par</strong>amètres).<br />

Dans nos travaux, nous nous sommes intéressés à concevoir des schémas multi-classes de combinaison<br />

de classificateurs binaires. La figure 3.12 présente le schéma global d’une telle approche.<br />

Pour concevoir un tel schéma, deux éléments doivent être déterminés : le schéma de décomposition<br />

et le schéma de décodage. Une fois le schéma de décomposition déterminé, nous avons à<br />

construire k fonctions de décision binaires D(ψ i ). Une fois l’apprentissage des classificateurs<br />

binaires effectués, classer un exemple revient à interroger l’ensemble (ou un sous-ensemble) des<br />

classificateurs et à déterminer la classe finale <strong>par</strong> un schéma de décodage des sorties fournies <strong>par</strong><br />

les classificateurs. La sortie d’un classificateur ψ i pour un exemple x ∈ X sera notée D(ψ i , x).<br />

Un schéma de décodage effectue alors généralement un calcul de confiance d’ap<strong>par</strong>tenances aux<br />

classes : g : R k → R |Y| puis une décision est prise à <strong>par</strong>tir de ces dernières <strong>par</strong> h : R |Y| → Y. Un<br />

schéma de décodage effectue donc la transformation suivante : h ◦ g(D(ψ 1 , x), · · · , D(ψ k , x)).<br />

Nous noterons indifféremment le nombre de classes à discriminer <strong>par</strong> n c ou |Y|.<br />

Dans la suite, nous présentons les schémas de décomposition usuels puis les schémas de<br />

décodage associés. Nous présentons finalement nos propositions de schémas de décodage.<br />

3.5.1 Schémas de décomposition<br />

La décomposition d’un problème multi-classes en k problèmes binaires est la première étape<br />

d’un schéma de multi-classes de combinaison. Elle correspond à définir k vecteurs ψ. A <strong>par</strong>tir<br />

de ces vecteurs, une matrice Ψ de codage du problème multi-classes est définie.<br />

ω 1 · · · ω nc<br />

Ψ =<br />

ψ 1<br />

∣ ∣∣∣∣∣∣ ψ 1,1 · · · ψ 1,nc<br />

. (3.14)<br />

. . ..<br />

ψ k ψ k,1 ψ k,nc<br />

Chaque ligne de Ψ correspond à un vecteur ψ i et chaque colonne de Ψ indique le problème<br />

binaire dans lequel les exemples d’une classe donnée sont utilisés. La structure de la matrice<br />

Ψ définit la nature du schéma de combinaison utilisé. Un sous-problème de discrimination binaire<br />

issu d’un problème multi-classes est donc défini à <strong>par</strong>tir d’un vecteur ψ i (nous désignons<br />

également le classificateur <strong>par</strong> cette même notation). Ce vecteur représente pour chaque classe<br />

ω y de la base initiale sa correspondance avec des exemples considérés comme ap<strong>par</strong>tenant à la<br />

classe positive (ψ i,y = +1), à la classe négative (ψ i,y = −1) ou non présent (ψ i,y = 0) pour le<br />

problème binaire induit. La définition d’une base d’apprentissage binaire Z (ψ i ) à <strong>par</strong>tir d’une<br />

base multi-classes Z et de la transformation binaire induite <strong>par</strong> ψ i est la suivante :<br />

Z (ψ i ) = {(x, +1) | (x, y) ∈ Z, ψ i,y = +1} ∪ {(x, −1) | (x, y) ∈ Z, ψ i,y = −1} (3.15)<br />

D(ψ i ) désigne la fonction de décision du classificateur ψ i produite à <strong>par</strong>tir d’une base d’entraînement<br />

Z(ψ i ) E .

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!