traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
traitement d'images par modèles discrets sur ... - Olivier Lezoray
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
3.5. Schémas multi-classes de combinaison de classificateurs binaires 85<br />
PRICE remarque alors que la majorité des frontières de décision binaires sont linéaires et la<br />
complexité globale du schéma multi-classes basé <strong>sur</strong> une décomposition binaire est beaucoup<br />
moins grande que le schéma multi-classes direct. Le même type de comportement a été constaté<br />
pour les arbres de décision [FÜRNK01, FRANK04]. En conséquence, des approches basées <strong>sur</strong><br />
une décomposition d’un problème en sous-problèmes binaires bénéficie de plusieurs avantages<br />
majeurs : simplicité des fonctions de décision, apprentissage rapide et donc une sélection de<br />
modèle plus aisée (attributs pertinents, exemples pertinents, hyper-<strong>par</strong>amètres).<br />
Dans nos travaux, nous nous sommes intéressés à concevoir des schémas multi-classes de combinaison<br />
de classificateurs binaires. La figure 3.12 présente le schéma global d’une telle approche.<br />
Pour concevoir un tel schéma, deux éléments doivent être déterminés : le schéma de décomposition<br />
et le schéma de décodage. Une fois le schéma de décomposition déterminé, nous avons à<br />
construire k fonctions de décision binaires D(ψ i ). Une fois l’apprentissage des classificateurs<br />
binaires effectués, classer un exemple revient à interroger l’ensemble (ou un sous-ensemble) des<br />
classificateurs et à déterminer la classe finale <strong>par</strong> un schéma de décodage des sorties fournies <strong>par</strong><br />
les classificateurs. La sortie d’un classificateur ψ i pour un exemple x ∈ X sera notée D(ψ i , x).<br />
Un schéma de décodage effectue alors généralement un calcul de confiance d’ap<strong>par</strong>tenances aux<br />
classes : g : R k → R |Y| puis une décision est prise à <strong>par</strong>tir de ces dernières <strong>par</strong> h : R |Y| → Y. Un<br />
schéma de décodage effectue donc la transformation suivante : h ◦ g(D(ψ 1 , x), · · · , D(ψ k , x)).<br />
Nous noterons indifféremment le nombre de classes à discriminer <strong>par</strong> n c ou |Y|.<br />
Dans la suite, nous présentons les schémas de décomposition usuels puis les schémas de<br />
décodage associés. Nous présentons finalement nos propositions de schémas de décodage.<br />
3.5.1 Schémas de décomposition<br />
La décomposition d’un problème multi-classes en k problèmes binaires est la première étape<br />
d’un schéma de multi-classes de combinaison. Elle correspond à définir k vecteurs ψ. A <strong>par</strong>tir<br />
de ces vecteurs, une matrice Ψ de codage du problème multi-classes est définie.<br />
ω 1 · · · ω nc<br />
Ψ =<br />
ψ 1<br />
∣ ∣∣∣∣∣∣ ψ 1,1 · · · ψ 1,nc<br />
. (3.14)<br />
. . ..<br />
ψ k ψ k,1 ψ k,nc<br />
Chaque ligne de Ψ correspond à un vecteur ψ i et chaque colonne de Ψ indique le problème<br />
binaire dans lequel les exemples d’une classe donnée sont utilisés. La structure de la matrice<br />
Ψ définit la nature du schéma de combinaison utilisé. Un sous-problème de discrimination binaire<br />
issu d’un problème multi-classes est donc défini à <strong>par</strong>tir d’un vecteur ψ i (nous désignons<br />
également le classificateur <strong>par</strong> cette même notation). Ce vecteur représente pour chaque classe<br />
ω y de la base initiale sa correspondance avec des exemples considérés comme ap<strong>par</strong>tenant à la<br />
classe positive (ψ i,y = +1), à la classe négative (ψ i,y = −1) ou non présent (ψ i,y = 0) pour le<br />
problème binaire induit. La définition d’une base d’apprentissage binaire Z (ψ i ) à <strong>par</strong>tir d’une<br />
base multi-classes Z et de la transformation binaire induite <strong>par</strong> ψ i est la suivante :<br />
Z (ψ i ) = {(x, +1) | (x, y) ∈ Z, ψ i,y = +1} ∪ {(x, −1) | (x, y) ∈ Z, ψ i,y = −1} (3.15)<br />
D(ψ i ) désigne la fonction de décision du classificateur ψ i produite à <strong>par</strong>tir d’une base d’entraînement<br />
Z(ψ i ) E .