21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3.1. Principes de la classification 59<br />

microscopique des données). Les <strong>modèles</strong> globaux sont définis <strong>par</strong> une fonction à optimiser et<br />

les <strong>modèles</strong> locaux <strong>par</strong> la recherche de motifs fréquents intéressants. La construction de <strong>modèles</strong><br />

globaux fait alors directement appel aux méthodes d’apprentissage <strong>par</strong> ordinateur qui constitue<br />

une ou plusieurs étapes du processus de fouille de données (pour la classification). Nous nous<br />

intéressons uniquement aux concepts inférés sous forme de <strong>modèles</strong> globaux.<br />

En apprentissage artificiel, on distingue habituellement plusieurs types d’apprentissages :<br />

– Apprentissage non-supervisé,<br />

– Apprentissage supervisé,<br />

– Apprentissage semi-supervisé,<br />

Pour toutes ces méthodes d’apprentissage, nous disposons d’un ensemble d’observations<br />

{x 1 , · · · , x n } ∈ X et d’un nombre de classes à discriminer <strong>par</strong> le classificateur. Chaque observation<br />

est décrite <strong>par</strong> un certain nombre de caractéristiques. Dans le cadre d’un apprentissage<br />

non supervisé, on cherche à construire un modèle directement à <strong>par</strong>tir des données. L’objectif est<br />

de décrire comment les données sont organisées et d’en extraire des sous-ensembles homogènes.<br />

Parmi les méthodes non supervisées, on peut citer la classification hiérarchique [CORNUÉ02],<br />

les cartes auto-organisatrices [DREYFU04], les k-moyennes [MITCHE97], etc. Dans le cadre<br />

d’un apprentissage supervisé, on dispose, en plus des observations, de valeurs cibles (ou labels<br />

ou classes d’ap<strong>par</strong>tenance) {y i } ∈ Y associées à ces observations où Y désigne l’ensemble<br />

des classes possibles. On cherche alors à construire un modèle qui permet d’estimer les dépendances<br />

entre les ensembles X et Y. On <strong>par</strong>le d’apprentissage supervisé car les éléments de Y<br />

permettent de guider le processus d’estimation. Parmi les méthodes supervisées, on peut citer les<br />

k-ppv [KUNCHE04], les réseaux de neurones [DREYFU04], les machines à vecteurs de support<br />

(SVM) [ABE05, VAPNIK95, CRISTI00], les arbres de décision [QUINLA93], etc. Dans le cadre<br />

d’un apprentissage semi-supervisé [ZHOU04, CHAPEL06], <strong>par</strong>mi les observations, seulement<br />

un petit nombre d’entre eux ont un label {y i }. L’objectif est alors de chercher à classifier les observations<br />

non étiquetées. Dans nos travaux, nous nous sommes plus <strong>par</strong>ticulièrement intéressés<br />

aux méthodes supervisées. Nous donnons donc plus de détails <strong>sur</strong> leurs principes.<br />

3.1.2 Apprentissage supervisé : concepts<br />

Le pouvoir de généralisation d’un algorithme d’apprentissage artificiel est dépendant du processus<br />

inductif qu’il réalise et de l’espace des hypothèses H. Cet espace correspond à l’ensemble<br />

des fonctions de décision réalisables. Le principe inductif permet de sélectionner dans l’espace<br />

des hypothèses, à <strong>par</strong>tir d’un ensemble de données, celles explicitant le mieux ces données. Ces<br />

concepts représentent le biais d’apprentissage utilisé <strong>par</strong> l’apprenant artificiel pour produire une<br />

fonction de décision avec les meilleures capacités de généralisation [CORNUÉ02]. Soit O une<br />

population d’objets, X l’espace de description associé à ces objets et o un oracle capable de<br />

réaliser une catégorisation des objets issus de O, désignée <strong>par</strong> la fonction f o : O → Y. Soit<br />

f d : O → X une fonction qui détermine, pour un objet o ∈ O donné, sa description x. A <strong>par</strong>tir<br />

de O, Y, f d et f o il est possible de définir l’espace des exemples Z. Un exemple z ∈ Z correspondant<br />

à un objet o ∈ O est un couple de données (x, y) tels que (x, y) = (f d (o), f o (o)). En<br />

apprentissage supervisé, on cherche une fonction f : X → Y qui permet d’estimer la classe y<br />

associée à x. f ap<strong>par</strong>tient à l’espace d’hypothèses H. Le cas idéal correspond à f o = f d ◦ f. La<br />

figure 3.1 résume toutes ces notions.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!