21.01.2015 Views

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

traitement d'images par modèles discrets sur ... - Olivier Lezoray

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

20<br />

Chapitre 2 - Traitement d’images <strong>par</strong> <strong>modèles</strong><br />

<strong>discrets</strong> <strong>sur</strong> graphes<br />

P à la puissance t. Si le graphe est connexe et non bi<strong>par</strong>tite, alors la marche aléatoire converge<br />

vers une distribution stationnaire π = [π 1 , · · · , π n ] satisfaisant πP t = π avec π i =<br />

d i<br />

c’est à<br />

vol(V )<br />

dire lim p t (v j , v i ) = π i .<br />

t→∞<br />

Il existe une connexion forte entre les marches aléatoires et le clustering spectral [HEIN05]. En<br />

effet, les vecteurs propres v de P obtenus en résolvant P v = λv sont exactement les mêmes que<br />

ceux obtenus <strong>sur</strong> le Laplacien normalisé. Le laplacien non normalisé est défini <strong>par</strong> :<br />

et le Laplacien normalisé <strong>par</strong><br />

∆ = D − S<br />

L = D −1 ∆ = I − D −1 S = I − P<br />

Les vecteurs propres de (I − D −1 S)v = λ ′ v sont donc les mêmes que ceux de la matrice de<br />

transition P et l’on a λ = 1 − λ ′ . Les valeurs propres de P sont λ 1 = 1 ≥ λ 2 ≥ · · · λ n ≥ −1 et<br />

l’on a<br />

|V |<br />

∑<br />

P = λ i v i v T i<br />

i=1<br />

Un <strong>par</strong>allèle peut alors être fait entre la matrice de transition P et le critère de coupe normalisé<br />

de SHI et MALIK [SHI00]. Le critère de coupe normalisé Ncut est un critère pour trouver une<br />

coupe optimale des noeuds V d’un graphe en deux sous-ensembles A et A et est défini comme<br />

suit :<br />

( ) 1<br />

Ncut(A, A) =<br />

V ol(A) + 1 ∑<br />

S ij<br />

V ol(A)<br />

v i ∈A,v j ∈A<br />

Ce problème étant NP-dur, SHI et MALIK ont proposé une méthode spectrale de coupe basée <strong>sur</strong><br />

le deuxième plus petit vecteur propre du Laplacien dont le signe des éléments définit la coupe.<br />

Avec la relation précédente, cela permet de mettre en relation pourquoi le deuxième vecteur<br />

propre est utilisé pour trouver la meilleure coupe et non le premier qui correspond au plus grand<br />

vecteur propre v 1 = 1 de P et qui ne contient donc aucune information pour trouver une coupe.<br />

Le vecteur propre v 1 de P associé à λ 1 est connu comme le vecteur de FIEDLER de P et fournit<br />

de l’information concernant la structure en groupes du graphe. Cette mise en relation entre le<br />

problème de coupe normalisée et les marches aléatoires est due à MEILA et SHI [MEILA01].<br />

2.2.4.2 Réduction de dimension<br />

Une manière idéale de concevoir un ordre de données vectorielles est, comme l’a proposé<br />

GOUTSIAS [GOUTSI95], de concevoir une transformation h : R p → R q avec q ≪ p. Idéalement,<br />

si q = 1 cela revient à notre approche précédente qui définit un chemin Hamiltionien<br />

<strong>sur</strong> les données à ordonner. Une autre manière de procéder repose dans la construction de la<br />

transformation h comme une opération de réduction de dimension. Le problème général de la<br />

réduction de dimension est le suivant. A <strong>par</strong>tir d’un ensemble {x 1 , x 2 , · · · , x N } de N vecteurs<br />

de dimension p avec x i ∈ R p , on désire trouver un nouvel ensemble {y 1 , y 2 , · · · , y N } de N vecteurs<br />

de dimension q avec y i ∈ R q et q ≪ p de manière à ce que y i représente au mieux x i . On<br />

cherche donc à avoir ∥ ∥ yi − y ∥2 j qui soit faible lorsque x i et x j sont proches. C’est le principe<br />

énoncé <strong>par</strong> BELKIN et NIYOGI [BELKIN03] appelé « Laplacian Eigenmaps » qui correspond à<br />

minimiser sous contraintes<br />

1 ∑<br />

∥<br />

∥ yi − y ∥2<br />

2<br />

j S ij = T r(Y T ∆Y)<br />

ij

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!