29.10.2014 Views

TD 8 : ACP - IA

TD 8 : ACP - IA

TD 8 : ACP - IA

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Bases de l’imagerie<br />

Spécialité IMAgerie<br />

Analyse des données - Classification<br />

Travaux dirigés<br />

Exercice 1 — Analyse en Composantes Principales<br />

— Soit un vecteur aléatoire X ∈ R d , et g l’espérance mathématique de X : g = 1 n<br />

n∑<br />

X i .<br />

— On considère la projection Π de X sur une droite vectorielle V définie par le vecteur −→ v<br />

unitaire (|| −→ v || = 1). On note v les coordonnées de −→ v dans R d , on a (voir annexe 1.1) :<br />

Π = vv T et v T v = 1.<br />

— La variance σ 2 v de X sur V s’écrit :<br />

σ 2 v(X) = 1<br />

n − 1<br />

n∑<br />

i=1<br />

1. Montrer que σ 2 v(X) = 1<br />

n−1<br />

Π(X i − g) T Π(X i − g) (= 1<br />

n − 1<br />

n∑<br />

(X i − g) T vv T (X i − g)<br />

i=1<br />

2. En déduire que σ 2 v(X) = v T Σ v, où Σ = 1<br />

n−1<br />

variance-covariance de X.<br />

i=1<br />

n∑<br />

||Π(X i − g)|| 2 ) (1)<br />

i=1<br />

n∑<br />

(X i − g)(X i − g) T est la matrice de<br />

Le principe de l’Analyse en Composantes Principales (<strong>ACP</strong>) consiste à déterminer<br />

le vecteur −→ v unitaire qui maximise σ 2 v(X). On cherche donc v qui maximise v T Σ v, sous<br />

la contrainte v T v = 1. Pour résoudre ce problème, on définit le Lagrangien L(v, λ) (voir<br />

annexe 1.2) :<br />

i=1<br />

L(v, λ) = v T Σ v − λ(1 − v T v) (2)<br />

3. En utilisant les conditions nécessaires { du 1 er ordre données à l’annexe 1.2, montrer que<br />

Σv = λv<br />

la maximisation de 2 conduit à :<br />

v T v = 1<br />

4. En déduire que l’équation 2 peut être résolue en diagonalisant la matrice Σ. Quelle est<br />

alors la variance de σ 2 v(X) pour chacun des vecteurs propres ?<br />

5. Conclusion : proposer une méthode pour déterminer la droite V maximisant la variance<br />

des données définie à l’équation 1.<br />

Université Pierre et Marie Curie 1 Master 1 Informatique


1 Annexes<br />

1.1 Projection orthogonale sur une droite vectorielle<br />

Dans un espace vectoriel E de dimension finie, la projection orthogonale Π sur une sousespace<br />

S de E est un opérateur linéaire, et peut donc étre représentée par une matrice PS. Soit<br />

Z une matrice dont les colonnes forment une base orthonormée du sous-espace S, la projection<br />

orthogonale u = Π(x) d’un vecteur x est donnée par :<br />

u = Π(x) = Z × Z T × x = P S × x (3)<br />

Dans le cas de la projection sur une droite vectorielle, on a Z = v où v est un vecteur unitaire<br />

directeur de la droite. La matrice de projection s’écrit donc P S = v × v T .<br />

1.2 Optimisation sous contraintes : multiplicateurs de Lagrange<br />

On considère X = (x 1 , ..., x n ) ∈ R n , et le probléme suivant : max X f(X) sous la contrainte<br />

h(X) = 0, où f est quadratique en X, et h linéaire. On appelle Lagrangien associé à ce probléme<br />

la fonction L(X, λ) :<br />

L(X, λ) = f(X) − λ · h(X) (4)<br />

Le Lagrangien permet d’introduire la contrainte dans la fonction objectif avec une certaine<br />

pénalité λ. On se retrouve ainsi à maximiser une fonction à n + 1 variables (X et λ) sans<br />

contrainte.<br />

On peut montrer que les conditions suivantes (du premier ordre) sont nécessaires pour maximiser<br />

f sous la contrainte h :<br />

∀i : ∂L<br />

∂x i<br />

= 0<br />

∂L<br />

∂λ = 0<br />

⇔<br />

∀i : ∂f<br />

∂x i<br />

= λ ∂h<br />

∂x i<br />

h(X) = 0<br />

2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!