TD 8 : ACP - IA
TD 8 : ACP - IA
TD 8 : ACP - IA
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Bases de l’imagerie<br />
Spécialité IMAgerie<br />
Analyse des données - Classification<br />
Travaux dirigés<br />
Exercice 1 — Analyse en Composantes Principales<br />
— Soit un vecteur aléatoire X ∈ R d , et g l’espérance mathématique de X : g = 1 n<br />
n∑<br />
X i .<br />
— On considère la projection Π de X sur une droite vectorielle V définie par le vecteur −→ v<br />
unitaire (|| −→ v || = 1). On note v les coordonnées de −→ v dans R d , on a (voir annexe 1.1) :<br />
Π = vv T et v T v = 1.<br />
— La variance σ 2 v de X sur V s’écrit :<br />
σ 2 v(X) = 1<br />
n − 1<br />
n∑<br />
i=1<br />
1. Montrer que σ 2 v(X) = 1<br />
n−1<br />
Π(X i − g) T Π(X i − g) (= 1<br />
n − 1<br />
n∑<br />
(X i − g) T vv T (X i − g)<br />
i=1<br />
2. En déduire que σ 2 v(X) = v T Σ v, où Σ = 1<br />
n−1<br />
variance-covariance de X.<br />
i=1<br />
n∑<br />
||Π(X i − g)|| 2 ) (1)<br />
i=1<br />
n∑<br />
(X i − g)(X i − g) T est la matrice de<br />
Le principe de l’Analyse en Composantes Principales (<strong>ACP</strong>) consiste à déterminer<br />
le vecteur −→ v unitaire qui maximise σ 2 v(X). On cherche donc v qui maximise v T Σ v, sous<br />
la contrainte v T v = 1. Pour résoudre ce problème, on définit le Lagrangien L(v, λ) (voir<br />
annexe 1.2) :<br />
i=1<br />
L(v, λ) = v T Σ v − λ(1 − v T v) (2)<br />
3. En utilisant les conditions nécessaires { du 1 er ordre données à l’annexe 1.2, montrer que<br />
Σv = λv<br />
la maximisation de 2 conduit à :<br />
v T v = 1<br />
4. En déduire que l’équation 2 peut être résolue en diagonalisant la matrice Σ. Quelle est<br />
alors la variance de σ 2 v(X) pour chacun des vecteurs propres ?<br />
5. Conclusion : proposer une méthode pour déterminer la droite V maximisant la variance<br />
des données définie à l’équation 1.<br />
Université Pierre et Marie Curie 1 Master 1 Informatique
1 Annexes<br />
1.1 Projection orthogonale sur une droite vectorielle<br />
Dans un espace vectoriel E de dimension finie, la projection orthogonale Π sur une sousespace<br />
S de E est un opérateur linéaire, et peut donc étre représentée par une matrice PS. Soit<br />
Z une matrice dont les colonnes forment une base orthonormée du sous-espace S, la projection<br />
orthogonale u = Π(x) d’un vecteur x est donnée par :<br />
u = Π(x) = Z × Z T × x = P S × x (3)<br />
Dans le cas de la projection sur une droite vectorielle, on a Z = v où v est un vecteur unitaire<br />
directeur de la droite. La matrice de projection s’écrit donc P S = v × v T .<br />
1.2 Optimisation sous contraintes : multiplicateurs de Lagrange<br />
On considère X = (x 1 , ..., x n ) ∈ R n , et le probléme suivant : max X f(X) sous la contrainte<br />
h(X) = 0, où f est quadratique en X, et h linéaire. On appelle Lagrangien associé à ce probléme<br />
la fonction L(X, λ) :<br />
L(X, λ) = f(X) − λ · h(X) (4)<br />
Le Lagrangien permet d’introduire la contrainte dans la fonction objectif avec une certaine<br />
pénalité λ. On se retrouve ainsi à maximiser une fonction à n + 1 variables (X et λ) sans<br />
contrainte.<br />
On peut montrer que les conditions suivantes (du premier ordre) sont nécessaires pour maximiser<br />
f sous la contrainte h :<br />
∀i : ∂L<br />
∂x i<br />
= 0<br />
∂L<br />
∂λ = 0<br />
⇔<br />
∀i : ∂f<br />
∂x i<br />
= λ ∂h<br />
∂x i<br />
h(X) = 0<br />
2