TH`ESE DE DOCTORAT DE L'UNIVERSITà PARIS 6 Spécialité ...
TH`ESE DE DOCTORAT DE L'UNIVERSITà PARIS 6 Spécialité ...
TH`ESE DE DOCTORAT DE L'UNIVERSITà PARIS 6 Spécialité ...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
2.4 Algorithmes de formation de faisceaux 29<br />
[<br />
N<br />
avec T une matrice inversible quelconque. Ensuite, choisissons 3 T H =<br />
−1 φ H ]<br />
S<br />
en prenant B une<br />
B<br />
matrice de dimension (N −1)×N telle que Bφ S = 0 (une telle matrice est surnommée matrice ’bloquante’<br />
parce qu’elle bloque le signal utile). Introduisons ensuite x 0 = Bx et d 0 = N −1 φ H S x. Avec ces notations,<br />
le filtre de Wiener est égal à : w 0 = E{x 0 x H 0 }−1 E{x 0 d ∗ 0 }. On peut alors montrer (cf. par exemple [18])<br />
que le calcul de (2.11) conduit à la solution wMVDR H = N −1 φ H S − wH 0 B. Par conséquent, il est équivalent<br />
d’effectuer un filtrage de Wiener sur des données transformées par T ou d’effectuer un filtrage MVDR.<br />
Réduction de rang non adaptative (ou réduction de dimension)<br />
Cette méthode de réduction de rang est la plus simple à implémenter car elle ne nécessite pas un calcul<br />
adaptatif de la base de l’espace réduit. Nous présentons ici la méthode dans l’approche directe. Celle-ci<br />
consiste à résoudre le problème d’optimisation suivant :<br />
w = argmin Vect(T0 )<br />
{<br />
w H Rw } s.c. w H φ S = 1<br />
où Vect(T 0 ) est le sous-espace réduit (de dimension inférieure à N). Notons que ce problème a une solution<br />
lorsque φ S n’appartient pas au sous-espace orthogonal à Vect(T 0 ). La solution est alors donnée par la<br />
relation :<br />
w =<br />
T 0(T H 0 RT 0) −1 T H 0 φ S<br />
φ H S T 0(T H 0 RT 0) −1 T H 0 φ .<br />
S<br />
En pratique, cette méthode consiste à former des sous-réseaux avec une matrice de fusion égale à T 0 et<br />
à résoudre le problème MVDR en sortie des sous-réseaux.<br />
Réduction de rang adaptative, indépendante du signal utile<br />
On présente maintenant une méthode de réduction de rang dans laquelle le sous-espace réduit est<br />
formé à partir des données. Cette méthode est dénommée EVP pour EigenVector Projection [19] et<br />
est basée sur la décomposition de l’espace des vecteurs complexes de dimension N en sous-espace des<br />
interférences et sous-espace de bruit thermique (par définition le sous-espace supplémentaire du sousespace<br />
des interférences). La méthode repose sur la décomposition en éléments propres de la matrice<br />
R :<br />
R = U I Λ I U H I + U NΛ N U H N<br />
où U I est la matrice des vecteurs propres du sous-espace des interférences, Λ I la matrice diagonale des<br />
valeurs propres associées, U N la matrice des vecteurs propres du sous-espace de bruit et Λ N = σ 2 N I.<br />
Le problème d’optimisation s’écrit alors sous une forme identique à celle du paragraphe précédent en<br />
remplaçant la matrice T 0 par la matrice U N :<br />
w = argmin Vect(UN )<br />
{<br />
w H Rw } s.c. w H φ S = 1.<br />
Comme pour le paragraphe précédent, la solution est donnée par la relation suivante :<br />
w =<br />
U N(U H N RU N) −1 U H N φ S<br />
φ H S U N(U H N RU N) −1 U H N φ .<br />
S<br />
Cependant, en raison de la définition de U N cette expression se simplifie pour donner :<br />
w =<br />
U NU H N φ S<br />
φ H S U NU H N φ .<br />
S<br />
En pratique, cette méthode sera implémentée en utilisant le fait que U N U H N = I − U IU H I . L’algorithme<br />
EVP nécessite donc d’estimer les vecteurs propres des interférences, par exemple par une décomposition<br />
en éléments propres après avoir estimé la dimension du sous-espace des interférences. Ce dernier point est<br />
abordé dans la suite.<br />
3 Pour être cohérent avec les notations de φ S définies en 2.2.