TH`ESE DE DOCTORAT DE L'UNIVERSITà PARIS 6 Spécialité ...
TH`ESE DE DOCTORAT DE L'UNIVERSITà PARIS 6 Spécialité ...
TH`ESE DE DOCTORAT DE L'UNIVERSITà PARIS 6 Spécialité ...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
34 Introduction<br />
que le SINR normalisé ρ = SINR<br />
SINR opt<br />
suit une loi bêta de densité de probabilité :<br />
P(ρ) =<br />
K!<br />
(N − 2)!(K + 1 − N)! (1 − ρ)N−2 ρ K+1−N .<br />
En considérant ensuite l’espérance du SINR normalisé, (E(ρ) = K+2−N<br />
K+1<br />
), ils ont déduit une règle pour le<br />
choix du nombre d’échantillons à utiliser dans l’estimation de la matrice de covariance. Cette règle stipule<br />
que le nombre d’échantillons nécessaires pour être à 3 dB de l’optimum est égal à 2N.<br />
2.5.2 Implémentation récursive<br />
Cette implémentation consiste à calculer le filtre spatial estimé avec K échantillons à partir du filtre<br />
estimé avec K −1. Contrairement à la méthode SMI du paragraphe précédent, cette implémentation peut<br />
s’effectuer ’en ligne’. Son intérêt est de réduire la complexité de calcul par rapport à une approche directe,<br />
tout en conservant des performances proches. Elle est basée sur l’écriture de la matrice de covariance<br />
estimée sous la forme<br />
ˆR(K) = ˆR(K − 1) + x k x H k<br />
de façon à en déduire une expression de l’inverse par l’utilisation du lemme d’inversion matricielle, faisant<br />
intervenir l’inverse de ˆR(K − 1). Cela permet d’obtenir une relation entre le filtre estimé avec K<br />
échantillons et celui estimé avec K − 1 échantillons. Par exemple, si on implémente l’algorithme MSINR,<br />
on obtient la relation de récurrence suivante pour le calcul du filtre :<br />
avec<br />
ŵ MSINR (K) = (I − v(K)x H K )ŵ MSINR(K − 1)<br />
ˆR −1 (K − 1)x K<br />
v(K) =<br />
1 + x H ˆR K −1 (K − 1)x K<br />
représentant le gain de Kalman, dans lequel l’inverse de la matrice de covariance est calculée récursivement<br />
par l’expression ˆR −1 (K) = (I − v(K)x H K ) ˆR −1 (K − 1).<br />
2.5.3 Implémentation par une méthode du gradient<br />
Plutôt que d’implémenter directement ou récursivement les filtres spatiaux présentés dans les sections<br />
2.3 et 2.4, les algorithmes du gradient ont pour objectif de rechercher l’optimum d’un critère de manière<br />
récursive en effectuant une mise à jour des filtres dans la direction du gradient du critère à optimiser.<br />
En pratique, les algorithmes du gradient les plus fréquemment utilisés sont stochastiques (Least Mean<br />
Square ou LMS), dans lesquels les moments (matrices de covariance ou intercorrélation) intervenant<br />
dans l’expression du gradient sont estimés par des valeurs instantanées. Différents algorithmes LMS ont<br />
été proposés, dont l’avantage principal est une complexité faible (de l’ordre de O(N) contre O(N 2 ) par<br />
exemple pour des algorithmes d’implémentation récursive RLS à faible complexité), mais au détriment<br />
d’une convergence plus lente vers le filtre optimal que les implémentations directes ou récursives. Pour<br />
cette raison, ces dernières implémentations seront dans la suite préférées à une implémentation par une<br />
méthode du gradient.<br />
Pour fixer les idées, considérons l’exemple de l’implémentation LMS de l’algorithme LCMV, originellement<br />
proposé par Frost [32]. Dans cet algorithme, le critère à minimiser a pour expression :<br />
J = w H Rw + (w H C − f H )λ + λ H (C H w − f)<br />
où λ est tel que la contrainte C H w = f soit respectée. Le gradient complexe de ce critère est égal à :<br />
∆ w = Rw + Cλ.