10.01.2015 Views

TH`ESE DE DOCTORAT DE L'UNIVERSITÉ PARIS 6 Spécialité ...

TH`ESE DE DOCTORAT DE L'UNIVERSITÉ PARIS 6 Spécialité ...

TH`ESE DE DOCTORAT DE L'UNIVERSITÉ PARIS 6 Spécialité ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

34 Introduction<br />

que le SINR normalisé ρ = SINR<br />

SINR opt<br />

suit une loi bêta de densité de probabilité :<br />

P(ρ) =<br />

K!<br />

(N − 2)!(K + 1 − N)! (1 − ρ)N−2 ρ K+1−N .<br />

En considérant ensuite l’espérance du SINR normalisé, (E(ρ) = K+2−N<br />

K+1<br />

), ils ont déduit une règle pour le<br />

choix du nombre d’échantillons à utiliser dans l’estimation de la matrice de covariance. Cette règle stipule<br />

que le nombre d’échantillons nécessaires pour être à 3 dB de l’optimum est égal à 2N.<br />

2.5.2 Implémentation récursive<br />

Cette implémentation consiste à calculer le filtre spatial estimé avec K échantillons à partir du filtre<br />

estimé avec K −1. Contrairement à la méthode SMI du paragraphe précédent, cette implémentation peut<br />

s’effectuer ’en ligne’. Son intérêt est de réduire la complexité de calcul par rapport à une approche directe,<br />

tout en conservant des performances proches. Elle est basée sur l’écriture de la matrice de covariance<br />

estimée sous la forme<br />

ˆR(K) = ˆR(K − 1) + x k x H k<br />

de façon à en déduire une expression de l’inverse par l’utilisation du lemme d’inversion matricielle, faisant<br />

intervenir l’inverse de ˆR(K − 1). Cela permet d’obtenir une relation entre le filtre estimé avec K<br />

échantillons et celui estimé avec K − 1 échantillons. Par exemple, si on implémente l’algorithme MSINR,<br />

on obtient la relation de récurrence suivante pour le calcul du filtre :<br />

avec<br />

ŵ MSINR (K) = (I − v(K)x H K )ŵ MSINR(K − 1)<br />

ˆR −1 (K − 1)x K<br />

v(K) =<br />

1 + x H ˆR K −1 (K − 1)x K<br />

représentant le gain de Kalman, dans lequel l’inverse de la matrice de covariance est calculée récursivement<br />

par l’expression ˆR −1 (K) = (I − v(K)x H K ) ˆR −1 (K − 1).<br />

2.5.3 Implémentation par une méthode du gradient<br />

Plutôt que d’implémenter directement ou récursivement les filtres spatiaux présentés dans les sections<br />

2.3 et 2.4, les algorithmes du gradient ont pour objectif de rechercher l’optimum d’un critère de manière<br />

récursive en effectuant une mise à jour des filtres dans la direction du gradient du critère à optimiser.<br />

En pratique, les algorithmes du gradient les plus fréquemment utilisés sont stochastiques (Least Mean<br />

Square ou LMS), dans lesquels les moments (matrices de covariance ou intercorrélation) intervenant<br />

dans l’expression du gradient sont estimés par des valeurs instantanées. Différents algorithmes LMS ont<br />

été proposés, dont l’avantage principal est une complexité faible (de l’ordre de O(N) contre O(N 2 ) par<br />

exemple pour des algorithmes d’implémentation récursive RLS à faible complexité), mais au détriment<br />

d’une convergence plus lente vers le filtre optimal que les implémentations directes ou récursives. Pour<br />

cette raison, ces dernières implémentations seront dans la suite préférées à une implémentation par une<br />

méthode du gradient.<br />

Pour fixer les idées, considérons l’exemple de l’implémentation LMS de l’algorithme LCMV, originellement<br />

proposé par Frost [32]. Dans cet algorithme, le critère à minimiser a pour expression :<br />

J = w H Rw + (w H C − f H )λ + λ H (C H w − f)<br />

où λ est tel que la contrainte C H w = f soit respectée. Le gradient complexe de ce critère est égal à :<br />

∆ w = Rw + Cλ.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!