12.07.2015 Views

MODELE AUTOREGRESSIF EN ANALYSE SPECTRALE

MODELE AUTOREGRESSIF EN ANALYSE SPECTRALE

MODELE AUTOREGRESSIF EN ANALYSE SPECTRALE

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

N° d’ordre : 01/TCO / SII Année Universitaire : 2003 / 2004UNIVERSITE D’ANTANANARIVO------------------------ECOLE SUPERIEURE POLYTECHNIQUE------------------------DEPARTEM<strong>EN</strong>T TELECOMMUNICATIONMEMOIRE DE FIN D’ETUDESen vue de l’obtention duDIPLOME D’ING<strong>EN</strong>IEURSpécialité : TélécommunicationOption : Signaux-Images-Informationspar : INDRIAMIFIDIMANANA Herintsaina<strong>MODELE</strong> <strong>AUTOREGRESSIF</strong><strong>EN</strong> <strong>ANALYSE</strong> <strong>SPECTRALE</strong>Soutenu le Vendredi 28 Janvier 2005 devant la Commission d’Examen composée de :Président :M. ANDRIAMIASY ZidoraExaminateurs :M. RADONAMANDIMBY Edmond Jean PierreM. RANDRIANTSIRESY ErnestM. RASAMOELINA Jacques NirinaDirecteur de mémoire :M. RANDRIAMITANTSOA Paul Augustei


REMERCIEM<strong>EN</strong>TSJe tiens à exprimer ma profonde gratitude et mon plus grand respect à :- Monsieur RANDRIANOELINA Benjamin, Professeur et Directeur de l’EcoleSupérieure Polytechnique d’Antananarivo.- Monsieur ANDRIAMIASY Zidora, Maître de conférences et Enseignant chercheur ausein de l’Ecole Supérieure Polytechnique d’Antananarivo pour l’honneur qu’il nous fait enacceptant de présider le jury de ce mémoire.- Monsieur RANDRIAMITANTSOA Paul Auguste, Professeur et Chef de DépartementTélécommunication à l’Ecole Supérieure Polytechnique d’Antananarivo, qui malgré sesmultiples obligations, n’a pas ménagé ni efforts ni temps pour nous avoir guidé tout au long denotre travaille.Je suis particulièrement reconnaissant à :- Monsieur RADONAMANDIMBY Edmond Jean Pierre, Assistant et Enseignantchercheur à l’Ecole Supérieure Polytechnique d’Antananarivo.- Monsieur RANDRIANTSIRESY Ernest, Assistant et Enseignant chercheur à l’EcoleSupérieure Polytechnique d’Antananarivo.- Monsieur RASAMOELINA Jacques Nirina, Assistant et Enseignant chercheur àl’Ecole Supérieure Polytechnique d’Antananarivo.Qui ont accepté de participer à ce Jury. Qu’ils veuillent recevoir mes sincères remerciements.Mes vifs remerciements s’adressent également à tous les enseignants et personnels del’Ecole Supérieure Polytechnique d’Antananarivo en général et ceux du DépartementTélécommunication particulièrement, sans leurs efforts notre formation n’aurait pas puatteindre cette étape.Je n’oublierai pas ma grande famille, mes amis pour leurs soutiensbienveillants et leurs encouragements, pour ce mémoire, comme en toutes circonstances.Et pour tout ceux qui ont contribué de près ou de loin à l’élaboration de ce mémoire.ii


TABLES DES MATIERESNOM<strong>EN</strong>CLATUREINTRODUCTION.................................................................................................................................... 1CHAPITRE I: LES SIGNAUX DETERMINISTES............................................................................. 3I.1 Définition ..............................................................................................................................................3I.2.1 Classification déterministe- aléatoire.......................................................................................................3I.2.2 Classification énergétique .........................................................................................................................4I.2.3 Classification continue discrète ................................................................................................................5I.3.1 Intérêt de la représentation vectorielle des signaux................................................................................5I.3.2 Espace vectoriel des signaux .....................................................................................................................6I.3.2.1 Espace euclidiens ou préhilbertien....................................................................................................................6I.3.2.2 Espace de Hilbert ...............................................................................................................................................6I.3.3 Théorème de projection.............................................................................................................................6I.3.4 Développement en série de Fourier..........................................................................................................7I.4 Signaux déterministes à temps continu ......................................................................................................8I.4.1 Transformée de Fourier des signaux d’énergie finie ..............................................................................8I.4.1.1 Quelques propriétés de la transformée de Fourier..........................................................................................10I.4.1.2 Signaux à spectre de support borné.................................................................................................................11I.4.2 Transformée de Fourier des signaux d’énergie infinie.........................................................................13I.4.2.1 Distribution de Dirac .......................................................................................................................................14I.4.3 Transformée de Fourier des signaux périodiques.................................................................................15I.4.4 Spectre d’énergie et de puissance ...........................................................................................................16I.4.4.1 Signaux d'énergie finie....................................................................................................................................16I.4.4.2 Signaux de puissance moyenne finie...............................................................................................................17I.5 Filtrage des signaux à temps continu déterministes ................................................................................19I.5.1 Concept de filtre linéaire, invariant dans le temps et continu .............................................................19I.5.1.1 Définitions........................................................................................................................................................19I.5.1.2 Système linéaire ...............................................................................................................................................19I.5.1.3 Système continu et système discret ..................................................................................................................19I.5.1.4 Système invariant dans le temps ......................................................................................................................20I.5.1.5 Filtre linéaire invariant dans le temps ............................................................................................................20I.5.1.6 Filtre à réponse impulsionnelle finie et infinie...............................................................................................21I.5.1.7 Réponse harmonique et fonction de transfert ................................................................................................21I.5.2 Filtrage des signaux d’énergie finie et de puissance moyenne finie.....................................................24I.5.2.1 Signaux d’énergie finie....................................................................................................................................24I.5.2.2 Signaux de puissance moyenne finie...............................................................................................................24I.5.3 Causalité et stabilité des filtres ...............................................................................................................26I.5.3.1 Causalité...........................................................................................................................................................26i


I.5.3.2 Stabilité.............................................................................................................................................................26I.5.4 Distorsions linéaires et non linéaires des filtres.....................................................................................27I.5.4.1 Distorsions linéaires dans les filtres ................................................................................................................27I.6 Échantillonnage ......................................................................................................................................29I.6.1 Théorème d’échantillonnage...................................................................................................................30I.6.1.1 Enoncé..............................................................................................................................................................30I.6.2 Interprétation spectrale...........................................................................................................................32I.6.3 Restitution idéale .....................................................................................................................................33I.6.4 Limite pratique du théorème d’échantillonnage...................................................................................34I.6.4.1 Filtrage antirepliement ....................................................................................................................................34I.6.4.2 Exemple............................................................................................................................................................34I.6.5 Echantillonnage maintien, bloqueur, interpolateur..............................................................................35I.6.5.1 Echantillonnage maintien ...............................................................................................................................35I.6.5.2 Bloqueur d’ordre zéro :....................................................................................................................................36I.6.5.3 Interpolateur ....................................................................................................................................................37I.7 Signaux déterministes à temps discret .....................................................................................................37I.7.1 Exemple de signaux et généralités..........................................................................................................38I.7.2 Energie et puissance des signaux déterministes à temps discret..........................................................38I.7.3 Transformée de Fourier discrète............................................................................................................39I.7.4 Filtrage de signaux à temps discret déterministes ................................................................................40I.7.4.1 Définition, exemples ........................................................................................................................................41I.7.4.2 Causalité et stabilité .........................................................................................................................................45I.7.4.3 Etude fréquentielle d’un filtre LIT..................................................................................................................46CHAPITRE II: <strong>MODELE</strong> <strong>AUTOREGRESSIF</strong> ................................................................................ 47II.1 Signaux aléatoires ...................................................................................................................................47II.2 Processus aléatoire ...............................................................................................................................47II.3 Espérance mathématique ........................................................................................................................48II.4 Variance ...........................................................................................................................................48II.5 Stationnarité ................................................................................................................................48II.6 Ergodicité ..............................................................................................................................................49II.7 Autocorrélation ......................................................................................................................................49II.8 Bruit .................................................................................................................................................50II.8.1 Le bruit blanc .........................................................................................................................................50II.8.2 Bruit coloré .............................................................................................................................................50II.9 Modèle autorégressif ................................................................................................................................50II.9.1 Définition.................................................................................................................................................51II.9.2 Caractéristiques statistiques..................................................................................................................51II.9.2.1 Biais et variance .............................................................................................................................................52II.9.3 Caractéristiques spectrales....................................................................................................................53ii


II.9.4 Identification du modèle ........................................................................................................................53II.9.5 Estimation off line des paramètres .......................................................................................................55II.9.5.1 Equations de Yule-Walker .............................................................................................................................55II.9.5.2 Méthode de covariance et d’autocorrélation .................................................................................................56II.9.5.3 Exemple d’estimation off line ........................................................................................................................58II.9.5.4 Algorithme de Durbin-Levinson ....................................................................................................................67II.9.5.5 Filtre en treillis...............................................................................................................................................70II.9.5.6 Estimation des coefficients de réflexion ........................................................................................................75II.9.6 Estimation on-line des paramètres .......................................................................................................80II.9.6.1 Gradient stochastique.....................................................................................................................................80II.9.6.2 Moindres Carrés Récursifs.............................................................................................................................83CONCLUSION....................................................................................................................................... 96ANNEXE I .............................................................................................................................................. 97ANNEXE II............................................................................................................................................. 98ANNEXE III:.......................................................................................................................................... 99BIBLIOGRAPHIE............................................................................................................................... 101iii


A :AR:Arg :B :BIBO:d :DSP:NOM<strong>EN</strong>CLATURESamplitudeAutorégressiveArgumentbande de fréquenceBounded Input Bounded OutputdistanceDensité Spectrale de Puissanceδ (t) : Distribution de Diracσ :Écart typeu (t) : Échelon unitéE :xÉnergie du signal x (t)E [] : Espérance mathématiqueF :LIT :fréquenceFiltre Linéaire Invariant dans le Tempsrect :TFonction rectangulaire de module 1 et de support T∂ ξ :∂θGradient de ξ par rapport à θLMS : Least Mean Square (Moindre carrée moyennée)Min: minimalMCR : Moindre carrée Récursif⊥ : Orthogonalt :le tempsT : périodeT eteProba:f :epériode et fréquence d’échantillonnageProbabilité.,. : Produit scalaireP :xRII:x :Puissance moyenne du signal x (t)Réponse Impulsionnelle Finiesignal analogique fonction du temps1


INTRODUCTIONLa communication avec ses semblables est l’un des besoins les plus fondamentaux del’homme. Il est satisfait en mettant en relation, à travers un canal, la source de l’information etle destinataire à l’aide d’un signal. Véhicule de l’information, le signal est un moyen qui rend lacommunication techniquement possible. Il est le revêtement physique des messages.Il est inutile d’insister sur l’importance des sons et des images parmi les signaux grandpublic. Le traitement de l’information véhiculé par des signaux touche aujourd’hui desdomaines très variés allant de la médecine à la production industrielle, en passant par lagéophysique et l’astrophysique pour ne citer que quelques exemples. Cette variété lui confèreun aspect multidisciplinaire qui l’enrichit continuellement. Par exemple, les filtres utilisés dansles lignes téléphoniques ou de l’atténuation des bruits dans une voiture sont également utilisés,avec d’autres paramètres, dans des systèmes de détection d’intrusions. Il est très facile demultiplier ces exemples. Toutefois, ils peuvent laisser croire qu’il suffit de mettre au point unsystème de traitement pour qu’il soit utilisable universellement. Malheureusement, c’estrarement le cas. C’est à l’ingénieur qu’incombe la tâche de bien comprendre les méthodes, lanature des signaux d’entrée et de sortie, l’effet du traitement et ses paramètres pour les adapter,à bon escient, au problème particulier qu’il doit résoudre.Le développement de cette discipline à une cadence de plus en plus rapide grâce auprogrès de la technologie qui met à notre disposition des dispositifs toujours plus performants.Aujourd’hui, il n’est pas rare de voir une réalisation basée sur des solutions d’hier, jugées alorscomme complexes, académiques et sans intérêt pratique. Vu l’évolution rapide que connaît cedomaine, ceci nécessite une mise au courant permanente des progrès récents.Le signal est le support physique de l’information, son analyse consiste à en extraire unpetit nombre de valeurs caractéristiques pertinentes de l’information contenue. Dans certainscas, le signal peut être considéré comme la superposition de rythmes élémentaires dont lesfréquences sont caractéristiques. En médecine, en télécommunication et d’autres applications,les signaux sont traités et nommés suivant leurs usages.Cette approche se généralise à un grand nombre de signaux que l’on cherchera à décrirepar l’énergie (ou la puissance) présente en un nombre infini de fréquences, sous le noms de1


spectre. C’est en particulier le cas pour la parole, signal correspondant à la pression acoustiquecapté par un microphone, qui est la vibration des codes vocales. Ce canal acoustique peut êtreconsidéré comme composé d’une série de résonateurs en cascade dont la fréquence d’accorddépend de la position des organes phonatoires. Dans ces conditions, l’analyse du signal à desfins de reconnaissance consistera à chercher les maxima du spectre dits formants, qui sontcaractéristiques de la position des organes. Les exemples sont ainsi nombreux de signauxnaturels ou artificiels dont les propriétés essentielles se donnent sous la forme de fréquences.La recherche des énergies présentes dans un signal réel à des fréquences d’intérêt, constituel’analyse spectrale.Cette analyse est très vaste donc il est impossible de les traiter tous dans un seulouvrage, notamment ce présent mémoire. C’est pourquoi on a orienté notre étude sur le sujetintitulé « Modèle Autorégressif en analyse spectrale ou AR». La modélisation AR estlargement utilisée à cause de sa simplicité (résolution d’un système linéaire), de ses excellentsrésultats en estimation spectrale.Ce mémoire a pour but de présenter les notions de base sur les signaux et d’entamer uneétude détaillée sur l’analyse spectrale paramétrique de modèle autorégressif. Il est subdivisé endeux grandes parties :- la première partie concerne la notion de base sur les signaux déterministes ;- la deuxième et dernière partie présente dans une vue assez générale, les notions debase sur les signaux autorégressifs et son analyse spectrale2


CHAPITRE I: LES SIGNAUX DETERMINISTESI.1 Définition [1] [2]Un signal désigne un phénomène physique à valeurs réelles ou complexes mesuré (entermes d’énergie locale ou d’amplitude et de phase instantanées) dans un système d’unités. Lephénomène dépend en général d’une variable, le plus souvent matérialisée par le temps.Dans le langage électronique ou de transmission, on considère comme un signal toutphénomène électromagnétique (généralement de faible niveau) qui constitue le support d’un« message » ou d’une « information » : par exemple une tension modulée en fréquence.Dans le langage de l’automaticien où l’on a tendance à dénommer signal tout phénomènevariable dans le temps.Plusieurs critères peuvent être considérés pour classifier les signaux.I.2 Classification des signaux [5] [7] [10] [18]I.2.1 Classification déterministe- aléatoireCette première classification est obtenue en considérant la nature de l’évolution dusignal. Celle-ci est à caractère prédéterminée ou non prévisible.Un signal déterministe est un signal dont l’évolution en fonction du temps peut parfaitementêtre prédite par un modèle mathématique approprié. Ce sont les signaux principalement delaboratoire : signaux de test et d’excitation, signaux d’étalonnage, séquence binaire. Unexemple très familier est le signal sinusoïdal : x( t)= Asin( 2πft)Au contraire, la plupart des signaux d’origine physique ont un caractère nonreproductible. Ces signaux sont porteurs d’information (signaux de parole, de données) car ilsprésentent une certaine imprévisibilité, ils seront modélisés par des signaux aléatoires. Unsignal aléatoire est donc défini comme un ensemble probabilisé de signaux élémentaires dontchacun apparaît une fois sélectionné comme un signal déterministe.Les signaux pseudo-aléatoires forment une catégorie particulière de signaux dont lecomportement rappelle celui d’un signal aléatoire. En effet il s’agit de signaux périodiques dontla période est grande par rapport à la durée d’observation et dont l’allure sur une période paraîtaléatoire pour un observateur n’ayant pas de connaissances à priori sur ce signal. De tels3


signaux sont utilisés en particulier pour la simulation sur ordinateur de phénomène aléatoire etpour la génération de signaux à fonction d’autocorrélation très pointue.I.2.2 Classification énergétiqueUne classification peut être faite à partir des notions d’énergie et de puissance d’unsignal. Pour tout signal x (t) (fonction réelle ou complexe de t), l’énergie est la quantitéEx définie, si elle existe, par :dtEx+ ∞= x(t)∫− ∞2(1.1)Pet puissance moyenne la quantité x définie, si elle existe, par :Px+ ∞1= lim ∫ x(t)T− ∞T → ∞T : est la période du signalOn définit à l’aide de ces notions des signaux tels que :2dt(1.2)0 ≺ E x≺ ∞Appelés signaux à énergie finie (dans ce cas P = 0 ) et des signaux tels que :x(1.3)0 ≺ P x≺ ∞appelés signaux à puissance moyenne finie ( E = ∞).xLa première catégorie de signaux comprend tous les signaux transitoires et la seconde englobeles signaux périodiques ou les signaux aléatoires permanents. Certains signaux n’appartiennentpas à aucune des deux catégories précédentes. C’est le cas de la distribution de Dirac δ (t) ou de(1.4)la peigne de Dirac∑ +∞ −∞δ ( t − kT)et l’échelon unitéu( t)= 1 pour t > 0 et 0 ailleurs .4


I.2.3 Classification continue discrèteUn signal peut se présenter sous différentes formes selon que son amplitude est unevariable continue ou discrète et que la variable est elle-même continue ou discrète. Ainsi, ilexiste quatre types de signaux :o Signal analogique (temps continu et amplitude continue) ;o Signal échantillonné (temps discret et amplitude continue) ;o Signal quantifié (temps continu mais amplitude discrète) ;o Signal numérique ou digital (temps discret et amplitude discrète) ;Dans la suite de l’exposé nous ne ferons la distinction qu’entre signal à temps continu et signalà temps discret.I.3 Représentation vectorielle des signaux[5] [16] [18]I.3.1 Intérêt de la représentation vectorielle des signauxLe principe de la représentation vectorielle des signaux repose sur le fait que tout signalx (t) appartenant à un certain ensemble de signaux peut se décomposer selon une combinaisonlinéaire de fonctions connues φ (t)prenant leurs valeurs dans Ck+ N+ ∞x ( t)= ∑ a φ ( t)ou x ( t)= ∑aφ ( t)(1.5)k kk kk = 1k = −∞Les coefficients a constituent une représentation discrète du signal x (t). Ceci constitue lekfondement de l’analyse des signaux. Le choix des fonctions φ (t)dépend de l’ensemble desksignaux considérés et du traitement opéré sur les signaux. L’intérêt majeur de cettedécomposition linéaire d’un signal à l’aide des signaux plus simples (par exemple lesf tsignaux e i 2πφ ( t)=k) est de faciliter l’analyse de la réponse des systèmes linéaires à desksignaux d’entrée très généraux.Naturellement, la représentation vectorielle des signaux suggère une structure d’espacevectoriel pour l’ensemble des signaux considéré. Cet espace vectoriel sera très souvent unespace de Hilbert.5


I.3.2 Espace vectoriel des signauxI.3.2.1 Espace euclidiens ou préhilbertieno Un espace euclidien est la donnée d’un espace vectoriel E sur le corps des nombresréels, couplée avec celle d’un produit scalaire, noté . ,..o Un espace préhilbertien est la donnée d’un espace vectoriel F sur le corps des nombrescomplexes, couplée avec celle d’un produit scalaire.+∞*, x2∫ x1(t)x2(−∞x1= t)dt(1.6)I.3.2.2 Espace de HilbertSoit H un espace vectoriel muni du produit scalairex, y entre deux quelconque de ceséléments.o une norme d’un élément x de H est le nombre positif défini par x ( x,x)o x et y sont orthogonaux, on le note x ⊥ y , si x , y = 0 ;= ;o une distance entre deux éléments x et y de H est le nombre positif défini pard( x,y) = x − y = ( x − y,x − y)H est un espace de Hilbert s’il est complet, c'est-à-dire si les suites de Cauchy convergent.Un exemple de l’espace de Hilbert : l’espace des suites complexes de carré sommable, c'est-àdireque ∑kx ≺ +∞ muni du produit scalaire : x, y2k= ∑ k x*yk k est un espace de Hilbert.Un cas particulier est celui des suites de longueur finie N que l’on peut aussi voir commel’espace CNdes vecteurs à N composantes complexes.I.3.3 Théorème de projectionL’approximation ~ x de x est optimale au sens de l’erreur quadratique minimale si ladistance d ( ~ x , x)est minimale. Lorsque le sou ensemble F de E est un sous espace vectoriel deE, le théorème de projection orthogonale affirme qu’il existe un signal unique de F quiminimise cette distance ; il s’agit de la projection orthogonale de x (t)sur F.6


Nous avons donc2 ~ 2 2x xe + = . L’approximation unique ~ x est caractérisée par les Nrelations d’orthogonalité : e , ( t)= 0 pour k ∈{ 1,...,N}φ , dans ce cas :ket~ x(t)= N∑ a tkφ ( )k(1.7)k = 1N Ne2+ ~ x2= x2− ∑ ∑ a*a φ , φ(1.8)k l l kk = 1l= 1Les coefficients a sont solutions du système d’équations :kN∑ φ , φ a = x,φ pour k ∈l k l kl = 1{ 1,..., N}I.3.4 Développement en série de FourierLes coefficients de FourierX sont donnés ici par :kXkT + T1 1 − i2πk= ∫ x(t)eTT1Ce qui donne le développement en série de Fourier :tTdt(1.9)ti2πkx( t)= + ∑ ∞X e T(1.10)kk = −∞L’égalité de Parseval est définie par E = P T dans l’intervallex x[ ] T ,1 T 2avec :2T + TP = ( )2+ ∫ x t dt = ∑ ∞X . (1.11)x Tkk = −∞1 1 T1Cas des signaux réelsPar définition, les signaux réels satisfont à la condition suivante :7


(1.12)Par suite un signal réel est caractérisé parde ses coefficients de série de Fourierappelée symétrie hermitienne. D’un point de vue physique, cela signifie que dans ledéveloppement de série de Fourier les fréquences négativesn’apportentaucune information nouvelle par rapport aux fréquences positives.Pour ces signaux, les coefficients du développement sont définis par :avec est le module et l’argument, son développement ensérie de Fourier s’écrit alors :(1.13)AvecI.4 Signaux déterministes à temps continu [1] [2] [5] [16]Les signaux déterministes sont des signaux dont l’évolution en fonction du temps peutêtre parfaitement prédite par un modèle mathématique approprié.I.4.1 Transformée de Fourier des signaux d’énergie finieLa transformée de Fourier d’un signal temporel x (t) d’énergie finie est une fonction defréquence f définie par la relation :(1.14)X (f) est appelé "spectre complexe ″ du signal x (t), elle introduit la répartition d’une grandeurcaractéristique d’un signal (amplitude, énergie, puissance…) en fonction de la fréquence.7


La transformée inverse se déduit :(1.15)Exemple de la transformée de FourierSoit le signal défini par sa valeur 1 pour et 0 pour sans préciserses valeurs pour . Après un calcul élémentaire, le spectre s’écrit :sinπfTX ( f ) = TπfTProgrammation sous MATLAB de la figure I.1N=20;tps2= [-N:N];P=3;porteP=[zeros(1,N-P)ones(1,2*P+1) zeros(1,N-P)];figure(1);plot(tps2,porteP,'-'); gridylabel('rectP(t)')T=8;f=[-pi:0.01:pi];x=T.*f;y=T.*sinc(x);plot(f,y); gridxlabel('fréqence f');ylabel('Tsinc(fT)');xlabel('t');Si la durée T du signal diminue, le premier zéro de X (f) qui estaugmente et cela entraîneun étalement du spectre complexe, c’est un phénomène général qui traduit l’existence d’unedualité temps fréquence contenue dans la définition de la transformée de Fourier.Figure I.1:exemple de schéma d'un spectre7


I.4.1.1 Quelques propriétés de la transformée de FourierI.4.1.1.1 Linéarité, involution, symétrie et conjugaisonLa transformée de Fourier est une transformation linéaire.Les signaux pairs ont une transformée involutive.(1.16)(1.17)(1.18)(1.19)Cette dernière propriété est appelée symétrie hermitienne. C’est cette propriété qui permet dene présenter très souvent que la partietel signal est donc caractérisé par la donnée de X (f) pour .En effet :de la transformée de Fourier d’un signal réel. Un(1.20)Sous cette forme le signal réel x (t) apparaît comme la « somme d’une infinité de sinusoïdes defréquence f, d’amplitude infinitésimale et de phase ».I.4.1.1.2 Produit de convolutionLe produit de convolution des signaux d’énergie finie x (t) et y (t) est le signal z (t)défini par :(1.21)7


Cette propriété de produit de convolution est fondamentale car le filtrage linéaire en dépend. Satransformée de Fourier est donnée par la relation :(1.22)et(1.23)I.4.1.1.3 Théorème de ParsevalEn appliquant la transformée de Fourier d’un produit de convolution aux signauxd’énergie finie x (t) et y* (-t), et puisque nous avons la relation :(1.24)et pour t=0 :(1.25)puis pour y (t)=x (t)(1.26)Cela montre que dans l’ensemble des signaux d’énergie finie, la transformée de Fourier est unetransformation linéaire qui conserve le produit scalaire et la norme définis précédemment.I.4.1.2 Signaux à spectre de support bornéUn tel signal a pour expression :(1.27)Plus le support spectral est petit, plus les variations du signal sont lentes. Un signal à bandelimitée ne peut avoir des variations aussi arbitraires que l’on veut. Le signal sinusoïdal est le7


signal qui varie « le plus rapidement » dans une bande de fréquence fixée pour une amplitudemaximale fixée.I.4.1.2.1 Produit BT d’un signal réel passe-basEn raison de la relation de la dilatation en temps et en fréquence, à toute contractiond’un signal correspond une dilatation de son spectre et inversement. Et que plus un signal estétroit plus son spectre complexe s’étale. Ceci suggère l’existence d’une relation entre lessupports temporel et fréquentiel d’un signal.L’ampleur de la dispersion de l’énergie sur l’axe des temps ou l’axe des fréquences vapermettre de définir la durée utile et la bande utile d’un signal qui va assurer l’existence de larelation suggérée précédemment. Le choix adopté dépend de la commodité d’emploi dans uneapplication donnée.Les durées utiles T u et bandes utiles B u sont définies à partir des écarts types par les relationspurement conventionnelles :(1.28)Programmation sous MATLAB de la figure I.2m=4; sigma2=7; N=5000;X=sqrt (sigma2)*randn (1, N) +m;lk=0.5;[nn, xx]=hist(X, (-7+m:lk:7+m));CG=1/sqrt(2*pi*sigma2);px=CG*exp(-(xx-m).^2/(2*sigma2));plot (px,'-'); title ('courbe de Gauss desigma=7 et m=4');gridFigure I.2: courbe de GaussPour les signaux passe bande :7


(1.28)’Cette expression est appelée relation d’incertitude.I.4.1.2.2 Influence de la troncature d’un signal sur son spectreLa troncature temporelle s’accompagne d’un élargissement fréquentiel et celui-ci estd’autant plus fort que T est petit. Ainsi, pour un signal sinusoïdalsubissantla troncature .Programmation sous MATLAB de la figure I.3f=[-4:0.001:4];x=2*(sinc((f-1)*2)+sinc((f+1)*2));title('influence de la troncature sur lesignal');figure(1);plot(f,x); gridxlabel('la fréquence f');ylabel('X(f)');Figure I.3: spectre d'un signal sinusoïdal avec une troncatureI.4.2 Transformée de Fourier des signaux d’énergie infinieBien que tous les signaux physiques soient d’énergie finie, il est souvent nécessaired’utiliser des signaux d’énergie infinie. Les signaux périodiques, en particulier les signaux7


constants sont des exemples de tels signaux. Le traitement rigoureux de tels signauxnécessiterait de représenter les signaux par des distributions : extension de la notion defonction.I.4.2.1 Distribution de DiracLa distribution de Dirac ou pseudo-fonction de Dirac, est la fonction notéequi estune impulsion unité très brève :δ(t) = (1.29)Vérifiant les propriétés suivantes :-pour toute fonction ,(1.30)(1.31)(1.32)(1.33)(1.34)δ(t)0Figure I.4: impulsion de Diract7


I.4.3 Transformée de Fourier des signaux périodiquesLa transformée de Fourier d’un signal périodique est obtenue directement à partir deson développement en série de Fourier, et en tenant compte de la relation suivante :(1.35)Sa transformée de Fourier s’écrit :(1.36)Ainsi la transformée de Fourier d’un signal périodique apparaît comme une combinaisonlinéaire de masses ponctuelles localisées aux fréquences discrètes, il s’agitd’un spectre complexe de raies.Périodiser dans l’espace tempséchantillonner dans l’espace fréquence.Programmation sous MATLAB de la figure I.5theta=2;a=1;f=[-6:0.2:6];l=2*sinc(f);h=ones(1,size(t));y=h.*l;pause(2)figure(2);plot(f,l);gridfigure(3);stem(f,l,'o'); gridylabel('X(f)');xlabel(‘la fréquence f' ) ;Figure I.5: spectres de raies7


I.4.4 Spectre d’énergie et de puissanceLes notions de densité spectrale sont introduites car les analyseurs de spectre analogiques nedonnent pas accès à la transformée de Fourier (appelé quelquefois spectre complexe) mais seulement àla notion de spectre d'énergie ou de puissance.I.4.4.1 Signaux d'énergie finieI.4.4.1.1 Fonction d'intercorrélation et d'autocorrélationPour deux signaux d'énergie finie x (t) et y (t), une fonction d'intercorrélation appelée aussiproduit de corrélation R X y (τ) est définie par la relation:(1.37)R ( τ ) =+ ∞∫ − ∞x(t)y * ( t − τ ) dtxyPour un signal x (t) d'énergie finie, la fonction d'autocorrélation est notée :(1.38)Elle possède de nombreuses propriétés :, (1.39)Cela implique que la transformée de Fourier de ( ) que l'on définira plus loin et que l'on noteraest une fonction réelle. De plus pour x (t) réel , de sorte que est unefonction réelle paire.(1.40)(1.41)(Pour obtenir cette propriété, il suffit d'exprimer que : pour ).Ce résultat assure que la fonction d'autocorrélation est une fonction de type définie non négative.7


(1.42)(Inégalité de Cauchy Schwarz). Cela indique que a un maximum E x atteint pour τ= 0.I.4.4.1.2 Spectre d’énergieD’après la définition de la fonction d’autocorrélation d’un signal d’énergie finie et d’après lapropriété de la transformée de Fourier de x (-t) :(1.43)La transformée de Fourier de la fonction d'autocorrélation, notéeest appelée spectred'énergie ou densité spectrale d'énergie. C'est ainsi une fonction réelle positive qui est de plus pairepour les signaux réels.Le terme de densité spectrale d'énergie peut se justifier par l'application de l'égalité de Parseval(1.44)I.4.4.2 Signaux de puissance moyenne finieCes signaux possédant une énergie infinie sont de ce fait physiquement irréalisables. Ilsconstituent toutefois une abstraction commode permettant de modéliser des signaux ayant uncaractère permanent. C'est le cas des signaux périodiques et plus généralement des signauxconstitués d'une combinaison linéaire de sinusoïdes dont les fréquences sont quelconques.I.4.4.2.1 Fonction d'intercorrélation et d'autocorrélationTout ce qui a été dit à propos des signaux d'énergie finie peut être repris à l'aide de lafonction d'autocorrélation et d'intercorrélation de notations identiques définies ici par :(1.45)La fonction d'autocorrélation d'un signal périodique est périodique de même période et vaut :7


(1.46)I.4.4.2.2 Spectre de puissanceLa transformée de Fourier de la fonction d'autocorrélation d'un signal de puissancemoyenne finie est également appelée spectre de puissanceou densité spectrale depuissance. C'est aussi une fonction réelle positive qui est de plus paire pour les signaux réels. Maisnous voyons dès maintenant, grâce à la relationappliquée à la fonction :(1.47)La définition précédente peut s'interpréter à l'aide des résultats obtenus pour les signaux d'énergiefinie. En effet, le signal de transformée de Fourier obtenu en tronquant x(t) surdevient un signal d'énergie finie. L'application de la formule de Parseval àdonne alors :(1.48)Par suite la puissance moyenne du signal x (t) s’obtient par :(1.49)Au contraire de la densité spectrale d’énergie, la densité spectrale de puissance d’un signalpériodique de coefficients de Fourier n’est pas égale au carré du module de la transformée deFourier du signal.7


(1.50)A partir des propriétés de la distribution de Dirac, le spectre de puissance d’un signalpériodique de coefficients de série de Fourier et de période est :(1.51)Comme pour la transformée de Fourier appelée aussi spectre complexe, le spectre depuissance est un spectre de raies; chaque raie ayant un poids égal au carré du module ducoefficient de Fourier correspondant.I.5 Filtrage des signaux à temps continu déterministes [2] [5] [6]I.5.1 Concept de filtre linéaire, invariant dans le temps et continuI.5.1.1 DéfinitionsUn système est un ensemble de mécanismes physiques couplés entre eux aux fins deréaliser un objectif. Un système opère sur une famille de données d’entrée pour les transformeren un système de données de sortie.Les termes signaux et systèmes sont intimement liés.h (t)Figure I.6:système continuI.5.1.2 Système linéaireUn système est linéaire lorsque :produit la sortie (1.52)I.5.1.3 Système continu et système discretLes systèmes peuvent être classifiés en systèmes continus et systèmes discrets.7


Les systèmes continus agissent sur des entrées supposées délivrer une information à chaqueinstant t et produisent une sortie d’une forme semblable.En traitement du signal, un système discret en est un cas particulier. C’est un système quiconvertit un ou plusieurs signaux de sorties discret s (nT e ) selon certaines règles.I.5.1.4 Système invariant dans le tempsSoit un système S générant la sortie lorsque l’entrée est . Ce système est ditinvariant dans le temps si, pour toute translation τ(positive ou négative), la sortie généréepar est . Ainsi la relation entrée-sortie pour une entrée donnée définit celle pourtous les autres signaux déduits de x (t) par une translation temporelle.h (t)Figure I.7: système invariant dans le tempsI.5.1.5 Filtre linéaire invariant dans le tempsLe filtrage est le principal traitement des signaux analogiques. Un filtre linéaire est unsystème linéaire invariant dans le temps dont l’entrée est x (t) et la sortie est y (t).Il estmathématiquement défini par le produit de convolution:(1.53)est la réponse impulsionnelle du filtre et elle ne dépend que de la variable. Elle estla sortie associée à une impulsion unitéet est définie par la relation entréesortie:(1.54)Avec : δ(t) l’impulsion de Dirac7


I.5.1.6 Filtre à réponse impulsionnelle finie et infinieUn filtre a une réponse impulsionnelle finie si cette réponse est une fonction limitéedans le temps.Une fonction est limitée dans le temps s’il existe un intervalle de temps et un signal x(t) tel que : pour t>b et t


(1.55)Les signauxsont donc des signaux propres du filtre LIT dont la valeur propre associéeest la sortie à l’instant t=0 du filtre LIT correspondant à l’excitation .I.5.1.7.2 Fonction de transfertLes seuls systèmes agissant sur l’espace des signaux précédemment défini qui sont desfiltres LIT sont décrits par la relation suivante entre les transformées de Fourier des signauxd’entrée x (t) et de sortie y (t) :(1.56)La fonction de transfert H (f) caractérise un filtre LIT puisque celle-ci permet de connaître lasortie associée à tout entrée.s’appelle le gain en fréquence ets’appelle la phase du filtre (comme elleest en général négative avec la détermination, on emploie aussi la notion de retard dephase pour .La réponse impulsionnelle h (t) d’un filtre est la transformée de Fourier inverse de sa fonctionde transfert H (f).Programmation sous MATLAB de la figure I.9%fonction de transfertnum=[1 1];den=[1 5 6];sys=tf(num,den);bode(sys);gridFigureI.9: fonction d'un filtre7


I.5.1.7.3 Produit de convolution d’un filtre(1.57)etsont respectivement le signal d’entrée et la réponse impulsionnelle du filtre.Le produit de convolution signifie que, pour calculer la sortie y (t) d’un filtre à l’instantt, nous multiplions toutes les valeurs du signal d’entrée à tous les instants par lefacteur , qui est la valeur de la réponse impulsionnelle du filtre. Cette réponseimpulsionnelle produit un effet de mémoire dans le système de telle manière que la valeur de lasortie à l’instant t dépend des valeurs de l’entrée à tous les instants .Une réponse impulsionnelle typique aura un support temporel borné avec .Puisque le produit de convolution implique :, le temps est appelé temps de réponse du filtre, cela signifie que,les valeurs de l’entrée situées entre t etn’ont pas d’influence sur le signal de sortie àl’instant t ; ces valeurs n’ont pas eu le temps d’être prises en compte par le filtre. De même letempsest appelé temps de mémoire du filtre, cela signifie que les valeurs de l’entrée situéesavant l’instantn’interviennent pas dans la sortie à l’instant t ; nous dirons que le filtreoublie ces valeurs.Programmation sous MATLAB de la figure I.10x=[-4:0.1:4];k=2.*x;y=sinc(k);d=-i*pi*2.*x;j=exp(d);r=j.*y;R=abs(r);P=R.^2;pause(2)figure(1);plot(x,P);gridylabel('abs(H(f))^2');xlabel('la fréquence f');z=angle(r);figure(2);plot(x,z);grid7


xlabel('la fréquence f');ylabel('arg(H(f))');Figure I.10: fonction de transfert et phase d'un filtre LITI.5.2 Filtrage des signaux d’énergie finie et de puissance moyenne finieIl est intéressant de connaître la répartition spectrale de l’énergie [respectivement de lapuissance moyenne] d’un signal d’énergie finie [respectivement de la puissance moyenne]après son passage dans un filtre.I.5.2.1 Signaux d’énergie finieLe filtrage d’un signal d’énergie finie, y compris par un filtre de réponse impulsionnelleh (t) d’énergie finie ne fournie pas forcément un signal d’énergie finie. Dans le cas où celui-ciest d’énergie finie, grâce à la densité spectrale d’énergie la définition du spectre d’énergie :(1.58)Par transformation de Fourier inverse, les fonctions d’autocorrélation des signaux d’énergiefinie sont reliées par :(1.59)I.5.2.2 Signaux de puissance moyenne finieLà aussi, le filtrage d’un signal de puissance moyenne finie, y compris par un filtre deréponse impulsionnelle h (t) d’énergie finie ne fournie pas forcément un signal de puissancemoyenne finie. Dans le cas où le filtrage d’un tel signal par un filtre de réponse impulsionnelle7


d’énergie finie produit un signal de puissance moyenne finie, la fonction d’autocorrélationest :(1.60)Les notions de fonction d’autocorrélation de signaux de puissance moyenne finie sont utiliséespour x (t) et y (t) et de signal d’énergie finie pour h (t). A partir de la transformée de Fourier, ontrouve une relation liant les densités spectrales de puissance des signaux d’entrée et de sortieidentique à celle des signaux d’énergie finie.(1.61)permet de justifier l’appellation de densité spectrale d’énergie et de densitéspectrale de puissance comme transformée de Fourier de la fonction d’autocorrélation.En effet, l’énergie [respectivement la puissance] du signal d’énergie [respectivement lapuissance moyenne] finie recueillie aux bornes d’un filtre très sélectif autour de la fréquencede fonction de transfert : est :A une fréquence pour laquelle est continu:(1.62)(1.63)L’énergie [respectivement puissance moyenne] d’un signal d’énergie [respectivement depuissance moyenne] finie est localisée sur l’axe des fréquences avec une densité d’énergie[respectivement de puissance] .7


I.5.3 Causalité et stabilité des filtresNous allons apporter deux restrictions à la relation générale de convolution qui vontpermettre de réaliser un filtre physiquement. La première est la causalité, elle n’estindispensable que pour les systèmes à temps réel. La seconde est la stabilité, elle permet decontrôler la dynamique des signaux de sortie. Un filtre qui est à la fois causal et stable estappelé réalisable.I.5.3.1 CausalitéLa caractéristique essentielle des systèmes physiques à variable temporelle est quel’effet ne peut précéder la cause qui le produit. Plus précisément, la réponse y (t) d’un telsystème à l’instant ne dépend que des valeurs de l’excitation x (t) pour . Cettecondition de causalité est nécessaire pour que le système soit réalisable physiquement. Cettecondition ne s’impose que si la variable est le temps.Ce caractère causal peut s’exprimer de la façon suivante : si le système est linéaire, la conditionentraîne; en particulier la réponse impulsionnelle seranulle pour .(1.64)I.5.3.2 StabilitéLa stabilité est un critère de non saturation de la sortie d’un filtre. Il s’agit donc, commela causalité, d’un critère indispensable à la réalisation possible d’un filtre. Il existe plusieursdéfinitions de la stabilité parmi lesquelles la plus importante est la suivante. Un filtre est stable(stabilité BIBO ; bounded input-bounded output) si et seulement si à toute entrée bornéecorrespond une sortie bornée.On rencontre parfois un autre critère de stabilité : la stabilité asymptotique. Celle-ci est assuréesi à toute entrée transitoire (signal x (t) pour lequel tel que pour )correspond une sortie y (t) telle que. Si ce critère n’était pas rempli, en absence de7


signal à l’entrée du filtre, il se pourrait qu’un signal soit présent en sortie ; on serait en présenced’auto oscillations.I.5.4 Distorsions linéaires et non linéaires des filtresI.5.4.1 Distorsions linéaires dans les filtresI.5.4.1.1 Filtres sans distorsionDans l’étude de la réponse harmonique d’un filtre, un filtre modifie l’amplitude et laphase des composantes sinusoïdales contenues dans un signal. Cette modification peut êtredésirée dans certaines applications de traitement de signal. Par contre elle peut être nuisibledans les applications de transmission si les composantes sinusoïdales des signaux transmis sontaltérées.C’est la raison pour laquelle il porte un intérêt à la notion de filtre sans distorsion : il s’agit d’unfiltre qui apporte un simple gain « a » et simple retard « t 0 » à toutes les composantesfréquentielles du signal d’entrée comprises dans une largeur de bande spectrale appelée bandepassante qui recouvre en général le support fréquentiel des signaux utiles présents à l’entrée dufiltre.Dans cette bande passante, la fonction de transfert est(1.65)Où a est un facteur d’amplification ou d’atténuation etest un retard pur. Le déphasageapparaît alors comme une fonction linéaire de la fréquence. On parle ici de filtresans distorsion, c’est un filtre idéal. Selon la forme de la bande passante on distingue :-le filtre passe bas idéal : (1.66)d’où (1.67)-le filtre passe bande idéal :(1.68)d’où : (1.69)7


- Le filtre passe haut idéal :(1.70)d’où (1.71)D’un point de vue pratique, à cause de la nature idéalisée de ces fonctions de transfert, lesfiltres réalisables ne peuvent satisfaire les spécifications précédentes que d’une façonapprochée. Celles-ci sont données avec des limites de tolérance, à l’aide d’un gabarit que doitsatisfaire . Ainsi, pour le module de la fonction de transfert d’un filtre passe bas :Programmation sous MATLAB de la figure I.11lfft=512;freq=[0:lfft-1]'/lfft;N=11;K=(N-1)/2;idx=[-K,K];hi=sin(idx*pi/2)./idx/pi;hi(K+1)=.5;hi=hi/sum(hi);Hif=abs(fft(hi,lfft));N=12;K=N/2;idx=2*(-K+1:K)-1;hp=2*sin(idx*pi/4)./idx/pi;hp(K)=.5;hp=hp/sum(hp);Hpf=abs(fft(hp,lfft));plot(freq,Hpf,'-b')hold on; plot([0 0.25 0.25 0.5],[1 1 0 0],':');hold offset(gca,'XLim',[0 1/2]); gridFigure I.11: gabarit d'un filtreI.5.4.1.2 Distorsion linéaire d’amplitude et de phase dans les filtresLes approximations précédentes entraînent deux types de distorsion.7


Lorsque le module de la fonction de transfert n’est pas constant dans la bande passante, lesdifférentes composantes sinusoïdales dont les fréquences appartiennent à celle-ci ne sont pasamplifiées ou atténuées de la même manière, on parle de distorsion d’amplitude.De même, lorsque la phase de la fonction de transfert n’est pas linéaire dans la bande passante,les différentes composantes sinusoïdales dont les fréquences appartiennent à celle-ci subissentdes retards différents, on parle de distorsion de phase. En raison de l’insensibilité de l’oreille àla phase, cette distorsion est peu perceptible pour les signaux acoustiques, par contre elle doitêtre limitée dans le cas des signaux de données, des signaux vidéo…I.5.4.1.3 Distorsions non linéaires dans les filtresLes filtres examinés précédemment sont toujours affectés d’une légère non linéaritélorsqu’ils sont excités par certains signaux. Cela se produit pour diverses raisons : non linéaritédes caractéristiques de certains composants, phénomène de saturation dû à un domaine linéaireborné. Dans ces conditions, la relation de convolution entrée-sortie est mise en défaut et latransformée de Fourier du signal de sortie s’enrichit de composantes dues aux contributionsnon linéaires. Ces imperfections d’un filtre sont appelées distorsions non linéaires.I.6 Échantillonnage [1] [4] [6] [8] [10] [15]La plupart des signaux à support énergétique d’origine physique sont analogiques(amplitude et temps continus). Si l’on veut transmettre ces informations sous forme numériqueou l’on désire faire subir à celle-ci des transformations à l’aide de système numérique, il fautconvertir au préalable ces signaux par une suite de nombre codés sous forme binaire. Cettereprésentation binaire d’un signal analogique est réalisée à travers la conversation analogiquenumérique. Celle-ci s’appuie sur l’échantillonnage et la quantification.L’échantillonnage est, le prélèvement régulier de valeur d’un signal analogique àla fréquence d’échantillonnageet quantification l’opération qui associe aux valeursune suite binaire. L’étude se porte ici seulement sur l’échantillonnage car laquantification fait appel à la notion de signal aléatoire.7


Lorsqu’un signal analogiqueest échantillonné, il est important de savoir s’il est possiblede le reconstituer, si nécessaire, à partir des échantillonsprélevés. L’objet desdifférentes versions du théorème d’échantillonnagepour que cette reconstitution puisse êtrepossible sans perte d’information.I.6.1 Théorème d’échantillonnageI.6.1.1 EnoncéUn signald’énergie finie dont la transformée de Fourier a un support bornéest entièrement défini, par ses échantillonsprélevés à la fréquenced’échantillonnage .Il est ainsi possible de reconstruire x (t) à partir de ses échantillonssi la fréquenced’échantillonnage est au moins égale au double de la fréquence maximale présentedans . La plus petite fréquence est appelée fréquence de Nyquist (ou de Shannon).Cet énoncé représente le théorème de l’échantillonnage : tout signal x (t) d’énergie finie et detransformée de Fourier à support borné s’exprime à partir de ses échantillonsprélevés avec une fréquence (appelée fréquence d’échantillonnage)au moins égaleà .Dans les conditions du théorème de l’échantillonnage:(1.72)Il s’agit d’une formule d’interpolation. Le signalest le résultat de la superposition d’uneinfinité de sinus cardinaux décalés de multiples de la période d’échantillonnageet pondéréspar les échantillons .Puisqu’un signal à support fréquentiel borné a unsupport temporel infini, le développement contient en général une infinité de coefficient nonnuls, il est donc impossible de reconstituer à partir d’un nombre fini de ses échantillons.7


La reconstitution de en dehors des instants exige la connaissance de tous leséchantillons . Ainsi, la reconstitution de dans exige laconnaissance de tous les termes pour . Il est donc impossible de reconstruireen temps réel en utilisant simplement des échantillons du passé. Cette exigence ne pourradonc être approchée en pratique.Programmation sous MATLAB de la figure I.12clcclearclft=0:0.001:pi;t1=[-pi:0.001:pi];Fe=2;x=Fe.*t1;u=sinc(x);pause(2)figure(1);plot(t1,u);gridylabel('(sin(pi*Fe*t1))/(pi*Fe*t1)');y=sin(-2/4)*sinc(2*(t+2./4))y1=sin(-1/4)*sinc(2*(t+1./4))y2=sin(0)*sinc(2*(t))y1=sin(1/4)*sinc(2*(t-1./4))y3=sin(2/4)*sinc(2*(t-2./4))y4=sin(3/4)*sinc(2*(t-3./4))y5=sin(5/4)*sinc(2*(t-5./4))y6=sin(6/4)*sinc(2*(t-6./4))y7=sin(7/4)*sinc(2*(t-7./4))y8=sin(8/4)*sinc(2*(t-8./4))figure(2);ax1=plot(t,y,t,y1,t,y2,t,y3,t,y4,t,y5,t,y6,t,y7,t,y8); gridxlabel('le temps t');ylabel('x(t) reconstruit à partir desechantillons')Figure I.12: reconstruction du signal7


I.6.2 Interprétation spectraleLe théorème de l’échantillonnage peut être interprété à l’aide du signal échantillonné :(1.73)(Le terme est introduit pour que le signal conserve la dimension de ). Ce signaln’est qu’un intermédiaire de calcul sans réalité physique qui n’est d’après le résultat qu’unereprésentation limite du signal.(1.74)Le spectre complexe du signal échantillonnéest obtenu par périodisation dedu spectre complexe de. Cette périodisation apparaît clairement dans le cas d’un signalsinusoïdal.indique tout simplement qu’il existe une infinité de sinusoïdes dont lesfréquences sont avec passant par les échantillons de la sinusoïdeéchantillonné à . A partir de l’expression , deux cas peuvent êtreenvisagés:- :Il y a recouvrement de différentes courbes obtenues par périodisation de. On dit qu’il y arecouvrement du spectre, on dit aussi du repliement de spectre ou aliasing. L’origine de cesderniers termes provient du fait que dans le domaine où a lieu la superposition despectre :La symétrie hermitienne deentraîne que tout se passe comme si on repliait les deuxparties de situées de part et d’autre de ; ce phénomène se répète bien sûr avec lapériodicité de .Le repliement du spectre entraîne la non réversibilité de l’échantillonnage, c'est-à-dire7


l’impossibilité théorique de reconstruire à partir de et donc à partirde , c'est-à-dire à partir de l’ensemble des échantillons .-Il n’y a plus de recouvrement de spectre et par suite réversibilité de l’échantillonnage car onpeut reconstruire à partir de et donc à partir de l’ensemble des échantillons.I.6.3 Restitution idéaleLe résultat précèdent permet de donner un moyen de restitution idéale de x (t) à partirdes échantillons lorsque la condition du théorème de l’échantillonnage est satisfaite. Ilsuffit en effet de filtrer par le filtre passe bas idéal de fonction de transfert :avant l’échantillonneur. Ce filtre a une bande de fréquence de .(1.74)où x(t) apparaît comme le signal de sortie du filtre de réponse impulsionnelle(1.75)Donc de fonction de transfert .Cette restitution n’est que théorique et physiquement irréalisable à cause de l’impossibilité deconstruire le signal (à cause des gains nécessairement finis des amplificateurs) et ducaractère non causal du filtre de réponse impulsionnelle h (t).7


I.6.4 Limite pratique du théorème d’échantillonnageI.6.4.1 Filtrage antirepliementNous allons examiner ici les imperfections apportées par la mise en œuvre del’échantillonnage.Pour de nombreux signaux x (t) à échantillonner, les spectres X (f) n’est pas parfaitementconnus. De plus, ils peuvent contenir une composante large bande due à la présenceadditionnelle de bruit de fond généré par le capteur, les circuits d’amplification ou le milieu demesure. Il est donc indispensable d’introduire un préfiltrage du signal x (t) avant de procéder àson échantillonnage, afin de supprimer tout risque de recouvrement de spectre aprèséchantillonnage sans devoir imposer une fréquence d’échantillonnage abusive. Lesconséquences de l’absence de préfiltrage vont être illustrées à travers cet exemple.I.6.4.2 ExempleNous allons considérer une restitution idéale, c'est-à-dire le filtrage passe bas defonction de transfert du signal échantillonné dans le signal x (t) nevérifiant pas le théorème de l’échantillonnage bande de base.Soit une sinusoïde x (t) de fréquence échantillonnée à (c'est-à-dire àen considérant la sinusoïde comme signal bande de base). On obtient, après restitution idéale,une sinusoïde de fréquence . Ainsi un enregistrement sonorecontenant une harmonique à , donc inaudible,échantillonné à puisrestitué à l’aide d’un filtre passe bas de bande passantefournira unecomposante sinusoïdale audible à .Programmation sous MATLAB de la figure I.13Ds=.1;F0=200;Fe=250;Te=1/Fe; Ne=Ds/Te+1;K=40;Tc=Te/K; Nc=Ds/Tc+1;tpc=[0:Nc-1]*Tc; xtc=cos(2*pi*tpc*F0);tpe=[0:Ne-1]*Te;xte=cos(2*pi*tpe*F0);plot(tpc,xtc,'-',tpe,xte,'o');ht=sin(pi*Fe*tpc)./tpc/Fe/pi;ht(1)=1;7


Ni=200;hti=[ht(Ni:-1:2) ht(1:Ni)];xtr=zeros(1,Nc);xtr(1:K:Nc)=xte;xti=filter(hti,1,[xtrzeros(1,Ni-1)]);Lxti=length(xti);xti=xti(Ni:Lxti);hold onplot(tpc,xti,'-r');gridylabel('exemple de signal ne respectant pasle théorème de Shannon');set(gca,'xLim',[.03 .06]);Figure I.13:filtrage antirepliementI.6.5 Echantillonnage maintien, bloqueur, interpolateurNous allons décrire ici les principes de la reconstitution de x (t) à partir de seséchantillons en nous inspirant de la restitution idéale décrite précédemment. Nousallons d’abord remplacer le signal échantillonnée théoriquepar divers signaux : celanous conduira à décrire l’échantillonnage maintien, le bloqueur et l’interpolateur.I.6.5.1 Echantillonnage maintienOn peut reconstituer le signal utile de fréquence maximumissu du filtrageantirepliement que nous continuons à appelerà partir du signal bloqué pendant la durée, défini par :(1.76)En nous inspirant de la restitution idéale, nous allons déterminer le filtre qui permet de restituerà partir de . Nous avons besoin pour cela de connaître . Puisque :7


Il faut pour restituer à partir de , un filtre qui élimine les périodisations de(1.77)légèrement atténuées par, c'est-à-dire présentant une atténuation nulle pouret qui compense la distorsion d’amplitude dans la bande. Parmi cesvaleurs de , on va accorder une place particulière à pour lequel, on obtient un bloqueurd’ordre zéro appelé aussi extrapolateur d’ordre zéro.I.6.5.2 Bloqueur d’ordre zéro :Pour restituer à partir de un filtre passe bas qui lisse les discontinuités enmarche d’escalier de. De façon plus précise il faut un filtre qui élimine lespériodisations de déjà fortement atténuées par , c'est-à-dire présentant uneatténuation nulle pour et qui compense la distorsion d’amplitude dans .Cette reconstitution à l’aide d’un bloqueur d’ordre zéro est de loin la plus courammentemployée, car c’est celle qui est naturellement réalisée par un convertisseur numériqueanalogique à l’entrée duquel les valeurs numériques sont maintenues pendant la duréede la période d’échantillonnage.On fait souvent suivre ce circuit de maintien d’un filtre de lissage additionnel dont le rôle estd’atténuer les composantes spectrales indésirables. On peut de plus chercher à compenserl’atténuation introduite par le facteur dans la bande , on utilise alors un filtrede lissage et d’égalisation dont la fonction de transfert approchedans labande .7


I.6.5.3 InterpolateurIl vient naturellement à l’idée de restituerpar l’intermédiaire du signal interpoléobtenu en reliant les échantillons successifs par des droites.Ce signal présente une distorsion d’affaiblissement légèrement plus importante que pour lebloqueur d’ordre zéro dans la bande. Par contre les composantes spectrales issuesde la périodisation desont beaucoup plus fortement atténuées que dans le cas dubloqueur d’ordre zéro.Ce dernier résultat est assez intuitif car puisqueseront plus faibles que celles deaux fréquences élevées. Le filtre de lissage pourra donc présenter des oscillations en bandeatténuée plus importantes et sera donc plus facilement réalisable.Comme on l’a déjà signalé, la restitution la plus courante est réalisée par l’intermédiaire dubloqueur d’ordre zéro suivie d’un filtre de lissage et d’égalisation. D’où une chaîne complètede traitement échantillonné comprend les blocs suivants :x (t)Filtre antirepliementÉchantillonneurTraitementéchantillonnéBloqueurd’ordre 0Filtre de lissageEt d’égalisationx (kT e ) y (kT e ) y (t-τ)Figure I.14: schéma bloc d'un traitement numérique du signalI.7 Signaux déterministes à temps discret [1] [4] [6] [8] [10] [15] [16]Nous allons considérer dans ce paragraphe les signaux à temps discret comme des suitesde nombres appartenant à C et dépendant d’un entier . Ces signaux sont très souventissus de l’échantillonnage à la fréquence de signaux temporels analogiques, auquelcas les nombres représentent les échantillons .Par contre certains signaux sont à temps discret par nature, par exemple un texte écrit à l’aidedes lettres de l’alphabet peut être considéré comme un signal à temps discret à valeurs dans{a,…,z}.7


L’amplitude de ces signaux prend un nombre discret de valeurs. On représente ces signaux sousla forme :qui n’est qu’une représentation théorique sans relation avec la réalité.I.7.1 Exemple de signaux et généralitésVoici trois signaux à temps discrets que nous utiliserons fréquemment :-l’impulsion unité :(1.78)-l’échelon unité :-la porte de longueur N :(1.79)(1.80)I.7.2 Energie et puissance des signaux déterministes à temps discretL’énergie et puissance moyenne de , les quantités :. (1.81)On peut ainsi définir des signaux d’énergie finie, de puissance moyenne finie et tout ce qui aété dit sur l’interprétation physique de ces notions aux signaux continus peut s’étendre ici.Comme pour les signaux à temps continu, les principales transformations de signaux sont lesopérations de décalage de n (retard si n>0 ou avance si n1 ou atténuation si a


de somme de signaux . L’impulsion unité introduite précédemmentpermet de décomposer tout signalsous la forme d’une combinaison linéaire de signauxconvenablement décalés:. (1.82)Dans cette expression les termes x (n) apparaissent comme de simples coefficients etl’ensemble de signaux impulsions unitésapparaissent comme une baseorthonormée de l’espace vectoriel des signaux à temps discret d’énergie finie.Programmation sous MATLAB de la figure I.15N=20;temps=[-N:N];k=[0:40];u=ones(1,2*N+1);x=.2.^temps;y=x.*u;pause(3)figure(1);stem(k,y,'o');gridaxis([20 40 0 1.5]);K=[-40:0];x1=-(.2.^temps);Y=x1.*u;figure(2);stem(K,Y,'o'); gridaxis([-25 0 -150 0]);Figure I.15: signaux exponentiels échantillonnésI.7.3 Transformée de Fourier discrèteAfin de décomposer les signaux à temps discret en somme de signauxélémentaires , c'est-à-dire afin de trouver les périodicités dans la suite des valeurs ,la transformée de Fourier d’un signal à temps discret est définie par :7


(1.83)Sa transformée inverse est donnée par :(1.84)Cette transformée de Fourier n’est définie que si le cercle unité appartient au domaine deconvergence de la série. Elle n’est pas définie en particulier pour lessignaux exponentiels , les sinusoïdes et les signaux périodiques. Dans ces cas, si l’ontient à définir tout de même une transformée de Fourier pour de tels signaux, on doit avoirrecours à la notion de distribution.Programmation sous MATLAB de la figure I.16t=[-2*pi:2*pi];x=sin(t);y=fft(x,100);m=abs(y);plot(m);gridxlabel('axe des fréquences');ylabel('spectre de la fonction sinus')FigureI.16: spectre d'un signal déterministe à temps discretI.7.4 Filtrage de signaux à temps discret déterministesComme pour les signaux à temps continus, le principal traitement opéré sur les signauxà temps discret est les traitements linéaires invariants dans le temps appelé également filtrage.L’hypothèse de traitement des signaux discrets se fait avec une précision infinie. Toutefois, il103


ne faut pas perdre de vue que l’utilisation de systèmes numériques impose une quantification ennombre fini de bits des signaux et des paramètres du filtre provoquant des effets indésirablestels que le bruit d’arrondi, la saturation et, dans le pire des cas, des instabilités.I.7.4.1 Définition, exemplesUn système L agissant sur des signaux à temps discretpour produire des signauxà temps discret est linéaire si :Un système L à temps discret est dit invariant dans le temps si :(1.85)(1.86)et dit continu si :. (1.87)Par analogie avec les systèmes à temps continu, un système à temps discret qui est à la foislinéaire, invariant dans le temps et continu est appelé filtre à temps discret.I.7.4.1.1 Réponse impulsionnelleUn filtre L est caractérisé par sa réponse impulsionnelledéfinie comme laréponse du système à l’instant k au signal d’entrée impulsion unité appliquée à l’instant 0.En effet puisque: , la propriété d’invariance temporelle assureque : et, puisque tout signal d’entrée du filtre peut se décomposercomme une combinaison linéaire de signaux dont les coefficients sont , nousavons par linéarité et continuité :(1.88)103


Donc :(1.89)Cette relation est un produit de convolution à temps discret, noté souvent: .Par transformée en z et par transformée de Fourier de, il vient:(1.90)H (f): fonction de transfert fréquentielle du filtreH (z): fonction de transfert en z du filtre.Le filtrage à temps discret équivalent au filtrage à temps continu est alors obtenu paréchantillonnage du signal d’entrée et de la réponse impulsionnelle. Cela permet la simulationpar des méthodes numériques de filtres analogiques.h (t)kTekTeh (k)=h(kTe)x (t)y (t)y (kTe)x (t)x (kTe)y (kTe)Figure I.17: filtres numériquesI.7.4.1.2 Equation de récurrence linéaire à coefficient constantComme les filtres à temps continu étaient réalisés à l’aide d’équations différentielles derécurrence linéaires à coefficients constants, les filtres à temps discret le seront à l’aided’équations de récurrences linéaires à coefficients constants appelées aussi équations auxdifférences linéaires à coefficients constants.(1.91)AvecI.7.4.1.3 Equation de récurrence linéaire à coefficient constant généraleParmi les différents systèmes définis aux équations aux différences, qu’à la solution quiest un filtre causal et nous identifierons toute équation de récurrence linéaire à coefficients103


constants à ce filtre de réponse impulsionnelle causale. Par suite, les filtres définis par leséquations aux différences ont pour fonction de transfert en z :. (1.92)A chacun des domaines de convergence associés à H (z), (il y a N+1 domaines siadmetN modules distincts de pôles) correspond un filtre caractérisé par sa réponseimpulsionnelle. Le filtre de réponse impulsionnelle causale sera associé au domaine deconvergence. Nous ne porterons notre attention qu’au filtre causal issude telles équations, c'est-à-dire de fonction de transfert en zfraction rationnelle en z et deplus causal ; ces filtres sont appelés filtres dynamiques. On distingue parmi les filtresdynamiques trois classes de filtres :-les filtres transversaux, appelés aussi filtres à réponse impulsionnelle finie ou plus simplementfiltres RIF. Ceux-ci sont définis par l’équation aux différences dans laquelle P=0 et où, parfacilité de notation, .ils sont donc de la forme :(1.93)par suite :. (1.94)P est appelé ordre du filtre RIF et, bien entendu, la réponse impulsionnelle associéeestdéfinie par la figure I.18.(1.95)- les filtres récursifs, appelés aussi filtres à réponse impulsionnelle infinie ou plus simplementfiltres RII. Ceux-ci sont définis par l’équation de récurrence générale (1.96) dans laquelleet et où, par facilité de notation, .103


Figure I.18:schéma caractéristique d'un filtre discret. (1.96)Par suite :(1.97)L’ordre du filtre est ici et, bien entendu, la réponse impulsionnelle est de duréeinfinie, ce qui justifie le terme de filtre RII.A chaque instant k, la sortie s’obtient à partir de l’entrée , de Q valeurs du passé del’entrée : et de P valeurs du passé de la sortie .– les filtres purement récursifs : ceux-ci sont définis par l’équation de récurrence dans laquelleet où, par facilité de notation, ..(1.98)L’ordre du filtre est P et, bien entendu, la réponse impulsionnelleinfinie. A chaque instant k, la sortie y (k) s’obtient à partir de la seul valeurest aussi de duréede l’entrée etde P valeurs du passé de la sortie: .103


I.7.4.2 Causalité et stabilitéComme pour les filtres à temps continu, nous allons apporter deux restrictions à larelation générale de convolution : la causalité et la stabilité. Celles-ci vont permettre de réaliserphysiquement un filtre à temps discret.I.7.4.2.1 CausalitéLa définition de la causalité d’un filtre à temps continu donnée auparavant appliquée aufiltre à temps discret impose que ne dépende que des valeurs de pour . D’aprèsla relation de convolution, cette condition est équivalente à ce que. Dansce cas :(1.99)La causalité d’un filtre peut se caractériser à l’aide de sa fonction de transfert en z ,fraction rationnelle en z.En effet, nous avons vu que est nulle à gauche le domaine de convergence associé àest de la forme ; pour assurer de plus que est nulle à partir del’instant, il faut et il suffit que le degré du numérateur de H(z) soit inférieur ou égal audegré de son dénominateurI.7.4.2.2 StabilitéComme pour les filtres à temps continu, il faut s’assurer, pour mettre en œuvre un filtreà temps discret, qu’il soit stable, la stabilité BIBO et la stabilité asymptotique sont définies dela même façon que les signaux à temps continu. La stabilité BIBO est équivalente à :(1.100)Puisque le domaine de convergence de la série de Laurentdomaine d’absolue convergence, le filtre de fonction de transfert en zest confondu avec sonest stable BIBOle cercle appartient au domaine de convergence associé à .103


Comme pour le filtrage à temps continu, et avec un raisonnement identique, la stabilitéasymptotique est équivalente à :(1.101)Pour les filtres causaux, il est intéressant de comparer ces deux critères de stabilité. D’après lesrésultats sur la causalité : un filtre causal est stable BIBO le domaine de convergenceassocié à est avec , condition que l’on schématise souvent en disant queles pôles desont à l’intérieur du cercle unité.I.7.4.3 Etude fréquentielle d’un filtre LITI.7.4.3.1 Réponse fréquentielle d’un filtre LITComme pour les filtres à temps continus, la réponse fréquentielle d’un filtre à tempsdiscret L est définie comme la réponse du filtre au signal . Celle-ci vaut :(1.102)En appelant la transformée de Fourier de la réponse impulsionnelle , c'est-à-dire lafonction de transfert du filtre calculée à la fréquence. Nous obtenons une relation identiqueà celle du filtrage à temps continu .On a vu dans cette première partie la base des théories et du traitement des signauxanalogiques et numériques. La maîtrise de ces notions de signaux porte une grande importancedans les systèmes de transmission que ce soit analogique ou numérique. Malgré la croissancesans envergure de la technologie moderne, les notions que nous venons de développer neperdent pas ses prérogatives car, par exemple, c’est toujours le théorème de Shannon qui est àla base de tout conversion analogique numérique. Il est donc primordiale d‘avoir desconnaissances approfondies sur ce sujet avant d’entamer tout ce qui concerne latélécommunication, et en particulier tout ce qui concerne la transmission.103


CHAPITRE II: <strong>MODELE</strong> <strong>AUTOREGRESSIF</strong>II.1 Signaux aléatoires [9] [10]Un signal est aléatoire s’il dépend d’une certaine manière des lois du hasard. De telssignaux ne possèdent pas de représentation analytique. Ils peuvent être toute fois caractériséspar leurs propriétés statistiques et fréquentielles. Ils suivent la loi du processus aléatoire.II.2 Processus aléatoire [10]Un processus aléatoire peut être défini comme une famille réelle ou complexe defonctions à deux variables notées , ; si t est à valeurs dans , le processusaléatoire est à temps continu et si t est à valeurs dans Z, le processus est discret.définit lanature aléatoire du processus.Un processus aléatoire peut être vu de deux façons :Comme un ensemble de fonction du temps, chacune correspondant à une épreuve ;Soit comme un ensemble de variables aléatoires, chacune étant associée à un instant donné ;Un processus est illustré sur la figure :Programmation sous MATLAB da la figure II.19x= [1:50]; y=randn (50,1); y1=randn (50,1); y2=randn (50,1);Plot(x, y, x, y1, x, y2); axis ([0 50 -5 5]);Text (0,4,'x(t,ksi),x(t,ksi1),x(t,ksi2)');Figure II.19:processus aléatoirePour chaque le processus se réduit à un membre donné de l’ensemble de fonctionpossible x i (t) appelé signal aléatoire.103


Un processus aléatoire est défini à chaque instant t par sa loi de probabilité de son amplitude x.cette loi peut s’exprimer par une densité de probabilité.(2.1): Incertitude de l’amplitude du signal x i (t).La probabilité à l’instant t pour que l’amplitude x soit entre x et est définie par :(2.2)II.3 Espérance mathématique [11] [12]L’espérance mathématique de la variable aléatoireest la moyenne statistique d’unprocessus aléatoire. Cette quantité est une fonction dépendant du temps ; l’espérancemathématique à l’instant est égale à :(2.3)II.4 Variance [11] [12]La variance est la mesure des fluctuations de la variable aléatoire autour de samoyenne, plus elle est grande plus les valeurs de x sont dispersées autour de l’espérance .Elle est définit par :(2.4)II.5 Stationnarité [13]Le signalest dit stationnaire à l’ordre n si ses propriétés statistiques sont toujoursconstantes quelque soit l’instant de mesure : quelque soitet la densité de probabilité est indépendante du temps et égale à .103


L’espérance mathématique d’ordre n du signal devient :(2.5)II.6 Ergodicité [9]Le signalest dit ergodique à l’ordre n si sa moyenne temporelle d’ordre n est finieet indépendante du numéro d’observation K.Le signal est stationnaire et ergodique au sens strict si ses moyennes statistiquess’identifient à ses moyennes temporelles :(2.6)Mais ce qui nous intéresse c’est le signal stationnaire et ergodique du second ordre c'est-à-direles moyennes statistiques et les moyennes temporelles d’ordre un ou deux sont identiques etindépendantes du numéro d’observation, la valeur de ces signaux est définie par :(2.7)Et sa puissance moyenne :(2.8)II.7 Autocorrélation [14]L’autocorrélation d’un processus aléatoire stationnaire et ergodique du second ordre estla moyenne conjointe des variables et :En posant ,(2.9)103


. (2.10)Cette fonction caractérise la dépendance entre les 2 valeurs prises pour une même variablealéatoire aux deux instants .Un processus aléatoire est dit stationnaire et ergodique du second ordre au sens large (SSL) sisa valeur moyenne est constante, sa fonction d’autocorrélation ne dépend que de la différenceet (2.11)II.8 Bruit [10] [11] [17]Un bruit est une perturbation qui affecte les signaux et les équipements detransmissions. Les bruits sont des signaux aléatoires dont on ne peut pas prédire sescaractéristiques.II.8.1 Le bruit blancUn bruit blanc est un processus aléatoire SSL, non corrélé, centrée dont la densitéspectrale de puissance est constante quelque soit la fréquence utilisée. On a comme densitéspectrale de puissance :(2.12)Avecla densité spectrale de puissance monolatérale, c’est un modèle théorique et sapuissance moyenne est infinie.II.8.2 Bruit coloréLe bruit est coloré si la densité spectrale de puissance varie en fonction de la fréquence,c'est-à-dire la densité spectrale de ce bruit n’est pas uniforme dans la bande de fréquenceutilisée.II.9 Modèle autorégressif [10] [11] [12] [13] [14] [15] [16] [17]Le modèle de signal le plus simple, permettant une analyse spectrale paramétrique est lemodèle autorégressif. Une grande part de la littérature scientifique, comme des applications103


industrielles, lui est réservée. Ce type de modèle permet de bien modéliser une gamme trèslarge de signaux rencontrés en pratique : signaux de parole, de vibrations, radar, de texture dansune image,….II.9.1 DéfinitionUn signal est dit autorégressif d’ordre p, si un échantillon à l’instant k dépendlinéairement des p échantillons précédents et d’un bruit blanc additif de variance . Ce bruitest généralement présenté par un bruit blanc de variance unité auquel on adjoint un facteurmultiplicateur adhoc . La relation de récurrence temporelle d’un signal autorégressif d’ordre ps’écrit alors selon :(2.13)Ce signal résulte du filtrage d’un bruit blanc par le filtre tout pôle de fonction de transfert:(2.14)Où . (2.15)Ce filtre inverse,, est communément appelé filtre blanchisseur car il tend effectivement àblanchir les caractéristiques spectrales du signal .Figure II20: modèle source filtre d'un signal ARII.9.2 Caractéristiques statistiquesUn signal AR est stationnaire puisqu’il est définit comme un filtre linéaire d’un bruitblanc gaussien, lui-même stationnaire. On peut donc parler de coefficient de corrélation, noté103


(2.16)La moyenne du signal AR est nulle. En effet, comme le bruit générateur est de moyenne nulle,la sortie d’un filtre linéaire n’est qu’une pondération de variables centrées. On supposeimplicitement la conditionest vérifiée. Elle correspond à une des conditions destabilité du filtre.(2.17)La variance se calcule simplement en prenant les espérances mathématiques quadratiques del’équation aux différences. On utilise ici le fait que le bruit d’entrée est décorrélé et donc que lesignal de sortie est décorrélé de toutes les réalisations de l’entrée qui surviendront dans lefutur.(2.18)II.9.2.1 Biais et varianceOn utilise souvent 2 grandeurs pour caractériser un estimateur : le biais et la variance.Le biais d’un estimateur est la différence entre l’espérance mathématique des valeurs estiméeset la vraie valeur cherchée c'est-à-dire :(2.19)est la valeur estiméeSi le biais est nul, la densité de probabilité de l’estimation est centrée sur la valeur cherchée.L’estimateur correspondant est appelé estimateur non biaisé. Si la densité de probabilité deest symétrique, pour un tel estimateur, la valeur cherchée est la valeur centrale de .Un estimateur dont le biais n’est pas nul est appelé estimateur biaisé.La variance d’un estimateur est une mesure de l’étendue de la densité de probabilité de. Elleest définie par :103


(2.20)Une faible valeur de la variance indique une concentration de la densité de probabilité autourde la valeur moyenne . Donc, un estimateur satisfaisant doit posséder un biais et unevariance aussi petits que possible. En général, la diminution de l’un provoque malheureusementl’augmentation de l’autre et vice versa. Le compromis entre le biais et la variance peut êtreétudié à l’aide de l’erreur quadratique moyenne de l’estimateur, défini par :(2.21)Si le biais et la variance d’un estimateur tendent vers 0, lorsque le nombre de variables Kobservées augmente, l’estimateur est appelé consistant.II.9.3 Caractéristiques spectralesLa densité spectrale de puissance d’un signal AR découle directement de sareprésentation source filtre. La formule des interférences fournit la DSP du signal d’entrée et dufiltre soit :(2.22)II.9.4 Identification du modèleL’obtention des paramètres AR se fait par des techniques d’identification de modèle :chercher quelles sont les valeurs des paramètres du modèle qui font que l’on se rapproche aumieux, au sens d’un critère à définir, des observations. La logique de cette approche estschématisée sur la figure II.21.Le signal à identifier est comparé à l’estimation que l’on en fait par l’intermédiaire dumodèle courant. Un critère et une procédure d’optimisation permettent de mettre à jour lesparamètres. Cette mise à jour peut se faire de deux façons différentes :103


Figure II.21:principe d'identification du modèle- de façon différée, toute une plage d’observation du signal est stockée avant d’être traitée. Onparlera alors de méthode off line ou bloc.- de façon récursive, un échantillon du signal est traité dès qu’il est disponible. On parlera alorsde méthode on line ou séquentielle.L’erreur de prédiction s’exprime simplement par :(2.23)L’observation prédite à l’instantprécédents. Notons que le bruitest donc une simple combinaison linéaire des p échantillonsa été remplacé dans cette prédiction par 0. Le critère usuelest quadratique et porte sur la variance de l’erreur . Deux critères et sont envisagésici.- le critère porte sur la variance de l’erreur d’estimation. Ce critère peutavantageusement se comparer à une projection dans un espace de Hilbert pour lequel le produitscalaire est définit.103


- le critère correspond à une estimation de l’énergie de l’erreur de prédiction. Cetteapproche fait appel à un calcul différentiel par rapport au vecteur des inconnues (est celui des erreurs de prédiction consécutives.). Le vecteurII.9.5 Estimation off line des paramètresII.9.5.1 Equations de Yule-WalkerConsidérons le processus AR d’ordre p. Il existe des relations entre les fonctions : ,, la fonction d’autocorrélation . On appelle équations de YuleWalker ou équations normales les p équations suivantes :soit (2.24)La matrice d’autocorrélation de l’équation (2.24) est de l’ordre (p-1), elle est définie positive,symétrique, de Toeplitz (tous les éléments diagonaux sont égaux). L’interprétation géométriquede cette équation est donnée par :Figure II.22: principe d'orthogonalité (dimension 2)103


La prédiction sur ce sous espace s’interprète comme la détermination du prédicteurconnaissant les échantillons précédents .L’estimée de est optimalelorsque la distance séparant ce vecteur du sous espace est minimale. Il convient alors deminimiser la grandeur . Le critère est minimal (soit ) etl’erreur est appelée innovation, elle est notée . L’innovation est orthogonale àl’espace engendré par . Ceci permet d’écrire autant de relationsd’orthogonalité que la dimension de l’espace , soit p.L’innovation est orthogonale aux pour . Soit pour. En développant le tout, la relation matricielle est nommée équations de Yule-Walkerou encore équations normales trouvée dans l’équation (2.24).II.9.5.2 Méthode de covariance et d’autocorrélationLes calculs font appel à des espérances mathématiques qui en pratique sont remplacéespar des moyennes temporelles tronquées. Le critère qui est réellement minimisé est alors lasomme des erreurs d’estimation .Les estimées des coefficients d’autocorrélation s’écrivent sous la forme :(2.25)En pratique plusieurs options se présentent, dépendant de l’horizon d’observation des erreursretenues.Le vecteur d’erreur s’exprime selon :(2.26)103


Avec , et tandis queAussi le coût à minimiser devient .Quatre méthodes découlent de la présentation précédente en fonction de la portion de la matriceutilisée.- si l’on prend toute la matrice , la matrice à inverser est de Toeplitz symétrique, comme celuide Durbin-Levinson présenté plus loin. Cette méthode présente néanmoins l’inconvénientd’utiliser les erreurs de prédiction dans des zones où le filtre n’est pas en régime stabilisé. Celarevient à supposer que le signal est nul en dehors de l’intervalle d’observation. Aussi ilconvient, comme pour la transformée de Fourier de pondérer les mesures par des fenêtresclassiques (telles que Hann, Hamming,…) afin d’éviter ces effets de bord.Voici un exemple de fenêtre triangulaire : fenêtre de BlackmanProgrammation sous MATLAB de la figure II.23% blackmanN=10;w=0.42-0.5*cos(2*pi*(0:N-1)/N)+0.08*cos(4*pi*(0:N-1)/N);w=w/sum(w);ws=fft(w,1024);plot((0:1023)/1024,20*log10(abs(ws)))set(gca,'xlim',[0 .5],'ylim',[-100 0]); gridFigure II.23: fenêtre de Blackman- pour cette raison, on préfère parfois de n’utiliser que la partie centrale des erreurs, soitn’utiliser que la matrice. La matrice inversée n’est plus de Toeplitz. On évite d’un côté ce103


problème théorique d’effet de bord mais on tombe sur un problème algorithmique d’inversionde matrice pseudo-Toeplitz (produit de deux matrices rectangulaires Toeplitz).- au-delà de ces deux méthodes existent les deux choix hybrides qui prennent en compte leserreurs avant le régime établi (pré-fenêtrage) ou celles après (post-fenêtrage).Ce qui correspond aux deux matrices :(2.27)L’algorithme pour résoudre l’inversion des matrices correspondantes est celui de Levinsongénéralisé. Ces méthodes sont donc très peu utilisées. En effet elles combinent les deuxinconvénients d’inversion matricielle et des effets de bord.Méthodes Matrice Type de la matrice Algorithme de résolutionAutocorrélationCovariancePré-fenêtréeHH2ToeplitzPseudo-ToeplitzPseudo-ToeplitzDurbin-LevinsonLevinson généraliséLevinson généraliséPost-fenêtréePseudo-ToeplitzLevinson généraliséTableau 1: Méthodes d'estimation et matrices relatives à la résolution du systèmeII.9.5.3 Exemple d’estimation off lineSoit un signal AR d’ordre 4, construit de telle sorte que son spectre présente deuxfréquences de résonance, aux fréquences réduites 0.05 et 0.15. Les positions des pôlescorrespondant à ces fréquences sont présentées ci-dessous par le symbole (x). Une réalisationtemporelle d’un tel signal est fournie sur la figure.Programmation sous MATLAB da la figure II.24x=randn (4096, 1);a= [1 -2.9238 3.8231 -2.6387 0.8145]; Zer=0;Pol=roots ([1 -2.9238 3.8231 -2.6387 0.8145]); Zplane (zer, pol); grid103


Figure II.24: pôle du signal AR (2 fréquence de résonance)Les parties angulaires des pôles sont choisies égales à et , de telle sorte que lesfréquences de résonance soient égales à 0.05 et 0.15. Le filtre AR d’ordre 4 qui en résulte estalors défini par les coefficients suivants : [1.0000 -2.9238 3.8231 -2.6387 0.8145].Programmation sous MATLAB de la figure II.25x=randn (200,1);a= [1 -2.9238 3.8231 -2.6387 0.8145];y=filter (1, a, x);Hold on; plot(y)Plot (y,'x'); gridFigure II.25:réalisation temporelle du signal ARComparons, dans un premier temps, différents estimateurs de la densité spectrale de puissance(DSP). Un périodogramme sur 4096 points est représenté sur la figure ci-dessous. Les deuxfréquences de résonance apparaissent, même si la forte variance de cet estimateur génère cesfluctuations caractéristiques.103


Programmation sous MATLAB da la figure II.26x=randn (4096,1);a= [1 -2.9238 3.8231 -2.6387 0.8145];y=filter (1, a, x);Plot (y); grid[Pxx, w] = periodogram (y, [], 4096, 3);Psdplot (Pxx, w,'','','Sample PSD Plot')Figure II.26: périodogramme sur 4096 pointsQuatre estimateurs de Bartlett sont représentés sur la figure 8. Les K plages, sur lesquelles lespériodogrammes sont calculés, sont de longueur M. La variance de l’estimateur est inversementproportionnelle au nombre de tranches K. comme l’on travaille à nombres d’observéesconstants, soit, un compromis entre variance et résolution apparaît; le choixM=256 et K=16 semble bon.Programmation sous MATLAB de la figure II.27x=randn (64, 1);a= [1 -2.9238 3.8231 -2.6387 0.8145];y=filter (1, a, x);Figure (1);[Pxx, w] = periodogram(y, Bartlett (64), 64,3);Psdplot (Pxx, w,'','','Sample PSD Plot'); gridx=randn (256,1); y=filter (1, a, x);[Pxx, w] = periodogram(y, Bartlett (256),256, 3);Figure (2);Psdplot (Pxx, w,'','','Sample PSD Plot'); gridx=randn (1024,1); y=filter (1, a, x);[Pxx, w] = periodogram(y, Bartlett (1024),1024, 3);Figure (3);Psdplot (Pxx, w,'','','Sample PSD Plot'); gridx=randn (2048,1); y=filter (1, a, x);[Pxx, w] = periodogram(y, Bartlett (2048),2048, 3);Figure (4);Psdplot (Pxx, w,'','','Sample PSD Plot'); grid103


Figure II.27: estimateur de Bartlett pour différents couplesFort de cette première analyse, il semble licite d’utiliser une modélisation autorégressive(certes ici le signal est par construction un AR). L’analyse spectrale paramétrique commencepar estimer les paramètres autorégressifs du modèle. Pour une réalisation particulière dusignal (sur 2048 échantillons), on estime les coefficients suivants, par la méthode decovariance :Alors que l’on avait choisit :Il existe bel et bien une erreur d’estimation, qui se traduit par une erreur sur le spectre ainsiestimé. La DSP qui en résulte est représentée sur la figure suivante. Cette représentation, très« lissée » par rapport à l’impression que laisse un périodogramme, tendrait à donner l’illusiond’un objet certain.Programmation sous MATLAB da la figure II.28a= [1 -2.9238 3.8231 -2.6387 0.8145];y=randn (2048,1);x=filter (1, a, y);[e, w]=pcov (x, 4, 2048,3);Psdplot (e, w,'','','sample PSD plot')103


Figure II.28: estimation spectrale paramétriquePour s’en convaincre, on peut recommencer l’estimation spectrale pour différentesréalisations du signal (toujours sur 2048 échantillons).Les figures suivantes présentent une superposition de 10 DSP, estimée selon la méthoded’autocorrélation ou de covariance. Les meilleurs performances de la méthode de covariancepar rapport à la méthode d’autocorrélation sont déjà visuellement évidentes en terme devariance. Le tableau 2 résume les différentes caractéristiques de ces estimateurs.Programmation sous MATLAB da la figure II.29clear;a=[1 -2.9238 3.8231 -2.6387 0.8145];y=randn(2048,1);x=filter(1,a,y);[e,w]=pyulear(x,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y1=randn(2048,1);x1=filter(1,a,y1);[e,w]=pyulear(x1,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y2=randn(2048,1);x2=filter(1,a,y2);[e,w]=pyulear(x2,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y3=randn(2048,1);x3=filter(1,a,y3);[e,w]=pyulear(x3,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y4=randn(2048,1);x4=filter(1,a,y4);[e,w]=pyulear(x4,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y5=randn(2048,1);x5=filter(1,a,y5);[e,w]=pyulear(x5,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y6=randn(2048,1);x6=filter(1,a,y6);[e,w]=pyulear(x6,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y7=randn(2048,1);x7=filter(1,a,y7);[e,w]=pyulear(x7,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');103


y8=randn(2048,1);x8=filter(1,a,y8);[e,w]=pyulear(x8,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');y9=randn(2048,1);x9=filter(1,a,y9);[e,w]=pyulear(x9,4,2048,3);hold on;psdplot(e,w,'','','sample PSD plot');Figure II.29: méthode d'autocorrélationProgrammation sous MATLAB da la figure II.30%méthode de covarianceClear;a= [1 -2.9238 3.8231 -2.6387 0.8145];y=randn (2048,1); x=filter (1, a, y);[e,w]=pcov (x, 4, 2048, 3);Hold on;psdplot (e, w,'','','sample PSD plot');y1=randn (2048,1); x1=filter (1, a, y1);[e,w]=pcov(x1, 4, 2048, 3);Hold on; psdplot (e, w,'','','sample PSDplot');y2=randn (2048,1); x2=filter (1, a, y2);[e,w]=pcov(x2, 4, 2048, 3);Hold on; psdplot (e, w,'','','sample PSDplot');y3=randn (2048,1); x3=filter (1, a, y3);[e,w]=pcov(x3, 4, 2048, 3);Hold on; psdplot (e, w,'','','sample PSDplot');y4=randn (2048,1); x4=filter (1, a, y4);[e,w]=pcov(x4, 4, 2048, 3);Hold on; psdplot (e,w,'','','sample PSDplot');y5=randn (2048,1); x5=filter (1, a, y5);[e,w]=pcov(x5, 4, 2048, 3);Hold on; psdplot (e, w,'','','sample PSDplot');y6=randn (2048,1); x6=filter (1, a, y6);[e,w]=pcov(x6, 4, 2048,3);Hold on; psdplot (e, w,'','','sample PSDplot');y7=randn (2048,1); x7=filter (1, a, y7);[e,w]=pcov(x7, 4, 2048, 3);Hold on; psdplot (e, w,'','','sample PSDplot');y8=randn (2048,1); x8=filter (1, a, y8);[e,w]=pcov(x8, 4, 2048, 3);103


Hold on; psdplot (e, w,'','','sample PSDplot');y9=randn (2048,1); x9=filter (1, a, y9);[e,w]=pcov(x9, 4, 2048,3);Hold on; psdplot (e, w,'','','sample PSDplot');Figure II.30: méthode de covarianceLa méthode de covariance présente un biais, et une variance, moins important que la méthoded’autocorrélation. Les effets de bord se font donc sentir sensiblement, même pour une plaged’observations conséquente (ici 2048 échantillons). Remarquons que les biais croissent avecl’ordre des paramètres pour les deux méthodes et qu’en revanche les variances se comportentde manière symétrique par rapport au milieu du vecteur des paramètres AR.Méthode d’autocorrélationMéthode de covarianceErreur (%) Var ( )*1e3 Erreur (%) Var ( )*1e3-2.82336.533413.2521-2.92230.05100.16983.57333.436981.20433.81920.10100.9694-2.39469.250576.9666-2.63470.15120.96750.720811.508511.28100.81290.19690.1692Tableau 2: Caractéristiques statistiques de l'estimation des a iLes caractéristiques de l’estimation ont porté jusqu’ici sur les paramètresdu modèleautorégressif. Pour autant, l’objectif de ce modèle est ici d’estimer un spectre, on doit donclégitimement se poser la question de la qualité d’estimation des fréquences de résonance ,plutôt que celle des paramètres naturels du modèle AR. Le tableau 3 résume ces différentescaractéristiques statistiques.103


Méthode d’autocorrélationMéthode de covarianceErreur (%) Var ( )*1e3 Erreur (%) Var ( )*1e30.0503-0.65053.84150.0500-0.00490.68490.1506-0.39262.27530.15000.00250.6778Tableau 3: Caractéristiques statistiques de l'estimation des f iAutant l’estimation des paramètres AR peut se faire avec une erreur importante, autant lesfréquences de résonance sont estimées avec des biais faibles et des variances extrêmementfaibles. On retrouve par ailleurs les meilleures performances de la méthode de covariance parrapport à la méthode d’autocorrélation.On retiendra alors que l’on peut commettre des erreurs sensibles sur les coefficients AR sanspour autant mal estimer les fréquences de résonances. Ceci est cohérent avec l’analyse ducritère vue sous un angle spectral. En effet, en utilisant le théorème de Parseval, on peutdire que les critères correspond à la puissance de l’erreur d’estimation et donc à l’intégrale desa DSP, soit :(2.28)Le filtrage du signal observé par le filtre blanchisseur fournit le signal d’erreur .Ce dernier n’a pas de raison a priori d’être blanc. La DSP du signal original s’exprime alors,par la formule des interférences selon. Or le spectre estimé est celuiqui correspond au même filtré, mais pour un bruit blanc en entrée, donc à. Le critère peut donc s’interpréter comme un critère relatif dans ledomaine fréquentiel. La minimisation cherche donc à bien représenter tant les fortes que lesfaibles amplitudes de la DSP.(2.29)103


Programmation sous MATLAB de la figure II.31%estimationde la fréquence d’échantillonnageclear;clgP=3; A=[2 1.5 1]; F=[0.1;0.23;0.3];N=25;Lfft=256deltaf=round (Lfft/N);a=[1 -2.9238 3.8231 -2.6387 0.8145];rr=randn (1,N);s=filter (1,a,rr);sigma2=0.5;x=s+sqrt(sigma2)*randn(1,N);%signalsubplot(221); plot(x); axis([0 N -3030]);gridtext(16,4,'temps')%spectrexf=abs(fft(x,Lfft)).^2;xf=xf(1:Lfft/2)/max(xf);subplot(222);plot((0:Lfft/2-1)/Lfft,xf);axis([0 0.5 0 1]); gridtext(.25, .75,'Fréquence')subplot(212);grid%recherche des fréquencefor ii=1:P[mm im]=max(xf);fs=(im-1)/Lfft;u1=max(1,im-deltaf);u2=min(Lfft/2,im+deltaf);nb=u2-u1+1; xf(u1:u2)=zeros(1,nb);hold on; plot(fs,mm,'o'); hold offaxis([0 0.5 0 1])text(fs+0.01, mm, sprintf('% .3g', fs))endFigure II.31: estimation des fréquences de résonanceIl reste à juger de l’effet du nombre des échantillons sur l’estimation des coefficients AR oudes fréquences de résonance. On considère alors par exemple un nombre croissantd’échantillons, de 50 à 2000 par pas de 50. Si l’on souhaite estimer correctement cesparamètres, il faut clairement plus de 2000 échantillons avec la méthode d’autocorrélation,contrairement à la méthode covariance qui peut se contenter de quelques centaines.103


II.9.5.4 Algorithme de Durbin-LevinsonUne étude détaillée de cet algorithme est nécessaire car il relève des propriétésfondamentales des processus AR, il permet d’introduire des coefficients qui ont despropriétés intéressantes, et les filtres en treillis qui sont largement utilisés dans la pratique.Les équations normales explicitées plus haut possèdent une structure particulière.L’algorithme de Durbin-Levinson est une méthode de résolution qui utilise les propriétés deToeplitz symétrique de la matrice d’autocorrélation :(2.30)L’algorithme de Durbin-Levinson est un algorithme récurrent sur l’ordre, à savoir que l’onsuppose l’équation résolue pour un problème de complexité et l’on cherche lesinconnues du problème de rang n. Soit donc la relation, supposée résolue :(2.31)Une des raisons qui rend de prime à bord ce genre d’algorithme hermétique est celui desnotations. Il s’agit effectivement de distinguer, d’une part les indices des éléments desvecteurs, et d’autre part le rang de la résolution auquel ce vecteur appartient. Par ailleurs, unetransformation, correspondant à inverser l’ordre des composantes d’un vecteur barrécorrespondra à cette opération. Le tableau regroupe ces différentes notations.L’opération d’inversion des composantes d’un vecteur peut s’exprimer algébriquement par lamatrice unitaire anti-diagonale :notation taille Nature de l’objet(n, 1)Vecteur des inconnues à l’itération n(n-1,1)(1,1)(n-1,1)(n-1) premières composantes du vecteurnème composante du vecteurVecteur renversé deTableau 4: Notation adoptées pour l'algorithme de Durbin Levinson103


soit donc (2.32)Cette matrice commute avec toute matrice symétrique et vérifie la propriété usuelle dessymétries, à savoir que. On retrouve alors des équations normales identiques auxprécédentes portant sur les variables ainsi modifiées.(2.33)La relation au rang n peut s’exprimer par bloc suivant :avec , etLe vecteurde coefficients d’autocorrélation s’étend naturellement par l’adjonction ducoefficient , en revanche le vecteur des coefficients autorégressifs à l’ordre n, , n’a pasde raison a priori d’avoir sesprécédemment estimétrouve :premières composantes identiques à celles du vecteur. En développant par bloc l’équation matricielle à l’ordre n, on(2.34)Multiplier la première équation de ce système parpermet d’exhiber les résultats deséquations normales inversées, au rang n-1 :(2.35)On obtient ainsi la première récurrence :(I) (2.36)103


Si l’on utilise cette nouvelle définition dedans la seconde équation du système, onobtient:(2.37)Soit, la seconde relation de récurrence :(II) (2.38)On pourrait s’en tenir là et utiliser les deux relations de récurrence (I) et (II), mais plutôt quede recalculer à chaque itération le produit scalaire .En utilisant la première équation de récurrence (I), on trouve :(2.39)(2.39)’La dernière égalité provient d’une simple identification entre le nième coefficient de réflexionet la dernière coordonnée. Nous admettrons cela pour le moment, les coefficients deréflexion étant eux-mêmes définis lors de la conception du filtre en treillis.(2.40)La figure II.32 récapitule toutes les différentes étapes de cet algorithme. L’algorithme serainitialisé avec les valeurs suivantes afin d’éviter toute singularité initiale :(2.41)Retenons enfin ce petit schéma représentant la logique de progression de l’algorithme, faisantintervenir les coefficients de réflexion au fur et à mesure que les itérations sur l’ordreprogressent.103


Récursion sur l’ordreFigure II.32: Schéma de calcul des paramètres AR : l'algorithme de Durbin-LevinsonEstimationdu dernierélémentEstimation des npremiersélémentsFigure II.33: Algorithme de Durbin-LevinsonL’algorithme de Durbin-Levinson permet d’obtenir tous les coefficientsminimisant lavariance de l’erreur de prédiction à tous les ordres.II.9.5.5 Filtre en treillisL’estimé à l’instant d’un filtre autorégressif d’ordre vaut ,l’innovation est définie par la grandeurle schéma bloc de la figure :. Le filtre peut donc être représenté par103


Ce schéma peut être repris en faisant apparaître un filtre à rebours, ou encore arrière paropposition au filtre précédent que l’on nomme filtre avant. Ce filtre estime la grandeur àl’instant en fonction des échantillons futurs, pris aux instants à .L’estimée s’exprime alors selon l’expression suivante, elle sera notée avec une barre commedans la logique du paragraphe précédent.Figure II.34: Schéma bloc du filtre avant(2.42)En effet, que l’on considère le signal en prenant les échantillons dans le sens causal, lesparamètres de la modélisation restent inchangés. On parle ainsi de prédiction arrière,l’innovation arrière prend donc la forme attendue :(2.43)On peut de même tracer le filtre arrière sous la forme d’un schéma bloc. Le but des calculs quivont suivre est d’exprimer des relations de récurrence entre les innovations avant et arrièreafin d’exprimer toute la puissance du filtre en treillis. Des filtres d’ordre différents vont êtreintroduits dans cette construction, aussi est-il nécessaire d’adopter une notation adéquate(comme pour l’algorithme de Durbin-Levinson). Jusqu’ici l’estimée à l’ordre p et à l’instant kétait symbolisée par :où (2.44)103


Figure II.35: Schéma bloc du filtre arrièreA présent, une notation en exposant permettra de signaler explicitement l’ordre du filtre AR.Soit, à l’ordre n :où (2.45)De même pour le filtre arrière on retrouve une relation duale de la précédente(2.46)On retrouve alors le même principe, vu dans l’algorithme de Durbin-Levinson, de coupagepar bloc afin d’exprimer la récurrence entre l’ordre n et l’ordre . Soit:(2.47)Il suffit à présent d’utiliser la première relation de récurrence de l’algorithme de Durbin-Levinson (I), ce qui donne :Cette relation entre les trois estiméespeut se schématiser comme l’indique la figure. Ontrouve donc la première récurrence appelée Récurrence Avant entre les innovations :(2.48)103


Figure II.36: Structure avant entre les estimées avantet arrièreOn peut de la même façon trouver la récurrence arrière. Les calculs se déroulent de manièretout à fait symétrique.(2.49)Toujours en utilisant la relation (I) de l’algorithme de Durbin-Levinson, que l’on aurapréalablement « renversée » selon (I), on trouve :(2.50)(2.51)En effet, on préfère retenir la relation de récurrence à l’instant afin de retrouver desindices semblables pour les deux récurrences. Soit la récurrence Arrière sur les innovations.(2.52)Ces deux relations de récurrence peuvent alors se mettre sous forme du schéma qui représentedéjà une cellule élémentaire du filtre en treillis. On obtient ainsi la structure du filtre quipermet de calculer de concert les innovations avant et arrière. Ce filtre est modulaire, ainsi sil’on passe d’un ordre donné à un ordre supérieur il suffit de rajouter une cellule avec unnouveau coefficient de réflexion sans changer ceux qui existaient déjà.103


Figure II.37: Structure arrière entre les estimées avant et arrièreFigure II.38: Cellule élémentaire du filtre en treillisLes deux relations de récurrence avant et arrière sont donc les suivantes :(2.53)On note plus simplement les innovations progressives (forward) et rétrogrades (backward)selon :(2.54)Aussi les deux relations de récurrence peuvent se reprendre sous la forme simplifiée suivante :(2.55)Ceci permet de représenter l’ensemble du filtre en treillis sous sa forme usuelle. Le graphesuivant donne une allure globale d’un filtre en treillis.103


Figure II.39: filtre en treillisII.9.5.6 Estimation des coefficients de réflexionII.9.5.6.1 Méthodes génériquesLes coefficients de réflexion sont obtenus, selon la logique de la représentation entreillis, par la minimisation, au niveau de chaque celluleo soit des erreurs progressives :o soit des erreurs rétrogrades :o soit d’une fonction des deux erreursLe coût est alors minimisé par rapport à chaque coefficient de réflexion, ce qui nous fournitpour chaque cellule le coefficient optimal à utiliser. Nous allons présenter quatre méthodesusuelles d’optimisation dont la plus utilisée est la dernière, celle de Burg.- Méthode ForwardCette méthode préconise de minimiser la variance des erreurs progressives. Si l’on utilise lapremière équation de récurrence trouvée auparavant, il vient naturellement :(2.56)Minimiser ce coût par rapport au nième coefficient de réflexion nous donne, pour la cellule n :103


(2.57)On trouve sous cette logique les méthodes de covariance et d’autocorrélation expriméeslocalement.- Méthode BackwardParallèlement, on peut minimiser les erreurs rétrogrades et aboutir à un résultat similaire :(2.58)L’inconvénient majeur de ces deux méthodes est qu’elles n’assurent pas des coefficients deréflexion inférieurs, en module, à l’unité. Cette condition est nécessaire pour assurer lastabilité du filtre. Nous allons présenter deux méthodes qui pallient ce défaut en combinant leserreurs progressives et rétrogrades. La première est celle d’Itakura qui utilise directement lesdeux expressions des coefficients de réflexion précédentes. Elle n’est pas reliée à laminimisation effective d’un critère. On lui préfère alors la méthode de Burg qui est issue de laminimisation d’une grandeur tangible et, qui plus est, fournit des coefficients plus faibles (envaleur absolue), d’où un filtre plus stable.- Méthode d’ItakuraOu Méthode de la moyenne géométrique. Itakura a proposé de prendre comme coefficient deréflexion la moyenne géométrique des deux résultats précédents (forward et backard). Lecoefficient obtenu est alors :Soit donc le coefficient suivant :(2.59)Ce coefficient permet d’assurer que l’on ait la stabilité du filtre, soit: .103


- Méthode de BurgOu Méthode de la moyenne harmonique. Burg proposa de minimiser la moyenne arithmétiquedes variances des erreurs progressives et rétrogrades, le coût concerné est donc :. Sa minimisation aboutit au coefficient suivant :(2.60)On peut montrer que le coefficient de Burg est de module inférieur à celui d’Itakura, la stabilité du filtre est alors d’autant mieux vérifiée. Ce coefficient n’estpar ailleurs ni plus ni moins que la moyenne harmonique des coefficients des méthodesforward et backard (d’où son appellation).(2.61)II.9.5.6.2 Algorithme de Leroux-GueguenDans la pratique, on utilise rarement l’algorithme de Levinson. On préfère utiliserl’algorithme de Leroux-Gueguen. On va donc reprendre l’algorithme de Durbin-Levinson.(2.62)Les coefficients de régression n’interviennent explicitement que dans l’expression de .Aussi cherche-t-on à réexprimer ce terme. Si l’on reprend l’expression de l’innovation avantdu modèle d’ordre n :103


(2.63)Si l’on calcule à présent la corrélation entre cette innovation et chaque observée, ontrouve un terme de corrélation, que nous noterons .(2.64)Tous les sont nuls pour puisque l’innovation est orthogonale à la tranche dupassé . En remontant d’un pas de plus dans le passé :(2.65)Et donc, le coefficient de réflexion peut donc s’exprimer en fonction de cenouveau paramètre.(2.66)Le numérateur du coefficient de réflexion s’interprète comme la corrélation entre l’innovationavant du modèle d’ordre n (à l’instant k) et l’échantillon précédent la plage d’observationd’ordre n (qui a servi à faire la prédiction de l’instant courant).Il convient alors de trouver une récurrence sur ces coefficients, afin de ne conserver queces deux grandeurs dans l’algorithme :(2.67)Le coefficient peut alors s’exprimer selon :(2.68)Soit :103


(2.79)La prédiction à un pas étant toujours définie selon : où est la tranched’observation d’horizon commençant à l’instant . Ce critère s’exprime alors selon :Après calcul, on trouve un critère qui s’exprime selon :(2.80)(2.81)Où est le vecteur des premier coefficient de corrélation ( est excepté) et est lamatrice de corrélation d’ordreque l’on retrouve dans les équations de Yule-Walker. Lecalcul du gradient de ce critère vient directement selon :(2.82)Remarquons que si l’on annule ce gradient, on retrouve les équations de Yule-Walker. Danscette approche, on va utiliser ce gradient pour se diriger vers le minimum du critère selonl’expression suivante :(2.83)La réactualisation des coefficients autorégressifs par la méthode du LMS s’exprime alorssimplement par (2.86). Elle ne fait intervenir que lespremiers coefficients de corrélation.(2.84)programmation sous MATLAB pour simuler l’algorithme du gradient de la figure II.40 :% valeur propresrxy=R*gw;lambda=[1 0.01 0.0001];mu=1/2; N=100000;nlambda=length(lambda);d2g=zeros(N,1); gn=zeros(nlambda,1);R=diag(lambda);for n=1:Ngw=ones(nlambda,1);gn=gn+mu*(rxy-R*gn);103


d2g(n)=(gn-gw)'*(gn-gw);endsemilogx(d2g);gridFigure II.40: Evolution de l’écart entre vraie valeur et valeur obtenueII.9.6.1.2 Algorithme du gradient stochastiqueEn pratique, les coefficients de corrélation ne sont pas connus. Deux approches sontalors envisageables. Soit on décide d’estimer de manière récursive ces coefficients, au fur et àmesure que les observées se présentent, soit on utilise une approche stochastique. La dernièreétant le moins gourmande en calcul, elle est la plus souvent utilisée. On remplace donc lamoyenne d’ensemble par la réalisation aléatoire courante, dans l’expression du critère.Comme l’on montre aisément que, on utilise alors la procédure deremise à jour des paramètres autorégressifs selon :(2.85)Le fait d’avoir remplacé le comportement moyen du variable aléatoire par une réalisationparticulière rend l’algorithme sujet à des explosions « ponctuelles ». Ceci se produitnotamment lorsque l’erreur de prédiction est particulièrement importante. Les équationsdu LMS se résument selon :(2.86)103


II.9.6.1.3 Choix duLe facteurest un paramètre important de l’algorithme. Son choix reste unedifficulté et correspond à un compromis. En effet, on espère converger rapidement tout enévitant, autant que faire se peut, les explosions de cet algorithme et la variance résiduelle,lorsqu’on a atteint la convergence. Nous verrons qu’un problème de biais apparaît de surcroît.Une borne supérieure théorique est fournie par la relation :(2.87)Avec toujours la matrice de corrélation de rang . Donc compte tenu ducaractère Toeplitz symétrique de cette matrice. Dans le cadre d’un d’ordre 2, on peutexprimer cette borne supérieure à l’aide des paramètres autorégressifs et de la variance dusignal d’entrée selon :(2.88)En pratique, lorsque l’on utilise l’algorithme du gradient stochastique, on doit minimiser cetteborne et l’on utilise typiquement un diminué d’un facteur selon :avec typiquementII.9.6.2 Moindres Carrés RécursifsLe problème d’estimation paramétrique au sens des moindres carrés recouvre unegrande partie des estimations qui sont menées en pratique. Nous envisagerons essentiellementle cas linéaire dans la mesure où nous allons l’appliquer au modèle AR, par essence linéaire.103


II.9.6.2.1 Principe des moindres carrésSupposons génériquement qu’une grandeurpar l’intermédiaire des grandeurssoit fonction linéaire des paramètres. Nous exprimerons classiquement lasomme , par la relation vectorielle :(2.89)Où h etsont les deux vecteurs regroupant les différents éléments présentés précédemmentet. Si l’on s’en tient à cette seule relation, l’unicité de lasolution de l’équation en n’est pas vérifiée. Pour ce faire on augmente le nombred’observations (à des instants successifs ou pour des positions de capteurs différentes, parexemple). On se ramène ainsi au système d’équations linéaires :(2.90)Ce système est habituellement regroupé en une seule équation matricielleoù lamatrice H est définie clairement suivant :(2.91)Dans la mesure où les inconnues ne sont pas supposées pour l’instant aléatoire, tout leproblème réside dans la résolution d’un système linéaire. Si l’on a autant d’inconnues qued’équations, on trouve la relation triviale (sous l’hypothèse que la matrice H est inversible) :(2.92)On prendra garde que cette inversion n’est bien souvent que formelle et résulte d’algorithmesqui permettent de s’extraire du calcul explicite de la matrice inverse. On préfère bien souventpasser par des décompositions afin d’aboutir à des systèmes aisément solubles. On songera103


toujours à privilégier ce type d’approche plutôt qu’à chercher l’expression de la matriceinverse (sauf pour des cas où l’expression formelle nous intéresse ou dans des cas triviaux).Si en revanche le système est surdéterminé (m>n), on ne peut trouver de solutions quipuissent vérifier toutes les équations (en supposant la matrice H de rang plein). On va doncrechercher la solution qui permet de minimiser l’erreur quadratique cumulée de chaqueéquation. Le critère que l’on doit alors utiliser est directement :La minimisation de ce critère peut se faire sous sa forme vectorielle. On trouve :(2.93)Ce qui nous fournit la solution :(2.94)(2.95)Comme précédemment l’inversion matricielle qui apparaît n’est convenablement que dans lamesure où la matrice n’est pas singulière. On peut dans un premier temps adopter laformulation classique de la pseudo inverse. Cette technique consiste à ne retenirque les valeurs propres supérieures à un certain seuil. Au-delà de cette technique primaireexistent des méthodes dites de régularisation (que l’on retrouve dans la problématique desproblèmes inverses).On passe de l’approche précédente à l’estimation au sens des moindres carrés sans difficulté.En effet l’estimation selon les moindres carrés est un cas particulier de décision, avec uncritère de distance. Cette estimation concerne un paramètre non aléatoire, connu au traversd’une relation faisant intervenir une matrice H déterministe et une variable aléatoire(vectorielle ici) dont on connaît les deux premiers moments (nous verrons plus loin leurutilité). On a donc une observation dite « linéaire non homogène ».(2.968)Ceci peut être compromis comme une application pour laquelle les mesures sont reliées auxinconnues (déterministes) par une relation linéaire (effet du système de mesure) à laquellevient se rajouter un bruit aléatoire. Ce bruit regroupe bien souvent différemment les103


incertitudes que l’on a sur les mesures comme sur le modèle utilisé (regroupant le système demesure comme le modèle du phénomène physique étudié). Si la première erreur peutlégitimement être représentée par une grandeur additive gaussienne (on se limite aux deuxpremiers moments), la second est bien plus complexe. Il est certainement réducteur del’assimiler ainsi à la première. Pourtant, faute de pouvoir établir la relation à adopterconcernant cette dernière incertitude, on se limite à la relation précédente.Le critère des moindres carrés s’exprime alors comme la distance quadratique entre lesobservées et le comportement moyen du modèle pour une certaine valeur des paramètres.(2.97)L’espérance mathématique qui rentre en jeu dans ce coût est connue et vaut (pour le modèlelinéaire non homogène). Nous supposerons le bruit centré (premiermoment nul), on retrouve dans ces conditions le coût mentionné plus haut :L’estimation des paramètres au sens des moindres carrés vient donc selon l’expressionclassique.(2.98)Le calcul du biaisde cet estimateur nous donne zéro dans la mesure où les hypothèsesposées au départ sont exactes. On trouve en effet :(2.99)Soit encore :(2.99)'Si le bruit est bien décorrélé de la matrice de passage H, on peut écrire que, on a donc un estimateur non biaisé si le bruit est bien demoyenne nulle. Si la matrice représentant le système de mesure est en fait aléatoire et corréléeavec le bruit de mesure, l’estimateur est biaisé. Retenons qu’il existe cependant des méthodes103


comme les moindres carrés généralisés, ou la méthode de la matrice instrumentale, qui permetd’obtenir dans ce cas un estimateur non biaisé.L’exemple suivant met en œuvre l’algorithme des moindres carrés récursif pour estimer uneréponse impulsionnelle donnée.Programmation sous MATLAB de la figure II.41clearRSB=10; % rapport signal sur bruith0=[1;-5/2;1];P=length(h0);N=200;x=randn(N,1);sigmab=10^(-RSB/20);% sortie sans bruityssb=filter(h0,1,x);% sortie bruiteey=yssb+sigmab*randn(N,1);% algorithme RLSQn=10^7*eye(P);hn=zeros(P,1); xnp1=zeros(P,1);for k=P:Nxnp1(:)=x(k:-1:k-P+1);Qnh=Qn*xnp1;cc=1+xnp1'*Qnh;Kn=Qnh/cc;en(k)=(y(k)-xnp1'*hn); hn=hn+Kn*en(k);dh(k-P+1)=(hn-h0)'*(hn-h0);Qn=Qn-(Qnh*xnp1'*Qn/cc);endplot(10*log10(dh)); grid% limite théoriquelimT=10*log10(P/N)-RSB;hold on; plot([0 N-P+1],[limT limT]);Figure II.41: algorithme des moindres carrés récursifsII.9.6.2.2 Moindres Carrés PondérésUne version plus générale des moindres carrés consiste à choisir une distance plusgénérale qui fait intervenir des poids différents à chacune des erreurs. Le critère des moindrescarrés pondérés (MCP ou WLS) s’exprime alors sous la forme :(2.100)103


La matriceest dite matrice de pondération, elle est par construction symétrique etdéfinie positive (elle est choisie strictement positive pour des raisons évidentes). Un exemplede matrice est de choisir une matrice diagonale telle que (l’opérateurdiag transforme un vecteur en une matrice diagonale dont les éléments sont ceux du vecteur).L’estimation au sens des moindres carrés pondérés, sous les hypothèses du modèle linéairenon homogène est alors :(2.101)Cette pondération peut être vue comme le souhait d’accorder plus d’importance à certainesmesures plutôt qu’à d’autres. Les quatre exemples classiques rencontrés sont ceux du coûtrelatif, du coût avec facteur d’oubli, du coût d’identification préférentielle et de l’estimateur àvariance minimale. Ce dernier est certainement le plus important, et il est à différencier destrois précédents qui procèdent davantage de l’analyse numérique plutôt que d’une analysestatistique.- Coût relatifLorsqu’on désire minimiser un critère non plus absolu mais relatif, la matrice de pondérationvient naturellement comme étant . Le coût est donc le suivant :(2.102)-Facteur d’oubliDans une séquence temporelle, les différentes mesurescorrespondent à une entité prise àdes instants successifs. Si l’on a mesures, on peut écrire qu’à l’instant le vecteur estformé par. Si l’on souhaite « oublier » les anciennes mesures et s’attacherdavantage aux plus récentes, on choisit usuellement de donner à la diagonale de la matrice depondération la forme d’une suite géométrique :103


avec le facteur d’oubli (2.103)On trouve cette logique dans les algorithmes de suivi de paramètres où il ne faut pas mettresur le même plan de mesures anciennes qui risquent de correspondre à un modèle périmé duphénomène étudié (dans la mesure où il peut évoluer).Programmation sous MATLAB de la figure II.42clear; N=4000; alpha=0.2;yn=randn(N,1);bb=[1 0.3 -0.1 0.2];xn=filter(bb,1,yn);% mise en oeuvre du LMS%pour mu=0.05mu=0.05; P=20; gn=zeros(P,1);en=zeros(N,1);for n=P:Nen0=xn(n)-gn'*yn(n:-1:n-P+1);gn=gn+mu*en0*yn(n:-1:n-P+1);en(n)=(1-alpha)*en(n-1)+alpha*abs(en0)^2;end% affichage des résultatssubplot(2,1,1);plot(10*log10(en(P+1:N)));set(gca,'xlim',[0 3000]); title(‘mu=0.05’);grid on%pour mu=0.02mu=0.02; P=20; gn=zeros(P,1);en=zeros(N,1);for n=P:Nen0=xn(n)-gn'*yn(n:-1:n-P+1);gn=gn+mu*en0*yn(n:-1:n-P+1);en(n)=(1-alpha)*en(n-1)+alpha*abs(en0)^2;end% affichage des résultatssubplot(2,2,2);plot(10*log10(en(P+1:N)));set(gca,'xlim)',[0 3000]); title(‘mu=0.02’)grid onFigureII. 42: algorithme LMS: évolution de l'écart quadratique en fonction du103


-Identification sélectiveUn exemple typique est celui qu’on rencontre lorsque l’on veut « filtrer » des pointsexpérimentaux, à partir d’un modèle donné. On peut vouloir privilégier certaines zones danslesquelles se situe une information pertinente pour l’étude en cours. Ceci peut se faire alors àl’aide de poids disposés sur la diagonalequi reflètent cespréférences.-Moindre carré à variance minimaleOn demande à un estimateur, outre d’être non biaisé, d’avoir une variance minimale (pour unegrandeur scalaire) ou d’avoir une matrice de covariance de trace minimale. On peut doncpenser que la seule pondération qu’il est raisonnable de choisir dans un cadre statistiqued’estimation est celle qui optimise ce critère. Il faut différencier toutefois l’approchestatistique qui cherche à optimiser les performances de l’estimateur en tant que grandeurstatistique, et une approche plus déterministe comme dans les exemples précédents depondération. Si l’on cherche à minimiser la variance de l’estimateur on doit minimiser :(2.104)Si l’on remplace l’estimateur après son expression, pour une matrice de pondérationquelconque, on trouve :(2.105)L’espérance mathématique ne porte finalement que sur la seule variable aléatoire , d’où :(2.106)Cette matrice est de trace minimale pour la matrice de pondération. Le résultatessentiel reste queet que pour une telle pondération on trouvel’estimateur :103


(2.107)On définit parallèlement le filtre « blanchisseur » par la matrice. En effet, lesobservations filtréespeuvent être alors traitées par une méthode des moindrescarrés non pondérés. Ce filtre utilise donc les caractéristiques statistiques du second ordre dubruit pour faire en sorte que les nouvelles mesures soient entachées d’un bruit blancfactice.II.9.6.2.3 Algorithme des moindres carrés récursifs (RLS)La méthode des moindres carrés permet de traiter d’emblée une tranche d’observation.Il convient à présent de faire intervenir, de manière explicite, le temps. Ceci se fait dans lecadre de la réactualisation des paramètres lorsque surviennent de nouvelles observées. Lalogique de l’algorithme des moindres carrés récursifs (MCR ou RLS) consiste donc àintroduire dans les paramètres précédemment estimés l’information qu’apporte une nouvelleobservée. L’application temps réel ou en ligne de cette méthode est alors immédiate. Soit uneestimation pour laquelle observés ont déjà été traitées : l’estimée des paramètres est alorsnotée . La donnée suivante est reliée aux paramètres par le vecteur detransfert . Les relations sous-jacentes sont alors :(2.108)Si l’on forme une équation des deux précédentes on aboutit à la relation matricielle par bloc(2.109)L’estimée au sens des moindres carrés est fournie selon :(2.110)103


On obtient alors la relation de réactualisation des paramètres :(2.111)Le termepeut être compris comme un « gain », on retrouve une formulation tout à faitcomparable dans l’algorithme de Kalman (qui peut être alors vu comme une versiongénéralisée des moindres carrés). Ce gain s’exprime ici selon l’équation :(2.112)La quantité se trouvant au dénominateur est bien un scalaire, l’utilisation des MCR nenécessite donc pour le moment que d’inverser la matrice. Cette inversion peut êtreévitée. On définit pour cela la matrice intermédiaireet l’on rechercheune relation de récurrence sur cette matrice. Ceci se fait en décomposant toujours par bloc àl’ordre supérieur et en recherchant à identifier les grandeurs à l’ordre inférieur. En utilisant ànouveau le lemme d’inversion matricielle, on peut développer cette relation. On retientfinalement la relation de récurrence sur .(2.113)Les équations des moindres carrés récursifs sont résumées sur la figure. Naturellement tousles calculs peuvent être repris avec une estimation pondérée des moindres carrés, on aboutit àl’algorithme des moindres carrés pondérés récursifs. Pour cela il suffit de remplacer ladéfinition de la matrice par l’expression . La matrice de pondération àl’instant est et le scalaire n’est rien d’autre que le coefficient depondération choisi pour la nouvelle mesure. Aussi a-t-on :et (2.114)103


-------------------------------------------------------------------------------------Figure II.43: Algorithme des Moindres Carrés RécursifsII.9.6.2.4 Exemples- MCR-recherche récursive de paramètres ARSoit pour exemple un signal synthétisé à partir d’un AR d’ordre 2. Les coefficientsetchoisis sont 1.8 et -0.9. L’utilisation d’un moindre carré récursif peut se justifier dans lamesure où l’on suppose que les échantillons surviennent en temps réel et qu’il est impératif defournir une estimation des paramètres AR « on-line ».Si l’on désire avoir une idée du comportement moyen de cet estimateur, on peut refairel’opération précédente pour de nombreuses réalisations du signal.- Intérêt du coefficient d’oubliReprenons l’exemple précédent avec un coefficient d’oubli . Différentes valeurs de cettegrandeur nous permettent de juger effectivement de son influence sur l’estimation.Si l’on choisit un très faible (0.85 est déjà « très » faible, en effet il faut songer que l’ontraite une suite géométrique …), on voit la variance de l’estimateur augmenter. Ceci estnaturel, en effet plus est petit, plus l’on ne rend en compte effectivement que peud’échantillons passés, la variance est donc plus forte.Un exemple plus probant de l’intérêt du facteur d’oubli se présente lorsque l’on utilise unsignal non stationnaire (donc pour lequel le modèle évolue). Soit un signal, purementsynthétique, constituer de la succession de trois signaux AR d’ordre 2. On pourrait penser103


comme application à la surveillance de composant, sujet au vieillissement, dont la bandepassante évolue. Le signal choisi est représenté sur la figure.coefficients200 pointsFréquencederésonance0.2 0.1 Passe-basFigure II.44: modèle du signal traité (3 signaux AR juxtaposés)Une réalisation de ce signal est donnée sur la figure. La figure fournit l’estimation descoefficients en fonction de la valeur de utilisée. Pour un on atteint déjà un oubliimportant. Si l’on ne prend pas de facteur d’oubli ( ), le suivi des paramètres estbeaucoup plus « lent ». En revanche, utiliser une faible pondération engendre des problèmesde stabilité. Il reste donc à choisir un bon compromis stabilité dynamique en fonction del’application.(2.115)- si les racines sont complexes conjuguées (soit donc les cas pour lesquels ). Lesracines peuvent être notées . On a donc les relations suivantes :(2.116)Le fait que les pôles soient situés dans le cercle unité pour respecter la stabilité du filtre induitles deux relations supplémentaires sur les paramètres AR, qui conduisent à la zone de stabilitéreprésentée par :(2.117)103


Les extremums du spectre se situent aux pulsations qui minimisent le dénominateur de la DSPqui peut se développer selon :(2.118)(2.118)’La première relation implique que le spectre présente des extremum locaux enet . La deuxième relation donne accès à deux nouvelles courbes qui délimitent leszones où l’on a une fréquence prépondérante différente de 0 ou . Cette fréquence derésonance vaut alors :(2.119)Cette partie porte principalement sur des densités spectrales de puissance. Il est surtoutindispensable pour les signaux d’origine physique. Contrairement aux signaux déterministes,les signaux d’origine physique sont imprévisibles, ses caractéristiques sont estimées(coefficients du filtre AR, fréquences de résonance), en prenant un nombre d’observations quileurs conviennent pour le mieux pour approcher la valeur exacte. Il est naturel de se poser laquestion du jugement des performances d’un estimateur spectral. Au delà des critères usuelsde biais et de variance, que l’on utilise pour tout estimateur, se posent des problèmesspécifiques en analyses spectrales. La notion de meilleur estimateur spectral n’a pas de sensdans l’absolu. D’une part parce qu’il n’existe pas de spectre de référence dans la plupart descas, mais surtout parce que l’optimalité d’un estimateur ne peut être énoncée que pourcertaines caractéristiques spectrales, comme : la fidélité aux raies spectrales, la fidélité auxraies spectrales, etc. Dans ce cas, chacun prend ce qu’il pense le mieux pour sa pratique.103


CONCLUSIONBref, le signal est le support physique de l’information, son analyse consiste à enextraire un petit nombre de valeurs caractéristiques pertinentes de l’information contenue. Laméthode du modèle AR ou du maximum d’entropie se formule simplement à partir deséquations de Yule Walker. La mise en œuvre de cette méthode conduit à de nombreusesvariantes.Dans cet ouvrage, nous avons étudié les signaux déterministes analogiques, satransformée de Fourier, son spectre et sa densité spectrale d’énergie (de puissance) puis nousavons présenté les filtres analogiques qui permettent de traiter ces signaux. Ensuite, nousavons entamé les traitements des signaux, ses spectres et les filtres qui permettent de lestraiter et de les reconstituer. Une réalisation sous MATLAB des signaux est présente dans cemémoire. Dans la deuxième partie, nous avons analysé l’estimation spectrale de modèleautorégressif. Dans le but d’atteindre une estimation sans avoir recours à des valeurserronées, nous avons étudié les équations de Yule Walker, l’algorithme de Durbin,l’algorithme de Leroux et du gradient stochastique ensuite cité différents estimateurs etcomparer ces estimateurs notamment la méthode de covariance, de corrélation, la méthode deBurg, la méthode des moindre carrés.Il n’est pas possible de donner une règle simple permettant de choisir entre cesdiverses techniques. Retenons comme critères de jugement la qualité de l’estimateur et lafacilité de mise en œuvre. Un problème important est celui du choix de l’ordre du filtre AR.Cette technique fait appel à des méthodes très anciennes des moindres carrés. Elle est peufiable en amplitude car celle-ci dépend des différents critères. Les méthodes les plussophistiquées, utilisant une matrice de covariance, nécessitent un temps de calcul assez long,mais permettent de surmonter certaines difficultés rencontrées avec des méthodes plussimples à mettre en œuvre ( matrice de corrélation et méthode de Burg). Elle localisecependant bien les maxima de la densité spectrale associée à des résonances. Enfin, il est clairque si l’on veut faire de l’analyse spectrale, on doit tenir compte des connaissances a priorique l’on peut avoir sur le signal et du but recherché dans l’analyse et adapter les méthodes àces données.103


ANNEXE ICompléments de mathématiqueDistance : on appelle métrique ou distance définie sur E, E ensemble quelconque, touteapplication d de dans , vérifiant les axiomes suivants :a) (axiome de séparation)b) (axiome de symétrie)c) (inégalité triangulaire)Suite de Cauchy : Toute suite d’éléments de E qui vérifie :est dit suite de Cauchy.Exemple : toute suite convergente est de Cauchy.Partie complète de E muni d’une distance d :On dit qu’une partie A d’un espace métrique (E, d) est complète si toute suite de Cauchydéfinie sur A est convergente dans A.Exemple : R et C munis de la distance naturelle sont complets.Série de FourierOn dit qu’une fonction est développable en série de Fourier si elle vérifie les relationssuivantes :-cette fonction est T-périodique de période .-elle est absolument dérivable sur un intervalle périodique (a, a+T) donc sur tout intervallefermé.103


ANNEXE IIRappels sur la transformée en zLa transformation en z est une adaptation de la transformée de Laplace par l’étude desréponses transitoires des systèmes numériques. La transformation en z est relative aux unitésnumériques. La transformation en z peut s’obtenir de la transformée de Laplace en effectuantde raisonnement suivant :-Soit la transformée de Laplace du signal échantillonné tel que :avecpériode d’échantillonnage.La transformer de Laplace s’écrit :La transformer de Laplace d’un signal échantillonné s’exprime alors comme une somme determe enPour exprimer la transformation en z, on effectuera simplement le changement devariable, où p est variable de Laplace, cette variable étant, en général, considéréecomme complexe par conséquent :1-propriètés-Linéarités-Théorème du retard temporelSoient 2 signaux discrets et tels que :, pour avec n positif.puisquesur les premiers échantillonsEn posant , il vient :103


Retarder un signal causal de n échantillons revient à multiplier sa transformation en z par.2- Produit de convolution3- Multiplication par4- Multiplication par5- Multiplication par6- transformation en z des signaux test :-Dirac-échelon7-Théorème de la valeur finale et de la valeur initiale.-Théorème de la valeur initiale-Théorème de la valeur finale103


ANNEXE III:RandFilterAngleFftSetHoldStemRandnRootsZplanePeriodogramPsdplotPcovPyulearRoundAtokgénère un signal aléatoirepermet de filtrer un signalangle d’un signalcalcule la transformée de Fourier discrètemet un texte sur un grapherassemble un seul graphe dans un plangraphe d’un signal échantillonnégénère des bruits blancscalcule les pôles d’un polynômegraphe des pôles et des zéroscalcule le périodogrammegraphe de la DSPestimation de la covarianceestimation de la corrélationarrondit une valeurpassage des paramètres de AR au coefficient Ki- Un périodogramme calcule une estimation paramétrique de paramètre d’un signal. Ceparamètre s’appelle densité spectrale de puissance.- Un estimateur de Bartlett est un estimateur utilisant le périodogramme mais utilisant unefenêtre triangulaire de Bartlett.103


BIBLIOGRAPHIE[1] J. Dupraz, Théorie du signal et Transmission de l’information, Eyrolles : Paris, 1989[2] B. Françoise, La modélisation des incertitudes : Probabilités.Signaux etCommunications statistiques, Edition Eyrolles : Paris, 1990[3] L. De Broglie, La Cybernétique : Théorie du signal et de l’information, Edition de larevue d’optique théorique et instrumentale : Paris, 1951[4] M. Najim, Modélisation et Identification en Traitement du signal, édition Masson,1988[5] J. P. Delmas, Elément de théorie du signal : les signaux déterministes, Ellipse/éditionMarketing SA, 1995[6] P. Destuynder et F. Santi, Analyse et contrôle numérique du signal, Ellipse EditionMarketing SA, 1995[7] S. Rakotomiraho, Théorie du signal, cours 3 ème Année, Dép. Tél-ESPA, AU : 2001-2002[8] M. Bellanger, Traitement numérique du signal Théorie et pratique, Masson 4 èmeÉdition, Paris : 1994[9] P. Lefevre, Théorie du signal, Ecole Supérieure D’électricité, Paris: 1967[10] G. Branchet et M. Charbit, Signaux et Images sous MATLAB, Collection HermèsSciences Europe Ltd : Paris, 2001[11] J. Dupraz, Probabilités Signaux Bruits, Eyrolles : Paris, 1983[12] J. Max, Méthodes et techniques de traitement du signal et applications aux mesuresphysiques, Tome 2, Masson 4 ème édition, Paris : 1987[13] G. Fleury, Analyse spectrale, Ellipes Edition Marketing SA, Paris:2001[14] G. Blanchet et M. Charbit, Traitement Numérique du Signal (simulation sousMATLAB), Edition Hermès : Paris, 1998[15] M. Kunt, Techniques modernes de traitement numérique des signaux, collectionélectricité 1 ère édition[16] A. Yger, Théorie et analyse du signal, Ellipses Edition Marketing SA, Paris:1999[17] B. Picinbono, Signaux aléatoires, Tome 1-2-3, Dunod, Paris : 1993, 1994, 1995[18] R.Falimanana, Analyse-Algèbre, cours 2 ème année, 200-2001103


Nom :Prénoms :INDRIAMIFIDIMANANAHerintsainaAdresse de l’auteur : -Logement II E 69 H Bis TsarahonenanaANTANANARIVO 101-CEG AmbondromisotraAMBATOFINANDRAHANA 307E-mail :iherintsaina@yahoo.frTitre :<strong>MODELE</strong> <strong>AUTOREGRESSIF</strong><strong>EN</strong> <strong>ANALYSE</strong> <strong>SPECTRALE</strong>Pagination : 101Tableaux : 3Graphiques : 44Rubrique :TélécommunicationsMots clés : signaux déterministes, signaux, signaux aléatoires, modèle AR, bruit, estimation,densité spectrale de puissance, prédiction, erreurDirecteur de mémoire : Monsieur RANDRIAMITANTSOA Paul AugusteE-mail : rpa@freenet.mg103


RESUME :Cet ouvrage présente l’analyse spectrale de modèle autorégressif. Onpourra y trouver des rappels sur les signaux déterministes tels que les signauxanalogiques, les traitements numériques des signaux et les filtrages. Ainsi quedes rappels sur les signaux aléatoires et ses caractéristiques. Sans oublier lenoyau de ce mémoire, la modélisation autorégressive, qui consiste à citer bonsnombres d’estimation AR et différents types d’algorithmes: la méthode de YuleWalker, l’estimation de covariance et d’autocorrélation, l’algorithme de DurbinLevinson, le filtre en treillis, la méthode de Burg, l’estimation spectrale utilisantla méthode des moindres carrés. Des réalisations sous MATLAB des graphessont aussi présentes dans cet ouvrage.Ce sujet est donc utilisé dans de nombreuses applications comme latélécommunication, l’astronomie, et toute forme de pratique qui utilise unetransmission d’information.………………………………………………………………………………….....SUMMARY:This work presents the spectral analysis of model autoregressive. One will beable to find some recalls there on the signals determinists as the analogicalsignals, the numeric treatments of the signals and filtering. As well as of therecalls on the uncertain signals and his/her/its features. Without forgetting thecore of this memory, the modelling autoregressive, that consists in mentioninggood numbers of AR evaluation and different types of algorithms: the method ofYule Walker, the evaluation of covariance and autocorrélation, the algorithm ofDurbin Levinson, the filter in lattice, the method of Burg, the spectral evaluationusing the method of the least squares. Some realization under MATLAB of thegraphs is as present in this work.103

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!