30.06.2013 Views

Signaux aleatoires

Signaux aleatoires

Signaux aleatoires

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Page 10 Chapitre I. <strong>Signaux</strong> aléatoires<br />

où Xc désigne le signal centré : Xc = X − mX . On obtient finalement<br />

⎡<br />

⎤<br />

RX (0) RX (t2 −t1 ) ... RX (tk −t1 )<br />

⎢ RX (t1 −t2 ) RX (0) ... RX (tk −t2 ) ⎥<br />

R = ⎢<br />

⎣<br />

.<br />

.<br />

..<br />

⎥<br />

. ⎦<br />

RX (t1 −tk ) RX (t2 −tk ) ... RX (0)<br />

dans le cas stationnaire. Le terme m X est la moyenne du vecteur gaussien X(ω), etR est la matrice de corrélation.<br />

La distribution p(X(ω)) n’est autre que la distribution conjointe des k variables aléatoires X(t 1 ,ω),X(t 2 ,ω),...,X(t k ,ω)<br />

Par conséquent, si l’on connaît la moyenne m X (t) et la fonction de covariance C X (t 1 ,t 2 ), ou la moyenne m X et<br />

la fonction de corrélation R X (τ) du processus (dans le cas stationnaire), on est capable d’écrire la distribution<br />

conjointe, et ceci quelque soient les t i et pour n’importe quelle dimension k. Ainsi, dans le cas gaussien, la<br />

connaissance de la moyenne et de la fonction de covariance suffit à caractériser entièrement le processus.<br />

Une autre définition du processus gaussien est<br />

Définition 3 Le processus X(t,ω) est un processus gaussien si, quelque soit la fonction g(t),<br />

<br />

Z(ω)= g(t)X(t,ω)dt<br />

est une variable gaussienne.<br />

On peut déduire de cette définition une propriété fondamentale des processus gaussiens : le caractère gaussien<br />

se conserve par transformation linéaire. En d’autres termes, si l’entrée d’un filtre linéaire est gaussienne, alors<br />

la sortie du filtre est également gaussienne.<br />

Supposons donc que Y(t,ω) est la sortie d’un filtre de réponse impulsionnelle h(t) et d’entrée X(t,ω). Cette<br />

sortie s’exprime donc sous la forme du produit de convolution<br />

Y (t,ω)=(X ∗ h)(t,ω)=<br />

+∞<br />

À partir de la sortie Y(t,ω), on forme la variable aléatoire Z selon<br />

<br />

Z = g(t)Y (t,ω)dt.<br />

−∞<br />

h(t − τ)X(τ,ω)dτ.<br />

En écrivant Y(t,ω) en fonction de X(t,ω) et h(t), il vient alors<br />

+∞<br />

Z = g(t)h(t − τ)X(τ,ω)dtdτ,<br />

−∞<br />

et en intégrant par rapport à t et en posant alors<br />

il reste simplement<br />

w(τ)=<br />

<br />

Z =<br />

+∞<br />

−∞<br />

g(t)h(t − τ)dt,<br />

w(τ)X(τ,ω)dτ.<br />

Si X(τ,ω) est, par hypothèse, un signal aléatoire gaussien, alors Z est une variable gaussienne, par définition et<br />

d’après la relation précédente. Z ayant été introduit comme une transformation de Y(t,ω), avecg quelconque,<br />

on en déduit que Y (t,ω) est un processus aléatoire gaussien.<br />

Ainsi, puisque le filtrage d’un processus gaussien conserve le caractère gaussien, il nous restera à examiner<br />

comment se transforment la moyenne et la fonction de corrélation, ces deux quantités suffisant à décrire un<br />

processus gaussien stationnaire. Nous examinerons ces points dans quelques paragraphes.<br />

L’importance des signaux aléatoires gaussiens, outre leur facilité d’utilisation liée à la manipulation de<br />

seulement deux moments, provient également de l’importance quantitative des signaux gaussiens, liée au(x)<br />

théorèmes(s) central limite. Il existe en effet un certain nombre de théorèmes qui indiquent qu’un mélange de<br />

variables aléatoires, tend, lorsque le nombre de variables dans le mélange augmente, vers une distribution gaussienne.<br />

Ces théorèmes se distinguent par les hypothèses faites sur les lois des variables, leurs liens statistiques<br />

ou des hypothèses sur les conditions de mélange. Une formulation simple est la suivante :

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!