30.06.2013 Views

Signaux aleatoires

Signaux aleatoires

Signaux aleatoires

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Page 6 Chapitre I. <strong>Signaux</strong> aléatoires<br />

X(t i ,ω), ainsi que toutes les interactions entre ces variables, et ceci ∀i. . . La connaissance à avoir est donc<br />

gigantesque, et le plus souvent inaccessible, et l’on devra se contenter d’une description partielle.<br />

1.2 Description partielle<br />

1.2.1 Description à un instant<br />

On dit que X(t,ω) est connu à un instant, si, ∀t 1 , on connaît la loi de la variable aléatoire X(t 1 ,ω). Celle-ci<br />

est simplement une variable aléatoire au sens habituel, que l’on peut en général (si ceux-ci existent et hors<br />

quelques cas de figures exceptionnels) caractériser à l’aide des moments.<br />

Moments : on notera<br />

m X (t 1 )=E X(t 1 ,ω) =<br />

.<br />

m (n)<br />

X (t1 )=E X(t1 ,ω) n =<br />

<br />

<br />

x 1 p X1 (x 1 )dx 1<br />

x n 1 p X1 (x 1 )dx 1<br />

Rappelons avec force que E {} désigne l’espérance mathématique, que l’intégrale est prise sur le domaine<br />

de variation de l’« amplitude » de X1 , c’est-à-dire de X(t,ω) considéré à l’instant fixé t1 . L’écriture<br />

<br />

E {X(t,ω)} = X(t)p(X(t,ω)dt,<br />

(trop) souvent rencontrée dans des copies, indique une incompréhension attristante et constitue une erreur<br />

impardonnable.<br />

1.2.2 Description à deux instants<br />

On dit que X(t,ω) est connu à deux instants, si, ∀t 1 ,t 2 , on connaît la loi conjointe des variables aléatoires<br />

X(t 1 ,ω) et X(t 2 ,ω) :<br />

p X1 ,X 2 (x 1 ,x 2 ) est connue ∀t 1 ,t 2 .<br />

La connaissance à deux instants nécessite donc de connaître le lien statistique entre X(t 1 ,ω) et X(t 2 ,ω).<br />

Notion de covariance :<br />

On appelle<br />

CX (t1 ,t2 )=E X(t1 )X(t2 ) ∗ <br />

=<br />

x 1 x ∗ 2 p X 1 ,X 2 (x 1 ,x 2 )dx 1 dx 2<br />

fonction de covariance. 1 Il s’agit dans le cas général d’une fonction bivariée qui permet de quantifier un certain<br />

« lien statistique » entre les variables aléatoires X 1 et X 2 . Dans la mesure où l’argument de l’espérance mathématique<br />

fait intervenir le produit de deux variables aléatoires, et est donc homogène à un « carré », on parlera<br />

de caractérisation à l’ordre 2.<br />

Remarque : En général, on ne peut pas exprimer la distribution conjointe p X1 ,X 2 (x 1 ,x 2 ) en fonction des distributions<br />

p X1 (x 1 ) et p X2 (x 2 ), sauf dans le cas où les variables sont indépendantes. On a alors<br />

et la fonction de covariance s’écrit simplement<br />

p X1 ,X 2 (x 1 ,x 2 )=p X1 (x 1 )p X2 (x 2 ),<br />

C X (t 1 ,t 2 )=E X(t 1 )X(t 2 ) ∗ = E X(t 1 ) E X(t 2 ) ∗ ,<br />

soit C X (t 1 ,t 2 )=m X (t 1 )m X (t 2 ) ∗ .<br />

Lorsqu’un tel signal est centré, c’est-à-dire de valeur moyenne nulle, alors C(t 1 ,t 2 )=0, pour t 1 = t 2 . Ce type<br />

de signal aléatoire est appelé bruit blanc (au sens strict).<br />

1 En toute rigueur, il faudrait réserver le terme de covariance à la formule précédente appliquée à des signaux centrés, pour lesquels<br />

on a alors simplement une extension de la notion de variance d’une variable à deux variables aléatoires. Il s’agit ici d’une fonction<br />

puisque ces deux variables dépendent respectivement de t 1 et t 2 . Lorsque les signaux ne sont pas centrés, on pourrait parler de moment<br />

d’ordre 2 croisé.<br />

(I.1)<br />

(I.2)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!