Signaux aleatoires
Signaux aleatoires
Signaux aleatoires
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Page 6 Chapitre I. <strong>Signaux</strong> aléatoires<br />
X(t i ,ω), ainsi que toutes les interactions entre ces variables, et ceci ∀i. . . La connaissance à avoir est donc<br />
gigantesque, et le plus souvent inaccessible, et l’on devra se contenter d’une description partielle.<br />
1.2 Description partielle<br />
1.2.1 Description à un instant<br />
On dit que X(t,ω) est connu à un instant, si, ∀t 1 , on connaît la loi de la variable aléatoire X(t 1 ,ω). Celle-ci<br />
est simplement une variable aléatoire au sens habituel, que l’on peut en général (si ceux-ci existent et hors<br />
quelques cas de figures exceptionnels) caractériser à l’aide des moments.<br />
Moments : on notera<br />
m X (t 1 )=E X(t 1 ,ω) =<br />
.<br />
m (n)<br />
X (t1 )=E X(t1 ,ω) n =<br />
<br />
<br />
x 1 p X1 (x 1 )dx 1<br />
x n 1 p X1 (x 1 )dx 1<br />
Rappelons avec force que E {} désigne l’espérance mathématique, que l’intégrale est prise sur le domaine<br />
de variation de l’« amplitude » de X1 , c’est-à-dire de X(t,ω) considéré à l’instant fixé t1 . L’écriture<br />
<br />
E {X(t,ω)} = X(t)p(X(t,ω)dt,<br />
(trop) souvent rencontrée dans des copies, indique une incompréhension attristante et constitue une erreur<br />
impardonnable.<br />
1.2.2 Description à deux instants<br />
On dit que X(t,ω) est connu à deux instants, si, ∀t 1 ,t 2 , on connaît la loi conjointe des variables aléatoires<br />
X(t 1 ,ω) et X(t 2 ,ω) :<br />
p X1 ,X 2 (x 1 ,x 2 ) est connue ∀t 1 ,t 2 .<br />
La connaissance à deux instants nécessite donc de connaître le lien statistique entre X(t 1 ,ω) et X(t 2 ,ω).<br />
Notion de covariance :<br />
On appelle<br />
CX (t1 ,t2 )=E X(t1 )X(t2 ) ∗ <br />
=<br />
x 1 x ∗ 2 p X 1 ,X 2 (x 1 ,x 2 )dx 1 dx 2<br />
fonction de covariance. 1 Il s’agit dans le cas général d’une fonction bivariée qui permet de quantifier un certain<br />
« lien statistique » entre les variables aléatoires X 1 et X 2 . Dans la mesure où l’argument de l’espérance mathématique<br />
fait intervenir le produit de deux variables aléatoires, et est donc homogène à un « carré », on parlera<br />
de caractérisation à l’ordre 2.<br />
Remarque : En général, on ne peut pas exprimer la distribution conjointe p X1 ,X 2 (x 1 ,x 2 ) en fonction des distributions<br />
p X1 (x 1 ) et p X2 (x 2 ), sauf dans le cas où les variables sont indépendantes. On a alors<br />
et la fonction de covariance s’écrit simplement<br />
p X1 ,X 2 (x 1 ,x 2 )=p X1 (x 1 )p X2 (x 2 ),<br />
C X (t 1 ,t 2 )=E X(t 1 )X(t 2 ) ∗ = E X(t 1 ) E X(t 2 ) ∗ ,<br />
soit C X (t 1 ,t 2 )=m X (t 1 )m X (t 2 ) ∗ .<br />
Lorsqu’un tel signal est centré, c’est-à-dire de valeur moyenne nulle, alors C(t 1 ,t 2 )=0, pour t 1 = t 2 . Ce type<br />
de signal aléatoire est appelé bruit blanc (au sens strict).<br />
1 En toute rigueur, il faudrait réserver le terme de covariance à la formule précédente appliquée à des signaux centrés, pour lesquels<br />
on a alors simplement une extension de la notion de variance d’une variable à deux variables aléatoires. Il s’agit ici d’une fonction<br />
puisque ces deux variables dépendent respectivement de t 1 et t 2 . Lorsque les signaux ne sont pas centrés, on pourrait parler de moment<br />
d’ordre 2 croisé.<br />
(I.1)<br />
(I.2)