Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Si tratta di un numero avente le dimensioni [x 1 ][x 2 ]. Se la densità di probabilità congiunta é pari al<br />
prodotto delle probabilità di ciascuna variabile, cioè se, come si dice, la densità di probabilità<br />
congiunta si fattorizza:<br />
f ( x , x ) = f ( x ) f ( x )<br />
1 2<br />
1 1 2 2<br />
la covarianza sopra definita si annulla. Infatti,<br />
cov[ x , x<br />
b1<br />
∫ ( x<br />
a1<br />
1<br />
1<br />
2<br />
] =<br />
− E[<br />
x ]) f<br />
1<br />
b1<br />
b 2<br />
∫∫(<br />
x<br />
a1<br />
a 2<br />
1<br />
( x ) dx<br />
1<br />
1<br />
− E[<br />
x ])( x<br />
b 2<br />
∫ ( x<br />
1<br />
a 2<br />
1<br />
2<br />
2<br />
− E[<br />
x<br />
− E[<br />
x<br />
2<br />
]) f<br />
2<br />
2<br />
]) f<br />
( x<br />
2<br />
1<br />
( x ) f<br />
1<br />
) dx<br />
2<br />
2<br />
( x<br />
= 0<br />
2<br />
) dx dx<br />
essendo i 2 ultimi integrali ambedue nulli per la definizione di valore atteso.<br />
Quando la probabilità congiunta si esprime come prodotto delle probabilità singole, si dice che le 2<br />
variabili sono indipendenti. In caso contrario si dice che sono correlate. La covarianza é dunque una<br />
misura della correlazione tra le variabili, cioè di quanto la variazione dell’una incide sulla<br />
variazione dell’altra. Per tornare all’analogia con le probabilità viste sopra, il caso di indipendenza<br />
corrisponde all’essere<br />
P ( A ∩ B)<br />
= P(<br />
A/<br />
B)<br />
P(<br />
B)<br />
= P(<br />
A)<br />
P(<br />
B)<br />
.<br />
A partire dalla covarianza si introduce una quantità adimensionale detta coefficiente di correlazione:<br />
ρ[<br />
x , x ] =<br />
1<br />
2<br />
cov[ x , x ]<br />
1 2<br />
Var[<br />
x ] Var[<br />
x<br />
1<br />
2<br />
]<br />
che é come dire la covarianza normalizzata alle varianze. Si dimostra che il coefficiente di<br />
correlazione può assumere solo valori compresi tra –1 ed 1:<br />
−<br />
< ρ [ x , x ] < 1<br />
1<br />
1<br />
2<br />
quando vale 1 si dice che le due grandezze sono completamente correlate, quando vale –1 si dice<br />
che sono completamente anticorrelate. Il caso 0é il caso di non correlazione ovvero di indipendenza.<br />
Le definizione date per una generica popolazione delle 2 variabili x 1 ed x 2 , hanno evidentemente il<br />
corrispettivo campionario nelle variabili introdotte nel capitolo (1.6).<br />
(2.8.3) Calcolo di E[y] e Var[y]<br />
L’importanza di quanto visto nel paragrafo precedente risulta particolarmente evidente quando ci<br />
poniamo il problema della propagazione delle incertezze, cioè del problema cui abbiamo già<br />
accennato nel cap(1.9) di come l’incertezza su una variabile si propaga quando si calcola una<br />
funzione di questa variabile. Tale problema, nel linguaggio delle variabili casuali si traduce nel<br />
chiedersi: data le distribuzioni di x 1 e di x 2 , e dati in particolare i loro valori attesi E[x 1 ] ed E[x 2 ] e le<br />
loro varianze Var[x 1 ] e Var[x 2 ], quale é la distribuzione di y=y(x 1 ,x 2 ) ed in particolare quanto<br />
valgono E[y] e Var[y] ?<br />
Diamo qui i risultati senza dimostrazione. La dimostrazione fa uso dello sviluppo in serie di Taylor<br />
della funzione y intorno ai valori E[x 1 ] ed E[x 2 ] troncata al primo ordine. Pertanto risulta a rigore<br />
valida solo nel limite in cui i termini del secondo ordine sono trascurabili, ovvero nel limite in cui la<br />
funzione é approssimativamente lineare in un intervallo delle 2 variabili pari alle 2 deviazioni<br />
standard. Si ottiene (qualunque sia la forma delle funzione di distribuzione di x 1 e di x 2 ):<br />
E[<br />
y]<br />
= y(<br />
E[<br />
x ], E[<br />
x<br />
⎛ ∂y<br />
Var[<br />
y]<br />
= ⎜<br />
⎝ ∂x1<br />
E [ x1],<br />
E [ x<br />
⎛ ∂y<br />
⎞⎛<br />
∂y<br />
+ 2⎜<br />
⎟⎜<br />
x<br />
⎝ ∂ x<br />
1 E [ x1],<br />
E [ x 2 ] ⎠⎝<br />
∂<br />
2<br />
1<br />
2 ]<br />
2<br />
])<br />
2<br />
⎞ ⎛ ∂y<br />
⎟ Var[<br />
x ] ⎜<br />
1<br />
+<br />
⎠ ⎝ ∂x2<br />
⎞<br />
⎟ cov[ x , x<br />
1<br />
E [ x1],<br />
E [ x 2 ] ⎠<br />
2<br />
E [ x1],<br />
E [ x 2 ]<br />
]<br />
2<br />
⎞<br />
⎟ Var[<br />
x2<br />
⎠<br />
1<br />
] +<br />
2<br />
=<br />
83