23.05.2014 Views

x - Fisica - Sapienza

x - Fisica - Sapienza

x - Fisica - Sapienza

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Si tratta di un numero avente le dimensioni [x 1 ][x 2 ]. Se la densità di probabilità congiunta é pari al<br />

prodotto delle probabilità di ciascuna variabile, cioè se, come si dice, la densità di probabilità<br />

congiunta si fattorizza:<br />

f ( x , x ) = f ( x ) f ( x )<br />

1 2<br />

1 1 2 2<br />

la covarianza sopra definita si annulla. Infatti,<br />

cov[ x , x<br />

b1<br />

∫ ( x<br />

a1<br />

1<br />

1<br />

2<br />

] =<br />

− E[<br />

x ]) f<br />

1<br />

b1<br />

b 2<br />

∫∫(<br />

x<br />

a1<br />

a 2<br />

1<br />

( x ) dx<br />

1<br />

1<br />

− E[<br />

x ])( x<br />

b 2<br />

∫ ( x<br />

1<br />

a 2<br />

1<br />

2<br />

2<br />

− E[<br />

x<br />

− E[<br />

x<br />

2<br />

]) f<br />

2<br />

2<br />

]) f<br />

( x<br />

2<br />

1<br />

( x ) f<br />

1<br />

) dx<br />

2<br />

2<br />

( x<br />

= 0<br />

2<br />

) dx dx<br />

essendo i 2 ultimi integrali ambedue nulli per la definizione di valore atteso.<br />

Quando la probabilità congiunta si esprime come prodotto delle probabilità singole, si dice che le 2<br />

variabili sono indipendenti. In caso contrario si dice che sono correlate. La covarianza é dunque una<br />

misura della correlazione tra le variabili, cioè di quanto la variazione dell’una incide sulla<br />

variazione dell’altra. Per tornare all’analogia con le probabilità viste sopra, il caso di indipendenza<br />

corrisponde all’essere<br />

P ( A ∩ B)<br />

= P(<br />

A/<br />

B)<br />

P(<br />

B)<br />

= P(<br />

A)<br />

P(<br />

B)<br />

.<br />

A partire dalla covarianza si introduce una quantità adimensionale detta coefficiente di correlazione:<br />

ρ[<br />

x , x ] =<br />

1<br />

2<br />

cov[ x , x ]<br />

1 2<br />

Var[<br />

x ] Var[<br />

x<br />

1<br />

2<br />

]<br />

che é come dire la covarianza normalizzata alle varianze. Si dimostra che il coefficiente di<br />

correlazione può assumere solo valori compresi tra –1 ed 1:<br />

−<br />

< ρ [ x , x ] < 1<br />

1<br />

1<br />

2<br />

quando vale 1 si dice che le due grandezze sono completamente correlate, quando vale –1 si dice<br />

che sono completamente anticorrelate. Il caso 0é il caso di non correlazione ovvero di indipendenza.<br />

Le definizione date per una generica popolazione delle 2 variabili x 1 ed x 2 , hanno evidentemente il<br />

corrispettivo campionario nelle variabili introdotte nel capitolo (1.6).<br />

(2.8.3) Calcolo di E[y] e Var[y]<br />

L’importanza di quanto visto nel paragrafo precedente risulta particolarmente evidente quando ci<br />

poniamo il problema della propagazione delle incertezze, cioè del problema cui abbiamo già<br />

accennato nel cap(1.9) di come l’incertezza su una variabile si propaga quando si calcola una<br />

funzione di questa variabile. Tale problema, nel linguaggio delle variabili casuali si traduce nel<br />

chiedersi: data le distribuzioni di x 1 e di x 2 , e dati in particolare i loro valori attesi E[x 1 ] ed E[x 2 ] e le<br />

loro varianze Var[x 1 ] e Var[x 2 ], quale é la distribuzione di y=y(x 1 ,x 2 ) ed in particolare quanto<br />

valgono E[y] e Var[y] ?<br />

Diamo qui i risultati senza dimostrazione. La dimostrazione fa uso dello sviluppo in serie di Taylor<br />

della funzione y intorno ai valori E[x 1 ] ed E[x 2 ] troncata al primo ordine. Pertanto risulta a rigore<br />

valida solo nel limite in cui i termini del secondo ordine sono trascurabili, ovvero nel limite in cui la<br />

funzione é approssimativamente lineare in un intervallo delle 2 variabili pari alle 2 deviazioni<br />

standard. Si ottiene (qualunque sia la forma delle funzione di distribuzione di x 1 e di x 2 ):<br />

E[<br />

y]<br />

= y(<br />

E[<br />

x ], E[<br />

x<br />

⎛ ∂y<br />

Var[<br />

y]<br />

= ⎜<br />

⎝ ∂x1<br />

E [ x1],<br />

E [ x<br />

⎛ ∂y<br />

⎞⎛<br />

∂y<br />

+ 2⎜<br />

⎟⎜<br />

x<br />

⎝ ∂ x<br />

1 E [ x1],<br />

E [ x 2 ] ⎠⎝<br />

∂<br />

2<br />

1<br />

2 ]<br />

2<br />

])<br />

2<br />

⎞ ⎛ ∂y<br />

⎟ Var[<br />

x ] ⎜<br />

1<br />

+<br />

⎠ ⎝ ∂x2<br />

⎞<br />

⎟ cov[ x , x<br />

1<br />

E [ x1],<br />

E [ x 2 ] ⎠<br />

2<br />

E [ x1],<br />

E [ x 2 ]<br />

]<br />

2<br />

⎞<br />

⎟ Var[<br />

x2<br />

⎠<br />

1<br />

] +<br />

2<br />

=<br />

83

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!