Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Var [ y]<br />
= Var[<br />
x1]<br />
+ Var[<br />
x2]<br />
± 2 Var[<br />
x1<br />
] Var[<br />
x2]<br />
ovvero in termini di deviazioni standard<br />
( σ[<br />
x ] σ[<br />
]) 2<br />
σ ±<br />
2 2<br />
2<br />
[ y]<br />
= σ [ x1<br />
] + σ [ x2]<br />
± 2σ<br />
[ x1<br />
] σ[<br />
x2]<br />
=<br />
1<br />
x2<br />
Cioè: nel caso in cui le due variabili siano completamente correlate la deviazione standard della<br />
somma é pari alla somma delle deviazioni standard, si ritrova cioè il risultato della propagazione<br />
lineare (quella cosiddetta dell’errore massimo che qualcuno ha visto alle scuole superiori)<br />
σ [ y]<br />
= σ[<br />
x 1<br />
] + σ[<br />
x ]<br />
2<br />
Nel caso (c) completamente anticorrelato si ha invece<br />
σ[ y]<br />
= | σ[<br />
x 1<br />
] −σ[<br />
x ]|<br />
2<br />
risultato questo che dice che se le due sigma sono uguale la y é priva di varianza.<br />
I tre casi sono schematizzati nelle Fig. 2.18 2.19 e 2.20 che illustrano i tre casi (a) (b) e (c).<br />
Fig.2.18 Stesso grafico di correlazione tra 2 variabili non correlate (ρ=0.) aventi entrambi varianza unitaria, di Fig.1.11.<br />
Sotto é mostrato l’istogramma della somma delle 2 variabili. Si noti come la deviazione standard campionaria (RMS nel<br />
riquadro) sia prossima al valore √2 come atteso dalle considerazioni fatte.<br />
85