You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
(2.5.5) Momenti di una distribuzione<br />
Le caratteristiche di una funzione di distribuzione sono determinate dalla forma della distribuzione<br />
e dai parametri che la determinano. E’ molto interessante ed utile introdurre anche dei numeri che<br />
caratterizzano la distribuzione, cioè delle misure complessive della distribuzione. Si tratta<br />
dell’analogo di quanto visto per le frequenze nella prima parte del corso: dall’istogramma alle<br />
caratteristiche numeriche quali la media e la deviazione standard.<br />
Si definisce in generale Momento di ordine k intorno al valore n ~ (o x ~ nel caso di variabile<br />
continua) della distribuzione, la quantità:<br />
Μ<br />
( k )<br />
( n ~ ) =<br />
n2<br />
∑<br />
n=<br />
n1<br />
( n − n~ )<br />
k<br />
p(<br />
n)<br />
nel caso di distribuzione di variabile discreta e<br />
max<br />
( )<br />
Μ ( ~ x<br />
k<br />
= ∫ ( − ~ )<br />
k<br />
x ) x x f ( x)<br />
dx<br />
x min<br />
nel caso di distribuzione di variabile continua. Ogni momento é evidentemente un numero.<br />
Di particolare interesse sono i seguenti momenti:<br />
Valore atteso: si tratta del momento primo (k=1) intorno allo 0 ( ~ x = 0 ):<br />
n 2<br />
(1)<br />
Μ (0) = E [ n]<br />
= ∑ np(<br />
n)<br />
n=<br />
n1<br />
x max<br />
(1)<br />
Μ (0) = E[<br />
x]<br />
= ∫ xf ( x)<br />
dx<br />
x min<br />
il suo significato é quello di “valore centrale” o “valore medio” della distribuzione. In effetti nella<br />
corrispondenza istogramma-distribuzione che più volte abbiamo considerato, é strettamente legato<br />
alla media di un istogramma. Si noti che la definizione di valore atteso per una variabile discreta é<br />
esattamente la media fatta sull’istogramma (definita nel Cap.(1)).<br />
~ x = x ):<br />
Varianza: é il momento secondo (k=2) intorno al valore atteso ( E[<br />
]<br />
Μ<br />
Μ<br />
( 2 )<br />
( 2 )<br />
n 2<br />
2<br />
( E [ n])<br />
= Var[<br />
n]<br />
= ∑ ( n − E[<br />
n])<br />
p(<br />
n)<br />
( E[<br />
x])<br />
= Var[<br />
x]<br />
=<br />
n=<br />
n1<br />
x max<br />
∫ ( x − E[<br />
x])<br />
x min<br />
2<br />
f ( x)<br />
dx<br />
qui evidentemente l’analogia é con la nozione di deviazione standard campionaria, o meglio, con il<br />
suo quadrato. E’ utile anche scrivere la varianza usando il simbolo dell’operatore valore atteso:<br />
2<br />
2<br />
2<br />
Var[<br />
x]<br />
= E[(<br />
x − E[<br />
x])<br />
] = E[<br />
x − 2xE[<br />
x]<br />
+ ( E[<br />
x])<br />
] =<br />
2<br />
2<br />
2<br />
2<br />
2<br />
= E[<br />
x ] − 2( E[<br />
x])<br />
+ ( E[<br />
x])<br />
= E[<br />
x ] − ( E[<br />
x])<br />
Si definisce anche deviazione standard della popolazione (con che a questo punto chiameremo<br />
l’altra deviazione standard campionaria) la sua radice quadrata:<br />
σ [ x ] = Var[<br />
x]<br />
che si indica con la lettera sigma.<br />
Tra i momenti successivi di particolare interesse sono il momento terzo intorno al valore atteso<br />
detto skewness ed il momento quarto sempre intorno alla media, dal quale si ricava il cosiddetto<br />
kurtosys. In particolare, a partire da skewness e kurtosys si definiscono i 2 coefficienti<br />
rispettivamente di simmetria e di appiattimento :<br />
58