B k A +
B k A +
B k A +
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Expresión de la incertidumbre de medida: 2008 (Esp) Términos y conceptos estadísticos básicos<br />
cov( y,<br />
z)<br />
= cov( z,<br />
y)<br />
=<br />
= ∫∫ yz<br />
p<br />
∫∫( y − μ y )( z − μz<br />
) p(<br />
y,<br />
z)<br />
( y,<br />
z)<br />
dydz−<br />
μ y μz<br />
donde p(y,z) es la función de densidad de probabilidad conjunta de las dos variables y y z. La covarianza<br />
cov(y,z) [también expresada como ν(y,z)] puede estimarse mediante s(yi,zi) obtenida a partir de n pares<br />
independientes de observaciones simultáneas yi y zi de y y z,<br />
donde<br />
( y − y)(<br />
z z)<br />
1 n<br />
s(<br />
yi,<br />
zi)<br />
= ∑ i i −<br />
n −1<br />
j=<br />
1<br />
1 n<br />
y = ∑ y<br />
n i = 1<br />
NOTA La covarianza estimada de las dos medias y y z<br />
C.3.5 Matriz de covarianzas<br />
i<br />
y<br />
1 n<br />
z = ∑ z<br />
n i = 1<br />
, viene dada por ( y z)<br />
s(<br />
y z ) n<br />
s i i , , = .<br />
Para una distribución de probabilidad de varias variables, se denomina matriz de covarianzas a la matriz V<br />
cuyos elementos son igual a las varianzas y covarianzas de las variables. Los elementos de la diagonal,<br />
2<br />
2<br />
ν z, z ≡ σ z , o s z , z ≡ s z , son las varianzas, mientras que los elementos fuera de la<br />
( ) ( ) ( i i ) ( i )<br />
y,<br />
z , o s yi,<br />
zi<br />
ν son las covarianzas.<br />
diagonal, ( ) ( ),<br />
C.3.6 Coeficiente de correlación<br />
El coeficiente de correlación es una medida de la dependencia relativa mutua de dos variables, y es igual al<br />
cociente entre su covarianza y la raíz cuadrada positiva del producto de sus varianzas. Es decir,<br />
con las estimaciones<br />
r<br />
( yz , ) ( zy , )<br />
ν(<br />
yz , )<br />
( y, y) ( z, z)<br />
dydz<br />
JCGM © 2008 - Reservados todos los derechos 49<br />
i<br />
ν(<br />
yz , )<br />
( y) ( z)<br />
ρ = ρ = =<br />
ν ν σ σ<br />
( y z ) = r(<br />
z , y )<br />
s(<br />
yi<br />
, zi<br />
)<br />
( y , y ) s(<br />
z , z )<br />
i , i i i =<br />
=<br />
s i i i i s<br />
s(<br />
yi<br />
, zi<br />
)<br />
( y ) s(<br />
z )<br />
El coeficiente de correlación es un número entero tal que −1 ≤ ρ ≤ +1, o −1 ≤ r(yi, zi) ≤ +1.<br />
NOTA 1 Los coeficientes de correlación son normalmente más útiles que las covarianzas, debido a que ρ y r son números enteros<br />
comprendidos en el intervalo de −1 a +1, extremos incluidos, mientras que las covarianzas son frecuentemente magnitudes con<br />
dimensiones y órdenes de magnitud poco cómodos.<br />
NOTA 2 Para distribuciones de probabilidad de varias variables suele darse frecuentemente la matriz de coeficientes de correlación, en<br />
lugar de la matriz de covarianzas. Como ρ(y,y) = 1, y r(yi ,yi) = 1, los elementos de la diagonal de la matriz son iguales a la unidad.<br />
NOTA 3 Si las estimaciones de entrada xi y xj están correlacionadas (véase 5.2.2), y una variación δi en xi produce una variación δj en<br />
xj, el coeficiente de correlación asociado a xi y xj puede estimarse aproximadamente por<br />
( x , x ) ≈<br />
u(<br />
x ) δ / [ u(<br />
x ) ]<br />
r δ<br />
i<br />
j<br />
i<br />
j<br />
j<br />
i<br />
i<br />
i