07.05.2013 Views

B k A +

B k A +

B k A +

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Expresión de la incertidumbre de medida: 2008 (Esp) Términos y conceptos estadísticos básicos<br />

cov( y,<br />

z)<br />

= cov( z,<br />

y)<br />

=<br />

= ∫∫ yz<br />

p<br />

∫∫( y − μ y )( z − μz<br />

) p(<br />

y,<br />

z)<br />

( y,<br />

z)<br />

dydz−<br />

μ y μz<br />

donde p(y,z) es la función de densidad de probabilidad conjunta de las dos variables y y z. La covarianza<br />

cov(y,z) [también expresada como ν(y,z)] puede estimarse mediante s(yi,zi) obtenida a partir de n pares<br />

independientes de observaciones simultáneas yi y zi de y y z,<br />

donde<br />

( y − y)(<br />

z z)<br />

1 n<br />

s(<br />

yi,<br />

zi)<br />

= ∑ i i −<br />

n −1<br />

j=<br />

1<br />

1 n<br />

y = ∑ y<br />

n i = 1<br />

NOTA La covarianza estimada de las dos medias y y z<br />

C.3.5 Matriz de covarianzas<br />

i<br />

y<br />

1 n<br />

z = ∑ z<br />

n i = 1<br />

, viene dada por ( y z)<br />

s(<br />

y z ) n<br />

s i i , , = .<br />

Para una distribución de probabilidad de varias variables, se denomina matriz de covarianzas a la matriz V<br />

cuyos elementos son igual a las varianzas y covarianzas de las variables. Los elementos de la diagonal,<br />

2<br />

2<br />

ν z, z ≡ σ z , o s z , z ≡ s z , son las varianzas, mientras que los elementos fuera de la<br />

( ) ( ) ( i i ) ( i )<br />

y,<br />

z , o s yi,<br />

zi<br />

ν son las covarianzas.<br />

diagonal, ( ) ( ),<br />

C.3.6 Coeficiente de correlación<br />

El coeficiente de correlación es una medida de la dependencia relativa mutua de dos variables, y es igual al<br />

cociente entre su covarianza y la raíz cuadrada positiva del producto de sus varianzas. Es decir,<br />

con las estimaciones<br />

r<br />

( yz , ) ( zy , )<br />

ν(<br />

yz , )<br />

( y, y) ( z, z)<br />

dydz<br />

JCGM © 2008 - Reservados todos los derechos 49<br />

i<br />

ν(<br />

yz , )<br />

( y) ( z)<br />

ρ = ρ = =<br />

ν ν σ σ<br />

( y z ) = r(<br />

z , y )<br />

s(<br />

yi<br />

, zi<br />

)<br />

( y , y ) s(<br />

z , z )<br />

i , i i i =<br />

=<br />

s i i i i s<br />

s(<br />

yi<br />

, zi<br />

)<br />

( y ) s(<br />

z )<br />

El coeficiente de correlación es un número entero tal que −1 ≤ ρ ≤ +1, o −1 ≤ r(yi, zi) ≤ +1.<br />

NOTA 1 Los coeficientes de correlación son normalmente más útiles que las covarianzas, debido a que ρ y r son números enteros<br />

comprendidos en el intervalo de −1 a +1, extremos incluidos, mientras que las covarianzas son frecuentemente magnitudes con<br />

dimensiones y órdenes de magnitud poco cómodos.<br />

NOTA 2 Para distribuciones de probabilidad de varias variables suele darse frecuentemente la matriz de coeficientes de correlación, en<br />

lugar de la matriz de covarianzas. Como ρ(y,y) = 1, y r(yi ,yi) = 1, los elementos de la diagonal de la matriz son iguales a la unidad.<br />

NOTA 3 Si las estimaciones de entrada xi y xj están correlacionadas (véase 5.2.2), y una variación δi en xi produce una variación δj en<br />

xj, el coeficiente de correlación asociado a xi y xj puede estimarse aproximadamente por<br />

( x , x ) ≈<br />

u(<br />

x ) δ / [ u(<br />

x ) ]<br />

r δ<br />

i<br />

j<br />

i<br />

j<br />

j<br />

i<br />

i<br />

i

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!