16.01.2020 Views

Estadística. Serie Schaum- 4ta edición - Murray R. Spiegel.pdf (1)

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

TEORÍA MUESTRAL DE LA CORRELACIÓN 351

RECTAS DE REGRESIÓN Y EL COEFICIENTE DE CORRELACIÓN LINEAL

La ecuación de la recta de regresión por mínimos cuadrados Y = a 0 + a 1 X, la recta de regresión de Y sobre X, puede

expresarse como

Y Y ¼ rs Y

ðX XÞ o bien y ¼ rs Y

x (25)

s X s X

De igual manera, la recta de regresión de X sobre Y, X = b 0 + b 1 Y, puede expresarse como

X X ¼ rs X

ðY YÞ o bien x ¼ rs X

y (26)

s Y s Y

Las pendientes de las rectas de regresión (25) y (26) son iguales si y sólo si r = ±1. En esos casos las dos rectas

son idénticas y existe una perfecta correlación entre X y Y. Si r = 0, las rectas forman ángulos rectos y no hay correlación

lineal entre X y Y. Por lo tanto, el coeficiente de correlación lineal mide qué tanto se apartan las dos rectas de

regresión.

Obsérvese que si las ecuaciones (25) y (26) se expresan como Y = a 0 + a 1 X y X = b 0 + b 1 Y, respectivamente,

entonces a 1 b 1 = r 2 (ver problema 14.22).

CORRELACIÓN DE SERIES DE TIEMPO

Si las variables X y Y dependen del tiempo, es posible que entre X y Y exista una relación, aunque esta relación no sea,

necesariamente, de dependencia directa y produzca una “correlación sin sentido”. El coeficiente de correlación se

obtiene considerando los pares de valores (X, Y ) correspondientes a los distintos tiempos y procediendo como de costumbre,

haciendo uso de las fórmulas anteriores (ver problema 14.28).

También se puede tratar de correlacionar los valores de una variable X en cierto tiempo con los correspondientes

valores de X en un tiempo anterior. A esta correlación se le llama autocorrelación.

CORRELACIÓN DE ATRIBUTOS

Los métodos descritos en este capítulo no permiten considerar la correlación entre variables, por naturaleza, no numéricas;

por ejemplo, atributos de individuos (como color de pelo, color de ojos, etc.). La correlación de atributos se

analiza en el capítulo 12.

TEORÍA MUESTRAL DE LA CORRELACIÓN

Los N pares de valores (X, Y ) de dos variables pueden considerarse como muestras de una población que consta de

todos estos pares. Como hay dos variables, a esta población se le llama población bivariada, la que se supondrá tiene

una distribución normal bivariada.

Se puede pensar que existe un coeficiente de correlación poblacional teórico, denotado ρ, que se estima por el

coeficiente de correlación muestral r. Las pruebas de significancia o de hipótesis relacionadas con los diferentes valores

de ρ requieren del conocimiento de la distribución muestral de r. Para ρ = 0 esta distribución es simétrica y se usa

un estadístico que implica la distribución de Student. Para ρ ≠ 0 esta distribución es sesgada; en ese caso, una transformación

desarrollada por Fischer da un estadístico que está distribuido en forma aproximadamente normal. Las

pruebas siguientes resumen los procedimientos empleados:

1. Prueba de hipótesis ρ = 0. Aquí se emplea el hecho de que el estadístico

t ¼ r

pffiffiffiffiffiffiffiffiffiffiffiffi

N 2

p ffiffiffiffiffiffiffiffiffiffiffiffi

(27)

1 r 2

tiene una distribución de Student con ν = N − 2 grados de libertad (ver problemas 14.31 y 14.32).

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!