16.01.2020 Views

Estadística. Serie Schaum- 4ta edición - Murray R. Spiegel.pdf (1)

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

CORRELACIÓN PARCIAL 385

ya obtenidas, el subíndice 1 por el subíndice 3 y el subíndice 3 por el subíndice 1. Por ejemplo, la ecuación de regresión

de X 3 sobre X 1 y X 2 es

x 3

¼ r

23 r 13 r 12 x2

s 3 1 r 2 þ r

13 r 23 r 12 x1

12

s 2 1 r 2 (10)

12

s 1

de acuerdo con la ecuación (5) y empleando las igualdades r 32 = r 23 , r 31 = r 13 y r 21 = r 12 .

GENERALIZACIONES A MÁS DE TRES VARIABLES

Estas generalizaciones se obtienen por analogía con los resultados anteriores. Por ejemplo, la ecuación de regresión

lineal de X 1 sobre X 2 , X 3 y X 4 se expresa

X 1 ¼ b 1:234 þ b 12:34 X 2 þ b 13:24 X 3 þ b 14:23 X 4 (11)

y representa un hiperplano en el espacio de cuatro dimensiones. Multiplicando sucesivamente ambos lados de la

ecuación (11) por 1, X 2 , X 3 y X 4 y después sumando ambos lados se obtienen las ecuaciones normales con las que se

determina b 1.234 , b 12.34, b 13.24 y b 14.23 ; sustituyendo sus valores en la ecuación (11) se obtiene la ecuación de regresión

de mínimos cuadrados de X 1 sobre X 2 , X 3 y X 4 . Esta ecuación de regresión de mínimos cuadrados se puede expresar

en forma similar a la de la ecuación (5). (Ver problema 15.41.)

CORRELACIÓN PARCIAL

También es importante medir la correlación entre una variable dependiente y determinada variable independiente

cuando todas las demás variables permanecen constantes; es decir, cuando se eliminan los efectos de todas las demás

variables. Esto se logra definiendo un coeficiente de correlación parcial, como la ecuación (12) del capítulo 14, salvo

que deberán considerarse las variaciones explicadas y no explicadas que surgen con esa determinada variable independiente

y sin ella.

Si r 12.3 denota el coeficiente de correlación parcial entre X 1 y X 2 cuando X 3 permanece constante, se encuentra

que

r

r 12:3 ¼ 12 r 13 r

q ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 23

(12)

ð1 r 2 13 Þð1 r2 23 Þ

De manera similar, si r 12.34 denota el coeficiente de correlación parcial entre X 1 y X 2 cuando X 3 y X 4 permanecen constantes,

entonces

r

r 12:34 ¼ 12:4 r 13:4 r

ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 23:4 r

q

¼ 12:3 r 14:3 r

q ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 24:3

(13)

ð1 r 2 13:4 Þð1 r2 23:4 Þ ð1 r 2 14:3 Þð1 r2 24:3 Þ

Estos resultados son útiles, pues mediante ellos puede hacerse que cualquier coeficiente de correlación parcial dependa

finalmente de los coeficientes de correlación r 12 , r 23 , etc. (es decir, de los coeficientes de correlación de orden

cero).

Se vio que en el caso de dos variables, X y Y, si las ecuaciones de las dos rectas de regresión son Y = a 0 + a 1 X y

X = b 0 + b 1 Y, se tiene que r 2 = a 1 b 1 (ver problema 14.22). Este resultado puede generalizarse. Por ejemplo, si

X 1 ¼ b 1:234 þ b 12:34 X 2 þ b 13:24 X 3 þ b 14:23 X 4 (14)

y X 4 ¼ b 4:123 þ b 41:23 X 1 þ b 42:13 X 2 þ b 43:12 X 3 (15)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!