04.01.2015 Views

Tema 1. Distribuciones notables multidimensionales: Dis- tribución ...

Tema 1. Distribuciones notables multidimensionales: Dis- tribución ...

Tema 1. Distribuciones notables multidimensionales: Dis- tribución ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Máster en Técnicas Estadísticas<br />

Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero.<br />

<strong>Tema</strong> <strong>1.</strong> <strong><strong>Dis</strong>tribuciones</strong> <strong>notables</strong> <strong>multidimensionales</strong>: <strong>Dis</strong><strong>tribución</strong><br />

de Wishart, dis<strong>tribución</strong> de Hotelling y dis<strong>tribución</strong><br />

de Wilks<br />

En este tema estudiaremos distribuciones que surgen al hacer operaciones naturales de cara a la<br />

inferencia sobre vectores normales multivariantes. En ese sentido serían análogos multivariantes<br />

de las distribuciones ji-cuadrado, t de Student o F de Snédecor.<br />

<strong>1.</strong><strong>1.</strong> <strong>Dis</strong><strong>tribución</strong> de Wishart.<br />

La dis<strong>tribución</strong> de Wishart es una extensión al caso multivariante de la dis<strong>tribución</strong> ji-cuadrado.<br />

Así, mientras la dis<strong>tribución</strong> ji-cuadrado se atribuye a estimadores de la varianza, como la varianza<br />

muestral, la dis<strong>tribución</strong> de Wishart corresponde a matrices de covarianza muestrales. Igual<br />

que en el caso univariante la denición se expresaba como suma de cuadrados, aquí se formula<br />

como suma de productos.<br />

Denición<br />

Sean X 1 , . . . , X m ∈ N d (0, Σ) independientes. Diremos que la matriz<br />

M =<br />

m∑<br />

X i X i ′ ∈ W d (Σ, m)<br />

tiene una dis<strong>tribución</strong> de Wishart con matriz Σ y m grados de libertad.<br />

Observaciones<br />

i=1<br />

<strong>1.</strong> Si construimos la matriz de observaciones<br />

X =<br />

de orden m × d, entonces podemos escribir<br />

⎛<br />

m∑<br />

M = X i X i ′ ⎜<br />

= (X 1 , . . . , X m ) ⎝ .<br />

i=1<br />

⎛<br />

⎜<br />

⎝<br />

X ′ 1<br />

X ′ m<br />

X ′ 1<br />

.<br />

X ′ m<br />

⎞<br />

⎞<br />

⎟<br />

⎠<br />

⎟<br />

⎠ = X ′ X =<br />

2. Si Σ = I d diremos que la dis<strong>tribución</strong> tiene forma estándar.<br />

(<br />

∑ m<br />

)<br />

X ij X ik<br />

3. Si d = 1, Σ = σ 2 y X 1 , . . . , X m ∈ N(0, σ 2 ) independientes, entonces<br />

m∑<br />

m∑ ∑<br />

m ( ) 2<br />

M = X i X i ′ = Xi 2 = σ 2 Xi<br />

∈ σ 2 χ 2 m<br />

σ<br />

i=1<br />

i=1<br />

1<br />

i=1<br />

i=1<br />

j,k∈{1,...,d}


2 Máster en Técnicas Estadísticas<br />

Propiedades<br />

<strong>1.</strong> Si M ∈ W d (Σ, m), entonces E(M) = m · Σ.<br />

2. Si M ∈ W d (Σ, m), Σ es denida positiva y m ≥ d, entonces<br />

P (M sea denida positiva) = 1<br />

Nótese que M = X 1 X ′ 1 + · · · + X mX ′ m es una matriz simétrica, semidenida positiva y de<br />

rango la dimensión del espacio lineal generado por X 1 , . . . , X m . Si X 1 , . . . , X m son vectores<br />

aleatorios independientes, con la misma dis<strong>tribución</strong> y su matriz de covarianzas tiene rango<br />

k, entonces<br />

P (rango(M) = min{m, k}) = <strong>1.</strong><br />

3. La familia de distribuciones W d (Σ, m) es reproductiva respecto del parámetro m, esto es,<br />

si M 1 ∈ W d (Σ, m 1 ), M 2 ∈ W d (Σ, m 2 ) y además son independientes, entonces<br />

M 1 + M 2 ∈ W d (Σ, m 1 + m 2 )<br />

Teorema <strong>1.</strong>1 Si M ∈ W d (Σ, m) y C es una matriz q × d de rango q (q ≤ d), entonces<br />

CMC ′ ∈ W q<br />

(<br />

CΣC ′ , m )<br />

Corolario Si M ∈ W d (Σ, m), entonces las submatrices diagonales de M también tienen distribuciones<br />

de Wishart, con parámetros la submatriz correspondiente y m grados de libertad.<br />

Corolario<br />

Si M ∈ W d (Σ, m) y a es un vector d-dimensional tal que a ′ Σa > 0, entonces<br />

a ′ Ma ∈ ( a ′ Σa ) χ 2 m<br />

Lema<br />

Sean X 1 , . . . , X m ∈ N d (0, Σ) independientes y formemos la matriz de observaciones<br />

X =<br />

⎛<br />

⎜<br />

⎝<br />

X ′ 1<br />

.<br />

X ′ m<br />

⎞<br />

⎟<br />

⎠ =<br />

⎛<br />

⎝<br />

⎞<br />

X 11 · · · X 1d<br />

· · · · · · · · · ⎠<br />

X m1 · · · X md<br />

Entonces<br />

(i) Si a es un vector de dimensión m no nulo, entonces<br />

X ′ a ∈ N d<br />

(<br />

0, ‖a‖ 2 Σ )<br />

(ii) Si a y b son dos vectores no nulos y ortogonales, a ′ b = 0, entonces X ′ a y X ′ b son independientes.


Análisis Multivariante 3<br />

Teorema <strong>1.</strong>2 Sean X 1 , . . . , X m ∈ N d (0, Σ) independientes y X la correspondiente matriz de<br />

observaciones.<br />

(i) Si A es una matriz simétrica de orden m × m, idempotente (A 2 = A) y de rango r ≤ m,<br />

entonces<br />

X ′ AX ∈ W d (Σ, r)<br />

(ii) Si A es una matriz en las condiciones anteriores y b es un vector de dimensión m, tal que<br />

Ab = 0, entonces<br />

X ′ AX y X ′ b son independientes<br />

(iii) Si A y B son dos matrices en las condiciones anteriores y AB = 0, entonces<br />

X ′ AX y X ′ BX son independientes<br />

Corolario Sean X 1 , . . . , X n ∈ N d (µ, Σ) independientes. Entonces el vector de medias y la<br />

matriz de covarianzas muestrales verican<br />

¯X = 1 n∑<br />

(<br />

X i ∈ N d µ, 1 )<br />

n∑<br />

n<br />

n Σ (<br />

nS = Xi − ¯X ) ( X i − ¯X ) ′ ∈ Wd (Σ, n − 1)<br />

i=1<br />

y además ¯X y S son independientes.<br />

i=1<br />

<strong>1.</strong>2. <strong>Dis</strong><strong>tribución</strong> Γ 2 de Hotelling.<br />

La dis<strong>tribución</strong> Γ 2 de Hotelling juega un papel semejante a la dis<strong>tribución</strong> t de Student en el caso<br />

multivariante. En concreto, la dis<strong>tribución</strong> t de Student surge cuando se estandariza la media<br />

muestral mediante la varianza muestral. En el caso de poblaciones normales multivariantes, se<br />

calcula la distancia de la media muestral a la media teórica, usando como distancia la asociada<br />

a la matriz de covarianzas muestral.<br />

Denición Sean Z ∈ N d (0, I) y M ∈ W d (I, m) independientes, con m ≥ d. Diremos que la<br />

variable aleatoria unidimensional<br />

mZ ′ M −1 Z ∈ Γ 2 (d, m)<br />

tiene una dis<strong>tribución</strong> Γ 2 de Hotelling de parámetros d y m.<br />

Teorema <strong>1.</strong>3 Si X ∈ N d (µ, Σ) y M ∈ W d (Σ, m) son independientes, entonces<br />

m (X − µ) ′ M −1 (X − µ) ∈ Γ 2 (d, m)<br />

Corolario Sean X 1 , . . . , X n ∈ N d (µ, Σ) independientes, y ¯X el vector de medias y S la matriz<br />

de covarianzas muestrales obtenidos sobre la muestra anterior. Entonces<br />

(n − 1) ( ) ′ ¯X − µ S<br />

−1 ( ) ( ) ′ ( ) ¯X − µ = n ¯X − µ S<br />

−1<br />

c ¯X − µ ∈ Γ 2 (d, n − 1)<br />

siendo S c =<br />

n<br />

n−1 S.


4 Máster en Técnicas Estadísticas<br />

Caso particular. Si d = 1, resulta Γ 2 (1, m) d = T 2 m, por lo cual decimos que la Γ 2 de Hotelling<br />

generaliza la dis<strong>tribución</strong> T de Student.<br />

Teorema <strong>1.</strong>4<br />

Γ 2 (d, m) d =<br />

md<br />

m − d + 1 F d,m−d+1<br />

Corolario Sean X 1 , . . . , X n ∈ N d (µ, Σ) independientes, y ¯X el vector de medias y S la matriz<br />

de covarianzas muestrales obtenidos sobre la muestra anterior. Entonces<br />

n − d<br />

d<br />

( ¯X − µ<br />

) ′ S<br />

−1 ( ¯X − µ<br />

)<br />

∈ Fd,n−d<br />

<strong>1.</strong>3. <strong>Dis</strong><strong>tribución</strong> Λ de Wilks.<br />

La dis<strong>tribución</strong> Λ de Wilks sirve para extender al caso multivariante la dis<strong>tribución</strong> F de<br />

Snédecor. Así, si la F de Snédecor se obtiene mediante el cociente de dos variables de tipo<br />

ji-cuadrado, la F de Snédecor surge como el cociente de los determinantes de dos matrices de<br />

covarianzas.<br />

Denición Sean E ∈ W d (I, m E ) y H ∈ W d (I, m H ) independientes, y m E ≥ d. Diremos que<br />

la variable aleatoria unidimensional<br />

|E|<br />

|E + H| = ∣ ∣ I + E −1 H ∣ ∣ −1 ∈ Λ(d, m H , m E )<br />

tiene una dis<strong>tribución</strong> Λ de Wilks de parámetros d, m H y m E .<br />

Teorema <strong>1.</strong>5 Si denotamos mediante ψ(d, m H , m E ) la dis<strong>tribución</strong> conjunta de los autovalores<br />

no nulos de E −1 H, con m E ≥ d, m H ≥ 1, d ≥ 1, entonces<br />

ψ(d, m H , m E ) = ψ(m H , d, m E − d + m H )<br />

En consecuencia,<br />

Λ(d, m H , m E ) d = Λ(m H , d, m E − d + m H )<br />

Bibliografía.<br />

Mardia, K.V., Kent, J.T. y Bibby, J.M. (1979). Multivariate analysis. Academic Press.<br />

Seber, G.A.F. (1984). Multivariate observations. Wiley.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!