17.03.2017 Views

Papel de trabajo_GMM

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Método Generalizado <strong>de</strong> los Momentos<br />

UNIVERSIDAD AUTÓNOMA DE MADRID<br />

Facultad <strong>de</strong> Ciencias Económicas y Empresariales<br />

Econometría Avanzada<br />

EDORTA ROJÍ PÉREZ<br />

Mayo <strong>de</strong> 2008<br />

1


1. Motivación<br />

Elegí este tema porque era conocedor <strong>de</strong> la importancia <strong>de</strong> la estimación por el Método<br />

Generalizado <strong>de</strong> los Momentos (MGM), especialmente en el área <strong>de</strong> la macroeconomía<br />

avanzada y las finanzas. Como el próximo mes <strong>de</strong> septiembre empezaré mis estudios <strong>de</strong><br />

postgrado en economía, sabía que tar<strong>de</strong> o temprano tendría que compren<strong>de</strong>r y estudiar<br />

este método <strong>de</strong> estimación, así que la exposición en clase ha constituido una excelente<br />

“excusa” para leer sobre él y compren<strong>de</strong>rlo a un nivel introductorio.<br />

2. Introducción<br />

El Método Generalizado <strong>de</strong> los Momentos fue propuesto bajo ese nombre por Lars Peter<br />

Hansen en un artículo en Econometrica en 1982, aunque la i<strong>de</strong>a básica que en él<br />

subyace se remonta al menos hasta Sargan (1958). Su carácter general hace que otros<br />

métodos <strong>de</strong> estimación, como MCO, Máxima Verosimilitud y Variables Instrumentales<br />

sean casos especiales <strong>de</strong>l mismo. Los estimadores MGM se han extendido con gran<br />

rapi<strong>de</strong>z <strong>de</strong>bido a que poseen propieda<strong>de</strong>s asintóticas fáciles <strong>de</strong> caracterizar en formas<br />

que facilitan la comparación entre estimadores y porque pue<strong>de</strong>n ser construidos sin<br />

especificar completamente el proceso generador <strong>de</strong> los datos, que sí es necesario para<br />

estimar por máxima verosimilitud.<br />

La estimación por MGM tiene su origen en el método <strong>de</strong> los momentos, que fue<br />

introducido por K. Pearson y es el método general más antiguo y sencillo para la<br />

obtención <strong>de</strong> estimadores <strong>de</strong> parámetros poblacionales. Así, comenzaremos repasando<br />

este método con un sencillo y mencionaremos sus propieda<strong>de</strong>s. Posteriormente<br />

pasaremos a explicar el MGM, en qué consiste, su equivalencia con otros métodos <strong>de</strong><br />

estimación, sus propieda<strong>de</strong>s y algunos contrastes. Por último, finalizaremos exponiendo<br />

dos sencillos casos prácticos en EViews.<br />

3. El método <strong>de</strong> los momentos clásico<br />

Este método consiste en igualar tantos momentos muestrales como parámetros haya que<br />

estimar a los correspondientes momentos poblacionales, que son funciones <strong>de</strong> los<br />

parámetros <strong>de</strong>sconocidos. Resolviendo el sistema <strong>de</strong> ecuaciones resultante se obtienen<br />

los estimadores <strong>de</strong> los parámetros.<br />

Si θ es un vector <strong>de</strong> parámetros <strong>de</strong> dimensión m que caracteriza la distribución <strong>de</strong> la<br />

variable aleatoria y, el momento k, suponiendo que existe, se <strong>de</strong>fine como:<br />

μ k (θ) = E [y k ]<br />

Suponiendo que tenemos una muestra <strong>de</strong> y <strong>de</strong> tamaño T con observaciones y 1 , y 2 ,…,y T<br />

(consi<strong>de</strong>radas como T variables aleatorias in<strong>de</strong>pendientes). Los correspondientes<br />

momentos muestrales son:<br />

2


μ^ k = 1/T Σ t=1 T y t<br />

k<br />

Así, para estimar los componentes <strong>de</strong> θ, igualamos los primeros m momentos<br />

poblacionales, μ k (θ), con sus correspondientes momentos muestrales y resolvemos para<br />

los componentes <strong>de</strong>l vector <strong>de</strong> parámetros θ. Veamos un ejemplo:<br />

- Tomamos una muestra (y 1 , y 2 ,…,y T ) <strong>de</strong> una población N(μ, σ 2 ), por lo que<br />

θ = (μ, σ 2 ), es <strong>de</strong>cir, tenemos que estimar esos dos parámetros. Entonces:<br />

μ 1 (θ)= E[y] = μ<br />

y como σ 2 = Var[y] = E[(y – μ) 2 ] = E[y 2 ] - μ 2 , tenemos que:<br />

μ 2 (θ)= E[y 2 ] = σ 2 + μ 2<br />

Si igualamos esto a los momentos muestrales, tenemos:<br />

μ 1 (θ^ ) = 1/T Σ t=1 T y t<br />

y<br />

μ 2 (θ^ ) = 1/T Σ t=1 T y t<br />

2<br />

Es <strong>de</strong>cir:<br />

μ^ = 1/T Σ t=1 T y t = ȳ<br />

y<br />

σ^ 2 + μ^ 2 = 1/T Σ t=1 T y t<br />

2<br />

Reor<strong>de</strong>nando esta última expresión, obtenemos:<br />

σ^ 2 = 1/T Σ t=1 T y t 2 - μ^ 2 = 1/T Σ t=1 T y t 2 - ȳ 2<br />

Y acordándonos <strong>de</strong> que Σ t=1 T (y t - ȳ ) 2 = Σ t=1<br />

T<br />

y t 2 - T ȳ 2 , obtenemos finalmente<br />

que los estimadores son:<br />

μ^ = ȳ<br />

σ^ 2 = 1/T Σ t=1 T (y t - ȳ ) 2<br />

Gracias a la Ley <strong>de</strong> los Gran<strong>de</strong>s Números (también con la <strong>de</strong>sigualdad <strong>de</strong> Chebychev y<br />

el Teorema <strong>de</strong> Slutsky) po<strong>de</strong>mos afirmar que dichos estimadores son consistentes.<br />

3


A<strong>de</strong>más, en muchos casos, el Teorema Central <strong>de</strong>l Límite implica que las distribuciones<br />

asintóticas <strong>de</strong> los estimadores son normales.<br />

4. El método generalizado <strong>de</strong> los momentos<br />

4.1. Intuición:<br />

Los mo<strong>de</strong>los econométricos se forman tomando algunos supuestos. Por ejemplo,<br />

E[x i ε i ] = 0. Podríamos obtener las expresiones análogas muestrales (en este caso,<br />

1/n Σ i=1<br />

n<br />

x i e i = 1/n Σ i=1<br />

n<br />

x i (y i - x i ’b) = 1/n X’e = 0) y hallar el estimador <strong>de</strong> β que<br />

satisfaga esas ecuaciones <strong>de</strong> momentos.<br />

Por supuesto, el momento anterior es muy sencillo. Las condiciones (restricciones) que<br />

usemos para estimar pue<strong>de</strong>n ser no lineales. Sea como sea, para po<strong>de</strong>r estimar es<br />

necesario que el número <strong>de</strong> restricciones sea igual (i<strong>de</strong>ntificación exacta) o mayor<br />

(sobrei<strong>de</strong>ntificación) que el número <strong>de</strong> parámetros a estimar. Veamos un sencillo<br />

ejemplo:<br />

- MCO como una estimación por momentos:<br />

Tenemos:<br />

y = Xβ + ε<br />

con ε distribuida como Q(0, σ 2 ), siendo Q una distribución (no necesariamente<br />

normal). X es (n x k). Si suponemos que el mo<strong>de</strong>lo está especificado correctamente,<br />

tenemos que:<br />

E(X’ε) = 0<br />

De forma similar a lo mostrado hace unas líneas, llegamos a la condición muestral:<br />

1/n X’(y – Xβ ) = 0<br />

Tenemos un sistema <strong>de</strong> k ecuaciones simultáneas con k parámetros <strong>de</strong>sconocidos,<br />

por lo que po<strong>de</strong>mos encontrar una solución única <strong>de</strong> las β que satisfaga la anterior<br />

ecuación <strong>de</strong> forma exacta (siempre que las X sean linealmente in<strong>de</strong>pendientes). Así<br />

reescribimos la ecuación para obtener:<br />

β MOM = (X’X) -1 X’y<br />

Que son justamente los estimadores <strong>de</strong> β por MCO.<br />

La estimación con variables instrumentales también es un caso particular <strong>de</strong>l<br />

Método Generalizado <strong>de</strong> los Momentos. De hecho, las variables instrumentales<br />

4


están muy relacionadas con la estimación MGM porque con ellas se pue<strong>de</strong>n escribir<br />

los momentos necesarios para estimar. Para ello, comenzaríamos aplicando las<br />

condiciones <strong>de</strong> ortogonalidad entre Z y ε (E(Z’ε) = 0 en vez <strong>de</strong> E(X’ε) = 0), lo que<br />

haciendo lo mismo que en el ejemplo anterior nos llevaría al estimador <strong>de</strong> mínimos<br />

cuadrados en dos etapas.<br />

4.2. Estimación con sobrei<strong>de</strong>ntificación:<br />

El ejemplo anterior era un ejemplo exactamente i<strong>de</strong>ntificado. Teníamos k momentos<br />

muestrales para estimar k parámetros. Sin embargo, es corriente encontrarse ante<br />

estimaciones sobrei<strong>de</strong>ntificadas, en las que el número <strong>de</strong> “restricciones” es mayor a la<br />

cantidad <strong>de</strong> parámetros a estimar. Si esto ocurre, no po<strong>de</strong>mos encontrar una estimación<br />

única <strong>de</strong> los parámetros <strong>de</strong>sconocidos simplemente igualando los momentos muestrales<br />

a cero, sino que tendremos que elegir los estimadores que hagan que el vector <strong>de</strong><br />

condiciones sea los más cercano posible a cero.<br />

Es <strong>de</strong>cir, consi<strong>de</strong>remos un mo<strong>de</strong>lo que está caracterizado por un conjunto <strong>de</strong> R<br />

condiciones (momentos) <strong>de</strong> la forma:<br />

E{f (w t , z t , θ)} = 0<br />

Siendo f un vector <strong>de</strong> funciones con R elementos, θ el vector <strong>de</strong> dimensión k <strong>de</strong><br />

parámetros <strong>de</strong>sconocidos, w t el vector <strong>de</strong> variables observadas, tanto exógenas como<br />

endógenas, y z t es un vector <strong>de</strong> instrumentos.<br />

Para estimar θ hacemos lo mismo que en los ejemplos anteriores y consi<strong>de</strong>ramos los<br />

equivalentes muestrales <strong>de</strong> la anterior ecuación, dados por:<br />

g T (θ) ≡ 1/T Σ t=1 T f (w t , z t , θ)<br />

Pero ahora supondremos que R es mayor que k, es <strong>de</strong>cir el número <strong>de</strong> restricciones es<br />

mayor que el número <strong>de</strong> parámetros <strong>de</strong>sconocidos. Como hemos dicho, igualar las<br />

condiciones a cero ya no nos sirve, sino que tenemos que elegir el estimador <strong>de</strong> θ que<br />

haga al vector g T (θ) lo más cercano a cero posible. Esto lo hacemos minimizando una<br />

forma cuadrática <strong>de</strong>l vector <strong>de</strong> condiciones muestrales.<br />

Mi θ<br />

n Q T (θ) = mi θ<br />

n g T (θ)’W T g T (θ)<br />

Siendo W T una matriz <strong>de</strong>finida positiva con plim W T = W. La solución a este problema<br />

nos da el estimador <strong>de</strong> θ^ por el método generalizado <strong>de</strong> los momentos. Se pue<strong>de</strong><br />

<strong>de</strong>mostrar que bajo algunas condiciones <strong>de</strong> regularidad no muy estrictas este estimador<br />

es consistente, asintóticamente insesgado y asintóticamente normal. De forma<br />

heurística, po<strong>de</strong>mos <strong>de</strong>cir que dado que las medias muestrales convergen a las<br />

poblaciones, que son cero para los verda<strong>de</strong>ros valores <strong>de</strong> los parámetros, un estimador<br />

elegido para hacer que los momentos muestrales sean lo más cercanos posibles a cero<br />

convergerá a su verda<strong>de</strong>ro valor y, por tanto, será consistente.<br />

5


Sin embargo, diferentes W T dan lugar a diferentes estimadores consistentes con<br />

diferentes matrices <strong>de</strong> varianzas y covarianzas asintóticas. Por ejemplo, si W T = I (la<br />

matriz i<strong>de</strong>ntidad), obtenemos estimadores consistentes, pero ineficientes. Siguiendo la<br />

misma lógica <strong>de</strong> la estimación por Mínimos Cuadrados Generalizados (MCG), es<br />

beneficioso usar un criterio pon<strong>de</strong>rado en el que las pon<strong>de</strong>raciones sean inversamente<br />

proporcionales a las varianzas <strong>de</strong> los momentos. Así, la matriz <strong>de</strong> pon<strong>de</strong>raciones<br />

óptima, que lleva a la matriz <strong>de</strong> varianzas y covarianzas <strong>de</strong>l estimador MGM más<br />

pequeña, es la inversa <strong>de</strong> la matriz <strong>de</strong> varianzas y covarianzas <strong>de</strong> los momentos<br />

muestrales. En ausencia <strong>de</strong> correlación viene dada por:<br />

W Opt = (E{f (w t , z t , θ) f (w t , z t , θ)’}) -1<br />

En general esta matriz <strong>de</strong>pen<strong>de</strong> <strong>de</strong>l vector <strong>de</strong> parámetros <strong>de</strong>sconocidos θ, lo que nos<br />

presenta un problema. La solución es adoptar un método <strong>de</strong> estimación iterativo:<br />

Inicialmente, usamos una elección <strong>de</strong> W T que no <strong>de</strong>penda <strong>de</strong> θ (como, por ejemplo, la<br />

matriz i<strong>de</strong>ntidad, lo que nos daría una solución similar a la <strong>de</strong> mínimos cuadrados no<br />

lineales) para obtener un primer estimador consistente <strong>de</strong> θ, θ^ 1. A continuación,<br />

po<strong>de</strong>mos estimar consistentemente la matriz <strong>de</strong> pon<strong>de</strong>raciones óptima con:<br />

W Opt = (1/T Σ t=1 T f (w t , z t , θ^ 1 ) f (w t , z t , θ^ 1 )’) -1<br />

Y con ella minimizamos la función Q T (θ^ 1) para obtener los estimadores MGM óptimos,<br />

es <strong>de</strong>cir, asintóticamente eficientes. Este proceso <strong>de</strong> dos etapas pue<strong>de</strong> ampliarse y<br />

calcularse <strong>de</strong> forma iterativa θ^1, θ^2, θ^3… hasta que cumplan un criterio <strong>de</strong> convergencia.<br />

La distribución asintótica <strong>de</strong>l estimador MGM asintóticamente eficiente que acabamos<br />

<strong>de</strong> obtener, θ^ MGM, es (gracias al teorema central <strong>de</strong>l límite aplicado a los momentos<br />

muestrales y al teorema <strong>de</strong> Slutsky) la siguiente:<br />

√¯T (θ^MGM - θ) → N(0, V)<br />

Don<strong>de</strong> la matriz <strong>de</strong> varianzas y covarianzas V viene dada por:<br />

V = (D W Opt D’) -1<br />

Siendo D una matriz <strong>de</strong> <strong>de</strong>rivadas (k x r) <strong>de</strong> la forma:<br />

D = E{∂ f (w t , z t , θ)/ ∂ θ’}<br />

Intuitivamente, los elementos en D mi<strong>de</strong>n la sensibilidad <strong>de</strong> un momento en particular<br />

respecto a pequeños cambios en θ. Si dicha sensibilidad con respecto a un elemento <strong>de</strong> θ<br />

es gran<strong>de</strong>, pequeños cambios en este elemento darán lugar a cambios relativamente<br />

gran<strong>de</strong>s en la función objetivo Q T (θ) y el elemento particular en θ estará estimado con<br />

relativa precisión. La matriz <strong>de</strong> varianzas y covarianzas V se estima sustituyendo los<br />

momentos poblacionales en D y W Opt por sus equivalentes muestrales evaluados con θ^ .<br />

6


Visto todo lo anterior, po<strong>de</strong>mos <strong>de</strong>cir que algunas <strong>de</strong> las ventajas <strong>de</strong>l método<br />

generalizado <strong>de</strong> los momentos son que no requiere supuestos <strong>de</strong> distribución (como<br />

normalidad), que permite heterocedasticidad <strong>de</strong> forma <strong>de</strong>sconocida y que pue<strong>de</strong> estimar<br />

parámetros incluso si el mo<strong>de</strong>lo no pue<strong>de</strong> resolverse analíticamente a partir <strong>de</strong> las<br />

condiciones <strong>de</strong> primer or<strong>de</strong>n.<br />

4.3. Contraste <strong>de</strong> restricciones sobrei<strong>de</strong>ntificadas:<br />

Como ya hemos dicho, la matriz <strong>de</strong> pon<strong>de</strong>raciones W es irrelevante si el número <strong>de</strong><br />

ecuaciones <strong>de</strong> momentos es el mismo que el número <strong>de</strong> parámetros a estimar. Pero si<br />

los parámetros están sobrei<strong>de</strong>ntificados en la ecuación <strong>de</strong> momentos, estas ecuaciones<br />

implican importantes restricciones. Así, si alguna <strong>de</strong> las hipótesis <strong>de</strong>l mo<strong>de</strong>lo que llevan<br />

a las ecuaciones <strong>de</strong> momentos es inicialmente incorrecta, al menos alguna <strong>de</strong> la<br />

restricciones muestrales <strong>de</strong> momentos se verá sistemáticamente violada, lo que nos abre<br />

la puerta para el contraste <strong>de</strong> restricciones sobrei<strong>de</strong>ntificadas, es <strong>de</strong>cir, para testar si la<br />

especificación <strong>de</strong>l mo<strong>de</strong>lo es correcta.<br />

Si todas las restricciones <strong>de</strong> momentos <strong>de</strong>l mo<strong>de</strong>lo son correctas, el test estadístico es:<br />

ξ = T g T (θ^ MGM )’W T Opt g T (θ^ MGM )<br />

que asintóticamente se distribuye como una Chi-cuadrado con R – K grados <strong>de</strong> libertad.<br />

Dos aspectos <strong>de</strong>l test <strong>de</strong>ben ser mencionados: primero, vemos que por su construcción<br />

es equivalente a la <strong>de</strong>l test <strong>de</strong> Wald visto en clase y, segundo, para el caso exactamente<br />

i<strong>de</strong>ntificado hay cero grados <strong>de</strong> libertad, por lo que no po<strong>de</strong>mos testar nada.<br />

4.4. Ampliaciones:<br />

Antes <strong>de</strong> pasar a ver dos ejemplos con datos, me gustaría comentar que lo explicado en<br />

las anteriores líneas sólo es una pequeña introducción. Es posible estudiar con mucha<br />

más profundidad las propieda<strong>de</strong>s <strong>de</strong> los estimadores en distintos ejemplos, así como ver<br />

a nivel teórico distintas aplicaciones en las que la teoría económica se usa para <strong>de</strong>rivar<br />

las condiciones <strong>de</strong> momentos, como ocurre en los mo<strong>de</strong>los <strong>de</strong> valoración <strong>de</strong> activos o en<br />

los mo<strong>de</strong>los <strong>de</strong> expectativas racionales. Sin embargo, el nivel analítico <strong>de</strong> estos temas es<br />

mucho mayor que el que se pue<strong>de</strong> esperar <strong>de</strong> en un curso <strong>de</strong> licenciatura. No obstante,<br />

se pue<strong>de</strong> consultar la bibliografía <strong>de</strong>l <strong>trabajo</strong> si se quiere ir más allá.<br />

5. Aplicaciones<br />

A continuación vamos a ver dos ejemplos <strong>de</strong>l método <strong>de</strong> MGM con EViews. Un<br />

ejemplo se <strong>de</strong>be a Seppo Pynnonen, <strong>de</strong> la Universidad <strong>de</strong> Vaasa (Finlandia), mientras<br />

que el otro se <strong>de</strong>be a Benedikt Heid, <strong>de</strong> la Universidad <strong>de</strong> Tübingen (Alemania). Ambas<br />

7


aplicaciones se sitúan en el ámbito <strong>de</strong> la Econometría Financiera, pero es lo menos<br />

importante para nosotros. Lo interesante es ver cómo estimamos con las condiciones <strong>de</strong><br />

momentos que consi<strong>de</strong>remos oportunas según las condiciones <strong>de</strong>l mo<strong>de</strong>lo y cómo<br />

llevamos a cabo el contraste <strong>de</strong> restricciones sobrei<strong>de</strong>ntificadas.<br />

5.1. Contraste <strong>de</strong> restricciones sobrei<strong>de</strong>ntificadas:<br />

Tenemos los rendimientos diarios <strong>de</strong>l índice SP500 en un periodo <strong>de</strong> diez años, a los<br />

que llamaremos y t . Nos preguntamos si dichos rendimientos siguen una distribución<br />

normal. Si lo hicieran, las condiciones <strong>de</strong> momentos serían las siguientes:<br />

y t – μ = 0<br />

(y t – μ) 2 – σ 2 = 0<br />

(y t – μ) 3 / σ 3 = 0<br />

(y t – μ) 4 / σ 4 – 3 = 0<br />

Siendo μ =E[y t ], σ 2 = Var[y t ].<br />

Si en EViews le damos a estimar y ponemos <strong>GMM</strong> como método, obtenemos esta<br />

pantalla:<br />

En “equation specification” <strong>de</strong>beríamos escribir las ecuaciones <strong>de</strong> momentos <strong>de</strong>l<br />

mo<strong>de</strong>lo, mientras que en “instrument list” especificamos los instrumentos que vamos a<br />

utilizar. Sin embargo, en lugar <strong>de</strong> ir por este camino, se suele utilizar otro más cómodo,<br />

8


consistente en escribir las ecuaciones <strong>de</strong> momentos en un “sistema”. Así, en EViews<br />

pulsamos: Object → New Object → System. Se nos abrirá una pantalla en blanco en la<br />

que podremos escribir las condiciones <strong>de</strong> momentos para la estimación. Las escribimos<br />

y tendremos esto:<br />

“Spret” es el nombre <strong>de</strong> la serie, c(1) es la media, c(2) la <strong>de</strong>sviación típica y hemos<br />

utilizado a “c” como instrumento <strong>de</strong> forma sencilla. Ahora pulsamos estimar y<br />

obtenemos:<br />

Al tratarse <strong>de</strong> una serie temporal elegimos “<strong>GMM</strong> – Time Series” (con la HAC <strong>de</strong><br />

Newey – West). En la parte <strong>de</strong> arriba a la <strong>de</strong>recha tenemos distintas opciones para el<br />

cálculo <strong>de</strong> la matriz <strong>de</strong> pon<strong>de</strong>raciones. Finalmente pulsamos “Ok” y obtenemos:<br />

9


System: <strong>GMM</strong><br />

Estimation Method: Generalized Method of Moments<br />

Date: 05/17/08 Time: 13:37<br />

Sample: 2 2610<br />

Inclu<strong>de</strong>d observations: 2609<br />

Total system (balanced) observations 10436<br />

Instruments: C<br />

No prewhitening<br />

Bandwidth: Fixed (8)<br />

Kernel: Bartlett<br />

Convergence achieved after: 1 weight matrix, 269 total coef iterations<br />

Coefficient Std. Error t-Statistic Prob.<br />

C(1) 0.035786 0.016279 2.198221 0.0280<br />

C(2) 0.851991 0.030982 27.49985 0.0000<br />

Determinant residual covariance 1300498.<br />

J-statistic 0.026651<br />

Equation: SPRET-C(1)<br />

Observations: 2609<br />

S.E. of regression 0.870200 Sum squared resid 1974.905<br />

Durbin-Watson stat 1.949806<br />

Equation: (SPRET-C(1))^2-C(2)^2<br />

Observations: 2609<br />

S.E. of regression 2.057428 Sum squared resid 11035.46<br />

Durbin-Watson stat 1.583127<br />

Equation: ((SPRET-C(1))/C(2))^3<br />

Observations: 2609<br />

S.E. of regression 17.72680 Sum squared resid 819222.6<br />

Durbin-Watson stat 2.335318<br />

Equation: ((SPRET-C(1))/C(2))^4-3<br />

Observations: 2609<br />

S.E. of regression 133.6111 Sum squared resid 46539961<br />

Durbin-Watson stat 1.734260<br />

El estadístico J es el que nos permite realizar el contraste <strong>de</strong> sobrei<strong>de</strong>ntificación, pero en<br />

la salida <strong>de</strong> EViews no está multiplicado por el número <strong>de</strong> observaciones. Así, tenemos<br />

que:<br />

J = 2609 * 0.026651 = 69.532459 que está muy lejos <strong>de</strong>l valor crítico <strong>de</strong> una Chicuadrado<br />

con dos grados <strong>de</strong> libertad (cuatro condiciones <strong>de</strong> momentos menos dos<br />

parámetros a estimar nos dan dos grados <strong>de</strong> libertad). Así, po<strong>de</strong>mos rechazar la<br />

hipótesis <strong>de</strong> normalidad.<br />

5.1. El mo<strong>de</strong>lo <strong>de</strong> valoración <strong>de</strong> activos <strong>de</strong> Cochrane:<br />

Vamos a estimar un simple mo<strong>de</strong>lo <strong>de</strong> valoración <strong>de</strong> activos basado en el consumo<br />

como ejemplo. Tenemos la siguiente ecuación:<br />

10


Que <strong>de</strong>fine a nuestro mo<strong>de</strong>lo. Su contrapartida muestral es:<br />

Siendo (c t+1 /c t ) el crecimiento <strong>de</strong>l consumo entre el periodo t y el t + 1 (llamado<br />

“cnsqdifferenz” en EViews), R t i los rendimientos <strong>de</strong>l portfolio i en el periodo muestral.<br />

Contamos con diez carteras distintas, cada una con distinto riesgo y rendimiento,<br />

escritas en Eviews, con los nombres <strong>de</strong> “<strong>de</strong>cile 1” hasta “<strong>de</strong>cile 10”. Por último, β y γ<br />

son los coeficientes que queremos estimar, que se pue<strong>de</strong>n interpretar, respectivamente,<br />

como el factor <strong>de</strong> <strong>de</strong>scuento y como el coeficiente <strong>de</strong> aversión relativa al riesgo.<br />

Así, abrimos un sistema como en el ejemplo anterior y escribimos las ecuaciones <strong>de</strong><br />

momentos. En este caso son las siguientes:<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile1-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile2-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile3-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile4-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile5-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile6-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile7-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile8-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile9-1=0<br />

c(1)*cnsqdifferenz^-c(2)*<strong>de</strong>cile10-1=0<br />

param c(1) 1 c(2) 10<br />

inst c<br />

Escribimos las diez ecuaciones <strong>de</strong> momentos basadas en nuestro mo<strong>de</strong>lo. Utilizamos <strong>de</strong><br />

nuevo el instrumento más sencillo, “c” y con el comando “param” indicamos los valores<br />

iniciales <strong>de</strong> la estimación, aunque en este caso no son necesarios.<br />

Obtenemos así los siguientes resultados (estimando con “<strong>GMM</strong> –Time Series (HAC)” y<br />

“2SLS”):<br />

11


System: SYSTEM_CBM_RETUR<br />

Estimation Method: Generalized Method of Moments<br />

Date: 05/18/08 Time: 11:17<br />

Sample: 1951:4 1993:4<br />

Inclu<strong>de</strong>d observations: 169<br />

Total system (balanced) observations 1690<br />

Instruments: C<br />

No prewhitening<br />

Bandwidth: Fixed (4)<br />

Kernel: Bartlett<br />

2SLS coefficient estimates with <strong>GMM</strong> standard error<br />

Convergence achieved after 6 iterations<br />

Coefficient Std. Error t-Statistic Prob.<br />

C(1) 1.416103 0.174085 8.134527 0.0000<br />

C(2) 110.5611 43.71080 2.529378 0.0115<br />

Determinant residual covariance 2.41E-33<br />

J-statistic 0.041668<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE1-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.344364 Sum squared resid 19.80393<br />

Durbin-Watson stat 1.403762<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE2-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.346140 Sum squared resid 20.00881<br />

Durbin-Watson stat 1.385399<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE3-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.344659 Sum squared resid 19.83788<br />

Durbin-Watson stat 1.388148<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE4-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.348826 Sum squared resid 20.32046<br />

Durbin-Watson stat 1.374869<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE5-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.347831 Sum squared resid 20.20474<br />

Durbin-Watson stat 1.384957<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE6-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.352293 Sum squared resid 20.72645<br />

Durbin-Watson stat 1.372548<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE7-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.352141 Sum squared resid 20.70859<br />

Durbin-Watson stat 1.387649<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE8-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.353489 Sum squared resid 20.86745<br />

Durbin-Watson stat 1.376985<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE9-1-(0)<br />

Observations: 169<br />

S.E. of regression 0.356618 Sum squared resid 21.23850<br />

Durbin-Watson stat 1.385473<br />

Equation: C(1)*CNSQDIFFERENZ^-C(2)*DECILE10-1-(0)<br />

Observations: 169<br />

12


S.E. of regression 0.352850 Sum squared resid 20.79203<br />

Durbin-Watson stat 1.403550<br />

Es verdad que los valores <strong>de</strong> los parámetros no son muy satisfactorios <strong>de</strong> acuerdo con su<br />

interpretación, pero lo importante <strong>de</strong>l ejemplo era el ver cómo estimar por el metodo<br />

generalizado <strong>de</strong> los momentos.<br />

6. Conclusiones<br />

Des<strong>de</strong> 1982, la importancia <strong>de</strong>l método generalizado <strong>de</strong> los momentos como método <strong>de</strong><br />

estimación ha ido creciendo. Sus significativas ventajas respecto a otros métodos han<br />

convertido su uso en imprescindible en algunos campos, como en la macroeconomía, la<br />

microeconomía o la economía financiera.<br />

Por ello consi<strong>de</strong>ro muy satisfactorio que en una asignatura <strong>de</strong> pre-postgrado hayamos<br />

tenido la oportunidad <strong>de</strong> examinar este método y ver cómo funciona, aunque sólo sea a<br />

un nivel introductorio. A todo aquel que quiera seguir profundizando en la materia,<br />

pue<strong>de</strong> consultar las obras <strong>de</strong> Davidson y MacKinnon y <strong>de</strong> Hayashi indicadas en la<br />

bibliografía.<br />

13


Bibliografía<br />

Davidson, R. y MacKinnon, J. (1993). “Estimation and Inference in Econometrics”,<br />

Oxford University Press.<br />

Greene, W. (1999). “Análisis Econométrico”, Prentice Hall, 3ª ed.<br />

Hamilton, J. (1994). “Time Series Analysis”, Princeton University Press.<br />

Hansen, L. P. (2007) “Generalized Method of Moments Estimation”, University of<br />

Chicago.<br />

Hayashi, F. (2000). “Econometrics”, Princeton University Press.<br />

Heid, B. (2005). “Estimating Asset Pricing Mo<strong>de</strong>ls by <strong>GMM</strong> using EViews”, University<br />

of Tübingen (Germany).<br />

Johnston, J. y DiNardo, J (1997). “Econometric Methods”, McGraw Hill, 4ª ed.<br />

Pérez Oviedo, W. “Una Aproximación al Método Generalizado <strong>de</strong> los Momentos y sus<br />

Limitaciones”, Nota Técnica 44.<br />

Pynnonen, S. (2007), “A Short Introduction to the Generalized Method of Moments<br />

Estimation”, University of Vaasa, Finland.<br />

Verbeek, M (2004). “A Guido to Mo<strong>de</strong>rn Econometrics”, John Wiley & Sons, 2ª ed.<br />

14

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!