Вы находитесь на странице: 1из 41

CAPTULO 2 REGRESORES ESTOCSTICOS. MODELOS PARCIALMENTE NO ESTACIONARIOS. MTODOS DE MONTE-CARLO.

2.1 INTRODUCCIN. Buena parte de los desarrollos presentados en el captulo anterior se han obtenido asumiendo el cumplimiento de las Hiptesis 2 y 4. La Hiptesis 2 establece que los regresores no son estocsticos. Este supuesto facilita la derivacin de las propiedades de los estadsticos definidos para estimar y evaluar los diferentes parmetros, tanto en muestras pequeas como en el marco asinttico. Su incumplimiento dificulta tales derivaciones siendo necesario aadir determinados supuestos sobre la dependencia estocstica entre el vector de perturbaciones y los regresores. Segn sea esta dependencia, las propiedades de los estadsticos difieren. La Seccin 2 de este captulo est dedicada a analizar las cuestiones relacionadas con estos temas. La Hiptesis 4 se refiere a que los promedios de los cuadrados de las observaciones de las variables as como los de sus productos cruzados tienden a constantes finitas. Cuando esta hiptesis se incumple, entonces esas sumas hay que dividirlas por potencias de T superiores a 1, en muchos casos no coincidentes. Cuando esto es as slo cabe un razonamiento analtico en el marco asinttico, por lo que es necesario hacer uso de los Mtodos de Monte-Carlo para derivar resultados vlidos para muestras finitas. Todos estos puntos sern tratados en la Seccin 3. Por ltimo, la Seccin 4 est dedicada a los Mtodos de Monte-Carlo. La utilidad de los mismos se pondr de manifiesto en las dos secciones anteriores en las que la mayor parte de los resultados derivados lo son asumiendo una muestra de tamao infinito.

93

2.2 REGRESORES ESTOCSTICOS. En esta Seccin se van a mantener las hiptesis comentadas en la Seccin 1.2, excepto la Hiptesis 2 que ahora cambiaremos por la siguiente hiptesis: Hiptesis 2: Los valores de X son la observacin-realizacin de un proceso estocstico. El cambio a esta nueva hiptesis tiene implicaciones importantes a la hora de derivar las propiedades de los estimadores MCO. Por ejemplo, cuando se estudiaba la insesgadez del estimador MCO en el Resultado 1.4 se aplicaban dos reglas que se justificaban por el carcter no estocstico de los regresores. Estas dos reglas permitan escribir: (X' X )1 X' u = (X' X )1 (X' u ) y
(X ' u ) = 0

Cuando los regresores son estocsticos el uso de estas reglas slo es posible bajo ciertos supuestos acerca de la dependencia del vector de residuos y los regresores. Cuando estos supuestos no se cumplen slo cabe pensar en otras reglas especialmente pensadas para un marco asinttico ya que cuando la muestra es grande, se pueden sustituir las dos reglas anteriores por las siguientes:

plim(X' X ) 1X' u = plim(X' X ) 1plim(X' u ) y

plimX' u = 0

En todo caso, todo depende de los supuestos que se hagan acerca de la dependencia entre el vector de perturbaciones y regresores. Por esta razn, vamos a distinguir tres situaciones diferentes segn sea la dependencia: (a) Independencia entre regresores y vector de perturbaciones. (b) Independencia contempornea pero dependencia temporal. (c) Dependencia contempornea. (a) Independencia La independencia se concreta en:
94

Hiptesis 2(i): El vector de perturbaciones y los regresores son independientes pudindose escribir:
(u X ) = 0

(2.1)

Veremos ahora algunas de las propiedades de los estimadores MCO.

Resultado 2.1: El vector de estimadores MCO de , ,es insesgado con una matriz de varianzas y covarianzas igual a:
1 Var = 2 E x X ' X

( )

( )

(2.2)

En donde E x denota la esperanza respecto a la distribucin marginal de X. Prueba: Comenzaremos haciendo referencia a un resultado estndar en estadstica que vamos a utilizar en esta seccin y las que siguen. El resultado dice as: Sean u y v dos variables aleatorias distribuidas conjuntamente. Entonces se cumple que:
E[h (u , v )] = E E h (u , v ) u v u

(2.3)

En donde E

vu

indica la esperanza de la distribucin condicional de v dada

u y Eu representa la esperanza con respecto a la distribucin marginal de u. Utilizando (2.3) se tiene que: E = E x E + (X' X ) X' u X =
1

{ (

)}

= E ( ) =

demostrndose la insesgadez. En cuando a la matriz de varianzas y covarianzas hay que tener en cuenta que:
' Var() = E = { E x E(X' X )1 X' uu ' X(X' X )1 X

)(

] }=

= Ex

{(X' X)1 X' E(uu' X) X(X' X)1 }= {


( )

= E x (X' X )1 X' 2 I T X(X' X )1 = = 2 E x (X' X )1

95

Resultado 2.2 : El estimador MCO de 2 es insesgado. Prueba: E 2 = E x E 2 X = E x 2 = 2 Si se sigue manteniendo la Hiptesis 8 que establece la normalidad del vector $ $ u, entonces condicionados sobre X, los estimadores y 2 tienen las mismas distribuciones de probabilidad comentadas en el capitulo anterior. Por ser estimadores mximo-verosmiles son consistentes y asintticamente eficientes. Si la hiptesis de normalidad no se cumple entonces para poder demostrar que los estimadores son consistentes y asintticamente eficientes es necesario asumir nuevas hiptesis acerca del proceso estocstico multivariante que genera los valores de X. Ver Fomby, Hill y Johnson (1984, Captulo 5) y Hamilton (1994, Captulo 8) para ms detalles. (b) Independencia Contempornea pero Dependencia Temporal. Dentro de este apartado vamos a estudiar el modelo autoregresivo que escribimos como:

[ (

)]

( )

+u y = y +----+ y t 1 t -1 p tp t
o, con notacin matricial

(2.4)

y=X + u en donde ahora:


y0 y 1 = ... ... y T1 y 1 y0 .. ... y T2 ... y p +1 ... y p ... ... ... ... ... y T p

Para la perturbacin u t mantendremos las mismas hiptesis comentadas en la Seccin 1.2, aadiendo que el cuarto momento de u t es finito.
Respecto a la parte sistemtica, aadiremos la hiptesis que garantiza la estacionariedad:
96

Hiptesis 2(ii): Todas las races del polinomio


1 1 2 2 - ...... - p p = 0

(2.5)

estn fuera del circulo unitario. Cumplida sta hiptesis, el proceso puede escribirse como:
y = ( L) u t t

(2.6)

en donde ( L) es un polinomio de retardos de orden infinito que es convergente en error cuadrtico medio. A partir de (2.6) y t j depende de u t j , u t j 1 ,.... pero es independiente de u t . Esto justifica el ttulo del apartado dependencia temporal pero de independencia contempornea. Resultado 2.3 : La matriz
X' X Q = plim T tiene elementos finitos y es no singular. Prueba: (2.7)

1 1 1 (X' X ) = T y t 1 T .... T 1 y t p

... T 1 y t 1 t p 2 T 1 y t 1 ... T 1 y y t 1 t p .... ... ... 1 y 1 y 2 T y ... T tp t p t 1

T 1 y

(2.8)

Los elementos de la primera fila o columna tienden a la media del proceso que, en este caso, es cero. Por otro lado, tal como puede verse en el Captulo 7 de Hamilton (1994), tambin se tiene que:
1 P y t i y t j y t i y t j = ( i j) T

97

Llegamos as al resultado pudindose escribir:


Q=
1 0 0

0 1 M p 1

K 0 M p2 K

K K K K K

M M 0

0 p 1 p2 M 0

Se ve como los elementos de Q, exceptuando los de la primera fila y columna son los de la funcin de autocovarianza del proceso. Resultado 2.4 : La distribucin de probabilidad asinttica de 1 T d X' u N 0, 2 Q 1 X' u viene dada por: T (2.9)

Prueba: Tomaremos uno de los p elementos del vector que escribiremos como: 1 y t ju t T (2.10)

La forma que toma (2.10) nos indica que se trata del promedio de una martingala en diferencias. Bastara aplicar el Resultado A.18 del Anexo 1 para completar la prueba. Hay que tener en cuenta que:
2 2 2 y t j u t = y t j y que:
2 p 1 2 2 y t j u t y t j T

tal como puede verse en el Ejemplo 7.15 de Hamilton (1994). Utilizando todos estos resultados se llega a la distribucin de Resultado 2.5 : La distribucin asinttica de probabilidad de por: d T 0, 2 Q 1
$ T

$ T viene dada

(2.11)

98

Prueba : Basta tomar en cuenta el Resultado A.12 del Anexo 1.


$ La consecuencia inmediata de este resultado es que el estimador es

consistente.
$ plim = plim + ( X' X) 1 X' u = X' X = + plim T = ya que por (2.7) 1 plim X' u = T

X' X plim T

= Q 1 X' u se tiene que su T

Por otra parte, tomando el elemento genrico de esperanza es: 1 T 1 T y t - i u t = T y t - i u t = 0 t =1 y su varianza puede escribirse:
2 1 T 1 2 u 2 + y yt - k u t = T tk t 2 T t =1 y u +2 u y t i t k i t -k - j t j j i i < j

( )(

)]

El segundo trmino de la derecha es cero. El lmite del primero es: 0 2 11 p 2 T 0 0 TT T La esperanza cero y la varianza en el lmite cero son condiciones suficientes para la convergencia en error cuadrtico medio y, como consecuencia para la convergencia en probabilidad, tal como puede verse en el Anexo 1. Ejemplo 2.1 : Consideremos el proceso autoregresivo de primer orden con media cero: y t = y t 1 + u t
99

(2.12)

En este caso, el cumplimiento de la Hiptesis 2(ii) implica que:


<1

(2.13)

El proceso puede escribirse como: + u = 2 y + u + u = y = y t t 1 t t2 t t 1 = = i u t i i=0

(2.14)

Claramente se ve que y t j depende de u t j y perturbaciones de periodos anteriores pero no de u t u otras posteriores a t j . El estimador MCO de es:
yt yt 1 = + yt 1 u t = 2 2 yt 1 yt 1

(2.15)

En este caso se tiene que:


2 yt 1 1 ' = T T

Por lo que Q ser:

y t 1
2

P Q = 0 =

2 1 2

Por lo tanto, la distribucin asnttica viene dada por: T ~ 0, 1 2 La consistencia se deriva de:
$ =+ yt 1 ut T 2 yt -1 T

) [ (

)]

(2.16)

(2.17)

Respecto al denominador del segundo trmino de la derecha ya hemos demostrado que tiende a 0 .

100

Para el numerador se tiene que su esperanza es igual a cero por ser independientes y t1 y u t .
y u = y t 1 u = 0 t 1 t t

y su varianza se puede escribir:


1 y u t -1 t T + 2 T2 i i< 2 = 2 1 y 2 1 u + t t T2

u t i y t - i - 1 y t - j - 1 u t - j j j

Claramente se ve que el segundo trmino de la derecha es cero. Respecto al primero:


2 1 2 u 2 = 1 1 2 = 0 0 y t 1 t 0 T T T T2

Por lo tanto, la esperanza es cero y la covarianza tiende a cero por lo que hay convergencia en error cuadrtico medio, y, como consecuencia, hay convergencia en probabilidad. c) Dependencia Contempornea. Hemos visto que, en las dos situaciones anteriores, los estimadores MCO mantenan alguna de las propiedades derivadas en el caso en que los regresores no eran estocsticos. Cuando exista independencia se mantenan todas las propiedades y cuando se tena dependencia temporal siendo contemporneamente independientes se mantenan las propiedades asintticas. Cuando existe dependencia contempornea entre perturbacin y regresores los estimadores MCO ya no mantienen ninguna de las propiedades y se hace necesario pensar en estimadores alternativos que recuperen alguna de esas propiedades: ser insesgados, consistentes, etc. La solucin ha consistido en utilizar los llamados estimadores de variable instrumental. Veamos a continuacin, algunos ejemplos para ilustrar esta problemtica.

101

Ejemplo 2.2: Considerar el modelo autorregresivo del Ejemplo 2.1 pero asumiendo que la perturbacin sigue, a su vez, una proceso autorregresivo de primer orden: u t = u t 1 + t con (2.18)

t ~ iid (0, 2 ) y < 1


El estimador MCO de sigue siendo el escrito en (2.17). En este caso

tenemos:
y t 1u t = u t 1 + u t 2 + 2 u t 3 +... u t = = u1 + u 2 + 2 u3 +......

(2.19)

En donde u j es la funcin de autocovarianza de u que, a partir, de (2.18) puede escribirse:


u0 = 2 1 2 j j 2 = 1 2

u j = u0

Utilizando estos resultados, (2.19) puede escribirse:


y u = t 1 t = 2 + 2 + 23 + ..... = 2 1 2 1 2 (1 )

Por lo tanto: 2 1 p y t 1u t T 1 2 (1 ) En lo que respecta al denominador de (2.17):

102

2 y 2 1 = y t 2 + u t 1 = 2 y 2 2 + u 2 1 + 2y t 2 u t 1 t t t

y por ser estacionario:


y 2 = y 2 = t 1 t2 0

0 (1 2 ) = de donde se obtiene:
Ey 21 t
=

2 2 2 + 1 2 (1 2 ) (1 - )

(1 )(1 - ) (1 - )
2 2
2

2 (1 ) + 2 2

= 0

por lo que:
plim

y t1
T

= 0

Utilizando todos estos resultados se llega a:

plim = +

(1 2 ) = + 1 + 2

2 (1 2 ) (1 ) = ( 2 (1 ) + 2 2 ) (1 2 ) (1 ) (1 2 )

quedando demostrado que el estimador MCO es inconsistente. Ejemplo 2.3: (Errores en variables) Suponer que el modelo que relaciona dos variables, y t y X t , viene dado por y t = X t + u t En donde u t ~ iid 0, 2 . X t no puede ser observada y, en su lugar, se observa Zt de forma que: t = t + vt

103

en donde tambin, v t ~ iid 0, 2 y es independiente de u t y Xt. v El modelo en trminos de variables observables puede escribirse como: y t = ( Z t v t ) + u t = Z t + w t en donde w t = u t v t . La dependencia contempornea se refleja en: Cov(Z t , w t ) = Var(v t ) El estimador MCO es:
$ yt Zt = + Zt w t = Z2 Z2 t t

(2.20)

1 Z t w t P (Z t w t ) = Var(v t ) T 1 Z 2t P Z 2t = Var(X ) + Var(v t ) T Sustituyendo estos resultados en (2.20) se llega a:


plim = Var(v t ) = Var(X t ) Var(X t ) + Var (v t ) +1 Var(v t )

Este resultado pone de manifiesto que el estimador MCO es inconsistente y que la inconsistencia depende de la importancia de la varianza del error de observacin con respecto a la varianza de la variable no observada.
2.3 MODELOS CON VARIABLES NO ESTACIONARIAS.

En la seccin anterior hemos flexibilizado alguna de las hiptesis del MLG aceptando la posibilidad de que los regresores fueran estocsticos. Pero incluso en ese caso, el anlisis se ha mantenido en un marco estacionario. Hemos visto que, en este marco, bastaba dividir por T a las sumas de cuadrados o sumas cruzadas de las variables para que tendieran a limites finitos. Esto $ hacia que expresiones del tipo T tuvieran distribuciones asintticas bien

definidas, en general todas ellas gausianas. Adems, los estadsticos tipo Wald

104

propuestos para el contraste de determinadas hiptesis nulas tienden asintticamente a distribuciones estndar tipo 2 sin ninguna dependencia de parmetros desconocidos. Estos resultados pueden verse retomando el modelo autoregresivo estudiado en el Ejemplo 2.1. El estimador MCO del parmetro lo hemos escrito en (2.15). Se ve como el denominador dividido por T tiende a un escalar finito obteniendo la distribucin de $ T que hemos escrito en (2.16).

Cuando se relaja la hiptesis de estacionariedad, el planteamiento vara substancialmente. Las sumas de los cuadrados y de productos cruzados hay que dividirlas por T con 1 , siendo necesarios varios valores de segn las $ expresiones. Por otra parte, en lugar de expresiones del tipo T , hay que
$ considerar expresiones del tipo T en donde 1 2 ; esto nos conduce al

concepto de superconsistencia frente al de consistencia que es el que, hasta este momento, hemos venido manejando. En otros casos se presentan situaciones en las que los estadsticos, sean stos estimadores o contrastes, siguen distribuciones diferentes a las estndar, dependiendo, en ciertos casos, de parmetros no conocidos. A continuacin, vamos a presentar una serie de desarrollos que permiten entender algunos de stos puntos. Comenzaremos haciendo referencia al concepto de variable Browniana o proceso de Wiener. Partiremos del modelo de paseo aleatorio sin deriva que escribiremos como: y t = y t 1 + u t (2.21)

en donde suponemos que los u t son i.i.d. con media cero y varianza 1 y, adems, que y0 = 0 . Sustituyendo sucesivamente se llega a: y t = ui
i =1 t

(2.22)

A partir de esta expresin se tiene que: y t ~ (0, t ) de forma que la no estacionariedad queda reflejada en la varianza. 105 (2.23)

Para diferentes valores de t, (2.22) toma la forma siguiente: y 1 = u1 ; y 2 = u1 + u 2 ; y 3 = u 1 + u 2 + u 3 ; y 4 = u 1 + u 2 + u 3 + u 4 ;..... Una caracterstica importante de estas variables es que diferencias no solapadas de las mismas son independientes. Por ejemplo, y 2 y 1 = u 2 e y 4 y 3 = u 4 , son independientes entre s. La generalizacin de este resultado en un marco continuo es lo que conduce al concepto de variable Browniana. La realizacin de un proceso estocstico multivariante discreto experimenta una especie de metamorfosis para acomodarse a un marco en el que el argumento del proceso en lugar de pertenecer al conjunto de todos los nmeros enteros se limita al intervalo (0,1). Veamos esta metamorfosis grficamente. Partimos de la realizacin de un proceso discreto con cinco observaciones que escribimos como: y1, y 2 , y3 , y 4 , y5 Su representacin grfica aparece en la Figura 2.1

yt y5 y4 y3 y2 y1

FIGURA 2.1. Proceso estocstico discreto.

0,5

1,5

2,5

3,5

4,5

5 t

106

Definamos lo que vamos a llamar un proceso estocstico continuo a saltos. Sea [ rT] la parte entera de rT con 0 r 1 . El proceso estocstico continuo a saltos se define como:

y [rT ] = y i 1 para

i i -1 r T T

i = 0,1,2,...5

Su representacin puede verse en la Figura 2.2.

y [ r .T ]

FIGURA 2.2. Proceso continuo a saltos

0,2

0,4

0,6

0,8

r Cuando el tamao de la muestra observada se va haciendo grande, la amplitud de los intervalos en el intervalo (0,1) se va haciendo menor hasta llegar a una lnea continua que es la variable Browniana. Es decir, se tiene que: y [ rT] T d W( r ) (2.24)

en donde W(r) es la variable Browniana. Siguiendo a Hamilton (1994) adoptaremos la siguiente definicin: Definicin 2.1 : La variable Browniana estndar es un proceso estocstico continuo que asocia cada valor de r [0,1] con el escalar W(r) tal que: (a) W( 0) = 0 (2.25)

107

(b) Para cualesquiera valores, 0 r1 r2 .... rk 1 los cambios

[W( r2 ) W( r1 )], ... [W( rk ) W( rk1 )] son cumplindose [W( s) W( t )] ~ (0,s t )

independientes entre s,

(c) Para cualquier realizacin, W(r) es continua en r con probabilidad 1. Observar que, como consecuencia de (b) se tiene que: W( r ) ~ ( 0, r ) (2.26)

La variable Browniana es como un proceso aleatorio continuo definido sobre [0,1] . Un resultado importante que utilizaremos insistentemente en lo que queda de seccin es el llamado Mapping Theorem que dice lo siguiente: Si f(.) es una funcin continua en [0,1] entonces:
y [ rT] d f T f ( W( r ))

(2.27)

Por ejemplo, con la funcin integral:

1 o

y [ rT] T

dr d 0 W( r ) dr
1

(2.28)

Habiendo definido el concepto de variable Browniana estudiemos la convergencia de algunas expresiones habituales en la evaluacin de ciertos estadsticos, prestando especial atencin al factor de normalizacin necesario para lograr la convergencia. Comenzaremos analizando el siguiente sumatorio:

y t 1
1

Considerar lo que hemos llamado el proceso estocstico continuo a saltos dividido por T . Grficamente puede verse en la Figura 2.3

108

y [ r .T] T

FIGURA 2.3. Grfico de

y [ r .T] T

0,2

0,4

0,6

0,8

1 r

Se ve que es una lnea quebrada. El rea de los rectngulos determinados por el eje de abcisas y esta lnea quebrada es:

y [rT ] T

dr =

y [rT ] T

T 1 3 = T 2 y t 1 T t =1

ya que se trata de rectngulos con base igual a

y [rT ] 1 . y altura igual a T T

Por lo tanto, utilizando (2.28) se llega a:


T
32

y t 1 0 W( r ) dr
d 1
3

(2.29)

Destacar que el factor de normalizacin en este caso es T 2 (es decir, el factor por el que hay que dividir) y que converge no a una constante sino a una expresin estocstica que cae fuera de lo que es habitual y estndar. Resultado 2.6 : Considerar un proceso generado de acuerdo con (2.21). Entonces se tiene que: a) T b) T
12 d u t W(1) = (0,1)

32

y t 1 0 W( r )dr
d 1

109

c) T

12

y d 0 W( r )dr
1

d) T 1 y t 1 u t d e) T
32

1 2 W(1) 1 2

1 d t u t W(1) 0 W( r )dr

f) T 2 y 21 d 0 W( r ) dr t
1 2

g) T

t y

t 1

d rW (r )dr
1 0

h) T 3 t y 2 d 0 r W( r ) dr t-1
1 2

i) T ( +1) t p

1 +1

Prueba: a) Es una consecuencia de la aplicacin del Resultado A.6 del Anexo 1 (resultado de Lindeberg-Levy). b) Ya demostrado anteriormente. c) T
12

y=T

32

y t 1 que es b).

d) Tener en cuenta que: y 2 = ( y t 1 + u t ) = y 21 + u 2 + 2 y t 1 u t t t t


2

de donde: y t 1.u t = y sumando: 1 2 (y t y2t 1 u 2t ) 2

y t 1 u t =

1 2 1 yT y0 u2 t 2 2

110

y como:

y T ~ (0,T) y suponiendo que y 0 = 0 : 1 1 yT 1 y t 1 u t = 2 T 2 T


2

u
T

2 t

1 1 1 2 d 2 (1) = W (1) 1 2 2 2

e) Primeramente vamos a demostrar que:


T
32

t ut = T

12

ut T

32

y t 1

(2.30)

Escribimos:
T
32 T

y t 1 = T

32

[ u1 + ( u1 + u 2 ) + ( u1 + u 2 + u 3 )+.....
] = T 2 [(T 1)u1 + (T 2)u 2 +....
3 3 T 1

+( u 1 + u 2 +...+ u T1 ) +( T ( T 1)) u T1

] = T 2 (T t )u t

llegndose as a (2.30).

El resultado se obtiene aplicando a) y b) en (2.30). f) Basta aplicar (2.27). g) T


52

t y t-1 = T

32

d y t 1 0 rW( r ) dr para r =

t T

t T

y aplicando (2.27).
1 2 t h) T 3 t y 2 = T 2 y 21 d 0 rW( r ) dr . t t-1 T

i) Inductivamente:

t =
t =1
T

T(T + 1) que requiere una normalizacin por el factor T 2 2 T(T + 1)(2T + 1) que requiere una normalizacin por el factor T3 6

t
t =1

y as sucesivamente.

111

Se ve que todas las expresiones van precedidas por una potencia de T. Este es el factor de normalizacin. Es el factor por el que hay que dividir la expresin para poder decir que tiene un limite finito. Por esta razn en ocasiones a la expresin original se la denomina O T , queriendo indicar que hay que dividirla por T para

( )

1 conseguir la convergencia. Por ejemplo, diremos que u t es O T 2 , que y t1 es 3 O T 2 y as sucesivamente.

Hay que destacar que los resultados comentados se han derivado asumiendo hiptesis bastante restrictivas, en concreto que el proceso no tiene deriva, que la varianza de la perturbacin es 1 y que sta no tiene autocorrelacin. Pero la extensin de los resultados a los casos en que se incumple alguno de estos supuestos es inmediata. En la Proposicin 17.3 de Hamilton (1994) pueden encontrarse los resultados para cuando hay autocorrelacin y la perturbacin tiene una varianza diferente de la unidad. A continuacin, derivaremos algunos resultados para aquellos casos en que la deriva es diferente de cero. Considerar el siguiente proceso: y* = + y*1 + u t t t en donde es una constante. Sustituyendo sucesivamente y suponiendo y * = 0 , podemos escribir: 0 y * = t + u i = t + y t t
i =1 t

(2.31)

(2.32)

Resultado 2.7 : Suponer que el proceso es el escrito en (2.31). Entonces se tiene que: a) T
3 2

* t 1

u t d W (1) W (r ) dr
1 0

b) T 2 y *1 P t
2

2 2 3 3

c) T 3 y *1 P t

d) T 3 t y *1 P t

112

e) T 4 t y *1 P t
2

2 4

Prueba: a) Teniendo en cuenta (2.32):

y *1 u t = t u t u t + y t 1 u t t
3 Por el Resultado 2.6.e) t u t es O T 2 , 1 por el a) u t es O T 2 y por el d) y t 1 u t es O(T) .

Por lo tanto: T b)
3 2

* t 1

u t T

t u

1 = W (1) W (r ) dr 0

* t 1

= (t 1) + y t 1

A partir del Resultado 2.6. se ve que por i), ( t 1) es O T 2 y por b)

( )

t 1

3 es O T 2 .

Por lo tanto: T 2 y *1 t
2 2

aplicando i) 2

c) y *1 = 2 ( t 1) + y 21 + 2 ( t 1) y t 1 t t Utilizando de nuevo el Resultado 2.6 se ve que: por i) ( t 1) es O T 3 , por f) y 21 es O T 2 t


2 5 y por g) ( t 1) y t-1 es O T 2 .

( )

( )

Por lo tanto: T
3 2 y *1 t

2 3
P

113

d) t y * = t( t 1) + t y t-1 t-1 A partir del Resultado 2.6 se ve que t( t 1) es O T 3 y que:


5 p t y t-1 es O T 2 . Por lo tanto, T 3 t y * t-1 3

( )

e)

t y

*2 t -1

= 2 t (t 1) + t y 2 t -1 + 2 t (t 1) y t -1
2

Por los resultados vistos, el primer trmino de la derecha es O T 4 ,


7 el segundo O(T 3 ) y el tercero puede verse fcilmente que es O T 2

( )

Por lo tanto: T t
4
2 y* t-1

2 4
P

La generalizacin a un proceso multivariante no presenta dificultades especiales. Considerar el siguiente proceso k-variante:

y t u 1t X = u 2t 2t Zt = M M X kt u kt

(2.33)

en donde suponemos que u t = ( u1t L u kt ) se distribuyen i.i. como N( 0, I k ) . Sustituyendo sucesivamente en (2.33) se tiene (suponiendo que los valores iniciales son cero):
t y t u 1i i =1 t X 2 t = u 2 i Zt = i =1 t u ki X kt i =1

(2.34)

114

Siguiendo las pautas comentadas para el proceso univariante podemos definir el concepto de vector de k-variables Brownianas, que seguiremos llamando W(r). Siguiendo a Hamilton (1994) y Johansen (1995), la definicin que adoptamos es: Definicin 2.2 El vector de k-variables Brownianas W(o) es un proceso k-variante continuo que asocia cada valor r [0,1] al vector W(r) de forma que: a) W(0) = 0 b) W(r) es k (0, rI k ) c) Para cualesquiera valores 0 r1 < r2 < K rs 1 , los cambios

[W(r2 ) W(r1 )], [W(r3 ) W(r2 )],......[W(rs ) W(rs1 )] son procesos


multivariantes e independientes entre s que siguen una distribucin Normal con [W (s ) W (r )] ~ (0, (s r )I k ) d) Para cualquier realizacin, W(r) es continuo en r con probabilidad 1. La conexin entre el proceso escrito en (2.34) y el vector W(r) es la misma que la comentada para el caso univariante. Podemos pensar ahora en un proceso multivariante continuo a saltos, que escribiremos como Z rT y reproducir (2.24) en su versin multivariante:
Z [rT ] T d W (r )

(2.35)

Resultado 2.8 Sea Z t el proceso k-variante generado segn (2.33). Sea Z la matriz T k de las observaciones del proceso k variante y sea U la matriz T k de las observaciones del vector de perturbaciones. Entonces se tiene que: a) T
12
d u t W(1) = (0, I k )
1

b) T 1 Z' 1 U d W (r ) dW (r )
0

c) T

32 T
1

z t 1 0 W( r ) dr
d 1

d) T 2 Z' Z d 0 W( r ) W( r )' dr
1

115

e) T

tz

t 1

d rW (r ) dr
1 0

f) T 3 t ( Z' Z) d 0 r W( r )W( r )' dr


1

Prueba: Ver Proposicin 18.1 de Hamilton (1994). Hay que destacar que tambin en este caso los resultados se derivan asumiendo un marco muy restringido en el que el vector ut tiene una matriz de varianzas y covarianzas igual a la unidad y no esta sujeta a autocorrelacin. Pero la extensin a otros casos en que la matriz de varianzas y covarianzas es diferente de la matriz unidad y hay autocorrelacin no presenta ninguna complicacin. De hecho, la demostracin de Hamilton corresponde a estas situaciones ms complicadas. Bastara suponer que el vector ut definido en (2.33) es tal que: u t u 't = y
E u t u t j =
j=1

y se define la matriz de varianzas y covarianzas a largo plazo como:

= + + '
Entonces utilizando la Definicin 2.2 definiramos el movimiento Browniano B(r) con matriz de varianzas y covarianzas igual a y el Resultado 2.8 se seguir manteniendo cambiando W(r) por B(r). Examinemos ahora dos conceptos que han tenido mucha relevancia en el tratamiento de los modelos con variables no estacionarias: correlacin esprea y superconsistencia. Comencemos considerando el proceso k variante escrito en (2.33). Como se ve, todas las variables y it son independientes entre s. Por lo tanto, si especificamos un

modelo del tipo: y t = 2 x 2 t + L + k x kt + u t o, matricialmente: y = X * * + u (2.36)

116

y lo estimamos utilizando MCO, las estimaciones deberan indicar que las variables son realmente independientes. Vamos a ver que se llega a un resultado diferente. Los estimadores MCO de * en (2.36) pueden escribirse:
$ = X *' X *

X *' y

Particionemos el vector de variables Brownianas como:


W1 ( r ) W( r ) = W2 ( r )

en donde suponemos que W1 ( r ) corresponde a y t y W2 ( r ) tiene los (k-1) elementos correspondientes a x 2 t L x kt . Entonces, a partir del Apartado d) del Resultado 2.8 podemos escribir:
T 2 X *' X * d W2 (r ) [W2 (r )] ' dr
1 0

T 2 X *' y d 0 W2 ( r )W1 ( r )dr


1

Usando estos resultados se llega a:


1 1 d W2 (r ) [W2 (r )] ' dr W2 (r )W1 (r ) dr 0 0 1

Este resultado tiene varios aspectos que merecen destacarse. En primer lugar, el vector de estimadores tiende a un vector de elementos estocsticos y no a un vector de parmetros. En segundo lugar, nada parece indicar que los valores que toma el estimador sean cero que es lo que cabra esperar por ser independiente y de las X. Supongamos ahora que el proceso generador de los datos viene dado por: y t = 2 x 2 t + K + k x kt + u 1t x it = u it i = 2,..... k (2.37) (2.38)

El vector de estimadores MCO puede escribirse como:


' 1 = (X *' X * ) X *' y = + X * X *

X *' u 1t

Tambin podemos escribir:

117

1 $ T = 2 X *' X * T

1 *' X u1t T

)
( r ) dW1 ( r )

Haciendo uso de los Apartados b) y d) del Resultado 2.8 se obtiene:


1 $ T d 0 W2 ( r )W2 ( r )' dr

1 1 W2 0

(2.39)

A partir de este resultado se pueden hacer los siguientes comentarios. Primero, $ que para lograr la convergencia tenemos que multiplicar a por T y no por T ;

$ eso significa que en el marco no estacionario la tasa de convergencia de a es

superior a la encontrada en el marco estacionario. Esto puede valorarse como una ventaja. Pero, y esto debe valorarse como un inconveniente, la distribucin de $ T se aleja de una distribucin estndar como la distribucin Normal.

Cuando en la especificacin aparece una relacin como la escrita en (2.37) decimos que en el modelo existe cointegracin entre las variables. Sobre este tema volveremos en el Captulo 5.
2.4 MTODOS DE MONTE-CARLO

Hasta este momento, hemos definido estadsticos y hemos derivado sus propiedades utilizando reglas analticas de la Estadstica Matemtica, principalmente asentadas en torno a la obtencin de la esperanza de determinadas expresiones. Pero este mtodo tiene lmites claros. En bastantes ocasiones los estadsticos adoptan una forma compleja que hace imposible derivar sus propiedades. En algunos casos, el razonamiento asinttico permite obviar las dificultades. Pero en otros, no es as y se hace necesario pensar en mtodos de simulacin. Esta es la razn ltima de los Mtodos de Monte-Carlo. Pero incluso en aquellos casos en que se ha obtenido la distribucin asinttica uno est interesado en calibrar si los resultados que son vlidos para una muestra grande tambin lo son para una muestra ms reducida, ms prxima a lo que es habitual en el trabajo aplicado. Por lo tanto, la metodologa de Monte-Carlo persigue dos objetivos: Derivar las propiedades estocsticas de determinados estadsticos cuando su derivacin no puede abordarse con un mtodo analtico. Determinar en qu medida los resultados asintticos son aplicables en muestras pequeas.

118

A continuacin, vamos a presentar algunas ilustraciones que ayudan a entender la intuicin que subyace a este tipo de mtodos. Para una tratamiento detallado de otros aspectos puede consultarse el trabajo de Davidson y Mackinnon (1994). El Mtodo de Monte-Carlo deriva las propiedades de los estadsticos muestrales especificando los valores concretos de los parmetros del Proceso Generador de Datos (PGD) y un tamao muestral concreto. Una vez especificado el PGD se generan los valores de las variables y, a partir de ellos, los de los estadsticos muestrales. Este ejercicio se repite tantas veces como se haya especificado en el "nmero de simulaciones". Hechas las repeticiones se dispone de valores de los estadsticos muestrales, tantos como sea el nmero de simulaciones. A partir de estos valores se pueden calcular los momentos que caracterizan la distribucin de probabilidad de los estadsticos y derivar sus propiedades. Todo estudio de Monte-Carlo requiere las siguientes especificaciones: 1) los elementos del PGD 2) tamao muestral 3) nmero de simulaciones. Como ilustracin de la aplicacin de este mtodo, tratemos de derivar el valor esperado de la media muestral. Para ello consideremos las siguientes especificaciones: 1) PGD: Supongamos una variable aleatoria normal con media x = 5 y varianza igual a 2 = 1 x 2) Tamao Muestral: T = 10 3) Nmero de Simulaciones: N = 100. A partir de estas especificaciones, el proceso es como sigue: Utilizando un paquete informtico cualquiera de los disponibles se generan 10 valores de una variable distribuida normalmente con media 5 y varianza la unidad. Con estos diez valores se calcula la media y este ser el primer valor que toma el estadstico media muestral; lo denotaremos por X 1.

119

SIMULACIN N 1: X 1 A continuacin se repite ejercicio, obteniendo un segundo valor del estadstico muestral que denotaremos por X 2. SIMULACIN N 2: X 2. Se sigue repitiendo el proceso, obtenindose sucesivamente, X 3, X 4, ..., hasta llegar a X 100. Al final del proceso disponemos de 100 valores del estadstico muestral que se est estudiando, en este caso, la media muestral. A partir de estos 100 valores se puede caracterizar la distribucin de probabilidad de la media muestral. En particular, se puede obtener la media de estos 100 valores mediante la expresin: X1 + X2 + ... + X100 X*= 100 Tambin puede calcularse la varianza mediante la expresin: 1 100 (X i - X * ) 2 N i=1 (2.41)

(2.40)

Si el estadstico media muestral es insesgado parece razonable esperar que: X*5 Frente al mtodo analtico el mtodo de Monte-Carlo tiene la ventaja de proporcionar resultados en situaciones en las que con el primer mtodo no puede llegarse a ninguna conclusin. Tal es el caso, por ejemplo, de modelos con regresores estocsticos con muestras finitas. Pero frente a esa ventaja, hay que hacer notar que la validez de los resultados que se obtienen con el mtodo de Monte-Carlo queda limitada al marco estocstico o PGD especificado en el punto de partida. Por esa razn, se recomienda que el marco estocstico supuesto sea lo suficientemente amplio como para dar cabida a las diferentes situaciones que uno puede encontrar en el trabajo aplicado. Tambin es conveniente tener en cuenta diferentes tamaos muestrales y que el nmero de simulaciones sea grande.

120

Para ilustrar y justificar estas recomendaciones se ha ampliado el ejercicio anterior siguiendo las siguientes direcciones: 1) PGD: Se ha mantenido la media igual a 5 pero, para la varianza, se han considerado 3 valores: 1, 4 y 16. 2) Se han considerado tres tamaos muestrales: T = 10, 100 y 500. 3) El ejercicio se ha repetido 10, 100 y 500 veces. Para el caso con varianza igual a 1 y 10 observaciones los resultados pueden verse en el Cuadro 2.1. En la segunda columna de este cuadro aparecen los 10 valores generados usando el paquete informtico GAUSS versin 3.2.12. El valor de la media muestral calculado aparece en la parte de la derecha.
CUADRO 2.1. Valores generados de N(5,1)

Observacin 1 2 3 4 5 6 7 8 9 10

Valores Generados 4,86 3,97 6,16 5,83 4,74 6,50 5,40 3,39 5,74 4,72

X = 5,131

Manteniendo la misma varianza y el mismo tamao muestral el ejercicio se repite 10 veces obtenindose 10 valores de la media muestral. La media de estos diez valores as como su varianza aparecen en la primera fila del Cuadro 2.2. La primera columna se refiere al tamao muestral; la segunda a la varianza supuesta; las columnas 3 y 4 recogen los resultados, en la tercera la media de las 10 simulaciones y, la cuarta, la varianza de las mismas.

121

CUADRO 2.2. Media Muestral. Simulacin con 10 repeticiones

TM 10 10 10 100 100 100 500 500 500

VP 1 4 16 1 4 16 1 4 16

X* 4.3743 4.4413 5.1540 4.5597 4.4562 4.6722 4.5454 4.5096 4.4602

VX 1.9819 2.3216 3.8031 2.0851 2.0011 2.3688 2.0675 2.0381 2.0409

En este cuadro puede apreciarse cmo los valores de X * tienden a aproximarse a 5 aunque la calidad de la aproximacin es todava discutible. Destacar tambin que la varianza calculada en la ltima columna crece conforme lo hace la varianza del PGD. Los resultados para cuando el nmero de simulaciones es 100 y 500 aparecen en los Cuadros 2.3 y 2.4, respectivamente.
CUADRO 2.3. Media Muestral. Simulacin con 100 Repeticiones

TM 10 10 10 100 100 100 500 500 500

VP 1 4 16 1 4 16 1 4 16

X* 4.9164 5.0174 5.0540 4.9494 4.9455 4.9510 4.9533 4.9463 4.9465

VX 0.3318 0.6309 1.4548 0.2542 0.2707 0.3900 0.2470 0.2518 0.2852

122

CUADRO 2.4. Media Muestral. Simulacin con 500 repeticiones TM VP X* VX

10 10 10 100 100 100 500 500 500

1 4 16 1 4 16 1 4 16

4.9982 4.9736 4.9596 4.9938 4.9820 4.9802 4.9902 4.9866 4.9949

0.1479 0.4327 1.7296 0.0584 0.0887 0.2117 0.0516 0.0582 0.0809

Analizando la secuencia de estos cuadros se pone de manifiesto que, conforme el nmero de simulaciones crece, la calidad de la aproximacin a la media se va haciendo mayor y, adems, la dispersin se hace menor. A partir de lo comentado cabe hacer dos observaciones. Primero, que es posible considerar marcos para el PGD muy amplios que alivian el carcter restrictivo de todo estudio de Monte-Carlo al que ya nos hemos referido. Segundo, es muy importante que el nmero de simulaciones sea elevado pues cuanto mayor sea mejores sern los resultados a los que se llega. A continuacin, presentaremos una segunda ilustracin referida al Modelo Lineal Simple. Este modelo, para la observacin t-sima puede escribirse como: y t = + X t + u t t = 1,2....., T

Los estimadores MCO de y son:


X t X y t y
X t X 2

$ =

$ $ = y -X

123

Las propiedades de estos estimadores son bien conocidas porque, en este caso, el mtodo analtico proporciona los resultados esperados. Bastara particularizar los resultados obtenidos en el captulo anterior. Pese al conocimiento de las propiedades de estos estimadores, a efectos ilustrativos, nos ha parecido interesante derivarlas tambin utilizando los mtodos de Monte-Carlo. Repitiendo los pasos comentados anteriormente las etapas del proceso son las siguientes: 1. Se fija el tamao muestral T. 2. Se concreta el Proceso Generador de Datos determinando: (i) Los valores de y . (ii) El valor de x en cada observacin. (iii) Se especifica una distribucin concreta para u y mediante un proceso generador de nmeros aleatorios se obtienen los diferentes valores de u. 3. Se genera el valor de y en cada observacin utilizando el modelo y los valores de , , x y u. 4. Utilizando slo los valores de y as generados y los datos para x se obtienen los estimadores MCO de y . 5. Se fija el nmero de veces que se repite el experimento. Este nmero determina los valores de y disponibles. 6. A partir de los valores obtenidos para y se calculan los momentos y, en su caso, se analiza la forma de la distribucin de esos valores. Veamos ahora un ejemplo con las siguientes especificaciones. 1. El tamao muestral se fija en 10. 2. (i) Los valores de y son: = 2 y = 1. (ii) Los valores de x son 10 valores generados a partir de una variable distribuida normalmente con media 5 y varianza 1. Estos 10 valores son los que aparecen en la primera columna del Cuadro 2.5.

124

(iii) Para u suponemos una distribucin normal con media cero y varianza la unidad. Una primera orden al proceso generador con esta especificacin proporciona los valores que aparecen en la segunda columna del Cuadro 2.5. 3. Utilizando los valores comentados de , , x y u se generan los de y utilizando el modelo lineal simple. Los valores generados aparecen en la tercera columna del Cuadro 2.5. 4. Introduciendo estos valores de y y x en las frmulas que definen y obtendramos estimaciones concretas de y . = -0,53 = 1,54 resultando el modelo estimado: yt = -0,53 + 1,54 Xt

Pero un valor de y no es suficiente para dar cuenta de las propiedades de una variable aleatoria. Hay que repetir el experimento ms veces. 5. El nmero de veces que se va a repetir es 10. La diferencia entre una simulacin y otra radica solamente en los valores generados para la variable u que son diferentes una a otra. Todos los otros datos -valores de , y x- no varan.
CUADRO 2.5. Simulacin para el Modelo Lineal Simple

Valores de X 4,86 3,97 6,16 5,83 4,74 6,50 5,40 3,39 5,74 4,72

Valores de u 0,39 -0,60 2,34 -0,57 0,25 0,51 0,67 -0,57 0,17 -0,39

Valores de y 7,25 5,37 10,50 7,26 6,99 9,01 8,07 4,82 7,91 6,33

125

Con los 10 valores obtenidos de y se calculan sus medias y varianzas. Los cuatro valores correspondientes a este caso aparecen en la tercera fila del Cuadro 2.6. Como se ha indicado antes, para que un estudio de Monte-Carlo sea til, el PGD debe plantearse de forma amplia y llevarse a cabo para un nmero grande de repeticiones. Siguiendo esta recomendacin el ejercicio se ha repetido para cuatro tamaos muestrales - T = 10, 50, 100 y 500 y 4 valores de la varianza de la perturbacin aleatoria - VP = 0,0001, 0,01, 1 y 100. Los resultados para cuando el nmero de simulaciones es 10 quedan recogidos en el Cuadro 2.6. Para cuando el nmero de simulaciones es 100 y 500 los resultados pueden verse en los Cuadro 2.7 y 2.8, respectivamente.

CUADRO 2.6. Modelo Lineal Simple. 10 Simulaciones

T 10 10 10 10 50 50 50 50 100 100 100 100 500 500 500 500

VP 0.0001 0.01 1 100 0.0001 0.01 1 100 0.0001 0.01 1 100 0.0001 0.01 1 100

0.9077 0.9200 1.0097 1.5749 0.9094 0.9153 0.9704 0.1294 0.9092 0.9077 0.9041 0.9259 0.9092 0.9110 0.9015 1.0960

Var ( )

Var

()

1.8233 1.7603 1.2764 -1.2611 1.8164 1.7860 1.5365 6.0569 1.8182 1.8239 1.8063 1.8789 1.8177 1.8080 1.8562 1.1778

0.3328 0.3253 2.3465 75.2609 0.3300 0.3206 0.7092 129.1226 0.3306 0.3340 0.4965 11.1020 0.3304 0.3275 0.3681 5.3713

0.0824 0.0853 0.1953 3.7613 0.0827 0.0838 0.1107 4.4240 0.0827 0.0824 0.0883 0.4704 0.0827 0.0830 0.0822 0.3326

126

CUADRO 2.7. Modelo Lineal Simple. 100 Simulaciones

T 10 10 10 10 50 50 50 50 100 100 100 100 500 500 500 500

VP 0.0001 0.01 1 100 0.0001 0.01 1 100 0.0001 0.01 1 100 0.0001 0.01 1 100

0.9904 0.9873 0.9971 0.5475 0.9901 0.9906 0.9883 0.8881 0.9901 0.9904 1.0093 1.0671 0.9901 0.9900 0.9849 0.9932

Var ( )

Var

()

1.9790 1.9961 1.9170 4.3417 1.9802 1.9778 1.9793 2.4139 1.9802 1.9794 1.8988 1.5615 1.9800 1.9804 2.0094 1.9833

0.0393 0.0564 1.7208 161.1749 0.0393 0.0450 0.5640 61.8963 0.0392 0.0414 0.2107 24.3169 0.0392 0.0397 0.0925 5.0425

0.0098 0.0104 0.0884 7.0211 0.0098 0.0101 0.0309 2.6021 0.0098 0.0099 0.0172 0.9247 0.0098 0.0098 0.0116 0.1956

CUADRO 2.8. Modelo Lineal Simple. 500 Simulaciones

T 10 10 10 10 50 50 50 50 100 100 100 100 500 500 500 500

VP 0.0001 0.01 1 100 0.0001 0.01 1 100 0.0001 0.01 1 100 0.0001 0.01 1 100

0.9986 0.9956 0.9601 0.8806 0.9979 0.9979 0.9966 1.1700 0.9980 0.9978 0.9946 0.9350 0.9980 0.9979 1.0029 0.9938

Var ( )

Var

()

1.9930 2.0080 2.1993 2.7349 1.9964 1.9964 1.9962 1.0610 1.9960 1.9963 2.0225 2.3621 1.9960 1.9972 1.9736 2.0126

0.0084 0.0593 4.6325 448.8690 0.0080 0.0134 0.6002 57.2608 0.0080 0.0106 0.3044 29.1138 0.0080 0.0085 0.0670 5.1917

0.0020 0.0039 0.1793 17.0787 0.0020 0.0022 0.0252 2.2329 0.0020 0.0021 0.0130 1.1062 0.0020 0.0020 0.0044 0.2052

La principal conclusin que se deriva de estos cuadros es que cualquiera que sea el par tamao muestral-varianza de la perturbacin que se elija, siempre el valor

127

medio de los estadsticos muestrales estimadores MCO, y tienden a estar en torno a los valores de los parmetros que se pretendan estimar. Es la evidencia clara a favor del carcter de estimadores insesgados. Como era de esperar, esto es as en mayor medida cuanto mayor es el nmero de simulaciones.

128

EJERCICIOS

2.1). Considerar el siguiente modelo: y t = x t + u 1t x t = + x t 1 + u 2 t en donde y son constantes y u 1t y u 2 t son ruidos blancos independientes entre s. ): Sabiendo que el orden de probabilidad de tu 2 t es O 1). Derivar los rdenes de probabilidad de : xt y x2 t 2). Analizar las propiedades del estimador MCO de . En caso de que este estimador no sea insesgado derivar el sesgo.
3 2 (T

2.2). Considerar el siguiente modelo: y t = y t 1 + u t x t = x t 1 + v t en donde u t y v t son ruidos blancos independientes entre s. Apartir del modelo: y t = + x t + e t se estiman y utilizando MCO. 1). Derivar las propiedades asintticas de estos dos estimadores. 2). Derivar las propiedades asintticas del estadstico t-ratio para la hiptesis nula: =0. 3). Comentar las implicaciones que se derivan de los resultados obtenidos en los dos puntos anteriores.

2.3). Considerar el siguiente modelo: y t = + y t 1 + u t x t = + x t 1 + v t en donde u t y v t son ruidos blancos independientes entre s. Apartir del modelo: y t = + x t + e t se estiman y utilizando MCO. 1). Derivar las propiedades asintticas de estos dos estimadores. 2). Derivar las propiedades asintticas del estadstico t-ratio para la hiptesis nula: =0. 3). Comentar las implicaciones que se derivan de los resultados obtenidos en los dos puntos anteriores.

129

2.4). Suponer que el proceso generador de datos es: y t = + x t + u t (1) en donde u t es un ruido blanco con varianza 2 . No se dispone de observaciones sobre x y, en su lugar, utilizamos otra variable no estocstica, z. Es decir, estimamos: y t = + z t + u * (2) t Se pide: 1). Las propiedades, media y varianza, de los estimadores MCO de y definidos a partir de (2), indicando como dependen dichas propiedades de la pendiente de la regresin de x sobre z. 2). Demostrar que la esperanza del residuo MCO definido a partir de (2) , u * , es t diferente de cero pero que se cumple que: E(

u* ) = 0 . t
T

2.5). Considerar el siguiente modelo: yt + xt = vt (1 1 L) v t = 1t x t x t 1 = 2 t con: 0 12 1t ~ i.i.d.N 11 0 22 2t 21

Suponiendo que 1 p 1 se pide: 1). La esperanza y varianza de v t , y t y x t . 2).La esperanza y varianza condicionadas a la informacin del periodo anterior de esas tres variables. 3). Suponiendo ahora que 1 = 1 obtener la esperanza y varianza de y t y x t y de la distribucin condicional de y t dado x t . 4). Para 1 = 1 demostrar que el estimador MCO de y t sobre x t es un estimador sesgado del coeficiente de x en la primera relacin del modelo. Demostrar tambin que, asintticamente, el sesgo coincide con el coeficiente de x t en la esperanza de la distribucin condicional de y t dado x t .

130

2.6). Para el vector z t =( y t , x t ) ' considerar el siguiente modelo: yt + xt = vt (1 1 L) v t = 1t y t +2 x t = u t (1 2 L) u t = 2 t con: 0 12 1t ~ i.i.d.N 11 2t 0 21 22 Se pide: 1). Suponiendo que 1 < 1 y 2 < 1 , obtener la esperanza y matriz de varianzas y covarianzas de z t . Derivar ambos momentos para la distribucin condicional de y t dado x t .Hacer la regresin MCO de y t sobre x t y derivar las propiedades del estimador. 2). Suponer ahora que 1 = 1 y 2 < 1 .Obtener la esperanza y matriz de varianzas y covarianzas de z t . Derivar las propiedades del estimador MCO de y t sobre x t . 3). Suponer ahora que 1 = 1 y 2 = 1 . Derivar las propiedades del estimador MCO de y t sobre x t .Obtener las propiedades del estimador MCO de y t sobre x t . Obtener la esperanza y varianza de la distribucin condicional de y t dado x t y los valores pasados de ambas variables.

2.7). Suponer el modelo: y t = y t 1 + 1 x t 1 + 2 x t 2 + u 1t x t = + x t 1 + u 2 t u1t y u 2 t son ruidos blancos independientes entre si. Se pide: 1). Las condiciones que deben cumplir los parmetros del modelo para que las dos variables sean estacionarias en sentido debil. Suponiendo que se cumplen estas dos condiciones derivar la media y la varianza de las dos variables. Derivar, tambin, la funcin de autocorrelacin de x t y dibujar, aproximadamente, el correlograma. 2). Suponiendo que los parmetros cumplen las condiciones que garantizan la estacionariedad se estiman los parmetros de la primera relacin utilizando los estimadores MCO Son esos estimadores insesgados? Son eficientes para todo tamao muestral? Derivar las propiedades asintticas de estos estimadores. 3). Suponiendo que los parmetros del modelo son conocidos definir el predictor ptimo de yT + 2 situados en T. Derivar el error de prediccin correspondiente su media y su varianza.

131

2.8). Suponer el modelo: c t = y t + u t

(1)

yt = ct + a t (2) en donde c t , y t y a t son, respectivamente, consumo, renta y gasto autnomo; u t es un ruido blanco. Se supone que a t no es aleatorio. 1). Obtener la forma reducida las medias, varianzas y covarianza de c t e y t y la media y varianza de c t dada y t . 2). Estimar aplicando MCO en ( 1 ). Derivar las propiedades de este estimador tanto en muestras pequeas como asintticamente y determinar el signo del sesgo asinttico en caso de que exista. 3). Estimar utilizando el estimador de los mnimos cuadrados en dos etapas y derivar las propiedades de este estimador.

132

133

Вам также может понравиться