Академический Документы
Профессиональный Документы
Культура Документы
Teora Econometrica-I
Agosto, 2016
Profesor
TA
:
:
Tom
as Rau B.
Martn Carrasco N.
1.Conceptos claves
2.Ejercicios
1. Suponga que el modelo de regresi
on lineal
yi = 1 + 2 xi + i
donde
1 i
e con i 0
2 = Pi=1
n
i 2
i=1 x
Pn
xi (2 xi + ui )
2 = i=1Pn
i 2
i=1 x
Pn
xi ui
2 = 2 + Pi=1
n
i 2
i=1 x
Pn
i E(ui )
i=1 x
E(2 ) = 2 + P
n
i 2
i=1 x
Luego,
E(ui ) = E(ui u
) = = 0
1
As,
E(2 ) = 2
(Es un estimador condicional e incondicionalmente insesgado ) Para el caso de 1 sabemos que, dado que tiene una columna de 1s
= 1 + 2 X
+u
1 = Y 2 X
2 X
+ E(
E(1 ) = 1 + 2 X
u) E(2 )X
Usando el resultado anterior de 2 , y dado que E(
u) =
1 = 1 +
b Es consistente el estimador MCO de 1 ? Si no lo es bajo qu
e condiciones
es el estimador 1 consistente?
Para ver la consistencia usamos las propiedades de la convergencia en probabilidad. As,
plim1 = plim(Y 2 X)
+u
= plim(1 + 2 X
2 X)
+ plim(
= plim(1 ) + plim((2 2 )X)
u)
= 0. Usando
As, usando WLLN sabemos que plim(
u) = , y que plim((2 2 )X)
esto y el hecho de que 1 es una constante
plim1 = 1 +
Luego, 1 es inconsistente.
La u
nica opci
on para que no lo sea es que el = 0 Es posible eso? Para responder esto
es necesario tener bien claro que ese no es cualquier constante, sino que viene de una
funci
on de probabilidad y que esta definida para > 0.
2. Usted dispone la siguiente informaci
on obtenida de un modelo de regresi
on lineal
con una constante y dos regresores para una muestra de tama
no 30
5
= 4
2
s2 (X 0 X)1
3
= 0
1
0
2
0
1
0
2
s2 (X 0 X)1
3
= 0
1
0
2
0
1
0
2
2
Luego, para este problema usamos
1
R0 = 1
1
Luego, usamos el siguiente intervalo de confianza:
1 = P r tnk p
s2 R(X 0 X)1 R0
1
tnk2
5%
2
t303 = t303
= 2, 052
p
s2 R(X 0 X)1 R0 = 9
Nos queda
5%
3
1 5%
2
2
1 5% = P r t27
t27
9
3
0, 95 = P r 2, 052
2, 052
9
3
0, 95 = P r 3 2, 052
3 2, 052
9
0, 95 = P r (3 3 2, 052 3 + 3 2, 052)
0, 95 = P r (9, 156 3, 156)
0, 95 = P r (9, 156 3, 156)
9)
En donde
R=
1
0
1
1
0
1
!
=1
.
R =
4
q=
1
Luego,
R q =
Y
0
s R(X X)
2
3
R =
5
3
.
3
4
4
11
3
11
.
3
11
5
11
Pr
=1
As,
0,95
Fc = 4, 409 > 3, 354 = F2,27
Se rechaza la Hip
otesis Nula.
4
.
b) Encuentre E()
E() = . As,
= (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R
E()
Con el supuesto R = 0,
=
E()
c) Encuentre la varianza de
= (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R
= {I (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R}
Sea A = {I (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R}, luego
= AV ar()A
0
V ar()
As,
0
= {I(X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R}V ar(){I(X
V ar()
X)1 R0 [R(X 0 X)1 R0 ]1 R}0
= {I(X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R}[ 2 (X 0 X)1 ]{IR0 [R(X 0 X)1 R0 ]1 R(X 0 X)1 }
V ar()
= 2 {(X 0 X)1 (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R(X 0 X)1 }{IR0 [R(X 0 X)1 R0 ]1 R(X 0 X)1 }
V ar()
Reordenando , y en particular usando que
(X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R(X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R(X 0 X)1
= (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R(X 0 X)1
LLegamos a que
= 2 {(X 0 X)1 (X 0 X)1 R0 [R(X 0 X)1 R0 ]1 R(X 0 X)1 }
V ar()
5
y
cov(x, y)
=
x2
x
i=1 (Xi X)(Yi Y )
Pn
plim2 = plim
2
i=1 (Xi X)
Pn
i Y )]
plim[ i=1 (Xi X)(Y
Pn
plim2 =
2]
plim[ i=1 (Xi X)
Pn
1
Pn
plim2 =
1
2
i=1 (Xi X) ]
N plim[
Luego, se puede demostrar que
n
X
1
2 ] = V ar(x) = 2
plim[ (Xi X)
x
N
i=1
n
X
1
i Y )] = cov(x, y)
plim[ (Xi X)(Y
N
i=1
Usando la definici
on del coeficiente de correlacion
cov(x, y)
=
x y
x y
Luego,
plim2 =
1
N
Pn
i Y )]
plim[ i=1 (Xi X)(Y
Pn
1
2
i=1 (Xi X) ]
N plim[
plim2 =
y
x y
=
x2
x
var(x)
Luego,
plim2 =
y)
plimcov(x,
plimvar(x)
Luego, plimcov(x,
= x2 . Luego, analogamente a la forma
anterior se llega a
y
plim2 =
x
8
u2
=1
y2
1
2
x
2 +1
u
A la expresi
on plimR2 se le conoce como R2 poblacional Discuta qu
e ocurre
2
2
con dicho plim cuando x2 = 1 y cuando x2 = 10?
u
u
En primer lugar, es necesario tener claro la nueva informacion que nos entregan. El
hecho de que 1 = 0, 2 = 1 entonces
y =x+u
Luego, aplicando varianza
V ar(y) = V ar(x) + V ar(u) + 2Cov(x, u)
Como u no covara con nada, tenemos
V ar(y) = V ar(x) + V ar(u)
y2 = V ar(x) + u2
Ahora, usamos la definici
on de R2
u2i
)2
i (yi y
P 2
u
plimR2 = plim 1 P i i 2
)
i (yi y
P 2
u
plimR2 = 1 plim P i i 2
)
i (yi y
P 2
plim( i ui )
P
plimR2 = 1
plim( i (yi y)2 )
P
1
plim( i u2i )
P
plimR2 = 1 1 n
)2 )
i (yi y
n plim(
R2 = 1 P
Usando
X
1
plim(
u2i ) = u2
n
i
X
1
plim( (yi y)2 ) = y2
n
i
plimR2 = 1
plimR2 = 1
u2
y2
u2
V ar(x) + u2
Sea V ar(x) = x2
plimR2 = 1
x2
u2
+ u2
u2
2
x + u2
2
x
2
u
1
2
u
1
2
u
plimR2 = 1
Que ocurre cuando
2
x
2
u
+1
= 1?
1
2
x
2
u
+1
1
2
2
x
2
u
= 10?
plimR2 = 1
1
2
x
2
u
+1
10
11
10
1 ,2
n
X
u
2i = min
1 ,2
i=1
(yi 0 )2 +
xi :x=0
(yi 0 1 )2
xi :x=1
X
S
= 2
(yi 0 1 ) = 0
1
x :x=1
i
S
0
y tenemos que
Para esto ocupamos la CPO de
X
X
yi k0 +
yi (n k)0 (n k)1 = 0
xi :x=0
xi :x=1
X
xi :x=0
yi +
yi n0 (n k)1 = 0
xi :x=1
S
1
xi :x=1
xi :x=1
xi :x=1
yi k 0 = 0
xi :x=0
0 =
11
xi :x=0
yi
= Y0
b) Muestre que 0 + 1 = Y1
Para esto ocupamos la CPO de
S
1
(yi 0 1 ) = 0
xi :x=1
yi (n k)0 (n k)1 = 0
xi :x=1
0 + 1 =
De la CPO
S
1
0 + 1 =
xi :x=1
yi
nk
P
xi :x=1
yi
nk
= Y1
= Y1
2
insesgado, es decir E( ) = 2 donde 2 = nk
Sea
u
= M Y = M [X + u] = M X + M u = M u
ya que M X = 01 . Luego,
u
0 u
= (M u)0 M u = u0 M 0 M u = u0 M u
Es necesario notar que u0 M u es un escalar, por lo que u0 M u = tr(u0 M u). As,
E(
u0 u
) = E(u0 M u) = E(tr(u0 M u))
= E(tr(u0 M u))
Usando propiedades de la traza (tr(AB) = tr(BA))
E(tr(u0 M u)) = E(tr(M u0 u))
Como solo hay incertidumbre en u, y como la traza es un escalar
E(tr(M u0 u)) = tr(M E(u0 u))
Usando E(u0 u) = 2 I
tr(M E(u0 u)) = 2 tr(M )
Solamente queda calcular tr(M), para esto usaremos propiedades de la traza (tr(AB) =
tr(BA))
tr(M ) = tr(In X(X 0 X)1 X 0 ) = tr(In ) tr(X(X 0 X)1 X 0 )
1M X
12
2 =
nk
0
u
u
1
E(2 ) =
=
2 (n k) = 2
nk
nk
8. Considere una regresi
on de Y en K variables explicativas X. Imagine un regresor
alternativo Z = XP , donde P es una matriz no singular, de tal forma que cada
columna de Z es una mezcla de columnas de X. Prueba que los residuros de la
regresi
on de Y en X e Y en Z son id
enticos.
Dado que P es no singular, entonces es cuadrada e invertible. Luego, los residuos de la
regresi
on de Y en X vienen dados por
uX = Y X = Y X(X 0 X)1 X 0 Y = (I X(X 0 X)1 X 0 )Y
Y los residuos de la regresi
on de Y en Z
uZ = Y Z = Y Z(Z 0 Z)1 Z 0 Y = (I Z(Z 0 Z)1 Z 0 )Y
Luego, como Z = XP entonces
uZ = (I Z(Z 0 Z)1 Z)Y = (I XP ((XP )0 XP )1 (XP )0 )Y
= (I XP (P 0 X 0 XP )1 P 0 X 0 )Y = (I XP (P 0 (X 0 X)P )1 P 0 X 0 )Y
Como (X 0 X) y P son invertibles
uZ = (I XP P 1 (X 0 X)1 P 01 P 0 X 0 )Y = (I X(X 0 X)1 X)Y = uX
9. En el contexto de MCO bajo los supuesto de Gauss-Markov, encuentre la matriz
de residual makers y la matriz de proyecci
on. Muestre que las matrices son
ortogonales y que ambas son sim
etricas e idempotentes.
Seg
un MCO, el estimador queda
= (X 0 X)1 XY
Usando el
Dada la forma lineal Y = X + u u = Y X, por lo que u
= Y X .
estimador de MCO
u
= Y X = Y X(X 0 X)1 X 0 Y = (I X(X 0 X)1 X 0 )Y
13
Luego, X 0 queda
X10
X20
X10 X1
X20 X1
X10 X2
X20 X2
As, la condici
on de primero orden (o ecuaciones normales) quedan
X 0 X = X 0 Y
X10 X1
X20 X1
X10 X2
X20 X2
0
1
X1 y
=
2
X20 y
Multiplicando por -1
X20 (I X1 (X10 X1 )1 X10 )y = X20 (I X1 (X10 X1 )1 X10 )X2 2
2 = (X20 (I X1 (X10 X1 )1 X10 )X2 )1 (X20 (I X1 (X10 X1 )1 X10 )y)
Sea M1 = I X1 (X10 X1 )1 X10
2 = (X20 M1 X2 )1 (X20 M1 y)
Para encontrar 1 hay dos opciones: hacer lo mismo que con 2 o remplanzar la expresion
de 2 en alguna ecuaci
on. De ambas maneras se llega a que
1 = (X10 M2 X1 )1 (X10 M2 y)
c) Existe alguna diferencia entre realizar una estimaci
on larga a una corta, si
es que ambos set de variables son ortogonales?
No. Si son ortogonales entonces X10 X2 = X20 X1 = 0, por lo que
X10 X1 1 + X10 X2 2 = X10 y
X10 X1 1 = X10 y X10 X2 2
X10 X1 1 = X10 y
1 = (X10 X1 )1 X10 y
11. Si e0 e es la suma de cuadrados de los residuos cuando se est
a regresionado en X
y u0 u es la suma de cuadrados de los residuos cuando es regresionado en (X,z).
Muestre que
u0 u = e0 e c2 (z0 z ) e0 e
donde c es el coeficiente en la regresi
on larga, y z = [I X(X 0 X)1 X 0 ]z es el
vector de residuos cuando z es regresionado en X.
Sea u = y Xd zc el vector de residuos cuando y esta regresionado en X,z. Como en
el ejercicio anterior, sabemos que salvo que X 0 z = 0 o que c = 0, d no va a ser igual a
b = (X 0 X)1 X 0 y.
Al igual que el ejercicio anterior, sabemos que
d = (X 0 X)1 X 0 (y zc) = (X 0 X)1 X 0 y (X 0 X)1 X 0 zc
d = b (X 0 X)1 X 0 zc
Ahora, insertando la expresi
on anterior en u = y Xd zc tenemos que
u = y X(b (X 0 X)1 X 0 zc) zc
u = y Xb + X(X 0 X)1 X 0 zc zc
Sabemos que e = Y Xb
u = e + X(X 0 X)1 X 0 zc zc
16
u0 u = e0 e + c2 (z0 z ) 2cz0 e
Sabemos que
e = M y = y
Luego,
z0 e = z0 y
Adem
as, como
c = (z0 z )1 (z0 y ) z0 y = c(z0 z )
Entonces
u0 u = e0 e + c2 (z0 z ) 2cz0 e
= e0 e + c2 (z0 z ) 2c2 (z0 z )
= e0 e c2 (z0 z )
Luego,
u0 u = e0 e c2 (z0 z ) e0 e
12. Suponga que b es el vector de estimadores de mnimos cuadrados ordinarios de
la regresi
on de y en X, y sea c otro vector de estimadores de Kx1. Demuestre
que la diferencia entre ambas sumas de residuos al cuadrado es
(y Xc)0 (y Xc) (y Xb)0 (y Xb) = (c b)0 X 0 X(c b)
Sea c = (c b) + b. Luego, la suma de residuos al cuadrado en la regresion de y con el
estimador c
(yXc)0 (yXc) = (yX((cb)+b))0 (yX((cb)+b)) = (yXbX(cb))0 (yXbX(cb))
= (y Xb)0 (y Xb) + (c b)0 X 0 X(c b) 2(c b)X(y Xb)
Luego, dada la CPO del problema de MCO entonces X 0 e = X(y Xb) = 0. As,
(y Xc)0 (y Xc) = (y Xb)0 (y Xb) + (c b)0 X 0 X(c b)
(y Xc)0 (y Xc) (y Xb)0 (y Xb) = (c b)0 X 0 X(c b)
17
13. En la estimaci
on de MCO de y en K variables (con una constante) X, para
computar los coeficientes de la regresi
on podemos transformar y en desviaciones
respecto a su media y y, podemos transformar cada columna de X en desviaciones
con la respectiva media de la columna, y segundo regresionar la y transformada
en las Xs transformadas sin la constante Obtenemos los mismo si solo transformamos y? Qu
e ocurre si solo transformamos X?
De la regresi
on de las desviaciones de y en las desviaciones de X, resultan los coeficientes de
X
b = (X 0 M 0 X)1 X 0 M 0 y
en donde M 0 = I i(i0 i)1 i0 es la matriz que transforma las observaciones en sus desviaciones
con respecto a sus medias. Dado que M 0 es idempotente y simetrica 2 podemos escribir los
coeficientes de la siguiente manera
b = [(X 0 M 00 )(M 0 X)]1 [X 0 M 00 M 0 y]
Si solamente transformamos X en sus desviaciones tendramos
b = [(X 0 M 00 )(M 0 X)]1 [X 0 M 00 y]
El cual es identico al anterior ya que M 0 es simetrica e idempotente.
Ahora, si solamente transformamos a y, entonces
b = [(X 0 X)]1 [X 0 M 0 y]
el cual es diferente.
14. Suponga que la regresi
on involucra dos clases de variables X1 y X2 , esto es
y = X + = X1 1 + X2 2 +
Cu
al es el resultado del producto de las matrices M1 M en donde M es la matriz
de residuos?
M1 M = (I X1 (X10 X1 )1 X10 )(I X(X 0 X)1 X 0 ) = M X1 (X10 X1 )1 X10 M
No es necesario multiplicar el segundo termino. Ya que este es un caso particular a M X = 0,
ya que regresionar las X en las X da un perfecto ajuste.
Luego, como X1 X ocurre exactamente lo mismo, por lo que
M1 M = M
2M 0
es sim
etrica ya que
M 00 = (I i(i0 i)1 i0 )0 = I 0 i00 (i0 i)10 i0 = I i(i0 i)1 i0 = M 0
Adem
as es idempotente ya que
M 0 M 0 = (I i(i0 i)1 i0 )(I i(i0 i)1 i0 ) = I 2i(i0 i)1 i0 + i(i0 i)1 i0 i(i0 i)1 i0 = I i(i0 i)1 i0 = M 0
18