Академический Документы
Профессиональный Документы
Культура Документы
Econometría Aplicada
Variables Instrumentales
Motivación
Muchos modelos económicos implican endogeneidad: esto es una relación teórica que
no encaja exactamente dentro del esquema de regresión de Y contra X, en el cual
suponemos que la variable Y es determinada (pero no de manera conjunta) con X.
En efecto, los conceptos simples de demanda y oferta en micro o la función consumo
Keynesiana en macro son relaciones de este tipo donde al menos una de las variables
explicativas es endógena o determinada conjuntamente con la variable dependiente.
Desde un punto de vista matemático las dificultades que esta endogeneidad causa para
el análisis econométrico son similares a las que se generan en el contexto de variables
omitidas o errores en las variables o errores de medida en las variables X.
En estos casos MCO no genera estimadores consistentes de los parámetros de interés.
Trataremos una solución general al problema de regresores endógenos que también
puede ser convenientemente aplicada en otros contextos como el de variables omitidas
(o errores de medida).
El concepto general es el de estimador de variables instrumentales (IV). Una forma
bastante “popular” de este estimador habitualmente utilizada en el contexto de
endogeneidad es conocida como mínimos cuadrados en dos etapas (TSLS).
1
Esto se resume diciendo que z es exógena en la ecuación y se denomina “exogeneidad
del instrumento”.
En un contexto de variables omitidas esto significa que z no debe tener ningún efecto
parcial sobre y (después de que x y las variables omitidas se han controlado) y z no debe
estar correlacionada con las variables omitidas.
2. Cov (z,x) ≠ 0 . Esto implica que z debe estar relacionada positiva o negativamente
con la variable endógena x. Esta condición se conoce como “relevancia del
instrumento”
En esta regresión podemos fácilmente testear la H0: 1=0. Está claro que no hay una
elección única de instrumento en este caso. Es decir, muchas variables pueden cumplir
con ambas condiciones de no estar correlacionadas con factores no observables que
influencian el salario y correlacionadas con educación.
Es importante notar que no estamos buscando por una Proxy de abil: si tuviéramos una
Proxy esta no sería una buena IV, dado que la correlación con abil implicará correlación
con el proceso estocástico de error u.
Qué es lo que buscamos entonces: por ejemplo algo así como el nivel de educación de la
madre o el número de hermanos podrían ser un instrumento válido. Si determinamos
que tenemos un instrumento razonable, la cuestión ahora es como usarlo.
Donde hacemos uso del hecho de que la covariancia con una constante es cero. Dado
que por supuesto el instrumento no debe estar correlacionado con el término de error, u,
el último término tiene esperanza cero y entones podemos resolver esta ecuación para
obtener un estimador de 1.
Este estimador tiene un caso especial cuando x=z, esto es cuando la variable explicativa
puede servir como su propio instrumento. Lo cual es correcto si : Cov(x; u) = 0.
2
En este caso particular el estimador puede ser interpretado como el estimador MCO.
Entonces MCO es un caso particular de IV, que funciona cuando el supuesto de
exogeneidad de las x puede ser sostenido.
Podemos notar también que el estimador IV es consistente en la medida en que los dos
supuestos sobre las propiedades del instrumento se satisfagan.
Es decir plim(b1)= 1.
Si alguno de los supuestos falla, los estimadores IV no serán consistentes.
Es importante notar que el estimador IV no es un estimador insesgado. Esto implica que
en muestras pequeñas el sesgo puede ser importante, lo que hace preferir muestras
grandes cuando se utiliza esta técnica.
E(u2│z) = 2 = Var(u)
Con este supuesto adicional es posible derivar la variancia asintótica del estimador IV:
3
posible descomponer la varianza de y en dos partes independientes (SSE y SSR) y el R2
no tiene una interpretación natural.
4
5
Ejemplo:
Rendimiento de la educación en mujeres casadas utilizando el archivo de datos de Mroz
(1987).
Estimamos una ecuación de salario en función de educación
reg lw we if ww>0
------------------------------------------------------------------------------
lw | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
we | .1086487 .0143998 7.55 0.000 .0803451 .1369523
_cons | -.1851968 .1852259 -1.00 0.318 -.5492673 .1788736
------------------------------------------------------------------------------
Podemos pensar que la educación es una variable endógena. Un instrumento puede ser
la educación del padre. Para ello debe estar correlacionada con educación y no
correlacionada con el término de error u.
------------------------------------------------------------------------------
we | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
wfed | .2694416 .0285863 9.43 0.000 .2132538 .3256295
_cons | 10.23705 .2759363 37.10 0.000 9.694685 10.77942
First-stage regressions
-----------------------
6
-------------+------------------------------ Adj R-squared = 0.1706
Total | 2230.19626 427 5.22294206 Root MSE = 2.0813
------------------------------------------------------------------------------
we | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
wfed | .2694416 .0285863 9.43 0.000 .2132538 .3256295
_cons | 10.23705 .2759363 37.10 0.000 9.694685 10.77942
------------------------------------------------------------------------------
------------------------------------------------------------------------------
lw | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
we | .0591735 .0351418 1.68 0.093 -.0098994 .1282463
_cons | .4411034 .4461018 0.99 0.323 -.4357312 1.317938
------------------------------------------------------------------------------
Instrumented: we
Instruments: wfed
------------------------------------------------------------------------------
Ahora vemos que los rendimientos a la educación son aproximadamente la mitad de los
estimados por MCO.
7
Para calcular el sesgo de este estimador debemos obtener la esperanza de la anterior
expresión:
La segunda de las esperanzas que componen la anterior expresión sería nula si las
variables incluidas fueran exógenas, E (x´) = 0.
La primera, por el contrario, no lo será a menos que las variables incluidas (x) y
excluidas (z) sean ortogonales, E (x´z) = 0, un supuesto que, como sabemos de la
discusión del problema de multicolinealidad, es poco probable en Economía. Si no se
cumple, el estimador MCO estará sesgado.
Y su esperanza es:
El problema de la Endogeneidad
8
La aparición de endogeneidad en nuestros modelos puede tener tres grandes causas:
heterogeneidad inobservable, errores de medida y simultaneidad.
• Heterogeneidad inobservable.
Esta expresión se refiere al hecho de que los individuos de una población pueden diferir
entre ellos en características que no son observadas por el investigador y que, en
consecuencia, son omitidas de la especificación del modelo.
Sea q esta característica genérica no observada. Obviamente, siempre podríamos estimar
E (y | x), pero los resultados de nuestra estimación podrían tener poco que ver con las
relaciones que definen E (y | x, q).
Errores de medida.
Cuando la variable observada (x) sólo es una medida imprecisa de la variable de interés
(x*) la diferencia entre ambas constituye un error de medida (e*).
Si este error esta correlacionado con la variable observada, Cov (x, e*) ≠ 0, esta será
endógena.
Recordemos que esta interpretación del modelo de regresión como una esperanza
condicional es la que nos permite estimar efectos causales bajo el supuesto del ceteris
9
paribus.
En concreto, bajo el supuesto de linealidad el vector mide el efecto causal de las
variables explicativas sobre la dependiente. Sin embargo, esto solo es cierto en la
medida en que E (x´) = 0.
Si esta condición no se cumple, entonces todavía corresponde a la esperanza
condicional de y dadas las explicativas, pero ya no puede interpretarse como un efecto
causal porque la cláusula del ceteris paribus en la que se sustenta esta interpretación
sólo se refiere a las variables incluidas como explicativas, mientras que para poder
llevar a cabo una interpretación causal también debería incluir a los inobservables.
Pero dado que la media poblacional del término de error es cero, esto implica que el
estimador es insesgado.
Sin embargo, cuando alguno de los regresores es endógeno se rompe esta propiedad.
Supongamos que la variación de las variables explicativas tiene dos componentes: una
10
parte que, por cualquier razón, esta correlacionada con el termino de perturbación (esta
es la causa de nuestros problemas) y otra parte que no lo esta. Si pudiéramos aislar esta
parte no correlacionada podríamos concentrarnos en ella para obtener nuestros
estimadores, desechando al mismo tiempo la parte correlacionada que
provoca el sesgo del estimador MCO.
La cuestión entonces es como aislar la parte que nos interesa de la variación de las x.
El denominado estimador de variables instrumentales utiliza variables adicionales
ajenas al modelo original (“los instrumentos”) para llevar a cabo este proceso de
separación de los componentes correlacionados y no correlacionados de las variables
explicativas.
x = z + v.
11
Donde hemos sustituido las variables explicativas endógenas por las predicciones de las
mismas obtenidas a partir de la estimación MCO realizada en la primera etapa,
Hay dos motivos para que esto sea así. El primero es de índole práctica.
12
Formalmente
La segunda razón es más formal desde el punto de vista estadístico. El estimador VI así
obtenido es el mas eficiente, en el sentido de que su matriz de varianzas y co varianzas
(asintótica) siempre será menor que la de cualquier otra combinación de variables
(incluyendo por lo tanto aquella que sólo utiliza las z’s) empleada para construir el
vector de instrumentos.
Otro aspecto a tener en cuenta es que el numero de instrumentos, M, debe ser mayor
o igual que el numero de variables explicativas endógenas, K.
Se dice entonces que los coeficientes del modelo están, respectivamente,
sobreidentificados (M > K) o exactamente identificados (M = K).
IV y TSLS
y = x
Definimos la matriz de instrumentos z de la misma dimensión que x.
El supuesto de que z no está relacionada con el error implica que 1/N(z´u) se aproxima a
cero en probabilidad a medida que N aumenta. Entonces podemos definir el estimador
IV
Para definir el estimador TSLS (MCO en dos etapas) consideramos el caso en el cual
tenemos un regresor endógeno y más de un potencial instrumento. TSLS combina
múltiples instrumentos en un solo instrumento óptimo el cual puede ser utilizado en el
estimador IV simple
TSLS no es más que el estimador IV con una regla de decisión que reduce el número de
instrumentos al número exacto de instrumentos necesarios para estimar la ecuación de
interés y completar la matriz z.
13
x z ( z´z ) 1 z´x
z(z´z)-1 z´ = Pz.
Entonces
TSLS ( x´x) 1 x´ y
= (x´Pzx)-1 x´Pz y
Para el caso particular en el que sólo tenemos una variable explicativa endógena se
puede demostrar que el estadístico de la F de significación conjunta del modelo
proporciona una buena medida de la relevancia de los instrumentos. Si el estadístico
proporciona valores superiores a 10 podemos confiar en que nuestros instrumentos son
suficientemente relevantes; en caso contrario deberíamos interpretar nuestros contrastes
de significación individual con cuidado.
14
Imaginemos un modelo en el que sólo disponemos de una variable explicativa endógena
y dos instrumentos (en otras palabras, no hay variables explicativas exógenas en nuestro
modelo).
Esto nos permitiría obtener dos estimadores MC2E, uno para cada instrumento.
(Precisamente esto explica por que no es posible emplear este contraste cuando los
coeficientes están exactamente identificados: simplemente no es posible comparar
diferentes estimadores basados en instrumentos alternativos).
Sea Fz el valor del correspondiente estadístico de Wald para el contraste del conjunto de
restricciones lineales dado por =0.
Bajo la hipótesis nula de que todos los instrumentos son exógenos (y asumiendo que los
instrumentos no son débiles y los errores homoscedasticos) el estadístico
J = M x Fz
Si rechazamos esta hipótesis podemos tener dudas acerca de la adecuación del conjunto
de instrumentos. Uno o más de los instrumentos podría estar no tener correlación cero
con el error.
Este test conocido como de Sargan o Basmann está disponible en Stata bajo el comando
overid (hay que instalarlo como un adicional).
Identificación de la Endogeneidad
Podemos preguntarnos acerca de la endogeneidad de una variable. Cómo detectarla?
Es posible emplear un estadístico de Wald del tipo:
15
d´.{var(d)}-1.d ~ 2
donde
d = IV - MCO
var(d) = var(IV) – var(MCO)
No obstante, esta forma del “test de Hausman” en ocasiones no puede ser calculada:
bien porque la matriz de varianzas y covarianzas no puede ser invertida de forma
convencional o bien porque la diferencia d resulta ser negativa.
El test de Hausman puede ser realizado en Stata estimando primero por ivreg.
Luego se invoca el comando
estimates store iv
(iv es el nombre donde van a guardarse los coef estimados)
El test:
hausman iv ., constant sigmamore
gen lw = log(ww)
16
(325 missing values generated)
gen axsq= ax*ax
ivreg lw ax axsq (we=wfed wmed) if ww>0, first
First-stage regressions
-----------------------
------------------------------------------------------------------------------
we | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ax | .0452254 .0402507 1.12 0.262 -.0338909 .1243417
axsq | -.0010091 .0012033 -0.84 0.402 -.0033744 .0013562
wfed | .1895484 .0337565 5.62 0.000 .1231971 .2558997
wmed | .157597 .0358941 4.39 0.000 .087044 .2281501
_cons | 9.10264 .4265614 21.34 0.000 8.264196 9.941084
------------------------------------------------------------------------------
------------------------------------------------------------------------------
lw | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
we | .0613966 .0314367 1.95 0.051 -.0003945 .1231878
ax | .0441704 .0134325 3.29 0.001 .0177679 .0705729
axsq | -.000899 .0004017 -2.24 0.026 -.0016885 -.0001094
_cons | .0481003 .4003281 0.12 0.904 -.7387744 .834975
------------------------------------------------------------------------------
Instrumented: we
Instruments: ax axsq wfed wmed
------------------------------------------------------------------------------
estimates store iv
------------------------------------------------------------------------------
lw | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ax | .0415665 .0131752 3.15 0.002 .0156697 .0674633
axsq | -.0008112 .0003932 -2.06 0.040 -.0015841 -.0000382
we | .1074896 .0141465 7.60 0.000 .0796837 .1352956
_cons | -.5220406 .1986321 -2.63 0.009 -.9124667 -.1316144
------------------------------------------------------------------------------
17
Note: the rank of the differenced variance matrix (1) does not equal the
number of coefficients
being tested (4); be sure this is what you expect, or there may be
problems computing the
test. Examine the output of your estimators for anything unexpected
and possibly consider
scaling your variables so that the coefficients are on a similar
scale.
chi2(1) = (b-B)'[(V_b-V_B)^(-1)](b-B)
= 2.78
Prob>chi2 = 0.0954
(V_b-V_B is not positive definite)
18
19
20
21
22
Referencias
Stock, James H and Mark Watson (2007). Introduction to Econometrics. (2nd. Edition).
Pearson, Boston, 2007
Kennedy, Peter “A Guide to Econometrics” The MIT Press, Cambridge, Massachusetts,
2008.
23