Вы находитесь на странице: 1из 55

ECONOMETRA APLICADA

CONCEPTOS GENERALES DE LA ECONOMETRA


APLICADA






Dr. Luis Miguel Galindo







ECONOMETRA APLICADA




Nobody believes that he can become a chemist by attending
lectures and reading textbooks and journal articles. He should also
devote time and energy to the real work in a laboratory

Henry Theil, Principles of econometrics



Mapa del imperio, que tena el tamao del imperio y coincida
puntualmente con l

Borges


No hay vida recta en la vida falsa

Adorno


KEYNES:
I hope that I have not done injustice to a brave pioneer effort. The
labor it involved must have been enormous. The book is full of
intelligence, ingenuity and candor; and I have leaved it with
sentiments of respect of the author. But it has been a nightmare to
live with, and I fancy that others will find the same. I have a feeling
that Professor Tinbergen may agree with much of the my comment,
but that his reaction will be to engage another ten computers and
drown his sorrows in arithmetic
Keynes
Dear Mrs. Gilboy:
I have been much interested to read your article in November
Quarterly of economics on the propensity to consume. There is a
great deal of useful and interesting work to be done on calculating
the statistical value of the propensity to consume, both for different
classes of the community and in different circumstances. This is a
pioneer study for which we have hardly any material over here, but
where I think there is a chance of making some sort of
approximation on the basis of the American statistics.

Keynes


NORMALIDAD:

Skewness:

(1)
( )
s
Y Y
n
SK
m
y
3
3
) 1 /(


=

Con distribucin normal: SK=0

Kurtuosis:

(2)
( )
s
Y Y
n
K
m
i
4
4
) 1 /(
=












NORMALIDAD:

Jarque Bera:

(3) )
4
) 3 (
(
6
2
2
+ =
k n
JB
sk


Simetra = 0

Kurtuosis normal = 3

Con normalidad perfecta: JB = 0

Problema: JB es vlido asintticamente (Jarque y Bera, 1987,
Anderson, 1994 y Urza, 1996).









REGRESIN ESPREA

Popular image of much econometrics as a high R
2
in search for a
theory
Desai, 1976, Charemza y Deadman, pp8, 1992).

El experimento repetido 100 veces de dos series independientes
(Monte Carlo) rechaza 76% la hiptesis nula con coeficientes de
correlacin mayores a 0.5.

Patterson (2000, pp. 327): R
2
es una variable aleatoria para
variables no estacionarias.











REGRESIN ESPREA


Ejemplo 1: La tasa de mortalidad y la proporcin de fieles de la
iglesia Anglicana tiene un coeficiente de correlacin de 0.95.
Yule (1926), Why do some times get nonsense-
correlations between time series?

Ejemplo 2. Sir Francis Galton: la correlacin inversa de estaturas
entre padres e hijos refleja la tendencia a regresar a la media.
Interpretacin correcta es la distribucin con colas (Stewart, 2004).












CARACTERSTICAS DE LOS MCO

De las ecuaciones normales:

(4)
n
e
i
= 0
(5)
n
x
t
e
i
= 0

Nota: Segunda ecuacin normal es conocida como la condicin de
ortogonalidad.

De
0
= y
m

1
x
m

(6) y
m
=
0
+
1
x
m

la lnea de regresin pasa por los puntos medios








VARIACIONES DE ESCALA:

En general:

Los coeficientes cambian al modificarse la escala con la excepcin
de que se modifiquen ambos lados por la misma escala.

El R
2
y las pruebas de significancia estadstica son invariantes a la
escala (Steward, 2004)














PRONSTICO

Error de pronstico: Y
0
Y
f
0

(7)Y
0
Y
f
0
= (Y
0
E(Y
0
)) = (E(Y
0
) Y
f
0
)

Equivale a:

(8) Y
0
Y
f
0
= (e
0
) + (b
0
-
0
) (b
1

1
)x
0














PRONSTICO

Dos fuentes de error:

1. El trmino de error en 0 es desconocido.

2. La regresin poblacional es desconocida y se estima (samplig
error).

La esperanza del error es cero.













ELASTICIDADES

Logaritmos:

(9.1) y = b
t
t = log
b
y
(9.2) log
10
1000 = 3
(9.3) y = e
t
t = log
e
y
(9.4) t = ln y















ELASTICIDADES

Modelo de crecimiento constante:
(10.1) Y
t
= (1 + g)Y
t-1
(10.2) Y
t-1
= (1 + g)Y
t-2
(10.3) Y
t-2
= (1 + g)Y
t-3
Substituyendo recursivamente:
(10.4) Y
t
= (1 + g)Y
t-1
(10.5) Y
t
= (1 + g)
2
Y
t-2
(10.6) Y
t
= (1 + g)
3
Y
t-3
.
(10.7) Y
t
= (1 + g)
n
Y
t-n
(10.8) Y
t
= (1 + g)
t
Y
0










ELASTICIDADES

La tasa de crecimiento es g:

(11) g
g g
Y
Y
Y
Y
Y
Y Y
Y
Y
t
t
t
t
t
t t
t
t
= =
+
=

1
1
1
1
1
1
1
) 1 (


Adems:
(12) Y
t
= (1 + g)
t
Y
0

Logaritmos:

(13.1) log Y
t
= log Y
0
+ log(1+g)t
(13.2) log Y
t
= + t TSP (Deterministic trend)
Con = log Y
0
y = log(1+g)
Utilizando (13.2):
(13.3) logY
t
logY
t-1
= logY
t
= t (t-1) = DSP (Stochastic
trend).






TSP, DSP Y TASAS DE CRECIMIENTO

Ejemplo: Tasa de crecimiento constante en tiempo contino
(Steward, 2005):

Perodo Y
t
Y
t
= Y
t
Y
t-1
0 Y
0

1 Y
1
=(1+g)Y
0
=(1.05)100=105 5
2 Y
2
=(1+g)Y
1
=(1+g)
2
Y
0
=1.05
2
(100)=110.25 5.25
3 Y
3
=(1+g)Y
2
=(1+g)
3
Y
0
=1.05
3
(100)=115.7625 5.5125
4 Y
4
=(1+g)Y
3
=(1+g)
4
Y
0
=1.05
4
(100)=121.5506 5.7881

T Y
t
=(1+g)
t
Y
0

Notas: =ln 1.05 = 0.04879









TSP, DSP Y TASAS DE CRECIMIENTO

(1) Y
t
= (1 + g)
t
Y
0

(2) Y(t) = Y(0)e
t

(3) log Y(t) = log Y(0) + t

As, es la tasa de crecimiento instantnea.

(4)
Y
Y
dt
Y d
= =
log













TSP, DSP Y TASAS DE CRECIMIENTO

La diferencia en logaritmos mide la tasa de crecimiento continua
compuesta:

(5) log Y
t
logY
t-1
= = 0.04879

El estimador por mnimos cuadrados ordinarios es la media muestral
():

(6) =


=
1 1
1
log log
log
1
2
n n
Y Y
Y
n
n
t
t


El estimador de (6) ser ligeramente diferente (cerca pero no igual)
al que se obtiene de una TSP.

La diferencia es que los modelos son generados de manera distinta.
El trmino de error acumulado es diferente.






ELASTICIDADES

Elasticidad es el porcentaje de respuesta a un cambio de 1% en la
otra variable.

(14) Y
t
= + X
t
+ u
t

1. Elasticidad con modelos log-log:

(15)
YdX
XdY
X d
Y d
=
ln
ln


La pendiente es la elasticidad.











ELASTICIDADES

2. Elasticidad con un modelo en niveles (En este caso la elasticidad
depende de los valores particulares de X,Y adems del coeficiente
):

(16)
Y
X
YdX
XdY
=

3. Modelo semilog: El coeficiente indica el cambio relativo en Y
asociado a un pequeo cambio absoluto en X.
Loglineal: Multiplicando por 100 el coeficiente puede interpretarse
como el cambio porcentual en Y asociado al cambio de una unidad
en X.

(17) X
YdX
XdY
=







ELASTICIDADES

Cuadro 1: Elasticidades

Modelo Funcin Elasticidad
Lineal Y = + X
Y
X

Log-log logY = + logX
Log-lineal log Y = + X X
Lineal-Log Y = + logX
Y
1

Recproco Y = + (1/X)
XY
1













PRUEBAS

Econometra aplicada utiliza varias pruebas con distintos principios
y distribuciones asintticas.

t se usa para restricciones fijas sobre coeficientes.
F se usa para restricciones ms generales.
En el caso de que la restriccin es slo un valor fijo entonces
las pruebas t y F son equivalentes (F es el cuadrado de t).














PRUEBAS

Prueba t:
(18) ) ( k n t
e
k
k
e
k


Con: n = datos y k= variables

Prueba F:

(19) ) , (
) /(
) /(
) /(
) 1 /(
) , 1 ( k T g F
k n SSE
g k SSR
o
k n SSE
k SSR
k n k F =

=

SSR=suma de errores al cuadrado del modelo restringido y
SSE=suma de errores al cuadrado del modelo sin restringir
Ho:
2
=
3
==
k
=0









PRUEBAS DE HIPTESIS ANIDADAS

(20) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t


1. Intercepto es cero (
1
=0):

(20.1) Y
t
=
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t


Prueba t o F.

2. El intercepto es una constante:

(20.2) Y
t
-
1
=
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t


Prueba F.








PRUEBAS DE HIPTESIS ANIDADAS

3. La pendiente vale cero (
2
=0):

(20.3) Y
t
=
1
+
3
X
3t
+
4
X
4t
+ u
t


Prueba t o F.

4. La pendiente tiene un valor constante:

(20.4) Y
t

2
X
2t
=
1
+
3
X
3t
+
4
X
4t
+ u
t


Prueba F.










PRUEBAS DE HIPTESIS ANIDADAS

5. Todas las pendientes son cero (
2
=
3
=
4
=0).

(20.5) Y
t
=
1
+ u
t


Prueba F.

6. Algunas pendientes son cero (
3
=
4
=0).

(20.6) Y
t
=
1
+
2
X
2t
+ u
t


Prueba F.










PRUEBAS DE HIPTESIS ANIDADAS

7. Algunos coeficientes son iguales (
3
=
4
):

(20.7) Y
t
=
1
+
2
X
2t
+
3
(X
3t
+ X
4t
) + u
t

Prueba F.

8. Los coeficientes suman uno (
2
+
3
=1
3
= 1-
2
):

Substituyendo en:

(20) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t


(20.8) Y
t
X
2t
=
1
+
2
(X
3t
- X
2t
) +
4
X
4t
+ u
t


Prueba F.






PRUEBAS DE HIPTESIS NO ANIDADAS

Modelos individuales:

(21.1) Y
t
=
1
+
2
X
2t
+ u
t

(21.2) Y
t
=
1
+
3
X
3t
+ u
t


Prueba de englobamiento:

(21.3) Y
t
=
1
+
2
X
2t
+
3
X
3t
+ u
t


Ho:
2
=0 Ho:
3
=0











LA PRUEBA J



(21.4) Y
1t
=
1
+
2
X
2t
+
1
Y
f
2t
+ u
t
(21.5) Y
2t
=
1
+
3
X
3t
+
2
Y
f
2t
u
t


Ho:
1
=0 Ho:
2
=0.















LA FUNCIN DE MXIMA VEROSIMILITUD

La funcin de mxima verosimilitud: La expresin matemtica de la
probabilidad de obtener una muestra especfica.

Una muestra es (X
1
,X
2
,X
3
,,X
n
).

En el caso en que la muestra se caracteriza por un solo parmetro
(el caso general son varios) entonces la probabilidad de obtener una
muestra dada depende del parmetro y de las observaciones:

L=L(,X
1
,X
2
,X
n
)











LA FUNCIN DE MXIMA VEROSIMILITUD


Ejemplo (intuitivo):

Dos personas de una muestra de 20 de una poblacin apoyan la
opcin 1 La proporcin que estn a favor de la opcin es 10%

Maximun likelihood estimator = 10% que genera esa muestra














ESTIMACIN POR MXIMA VEROSIMILITUD:


El logaritmo de la funcin de verosimilitud condicional:

(22) ( )

=
n
t t
t
x
y
n n
l
2
2
2
2
1
ln
2
) 2 ln(
2



MLE son consistentes y asintoticamente eficientes bajo condiciones
muy generales.














PRUEBA F:


(23)
) /( ) 1 (
/ )
) /(
/ ) (
) , (
2
2 2
K N
h
K N
h
k n h F
R
R R
SSR
SSR SSR
U
R U
U
U R


=



SST = SSE + SSR
H=nmero de restricciones.
K=nmero de parmetros.
N=nmero de datos.
La razn de dos X
2
es una F.

Caso particular del valor de un coeficiente:
) var(
) (
) , 1 (
2

i
i
q
k n F

=










PRUEBA CHI CUADRADA:

(24)
n
h
SSR
SSR SSR
X
R
U R
/
) (
2

=

Problema: se desconoce la
2
pero con ML se tiene una estimacin
que es
e2
=SSR
R
/n

Modelo sin restringir:

(24.1) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t


Restricciones:

3
=
4
= 0









PRUEBA CHI CUADRADA:

Metodologa.

1. Estimar la ecuacin restringida.
2. Salvar los residuales.
3. Estimar los residuales contra
1
+
2
X
2t
+
3
X
3t
+
4
X
4t

(24.2) e
rt
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t

La regresin auxiliar dan unos residuales idnticos a estimarlos de la
regresin sin restringir (Thomas, 1997).











PRUEBA CHI CUADRADA:


Como la variable dependiente es e
rt
entonces SSR
R
es la suma total
del cuadrado de los residuales:


(25)
R
SSR
SSR SSR
X
n
n SST
SSR SST
n
h
R
U R
2 2
/ /
) ( =

=

Donde R
2
es el coeficiente de determinacin de la regresin auxiliar.

Rechazamos las restricciones si en el aso en que nR
2
exceda el
valor crtico de la chi cuadrada.










PRUEBA CHI CUADRADA: EJEMPLO


Paso 1: Regresin normal.
Paso 2: Imponer un coeficiente es cero.
Paso 3: Estimar la restriccin restringida.
Paso 4: Regresin auxiliar R
2
= 0.1686
Paso 5: n=25 nR
2
= 25(0.1686) = 4.22
Paso 6: Valor crtico: X
2
(1)=3.841
Se rechaza la restriccin.














PRUEBA PSEUDO T

En modelos lineales:

(26) .
s
e
e
t


=

Esta distribucin t no aplica para modelos no lineales pero
asintticamente y con teorema de lmite central se llega a una
distribucin normal tal que:

(27) ) ( . k n t t
s
e
e



Correccin por: error estndar: (n/(n-k))
1/2
prueba t: ((n-k)/n)
1/2







TRES PRUEBAS BSICAS

Pruebas:
Wald (W)
Likelihood ratio (LR)
Lagrange multiplier (LM).

Criterios de seleccin:
Todos se basan en teora asinttica:
X
2
(g), g=nmero de restricciones.
LR tiene propiedades fuertemente invariantes.
Wald es sensible a variaciones de escala.











TRES PRUEBAS BSICAS


Cuadro: Tres pruebas bsicas (Maddala, 1996):

Wald = nR
2
/(1-R
2
) Modelo sin restringir
LR = nlog(1/(1-R
2
) Modelos restringido y sin
restringir
LM = nR
2
Modelo restringido


Desigualdad de Berndt-Savin (requiere que el modelo sea no lineal o
las restricciones):

W LR LM

Wald rechaza Ho ms veces.






PRUEBA DE WALD

Consideraciones generales:
La prueba de Wald generaliza las restricciones. Wald es el
cuadrado de la prueba pseudos t.
En restricciones lineales Wald es una prueba F que tiene
mejores propiedades.
ML proporciona la estimacin de la varianza.















PRUEBA DE WALD


Paso 1: Estimar el modelo sin restringir.
Paso 2: Utilizar una prueba pseudo t.

Wald: Estimacin con mxima verosimilitud con:

(28)
) var(
2

e
t
t
W =

Wald es sensible a la forma en que se define la restriccin.











PRUEBA DE LIKELIHOOD RATIO

La prueba compara los valores de la funcin de mxima
verosimiltud. As, en el caso en que las restricciones modifiquen
mucho a la funcin se rechazan las restricciones.

(29) L = (
1
,
2
,
3
,
4
,
2
,Y
t
,X
1t
,X
2t
, X
3t
,X
4t
)

Se escogen los valores de los parmetros que maximizan L.

L
R
/L
U
< 1

Tomado logaritmos entonces se rechazan las restricciones si es
suficiente negativo:

LR = -2(LL
R
-LL
U
)

Ho: LR X
2
(g)





PRUEBA DE LIKELIHOOD RATIO: EJEMPLO


Paso 1: Log-likelihood de la regresin sin restringir: 66.85.
Paso 2: Log-likelihood de la regresin restringida: 64.54.
Paso 3: LR = -2(64.54-66.85) = 4.62
Paso 3: X
2
(1) = 3.841
Paso 4: Se rechaza Ho.















PRUEBA DE MULTIPLICADOR DE LAGRANGE

La prueba de LM requiere slo estimar a la ecuacin restringida.
Maximiza (30) sujeta a las restricciones relevantes:

(30) L = (
1
,
2
,
3
,
4
,
2
,Y
t
,X
1t
,X
2t
, X
3t
,X
4t
)

El valor de los lagrange multipliers con restricciones vlidas sern
pequeos.

Distribucin X
2
(g).
Restricciones lineales es una X
2
estimada de una regresin auxiliar.











MULTIPLICADOR DE LAGRANGE: ILUSTRACIN

Charemza y Deadman (1992):

Paso 1: Estimar el modelo restringido con k-m parmetros donde
k=parmetros sin restringir, m=restricciones impuestas.

Paso 2: Calcular los residuales e
0
t
.

Paso 3: Regresin e
0
t
contra k parmetros R
2
0

Paso 4:

LM=T*R
2
0
con chi cuadrada con m grados de libertad.

) , (
1
2
0
2
0
K T m F
m
k T
LMF
R
R
=

=






EJEMPLO: RESTRICCIONES MATRICIAL

Ejemplo 1:

Restriccin simultnea de varios coeficientes:

Caso simple:

(31) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t


Ho:
2
=
3
=
4
= 0












EJEMPLO: RESTRICCIONES MATRICIAL

La forma restringida no puede exceder a la sin restricciones

RRSS URSS > 0

No es invariante en escala normalizacin que incluya el costo de
imponer las restricciones.

(32)
) )( (
) )( (
) /(
/ ) (
g URSS
K T URSS RSSS
K T URSS
g URSS RSSS
F

=

=














EJEMPLO: RESTRICCIONES MATRICIAL

Resultados con T=23:

(33.1) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t

URSS=100
(33.2) Y
t
=
1
+ u
t

RSSS=150

333 . 3
3
20
100
50
2 / 100
3 / ) 100 150 (
= =

= F

Valor crtico de F(3,20)=3.10 se rechaza Ho.










EJEMPLO: RESTRICCIONES MATRICIAL

Ejemplo 2:

(34.1) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t


Ho:
2
= 1 y
4
= 0
Ha:
2
1 y
4
0















EJEMPLO: RESTRICCIONES MATRICIALES


Modelo restringido:

(34.2) Y
t
-
2
X
2t
=
1
+
3
X
3t
+ u
t


RRSS = 60
URSS = 55
T = 60

(34.2) [ ] 323 . 0 182 . 1
2 /
26 /
55
5
) 4 30 /( 55
2 / ) 55 60 (
= =

= F

Valor crtico de F(2,26)=3.36 no se rechaza Ho.
El rechazo es conjunto se desconoce la causa.
Posible utilizar restricciones matriciales








EJEMPLO: RESTRICCIONES MATRICIALES

Supuesto:
2
= 0:

(35.1) ( ) 0 0 0 1 0
4
3
2
1
=




Incluyendo una restriccin adicional:
3
+
4
= 1

(35.2)

1
0
1 1 0 0
0 0 1 0
4
3
2
1










EJEMPLO: RESTRICCIONES MATRICIALES

En forma general:

(35.3) Ho: R = r

R es gxk, g<k y existen k-g coeficientes libres.
Con r=0 las restricciones se consideran homogeneas.

Las restricciones son independientes y por tanto el rango de R es g.
Existe una matriz H de rango k-g que nos mapea o manda de k
coeficientes a k-g coeficientes.











EJEMPLO: RESTRICCIONES MATRICIALES

Ejemplo:

R = 0 con
2
= 0, k=4 y k g = 3

(35.4) ( ) 0 0 0 1 0
4
3
2
1
=


Entonces = H:

(35.5)

3
2
1
4
3
2
1
1 0 0
0 1 0
0 0 0
0 0 1










EJEMPLO: RESTRICCIONES MATRICIALES

Entonces:

(36.6) Y
t
= X
t
+ u
t

Equivale a:

(36.7) Y
t
= X
t
H + u
t














CRITERIOS DE INFORMACIN


Funcin de mxima verosimilitud:

2
log ) 2 log( 1 (
2
+ + =
n


El valor mximo de es el mnimo de
2
.

Akaike:
AIC =
e2
e
2k/n
Schwartz:
BIC =
e2
n
2k/n

Valores menores de estos dos criterios indican un mejor ajuste.

Steward (2004) argumenta a favor de Schwartz.
Patterson (2000) Akaike sobreestima los autoregresivos.
Lutkepohl; Juntarlos con el criterio de autocorrelacin.

Вам также может понравиться