Академический Документы
Профессиональный Документы
Культура Документы
=
Con distribucin normal: SK=0
Kurtuosis:
(2)
( )
s
Y Y
n
K
m
i
4
4
) 1 /(
=
NORMALIDAD:
Jarque Bera:
(3) )
4
) 3 (
(
6
2
2
+ =
k n
JB
sk
Simetra = 0
Kurtuosis normal = 3
Con normalidad perfecta: JB = 0
Problema: JB es vlido asintticamente (Jarque y Bera, 1987,
Anderson, 1994 y Urza, 1996).
REGRESIN ESPREA
Popular image of much econometrics as a high R
2
in search for a
theory
Desai, 1976, Charemza y Deadman, pp8, 1992).
El experimento repetido 100 veces de dos series independientes
(Monte Carlo) rechaza 76% la hiptesis nula con coeficientes de
correlacin mayores a 0.5.
Patterson (2000, pp. 327): R
2
es una variable aleatoria para
variables no estacionarias.
REGRESIN ESPREA
Ejemplo 1: La tasa de mortalidad y la proporcin de fieles de la
iglesia Anglicana tiene un coeficiente de correlacin de 0.95.
Yule (1926), Why do some times get nonsense-
correlations between time series?
Ejemplo 2. Sir Francis Galton: la correlacin inversa de estaturas
entre padres e hijos refleja la tendencia a regresar a la media.
Interpretacin correcta es la distribucin con colas (Stewart, 2004).
CARACTERSTICAS DE LOS MCO
De las ecuaciones normales:
(4)
n
e
i
= 0
(5)
n
x
t
e
i
= 0
Nota: Segunda ecuacin normal es conocida como la condicin de
ortogonalidad.
De
0
= y
m
1
x
m
(6) y
m
=
0
+
1
x
m
la lnea de regresin pasa por los puntos medios
VARIACIONES DE ESCALA:
En general:
Los coeficientes cambian al modificarse la escala con la excepcin
de que se modifiquen ambos lados por la misma escala.
El R
2
y las pruebas de significancia estadstica son invariantes a la
escala (Steward, 2004)
PRONSTICO
Error de pronstico: Y
0
Y
f
0
(7)Y
0
Y
f
0
= (Y
0
E(Y
0
)) = (E(Y
0
) Y
f
0
)
Equivale a:
(8) Y
0
Y
f
0
= (e
0
) + (b
0
-
0
) (b
1
1
)x
0
PRONSTICO
Dos fuentes de error:
1. El trmino de error en 0 es desconocido.
2. La regresin poblacional es desconocida y se estima (samplig
error).
La esperanza del error es cero.
ELASTICIDADES
Logaritmos:
(9.1) y = b
t
t = log
b
y
(9.2) log
10
1000 = 3
(9.3) y = e
t
t = log
e
y
(9.4) t = ln y
ELASTICIDADES
Modelo de crecimiento constante:
(10.1) Y
t
= (1 + g)Y
t-1
(10.2) Y
t-1
= (1 + g)Y
t-2
(10.3) Y
t-2
= (1 + g)Y
t-3
Substituyendo recursivamente:
(10.4) Y
t
= (1 + g)Y
t-1
(10.5) Y
t
= (1 + g)
2
Y
t-2
(10.6) Y
t
= (1 + g)
3
Y
t-3
.
(10.7) Y
t
= (1 + g)
n
Y
t-n
(10.8) Y
t
= (1 + g)
t
Y
0
ELASTICIDADES
La tasa de crecimiento es g:
(11) g
g g
Y
Y
Y
Y
Y
Y Y
Y
Y
t
t
t
t
t
t t
t
t
= =
+
=
1
1
1
1
1
1
1
) 1 (
Adems:
(12) Y
t
= (1 + g)
t
Y
0
Logaritmos:
(13.1) log Y
t
= log Y
0
+ log(1+g)t
(13.2) log Y
t
= + t TSP (Deterministic trend)
Con = log Y
0
y = log(1+g)
Utilizando (13.2):
(13.3) logY
t
logY
t-1
= logY
t
= t (t-1) = DSP (Stochastic
trend).
TSP, DSP Y TASAS DE CRECIMIENTO
Ejemplo: Tasa de crecimiento constante en tiempo contino
(Steward, 2005):
Perodo Y
t
Y
t
= Y
t
Y
t-1
0 Y
0
1 Y
1
=(1+g)Y
0
=(1.05)100=105 5
2 Y
2
=(1+g)Y
1
=(1+g)
2
Y
0
=1.05
2
(100)=110.25 5.25
3 Y
3
=(1+g)Y
2
=(1+g)
3
Y
0
=1.05
3
(100)=115.7625 5.5125
4 Y
4
=(1+g)Y
3
=(1+g)
4
Y
0
=1.05
4
(100)=121.5506 5.7881
T Y
t
=(1+g)
t
Y
0
Notas: =ln 1.05 = 0.04879
TSP, DSP Y TASAS DE CRECIMIENTO
(1) Y
t
= (1 + g)
t
Y
0
(2) Y(t) = Y(0)e
t
(3) log Y(t) = log Y(0) + t
As, es la tasa de crecimiento instantnea.
(4)
Y
Y
dt
Y d
= =
log
TSP, DSP Y TASAS DE CRECIMIENTO
La diferencia en logaritmos mide la tasa de crecimiento continua
compuesta:
(5) log Y
t
logY
t-1
= = 0.04879
El estimador por mnimos cuadrados ordinarios es la media muestral
():
(6) =
=
1 1
1
log log
log
1
2
n n
Y Y
Y
n
n
t
t
El estimador de (6) ser ligeramente diferente (cerca pero no igual)
al que se obtiene de una TSP.
La diferencia es que los modelos son generados de manera distinta.
El trmino de error acumulado es diferente.
ELASTICIDADES
Elasticidad es el porcentaje de respuesta a un cambio de 1% en la
otra variable.
(14) Y
t
= + X
t
+ u
t
1. Elasticidad con modelos log-log:
(15)
YdX
XdY
X d
Y d
=
ln
ln
La pendiente es la elasticidad.
ELASTICIDADES
2. Elasticidad con un modelo en niveles (En este caso la elasticidad
depende de los valores particulares de X,Y adems del coeficiente
):
(16)
Y
X
YdX
XdY
=
3. Modelo semilog: El coeficiente indica el cambio relativo en Y
asociado a un pequeo cambio absoluto en X.
Loglineal: Multiplicando por 100 el coeficiente puede interpretarse
como el cambio porcentual en Y asociado al cambio de una unidad
en X.
(17) X
YdX
XdY
=
ELASTICIDADES
Cuadro 1: Elasticidades
Modelo Funcin Elasticidad
Lineal Y = + X
Y
X
Log-log logY = + logX
Log-lineal log Y = + X X
Lineal-Log Y = + logX
Y
1
Recproco Y = + (1/X)
XY
1
PRUEBAS
Econometra aplicada utiliza varias pruebas con distintos principios
y distribuciones asintticas.
t se usa para restricciones fijas sobre coeficientes.
F se usa para restricciones ms generales.
En el caso de que la restriccin es slo un valor fijo entonces
las pruebas t y F son equivalentes (F es el cuadrado de t).
PRUEBAS
Prueba t:
(18) ) ( k n t
e
k
k
e
k
Con: n = datos y k= variables
Prueba F:
(19) ) , (
) /(
) /(
) /(
) 1 /(
) , 1 ( k T g F
k n SSE
g k SSR
o
k n SSE
k SSR
k n k F =
=
SSR=suma de errores al cuadrado del modelo restringido y
SSE=suma de errores al cuadrado del modelo sin restringir
Ho:
2
=
3
==
k
=0
PRUEBAS DE HIPTESIS ANIDADAS
(20) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
1. Intercepto es cero (
1
=0):
(20.1) Y
t
=
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
Prueba t o F.
2. El intercepto es una constante:
(20.2) Y
t
-
1
=
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
Prueba F.
PRUEBAS DE HIPTESIS ANIDADAS
3. La pendiente vale cero (
2
=0):
(20.3) Y
t
=
1
+
3
X
3t
+
4
X
4t
+ u
t
Prueba t o F.
4. La pendiente tiene un valor constante:
(20.4) Y
t
2
X
2t
=
1
+
3
X
3t
+
4
X
4t
+ u
t
Prueba F.
PRUEBAS DE HIPTESIS ANIDADAS
5. Todas las pendientes son cero (
2
=
3
=
4
=0).
(20.5) Y
t
=
1
+ u
t
Prueba F.
6. Algunas pendientes son cero (
3
=
4
=0).
(20.6) Y
t
=
1
+
2
X
2t
+ u
t
Prueba F.
PRUEBAS DE HIPTESIS ANIDADAS
7. Algunos coeficientes son iguales (
3
=
4
):
(20.7) Y
t
=
1
+
2
X
2t
+
3
(X
3t
+ X
4t
) + u
t
Prueba F.
8. Los coeficientes suman uno (
2
+
3
=1
3
= 1-
2
):
Substituyendo en:
(20) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
(20.8) Y
t
X
2t
=
1
+
2
(X
3t
- X
2t
) +
4
X
4t
+ u
t
Prueba F.
PRUEBAS DE HIPTESIS NO ANIDADAS
Modelos individuales:
(21.1) Y
t
=
1
+
2
X
2t
+ u
t
(21.2) Y
t
=
1
+
3
X
3t
+ u
t
Prueba de englobamiento:
(21.3) Y
t
=
1
+
2
X
2t
+
3
X
3t
+ u
t
Ho:
2
=0 Ho:
3
=0
LA PRUEBA J
(21.4) Y
1t
=
1
+
2
X
2t
+
1
Y
f
2t
+ u
t
(21.5) Y
2t
=
1
+
3
X
3t
+
2
Y
f
2t
u
t
Ho:
1
=0 Ho:
2
=0.
LA FUNCIN DE MXIMA VEROSIMILITUD
La funcin de mxima verosimilitud: La expresin matemtica de la
probabilidad de obtener una muestra especfica.
Una muestra es (X
1
,X
2
,X
3
,,X
n
).
En el caso en que la muestra se caracteriza por un solo parmetro
(el caso general son varios) entonces la probabilidad de obtener una
muestra dada depende del parmetro y de las observaciones:
L=L(,X
1
,X
2
,X
n
)
LA FUNCIN DE MXIMA VEROSIMILITUD
Ejemplo (intuitivo):
Dos personas de una muestra de 20 de una poblacin apoyan la
opcin 1 La proporcin que estn a favor de la opcin es 10%
Maximun likelihood estimator = 10% que genera esa muestra
ESTIMACIN POR MXIMA VEROSIMILITUD:
El logaritmo de la funcin de verosimilitud condicional:
(22) ( )
=
n
t t
t
x
y
n n
l
2
2
2
2
1
ln
2
) 2 ln(
2
MLE son consistentes y asintoticamente eficientes bajo condiciones
muy generales.
PRUEBA F:
(23)
) /( ) 1 (
/ )
) /(
/ ) (
) , (
2
2 2
K N
h
K N
h
k n h F
R
R R
SSR
SSR SSR
U
R U
U
U R
=
SST = SSE + SSR
H=nmero de restricciones.
K=nmero de parmetros.
N=nmero de datos.
La razn de dos X
2
es una F.
Caso particular del valor de un coeficiente:
) var(
) (
) , 1 (
2
i
i
q
k n F
=
PRUEBA CHI CUADRADA:
(24)
n
h
SSR
SSR SSR
X
R
U R
/
) (
2
=
Problema: se desconoce la
2
pero con ML se tiene una estimacin
que es
e2
=SSR
R
/n
Modelo sin restringir:
(24.1) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
Restricciones:
3
=
4
= 0
PRUEBA CHI CUADRADA:
Metodologa.
1. Estimar la ecuacin restringida.
2. Salvar los residuales.
3. Estimar los residuales contra
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
(24.2) e
rt
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
La regresin auxiliar dan unos residuales idnticos a estimarlos de la
regresin sin restringir (Thomas, 1997).
PRUEBA CHI CUADRADA:
Como la variable dependiente es e
rt
entonces SSR
R
es la suma total
del cuadrado de los residuales:
(25)
R
SSR
SSR SSR
X
n
n SST
SSR SST
n
h
R
U R
2 2
/ /
) ( =
=
Donde R
2
es el coeficiente de determinacin de la regresin auxiliar.
Rechazamos las restricciones si en el aso en que nR
2
exceda el
valor crtico de la chi cuadrada.
PRUEBA CHI CUADRADA: EJEMPLO
Paso 1: Regresin normal.
Paso 2: Imponer un coeficiente es cero.
Paso 3: Estimar la restriccin restringida.
Paso 4: Regresin auxiliar R
2
= 0.1686
Paso 5: n=25 nR
2
= 25(0.1686) = 4.22
Paso 6: Valor crtico: X
2
(1)=3.841
Se rechaza la restriccin.
PRUEBA PSEUDO T
En modelos lineales:
(26) .
s
e
e
t
=
Esta distribucin t no aplica para modelos no lineales pero
asintticamente y con teorema de lmite central se llega a una
distribucin normal tal que:
(27) ) ( . k n t t
s
e
e
Correccin por: error estndar: (n/(n-k))
1/2
prueba t: ((n-k)/n)
1/2
TRES PRUEBAS BSICAS
Pruebas:
Wald (W)
Likelihood ratio (LR)
Lagrange multiplier (LM).
Criterios de seleccin:
Todos se basan en teora asinttica:
X
2
(g), g=nmero de restricciones.
LR tiene propiedades fuertemente invariantes.
Wald es sensible a variaciones de escala.
TRES PRUEBAS BSICAS
Cuadro: Tres pruebas bsicas (Maddala, 1996):
Wald = nR
2
/(1-R
2
) Modelo sin restringir
LR = nlog(1/(1-R
2
) Modelos restringido y sin
restringir
LM = nR
2
Modelo restringido
Desigualdad de Berndt-Savin (requiere que el modelo sea no lineal o
las restricciones):
W LR LM
Wald rechaza Ho ms veces.
PRUEBA DE WALD
Consideraciones generales:
La prueba de Wald generaliza las restricciones. Wald es el
cuadrado de la prueba pseudos t.
En restricciones lineales Wald es una prueba F que tiene
mejores propiedades.
ML proporciona la estimacin de la varianza.
PRUEBA DE WALD
Paso 1: Estimar el modelo sin restringir.
Paso 2: Utilizar una prueba pseudo t.
Wald: Estimacin con mxima verosimilitud con:
(28)
) var(
2
e
t
t
W =
Wald es sensible a la forma en que se define la restriccin.
PRUEBA DE LIKELIHOOD RATIO
La prueba compara los valores de la funcin de mxima
verosimiltud. As, en el caso en que las restricciones modifiquen
mucho a la funcin se rechazan las restricciones.
(29) L = (
1
,
2
,
3
,
4
,
2
,Y
t
,X
1t
,X
2t
, X
3t
,X
4t
)
Se escogen los valores de los parmetros que maximizan L.
L
R
/L
U
< 1
Tomado logaritmos entonces se rechazan las restricciones si es
suficiente negativo:
LR = -2(LL
R
-LL
U
)
Ho: LR X
2
(g)
PRUEBA DE LIKELIHOOD RATIO: EJEMPLO
Paso 1: Log-likelihood de la regresin sin restringir: 66.85.
Paso 2: Log-likelihood de la regresin restringida: 64.54.
Paso 3: LR = -2(64.54-66.85) = 4.62
Paso 3: X
2
(1) = 3.841
Paso 4: Se rechaza Ho.
PRUEBA DE MULTIPLICADOR DE LAGRANGE
La prueba de LM requiere slo estimar a la ecuacin restringida.
Maximiza (30) sujeta a las restricciones relevantes:
(30) L = (
1
,
2
,
3
,
4
,
2
,Y
t
,X
1t
,X
2t
, X
3t
,X
4t
)
El valor de los lagrange multipliers con restricciones vlidas sern
pequeos.
Distribucin X
2
(g).
Restricciones lineales es una X
2
estimada de una regresin auxiliar.
MULTIPLICADOR DE LAGRANGE: ILUSTRACIN
Charemza y Deadman (1992):
Paso 1: Estimar el modelo restringido con k-m parmetros donde
k=parmetros sin restringir, m=restricciones impuestas.
Paso 2: Calcular los residuales e
0
t
.
Paso 3: Regresin e
0
t
contra k parmetros R
2
0
Paso 4:
LM=T*R
2
0
con chi cuadrada con m grados de libertad.
) , (
1
2
0
2
0
K T m F
m
k T
LMF
R
R
=
=
EJEMPLO: RESTRICCIONES MATRICIAL
Ejemplo 1:
Restriccin simultnea de varios coeficientes:
Caso simple:
(31) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
Ho:
2
=
3
=
4
= 0
EJEMPLO: RESTRICCIONES MATRICIAL
La forma restringida no puede exceder a la sin restricciones
RRSS URSS > 0
No es invariante en escala normalizacin que incluya el costo de
imponer las restricciones.
(32)
) )( (
) )( (
) /(
/ ) (
g URSS
K T URSS RSSS
K T URSS
g URSS RSSS
F
=
=
EJEMPLO: RESTRICCIONES MATRICIAL
Resultados con T=23:
(33.1) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
URSS=100
(33.2) Y
t
=
1
+ u
t
RSSS=150
333 . 3
3
20
100
50
2 / 100
3 / ) 100 150 (
= =
= F
Valor crtico de F(3,20)=3.10 se rechaza Ho.
EJEMPLO: RESTRICCIONES MATRICIAL
Ejemplo 2:
(34.1) Y
t
=
1
+
2
X
2t
+
3
X
3t
+
4
X
4t
+ u
t
Ho:
2
= 1 y
4
= 0
Ha:
2
1 y
4
0
EJEMPLO: RESTRICCIONES MATRICIALES
Modelo restringido:
(34.2) Y
t
-
2
X
2t
=
1
+
3
X
3t
+ u
t
RRSS = 60
URSS = 55
T = 60
(34.2) [ ] 323 . 0 182 . 1
2 /
26 /
55
5
) 4 30 /( 55
2 / ) 55 60 (
= =
= F
Valor crtico de F(2,26)=3.36 no se rechaza Ho.
El rechazo es conjunto se desconoce la causa.
Posible utilizar restricciones matriciales
EJEMPLO: RESTRICCIONES MATRICIALES
Supuesto:
2
= 0:
(35.1) ( ) 0 0 0 1 0
4
3
2
1
=
Incluyendo una restriccin adicional:
3
+
4
= 1
(35.2)
1
0
1 1 0 0
0 0 1 0
4
3
2
1
EJEMPLO: RESTRICCIONES MATRICIALES
En forma general:
(35.3) Ho: R = r
R es gxk, g<k y existen k-g coeficientes libres.
Con r=0 las restricciones se consideran homogeneas.
Las restricciones son independientes y por tanto el rango de R es g.
Existe una matriz H de rango k-g que nos mapea o manda de k
coeficientes a k-g coeficientes.
EJEMPLO: RESTRICCIONES MATRICIALES
Ejemplo:
R = 0 con
2
= 0, k=4 y k g = 3
(35.4) ( ) 0 0 0 1 0
4
3
2
1
=
Entonces = H:
(35.5)
3
2
1
4
3
2
1
1 0 0
0 1 0
0 0 0
0 0 1
EJEMPLO: RESTRICCIONES MATRICIALES
Entonces:
(36.6) Y
t
= X
t
+ u
t
Equivale a:
(36.7) Y
t
= X
t
H + u
t
CRITERIOS DE INFORMACIN
Funcin de mxima verosimilitud:
2
log ) 2 log( 1 (
2
+ + =
n
El valor mximo de es el mnimo de
2
.
Akaike:
AIC =
e2
e
2k/n
Schwartz:
BIC =
e2
n
2k/n
Valores menores de estos dos criterios indican un mejor ajuste.
Steward (2004) argumenta a favor de Schwartz.
Patterson (2000) Akaike sobreestima los autoregresivos.
Lutkepohl; Juntarlos con el criterio de autocorrelacin.