Академический Документы
Профессиональный Документы
Культура Документы
Paquete E-Views
para el
Anlisis Economtrico
Dra. Mara de la Paz Guzmn Plata
N D I C E
Instrucciones para estimar y evaluar un Modelo de Regresin Lineal
en el paquete E-Views 1
Estimacin del modelo en forma logartmica y otras trasformaciones
elementales 5
Prediccin 7
Modelos Binarios (Modelos Logit y Probit) 19
Anlisis de Series de Tiempo 30
Grficas para pronosticar 30
Tendencia de una serie 33
Estacionalidad de una serie 38
Generacin de Modelos AR, MA y ARMA estacionarios y no
estacionarios en covarianza 44
Raices de los modelos ARMA y su diagnostico 48
Modelos ARMA con componentes de tendencia, estacionalidad y
ciclo.
53
Prediccin de modelos ARMA 62
Races Unitarias, Modelos ARIMA y Pronstico 64
Estimacin de modelos ARCH y GARCH 74
Vectores Autorregresivos 80
Pruebas de Causalidad de Granger 82
Funcin Estmulo Respuesta y la Tabla de Descomposicin de la
Varianza
84
Cointegracin y Mtodo de Correccin del Error 95
Pruebas para detectar cointegracin entre las variables 96
INSTRUCCIONES PARA ESTIMAR Y EVALUAR UN MODELO DE REGRESIN
LINEAL EN EL PAQUETE E-VIEWS
2
1.- Haga una hoja de trabajo en el paquete E-Views con la instruccin
File/New/Workfile/Frequency/Anual, si los datos de la muestra del modelo a estimar
son anuales con periodo inicial por ejemplo en 1980 y periodo final por ejemplo en
2010 (siempre dejar espacio para la prediccin); Semi anual si son semestrales con
periodo inicial por ejemplo en 1980.1 y periodo final 2010.2; Quanterly si son
trimestrales con periodo inicial por ejemplo en 1980.1 y periodo final 1980.4; Monthly
si son mensuales con periodo inicial por ejemplo en 1980.01 y 2010.12; Undated o
irregular si son datos diarios, por hora o por minuto (como para el caso de datos de la
Bolsa de Valores) con periodo inicial en 1 y periodo final por ejemplo en 20,000.
Recomendacin. La muestra debe contener por lo menos 60 datos reciente, evite
trabajar con datos anuales. Adems, al estimar un modelo las variables medidas en
puntos o en precios constantes (unidades reales) deben de tener la misma fecha base
aunque sus unidades de medida pueden ser diferentes. La fecha base debe pertenecer a
un ao estable en trminos econmicos o financieros.
2.- Guarde su archivo con un nombre que sea familiar para usted con File/Save
as/nombre del archivo
3.- Para meter los datos de cada variable escribir la palabra Data dejar espacio y escribir
el nombre de la variable que va introducir y despus enter. Estas palabras debern ir en
el espacio en blanco donde aparece el cursor. Por ejemplo data PIB y despus que d
enter aparece el nombre de la variable y los espacios donde debe introducir los datos.
Para importar los datos de excel, una vez que en EV haya escrito la palabra data
(nombre de la variable) y d enter, importar de excel slo los datos (sin fechas porque
estas ya estn en EV) sombreando los datos de la variable en excel y la instruccin copy
tambin en excel e irse a EV y hacer clic en Edit/Paste, el cursor debe estar en la fecha
del primer dato que debe coincidir con la fecha del primer dato en excel .
4.- Una vez que se introducen los datos de cada variable del modelo se procede a
estimarlo dando clic en Quick/Estimate Equation/ donde aparece una ventana que
tiene un espacio en blanco y en la parte de abajo aparece el mtodo de mnimos
cuadrados ordinarios o LS (si quiere cambiar de mtodo de estimacin del modelo, de
clic en la flecha y aparece, entre otros, el mtodo de mxima verosimilitud). En la parte
de la ventana en blanco donde se encuentra el cursor, anotar en primer lugar, el nombre
de la variable dependiente, espacio, letra c (letra con la cual el paquete estima a la
ordenada al origen), espacio, y los nombres de las variables independientes con sus
respectivos espacios entre cada una de ellas y finalmente dar enter, en seguida aparece
el resultado de la regresin o la estimacin del modelo. Ese resultado se guarda dando
clic en Name/ del men de esa ventana y anotando un nombre familiar a esa estimacin.
PARA HACER LAS PRUEBAS DE ESPECIFICACIN Y DE DIAGNSTICO DEL
MODELO CONTINUAR CON:
5.- Prueba de variables sobrantes o coeficientes estadsticamente no significativos y
prueba de variables omitidas. Esta se realiza con el valor de la probabilidad del
estadstico t (la cual aparece en la ltima columna de la primera parte de los resultados
de la regresin). La hiptesis nula a probar es la no significancia individual de cada una
de los estimadores, por tanto si el valor del estadstico t es mayor a 0.05 (5.0% de
significancia o 95.0% de confianza) se encuentra en la zona de no rechazo de la
hiptesis nula al 95.0% de confianza, es decir, el coeficiente particular es
estadsticamente no significativo o bien la variable respectiva no contribuye en la
explicacin de los cambios de la variable dependiente para este porcentaje de confianza.
3
Esta variable puede ser eliminada del modelo o bien dejarla pero no explicarla en el
reporte de los resultados y evaluacin de ste.
La prueba de variables omitidas se realiza con la RESET. La prueba de variables
omitidas es una, de errores en la media del modelo. Para realizar la prueba RESET dar
clic sobre el men de los resultados de la regresin en View/Stability Test/Ramsey
Reset Test/OK. Esta prueba arroja dos estadsticos y los resultados de la regresin
auxiliar. La hiptesis nula a probar es el modelo no tiene problemas en la media- por
tanto si el valor de la probabilidad de los estadsticos es mayor que 0.05, se encuentra en
la zona de no rechazo de la hiptesis nula al 95.0% de confianza.
6.- Prueba de significancia conjunta de los estimadores. Esta prueba se realiza con el
valor de la probabilidad del estadstico F, que aparece regularmente en la segunda parte
de los resultados de la regresin del lado izquierdo. La hiptesis nula a probar es la no
significancia conjunta de los estimadores, por tanto si el valor de la probabilidad del
estadstico F es mayor que 0.05, se encuentra en la zona de no rechazo de la hiptesis
nula al 95.0% de confianza, en consecuencia ninguno de los estimadores es
estadsticamente significativo.
7.- Prueba de forma funcional correcta o problemas en el primer momento (en la media
X
) de la variable dependiente Y. Los problemas en la media del modelo se detectan
con la prueba RESET o WHITE, ambas pruebas se encuentran en el paquete EV. Para
realizar la prueba RESET dar clic sobre el men de los resultados de la regresin en
View/Stability Test/Ramsey Reset Test/OK. Esta prueba arroja dos estadsticos y los
resultados de la regresin auxiliar. La hiptesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadsticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hiptesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadstico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
Para realizar la prueba White dar clic sobre el men de los resultados de la regresin en
View/Residul Test/White Heteroskedasticity/OK. Esta prueba arroja dos estadsticos
y los resultados de la regresin auxiliar. La hiptesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadsticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hiptesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadstico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
8.- Prueba de normalidad en los errores.- La prueba de normalidad en los errores del
modelo, se realiza al dar un clic sobre el men de los resultados de la regresin en
View/Residul Test/ Histogram-Normality Test/ OK. Los resultados de esta prueba es
una grfica de la distribucin de frecuencias de los errores del modelo y del lado
derecho se encuentra el clculo de los primeros momentos de la variable aleatoria
(media, varianza, simetra y curtosis), el valor del estadstico Jarque-Bera y el valor de
su probabilidad. La hiptesis nula a probar es los errores tiene una distribucin
normal- por lo que si el valor de la probabilidad del estadstico Jarque-Bera es mayor
que 0.05, se encuentra en la zona de no rechazo de la hiptesis nula, es decir, no se
rechaza la hiptesis nula de normalidad en los errores del modelo a un nivel de
confianza del 95.0%.
Es importante destacar, que la prueba de normalidad se puede llevar a cabo para
cualquier variable de la cual se quiera saber si se distribuye en forma normal (sea la
4
variable dependiente, independiente o los errores del modelo estimado). Para realizarle
la prueba de normalidad a cualquier variable, dar clic en el nombre de la variable de
inters, la cual se sombrear y despus dar clic en Show del men de la hoja de trabajo,
con esta instruccin la variable aparece en la nueva ventana y sobre el men de sta dar
clic en View/Descriptive Estadistic/Histogram Stits/enter. Adems, los errores de la
regresin se pueden guardar como cualquier variable dndoles un nombre despus de
estimar la regresin del modelo con la instruccin genr espacio cualquier nombre=resid
(la palabra genr genera cualquier operacin) escrita el la seccin blanca, que se
encuentra en la parte inferior del men principal de EV. Ejemplo genr residuo=resid.
Con el nombre de residuo o cualquier nombre antes del signo igual, EV guarda los
errores de la ltima regresin estimada o de cualquier operacin realizada para
transformar una variable.
9.- Prueba de multicolinialidad. Esta prueba se realiza a travs de la matriz de
correlacin de las variables involucradas del modelo, esta matriz es simtrica donde la
diagonal principal tiene valores de uno, porque el coeficiente de correlacin de una
variable con ella misma tiene este valor. EV calcular esta matriz dando clic en Show y
en la parte blanca de esta ventana, se anota la lista de las variables involucradas en el
modelo (se recomienda empezar por el nombre de la variable dependiente seguida por
las independientes, pero en realidad no importa el orden) y despus OK, adems sobre
el men de la nueva ventana dar clic sobre View/Correlation/OK y aparece la matriz
de correlacin. Si los coeficientes de correlacin de los pares de variables es mayor que
0.88, en trminos absolutos, hay indicios de multicolinialidad entre las variables. Si
adems, la
2
R
tiene un valor cercano a uno y el valor de la probabilidad de estadstico
t es mayor que 0.05 (coeficientes estadsticamente no significativos) entonces se
confirma el problema de multicolinialidad.
10.- Prueba de Homoscedasticidad o de estabilidad del coeficiente
2
. Para saber si los
errores son homoscedsticos existe, en el paquete EV, dos pruebas estas son ARCH y
White. Los resultados de ambas pruebas se obtienen dando clic sobre los resultados de
la regresin en View/Residual Test/ARCH/OK y View/Residual Test/White
Heteroskedasticity/OK. Los resultados de estas dos pruebas son los valores de los
estadsticos, los valores de sus probabilidades y las regresiones auxiliares. La hiptesis
nula a probar es los errores del modelo son homoscedsticos-, por tanto si el valor de
la probabilidad de los estadsticos que arroja cada prueba es mayor que 0.05, no se
rechaza la hiptesis nula, es decir, los errores son homocedsticos al 95.0% de
confianza.
11.- Prueba de no autocorrelacin en los errores del modelo. Para saber si los errores
estn autocorrelacionados, se encuentra el anlisis del estadstico Durbin-Watson (D-
W), el anlisis del correlograma de los errores y la prueba de Multiplicadores de
Lagrange. El estadstico D-W aparece en los resultados de la regresin; si el estadstico
D-W tiene el valor de 2 o muy cercano a este valor, los errores no presentan
autocorrelacin de orden uno; sin embargo, este estadstico no puede ser utilizado para
detectar autocorrelacin cuando se estima un modelo dinmico (cuando la variable
dependiente rezagada aparece como explicativa), en este caso se utiliza la prueba H de
D-W. El anlisis del correlograma de los errores, es un indicador del problema de
autocorrelacin; para realizar esta prueba dar clic sobre los resultados de la regresin en
View/ Residul Test/Correlogram-Q Statistics/OK; la hiptesis nula a probar es los
errores no estn autocorrelacionados- por tanto si las barras del correlograma no se
salen de la banda del 95.0% de confianza o del 5.0% de significancia, no se rechaza la
hiptesis nula de no autocorrelacin entre los errores, si las barras del correlograma se
5
salen de dicha banda esto quiere decir que hay problemas de autocorrelacin entre los
errores. La prueba de Multiplicadores de Lagrange (LM) para detectar autocorrelacin
en los errores de orden p, se realiza dando clic sobre los resultados de la regresin en
Correlation LM/ View/Residul Test/Serial OK; esta prueba llamada Breusch-Golfrey
arroja los valores de dos estadsticos y la regresin auxiliar; la hiptesis nula a probar es
los errores no estn autocorrelacionados- por tanto si el valor de la probabilidad de los
estadsticos es mayor que 0.05 no se rechaza la hiptesis nula al 95.0% de confianza.
12.- Prueba de estabilidad en los parmetros beta o prueba de permanencia estructural.
Para realizar esta prueba se encuentran los estadsticos CUSUM, CUSUM-Q y Chow.
Es recomendable primero obtener a los estadsticos CUSUM y CUSUM-Q, porque si
hay cambio estructural, las grficas de estos estadsticos marcan la fecha de quiebre que
se requiere para introducirla la prueba Chow. Para obtener a los estadsticos CUSUM
dar clic en los resultados de la regresin sobre View/Recursive Estimates/CUSUM
Test/OK y aparece una grfica donde, dentro de una banda de 95.0% de confianza, se
dibuja a este estadstico; de igual manera para obtener el estadstico CUSUM-Q dar clic
en los resultados de la regresin sobre View/Recursive Estimates/CUSUM-Q
Test/OK y aparece una grfica donde dentro de una banda de 95.0% de confianza se
dibuja a este estadstico. La hiptesis nula a probar es que los estimadores beta son
estables a travs de tiempo o bien que hay permanencia estructural, por tanto si los
estadsticos se salen de las bandas hay cambio estructural y se tiene que recordar la
fecha en que los estadsticos cortan las bandas para anotarlas en la prueba Chow y
comprobar si en realidad hubo cambio estructural. Para realizar la prueba Chow dar clic
sobre los resultados de la regresin en View/Estability Test/Chow Breakpoint
Test/enter y aparece una ventana donde en la parte en blanco hay que anotar la posible
fecha del corte, por ejemplo si la muestra es mensual y el estadstico CUSUM o
CUSUM-Q corto la banda en el mes de marzo de 2001, entonces se anota 2001.03 y clic
en OK. Si los valores de la probabilidad de los estadsticos que arroja la prueba son
mayores que 0.05 no se rechaza la hiptesis nula que en ese punto no hubo
rompimiento.
13.- Prueba sobre restriccin en los parmetros. Frecuentemente, en la teora econmica
se sostiene que los parmetros individualmente o bajo cualquier operacin matemtica
(suma, resta, multiplicacin o divisin), deben de ser iguales entre ellos o a cierto
valor, para probar esta clase de restricciones sobre los coeficientes se utiliza la prueba
Wald . El ejemplo ms comn de esto, se observa en la funcin de produccin tipo
Cobb-Douglas (cuyo modelo se convierte en lineal al estimar las variables por medio de
la transformacin logartmica). Si se quiere probar que cierta industria presenta
rendimientos constantes a escala, el investigador planea la hiptesis nula y la alternativa
(
1 : 1 :
2 1 1 2 1 0
+ + H H
) y despus prueba, con el estadstico Wald, de la
siguiente manera: dar clic sobre los resultados de la regresin en View/Coefficient
Test/ Wald Coefficient Restriction/ y sale una ventana donde hay que anotar la
restriccin con la sintaxis c(2)+c(3)=1 y dar OK (suponiendo que existe ordenada al
origen porque EV la guarda como c(1)). Note que EV guarda cada coeficiente del
modelo con c entre parntesis el nmero de cada coeficiente, como aparece en la
regresin, por tanto c(1) es el coeficiente de la ordenada al origen, c(2) es el coeficiente
de la primera variable X, el c(3) es el coeficiente de la segunda variable X y as
sucesivamente. El criterio de decisin es, si el valor de la probabilidad de los
estadsticos es mayor que 0.05 no se rechaza la hiptesis nula que plante el
investigador. Para el caso del ejemplo, no se rechaza que la industria presenta
rendimientos constantes a escala.
6
ESTIMACIN DEL MODELO EN FORMA LOGARITMICA Y OTRAS
TRASFORMACIONES EN LAS VARIABLES
Una de las formas funcionales que frecuentemente se utilizan en la estimacin del
modelo de regresin lineal es la forma logartmica. Su uso es recomendable porque los
estimadores miden las elasticidades y se interpretan como el cambio porcentual de la
variable Y ante el cambio porcentual de las variables X. Para estimar el modelo en
logaritmos se tiene que calcular el logaritmo de cada variable o anotarlo directamente en
la estimacin. Hay dos pasos para hacer esto en el paquete EV, el primero es calcular el
logaritmo de cada variable con el comando genr y el segundo es estimar la regresin
anteponiendo la instruccin log al nombre de cada variables en la regresin. Para llevar
a cabo la primera, i) ubicar el cursor en la parte blanca debajo del men principal de
EV y escribir la palabra genr o ii) dar clic en la variable a transformar con alguna
operacin y Show/Genr; despus anotar cualquier nombre=log(el nombre de la variable
original); Ejemplo.- i) genr lpib=log(pib) o ii) lpib=log(pib); as EV genera y guarda el
logaritmo de cada variable. Para realizar la segunda, i) de clic en Quik/Estimate the
Equation y escribir el la ventana blanca log(nombre original de la variable
dependiente) c log(nombre original de la variable explicativa) etc. ii) ubicar el cursor el
la parte blanca debajo del men principal y escribir las letras ls log(nombre original de
la variable dependiente) c log(nombre de la variable independiente) etc. La instruccin
ls es para estimar el modelo por el mtodo de MCO. Despus de estimar el modelo en
logaritmos, tiene que evaluarlo mediante las pruebas descritas en los puntos del 5 al 12.
Note que la transformacin logartmica de cada variable es una tasa de variacin
porcentual. Sin embargo, el logaritmo de una variable negativa no se puede calcular.
Otras transformaciones en las variables originales se llevan a cabo con la instruccin
genr o series. Por ejemplo:
1.- El cambio porcentual de una variable de un periodo a otro se realiza escribiendo
genr o series cualquier nombre=((nombre de la variable original/nombre de la variable
original(-1))-1)*100. Hay que tener cuidado en la sintaxis de la frmulas porque de lo
contrario E-W no las calcula. Para estimar la inflacin a partir del ndice nacional de
precios al consumidor, cuyo nombre de la variable original fue guardado con inpc
anotar lo siguiente
Genr inflacin=((inpc/inpc.(-1))-1)*100
2.- La tasa de inters real de algn instrumento financiero medido en tasa nominal
como los cetes, guardado con el nombre original de cetes y creada la variable inflacin,
se puede calcular escribiendo
Genr tircetes=(((cetes/12)-inflacin)/1+inflacin)
3.- Una de las transformaciones recomendables en las variables de un modelo
economtrico es la diferencia (Y del periodo t Y del periodo anterior (t-1)). Esta
transformacin mide la variacin absoluta de la variable de un periodo a otro. As, si se
quiere obtener la diferencia del pib (nombre original de la variable) se escribe
Genr dpib=d(pib)
Con esta instruccin EV calcula la primera diferencia de la variable llamada pib
7
4.- Las transformaciones de una variable elevada a un exponente, que son frecuentes en
la estimacin de un modelo de regresin de una funcin de costos, se estiman
escribiendo lo siguiente:
Si la variable produccin fue guardada con el nombre original de produc
Genr produc2=produc^2 se estima el cuadrado de la variable produc
Genr produc2=squar(produc)
Genr produc3=produc^3 se estima el cubo de la variable produc
5.- La raz cuadrada de una variables se calcula como
Genr rcproduc=produc^(1/2) se estima la raz cuadrada de la variable produc
6.- Una variable que se utiliza frecuentemente en los modelos economtricos es la
variable tiempo que toma valor de 0 para la primera observacin, 1 para la segunda
observacin, 2 para la tercera observacin y as sucesivamente hasta agotar el nmero
de observaciones. EV calcula esta variable con la siguiente instruccin:
Genr tiempo=@trend
Note que antes del signo igual va cualquier nombre (se recomienda anotar un nombre
que haga referencia a la nueva variable). Adems, que la sintaxis de las operaciones que
se realizan para transformar a las variables, son parecidas a las utilizadas en ecxel y
deben de estar correctamente escritas para que EV las pueda calcular.
7.- Frecuentemente se transforman las variables del modelo para lograr obtener la
forma funcional correcta o para mejorar la estimacin. Sin embargo, cuando se predice
a la variable dependiente se debe explicar y analizar las observaciones de sta en sus
unidades originales, por tanto se hace necesario realizar unas cuanta operaciones para
lograrlo. Por ejemplo si el modelo se estim en logaritmos y se quiere estimar la
variable en unidades originales se utiliza el antilogaritmo (e= 2.71828), elevando la
base e (e= 2.71828) al logaritmo de cada observacin. Si la variable dependiente se
trasform en primeras diferencias Y- Y(t-1)=dY para recuperar a Y se manda del lado
derecho de la regresin a Y(t-1) sumando (porque est del lado izquierdo restando).
PREDICCIN
Una vez estimado el modelo de regresin y si en su evaluacin result un buen
modelo, se procede a la prediccin de la variable dependiente para varios periodos fuera
de la muestra. Para que se pueda hacer dicha prediccin, debe existir datos supuestos
para todas las variables independientes. Estos datos se buscan en los criterios anuales de
poltica econmica que edita la Secretara de Hacienda, los cuales se publican en los
principales peridicos de circulacin nacional o en algunas revistas como en El
Mercado de Valores que edita Nafinsa. En estos criterios se expone, por ejemplo, cual
ser el crecimiento del PIB, la inflacin, el salario mnimo etc. Si no se encuentran los
datos hay que suponerlos y sustentar las cifras. Una vez que se meten los datos de las
variables independientes, fuera del periodo original de la muestra, se procede a hacer la
prediccin dando clic sobre los resultados de la regresin en Forecast, con esta
instruccin aparece una ventana con el nombre de la variable pronosticada (esta variable
es Y estimada por el modelo o Y gorro), el nombre se puede cambiar al gusto del
investigador y en la parte de abajo aparece el Sample (periodo de la muestra desde la
fecha del dato inicial hasta el final), la fecha final hay que cambiarla hasta la fecha que
abarque la prediccin y despus dar OK. El resultado de esta instruccin es una grfica
8
con una tabla que contiene el Coeficiente de Desigualdad de Theil. Este coeficiente se
emplea para hacer la evaluacin del pronstico. Las caractersticas de este coeficiente
son:
cdt =
( )
( ) ( )
T
t
t
T
t
t
T
t
t t
Y
T
Y
T
Y Y
T
1
2
1
2
1
2
~
1
1
~
1
donde cdt es el coeficiente de distribucin de Theil,
Y
es el valor de la variable
dependiente pronosticada por el modelo, Y
~
es el valor real de la variable dependiente y
T es el nmero de observaciones. Como se puede observar en esta ecuacin el
numerador es la raz cuadrada del error de pronstico rcep, pero la escala del
denominador es tal que el valor de este coeficiente toma valores entre cero y uno.
Si cdt = 0 el valor de la variable dependiente estimada por el modelo y el valor
real son iguales o bien el ajuste es perfecto (
t t
Y Y
~
).
Si cdt = 1 el valor de la variable dependiente estimada por el modelo difiere por
completo del valor real. En este caso el pronstico no es bueno.
Adems, el coeficiente de Theil se puede descomponer en tres partes, las cuales
proporcionan valiosos indicadores de evaluacin del pronstico. Tal descomposicin
est dada por
( ) ( ) ( ) ( )
+ +
r p r p r p t t
Y Y Y Y
T
~
1 2
~
1
2 2
donde
p
Y
y
r
Y
~
son las medias de la variable pronosticada por el modelo y la
variable real respectivamente,
P
y
r
~
son las desviaciones estndar de las series
p
Y
y
r
Y
~
, respectivamente, es el coeficiente de correlacin entre las variables
p
Y
y
r
Y
~
. La ecuacin anterior muestra que el coeficiente de desigualdad de Theil
se descompone en un trmino de sesgo, en uno de varianza y otro de covarianza.
Dada tal descomposicin de la desigualdad de Theil, se pueden definir las tres
proporciones como
( )
( ) ( )
2
2
~
1
~
Y Y
T
Y Y
ps
t
( )
( ) ( )
2
2
~
1
~
Y Y
T
pv
t
9
( )
( ) ( )
2
~
1
~
1 2
Y Y
T
pc
t
donde ps es la proporcin de sesgo, pv es la proporcin de varianza y pc es la
proporcin de covarianza.
La proporcin de sesgo, mide la desviacin entre la variable dependiente estimada
por el modelo y la variable dependiente real. Esta proporcin es un indicador del error
sistemtico, por lo que se esperara que el valor de la proporcin de sesgo fuera cero.
Un valor por arriba de 0.1 o 0.2 significara que hay un sesgo sistemtico, as que es
necesario una revisin del modelo.
La proporcin de la varianza indica, la capacidad del modelo para replicar el grado
de variabilidad en la variable de inters. Si la proporcin de la varianza es grande,
significa que la serie real ha fluctuado en forma considerable, mientras que la serie
simulada flucta poco o bien quiere decir que, la serie real flucta poco mientras que la
serie simulada lo hace en mayor medida. Al igual que el valor de la proporcin de
sesgo, el valor de la proporcin de la varianza se espera se encuentre entre 0.1 o 0.2
porque de esta manera la serie simulada y la real tendrn una variabilidad muy parecida.
La proporcin de la covarianza, mide el error no sistemtico. Este error es el que
resulta despus que se ha explicado las desviaciones de los valores promedio, es por ello
que no es tan problemtica como las proporciones precedentes, sin embargo no deja de
ser importante. El valor de esta proporcin debe ser igual a uno o muy prximo a uno
ya que se espera que las predicciones se correlacionen a la perfeccin con los resultados
reales.
ESTIMACIN, EVALUACIN Y PREDICCIN DE UN MODELO
EJEMPLO
Suponga que una empresa est interesada en introducirse al mercado nacional con la
venta de caf caliente de consumo inmediato, por lo que desea saber la demanda de
tazas diaria de caf consumidas por persona en el pas y el pronstico de dicha
demanda hasta el ao 2010. Los datos con los que se cuenta para hacer el estudio son
los de la demanda diaria de tazas de caf por persona y los precios promedio de estas
taza de 1996 a 2006. La muestra es la siguiente:
Demanda
Diaria
Precio
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
2004 1.970000 1.390000
2005 2.060000 1.200000
10
2006 2.020000 1.170000
Donde la demanda diaria de caf est medida en tazas y los precios en dlares
americanos.
Segn la teora microeconmica la demanda de un bien depende inversamente de
los precios. Por lo que se puede platear un modelo economtrico, el cual se sustente en
esta teora para estimar la demanda de consumo de tazas diarias de caf por persona, de
la siguiente manera:
t t
u P Y + +
1 0
con
0 ; 0
1 0
Donde la variable Y representa la demanda diaria de tazas de caf consumidas por
persona y P el precio de dicha taza. Los signos tericos esperados expresan que la
demanda autnoma o la demanda que no depende del precio ser positiva y que la
demanda de tazas de caf depende inversamente del precio. El error aleatorio estar
medido por u.
Los resultados de la regresin fueron los siguientes:
Dependent Variable: DTAZAS
Method: Least Squares
Sample(adjusted): 1996 2006
Included observations: 11 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 2.691124 0.121622 22.12686 0.0000
PCAFE -0.479529 0.114022 -4.205592 0.0023
R-squared 0.662757 Mean dependent var 2.206364
Adjusted R-squared 0.625286 S.D. dependent var 0.210251
S.E. of regresin 0.128703 Akaike info criterion -1.099656
Sum squared resid 0.149080 Schwarz criterion -1.027311
Log likelihood 8.048108 F-statistic 17.68700
Durban-Watson stat 0.726590 Prob(F-statistic) 0.002288
EVALUACIN CUANTITATIVA DEL MODELO
El coeficiente
2 2
R y R
indican que el 66.27% y el 62.53% de las variaciones en la
demanda diaria de tazas diarias de caf consumidas por persona estn explicadas por las
variaciones en su precio.
Los signos de los coeficientes coinciden con los tericos esperados porque
mientras la ordenada al origen es positiva, el coeficiente de la variable precio o la
pendiente tiene el signo negativo.
El valor de la ordenada al origen indica que el consumo autnomo fue de 2.69
tazas de caf diario por persona en el periodo de 1996 a 2006 o bien que
independientemente del precio de la taza de caf, las personas consumieron en
promedio diariamente 2.69 tazas.
11
El valor de la pendiente indica que por cada aumento de un dlar en el precio de
la taza de caf su consumo bajo en 0.47 de taza, durante el periodo estudiado.
EVALUACIN CUALITATIVA
Significancia individual de los coeficientes. Como el valor de la probabilidad del
estadstico t de la ordenada al origen es menor a 0.05, se rechaza la hiptesis nula de no
significancia estadstica de este coeficiente al 95.0% de confianza. Este resultado
expresa que la lnea de regresin estimada tiene ordenada al origen, es decir, que no es
una lnea que parte del origen. Tambin, el valor de la probabilidad de la pendiente es
menor 0.05, por tanto se rechaza la hiptesis nula de no significancia estadstica de
dicho coeficiente o bien que la pendiente es diferente de cero. En trminos econmicos,
esto se interpreta como que la variable precio contribuye en la explicacin de los
cambios en la demanda diaria de tazas de caf consumidas por persona.
Es importante destacar, que la prueba de significancia individual de los
coeficientes forma parte de la prueba de inclusin de variables irrelevantes en el
modelo, que a su vez entra en los posibles errores de especificacin en la media de este.
Singificancia conjunta de los coeficientes. Segn el valor de la probabilidad del
estadstico (0.002288), se rechaza la hiptesis nula de no significancia estadstica
conjunta de los estimadores al 95.0% de confianza o bien los coeficientes son
conjuntamente diferentes de cero, es decir, las variables independientes conjuntamente
ayudan a explicar las variaciones de la demanda del consumo diario de las tazas de caf.
Prueba de errores de especificacin en la media del modelo (prueba de forma
funcional). Como los valores de la probabilidad de los estadsticos que arroja la prueba
Reset son mayores que 0.05, no se rechaza la hiptesis nula al 95.0% de confianza, esto
indica que la forma funcional del modelo es la correcta .
Ramsey RESET Test:
F-statistic 2.443811 Probabilit
y
0.156617
Log likelihood ratio 2.932248 Probabilit
y
0.086826
Prueba de normalidad. Como se puede observar en la siguiente tabla, el tercer y el
cuarto momentos (curtosis y simetra) de los errores del modelo son cercanos a cero y
a tres, respectivamente. Este resultado indica que los errores se distribuyen de manera
normal. Esto queda confirmado, con el valor de la probabilidad del estadstico Jarque-
Bera, ya que este valor es mayor que 0.05 y por lo tanto se encuentra dentro de la zona
de no rechazo de la hiptesis nula de normalidad al 95.0% de confianza.
12
0
1
2
3
4
5
-0.1 0.0 0.1 0.2
Series: Residuals
Sampl e 1996 2006
Observations 11
Mean 2.26E-16
Median -0.054579
Maximum 0.248113
Mini mum -0.131477
Std. Dev. 0.122098
Skewness 0.953177
Kurtosis 2.579671
Jarque-Bera 1.746645
Probabili ty 0.417562
Prueba de multicolinialidad. Segn los resultados de matriz de correlacin no hay
problemas de multicolinialidad en el modelo de regresin en estudio.
MATRIZ DE CORRELACIN
DTAZAS PCAFE
DTAZAS 1 -0.814099004531
PCAFE -0.814099004531 1
Pruebas de homoscedasticidad o estabilidad en el coeficiente
2
. Segn los
resultados de la prueba ARCH los errores del modelo son homoscedsticos porque el
valor de la probabilidad de los dos estadsticos es mayores que 0.05 y por tanto se
encuentran en la zona de no rechazo de la hiptesis nula al 95.0% de confianza. La
prueba White confirma que no se tienen problemas de heteroscedasticidad en los errores
del modelo.
ARCH Test:
F-statistic 3.215472 Probability 0.110702
Obs*R-squared 2.866996 Probability 0.090413
White Heteroskedasticity Test:
F-statistic 0.395279 Probability 0.685953
Obs*R-squared 0.989259 Probability 0.609797
Es importante mencionar que la prueba White es una prueba general para detectar
errores de especificacin y particular para problemas de heteroscedasticidad. Por tanto,
los resultados de esta prueba tambin indican que no hay errores de especificacin en el
modelo.
Pruebas de no autocorrelacin entre los errores. Uno de los estadsticos para
detectar problemas de autocorrelacin de orden uno en los errores del modelo es
estadstico D-W. El valor de este estadstico se encuentra en los resultados de la
regresin y para el caso del ejemplo este asciende a 0.726590, por tanto segn el
estadstico D-W hay problemas de autocorrelacin de primer orden en los errores del
modelo.
Segn el correlograma de los errores, ningn coeficiente que podra estar
explicando a stos se sale de las bandas del 5.0% de significancia o es estadsticamente
significativo por lo que no se tienen problemas de autocorrelacin.
Sample: 1996 2006
13
Included observations: 11
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
. |*** . | . |*** . | 1 0.390 0.390 2.1706 0.141
. | . | . **| . | 2 -0.055 -0.244 2.2183 0.330
. **| . | . *| . | 3 -0.213 -0.115 3.0323 0.387
. *| . | . *| . | 4 -0.182 -0.064 3.7095 0.447
. *| . | . *| . | 5 -0.144 -0.108 4.2055 0.520
. |* . | . |* . | 6 0.094 0.178 4.4556 0.615
. |* . | . | . | 7 0.163 -0.001 5.4086 0.610
. *| . | . ***| . | 8 -0.155 -0.333 6.5545 0.585
. **| . | . | . | 9 -0.214 0.033 9.8159 0.366
Como se puede observar el valor de la probabilidad de los estadsticos que arroja
la prueba LM son mayores que 0.05, es decir, se encuentran en la zona de no rechazo de
la hiptesis nula de no autocorrelacin de orden p en los errores del modelo al 95.0% de
confianza, lo que indica la ausencia de autocorrelacin en los errores del modelo.
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 0.981423 Probability 0.421000
Obs*R-squared 2.408979 Probability 0.299845
Pruebas de cambio estructural o estabilidad de los coeficientes beta.
Como se puede observar el estadstico CUSUM se sale de las bandas del 95.0% de
confianza de estabilidad en los coeficientes beta, esto indica que hubo cambio
estructural en la muestra y que el rompimiento se da en el ao 2000.
-10
-5
0
5
10
98 99 00 01 02 03 04 05 06
CUSUM 5% Significance
Sin embargo, como se puede observar el estadstico CUSUM-Q no se sale de las
bandas del 95.0% de confianza, esto significa los coeficientes son estables a lo largo del
periodo de la muestra.
14
-0.5
0.0
0.5
1.0
1.5
98 99 00 01 02 03 04 05 06
CUSUM of Squares 5% Significance
Para verificar el posible cambio estructural que indica el estadstico CUSUM en el
ao 2000, se llevo a cabo la prueba Chow simple. Los resultados de esta prueba indican
que efectivamente hubo cambio estructural en este ao, dado que los valores de la
probabilidad de los estadsticos que arroja esta prueba son menores a 0.05, es decir, se
rechaza la hiptesis nula de estabilidad en los coeficientes beta. La solucin a este
problema sera estimar el modelo en dos submuestras pero como la muestra es muy
corta, esto no es posible.
Chow Breakpoint Test: 2000
F-statistic 19.88832 Probability 0.001296
Log likelihood ratio 20.89421 Probability 0.000029
Conclusin. La evaluacin cuantitativa y cualitativa del modelo sugieren que este
es bueno. Sin embargo, esta conclusin hay que tomarla con reserva porque el tamao
de la muestra y la anualidad de los datos son elementos poco favorables para realizar
inferencia a partir de los resultados, pero este ejemplo ilustra los pasos a seguir para
evaluar el modelo.
PREDICCIN
Ahora se supone que el modelo de demanda de consumo diario de tazas de caf se
obtuvo de una muestra mensual, con por lo menos de 60 datos (5 aos) y que los
resultados de la evaluacin cuantitativa y cualitativo lo favorecen, por lo tanto es un
buen candidato para realizar la prediccin hasta 2010. Para realizar la prediccin se
supone que los precios promedio anuales de la taza de caf sern de 1.26 dlares para
2007, 1.90 dlares para 2008, 1.55 dlares para 2009 y 1.75 dlares para 2010. En este
caso, la muestra ser
Demanda
Diaria
Precio
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
15
2004 1.970000 1.390000
2005 2.060000 1.200000
2006 2.020000 1.170000
2007 1.260000
2008 1.900000
2009 1.550000
2010 1.750000
Como se puede observar en la tabla siguiente el valor del Coeficiente de
Desigualdad de Theil se encuentra en el rango recomendable al igual que la proporcin
de sesgo, varianza y covarianza. Estos resultados, indican que la variable real y
pronosticada por el modelo se mueven con poco sesgo y que la variable pronosticada
est reproduciendo los movimientos de la variables real.
COEFICIENTE DE DESIGUALDAD DE THEIL
1.4
1.6
1.8
2.0
2.2
2.4
2.6
2.8
96 98 00 02 04 06 08 10
DTAZASF 2 S.E.
Forec ast: DTAZASF
Ac tual : DTAZAS
Forec ast s ampl e: 1996 2010
Inc l uded obs erv ati ons : 11
R M S E 0.116416
M A E 0.096873
M A P E 4.317360
Thei l 0.026292
Bi as % 0.000000
Vari anc e % 0.102476
Cov ari anc e % 0.897524
Segn los resultados que se muestran en la tabla siguiente, la demanda
pronosticada de tazas diarias de caf consumidas por persona es muy parecida a la real
dentro de la muestra. Pero suponiendo que prevalecern esos precios, la demanda bajara
para los cuatro aos siguientes.
REALIZACIONES REALES Y PRONSTICO DE LA DEMANDA DE TAZAS DIARIAS DE CAF
Demanda
Real
Y
Demanda
Pronstico
Y
'
,
_
,
_
+
X
X
X
X
e
e
e
e
1
1
1
Donde
'
,
_
,
_
X
X
X
X
e
e
e
e
X
X
Y
E
1
1
1
Por tanto, los efectos marginales se obtienen multiplicando el factor de ajuste por
el vector de coeficientes beta
Siguiendo estos pasos, primero se calculan las medias de los datos de las variables
explicativas del modelo Logit. Estos resultados se muestran en el siguiente cuadro
MEJORA CM NP PSI
Media 3.1171875 21.938 0.4375
21
En segundo lugar se multiplican los coeficientes por las medias de las variables
explicativas del modelo Logit
MEJORA =-13.02134684 + 2.826112592*(3.1171875) + 0.09515766115*(21.938) +
2.378687654*(0.4375)
MEJORA =
'
,
_
,
_
08358 . 1
08358 . 1
08350 . 1
08358 . 1
1
1
1 e
e
e
e
X
X
Y
E
= 0.1889562 = 0.1889
Hay otra forma ms simple de obtener este factor de ajuste. Este mtodo consiste
en trabajar sobre los resultados de la regresin logit (probabilidad de xito). De la
siguiente manera: sobre los resultados de la regresin logit dar clic en Procs/Make
Model/ e intercambiar los nombres de las variables por sus medias y cambiar el nombre
de la variable dependiente por ejemplo por xito. Despus borrar la leyenda que aparece
en la parte de arriba de la ventana, es decir, borrar ASSIGN @ALL F, y dar clic en Solve.
Esto aparece el la ventana
SSIGN @ALL F
MEJORA = 1-@LOGIT(-(-13.02134684 + 2.826112592*CM + 0.09515766115*NP +
2.378687654*PSI))
Hay que modificar as
exito = 1-@LOGIT(-(-13.02134684 + 2.826112592*3.1171875 + 0.09515766115*21.938 +
2.378687654*0.3475))
Con la instruccin Solve EV calcula esa ecuacin con el nombre de xito. Esta variable
estar compuesta de un nmero que se repite a lo largo de todas los observaciones y que
ser la probabilidad de xito. El factor de ajuste, por tanto, se encuentra al multiplicar
este nmero por 1- este nmero.
xito= 0.252829 factor de ajuste= (0.252829)(1-0.252829)=0.1889064
Para el modelo Probit, el factor de ajuste, se obtiene buscando en las tablas de la
distribucin normal el valor que resulta de la funcin Probit. En trminos formales el
factor de ajuste es
Factor de Ajuste para el Probit =
( ) { } X
Donde
Para obtener el factor de ajuste del modelo probit se procede de la misma manera
que el logit. Trabaje sobre los resultados de la regresin probit. Esto aparece en la
ventana despus de dar clic en Procs/Make Model
ASSIGN @ALL F
MEJORA = 1-@CNORM(-(-7.452319647 + 1.625810039*CM + 0.0517289455*NP +
1.426332342*PSI))
Se intercambian nombres de las variables por su valor medio, se cambia de nombre la
variable dependiente, se borra ASSIGN @ALL F y se da clic en Solve
normal = 1-@CNORM(-(-7.452319647 + 1.625810039*3.1171875 + 0.0517289455*21938 +
1.426332342*0.4375))
La variable normal es un nmero=0.265817 que es la probabilidad de xito del
modelo probit. La probabilidad de xito por la probabilidad de fracaso es (0.265817)(1-
0.265817)=0.171158, valor que al ser restado de 0.5 queda 0.329.
Al obtener todos estos valores, se pueden calcular las pendientes (efectos
marginales) del Logit y Probit y compararlos con los resultados del modelo de regresin
lineal, los cuales se resumen en el siguiente cuadro
Modelo Lineal Modelo Logit Modelo Probit
Variable Coeficiente Pendiente Coeficiente Pendiente Coeficiente Pendiente
Constante -1.498017 -1.498017 -13.02135 -7.452320
CM 0.463852 0.463852 2.826113 0.534 1.625810 0.533
NP 0.010495 0.010495 0.095158 0.018 0.051729 0.017
PSI 0.378555 0.378555 2.378688 0.499 1.426332 0.468
Factor de A 1. 0.189 0.329
Como se puede observar en el cuadro anterior las pendientes que arrojan los
modelos Logit y Probit son casi iguales mientras que difieren de las estimadas por el
mtodo de mnimos cuadrados ordinarias.
Para interpretar el efecto que tiene cada variable sobre la probabilidad, de que las
calificaciones del alumno mejoran tras de implantar una nueva metodologa, se utilizan
los valores de la pendiente. La interpretacin del coeficiente de CM sera similar en el
modelo Logit y Probit, es decir, si la calificacin media del alumno aumenta en una
unidad, la probabilidad de que el alumno mejore sus calificaciones aumenta 0.53, si ha
utilizado el nuevo mtodo didctico. La interpretacin del coeficiente NP sera, si la
calificacin del alumno en un examen previo aumenta en una unidad, la probabilidad
de que el alumno mejore sus calificaciones aumenta en 0.018 si ha utilizado el nuevo
mtodo didctico.
23
Hay que recordar que uno de los estadsticos tradicionales para analizar la bondad
de ajuste de los modelo de regresin es el R cuadrada. En estos modelos donde la
variable dependiente es una variable cualitativa el estadstico R cuadrada de Mc Fadden
se define como sigue
R
UR
L
L
R
log
log
1
2
Donde el log de L subndice UR es la funcin de mxima verosimilitud no
restringida y el log de L subndice R es la funcin de mxima verosimilitud restringida.
Este estadstico, es el que se calcula en los resultados de la regresin y de igual forma
que en los modelos de regresin lineal su valor se encuentra entre cero y uno
Como se puede observar en los resultados de la regresin del modelo Logit y
Probit el estadstico R cuadrada de Mc Fadden es de 0.37, es decir, que un 37.0% de las
variaciones en la probabilidad de que el alumno mejore sus calificaciones si ha utilizado
el nuevo mtodo didctico est explicada por el modelo.
Hay otros dos estadsticos que miden la bondad de ajuste de este tipo de modelos
uno es Hosmer- Lemeshow y el otro es AnDrews. La idea de estas pruebas es comparar
el valor esperado ajustado y el valor actual por grupo de series. Si la diferencia entre el
valor esperado y actual es muy grande se rechaza el modelo porque ste no se ajusta a
los datos.
El estadstico Hosmer- Lemeshow trabaja agrupando las observaciones sobre la
base de la probabilidad predictiba cuando y=1 ( cuando la variable dependiente toma el
valor de 1); el estadstico AnDrews es ms general ya que agrupa las observaciones
sobre la base de algunas series no importando que y=1 o y=0. Si la diferencia es muy
grande se rechaza el modelo porque no se ajusta a los datos. Para calcular estos
estadsticos selecciona View/Goodness- of Fit Test / Predicted risk OK y aparece
el siguiente cuadro, que para el caso del ejemplo resultaron dos tablas
Para el caso del modelo Logit
24
Dependent Variable: MEJORA
Method: ML - Binary Logit
Sample: 1 32
Included observations: 32
Andrews and Hosmer-Lemeshow Goodness-of-Fit Tests
Grouping based upon predicted risk (randomize ties)
Quantile of Risk Dep=0 Dep=1 Total H-L
Low High Actual Expect Actual Expect Obs Value
1 0.0245 0.0265 3 2.92312 0 0.07688 3 0.07890
2 0.0266 0.0349 3 2.90838 0 0.09162 3 0.09451
3 0.0386 0.0536 3 2.85623 0 0.14377 3 0.15101
4 0.0595 0.1110 2 2.76809 1 0.23191 3 2.75709
5 0.1111 0.1932 3 3.31840 1 0.68160 4 0.17929
6 0.2418 0.3222 3 2.12877 0 0.87123 3 1.22779
7 0.3610 0.5291 2 1.62876 1 1.37124 3 0.18512
8 0.5699 0.6354 1 1.20481 2 1.79519 3 0.05818
9 0.6608 0.8383 0 0.80741 3 2.19259 3 1.10474
10 0.8417 0.9453 1 0.45602 3 3.54398 4 0.73241
Total 21 21.0000 11 11.0000 32 6.56906
H-L Statistic: 6.5691 Prob[Chi-Sq(8 df)]: 0.5838
Andrews Statistic: 19.1344 Prob[Chi-Sq(10 df)]: 0.0386
Para el caso del modelo Probit
Dependent Variable: MEJORA
Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Andrews and Hosmer-Lemeshow Goodness-of-Fit Tests
Grouping based upon predicted risk (randomize ties)
Quantile of Risk Dep=0 Dep=1 Total H-L
Low High Actual Expect Actual Expect Obs Value
1 0.0161 0.0185 3 2.94722 0 0.05278 3 0.05372
2 0.0186 0.0272 3 2.93223 0 0.06777 3 0.06934
3 0.0309 0.0457 3 2.87888 0 0.12112 3 0.12621
4 0.0531 0.1088 3 2.77618 0 0.22382 3 0.24186
5 0.1235 0.1952 2 3.29779 2 0.70221 4 2.90924
6 0.2732 0.3287 3 2.07481 0 0.92519 3 1.33775
7 0.3563 0.5400 2 1.61497 1 1.38503 3 0.19883
8 0.5546 0.6424 1 1.20962 2 1.79038 3 0.06087
9 0.6572 0.8342 0 0.84550 3 2.15450 3 1.17730
10 0.8400 0.9522 1 0.45575 3 3.54425 4 0.73351
Total 21 21.0330 11 10.9670 32 6.90863
H-L Statistic: 6.9086 Prob[Chi-Sq(8 df)]: 0.5465
Andrews Statistic: 20.6045 Prob[Chi-Sq(10 df)]: 0.0240
Como se puede observar, el valor del estadstico H-L no es muy grande en ambos
modelos (este resulta de la sumatoria de la ltima columna del lado derecho de los
cuadros) el valor de estadstico Andrews si lo es. Por tanto mientras, un estadstico
estara diciendo que el modelo se ajusta a los datos el otro estadstico lo contradice. Esta
afirmacin queda confirmada observando el valor de la probabilidad de cada uno de los
estadsticos, porque mientras el del estadstico HL tiene un valor mayor 0.05, el de
Andrews es menor a este valor. Esta contradiccin entre lo que sugieren los estadsticos
hace pensar en que el modelo se tiene que revisar. Una posible causa de que el modelo
no se ajuste a los datos es la no significancia estadstica de la variable NP.
25
Para un anlisis ms profundo de los modelos binarios, se pueden hacer pruebas
de restriccin individuales o generales sobre los coeficientes. Para las pruebas
individuales se encuentra el estadstico Wald y el de Razn de Verosimilitud (RV) que
aparece en los resultados de la regresin del modelo Logit o Probit.
Por ejemplo si se realiza la prueba Wald para saber si el coeficiente de la serie NP
es estadsticamente no significativo en el modelo Probit, esta prueba da el siguiente
resultado
Wald Test:
Equation: PROBI
Null Hypothesis: C(3)=0
F-statistic 0.380228 Probability 0.542463
Chi-square 0.380228 Probability 0.537481
Como se puede observar en los resultados de esta prueba el valor de la
probabilidad de los dos estadsticos es mayor que 0.05 por lo que no se rechaza la
hiptesis nula de que el coeficiente de la variable NP es estadsticamente no
significativo a un nivel de confianza del 95.0%.
La prueba RV es una prueba anloga a la prueba F para los modelos de regresin
lineal, es decir, con sta se prueba si conjuntamente los coeficientes estimados por
mxima verosimilitud, excluyendo la constante son estadsticamente no significativos.
Segn los resultados de esta prueba, en el modelo Probit, el valor de la probabilidad del
estadstico RV es menor a 0.05 por lo que se rechaza que conjuntamente los coeficientes
sean estadsticamente iguales a cero.
Adicionalmente a estas pruebas, existe otra prueba para analizar las propiedades y
el funcionamiento de los modelos binarios. Esta prueba se llama tabla de Clasificacin
Esperada y Predicha. La tabla clasifica el valor esperado y predicho de la variable
dependiente. Para ver esta tabla en el E-View dar clic en View/Expectaction-
Prediction Table sobre los resultados de la regresin y aparece una tabla donde se
aslan las observaciones de la variable dependiente en sus valores de 0 y 1. La
clasificacin correcta se obtiene cuando la probabilidad pronosticada es menor o igual a
la esperada y a la observada (y=0) o cuando la probabilidad pronosticada es mayor que
la esperada y la observada (y=1). En la literatura sobre este tema, la tabla de Pronstico-
Expectativa se refiere a la tabla de clasificacin. La fraccin y=1 observaciones que son
pronosticadas correctamente determinan la sensibilidad, mientras que la fraccin y=0
observaciones que son correctas es conocida como la especificidad. Estas son fracciones
que se presentan en porcentajes. Veamos los resultados de esta tabla para el modelo
Probit
Dependent Variable: MEJORA
Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Prediction Evaluation (success cutoff C = 0.5)
26
Estimated Equation Constant Probability
Dep=0 Dep=1 Total Dep=0 Dep=1 Total
P(Dep=1)<=
C
18 3 21 21 11 32
P(Dep=1)>C 3 8 11 0 0 0
Total 21 11 32 21 11 32
Correct 18 8 26 21 0 21
% Correct 85.71 72.73 81.25 100.00 0.00 65.62
% Incorrect 14.29 27.27 18.75 0.00 100.00 34.38
Total Gain* -14.29 72.73 15.62
Percent
Gain**
NA 72.73 45.45
Estimated Equation Constant Probability
Dep=0 Dep=1 Total Dep=0 Dep=1 Total
E(# of
Dep=0)
16.89 4.14 21.03 13.78 7.22 21.00
E(# of
Dep=1)
4.11 6.86 10.97 7.22 3.78 11.00
Total 21.00 11.00 32.00 21.00 11.00 32.00
Correct 16.89 6.86 23.74 13.78 3.78 17.56
% Correct 80.42 62.32 74.20 65.62 34.38 54.88
% Incorrect 19.58 37.68 25.80 34.38 65.62 45.12
Total Gain* 14.80 27.95 19.32
Percent
Gain**
43.05 42.59 42.82
*Change in % correct from default (constant probability)
**Percent of incorrect (default) prediction corrected by equation
En el primer cuadro de esta tabla se muestra que el modelo Probit est
pronosticando correctamente el 85.71% de las observaciones cuando y=0 y el 72.73%
de las observaciones cuando y=1. Con estos resultados se puede decir que el modelo
Probit es bueno en sensibilidad y en especificidad.
El anlisis de residuos de la regresin tambin se puede llevar a cabo. Sobre el
modelo de regresin Probit o Logit. De clic en Procs/Make Residual Series y este
comando genera los residuos ordinarios, los residuos estandarizados y los residuos
generalizados.
La prueba de normalidad tambin se puede realizar para los residuos de modelo
Probit dando un clic en View/Residual Test sobre la regresin y EV muestra el
histograma de normalidad para los residuos estandarizados. Veamos el histograma de
normalidad para los errores del modelo Probit
0
4
8
12
16
-2 -1 0 1 2 3
Series: Standardized Residuals
Sample 1 32
Observations 32
Mean -0.014303
Median -0.158590
Maximum 2.663509
Minimum -2.356954
Std. Dev. 0.920117
Skewness 0.579126
Kurtosis 4.932971
Jarque-Bera 6.770566
Probability 0.033868
27
Segn los resultados de la prueba de normalidad los errores del modelo Probit no
se distribuyen en forma normal al 95.0% de confianza ya que el valor de la
probabilidad del estadstico Jarque Bera es menor que 0.05. Pero se podra decir que al
98.0% de confianza los errores si se distribuyen de forma normal.
Otro elemento importante de analizar en los modelos binarios es la grfica de
curvas de respuesta de las probabilidades. Esta grfica es til para examinar como
varan las probabilidades cuando una de las variables independientes est cambiando
mientras las otras variables permanecen fijas en el valor de su media.
Para el modelo Logit y Probit que se est manejando en este ejemplo, es todava
ms interesante esta grfica de curva de respuesta a las probabilidades porque se tiene
una variable cualitativa como explicativa, es decir, se tiene a la variable PSI (variable
binaria que indica si el estudiante estudi con el nuevo mtodo didctico o no).
Para obtener esta grfica realice los siguientes pasos (recuerde que estos pasos
son para obtener la grfica de respuesta de las probabilidades de cualquier modelo).
1.- Calcule una serie continua de la variable explicativa que va a estar variando, en el
caso del ejemplo ser CM (media de las calificaciones del alumno). Para calcular la
serie continua de CM se observa el dato inferior y superior de la serie, los cuales son 2
y 4. Adems se utiliza la variable de tendencia, la cual toma valores de enteros
positivos empezando por cero y termina en el nmero que le corresponde al ltimo dato,
en el caso del ejemplo la tendencia ser una variable que tome valores de 0, 1,
2,.....hasta 32. Esta tendencia hace que la serie levante. La instruccin en EV para
formar la serie continua CM es:
series cmplot=2+@trend*(4-2)/@obs(@trend)
@trend es la instruccin para crear la serie de tendencia en EV
2.- Obtenga la ecuacin de regresin estimada del modelo Probit con la instruccin
Procs/Make Model sobre los resultados de la regresin
3.- Trabaje sobre esta ecuacin y genere otra nueva dando un nombre a la variable
dependiente, por ejemplo MEJORA0 cuando PSI toma el valor de cero y MEJORA1
para la siguiente ecuacin, cuando PSI toma el valor de 1. Adems, reemplace la
variable CM por cmplot, reemplace tambin a la variable NP por su media y a la
variable PSI por 0 en la primera ecuacin y 1 en la segunda ecuacin.
MEJORA0 = 1-@CNORM(-(-7.452319647 + 1.625810039*CMPLOT +
0.0517289455*@median(NP)+ 1.426332342*0))
MEJORA1 = 1-@CNORM(-(-7.452319647 + 1.625810039*CMPLOT +
0.0517289455*@median(NP) + 1.426332342*1))
28
4.- Borre ASSIGN @ ALL F que aparece en la parte de arriba de la ventana en la cual
est trabajando.
5.-D clic en Solve, es decir, resuelve las ecuaciones antes anotadas. Con esta
instruccin se genera las probabilidades de que el estudiante mejore sus calificaciones
cuando vara su calificacin promedio y si el alumno estudia con el nuevo mtodo
didctico y las probabilidades de que el estudiante mejore sus calificaciones cuando
varia su calificacin promedio y no estudia con el nuevo mtodo didctico. EV guarda
las dos probabilidades generadas como series, con el nombre de mejora0 y mejora1.
6.- Para graficar las serie CMPLOT, MEJORA1 y MEJORA0 en un solo plano d clic
en Show y anote los nombres de las variables que quiere graficar (cmplot, mejora1 y
mejora0), despus View/Graph/XY Line/. El resultado fue el siguiente
0.0
0.2
0.4
0.6
0.8
1.0
2.0 2.5 3.0 3.5
CMPLOT
MEJORA0
MEJORA1
En esta grfica se muestra dos funciones en todo el intervalo de variacin de CM,
es decir, de 2 a 4. El efecto de la variable PSI en las probabilidades es considerable. El
efecto marginal del muevo mtodo didctico es la diferencia entre estas dos funciones y
toma valores tan pequeos como 0.06 cuando CM=2, hasta valores prximos a 0.50,
cuando CM es igual 3.5. Esto muestra que la probabilidad de que la nota del estudiante
mejore tras seguir un curso con la nueva metodologa es mucho mayor en alumnos con
alta calificacin media que en alumnos con baja calificacin media.
ANLISIS DE SERIES DE TIEMPO
GRFICAS PARA PRONOSTICAR
Para realizar un pronstico es recomendable comenzar con un anlisis grfico de la serie
de tiempo. El anlisis grfico permite obtener una idea preliminar acerca de los
componentes de la serie: tendencia, estacionalidad y ciclo.
Es recomendable hacer un banco de datos, stos pueden ser obtenidos de las
Estadsticas del Banco de Mxico, de INEGI, de Economtica o de otras fuentes.
29
Por ejemplo obtenga los datos de una serie de tiempo cuya muestra sea los ms
larga posible, por ejemplo la del ndice nacional de precios al consumidor INPC, que
est disponible en forma mensual desde 1973 en los indicadores econmicos y
financieros del Banco de Mxico. Trabaje con la muestra de aproximadamente 450
observaciones y realice los siguientes pasos:
Baje la serie a analizar, generalmente viene en formato ecxel.
Genere un archivo con la serie en ecxel.
Observe los datos antes de copiarlos al paquete EV.
Si los datos no le parecen congruentes trabaje sobre ellos previamente. Por ejemplo,
la serie inpc que edita el Banco de Mxico viene en decimales hasta enero de 1985 y
para febrero de ese ao se presenta en miles de millones. Pasar de decimales a miles
de millones no es congruente, pero pasar de 0.9 a 1.06 si lo es, por tanto hay que
desplazar el punto decimal tantas unidades como sea necesario.
Aunque el ndice nacional de precios al consumidor (inpc) est disponible desde
1973 se puede trabajar con l en forma mensual desde 1985 a 2008. Haga una
hoja de trabajo en EV para datos mensuales con tamao de la muestra 1985.01 a
2008.12 con la File/New/Workfile/Frequency/Montly. Siempre deje espacio para
la prediccin.
Genere espacio para copiar la serie de ecxel a EV escribiendo en este ltimo, data
inpc debajo del men principal.
Regrese a ecxel, copie la serie inpc y pegue en EV. Si no es posible componer la
serie en ecxel, intntelo en EV.
Ya cargada la serie inpc en EV, de clic sobre ella y despus de que esta variable est
sombreada, dar clic el Show/ View/Line Graph. Con esta instruccin aparece la
grfica de la variable a travs del tiempo.
Analice detenidamente la grfica del INPC, para detectar la tendencia, la estacional
y el ciclo en la serie.
0
20
40
60
80
100
120
140
86 88 90 92 94 96 98 00 02 04 06 08
INPC
Observe que esta variable crece en el tiempo con pocas fluctuaciones.
Ahora cree la variable diferencia absoluta de inpc, de clic en genr e introduzca la
ecuacin dinpc=d(inpc) y clic en OK. Grafique esta nueva serie con las mismas
instrucciones que la anterior. Obseve la fluctuacines de la serie, donde sufren un cambio
fuerte es en la devaluacin de diciembre de 1994.
30
-0.8
-0.4
0.0
0.4
0.8
1.2
1.6
2.0
2.4
2.8
86 88 90 92 94 96 98 00 02 04 06 08
DINPC
Cree la variable diferencia de los logaritmos del inpc, de clic en genr e introduzca
la ecuacin linpc=log(inpc) y OK, despus vuelva a dar clic en genr y escriba la
ecuacin dlinpc=d(linpc) y OK.
-.04
.00
.04
.08
.12
.16
86 88 90 92 94 96 98 00 02 04 06 08
DLINPC
Observe los brincos que muestra la serie en 1987 y 1984 y la reduccin de las
variaciones despus de 1998 hasta 2008. Como ejercicio conteste las siguientes
preguntas. Qu relacin existe entre la serie inflacin y la serie diferencia de los
logaritmos? Calcule la inflacin a partir del inpc y gafique.
Tambin es importante evaluar la distribucin de la serie a analizar a partir de su
histrograma y hacer la prueba de normalidad de la serie. Para ello de clic Show /OK/
View/ Descriptive Statistics/Histrogram/
31
0
5
10
15
20
25
30
0 20 40 60 80 100 120
Series: INPC
Sample 1985M01 2008M12
Observations 283
Mean 58.83333
Median 53.79175
Maximum 129.5760
Minimum 1.010696
Std. Dev. 43.21315
Skewness 0.149291
Kurtosis 1.452812
Jarque-Bera 29.27800
Probability 0.000000
Observe que la serie inpc no se distribuye de manera normal. Haga lo mismo con
dinpc
0
10
20
30
40
50
60
-0.5 -0.0 0.5 1.0 1.5 2.0 2.5
Series: DINPC
Sample 1985M01 2008M12
Observations 282
Mean 0.455905
Median 0.364077
Maximum 2.610758
Minimum -0.596000
Std. Dev. 0.408974
Skewness 1.303036
Kurtosis 6.428485
Jarque-Bera 217.9169
Probability 0.000000
Observe que la serie dinpc no se distribuye de manera normal.
TENDENCIA DE UNA SERIE
La tendencia es la evolucin lenta y a largo plazo de la serie que se desea modelar y
pronosticar.
Los modelos de tendencia determinista ms utilizados son
Tendencia lineal
Tiempo T
1 0
+
Tendencia cuadrtica
2
2 1 0
Tiempo Tiempo T + +
Tendencia exponencial
Tiempo
e T
1
0
Observe la grfica del inpc nuevamente, esta serie presenta una clase de tendencia
determinista que podra ser lineal, cuadrtica o exponencial. Por lo que se le puede
asociar los siguientes modelos.
t
u Tiempo inpc + +
1 0
i
u Tiempo Tiempo inpc + + +
2
2 1 0
i
u Tiempo linpc + +
1 0
Pero como el modelo exponencial lineal, en logaritmos no es comparable con los
otros dos modelos se trabaja con el modelo exponencial
u Tiempo
e e inpc
1
0
y se
calcula por mnimos cuadrados no lineales.
32
Analicemos cul de los modelos anteriores podra estar explicando la tendencia
determinista de la serie inpc. Genere la variable tiempo dando clic en genr e introduzca
la ecuacin tiempo=@trend y OK. Genere la variable tiempo al cuadrado dando clic
en genr e introduzca la ecuacin tempo2=tiempo^2.
Estime el primer modelo escribiendo en el espacio en blanco debajo de la barra de
herramientas ls inpc c tiempo. Guarde la regresin con un nombre, sobre los resultados
de sta, de clic en Name y anote, por ejemplo, inpctl.
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:24
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C -15.06310 0.873921 -17.23623 0.0000
TIEMPO 0.520397 0.005335 97.55243 0.0000
R-squared 0.971319 Mean dependent var 58.83333
Adjusted R-squared 0.971217 S.D. dependent var 43.21315
S.E. of regression 7.331340 Akaike info criterion 6.829236
Sum squared resid 15103.34 Schwarz criterion 6.854999
Log likelihood -964.3368 F-statistic 9516.477
Durbin-Watson stat 0.003190 Prob(F-statistic) 0.000000
Observe los resultados de la regresin, la variable tiempo es estadsticamente
significativa, sin embargo el estadstico DW es bajo lo que estara indicando
autocorrelacin.
Grafique el inpc estimado por el modelo junto con el inpc y los errores de la
regresin, dando clic sobre los resultados de la regresin en
View/Actual/Fitted/Residual/Graph
-20
-10
0
10
20
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
Residual Actual Fitted
33
Note como la variable real se sale de la tendencia lineal estimada y los errores no
parecen normales. Haga la prueba de normalidad en los errores.
0
4
8
12
16
20
24
-15 -10 -5 0 5 10 15
Series: Residuals
Sample 1985M02 2008M08
Observations 283
Mean 1.73e-15
Median 0.558612
Maximum 15.55340
Minimum -18.25873
Std. Dev. 7.318329
Skewness -0.519603
Kurtosis 2.742966
Jarque-Bera 13.51343
Probability 0.001163
Los errores no tienen una distribucin normal.
Estime el modelo con tendencia cuadrtica escribiendo en el espacio en blanco,
debajo de la barra de herramientas ls inpc c tiempo teimpo2 y guarde la regresin con
un nombre por ejemplo inpct2.
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:28
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C -8.083254 1.195368 -6.762146 0.0000
TIEMPO 0.373453 0.019436 19.21404 0.0000
TIEMPO2 0.000517 6.63E-05 7.806438 0.0000
R-squared 0.976446 Mean dependent var 58.83333
Adjusted R-squared 0.976277 S.D. dependent var 43.21315
S.E. of regression 6.655753 Akaike info criterion 6.639384
Sum squared resid 12403.73 Schwarz criterion 6.678029
Log likelihood -936.4729 F-statistic 5803.695
Durbin-Watson stat 0.003740 Prob(F-statistic) 0.000000
Observe como en el modelo de tendencia cuadrtica la variable tiempo y tiempo al
cuadrado son estadsticamente significativas pero el DW indica autocorrelacin, pero el
estadstico Schwarz del segundo modelo es ms bajo.
34
Estime la grfica de la serie real y estimada
-20
-10
0
10
20
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
Residual Actual Fitted
Es muy parecida a la anterior
Haga la prueba de normalidad en los errores
0
4
8
12
16
20
24
28
32
-15 -10 -5 0 5 10
Series: Residuals
Sample 1985M02 2008M08
Observations 283
Mean 5.23e-15
Median 1.205712
Maximum 11.12624
Minimum -15.07925
Std. Dev. 6.632109
Skewness -0.217170
Kurtosis 2.225438
Jarque-Bera 9.298887
Probability 0.009567
Los errores no son normales
Estime el modelo exponencial por mnimos cuadrados no lineales de la siguiente
forma: de clic en Quick/Estimate Equation e introduzca la ecuacin
inpc=c(1)*exp(C(2)*tiempo).
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:32
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Convergence achieved after 58 iterations
INPC=C(1)*EXP(C(2)*TIEMPO)
Coefficient Std. Error t-Statistic Prob.
C(1) 15.76667 0.696431 22.63925 0.0000
C(2) 0.008041 0.000191 42.04294 0.0000
R-squared 0.914354 Mean dependent var 58.83333
Adjusted R-squared 0.914049 S.D. dependent var 43.21315
35
S.E. of regression 12.66899 Akaike info criterion 7.923234
Sum squared resid 45101.43 Schwarz criterion 7.948997
Log likelihood -1119.138 Durbin-Watson stat 0.001494
Grafique la variable real y la estimada
-30
-20
-10
0
10
20
30
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
Residual Actual Fitted
Haga pruebas de normalidad
0
10
20
30
40
50
60
-20 -10 0 10 20
Series: Residuals
Sample 1985M02 2008M08
Observations 283
Mean -1.928073
Median -8.570290
Maximum 20.00287
Minimum -23.91263
Std. Dev. 12.49814
Skewness 0.427954
Kurtosis 1.762166
Jarque-Bera 26.70591
Probability 0.000002
Note que los errores en este modelo tampoco son normales
Compare los tres modelos con los criterios de Akaike y Schwarz
lineal cuadrtico exponencial
Akaike
info criterion 6.829236 6.639384 7.923234
Schwarz
criterion 6.854999 6.678029 7.948997
Observe que tanto el criterio de Akaike como el de Schuarz son ms pequeos en
el modelo cuadrtico. Elija este modelo para predecir, recuerde haber generado a la
variable tiempo y tiempo2 ms all del periodo de la muestra, para ello de clic en
Forecast sobre los resultados de la regresin.
36
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
INPCF
Forecast: INPCF
Actual: INPC
Forecast sample: 1985M01 2008M12
Included observations: 283
Root Mean Squared Error 6.620382
Mean Absolute Error 5.531359
Mean Abs. Percent Error 43.97767
Theil Inequality Coefficient 0.045468
Bias Proportion 0.000000
Variance Proportion 0.005959
Covariance Proportion 0.994041
El coeficiente de Desigualdad de Theil est dentro de los lmites permitidos al igual que
los otros tres. Grafique la serie real y el pronstico
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
INPC INPCF
Esta es la grfica de las realizaciones reales y del pronstico de la serie inpc. Note que
an siendo el modelo de tendencia cuadrtico el elegido, el pronstico no flucta
alrededor a los datos de la variable real.
ESTACIONALIDAD DE UNA SERIE
La estacionalidad determinista de una serie de tiempo surge cuando las tecnologas,
preferencias e instituciones se enlazan con el calendario. Esta parte de la serie se puede
modelar con series estacionales indicadoras para cada trimestre si la serie es trimestral o
para mes si la serie es mensual.
Observe la variable ndice de desempleo en Mxico de 1996 a agosto de 2005
37
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
IDES
La serie muestra efectos estacionales en diciembre y en enero de cada ao.
Para modelar la serie, se crean 11 variables indicadoras de estacionalidad si el
modelo incluye ordenada al origen o 12 si no lo incluye. Genere estas variables dando
clic en genr y escriba la ecuacin d1=@seas(1) para generar la variable estacional de
enero y as sucesivamente.
Estime la regresin ls ides c d1 d2 d11
Dependent Variable: IDES
Method: Least Squares
Date: 09/10/08 Time: 17:41
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C 2.666667 0.345527 7.717684 0.0000
D1 0.858333 0.476276 1.802177 0.0744
D2 0.907333 0.476276 1.905058 0.0595
D3 0.750333 0.476276 1.575418 0.1182
D4 0.746333 0.476276 1.567019 0.1201
D5 0.607333 0.476276 1.275171 0.2051
D6 0.557333 0.476276 1.170190 0.2446
D7 0.685333 0.476276 1.438942 0.1532
D8 0.767333 0.476276 1.611111 0.1102
D9 0.711111 0.488649 1.455260 0.1486
D10 0.536667 0.488649 1.098267 0.2746
D11 0.375556 0.488649 0.768559 0.4439
R-squared 0.052077 Mean dependent var 3.299483
Adjusted R-squared -0.048184 S.D. dependent var 1.012475
S.E. of regression 1.036580 Akaike info criterion 3.007429
Sum squared resid 111.7479 Schwarz criterion 3.292283
Log likelihood -162.4309 F-statistic 0.519419
Durbin-Watson stat 0.093905 Prob(F-statistic) 0.886409
38
Note que solamente las dos primeras variables son estadsticamente significativas al
90%.
Ahora hagamos una regresin con las 12 variables indicadoras de estacionalidad
excluyendo la constante
Dependent Variable: IDES
Method: Least Squares
Date: 09/10/08 Time: 17:52
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
D1 3.525000 0.327796 10.75366 0.0000
D2 3.574000 0.327796 10.90314 0.0000
D3 3.417000 0.327796 10.42418 0.0000
D4 3.413000 0.327796 10.41198 0.0000
D5 3.274000 0.327796 9.987934 0.0000
D6 3.224000 0.327796 9.835400 0.0000
D7 3.352000 0.327796 10.22589 0.0000
D8 3.434000 0.327796 10.47604 0.0000
D9 3.377778 0.345527 9.775733 0.0000
D10 3.203333 0.345527 9.270867 0.0000
D11 3.042222 0.345527 8.804591 0.0000
D12 2.666667 0.345527 7.717684 0.0000
R-squared 0.052077 Mean dependent var 3.299483
Adjusted R-squared -0.048184 S.D. dependent var 1.012475
S.E. of regression 1.036580 Akaike info criterion 3.007429
Sum squared resid 111.7479 Schwarz criterion 3.292283
Log likelihood -162.4309 Durbin-Watson stat 0.093905
Observe como todas las variables se vuelven significativas sin embargo, el R cuadrado
es muy bajo y el estadstico DW indica autocorrelacin.
La grfica de la variable actual y estimada es la siguiente
39
-2
-1
0
1
2
3
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
Residual Actual Fitted
En ella se percibe que la variable modelada no se ajusta a los datos. Tal vez, faltara
introducir una tendencia cuadrtica dada la curvatura de la serie real. Veamos los
resultados.
Dependent Variable: IDES
Method: Least Squares
Date: 09/10/08 Time: 18:11
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
D1 5.826751 0.152927 38.10141 0.0000
D2 5.889708 0.153430 38.38684 0.0000
D3 5.744928 0.153905 37.32784 0.0000
D4 5.751410 0.154350 37.26208 0.0000
D5 5.621155 0.154767 36.32005 0.0000
D6 5.578162 0.155156 35.95194 0.0000
D7 5.711432 0.155517 36.72548 0.0000
D8 5.796965 0.155850 37.19577 0.0000
D9 5.903774 0.163041 36.21040 0.0000
D10 5.739812 0.163465 35.11339 0.0000
D11 5.587445 0.163859 34.09913 0.0000
D12 5.218897 0.164223 31.77940 0.0000
TIEMPO -0.108648 0.004217 -25.76255 0.0000
TIEMPO2 0.000869 3.55E-05 24.47281 0.0000
R-squared 0.874289 Mean dependent var 3.299483
Adjusted R-squared 0.858268 S.D. dependent var 1.012475
S.E. of regression 0.381170 Akaike info criterion 1.021621
Sum squared resid 14.81966 Schwarz criterion 1.353951
Log likelihood -45.25400 Durbin-Watson stat 0.626485
Observe como el R cuadrado aumenta, al igual que bajan los estadsticos Akaike y
Schwarz
40
Pero todava el DW indica autocorrelacin.
-1.5
-1.0
-0.5
0.0
0.5
1.0
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
Residual Actual Fitted
Observe, el ajuste es mejor comparado con los resultados de los otros modelos.
Hagamos algunas pruebas a este modelo
0
4
8
12
16
20
-1.0 -0.5 -0.0 0.5
Series: Residuals
Sample 1996M01 2005M08
Observations 116
Mean 2.32e-16
Median -0.030171
Maximum 0.856107
Minimum -1.115479
Std. Dev. 0.358980
Skewness -0.101755
Kurtosis 3.075346
Jarque-Bera 0.227617
Probability 0.892429
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 53.17358 Prob. F(2,100) 0.000000
Obs*R-squared 59.78406 Prob. Chi-Square(2) 0.000000
41
-80
-60
-40
-20
0
20
40
1997 1998 1999 2000 2001 2002 2003 2004 2005
CUSUM 5% Significance
Segn los resultados de las prueba este modelo tiene autocorrelacin, los estimadores no
son estables pero se distribuyen en forma normal.
Suponga que elegimos este modelo, hagamos la prediccin. Recuerde haber generado a
todas las variables X ms all de la muestra.
0
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
IDESF
Forecast: IDESF
Actual: IDES
Forecast sample: 1996M01 2005M12
Included observations: 116
Root Mean Squared Error 0.357429
Mean Absolute Error 0.279962
Mean Abs. Percent Error 8.537715
Theil Inequality Coefficient 0.051940
Bias Proportion 0.000000
Variance Proportion 0.033573
Covariance Proportion 0.966427
El coeficiente de desigualdad de Theil y los otros tres estn dentro de los lmites
permitidos.
La grfica de los valores reales y los estimados son
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
IDES IDESF
42
La tabla de los valores reales y los estimados es
2005M01 3.750000 4.225548
2005M02 3.930000 4.368370
2005M03 3.950000 4.305191
2005M04 4.200000 4.395013
2005M05 4.290000 4.349835
2005M06 3.540000 4.393657
2005M07 3.500000 4.615479
2005M08 4.050000 4.791301
2005M09 NA 4.990136
2005M10 NA 4.919938
2005M11 NA 4.863073
2005M12 NA 4.591764
GENERACIN DE MODELOS AR, MA Y ARMA ESTACIONARIOS Y NO
ESTACIONARIOS EN COVARIANZA
Un modelo ar(1) se expresa como
t t t
a y y +
1
es independiente de
t
v
y 1 0
y
son constantes.
Adems las condiciones de estabilidad de los parmetros exigen que
1 0 0
1 0
y
.
Generalizando, el modelo ARCH (q) se expresa como:
2
1
0 i t i
q
i
t t
v
+
Donde
t
v
es ruido blanco y las condiciones sobre los parmetros que garantizan la
estabilidad son ahora
1 . . . . . . . . . . 0
4 3 2 1 0
+ + + + +
q
y
Bollerslew (1986) hizo una extensin del trabajo original de Engle y desarrollo una
tcnica aplicando un proceso ARMA a la varianza condicional de los errores. Este tipo
de modelos recibieron el nombre de modelos de Heteroscedasticidad Condicional
Autorregresiva Generalizada (GARCH). La varianza condicional de estos modelos se
expresa como:
2
t t t
v
Para un modelo GARCH (1,1) la varianza sera
73
2
1 1
2
1 1 0
2
+ +
t t t
Las condiciones de estabilidad sobre los parmetros del modelo son ahora
1 1 ; 1 0 ; 0
1 1 0
Para un modelo GARCH (p,q) la varianza sera
2
1
2
1
0
2
j t j
p
j
i t i
q
i
t
+ +
Las condiciones de estabilidad sobre los parmetros del modelo son
1 . . . . . . . . . . . . . . 0
2 1 2 1 0
+ + + + + +
p q
y
EJEMPLO
Los modelos ARCH y GARCH se utilizan, principalmente, para analizar variables
financieras. La variable que se utiliza para el ejemplo es el ndice de Precios y
Cotizaciones del la Bolsa Mexicana de Valores (ipyc). Analice la grfica del ipyc de
1985.01 a 2006.06. Haga la prueba de races unitarias para el ipyc en niveles.
ADF Test Statistic 2.779435 PP Test
Statistic
3.565524 1%
Critical
Value*
-3.4573
5%
Critical
Value
-2.8728
10%
Critical
Value
-2.5727
Note que mientras DF no rechazan la presencia de raz unitaria en la serie ipyc, pero
PP si la rechaza. Haga la prueba con la primera diferencia de la serie
ADF Test Statistic -6.840501 PP Test
Statistic
-16.85182 1%
Critical
Value*
-3.4573
5% -2.8728
74
Critical
Value
10%
Critical
Value
-2.5727
Note que la primera diferencia de la serie ipyc (dipyc) es estacionaria.
Trabaje con la serie dipyc, es decir, determine un modelo ARMA adecuado para sta.
Vea el correlograma de la serie dipyc
Sample: 1985:01 2006:06
Included observations: 258
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|. | .|. | 1 -0.053 -0.053 0.7369 0.391
.|* | .|* | 2 0.092 0.090 2.9665 0.227
.|* | .|* | 3 0.110 0.121 6.1529 0.104
.|. | .|. | 4 0.028 0.033 6.3595 0.174
*|. | *|. | 5 -0.072 -0.092 7.7380 0.171
.|. | *|. | 6 -0.055 -0.088 8.5566 0.200
.|** | .|** | 7 0.237 0.247 23.528 0.001
*|. | .|. | 8 -0.081 -0.022 25.276 0.001
.|* | .|. | 9 0.094 0.060 27.636 0.001
.|* | .|. | 10 0.077 0.034 29.225 0.001
.|* | .|. | 11 0.076 0.063 30.812 0.001
.|. | .|. | 12 -0.016 0.001 30.883 0.002
.|. | *|. | 13 -0.042 -0.061 31.363 0.003
.|* | .|. | 14 0.091 0.025 33.623 0.002
.|. | .|* | 15 0.024 0.098 33.776 0.004
.|. | .|. | 16 0.029 0.018 34.005 0.005
.|. | .|. | 17 -0.001 -0.045 34.005 0.008
.|. | .|. | 18 0.030 -0.038 34.263 0.012
.|. | .|. | 19 -0.016 -0.006 34.339 0.017
.|. | .|. | 20 0.018 0.056 34.435 0.023
.|. | .|. | 21 -0.001 -0.030 34.435 0.033
.|* | .|* | 22 0.100 0.088 37.255 0.022
.|. | .|. | 23 0.035 0.044 37.607 0.028
.|. | .|. | 24 0.050 0.041 38.326 0.032
.|* | .|* | 25 0.137 0.101 43.724 0.012
.|. | .|. | 26 0.039 0.030 44.167 0.015
.|* | .|* | 27 0.107 0.103 47.464 0.009
.|. | .|. | 28 -0.043 -0.034 47.993 0.011
.|. | *|. | 29 -0.055 -0.152 48.865 0.012
.|. | .|. | 30 -0.005 -0.015 48.873 0.016
.|. | .|. | 31 -0.029 -0.010 49.118 0.020
.|. | .|. | 32 0.029 0.021 49.363 0.026
.|. | .|. | 33 0.053 0.052 50.205 0.028
.|. | .|. | 34 0.049 -0.043 50.933 0.031
.|. | .|. | 35 -0.001 -0.006 50.934 0.040
*|. | *|. | 36 -0.124 -0.183 55.599 0.020
75
Note que la autocorrelacin y la autocorrelacin parcial 7 son estadsticamente
significativas. Por tanto un modelo tentativo para la serie dipyc sera ls dipyc c ar(7)
ma(7), el modelo estimado es entonces
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 7 iterations
Backcast: 1985:01 1985:07
Variable Coefficient Std. Error t-Statistic Prob.
C 86.85354 40.31312 2.154473 0.0322
AR(7) 0.538742 0.223667 2.408674 0.0167
MA(7) -0.249182 0.238818 -1.043400 0.2978
R-squared 0.075671 Mean dependent var 76.26088
Adjusted R-squared 0.068217 S.D. dependent var 393.0074
S.E. of regresin 379.3659 Akaike info criterion 14.72676
Sum squared resid 35691779 Schwarz criterion 14.76890
Log likelihood -1845.208 F-statistic 10.15134
Durbin-Watson stat 2.033617 Prob(F-statistic) 0.000058
Note que el trmino ma(7) no es estadsticamente significativo, por tanto otro modelo
tentativo es ls dipyc c ar(7)
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 3 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 80.22565 34.27784 2.340452 0.0201
AR(7) 0.300679 0.068786 4.371240 0.0000
R-squared 0.071269 Mean dependent var 76.26088
Adjusted R-squared 0.067539 S.D. dependent var 393.0074
S.E. of regresin 379.5038 Akaike info criterion 14.72354
Sum squared resid 35861753 Schwarz criterion 14.75163
Log likelihood -1845.805 F-statistic 19.10774
Durbin-Watson stat 2.025496 Prob(F-statistic) 0.000018
Note que el trmino ar(7) es estadsticamente significativo y que los criterios de
Akaike y Schwarz son ms pequeos en el segundo modelo que en el primero. En
consecuencia se toma como mejor modelo el segundo. Hasta este momento las
76
instrucciones y el anlisis de la serie son las mismas que cuando se estudiaron los
modelos ARIMA.
Ahora analice si la serie es voltil, es decir, si los errores al cuadrado de la serie dipyc
presenta efectos ARCH o GARCH. Para ello sobre los resultados de la regresin ls dipy
c ar(7) de clic en View/Residual Test/ARCH-LM Test/OK
ARCH Test:
F-statistic 6.512924 Probabilit
y
0.011310
Obs*R-squared 6.397440 Probabilit
y
0.011429
Note que la prueba de homoscedasticidad en los errores se rechaza porque el valor de
la probabilidad de ambos estadsticos son menores a 0.05. El hecho que sea rechazada
la prueba de homoscedasticidad indica que la varianza de los errores no es constante y
por tanto hay efectos ARCH. Ahora hay que modelar esos efectos como un modelo AR
o un modelo ARMA. Para determinar el grado del ARMA en la varianza condicional de
la serie genere los errores al cuadrado de la serie con la instruccin genr errdipyc=resid
inmediatamente despus de haber estimado el modelo ls dipyc c ar(7), despus genere
los residuos al cuadrado con la instruccin genr err2dipyc=errdipyc^2 (los residuos al
cuadrado estn guardados ahora con el nombre de err2dipyc). Analice su correlograma,
dando clic en err2dipyc/SHOW y una vez mostrada la variable dar clic en
View/Corrlogram/OK.
Sample: 1985:01 2006:06
Included observations: 251
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|* | .|* | 1 0.160 0.160 6.4925 0.011
.|** | .|** | 2 0.257 0.237 23.335 0.000
.|* | .|* | 3 0.161 0.099 29.935 0.000
.|** | .|* | 4 0.265 0.192 47.939 0.000
.|* | .|* | 5 0.170 0.078 55.368 0.000
.|** | .|** | 6 0.306 0.204 79.706 0.000
.|* | .|. | 7 0.163 0.045 86.658 0.000
.|*** | .|** | 8 0.360 0.236 120.45 0.000
.|* | .|. | 9 0.125 -0.020 124.55 0.000
.|* | .|. | 10 0.169 -0.031 132.12 0.000
.|* | .|. | 11 0.117 -0.022 135.75 0.000
.|* | *|. | 12 0.093 -0.121 138.03 0.000
.|* | .|. | 13 0.113 -0.009 141.45 0.000
.|** | .|* | 14 0.244 0.102 157.38 0.000
.|* | .|. | 15 0.070 -0.042 158.72 0.000
.|. | *|. | 16 0.055 -0.117 159.54 0.000
.|* | .|* | 17 0.125 0.078 163.78 0.000
.|* | .|. | 18 0.097 0.029 166.34 0.000
.|. | .|. | 19 0.063 -0.014 167.42 0.000
.|* | .|. | 20 0.100 0.055 170.16 0.000
.|. | .|. | 21 0.047 -0.028 170.77 0.000
.|. | *|. | 22 0.052 -0.070 171.51 0.000
.|. | .|. | 23 0.063 0.030 172.62 0.000
.|. | .|. | 24 0.017 -0.020 172.71 0.000
.|* | .|. | 25 0.093 0.031 175.13 0.000
.|. | .|. | 26 0.033 0.009 175.44 0.000
.|. | .|. | 27 0.053 0.011 176.23 0.000
77
.|. | .|. | 28 0.038 -0.037 176.64 0.000
.|* | .|* | 29 0.075 0.082 178.24 0.000
.|. | .|* | 30 0.060 0.092 179.26 0.000
.|. | *|. | 31 0.036 -0.069 179.64 0.000
.|. | .|. | 32 0.030 0.007 179.89 0.000
.|. | .|. | 33 0.041 -0.013 180.38 0.000
.|. | .|. | 34 0.015 -0.056 180.45 0.000
.|. | .|. | 35 0.009 -0.039 180.47 0.000
.|. | .|. | 36 0.039 0.035 180.93 0.000
Note que las correlaciones 2,4,6,8 y las correlaciones parciales 2,6,8 son
estadsticamente significativas o bien se salen de la banda del 5.0% de significancia. Por
tanto un modelo tentativo de la varianza condicional sera un GARCH ar(2) ar(6) ar(8)
ma(2) ma(4) ma(6) ma(8). Para estimar este modelo sobre los resultados de la regresin
ls dipyc c ar(7) de clic en Estimate/ y aparece una ventana donde hay que dar clic en la
flecha que dice Method y aparece una lista de los mtodos de estimacin, por tanto dar
clic en ARCH- Modelos de Heteroscedasticidad Condicional Autorregresiva y aparece
una ventana donde hay que anotar el orden de ARCH y del GARCH. Ah anotar, para el
caso del ejemplo ARCH 8 GARCH 8 y aparece el siguiente resultado
Dependent Variable: DIPYC
Method: ML ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 15 iterations
Coefficient Std. Error z-Statistic Prob.
C 75.17219 36.43276 2.063313 0.0391
AR(7) 0.179016 0.061902 2.891904 0.0038
Variance Equation
C 114680.3 186656.4 0.614393 0.5390
ARCH(1) 0.124726 0.136548 0.913424 0.3610
ARCH(2) 0.197831 0.325906 0.607021 0.5438
ARCH(3) 0.272835 0.389541 0.700401 0.4837
ARCH(4) 0.137545 0.452377 0.304049 0.7611
ARCH(5) -0.021313 0.324176 -0.065744 0.9476
ARCH(6) 0.107615 0.309584 0.347613 0.7281
ARCH(7) 0.119780 0.407704 0.293792 0.7689
ARCH(8) 0.090222 0.358342 0.251777 0.8012
GARCH(1) -0.132944 2.287901 -0.058107 0.9537
GARCH(2) -0.173952 1.753405 -0.099208 0.9210
GARCH(3) -0.150826 1.373350 -0.109824 0.9125
GARCH(4) -0.149402 1.005646 -0.148563 0.8819
GARCH(5) -0.114601 0.756388 -0.151511 0.8796
GARCH(6) -0.078912 0.670865 -0.117627 0.9064
GARCH(7) -0.019947 0.578881 -0.034458 0.9725
GARCH(8) 0.012889 0.376367 0.034247 0.9727
R-squared 0.059558 Mean dependent var 76.26088
Adjusted R-squared -0.013407 S.D. dependent var 393.0074
S.E. of regresin 395.6331 Akaike info criterion 14.39421
Sum squared resid 36313935 Schwarz criterion 14.66108
Log likelihood -1787.473 F-statistic 0.816258
Durbin-Watson stat 2.059570 Prob(F-statistic) 0.680316
78
Note que ningn trmino es estadsticamente significativo, por tanto se prueba con un
ARCH 6 y GARCH 8
Dependent Variable: DIPYC
Method: ML ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 42 iterations
Coefficient Std. Error z-Statistic Prob.
C 73.29669 19.51930 3.755087 0.0002
AR(7) 0.209876 0.049390 4.249384 0.0000
Variance Equation
C 110764.4 33698.72 3.286903 0.0010
ARCH(1) 0.187414 0.084623 2.214710 0.0268
ARCH(2) 0.418433 0.137312 3.047328 0.0023
ARCH(3) 0.487617 0.105073 4.640720 0.0000
ARCH(4) 0.437080 0.044092 9.912806 0.0000
ARCH(5) 0.157297 0.085809 1.833112 0.0668
ARCH(6) 0.072122 0.079983 0.901719 0.3672
GARCH(1) -0.959296 0.179256 -5.351529 0.0000
GARCH(2) -0.945641 0.146978 -6.433879 0.0000
GARCH(3) -0.303976 0.220809 -1.376643 0.1686
GARCH(4) -0.049267 0.188951 -0.260742 0.7943
GARCH(5) -0.068034 0.131348 -0.517968 0.6045
GARCH(6) -0.013141 0.133506 -0.098430 0.9216
GARCH(7) 0.252382 0.159067 1.586642 0.1126
GARCH(8) 0.191518 0.160453 1.193608 0.2326
R-squared 0.064650 Mean dependent var 76.26088
Adjusted R-squared 0.000695 S.D. dependent var 393.0074
S.E. of regresin 392.8709 Akaike info criterion 14.14578
Sum squared resid 36117319 Schwarz criterion 14.38455
Log likelihood -1758.295 F-statistic 1.010864
Durbin-Watson stat 2.050913 Prob(F-statistic) 0.445887
Note ahora que los trminos ARCH 5 y 6 y el GARCH 3 al 8 no son estadsticamente
significativos por tanto se prueba con aquellos que s son estadsticamente
significativos. Como ejercicio haga el pronstico.
Dependent Variable: DIPYC
Method: ML ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 25 iterations
Coefficient Std. Error z-Statistic Prob.
C 65.86900 22.26606 2.958269 0.0031
AR(7) 0.182517 0.039303 4.643846 0.0000
Variance Equation
C 112815.6 23557.41 4.788965 0.0000
ARCH(1) 0.344460 0.062391 5.520970 0.0000
ARCH(2) 0.546304 0.001144 477.5972 0.0000
ARCH(3) 0.435188 0.055656 7.819237 0.0000
79
ARCH(4) 0.316048 0.042001 7.524858 0.0000
GARCH(1) -0.751011 0.085884 -8.744507 0.0000
GARCH(2) -0.714136 0.108101 -6.606216 0.0000
R-squared 0.059589 Mean dependent var 76.26088
Adjusted R-squared 0.028501 S.D. dependent var 393.0074
S.E. of regresin 387.3664 Akaike info criterion 14.16072
Sum squared resid 36312756 Schwarz criterion 14.28713
Log likelihood -1768.170 F-statistic 1.916788
Durbin-Watson stat 2.057233 Prob(F-statistic) 0.058165
Note que los coeficiente ARCH 1,2,3,4 y GARCH 1 y 2 son estadsticamente
significativos y que adems el criterio de Schwarz es ms pequeo en el tercer modelo
que en los anteriores, por tanto el mejor modelo para su uso en el pronstico de la serie
dipyc sera el tercero.
VECTORES AUTORREGRESIVOS
Los modelos VAR son una combinacin de modelos de ecuaciones simultneas con
series de tiempo. Las variables que entran en este tipo de modelos son endgenas
porque las explicativas son los rezagos de las variables dependientes. En un modelo
univariado AR(p) la variable dependiente est explicada por sus propios rezagos, en un
modelo autorregresivo de orden p, se estiman n ecuaciones diferentes donde cada
variable estar explicada por sus propios rezagos y por lo n-1 rezagos de las otras
variables que forman parte del VAR. Por ejemplo un VAR(1) de dos variables es:
t t t t
y y y
1 1 2 12 1 1 11 1
+ +
t t t t
y y y
2 1 2 22 1 1 21 2
+ +
Donde cada variable depende de su primer rezago y del primer rezago de la otra
variable. Adems, las perturbaciones se pueden correlacionar de tal forma que cuando
una ecuacin sufre un choque, la otra tambin lo sufrir. Este tipo de interaccin es el
elemento distintivo de los VAR.
Los VAR se han utilizado principalmente para predecir, comprobar la causalidad
de Granger y para el estudio de las respuestas al impulso (la dinmica de los efectos de
las perturbaciones sobre las variables dependientes).
Prueba de causalidad de Granger
La prueba de causalidad de Granger es una herramienta estadstica para
determinar el sentido de la relacin entre las variables. El concepto de causalidad de
Granger hace referencia a la precedencia
1
de una variable sobre otra variable. Este
concepto, sostiene que si
x
t
puede ser explicado por sus valores pasados y por los
valores pasados de
y
t
entonces
y
t
causa a
x
t
, es decir, cunto del valor explicado
de
x
t
puede ser explicado por los valores pasados de
x
t
y por los valores pasados de
y
t
. Esta definicin implica que si
y
t
causa a
x
t
, entonces
x
t +1
es el mejor
predictor cuando se utiliza a
y
t j que cuando no se utiliza.
1
La precedencia de una variable sobre una variable o sobre otras variables surge de la nocin de que la
causa debe suceder antes que el efecto. Francis Diebold en su libro Elementos de Pronstico,
publicado en Mxico por la editorial Thomson en el ao de 1998, profundiza sobre el concepto de
causalidad relacionado con los pronsticos y retoma el concepto de causalidad como precedencia.
80
Francis Diebold (1998), siguiendo a Granger (1988) argumenta que una serie
causal debe contener informacin til para el pronstico que no este disponible en las
dems series (incluyendo la historia pasada de las variables pronosticables).
Esta definicin de causalidad de Granger se basa en dos principios fundamentales:
1. La causa ocurre antes que el efecto.
2. La serie causal contiene informacin acerca de la serie causada que no esta
disponible en otras series, aqu llamada
w
t
.
La prueba de causalidad, Granger la presenta en 1969 de la siguiente manera
A x Ax
o t t j t
j
m
+
1
donde
A
0
es un conjunto de matrices, m puede ser infinita y
t
es la parte no
explicada del modelo que se incluyen como un vector de variables aleatorias llamadas
ruido blanco
2
, las cuales toman los valores
[ ]
E
t s
,
, 0
t s
[ ]
E I
t s
,
,
t s
Segn Granger, este modelo puede ser ilustrado mediante un VAR de dos
variables
x
t
y
y
t
como sigue
x a x b y
t j t j j t j t
j
m
j
m
+ +
1 1
y c x d y
t j t j j t j t
j
m
j
m
+ +
1 1
Si
b
j
0
para toda j entonces
y
t
no causa a
x
t
Si
c
j
0
para toda j entonces
x
t
no causa a
y
t
PRUEBAS DE CAUSALIDAD DE GRANGER
Como ejemplo, suponga que se quiere probar si existe causalidad entre el cambio
porcentual del tipo de cambio fix (rendimiento), del cambio porcentual del ndice de
precios y cotizaciones de la Bolsa Mexicana de Valores (rendimiento) y del cambio
absoluto de la tasa de inters de los cetes a 28 das de 1996 a agosto de 2008. Para ello
sobre las tres variables d clic en SHOW y despus OK, sobre el listado de esas dos
variables, de clic en View/Granger Causality/OK y aparece los resultados de la prueba
de causalidad de Granger. Esta prueba EV la realiza con un VAR por pares de variables
2
Una variable ruido blanco es aquella que tiene media cero, varianza constante
2
y no est
autocorrelacionda.
81
y dos rezagos de cada una de ellas, si desea cambiar el nmero de rezagos incluidos,
debe de anotarlos antes de dar clic en OK. La hiptesis a probar aparece en forma
literal en los resultados de la prueba la primera variable no causa en el sentido de
Granger a la segunda variable- y el criterio de decisin es: si el valor de la probabilidad
del estadstico de prueba es mayor que 0.05 no se rechaza la hiptesis nula, es decir, la
primera variable no causa a la Granger a la segunda variable. Los resultados de la
prueba para el caso del ejemplo son:
Pairwise Granger Causality Tests
Date: 09/12/08 Time: 16:10
Sample: 1996M01 2008M12
Lags: 2
Null Hypothesis: Obs F-Statistic Probability
VPFIX does not Granger Cause DCETES28 149 25.6800 2.9E-10
DCETES28 does not Granger Cause VPFIX 0.13051 0.87775
VPIPYC does not Granger Cause DCETES28 149 20.6203 1.3E-08
DCETES28 does not Granger Cause VPIPYC 1.94864 0.14621
VPIPYC does not Granger Cause VPFIX 149 0.80532 0.44895
VPFIX does not Granger Cause VPIPYC 0.08524 0.91833
Observe como el valor de la probabilidad del estadstico F (menor a 0.05), para la
primera relacin indica que el rendimiento del tipo de cambio fix (rfix) causa a la
Granger al cambio absoluto de los cetes28 (dcetes28), es decir, se rechaza la hiptesis
nula. Para la segunda relacin, esta prueba indica que dcetes28 no causa a la Granger al
rendimiento del fix, es decir, no se rechaza la hiptesis nula al 5.0% de significancia o
al 95.0% de confianza (el valor de la probabilidad del estadstico F es mayor a 0.05). La
tercera relacin, indica que se rechaza la hiptesis nula, es decir, el rendimiento de
ndice de precios y cotizaciones (ripyc) est causando a la Granger a la dcetes28. En la
cuarta, no se rechaza la hiptesis nula, es decir, la dcetes28 no causan a la Granger al
ripyc. En la relacin cinco y seis no se rechaza la hiptesis nula, es decir, ni el ripyc
causa a la Granger al rfix, ni a la inversa.
En trminos generales, si ambas variables no se causan a la Granger, se dice que
son independientes, si se causan mutuamente, se dice que hay efecto retroalimentacin
entre ellas. Este ltimo efecto puede ser probado para las pocas de inflacin-
devaluacin.
Es importante destacar que la prueba de causalidad de Granger sirve para probar
exogeneidad entre las variables, mediante el concepto de precedencia. Esta definicin
de exogeneidad, se conoce como exogeneidad fuerte. Para el caso de los resultados de la
82
prueba de causalidad del ejemplo, significa que los movimientos del ripyc y del rfix
preceden a los movimientos del dcetes28, por tanto se concluye que el ripyc y el rfix se
pueden considerar como variables exgena en un modelo que explique a los dcetes28
en este periodo.
Finalmente, existe una prueba de exogeneidad en bloque que se encuentra
disponible en el paquete EV. Esta prueba se realiza tambin con un modelo VAR. Para
el caso de las tres variables del ejemplo, con un VAR que incluye dos rezagos dar clic
en Quick/Estimate VAR/ donde aparece el cursor anotar las variables endgenas, en el
caso del ejemplo son (dcetes28 vpfix vpipyc), en Lag Intervals dar 2 y dar OK o bien
liste las variables que entrarn en el VAR con Show y sobre el listado d clic en
Procs/Make Vector Autoregression y OK, sobre los resultados de la regresin de
View/Lag Structure/Granger Casuality/BlockExogeneity Tests y aparece la
siguiente tabla
VAR Granger Causality/Block Exogeneity Wald Tests
Date: 09/22/08 Time: 17:42
Sample: 1996M01 2008M12
Included observations: 149
Dependent variable: DCETES28
Excluded Chi-sq Df Prob.
VPFIX 26.01464 2 0.0000
VPIPYC 17.31179 2 0.0002
All 74.13293 4 0.0000
Dependent variable: VPFIX
Excluded Chi-sq Df Prob.
DCETES28 0.287071 2 0.8663
VPIPYC 1.618220 2 0.4453
All 1.878551 4 0.7581
Dependent variable: VPIPYC
Excluded Chi-sq Df Prob.
DCETES28 3.740153 2 0.1541
VPFIX 0.067711 2 0.9667
All 3.912701 4 0.4179
83
Observe los primeros renglones de la tabla, en ella se encuentran las pruebas
individuales de causalidad de Granger para la variable dcetes28 contra rfix y el ripyc;
segn los resultados de la prueba, estas variables causan a la Granger de manera
individual y conjunta a dcetes28 o bien los movimientos de estas variables preceden a
los movimientos de dcetes28. Estos resultados confirman lo que se haba encontrado
anteriormente. Como ejercicio interprete los resultados de esta prueba para rfix y ripyc.
LA FUNCIN ESTMULO RESPUESTA Y LA TABLA DE DESCOMPOSICIN
DE LA VARIANZA
Como se anot anteriormente una de las aplicaciones ms importante en el VAR es la
funcin estmulo respuesta y la tabla de descomposicin de la varianza. Sin embargo,
para obtener stas dos funciones falta puntualizar una de las propiedades que debe
cumplir la construccin de un VAR. Las variables que formar parte de un VAR, tienen
que ser estacionarias, por tanto, la prueba de races unitarias debe ser el primer paso
para la construccin de ste (hay autores que argumentan que si el VAR es estable no
importa si las variables incluidas en l son estacionarias). El segundo paso es la
determinacin de los rezagos incluidos en el VAR. El nmero de rezagos incluidos en el
VAR sern aquellos estadsticamente significativos, por lo regular se propone un
nmero alto para despus ir ajustando. Tambin, se debe de evaluar el VAR para saber
si es estable y si las innovaciones no estn autocorrelacionadas. Si el VAR es estable, la
inferencia que se obtenga de la funcin estmulo respuesta y de la tabla de
descomposicin de la varianza sern verdaderas. Si las innovaciones no estn
autocorrelacionadas los modelos VAR son buenas herramientas para realizar
pronsticos.
Para construir el VAR sigamos con el ejemplo de las variables consideradas en la
prueba de causalidad de Granger. Primero, se hacen las pruebas de races unitarias a la
variables dcetes28, ripyc, y rfix para el periodo 1996 a agosto 2008.
La variable dcetes28 los resultados son
Augmented Dickey-Fuller test statistic -12.07400 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Adj. t-Stat Prob.*
Phillips-Perron test statistic -12.08190 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Note que la serie dcetes28 es estacionaria en niveles
Para el ripyc
84
Lag Length: 0 (Automatic based on SIC, MAXLAG=13)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -12.41754 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
*MacKinnon (1996) one-sided p-values.
Bandwidth: 1 (Newey-West using Bartlett kernel)
Adj. t-Stat Prob.*
Phillips-Perron test statistic -12.41736 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Observe que la variable ripyc es estacionaria en niveles
Para la variable rfix
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -12.41754 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Adj. t-Stat Prob.*
Phillips-Perron test statistic -12.41736 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Note que rfix es estacionario en niveles
Como las series son estacionarias en niveles, se construir un VAR en niveles. Se
recomienda construir un VAR con ms rezagos y despus ir ajustando a travs de las
pruebas que existen en este paquete economtrico. El clculo del VAR se inicia dando
clic en Quick/Estimate VAR/ donde aparece el cursor anotar las variables endgenas,
en el caso del ejemplo son (dcetes28 vpfix vpipyc) y donde Lag Intervals dar 10
(siempre proponga ms rezagos), finalmente dar OK. o bien liste las variables que
entrarn en el VAR con Show y sobre el listado d clic en Procs/Make Vector
85
Autoregression. Para elegir el nmero de rezagos del VAR, de acuerdo a varios
crterios, sobre los resultados del VAR de clic en View/Lag Structure/Lag Length
Criteria y aparece una tabla con varios criterios
VAR Lag Order Selection Criteria
Endogenous variables: DCETES28 VPFIX VPIPYC
Exogenous variables: C
Date: 09/15/08 Time: 16:02
Sample: 1996M01 2008M12
Included observations: 141
Lag LogL LR FPE AIC SC HQ
0 -1074.701 NA 873.8547 15.28654 15.34928 15.31204
1 -1039.944 67.54221 606.4425* 14.92120* 15.17215* 15.02318*
2 -1034.400 10.53885 637.0325 14.97021 15.40938 15.14867
3 -1031.896 4.652705 698.8485 15.06235 15.68975 15.31730
4 -1026.171 10.39450 732.7074 15.10880 15.92442 15.44024
5 -1023.390 4.929476 801.3837 15.19703 16.20086 15.60495
6 -1017.625 9.976668 840.6925 15.24291 16.43496 15.72732
7 -1009.664 13.43797 855.5321 15.25764 16.63792 15.81854
8 -1003.908 9.470495 899.0999 15.30366 16.87215 15.94104
9 -992.2814 18.63590* 870.2796 15.26640 17.02311 15.98027
10 -981.9825 16.06910 859.4060 15.24798 17.19291 16.03833
* indicates lag order selected by the criterion
LR: sequential modified LR test statistic (each test at 5% level)
FPE: Final prediction error
AIC: Akaike information criterion
SC: Schwarz information criterion
HQ: Hannan-Quinn information criterion
Cuatro criterios recomiendan que el VAR debe contener 1 rezago y un criterio
sugiere que VAR contenga 9 rezagos.
Calculemos ambos modelos VAR
Resultados del VAR para dos rezagos
R-squared 0.359799 0.031131 0.031035
Adj. R-squared 0.332748 -0.009807 -0.009907
Sum sq. Resids 458.8433 738.4208 7316.106
S.E. equation 1.797579 2.280383 7.177874
F-statistic 13.30088 0.760438 0.758018
Log likelihood -295.2166 -330.6641 -501.5164
Akaike AIC 4.056599 4.532404 6.825724
Schwarz SC 4.197724 4.673529 6.966849
Mean dependent -0.223289 0.233833 1.709709
S.D. dependent 2.200610 2.269283 7.142579
86
Determinant resid covariance (dof adj.) 663.0361
Determinant resid covariance 573.9095
Log likelihood -1107.525
Akaike information criterion 15.14798
Schwarz criterion 15.57136
Resultados para el VAR con nueve rezagos
R-squared 0.492167 0.172742 0.200163
Adj. R-squared 0.371891 -0.023188 0.010727
Sum sq. Resids 300.8361 591.6376 5910.633
S.E. equation 1.624473 2.278114 7.200532
F-statistic 4.091969 0.881653 1.056628
Log likelihood -254.7917 -302.8110 -466.2256
Akaike AIC 3.982982 4.659310 6.960924
Schwarz SC 4.565821 5.242149 7.543764
Mean dependent -0.123732 0.197547 1.757017
S.D. dependent 2.049722 2.252152 7.239467
Determinant resid covariance (dof adj.) 518.1149
Determinant resid covariance 268.0869
Log likelihood -1001.451
Akaike information criterion 15.28804
Schwarz criterion 17.03656
Observe que segn los crterios de Log likelihood, Akaike y Schwarz recomiendan
el de un rezago.
Evaluemos los modelos VAR
Veamos si ambos modelos son estables. Sobre los resultados del VAR de clic en
View/Lag Structure/AR Root Grafic
87
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
Inverse Roots of AR Characteristic Polynomial
Como las races caractersticas se encuentran dentro del crculo unitario el VAR con dos
rezagos es estable.
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
Inverse Roots of AR Characteristic Polynomial
El VAR con nueve rezagos tambin es estable
Para saber si las innovaciones estn autocorrelacionadas, sobre los resultados del VAR
de clic en View/Residual Test/ Correlogram Grafic
Para el de un rezago
88
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,DCETES28(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPFIX(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPIPYC(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,DCETES28(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPFIX(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPIPYC(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,DCETES28(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPFIX(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPIPYC(-i))
Autocorrelations with 2 Std.Err. Bounds
Observe que hay autocorrelacin cruzada en las innovaciones de rfix con dcetes28 y
ripyc con dcetes28.
Para el de nueve rezagos
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,DCETES28(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPFIX(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPIPYC(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,DCETES28(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPFIX(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPIPYC(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,DCETES28(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPFIX(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPIPYC(-i))
Autocorrelations with 2 Std.Err. Bounds
Observe que hay autocorrelacin de los residuales de la variable dcetes 28 y ripyc
en la nmero 10 y 11 y en los residuales de rfix con rfix en la 12.
Otra prueba de autocorrelacin es la de ML. Para ver los resultados de esta prueba,
de clic sobre los resultados del VAR en View/Residual Test/ Autocorrelation LM
Test. La hiptesis nula es no hay problemas de autocorrelacin entre los errores.
Para el VAR con un rezago.
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 09/15/08 Time: 17:27
Sample: 1996M01 2008M12
89
Included observations: 149
Lags LM-Stat Prob
1 10.19384 0.3350
2 6.393424 0.7000
3 1.453589 0.9975
4 14.43962 0.1075
5 4.938293 0.8397
6 13.62792 0.1362
7 7.187000 0.6177
8 14.27531 0.1129
9 13.21709 0.1530
10 13.43748 0.1438
11 4.359905 0.8862
12 2.252297 0.9868
Segn los resultados de la regresin no hay autocorrelacin entre los errores
Para el VAR con nueve rezagos
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 09/15/08 Time: 16:45
Sample: 1996M01 2008M12
Included observations: 142
Lags LM-Stat Prob
1 19.03233 0.0249
2 11.56728 0.2388
3 15.64977 0.0746
4 7.665566 0.5682
5 2.692557 0.9752
6 8.348193 0.4995
7 10.17025 0.3369
8 10.84316 0.2866
9 7.520919 0.5830
10 14.34957 0.1104
11 9.127454 0.4256
12 12.38249 0.1926
Probs from chi-square with 9 df.
Observe como en el rezago uno se rechaza la hiptesis nula
Para saber si los errores del VAR se distribuyen en forma normal, sobre los resultados
de la regresin d clic en View/Residual Test/Normality Test. La hiptesis nula a
probar es que los errores se distribuyen en forma normal
Para el VAR con un rezagos
90
Component Jarque-Bera Df Prob.
1 639.5796 2 0.0000
2 78.38605 2 0.0000
3 0.175391 2 0.9160
Joint 718.1411 6 0.0000
Los errores no se distribuyen en forma normal
Para el VAR con nueve rezagos
Component Jarque-Bera Df Prob.
1 736.0968 2 0.0000
2 37.51001 2 0.0000
3 6.593882 2 0.0370
Joint 780.2007 6 0.0000
Segn los resultados de esta prueba los errores no son normales
Para realizar la prueba de heteroscedasticidad, sobre los resultados de la regresin d
clic en View/Residual Test/White. La hiptesis nula a probar es que los errores son
homoscedsticos.
Para el VAR con un rezago
Joint test:
Chi-sq Df Prob.
168.8574 72 0.0000
Para el VAR con nueve rezagos
Joint test:
91
Chi-sq Df Prob.
455.5810 324 0.0000
Segn los resultados de la prueba los errores son heteroscedsticos.
Por ltimo, tambin se puede observar la matriz de correlaciones de los errores. Para
ello, sobre los resultados de la regresin d clic en View/Residual /Correlations
Matrix. La hiptesis nula a probar es que los errores no estn autocorrelacionados.
Matriz de correlacin de los errores del VAR con un rezagos
DCETES28 1.000000 0.246176 -0.119691
VPFIX 0.246176 1.000000 -0.429555
VPIPYC -0.119691 -0.429555 1.000000
Segn los resultados de la prueba no hay autocorrelacin entre los errores
Matriz de correlacin de los errores del VAR con nueve rezagos
DCETES28 VPFIX VPIPYC
DCETES28 1.000000 0.251223 -0.029954
VPFIX 0.251223 1.000000 -0.461822
VPIPYC -0.029954 -0.461822 1.000000
Segn los resultados de la prueba los errores no estn autocorrelacionados
Al evaluar los resultados se elige el VAR con dos rezagos.
La funcin estmulo respuesta se obtiene dando clic sobre los resultados del VAR en
Impulse y en Displey type dar clic en Multiple Graphs, como se trabajan con datos
mensuales es conveniente realizar el anlisis de la funcin estmulo respuesta a 12
periodos, por tanto cambie el nmero de periodos de 10 a 12 y despus OK.
92
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of DCETES28 to DCETES28
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of DCETES28 to VPFIX
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of DCETES28 to VPIPYC
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPFIX to DCETES28
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPFIX to VPFIX
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPFIX to VPIPYC
-6
-4
-2
0
2
4
6
8
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPIPYC to DCETES28
-6
-4
-2
0
2
4
6
8
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPIPYC to VPFIX
-6
-4
-2
0
2
4
6
8
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPIPYC to VPIPYC
Response to Cholesky One S.D. Innovations 2 S.E.
Observe que un choque en la innovacin del rendimiento del tipo de cambio
provocan un efecto importante en el movimiento del dcetes28 durante los tres primeros
meses y despus tiende a desvanecerse a los cinco meses (ver primer rengln segunda
grfica). Un cambio inesperado del ripyc provoca una baja dcetes28 durante dos meses,
pero se revierte durante un mes y se desvanecerse a los tres meses (ver primer rengln
tercera grfica). Como ejercicio interprete las grficas de los dos renglones siguientes.
La Tabla de Descomposicin de la Varianza se encuentra dando clic sobre los
resultados del VAR en Variance Descomposition/Table, cambie el nmero de
periodos a 12.
DCETE
S28
Period S.E. DCETES28 VPFIX VPIPYC
1 1.797579 100.0000 0.000000 0.000000
2 2.199225 68.29895 23.99944 7.701613
3 2.235681 68.12267 24.31315 7.564183
4 2.245330 67.53884 24.94312 7.518042
5 2.247070 67.46996 25.02250 7.507541
6 2.247396 67.45316 25.03676 7.510083
7 2.247452 67.45058 25.03736 7.512065
93
8 2.247474 67.44992 25.03812 7.511967
9 2.247476 67.44984 25.03807 7.512087
10 2.247478 67.44978 25.03815 7.512073
11 2.247478 67.44977 25.03815 7.512076
12 2.247479 67.44977 25.03816 7.512075
VCPFIX
Period S.E. DCETES28 VPFIX VPIPYC
1 2.280383 6.060254 93.93975 0.000000
2 2.282392 6.159254 93.78707 0.053676
3 2.315069 6.351007 92.63967 1.009325
4 2.315691 6.352091 92.60379 1.044123
5 2.317321 6.403246 92.53463 1.062125
6 2.317512 6.402820 92.53105 1.066131
7 2.317614 6.406347 92.52719 1.066468
8 2.317627 6.406301 92.52720 1.066501
9 2.317633 6.406463 92.52701 1.066524
10 2.317634 6.406463 92.52701 1.066524
11 2.317634 6.406470 92.52700 1.066527
12 2.317635 6.406471 92.52700 1.066527
VPIPYC
Period S.E. DCETES28 VPFIX VPIPYC
1 7.177874 1.432604 17.03982 81.52758
2 7.247764 3.162635 16.74534 80.09202
3 7.270443 3.667161 16.73964 79.59320
4 7.289256 3.704843 17.02698 79.26818
5 7.289853 3.718661 17.02468 79.25666
6 7.290364 3.718471 17.03518 79.24635
7 7.290380 3.718571 17.03544 79.24599
8 7.290398 3.718629 17.03566 79.24572
9 7.290399 3.718628 17.03565 79.24572
10 7.290400 3.718639 17.03566 79.24570
11 7.290400 3.718639 17.03566 79.24570
12 7.290400 3.718640 17.03566 79.24570
En primera parte de la funcin estmulo respuesta se encuentran los datos de la
participacin porcentual de cada movimiento en rfix y del ripyc sobre dcetes28. De esta
manera, el 25.0% de los movimientos de dcetes28 a un ao estn explicados por los
movimientos del rfix, mientras que el ripyc contribuye en 7.5 % en el movimiento de
dcetes28. Las variaciones de ambas variables explica el 32.5% de los movimientos en
dcetes28% (suma horizontal). Como ejercicio, interprete las dos tablas siguientes.
COINTEGRACIN Y MTODO DE CORRECCIN DEL ERROR
94
Los modelos de regresin multivariados son muy tiles cuando se trata de pronosticar
a una variable a travs de sus fundamentos, porque al contener ms variables, el
pronstico tiene una mayor informacin para realizarse. En economa y en las finanzas,
abundan los argumentos tericas de relaciones entre las variables y de equilibrio a largo
plazo entre ellas que despus, por medio de modelos economtricos, se tratar de probar
y explicar en la prctica. Los desarrollos en las tcnicas economtricas, han logrado
medir si las variables que se relacionan en los modelos tienden al equilibrio a largo
plazo por medio del concepto de cointegracin. Este concepto es el siguiente:
Aunque dos series
x
t
y
y
t
, individualmente, sean I(d) puede existir entre ellas una
combinacin lineal
z x ay
t t t
+
integrada de orden cero (estacionaria), si esto ocurre
se dice que ambas series estn cointegradas o que hay una relacin cointegrante entre
ellas.
El hecho que dos o ms series estn cointegradas significa que hay equilibrio a largo
plazo, es decir, que las series se movern muy cerca en el tiempo y la diferencia entre
ellas ser estable (estacionaria). Esta diferencia, estar medida por la variable
z
t
que es
el error hacia el equilibrio de largo plazo.
En un modelo de regresin lineal de k variables e X Y +
t i t
p
i
i i t
p
i
i t t
y x z y
2
1 1
1 2
+ + +
Donde expresa la primera diferencia de la serie,
1 2
0 ,
y
1 2 t t
,
son
variables ruido blanco.
Un modelo de corto plazo que incluya al mecanismo de correccin del error estara
dado por el siguiente VAR
t i t
q
i
i t
p
i
t t
u y X z y + + + +
1 0
1
donde
1 t
z
es el rezago del error de equilibrio, mide la velocidad a que la variable
dependiente se ajusta a su valor de largo plazo, X es un vector formado por todas las
variables que explican a la variable dependiente en el corto plazo,
i t
y
son los rezagos
de la variable dependiente y
t
u
es una variable aleatoria. Este VAR muestra que las
variaciones de la variable dependiente en el corto plazo, pueden ser explicados por el
mecanismo de correccin, por todas las variables que se consideran influyen en los
movimientos de la variable dependiente en el corto plazo (incluyendo las variables de
95
de largo plazo), los rezagos de la misma variables dependiente y de un trmino
aleatorio.
PRUEBAS PARA DETECTAR COINTEGRACIN ENTRE LAS VARIABLES
Existen dos pruebas para detectar si existe equilibrio a largo plazo entre las variables
involucradas en un modelo de regresin. Una de ellas, es probar si los errores estimados
de la ecuacin cointegrante (modelo de regresin) son estacionarios aunque las series no
sean estacionarias. La estacionariedad de los errores se prueba mediante los estadsticos
Dikey-Fuller y Phillis-Perron. La otra prueba se conoce como prueba de cointegracin
de Johansen. Para realizar ambas pruebas se transformar las series a logaritmos y se
llevan a cabo de la siguiente forma:
Prueba de cointegracin mediante la prueba de races unitarias en los errores de la
ecuacin cointegrante. Se plantea una ecuacin cointegrante estimada en forma
logartmica. Generalmente la ecuacin cointegrante es el modelo economtrico que se
basa en los fundamentos. Por ejemplo, el tipo de cambio en la teora Monetaria de la
Balanza de Pagos dependera de la oferta monetaria externa e interna, de la tasa de
inters interna y externa y de producto interno y externo. Por tanto se estimara el
modelo cuya variable dependiente sera el logaritmo del tipo de cambio sobre las
variables explicativas medidas en forma logartmica. Despus se generan y se guardan
los residuos de la regresin y se prueba si estos son estacionarios. Si los residuos
estimados son estacionarios en niveles se dir que las series estn cointegradas o bien
que tienden al equilibrio a largo plazo.
Prueba de cointegracin de Johansen. La utilizacin de esta prueba se ha ido
generalizando en los ltimos aos, en realidad es ms comn y precisa que la anterior.
Para saber como se realiza y se interpreta, nuevamente retomemos a la variables
cetes28, tipo de cambio fix y al ipyc en el periodo 2006.01 a diciembre de 2007
(recuerde cambiar el sample). Transformemos estas variables a logaritmos escribiendo
debajo del men principal la palabra genr lcetes28=cetes28, genr lfix=log(fix) y genr
lipyc=log(ipyc) como ya se anot a lo largo de esta gua. Primero, pruebe que las
variables son no estacionarias en niveles. Ahora liste las variables dando clic en el
nombre de stas y despus Show, una vez mostradas las variables de clic en
View/Cointegration Test/OK. En esta prueba aparece una ventana donde se puede
elegir si la prueba contiene tendencia no determinista en los datos, tiene tendencia lineal
determinista en los datos o tendencia cuadrtica en los datos. Si no se est seguro de la
eleccin, anote el nmero 6) la suma de lo anterior y aparece una ventana con
diferentes resultados de los crterios de Akaike y Schuarz. La primera opcin y la quinta
es difcil que sucedan por tanto concntrese en la segunda, tercera y cuarta, y elija la de
menor crterio de Akaike.
Akaike Information Criteria by Rank (rows) and Model (columns
Data Trend: None None Linear Linear Quadratic
Rank or No Intercept Intercept Intercept Intercept Intercept
No. of CEs No Trend No Trend No Trend Trend Trend
96
0 -13.89914 -13.89914 -13.86696 -13.86696 -13.90957
1 -14.13813 -14.71622 -14.69961 -14.63166 -14.75407
2 -13.92668 -14.80699 -14.87100 -14.98908 -15.02825*
3 -13.49137 -14.49571 -14.49571 -14.53115 -14.53115
Observe que la 2) o 3) opcin son iguales en la ltima fila por tanto e indistinto elegir
cualquiera. Si elige la 3) los resultados de la prueba de cointegracin es la siguiente.
Unrestricted Cointegration Rank Test (Trace)
Hypothesized Trace 0.05
No. of CE(s) Eigenvalue Statistic Critical Value Prob.**
None * 0.736222 51.08983 29.79707 0.0001
At most 1 * 0.489000 19.10627 15.49471 0.0136
At most 2 0.117246 2.992999 3.841466 0.0836
Trace test indicates 2 cointegrating eqn(s) at the 0.05 level
* denotes rejection of the hypothesis at the 0.05 level
**MacKinnon-Haug-Michelis (1999) p-values
La interpretacin de la prueba est en forma literal la prueba LR indica dos
ecuaciones cointegrandas al 5.0% de significacia- entre estas tres variables. Por tanto,
el VAR a construir necesita incluir al mecanismo de correccin del error, las pruebas de
causalidad debern realizarse con este mecanismo, al igual que las de exogeneidad.
Ahora construyamos el VAR dando clic en Quick/Estimate Var/ y donde aparece el
cursor escribir el nombre de las variables cointegradas medidas en logaritmos, en este
caso lcetes28, lfix y lipy, despus ubicarse en VAR Especification y dar clic en Vector
Correction Error/OK. Con estas instrucciones aparece un VAR con dos rezagos de
cada una de las variables, si se quiere cambiar el nmero de rezagos en el VAR ubicarse
en Lag Intervals y cambiar el nmero de rezagos antes de dar OK
Vector Error Correction Estimates
Date: 09/22/08 Time: 16:27
Sample: 2006M01 2007M12
Included observations: 24
Standard errors in ( ) & t-statistics in [ ]
Cointegrating Eq: CointEq1
LCETES28(-1) 1.000000
LFIX(-1) 2.495513
97
(0.39317)
[ 6.34717]
LIPYC(-1) 0.047393
(0.03490)
[ 1.35779]
C -8.416713
Error Correction: D(LCETES28) D(LFIX) D(LIPYC)
CointEq1 -0.064488 -0.505006 -0.074626
(0.12027) (0.12173) (0.47303)
[-0.53621] [-4.14846] [-0.15776]
D(LCETES28(-1)) 0.254536 -0.045494 -0.520714
(0.20413) (0.20662) (0.80289)
[ 1.24690] [-0.22018] [-0.64855]
D(LCETES28(-2)) 0.406054 -0.055457 0.411076
(0.21575) (0.21838) (0.84858)
[ 1.88204] [-0.25394] [ 0.48443]
D(LFIX(-1)) -0.129957 0.480105 -0.239822
(0.21401) (0.21662) (0.84172)
[-0.60726] [ 2.21639] [-0.28492]
D(LFIX(-2)) 0.054275 0.205909 -0.380313
(0.18234) (0.18457) (0.71718)
[ 0.29765] [ 1.11564] [-0.53029]
D(LIPYC(-1)) -0.092914 -0.070647 -0.152248
(0.07103) (0.07189) (0.27936)
[-1.30816] [-0.98267] [-0.54500]
D(LIPYC(-2)) -0.040496 0.013592 -0.066025
(0.08183) (0.08282) (0.32184)
[-0.49490] [ 0.16410] [-0.20515]
C 0.004674 0.001059 0.027018
(0.00441) (0.00446) (0.01734)
[ 1.06001] [ 0.23726] [ 1.55771]
R-squared 0.588350 0.587247 0.063542
Adj. R-squared 0.408253 0.406668 -0.346158
Sum sq. resids 0.002888 0.002959 0.044671
S.E. equation 0.013434 0.013598 0.052839
F-statistic 3.266854 3.252020 0.155094
Log likelihood 74.24981 73.95885 41.38328
Akaike AIC -5.520818 -5.496570 -2.781940
Schwarz SC -5.128133 -5.103886 -2.389256
98
Mean dependent -0.004154 0.001088 0.021095
S.D. dependent 0.017464 0.017653 0.045541
Determinant resid covariance (dof adj.) 4.80E-11
Determinant resid covariance 1.42E-11
Log likelihood 197.5515
Akaike information criterion -14.21263
Schwarz criterion -12.88732
Note que en el resultado del VAR con mecanismo de correccin del error aparece la
ecuacin cointegrante y el VAR es estimado en primeras diferencias del logaritmo de
las series, es decir, en cambio relativo de las series o en tasas de crecimiento.
Por otro lado, observe que los rezagos de las variables no son estadsticamente
significativos en ningn caso. Para efectos de la evaluacin del VAR, este no es bueno.
Para efectos de la prueba de causalidad cuando las series estn cointegrados, la no
significacia estadstica de los coeficientes indica que ninguna de las variables se est
causando o bien que son independientes. Para efectos de la prueba de exogeneidad
fuerte, los resultados indican que las tres variables son exgenas.
99