Вы находитесь на странице: 1из 99

Gua Elemental del

Paquete E-Views
para el
Anlisis Economtrico
Dra. Mara de la Paz Guzmn Plata
N D I C E
Instrucciones para estimar y evaluar un Modelo de Regresin Lineal
en el paquete E-Views 1
Estimacin del modelo en forma logartmica y otras trasformaciones
elementales 5
Prediccin 7
Modelos Binarios (Modelos Logit y Probit) 19
Anlisis de Series de Tiempo 30
Grficas para pronosticar 30
Tendencia de una serie 33
Estacionalidad de una serie 38
Generacin de Modelos AR, MA y ARMA estacionarios y no
estacionarios en covarianza 44
Raices de los modelos ARMA y su diagnostico 48
Modelos ARMA con componentes de tendencia, estacionalidad y
ciclo.
53
Prediccin de modelos ARMA 62
Races Unitarias, Modelos ARIMA y Pronstico 64
Estimacin de modelos ARCH y GARCH 74
Vectores Autorregresivos 80
Pruebas de Causalidad de Granger 82
Funcin Estmulo Respuesta y la Tabla de Descomposicin de la
Varianza
84
Cointegracin y Mtodo de Correccin del Error 95
Pruebas para detectar cointegracin entre las variables 96
INSTRUCCIONES PARA ESTIMAR Y EVALUAR UN MODELO DE REGRESIN
LINEAL EN EL PAQUETE E-VIEWS
2
1.- Haga una hoja de trabajo en el paquete E-Views con la instruccin
File/New/Workfile/Frequency/Anual, si los datos de la muestra del modelo a estimar
son anuales con periodo inicial por ejemplo en 1980 y periodo final por ejemplo en
2010 (siempre dejar espacio para la prediccin); Semi anual si son semestrales con
periodo inicial por ejemplo en 1980.1 y periodo final 2010.2; Quanterly si son
trimestrales con periodo inicial por ejemplo en 1980.1 y periodo final 1980.4; Monthly
si son mensuales con periodo inicial por ejemplo en 1980.01 y 2010.12; Undated o
irregular si son datos diarios, por hora o por minuto (como para el caso de datos de la
Bolsa de Valores) con periodo inicial en 1 y periodo final por ejemplo en 20,000.
Recomendacin. La muestra debe contener por lo menos 60 datos reciente, evite
trabajar con datos anuales. Adems, al estimar un modelo las variables medidas en
puntos o en precios constantes (unidades reales) deben de tener la misma fecha base
aunque sus unidades de medida pueden ser diferentes. La fecha base debe pertenecer a
un ao estable en trminos econmicos o financieros.
2.- Guarde su archivo con un nombre que sea familiar para usted con File/Save
as/nombre del archivo
3.- Para meter los datos de cada variable escribir la palabra Data dejar espacio y escribir
el nombre de la variable que va introducir y despus enter. Estas palabras debern ir en
el espacio en blanco donde aparece el cursor. Por ejemplo data PIB y despus que d
enter aparece el nombre de la variable y los espacios donde debe introducir los datos.
Para importar los datos de excel, una vez que en EV haya escrito la palabra data
(nombre de la variable) y d enter, importar de excel slo los datos (sin fechas porque
estas ya estn en EV) sombreando los datos de la variable en excel y la instruccin copy
tambin en excel e irse a EV y hacer clic en Edit/Paste, el cursor debe estar en la fecha
del primer dato que debe coincidir con la fecha del primer dato en excel .
4.- Una vez que se introducen los datos de cada variable del modelo se procede a
estimarlo dando clic en Quick/Estimate Equation/ donde aparece una ventana que
tiene un espacio en blanco y en la parte de abajo aparece el mtodo de mnimos
cuadrados ordinarios o LS (si quiere cambiar de mtodo de estimacin del modelo, de
clic en la flecha y aparece, entre otros, el mtodo de mxima verosimilitud). En la parte
de la ventana en blanco donde se encuentra el cursor, anotar en primer lugar, el nombre
de la variable dependiente, espacio, letra c (letra con la cual el paquete estima a la
ordenada al origen), espacio, y los nombres de las variables independientes con sus
respectivos espacios entre cada una de ellas y finalmente dar enter, en seguida aparece
el resultado de la regresin o la estimacin del modelo. Ese resultado se guarda dando
clic en Name/ del men de esa ventana y anotando un nombre familiar a esa estimacin.
PARA HACER LAS PRUEBAS DE ESPECIFICACIN Y DE DIAGNSTICO DEL
MODELO CONTINUAR CON:
5.- Prueba de variables sobrantes o coeficientes estadsticamente no significativos y
prueba de variables omitidas. Esta se realiza con el valor de la probabilidad del
estadstico t (la cual aparece en la ltima columna de la primera parte de los resultados
de la regresin). La hiptesis nula a probar es la no significancia individual de cada una
de los estimadores, por tanto si el valor del estadstico t es mayor a 0.05 (5.0% de
significancia o 95.0% de confianza) se encuentra en la zona de no rechazo de la
hiptesis nula al 95.0% de confianza, es decir, el coeficiente particular es
estadsticamente no significativo o bien la variable respectiva no contribuye en la
explicacin de los cambios de la variable dependiente para este porcentaje de confianza.
3
Esta variable puede ser eliminada del modelo o bien dejarla pero no explicarla en el
reporte de los resultados y evaluacin de ste.
La prueba de variables omitidas se realiza con la RESET. La prueba de variables
omitidas es una, de errores en la media del modelo. Para realizar la prueba RESET dar
clic sobre el men de los resultados de la regresin en View/Stability Test/Ramsey
Reset Test/OK. Esta prueba arroja dos estadsticos y los resultados de la regresin
auxiliar. La hiptesis nula a probar es el modelo no tiene problemas en la media- por
tanto si el valor de la probabilidad de los estadsticos es mayor que 0.05, se encuentra en
la zona de no rechazo de la hiptesis nula al 95.0% de confianza.
6.- Prueba de significancia conjunta de los estimadores. Esta prueba se realiza con el
valor de la probabilidad del estadstico F, que aparece regularmente en la segunda parte
de los resultados de la regresin del lado izquierdo. La hiptesis nula a probar es la no
significancia conjunta de los estimadores, por tanto si el valor de la probabilidad del
estadstico F es mayor que 0.05, se encuentra en la zona de no rechazo de la hiptesis
nula al 95.0% de confianza, en consecuencia ninguno de los estimadores es
estadsticamente significativo.
7.- Prueba de forma funcional correcta o problemas en el primer momento (en la media
X
) de la variable dependiente Y. Los problemas en la media del modelo se detectan
con la prueba RESET o WHITE, ambas pruebas se encuentran en el paquete EV. Para
realizar la prueba RESET dar clic sobre el men de los resultados de la regresin en
View/Stability Test/Ramsey Reset Test/OK. Esta prueba arroja dos estadsticos y los
resultados de la regresin auxiliar. La hiptesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadsticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hiptesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadstico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
Para realizar la prueba White dar clic sobre el men de los resultados de la regresin en
View/Residul Test/White Heteroskedasticity/OK. Esta prueba arroja dos estadsticos
y los resultados de la regresin auxiliar. La hiptesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadsticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hiptesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadstico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
8.- Prueba de normalidad en los errores.- La prueba de normalidad en los errores del
modelo, se realiza al dar un clic sobre el men de los resultados de la regresin en
View/Residul Test/ Histogram-Normality Test/ OK. Los resultados de esta prueba es
una grfica de la distribucin de frecuencias de los errores del modelo y del lado
derecho se encuentra el clculo de los primeros momentos de la variable aleatoria
(media, varianza, simetra y curtosis), el valor del estadstico Jarque-Bera y el valor de
su probabilidad. La hiptesis nula a probar es los errores tiene una distribucin
normal- por lo que si el valor de la probabilidad del estadstico Jarque-Bera es mayor
que 0.05, se encuentra en la zona de no rechazo de la hiptesis nula, es decir, no se
rechaza la hiptesis nula de normalidad en los errores del modelo a un nivel de
confianza del 95.0%.
Es importante destacar, que la prueba de normalidad se puede llevar a cabo para
cualquier variable de la cual se quiera saber si se distribuye en forma normal (sea la
4
variable dependiente, independiente o los errores del modelo estimado). Para realizarle
la prueba de normalidad a cualquier variable, dar clic en el nombre de la variable de
inters, la cual se sombrear y despus dar clic en Show del men de la hoja de trabajo,
con esta instruccin la variable aparece en la nueva ventana y sobre el men de sta dar
clic en View/Descriptive Estadistic/Histogram Stits/enter. Adems, los errores de la
regresin se pueden guardar como cualquier variable dndoles un nombre despus de
estimar la regresin del modelo con la instruccin genr espacio cualquier nombre=resid
(la palabra genr genera cualquier operacin) escrita el la seccin blanca, que se
encuentra en la parte inferior del men principal de EV. Ejemplo genr residuo=resid.
Con el nombre de residuo o cualquier nombre antes del signo igual, EV guarda los
errores de la ltima regresin estimada o de cualquier operacin realizada para
transformar una variable.
9.- Prueba de multicolinialidad. Esta prueba se realiza a travs de la matriz de
correlacin de las variables involucradas del modelo, esta matriz es simtrica donde la
diagonal principal tiene valores de uno, porque el coeficiente de correlacin de una
variable con ella misma tiene este valor. EV calcular esta matriz dando clic en Show y
en la parte blanca de esta ventana, se anota la lista de las variables involucradas en el
modelo (se recomienda empezar por el nombre de la variable dependiente seguida por
las independientes, pero en realidad no importa el orden) y despus OK, adems sobre
el men de la nueva ventana dar clic sobre View/Correlation/OK y aparece la matriz
de correlacin. Si los coeficientes de correlacin de los pares de variables es mayor que
0.88, en trminos absolutos, hay indicios de multicolinialidad entre las variables. Si
adems, la
2
R
tiene un valor cercano a uno y el valor de la probabilidad de estadstico
t es mayor que 0.05 (coeficientes estadsticamente no significativos) entonces se
confirma el problema de multicolinialidad.
10.- Prueba de Homoscedasticidad o de estabilidad del coeficiente
2
. Para saber si los
errores son homoscedsticos existe, en el paquete EV, dos pruebas estas son ARCH y
White. Los resultados de ambas pruebas se obtienen dando clic sobre los resultados de
la regresin en View/Residual Test/ARCH/OK y View/Residual Test/White
Heteroskedasticity/OK. Los resultados de estas dos pruebas son los valores de los
estadsticos, los valores de sus probabilidades y las regresiones auxiliares. La hiptesis
nula a probar es los errores del modelo son homoscedsticos-, por tanto si el valor de
la probabilidad de los estadsticos que arroja cada prueba es mayor que 0.05, no se
rechaza la hiptesis nula, es decir, los errores son homocedsticos al 95.0% de
confianza.
11.- Prueba de no autocorrelacin en los errores del modelo. Para saber si los errores
estn autocorrelacionados, se encuentra el anlisis del estadstico Durbin-Watson (D-
W), el anlisis del correlograma de los errores y la prueba de Multiplicadores de
Lagrange. El estadstico D-W aparece en los resultados de la regresin; si el estadstico
D-W tiene el valor de 2 o muy cercano a este valor, los errores no presentan
autocorrelacin de orden uno; sin embargo, este estadstico no puede ser utilizado para
detectar autocorrelacin cuando se estima un modelo dinmico (cuando la variable
dependiente rezagada aparece como explicativa), en este caso se utiliza la prueba H de
D-W. El anlisis del correlograma de los errores, es un indicador del problema de
autocorrelacin; para realizar esta prueba dar clic sobre los resultados de la regresin en
View/ Residul Test/Correlogram-Q Statistics/OK; la hiptesis nula a probar es los
errores no estn autocorrelacionados- por tanto si las barras del correlograma no se
salen de la banda del 95.0% de confianza o del 5.0% de significancia, no se rechaza la
hiptesis nula de no autocorrelacin entre los errores, si las barras del correlograma se
5
salen de dicha banda esto quiere decir que hay problemas de autocorrelacin entre los
errores. La prueba de Multiplicadores de Lagrange (LM) para detectar autocorrelacin
en los errores de orden p, se realiza dando clic sobre los resultados de la regresin en
Correlation LM/ View/Residul Test/Serial OK; esta prueba llamada Breusch-Golfrey
arroja los valores de dos estadsticos y la regresin auxiliar; la hiptesis nula a probar es
los errores no estn autocorrelacionados- por tanto si el valor de la probabilidad de los
estadsticos es mayor que 0.05 no se rechaza la hiptesis nula al 95.0% de confianza.
12.- Prueba de estabilidad en los parmetros beta o prueba de permanencia estructural.
Para realizar esta prueba se encuentran los estadsticos CUSUM, CUSUM-Q y Chow.
Es recomendable primero obtener a los estadsticos CUSUM y CUSUM-Q, porque si
hay cambio estructural, las grficas de estos estadsticos marcan la fecha de quiebre que
se requiere para introducirla la prueba Chow. Para obtener a los estadsticos CUSUM
dar clic en los resultados de la regresin sobre View/Recursive Estimates/CUSUM
Test/OK y aparece una grfica donde, dentro de una banda de 95.0% de confianza, se
dibuja a este estadstico; de igual manera para obtener el estadstico CUSUM-Q dar clic
en los resultados de la regresin sobre View/Recursive Estimates/CUSUM-Q
Test/OK y aparece una grfica donde dentro de una banda de 95.0% de confianza se
dibuja a este estadstico. La hiptesis nula a probar es que los estimadores beta son
estables a travs de tiempo o bien que hay permanencia estructural, por tanto si los
estadsticos se salen de las bandas hay cambio estructural y se tiene que recordar la
fecha en que los estadsticos cortan las bandas para anotarlas en la prueba Chow y
comprobar si en realidad hubo cambio estructural. Para realizar la prueba Chow dar clic
sobre los resultados de la regresin en View/Estability Test/Chow Breakpoint
Test/enter y aparece una ventana donde en la parte en blanco hay que anotar la posible
fecha del corte, por ejemplo si la muestra es mensual y el estadstico CUSUM o
CUSUM-Q corto la banda en el mes de marzo de 2001, entonces se anota 2001.03 y clic
en OK. Si los valores de la probabilidad de los estadsticos que arroja la prueba son
mayores que 0.05 no se rechaza la hiptesis nula que en ese punto no hubo
rompimiento.
13.- Prueba sobre restriccin en los parmetros. Frecuentemente, en la teora econmica
se sostiene que los parmetros individualmente o bajo cualquier operacin matemtica
(suma, resta, multiplicacin o divisin), deben de ser iguales entre ellos o a cierto
valor, para probar esta clase de restricciones sobre los coeficientes se utiliza la prueba
Wald . El ejemplo ms comn de esto, se observa en la funcin de produccin tipo
Cobb-Douglas (cuyo modelo se convierte en lineal al estimar las variables por medio de
la transformacin logartmica). Si se quiere probar que cierta industria presenta
rendimientos constantes a escala, el investigador planea la hiptesis nula y la alternativa
(
1 : 1 :
2 1 1 2 1 0
+ + H H
) y despus prueba, con el estadstico Wald, de la
siguiente manera: dar clic sobre los resultados de la regresin en View/Coefficient
Test/ Wald Coefficient Restriction/ y sale una ventana donde hay que anotar la
restriccin con la sintaxis c(2)+c(3)=1 y dar OK (suponiendo que existe ordenada al
origen porque EV la guarda como c(1)). Note que EV guarda cada coeficiente del
modelo con c entre parntesis el nmero de cada coeficiente, como aparece en la
regresin, por tanto c(1) es el coeficiente de la ordenada al origen, c(2) es el coeficiente
de la primera variable X, el c(3) es el coeficiente de la segunda variable X y as
sucesivamente. El criterio de decisin es, si el valor de la probabilidad de los
estadsticos es mayor que 0.05 no se rechaza la hiptesis nula que plante el
investigador. Para el caso del ejemplo, no se rechaza que la industria presenta
rendimientos constantes a escala.
6

ESTIMACIN DEL MODELO EN FORMA LOGARITMICA Y OTRAS
TRASFORMACIONES EN LAS VARIABLES
Una de las formas funcionales que frecuentemente se utilizan en la estimacin del
modelo de regresin lineal es la forma logartmica. Su uso es recomendable porque los
estimadores miden las elasticidades y se interpretan como el cambio porcentual de la
variable Y ante el cambio porcentual de las variables X. Para estimar el modelo en
logaritmos se tiene que calcular el logaritmo de cada variable o anotarlo directamente en
la estimacin. Hay dos pasos para hacer esto en el paquete EV, el primero es calcular el
logaritmo de cada variable con el comando genr y el segundo es estimar la regresin
anteponiendo la instruccin log al nombre de cada variables en la regresin. Para llevar
a cabo la primera, i) ubicar el cursor en la parte blanca debajo del men principal de
EV y escribir la palabra genr o ii) dar clic en la variable a transformar con alguna
operacin y Show/Genr; despus anotar cualquier nombre=log(el nombre de la variable
original); Ejemplo.- i) genr lpib=log(pib) o ii) lpib=log(pib); as EV genera y guarda el
logaritmo de cada variable. Para realizar la segunda, i) de clic en Quik/Estimate the
Equation y escribir el la ventana blanca log(nombre original de la variable
dependiente) c log(nombre original de la variable explicativa) etc. ii) ubicar el cursor el
la parte blanca debajo del men principal y escribir las letras ls log(nombre original de
la variable dependiente) c log(nombre de la variable independiente) etc. La instruccin
ls es para estimar el modelo por el mtodo de MCO. Despus de estimar el modelo en
logaritmos, tiene que evaluarlo mediante las pruebas descritas en los puntos del 5 al 12.
Note que la transformacin logartmica de cada variable es una tasa de variacin
porcentual. Sin embargo, el logaritmo de una variable negativa no se puede calcular.
Otras transformaciones en las variables originales se llevan a cabo con la instruccin
genr o series. Por ejemplo:
1.- El cambio porcentual de una variable de un periodo a otro se realiza escribiendo
genr o series cualquier nombre=((nombre de la variable original/nombre de la variable
original(-1))-1)*100. Hay que tener cuidado en la sintaxis de la frmulas porque de lo
contrario E-W no las calcula. Para estimar la inflacin a partir del ndice nacional de
precios al consumidor, cuyo nombre de la variable original fue guardado con inpc
anotar lo siguiente
Genr inflacin=((inpc/inpc.(-1))-1)*100
2.- La tasa de inters real de algn instrumento financiero medido en tasa nominal
como los cetes, guardado con el nombre original de cetes y creada la variable inflacin,
se puede calcular escribiendo
Genr tircetes=(((cetes/12)-inflacin)/1+inflacin)
3.- Una de las transformaciones recomendables en las variables de un modelo
economtrico es la diferencia (Y del periodo t Y del periodo anterior (t-1)). Esta
transformacin mide la variacin absoluta de la variable de un periodo a otro. As, si se
quiere obtener la diferencia del pib (nombre original de la variable) se escribe
Genr dpib=d(pib)
Con esta instruccin EV calcula la primera diferencia de la variable llamada pib
7
4.- Las transformaciones de una variable elevada a un exponente, que son frecuentes en
la estimacin de un modelo de regresin de una funcin de costos, se estiman
escribiendo lo siguiente:
Si la variable produccin fue guardada con el nombre original de produc
Genr produc2=produc^2 se estima el cuadrado de la variable produc
Genr produc2=squar(produc)
Genr produc3=produc^3 se estima el cubo de la variable produc
5.- La raz cuadrada de una variables se calcula como
Genr rcproduc=produc^(1/2) se estima la raz cuadrada de la variable produc
6.- Una variable que se utiliza frecuentemente en los modelos economtricos es la
variable tiempo que toma valor de 0 para la primera observacin, 1 para la segunda
observacin, 2 para la tercera observacin y as sucesivamente hasta agotar el nmero
de observaciones. EV calcula esta variable con la siguiente instruccin:
Genr tiempo=@trend
Note que antes del signo igual va cualquier nombre (se recomienda anotar un nombre
que haga referencia a la nueva variable). Adems, que la sintaxis de las operaciones que
se realizan para transformar a las variables, son parecidas a las utilizadas en ecxel y
deben de estar correctamente escritas para que EV las pueda calcular.
7.- Frecuentemente se transforman las variables del modelo para lograr obtener la
forma funcional correcta o para mejorar la estimacin. Sin embargo, cuando se predice
a la variable dependiente se debe explicar y analizar las observaciones de sta en sus
unidades originales, por tanto se hace necesario realizar unas cuanta operaciones para
lograrlo. Por ejemplo si el modelo se estim en logaritmos y se quiere estimar la
variable en unidades originales se utiliza el antilogaritmo (e= 2.71828), elevando la
base e (e= 2.71828) al logaritmo de cada observacin. Si la variable dependiente se
trasform en primeras diferencias Y- Y(t-1)=dY para recuperar a Y se manda del lado
derecho de la regresin a Y(t-1) sumando (porque est del lado izquierdo restando).
PREDICCIN
Una vez estimado el modelo de regresin y si en su evaluacin result un buen
modelo, se procede a la prediccin de la variable dependiente para varios periodos fuera
de la muestra. Para que se pueda hacer dicha prediccin, debe existir datos supuestos
para todas las variables independientes. Estos datos se buscan en los criterios anuales de
poltica econmica que edita la Secretara de Hacienda, los cuales se publican en los
principales peridicos de circulacin nacional o en algunas revistas como en El
Mercado de Valores que edita Nafinsa. En estos criterios se expone, por ejemplo, cual
ser el crecimiento del PIB, la inflacin, el salario mnimo etc. Si no se encuentran los
datos hay que suponerlos y sustentar las cifras. Una vez que se meten los datos de las
variables independientes, fuera del periodo original de la muestra, se procede a hacer la
prediccin dando clic sobre los resultados de la regresin en Forecast, con esta
instruccin aparece una ventana con el nombre de la variable pronosticada (esta variable
es Y estimada por el modelo o Y gorro), el nombre se puede cambiar al gusto del
investigador y en la parte de abajo aparece el Sample (periodo de la muestra desde la
fecha del dato inicial hasta el final), la fecha final hay que cambiarla hasta la fecha que
abarque la prediccin y despus dar OK. El resultado de esta instruccin es una grfica
8
con una tabla que contiene el Coeficiente de Desigualdad de Theil. Este coeficiente se
emplea para hacer la evaluacin del pronstico. Las caractersticas de este coeficiente
son:
cdt =
( )
( ) ( )

T
t
t
T
t
t
T
t
t t
Y
T
Y
T
Y Y
T
1
2
1
2
1
2
~
1

1
~

1
donde cdt es el coeficiente de distribucin de Theil,
Y
es el valor de la variable
dependiente pronosticada por el modelo, Y
~
es el valor real de la variable dependiente y
T es el nmero de observaciones. Como se puede observar en esta ecuacin el
numerador es la raz cuadrada del error de pronstico rcep, pero la escala del
denominador es tal que el valor de este coeficiente toma valores entre cero y uno.
Si cdt = 0 el valor de la variable dependiente estimada por el modelo y el valor
real son iguales o bien el ajuste es perfecto (
t t
Y Y
~


).
Si cdt = 1 el valor de la variable dependiente estimada por el modelo difiere por
completo del valor real. En este caso el pronstico no es bueno.
Adems, el coeficiente de Theil se puede descomponer en tres partes, las cuales
proporcionan valiosos indicadores de evaluacin del pronstico. Tal descomposicin
est dada por
( ) ( ) ( ) ( )

+ +
r p r p r p t t
Y Y Y Y
T

~
1 2
~

1
2 2
donde
p
Y

y
r
Y
~
son las medias de la variable pronosticada por el modelo y la
variable real respectivamente,
P
y
r

~
son las desviaciones estndar de las series
p
Y

y
r
Y
~
, respectivamente, es el coeficiente de correlacin entre las variables
p
Y

y
r
Y
~
. La ecuacin anterior muestra que el coeficiente de desigualdad de Theil
se descompone en un trmino de sesgo, en uno de varianza y otro de covarianza.
Dada tal descomposicin de la desigualdad de Theil, se pueden definir las tres
proporciones como
( )
( ) ( )
2
2
~

1
~

Y Y
T
Y Y
ps
t
( )
( ) ( )
2
2
~

1
~

Y Y
T
pv
t

9
( )
( ) ( )
2
~

1
~

1 2

Y Y
T
pc
t

donde ps es la proporcin de sesgo, pv es la proporcin de varianza y pc es la
proporcin de covarianza.
La proporcin de sesgo, mide la desviacin entre la variable dependiente estimada
por el modelo y la variable dependiente real. Esta proporcin es un indicador del error
sistemtico, por lo que se esperara que el valor de la proporcin de sesgo fuera cero.
Un valor por arriba de 0.1 o 0.2 significara que hay un sesgo sistemtico, as que es
necesario una revisin del modelo.
La proporcin de la varianza indica, la capacidad del modelo para replicar el grado
de variabilidad en la variable de inters. Si la proporcin de la varianza es grande,
significa que la serie real ha fluctuado en forma considerable, mientras que la serie
simulada flucta poco o bien quiere decir que, la serie real flucta poco mientras que la
serie simulada lo hace en mayor medida. Al igual que el valor de la proporcin de
sesgo, el valor de la proporcin de la varianza se espera se encuentre entre 0.1 o 0.2
porque de esta manera la serie simulada y la real tendrn una variabilidad muy parecida.
La proporcin de la covarianza, mide el error no sistemtico. Este error es el que
resulta despus que se ha explicado las desviaciones de los valores promedio, es por ello
que no es tan problemtica como las proporciones precedentes, sin embargo no deja de
ser importante. El valor de esta proporcin debe ser igual a uno o muy prximo a uno
ya que se espera que las predicciones se correlacionen a la perfeccin con los resultados
reales.
ESTIMACIN, EVALUACIN Y PREDICCIN DE UN MODELO
EJEMPLO
Suponga que una empresa est interesada en introducirse al mercado nacional con la
venta de caf caliente de consumo inmediato, por lo que desea saber la demanda de
tazas diaria de caf consumidas por persona en el pas y el pronstico de dicha
demanda hasta el ao 2010. Los datos con los que se cuenta para hacer el estudio son
los de la demanda diaria de tazas de caf por persona y los precios promedio de estas
taza de 1996 a 2006. La muestra es la siguiente:

Demanda
Diaria
Precio
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
2004 1.970000 1.390000
2005 2.060000 1.200000
10
2006 2.020000 1.170000
Donde la demanda diaria de caf est medida en tazas y los precios en dlares
americanos.
Segn la teora microeconmica la demanda de un bien depende inversamente de
los precios. Por lo que se puede platear un modelo economtrico, el cual se sustente en
esta teora para estimar la demanda de consumo de tazas diarias de caf por persona, de
la siguiente manera:

t t
u P Y + +
1 0

con
0 ; 0
1 0

Donde la variable Y representa la demanda diaria de tazas de caf consumidas por
persona y P el precio de dicha taza. Los signos tericos esperados expresan que la
demanda autnoma o la demanda que no depende del precio ser positiva y que la
demanda de tazas de caf depende inversamente del precio. El error aleatorio estar
medido por u.
Los resultados de la regresin fueron los siguientes:
Dependent Variable: DTAZAS
Method: Least Squares
Sample(adjusted): 1996 2006
Included observations: 11 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 2.691124 0.121622 22.12686 0.0000
PCAFE -0.479529 0.114022 -4.205592 0.0023
R-squared 0.662757 Mean dependent var 2.206364
Adjusted R-squared 0.625286 S.D. dependent var 0.210251
S.E. of regresin 0.128703 Akaike info criterion -1.099656
Sum squared resid 0.149080 Schwarz criterion -1.027311
Log likelihood 8.048108 F-statistic 17.68700
Durban-Watson stat 0.726590 Prob(F-statistic) 0.002288
EVALUACIN CUANTITATIVA DEL MODELO
El coeficiente
2 2
R y R
indican que el 66.27% y el 62.53% de las variaciones en la
demanda diaria de tazas diarias de caf consumidas por persona estn explicadas por las
variaciones en su precio.
Los signos de los coeficientes coinciden con los tericos esperados porque
mientras la ordenada al origen es positiva, el coeficiente de la variable precio o la
pendiente tiene el signo negativo.
El valor de la ordenada al origen indica que el consumo autnomo fue de 2.69
tazas de caf diario por persona en el periodo de 1996 a 2006 o bien que
independientemente del precio de la taza de caf, las personas consumieron en
promedio diariamente 2.69 tazas.
11
El valor de la pendiente indica que por cada aumento de un dlar en el precio de
la taza de caf su consumo bajo en 0.47 de taza, durante el periodo estudiado.

EVALUACIN CUALITATIVA
Significancia individual de los coeficientes. Como el valor de la probabilidad del
estadstico t de la ordenada al origen es menor a 0.05, se rechaza la hiptesis nula de no
significancia estadstica de este coeficiente al 95.0% de confianza. Este resultado
expresa que la lnea de regresin estimada tiene ordenada al origen, es decir, que no es
una lnea que parte del origen. Tambin, el valor de la probabilidad de la pendiente es
menor 0.05, por tanto se rechaza la hiptesis nula de no significancia estadstica de
dicho coeficiente o bien que la pendiente es diferente de cero. En trminos econmicos,
esto se interpreta como que la variable precio contribuye en la explicacin de los
cambios en la demanda diaria de tazas de caf consumidas por persona.
Es importante destacar, que la prueba de significancia individual de los
coeficientes forma parte de la prueba de inclusin de variables irrelevantes en el
modelo, que a su vez entra en los posibles errores de especificacin en la media de este.
Singificancia conjunta de los coeficientes. Segn el valor de la probabilidad del
estadstico (0.002288), se rechaza la hiptesis nula de no significancia estadstica
conjunta de los estimadores al 95.0% de confianza o bien los coeficientes son
conjuntamente diferentes de cero, es decir, las variables independientes conjuntamente
ayudan a explicar las variaciones de la demanda del consumo diario de las tazas de caf.
Prueba de errores de especificacin en la media del modelo (prueba de forma
funcional). Como los valores de la probabilidad de los estadsticos que arroja la prueba
Reset son mayores que 0.05, no se rechaza la hiptesis nula al 95.0% de confianza, esto
indica que la forma funcional del modelo es la correcta .
Ramsey RESET Test:
F-statistic 2.443811 Probabilit
y
0.156617
Log likelihood ratio 2.932248 Probabilit
y
0.086826
Prueba de normalidad. Como se puede observar en la siguiente tabla, el tercer y el
cuarto momentos (curtosis y simetra) de los errores del modelo son cercanos a cero y
a tres, respectivamente. Este resultado indica que los errores se distribuyen de manera
normal. Esto queda confirmado, con el valor de la probabilidad del estadstico Jarque-
Bera, ya que este valor es mayor que 0.05 y por lo tanto se encuentra dentro de la zona
de no rechazo de la hiptesis nula de normalidad al 95.0% de confianza.
12
0
1
2
3
4
5
-0.1 0.0 0.1 0.2
Series: Residuals
Sampl e 1996 2006
Observations 11
Mean 2.26E-16
Median -0.054579
Maximum 0.248113
Mini mum -0.131477
Std. Dev. 0.122098
Skewness 0.953177
Kurtosis 2.579671
Jarque-Bera 1.746645
Probabili ty 0.417562
Prueba de multicolinialidad. Segn los resultados de matriz de correlacin no hay
problemas de multicolinialidad en el modelo de regresin en estudio.
MATRIZ DE CORRELACIN
DTAZAS PCAFE
DTAZAS 1 -0.814099004531
PCAFE -0.814099004531 1
Pruebas de homoscedasticidad o estabilidad en el coeficiente
2
. Segn los
resultados de la prueba ARCH los errores del modelo son homoscedsticos porque el
valor de la probabilidad de los dos estadsticos es mayores que 0.05 y por tanto se
encuentran en la zona de no rechazo de la hiptesis nula al 95.0% de confianza. La
prueba White confirma que no se tienen problemas de heteroscedasticidad en los errores
del modelo.
ARCH Test:
F-statistic 3.215472 Probability 0.110702
Obs*R-squared 2.866996 Probability 0.090413
White Heteroskedasticity Test:
F-statistic 0.395279 Probability 0.685953
Obs*R-squared 0.989259 Probability 0.609797
Es importante mencionar que la prueba White es una prueba general para detectar
errores de especificacin y particular para problemas de heteroscedasticidad. Por tanto,
los resultados de esta prueba tambin indican que no hay errores de especificacin en el
modelo.
Pruebas de no autocorrelacin entre los errores. Uno de los estadsticos para
detectar problemas de autocorrelacin de orden uno en los errores del modelo es
estadstico D-W. El valor de este estadstico se encuentra en los resultados de la
regresin y para el caso del ejemplo este asciende a 0.726590, por tanto segn el
estadstico D-W hay problemas de autocorrelacin de primer orden en los errores del
modelo.
Segn el correlograma de los errores, ningn coeficiente que podra estar
explicando a stos se sale de las bandas del 5.0% de significancia o es estadsticamente
significativo por lo que no se tienen problemas de autocorrelacin.
Sample: 1996 2006
13
Included observations: 11
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
. |*** . | . |*** . | 1 0.390 0.390 2.1706 0.141
. | . | . **| . | 2 -0.055 -0.244 2.2183 0.330
. **| . | . *| . | 3 -0.213 -0.115 3.0323 0.387
. *| . | . *| . | 4 -0.182 -0.064 3.7095 0.447
. *| . | . *| . | 5 -0.144 -0.108 4.2055 0.520
. |* . | . |* . | 6 0.094 0.178 4.4556 0.615
. |* . | . | . | 7 0.163 -0.001 5.4086 0.610
. *| . | . ***| . | 8 -0.155 -0.333 6.5545 0.585
. **| . | . | . | 9 -0.214 0.033 9.8159 0.366
Como se puede observar el valor de la probabilidad de los estadsticos que arroja
la prueba LM son mayores que 0.05, es decir, se encuentran en la zona de no rechazo de
la hiptesis nula de no autocorrelacin de orden p en los errores del modelo al 95.0% de
confianza, lo que indica la ausencia de autocorrelacin en los errores del modelo.
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 0.981423 Probability 0.421000
Obs*R-squared 2.408979 Probability 0.299845
Pruebas de cambio estructural o estabilidad de los coeficientes beta.
Como se puede observar el estadstico CUSUM se sale de las bandas del 95.0% de
confianza de estabilidad en los coeficientes beta, esto indica que hubo cambio
estructural en la muestra y que el rompimiento se da en el ao 2000.
-10
-5
0
5
10
98 99 00 01 02 03 04 05 06
CUSUM 5% Significance
Sin embargo, como se puede observar el estadstico CUSUM-Q no se sale de las
bandas del 95.0% de confianza, esto significa los coeficientes son estables a lo largo del
periodo de la muestra.
14
-0.5
0.0
0.5
1.0
1.5
98 99 00 01 02 03 04 05 06
CUSUM of Squares 5% Significance
Para verificar el posible cambio estructural que indica el estadstico CUSUM en el
ao 2000, se llevo a cabo la prueba Chow simple. Los resultados de esta prueba indican
que efectivamente hubo cambio estructural en este ao, dado que los valores de la
probabilidad de los estadsticos que arroja esta prueba son menores a 0.05, es decir, se
rechaza la hiptesis nula de estabilidad en los coeficientes beta. La solucin a este
problema sera estimar el modelo en dos submuestras pero como la muestra es muy
corta, esto no es posible.
Chow Breakpoint Test: 2000
F-statistic 19.88832 Probability 0.001296
Log likelihood ratio 20.89421 Probability 0.000029
Conclusin. La evaluacin cuantitativa y cualitativa del modelo sugieren que este
es bueno. Sin embargo, esta conclusin hay que tomarla con reserva porque el tamao
de la muestra y la anualidad de los datos son elementos poco favorables para realizar
inferencia a partir de los resultados, pero este ejemplo ilustra los pasos a seguir para
evaluar el modelo.
PREDICCIN
Ahora se supone que el modelo de demanda de consumo diario de tazas de caf se
obtuvo de una muestra mensual, con por lo menos de 60 datos (5 aos) y que los
resultados de la evaluacin cuantitativa y cualitativo lo favorecen, por lo tanto es un
buen candidato para realizar la prediccin hasta 2010. Para realizar la prediccin se
supone que los precios promedio anuales de la taza de caf sern de 1.26 dlares para
2007, 1.90 dlares para 2008, 1.55 dlares para 2009 y 1.75 dlares para 2010. En este
caso, la muestra ser
Demanda
Diaria
Precio
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
15
2004 1.970000 1.390000
2005 2.060000 1.200000
2006 2.020000 1.170000
2007 1.260000
2008 1.900000
2009 1.550000
2010 1.750000
Como se puede observar en la tabla siguiente el valor del Coeficiente de
Desigualdad de Theil se encuentra en el rango recomendable al igual que la proporcin
de sesgo, varianza y covarianza. Estos resultados, indican que la variable real y
pronosticada por el modelo se mueven con poco sesgo y que la variable pronosticada
est reproduciendo los movimientos de la variables real.
COEFICIENTE DE DESIGUALDAD DE THEIL
1.4
1.6
1.8
2.0
2.2
2.4
2.6
2.8
96 98 00 02 04 06 08 10
DTAZASF 2 S.E.
Forec ast: DTAZASF
Ac tual : DTAZAS
Forec ast s ampl e: 1996 2010
Inc l uded obs erv ati ons : 11
R M S E 0.116416
M A E 0.096873
M A P E 4.317360
Thei l 0.026292
Bi as % 0.000000
Vari anc e % 0.102476
Cov ari anc e % 0.897524
Segn los resultados que se muestran en la tabla siguiente, la demanda
pronosticada de tazas diarias de caf consumidas por persona es muy parecida a la real
dentro de la muestra. Pero suponiendo que prevalecern esos precios, la demanda bajara
para los cuatro aos siguientes.
REALIZACIONES REALES Y PRONSTICO DE LA DEMANDA DE TAZAS DIARIAS DE CAF
Demanda
Real
Y
Demanda
Pronstico
Y

1996 2.570000 2.321887


1997 2.500000 2.336272
1998 2.350000 2.345863
1999 2.300000 2.341068
2000 2.250000 2.326682
2001 2.200000 2.331477
2002 2.110000 2.173233
2003 1.940000 1.823176
2004 1.970000 2.024579
2005 2.060000 2.115689
2006 2.020000 2.130075
2007 NA 2.086917
2008 NA 1.780019
2009 NA 1.947854
2010 NA 1.851948
16
La siguiente grfica ilustra que los movimientos de la demanda pronosticada por
el modelo estn reproduciendo los movimientos de la demanda real y que su tendencia
es claramente hacia la baja.
REALIZACIONES REALES Y PRONSTICO DE LA DEMANDA DE TAZAS DIARIAS DE CAF
(1996-2010)
1.6
1.8
2.0
2.2
2.4
2.6
96 97 98 99 00 01 02 03 04 05 06 07 08 09 10
DTAZAS DTAZASF
EJERCICIOS
1.- Con los siguientes datos contesta lo que se te pide a continuacin:
Costo Total Produccin
Y X
(Dlares) (Produccin)
193 1
226 2
240 3
244 4
257 5
260 6
274 7
297 8
350 9
420 10
a) Calcula el modelo de produccin
t i i i
u x x x y + + + +
3
3
2
2 1 0

donde
0 , , 0 , 0 , 0
3 2 1 0
. Explica el por qu la funcin de costos tiene estos signos
esperados.
b) Analiza los resultados econmicamente.
i) Analiza si los signos de los coeficientes son los tericos esperados.
ii) Interpreta a los coeficientes beta.
c) Analiza los resultados economtricamente.
i) Explica
2 2
R y R
.
ii) Determina si los coeficientes beta son individualmente significativos.
iii) Determina si los coeficientes beta con conjuntamente significativos.
17
iv) Mediante la prueba Wald determina y explica si se cumple la siguiente hiptesis
nula y alternativa:
3 1
2
2 1 3 1
2
2 0
3 : 3 : H H
v) Prueba si los errores del modelo se distribuyen normalmente y explica dicha prueba
vi) Prueba si el modelo cumple con el supuesto de forma funcional correcta y explica
las pruebas que estas utilizando.
vii) Prueba si el modelo tiene problemas de multicolinialidad y explica las pruebas que
estas utilizando.
viii) Prueba si los errores del modelo son heteroscedsticos y explica dichas pruebas.
ix) Prueba si se cumple la permanencia estructural y explica las pruebas que estas
utilizando.
x) Prueba si el modelo no tiene problemas de autocorrelacin y explica las pruebas que
estas utilizando.
xi) Ahora considera que el modelo de costos estimado cumple con todos los supuestos,
predice los costos para cuatro observaciones ms y analiza dicha prediccin.
2.- Con los siguientes datos contesta lo que se te pide a continuacin:
Y
2
X
3
X
Ao Producto Real
(Millones de
dlares)
Insumo Trabajo
(por cada mil
personas)
Insumo Capital
(Millones de
dlares)
1990 8,911.4 281.5 120,753
1991 10.873.2 284.4 122,242
1992 11,132.5 289.0 125,263
1993 12,086.5 375.8 128,539
1994 12,767.5 375.2 131,427
1995 16,347.1 402.5 134,267
1996 19,542.7 478.0 139,038
1997 21,075.9 553.4 146,450
1998 23,052.0 616.7 153,714
1999 26,128.2 695.7 164,783
2000 29,563.7 790.3 176,864
2001 33,376.6 816.0 188,140
2002 38.354.3 848.4 205,841
2003 46,868.3 873.1 221,748
2004 54,308.0 902.4 239,715
2005 69,824.1 999.2 250,578
a) Calcula el modelo
t
u X X y + + + +
3 2 2 2 1
ln ln ln
donde 0 , 0 , 0
3 2 1

b) Analiza los resultados econmicamente segn el esquema que se anot en la pregunta
uno.
c) Analiza los resultas economtricamente segn el esquema de la pregunta uno, sin
contestar el inciso de la prueba Wald
d) Plantea la hiptesis nula y alternativa para probar rendimientos constantes a escala,
rendimientos crecientes a escala y rendimientos decrecientes a escala.
18
e) Mediante la prueba Wald determina qu rendimientos presenta la industria
(rendimientos constantes, rendimientos crecientes o rendimientos decrecientes).
f) Predice el producto real hasta el ao 2010. Para contestar esta pregunta, las cifras de
la prediccin del logaritmo del producto real deben de transformarse a dlares,
elevando la base e (e= 2.71828) al logaritmo de cada observacin.
MODELOS BINARIOS
(modelos Logit y Probit)
EJEMPLO
Se utilizaron los datos que se muestran en la siguiente tabla, para analizar si una nueva
metodologa didctica resultaba eficaz en la enseanza de la economa. En este estudio
la variable dependiente mejora, es la variable que indica si mejor el alumno tras un
periodo de aprendizaje. El resto de las variables son CM media de las calificaciones
pasadas del alumno, NP nota del alumno en un examen previo al periodo de aprendizaje
y PSI, variable binaria que indica si en el periodo de aprendizaje el alumno estudi con
el nuevo mtodo didctico.
DATOS
OBS MEJORA CM NP PSI
1 0 2.66 20 0
2 0 2.89 22 0
3 0 3.28 24 0
4 0 2.92 12 0
5 1 4.00 21 0
6 0 2.86 17 0
7 0 2.76 17 0
8 0 2.87 21 0
9 0 3.03 25 0
10 1 3.92 29 0
11 0 2.63 20 0
12 0 3.32 23 0
13 0 3.57 23 0
14 1 3.26 25 0
15 0 3.53 26 0
16 0 2.74 19 0
17 0 2.75 25 0
18 0 2.83 19 0
19 0 3.12 23 1
20 1 3.16 25 1
21 0 2.06 22 1
22 1 3.62 28 1
23 0 2.89 14 1
24 0 3.51 26 1
25 1 3.54 24 1
26 1 2.83 27 1
27 1 3.39 17 1
28 0 2.67 24 1
29 1 3.65 21 1
30 1 4.0 23 1
31 0 3.1 21 1
32 1 2.39 19 1
19
El modelo fue calculado a travs del mtodo de MCO para el modelo lineal y por el
mtodo de Mxima Verosimilitud para el modelo Logit y Probit. Las estimaciones se
muestran en las siguiente tres tablas.
Resultados del modelo probabilstico estimado a travs de Mnimos Cuadrados
Ordinarios
Dependent Variable: MEJORA
Method: Least Squares
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C -1.498017 0.523889 -2.859419 0.0079
CM 0.463852 0.161956 2.864054 0.0078
NP 0.010495 0.019483 0.538685 0.5944
PSI 0.378555 0.139173 2.720035 0.0111
R-squared 0.415900 Mean dependent var 0.343750
Adjusted R-squared 0.353318 S.D. dependent var 0.482559
S.E. of regression 0.388057 Akaike info criterion 1.061140
Sum squared resid 4.216474 Schwarz criterion 1.244357
Log likelihood -12.97825 F-statistic 6.645658
Durbin-Watson stat 2.346447 Prob(F-statistic) 0.001571
Resultados del modelo probabilstico estimado como Logit
Dependent Variable: MEJORA
Method: ML - Binary Logit
Sample: 1 32
Included observations: 32
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives
Variable Coefficient Std. Error z-Statistic Prob.
C -13.02135 4.931317 -2.640541 0.0083
CM 2.826113 1.262940 2.237726 0.0252
NP 0.095158 0.141554 0.672235 0.5014
PSI 2.378688 1.064563 2.234426 0.0255
Mean dependent var 0.343750 S.D. dependent var 0.482559
S.E. of regression 0.384716 Akaike info criterion 1.055602
Sum squared resid 4.144171 Schwarz criterion 1.238819
Log likelihood -12.88963 Hannan-Quinn criter. 1.116333
Restr. Log likelihood -20.59173 Avg. log likelihood -0.402801
LR statistic (3 df) 15.40419 McFadden R-squared 0.374038
Probability(LR stat) 0.001502
Obs with Dep=0 21 Total obs 32
Obs with Dep=1 11
Resultados de la estimacin del modelo como un Probit
20
Dependent Variable: MEJORA
Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives
Variable Coefficient Std. Error z-Statistic Prob.
C -7.452320 2.542472 -2.931131 0.0034
CM 1.625810 0.693882 2.343063 0.0191
NP 0.051729 0.083890 0.616626 0.5375
PSI 1.426332 0.595038 2.397045 0.0165
Mean dependent var 0.343750 S.D. dependent var 0.482559
S.E. of regression 0.386128 Akaike info criterion 1.051175
Sum squared resid 4.174660 Schwarz criterion 1.234392
Log likelihood -12.81880 Hannan-Quinn criter. 1.111907
Restr. log likelihood -20.59173 Avg. log likelihood -0.400588
LR statistic (3 df) 15.54585 McFadden R-squared 0.377478
Probability(LR stat) 0.001405
Obs with Dep=0 21 Total obs 32
Obs with Dep=1 11
Los efectos marginales del modelo de probabilidad lineal son los que resultan de
la estimacin de los coeficientes. Sin embargo, los coeficientes de los modelos Logit y
Probit (los cuales miden los efectos marginales) tienen que estimarse utilizando un
factor de ajuste.
Para el modelo Logit, el factor de ajuste, se obtiene al multiplicar funcin Logit
(probabilidad de xito) por uno menos la funcin logit probabilidad de fracaso. En
trminos formales esto es
Factor de Ajuste para el Logit =

'

,
_

,
_

+
X
X
X
X
e
e
e
e

1
1
1

Donde

X es el resultado de la regresin por las medias de cada variable y e=


2.71828
Los efectos marginales en el modelo Logit se encuentran de la siguiente forma
( )

'

,
_

,
_

X
X
X
X
e
e
e
e
X
X
Y
E

1
1
1
Por tanto, los efectos marginales se obtienen multiplicando el factor de ajuste por
el vector de coeficientes beta
Siguiendo estos pasos, primero se calculan las medias de los datos de las variables
explicativas del modelo Logit. Estos resultados se muestran en el siguiente cuadro
MEJORA CM NP PSI
Media 3.1171875 21.938 0.4375
21
En segundo lugar se multiplican los coeficientes por las medias de las variables
explicativas del modelo Logit
MEJORA =-13.02134684 + 2.826112592*(3.1171875) + 0.09515766115*(21.938) +
2.378687654*(0.4375)
MEJORA =

X = - 13.02134684+ 11.937766 = -1.08358


Se obtiene el factor de ajuste de la siguiente manera
( )

'

,
_

,
_

08358 . 1
08358 . 1
08350 . 1
08358 . 1
1
1
1 e
e
e
e
X
X
Y
E
= 0.1889562 = 0.1889
Hay otra forma ms simple de obtener este factor de ajuste. Este mtodo consiste
en trabajar sobre los resultados de la regresin logit (probabilidad de xito). De la
siguiente manera: sobre los resultados de la regresin logit dar clic en Procs/Make
Model/ e intercambiar los nombres de las variables por sus medias y cambiar el nombre
de la variable dependiente por ejemplo por xito. Despus borrar la leyenda que aparece
en la parte de arriba de la ventana, es decir, borrar ASSIGN @ALL F, y dar clic en Solve.

Esto aparece el la ventana
SSIGN @ALL F
MEJORA = 1-@LOGIT(-(-13.02134684 + 2.826112592*CM + 0.09515766115*NP +
2.378687654*PSI))
Hay que modificar as
exito = 1-@LOGIT(-(-13.02134684 + 2.826112592*3.1171875 + 0.09515766115*21.938 +
2.378687654*0.3475))
Con la instruccin Solve EV calcula esa ecuacin con el nombre de xito. Esta variable
estar compuesta de un nmero que se repite a lo largo de todas los observaciones y que
ser la probabilidad de xito. El factor de ajuste, por tanto, se encuentra al multiplicar
este nmero por 1- este nmero.

xito= 0.252829 factor de ajuste= (0.252829)(1-0.252829)=0.1889064
Para el modelo Probit, el factor de ajuste, se obtiene buscando en las tablas de la
distribucin normal el valor que resulta de la funcin Probit. En trminos formales el
factor de ajuste es
Factor de Ajuste para el Probit =
( ) { } X
Donde

X es el resultado de la regresin por las medias de cada variable


22
De igual manera, el efecto marginal en el modelo Probit resulta de multiplicar el
factor de ajuste por el vector de betas
( )
( ) { } X
X
X
Y
E

Para obtener el factor de ajuste del modelo probit se procede de la misma manera
que el logit. Trabaje sobre los resultados de la regresin probit. Esto aparece en la
ventana despus de dar clic en Procs/Make Model
ASSIGN @ALL F
MEJORA = 1-@CNORM(-(-7.452319647 + 1.625810039*CM + 0.0517289455*NP +
1.426332342*PSI))
Se intercambian nombres de las variables por su valor medio, se cambia de nombre la
variable dependiente, se borra ASSIGN @ALL F y se da clic en Solve
normal = 1-@CNORM(-(-7.452319647 + 1.625810039*3.1171875 + 0.0517289455*21938 +
1.426332342*0.4375))
La variable normal es un nmero=0.265817 que es la probabilidad de xito del
modelo probit. La probabilidad de xito por la probabilidad de fracaso es (0.265817)(1-
0.265817)=0.171158, valor que al ser restado de 0.5 queda 0.329.
Al obtener todos estos valores, se pueden calcular las pendientes (efectos
marginales) del Logit y Probit y compararlos con los resultados del modelo de regresin
lineal, los cuales se resumen en el siguiente cuadro
Modelo Lineal Modelo Logit Modelo Probit
Variable Coeficiente Pendiente Coeficiente Pendiente Coeficiente Pendiente
Constante -1.498017 -1.498017 -13.02135 -7.452320
CM 0.463852 0.463852 2.826113 0.534 1.625810 0.533
NP 0.010495 0.010495 0.095158 0.018 0.051729 0.017
PSI 0.378555 0.378555 2.378688 0.499 1.426332 0.468
Factor de A 1. 0.189 0.329
Como se puede observar en el cuadro anterior las pendientes que arrojan los
modelos Logit y Probit son casi iguales mientras que difieren de las estimadas por el
mtodo de mnimos cuadrados ordinarias.
Para interpretar el efecto que tiene cada variable sobre la probabilidad, de que las
calificaciones del alumno mejoran tras de implantar una nueva metodologa, se utilizan
los valores de la pendiente. La interpretacin del coeficiente de CM sera similar en el
modelo Logit y Probit, es decir, si la calificacin media del alumno aumenta en una
unidad, la probabilidad de que el alumno mejore sus calificaciones aumenta 0.53, si ha
utilizado el nuevo mtodo didctico. La interpretacin del coeficiente NP sera, si la
calificacin del alumno en un examen previo aumenta en una unidad, la probabilidad
de que el alumno mejore sus calificaciones aumenta en 0.018 si ha utilizado el nuevo
mtodo didctico.
23
Hay que recordar que uno de los estadsticos tradicionales para analizar la bondad
de ajuste de los modelo de regresin es el R cuadrada. En estos modelos donde la
variable dependiente es una variable cualitativa el estadstico R cuadrada de Mc Fadden
se define como sigue
R
UR
L
L
R
log
log
1
2

Donde el log de L subndice UR es la funcin de mxima verosimilitud no
restringida y el log de L subndice R es la funcin de mxima verosimilitud restringida.
Este estadstico, es el que se calcula en los resultados de la regresin y de igual forma
que en los modelos de regresin lineal su valor se encuentra entre cero y uno
Como se puede observar en los resultados de la regresin del modelo Logit y
Probit el estadstico R cuadrada de Mc Fadden es de 0.37, es decir, que un 37.0% de las
variaciones en la probabilidad de que el alumno mejore sus calificaciones si ha utilizado
el nuevo mtodo didctico est explicada por el modelo.
Hay otros dos estadsticos que miden la bondad de ajuste de este tipo de modelos
uno es Hosmer- Lemeshow y el otro es AnDrews. La idea de estas pruebas es comparar
el valor esperado ajustado y el valor actual por grupo de series. Si la diferencia entre el
valor esperado y actual es muy grande se rechaza el modelo porque ste no se ajusta a
los datos.
El estadstico Hosmer- Lemeshow trabaja agrupando las observaciones sobre la
base de la probabilidad predictiba cuando y=1 ( cuando la variable dependiente toma el
valor de 1); el estadstico AnDrews es ms general ya que agrupa las observaciones
sobre la base de algunas series no importando que y=1 o y=0. Si la diferencia es muy
grande se rechaza el modelo porque no se ajusta a los datos. Para calcular estos
estadsticos selecciona View/Goodness- of Fit Test / Predicted risk OK y aparece
el siguiente cuadro, que para el caso del ejemplo resultaron dos tablas
Para el caso del modelo Logit
24
Dependent Variable: MEJORA
Method: ML - Binary Logit
Sample: 1 32
Included observations: 32
Andrews and Hosmer-Lemeshow Goodness-of-Fit Tests
Grouping based upon predicted risk (randomize ties)
Quantile of Risk Dep=0 Dep=1 Total H-L
Low High Actual Expect Actual Expect Obs Value
1 0.0245 0.0265 3 2.92312 0 0.07688 3 0.07890
2 0.0266 0.0349 3 2.90838 0 0.09162 3 0.09451
3 0.0386 0.0536 3 2.85623 0 0.14377 3 0.15101
4 0.0595 0.1110 2 2.76809 1 0.23191 3 2.75709
5 0.1111 0.1932 3 3.31840 1 0.68160 4 0.17929
6 0.2418 0.3222 3 2.12877 0 0.87123 3 1.22779
7 0.3610 0.5291 2 1.62876 1 1.37124 3 0.18512
8 0.5699 0.6354 1 1.20481 2 1.79519 3 0.05818
9 0.6608 0.8383 0 0.80741 3 2.19259 3 1.10474
10 0.8417 0.9453 1 0.45602 3 3.54398 4 0.73241
Total 21 21.0000 11 11.0000 32 6.56906
H-L Statistic: 6.5691 Prob[Chi-Sq(8 df)]: 0.5838
Andrews Statistic: 19.1344 Prob[Chi-Sq(10 df)]: 0.0386
Para el caso del modelo Probit
Dependent Variable: MEJORA
Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Andrews and Hosmer-Lemeshow Goodness-of-Fit Tests
Grouping based upon predicted risk (randomize ties)
Quantile of Risk Dep=0 Dep=1 Total H-L
Low High Actual Expect Actual Expect Obs Value
1 0.0161 0.0185 3 2.94722 0 0.05278 3 0.05372
2 0.0186 0.0272 3 2.93223 0 0.06777 3 0.06934
3 0.0309 0.0457 3 2.87888 0 0.12112 3 0.12621
4 0.0531 0.1088 3 2.77618 0 0.22382 3 0.24186
5 0.1235 0.1952 2 3.29779 2 0.70221 4 2.90924
6 0.2732 0.3287 3 2.07481 0 0.92519 3 1.33775
7 0.3563 0.5400 2 1.61497 1 1.38503 3 0.19883
8 0.5546 0.6424 1 1.20962 2 1.79038 3 0.06087
9 0.6572 0.8342 0 0.84550 3 2.15450 3 1.17730
10 0.8400 0.9522 1 0.45575 3 3.54425 4 0.73351
Total 21 21.0330 11 10.9670 32 6.90863
H-L Statistic: 6.9086 Prob[Chi-Sq(8 df)]: 0.5465
Andrews Statistic: 20.6045 Prob[Chi-Sq(10 df)]: 0.0240
Como se puede observar, el valor del estadstico H-L no es muy grande en ambos
modelos (este resulta de la sumatoria de la ltima columna del lado derecho de los
cuadros) el valor de estadstico Andrews si lo es. Por tanto mientras, un estadstico
estara diciendo que el modelo se ajusta a los datos el otro estadstico lo contradice. Esta
afirmacin queda confirmada observando el valor de la probabilidad de cada uno de los
estadsticos, porque mientras el del estadstico HL tiene un valor mayor 0.05, el de
Andrews es menor a este valor. Esta contradiccin entre lo que sugieren los estadsticos
hace pensar en que el modelo se tiene que revisar. Una posible causa de que el modelo
no se ajuste a los datos es la no significancia estadstica de la variable NP.
25
Para un anlisis ms profundo de los modelos binarios, se pueden hacer pruebas
de restriccin individuales o generales sobre los coeficientes. Para las pruebas
individuales se encuentra el estadstico Wald y el de Razn de Verosimilitud (RV) que
aparece en los resultados de la regresin del modelo Logit o Probit.
Por ejemplo si se realiza la prueba Wald para saber si el coeficiente de la serie NP
es estadsticamente no significativo en el modelo Probit, esta prueba da el siguiente
resultado
Wald Test:
Equation: PROBI
Null Hypothesis: C(3)=0
F-statistic 0.380228 Probability 0.542463
Chi-square 0.380228 Probability 0.537481
Como se puede observar en los resultados de esta prueba el valor de la
probabilidad de los dos estadsticos es mayor que 0.05 por lo que no se rechaza la
hiptesis nula de que el coeficiente de la variable NP es estadsticamente no
significativo a un nivel de confianza del 95.0%.
La prueba RV es una prueba anloga a la prueba F para los modelos de regresin
lineal, es decir, con sta se prueba si conjuntamente los coeficientes estimados por
mxima verosimilitud, excluyendo la constante son estadsticamente no significativos.
Segn los resultados de esta prueba, en el modelo Probit, el valor de la probabilidad del
estadstico RV es menor a 0.05 por lo que se rechaza que conjuntamente los coeficientes
sean estadsticamente iguales a cero.
Adicionalmente a estas pruebas, existe otra prueba para analizar las propiedades y
el funcionamiento de los modelos binarios. Esta prueba se llama tabla de Clasificacin
Esperada y Predicha. La tabla clasifica el valor esperado y predicho de la variable
dependiente. Para ver esta tabla en el E-View dar clic en View/Expectaction-
Prediction Table sobre los resultados de la regresin y aparece una tabla donde se
aslan las observaciones de la variable dependiente en sus valores de 0 y 1. La
clasificacin correcta se obtiene cuando la probabilidad pronosticada es menor o igual a
la esperada y a la observada (y=0) o cuando la probabilidad pronosticada es mayor que
la esperada y la observada (y=1). En la literatura sobre este tema, la tabla de Pronstico-
Expectativa se refiere a la tabla de clasificacin. La fraccin y=1 observaciones que son
pronosticadas correctamente determinan la sensibilidad, mientras que la fraccin y=0
observaciones que son correctas es conocida como la especificidad. Estas son fracciones
que se presentan en porcentajes. Veamos los resultados de esta tabla para el modelo
Probit
Dependent Variable: MEJORA
Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Prediction Evaluation (success cutoff C = 0.5)
26
Estimated Equation Constant Probability
Dep=0 Dep=1 Total Dep=0 Dep=1 Total
P(Dep=1)<=
C
18 3 21 21 11 32
P(Dep=1)>C 3 8 11 0 0 0
Total 21 11 32 21 11 32
Correct 18 8 26 21 0 21
% Correct 85.71 72.73 81.25 100.00 0.00 65.62
% Incorrect 14.29 27.27 18.75 0.00 100.00 34.38
Total Gain* -14.29 72.73 15.62
Percent
Gain**
NA 72.73 45.45
Estimated Equation Constant Probability
Dep=0 Dep=1 Total Dep=0 Dep=1 Total
E(# of
Dep=0)
16.89 4.14 21.03 13.78 7.22 21.00
E(# of
Dep=1)
4.11 6.86 10.97 7.22 3.78 11.00
Total 21.00 11.00 32.00 21.00 11.00 32.00
Correct 16.89 6.86 23.74 13.78 3.78 17.56
% Correct 80.42 62.32 74.20 65.62 34.38 54.88
% Incorrect 19.58 37.68 25.80 34.38 65.62 45.12
Total Gain* 14.80 27.95 19.32
Percent
Gain**
43.05 42.59 42.82
*Change in % correct from default (constant probability)
**Percent of incorrect (default) prediction corrected by equation
En el primer cuadro de esta tabla se muestra que el modelo Probit est
pronosticando correctamente el 85.71% de las observaciones cuando y=0 y el 72.73%
de las observaciones cuando y=1. Con estos resultados se puede decir que el modelo
Probit es bueno en sensibilidad y en especificidad.
El anlisis de residuos de la regresin tambin se puede llevar a cabo. Sobre el
modelo de regresin Probit o Logit. De clic en Procs/Make Residual Series y este
comando genera los residuos ordinarios, los residuos estandarizados y los residuos
generalizados.
La prueba de normalidad tambin se puede realizar para los residuos de modelo
Probit dando un clic en View/Residual Test sobre la regresin y EV muestra el
histograma de normalidad para los residuos estandarizados. Veamos el histograma de
normalidad para los errores del modelo Probit
0
4
8
12
16
-2 -1 0 1 2 3
Series: Standardized Residuals
Sample 1 32
Observations 32
Mean -0.014303
Median -0.158590
Maximum 2.663509
Minimum -2.356954
Std. Dev. 0.920117
Skewness 0.579126
Kurtosis 4.932971
Jarque-Bera 6.770566
Probability 0.033868
27
Segn los resultados de la prueba de normalidad los errores del modelo Probit no
se distribuyen en forma normal al 95.0% de confianza ya que el valor de la
probabilidad del estadstico Jarque Bera es menor que 0.05. Pero se podra decir que al
98.0% de confianza los errores si se distribuyen de forma normal.
Otro elemento importante de analizar en los modelos binarios es la grfica de
curvas de respuesta de las probabilidades. Esta grfica es til para examinar como
varan las probabilidades cuando una de las variables independientes est cambiando
mientras las otras variables permanecen fijas en el valor de su media.
Para el modelo Logit y Probit que se est manejando en este ejemplo, es todava
ms interesante esta grfica de curva de respuesta a las probabilidades porque se tiene
una variable cualitativa como explicativa, es decir, se tiene a la variable PSI (variable
binaria que indica si el estudiante estudi con el nuevo mtodo didctico o no).
Para obtener esta grfica realice los siguientes pasos (recuerde que estos pasos
son para obtener la grfica de respuesta de las probabilidades de cualquier modelo).
1.- Calcule una serie continua de la variable explicativa que va a estar variando, en el
caso del ejemplo ser CM (media de las calificaciones del alumno). Para calcular la
serie continua de CM se observa el dato inferior y superior de la serie, los cuales son 2
y 4. Adems se utiliza la variable de tendencia, la cual toma valores de enteros
positivos empezando por cero y termina en el nmero que le corresponde al ltimo dato,
en el caso del ejemplo la tendencia ser una variable que tome valores de 0, 1,
2,.....hasta 32. Esta tendencia hace que la serie levante. La instruccin en EV para
formar la serie continua CM es:
series cmplot=2+@trend*(4-2)/@obs(@trend)
@trend es la instruccin para crear la serie de tendencia en EV
2.- Obtenga la ecuacin de regresin estimada del modelo Probit con la instruccin
Procs/Make Model sobre los resultados de la regresin
3.- Trabaje sobre esta ecuacin y genere otra nueva dando un nombre a la variable
dependiente, por ejemplo MEJORA0 cuando PSI toma el valor de cero y MEJORA1
para la siguiente ecuacin, cuando PSI toma el valor de 1. Adems, reemplace la
variable CM por cmplot, reemplace tambin a la variable NP por su media y a la
variable PSI por 0 en la primera ecuacin y 1 en la segunda ecuacin.
MEJORA0 = 1-@CNORM(-(-7.452319647 + 1.625810039*CMPLOT +
0.0517289455*@median(NP)+ 1.426332342*0))
MEJORA1 = 1-@CNORM(-(-7.452319647 + 1.625810039*CMPLOT +
0.0517289455*@median(NP) + 1.426332342*1))
28
4.- Borre ASSIGN @ ALL F que aparece en la parte de arriba de la ventana en la cual
est trabajando.
5.-D clic en Solve, es decir, resuelve las ecuaciones antes anotadas. Con esta
instruccin se genera las probabilidades de que el estudiante mejore sus calificaciones
cuando vara su calificacin promedio y si el alumno estudia con el nuevo mtodo
didctico y las probabilidades de que el estudiante mejore sus calificaciones cuando
varia su calificacin promedio y no estudia con el nuevo mtodo didctico. EV guarda
las dos probabilidades generadas como series, con el nombre de mejora0 y mejora1.
6.- Para graficar las serie CMPLOT, MEJORA1 y MEJORA0 en un solo plano d clic
en Show y anote los nombres de las variables que quiere graficar (cmplot, mejora1 y
mejora0), despus View/Graph/XY Line/. El resultado fue el siguiente
0.0
0.2
0.4
0.6
0.8
1.0
2.0 2.5 3.0 3.5
CMPLOT
MEJORA0
MEJORA1
En esta grfica se muestra dos funciones en todo el intervalo de variacin de CM,
es decir, de 2 a 4. El efecto de la variable PSI en las probabilidades es considerable. El
efecto marginal del muevo mtodo didctico es la diferencia entre estas dos funciones y
toma valores tan pequeos como 0.06 cuando CM=2, hasta valores prximos a 0.50,
cuando CM es igual 3.5. Esto muestra que la probabilidad de que la nota del estudiante
mejore tras seguir un curso con la nueva metodologa es mucho mayor en alumnos con
alta calificacin media que en alumnos con baja calificacin media.
ANLISIS DE SERIES DE TIEMPO
GRFICAS PARA PRONOSTICAR
Para realizar un pronstico es recomendable comenzar con un anlisis grfico de la serie
de tiempo. El anlisis grfico permite obtener una idea preliminar acerca de los
componentes de la serie: tendencia, estacionalidad y ciclo.
Es recomendable hacer un banco de datos, stos pueden ser obtenidos de las
Estadsticas del Banco de Mxico, de INEGI, de Economtica o de otras fuentes.
29
Por ejemplo obtenga los datos de una serie de tiempo cuya muestra sea los ms
larga posible, por ejemplo la del ndice nacional de precios al consumidor INPC, que
est disponible en forma mensual desde 1973 en los indicadores econmicos y
financieros del Banco de Mxico. Trabaje con la muestra de aproximadamente 450
observaciones y realice los siguientes pasos:
Baje la serie a analizar, generalmente viene en formato ecxel.
Genere un archivo con la serie en ecxel.
Observe los datos antes de copiarlos al paquete EV.
Si los datos no le parecen congruentes trabaje sobre ellos previamente. Por ejemplo,
la serie inpc que edita el Banco de Mxico viene en decimales hasta enero de 1985 y
para febrero de ese ao se presenta en miles de millones. Pasar de decimales a miles
de millones no es congruente, pero pasar de 0.9 a 1.06 si lo es, por tanto hay que
desplazar el punto decimal tantas unidades como sea necesario.
Aunque el ndice nacional de precios al consumidor (inpc) est disponible desde
1973 se puede trabajar con l en forma mensual desde 1985 a 2008. Haga una
hoja de trabajo en EV para datos mensuales con tamao de la muestra 1985.01 a
2008.12 con la File/New/Workfile/Frequency/Montly. Siempre deje espacio para
la prediccin.
Genere espacio para copiar la serie de ecxel a EV escribiendo en este ltimo, data
inpc debajo del men principal.
Regrese a ecxel, copie la serie inpc y pegue en EV. Si no es posible componer la
serie en ecxel, intntelo en EV.
Ya cargada la serie inpc en EV, de clic sobre ella y despus de que esta variable est
sombreada, dar clic el Show/ View/Line Graph. Con esta instruccin aparece la
grfica de la variable a travs del tiempo.
Analice detenidamente la grfica del INPC, para detectar la tendencia, la estacional
y el ciclo en la serie.
0
20
40
60
80
100
120
140
86 88 90 92 94 96 98 00 02 04 06 08
INPC
Observe que esta variable crece en el tiempo con pocas fluctuaciones.
Ahora cree la variable diferencia absoluta de inpc, de clic en genr e introduzca la
ecuacin dinpc=d(inpc) y clic en OK. Grafique esta nueva serie con las mismas
instrucciones que la anterior. Obseve la fluctuacines de la serie, donde sufren un cambio
fuerte es en la devaluacin de diciembre de 1994.
30
-0.8
-0.4
0.0
0.4
0.8
1.2
1.6
2.0
2.4
2.8
86 88 90 92 94 96 98 00 02 04 06 08
DINPC
Cree la variable diferencia de los logaritmos del inpc, de clic en genr e introduzca
la ecuacin linpc=log(inpc) y OK, despus vuelva a dar clic en genr y escriba la
ecuacin dlinpc=d(linpc) y OK.
-.04
.00
.04
.08
.12
.16
86 88 90 92 94 96 98 00 02 04 06 08
DLINPC
Observe los brincos que muestra la serie en 1987 y 1984 y la reduccin de las
variaciones despus de 1998 hasta 2008. Como ejercicio conteste las siguientes
preguntas. Qu relacin existe entre la serie inflacin y la serie diferencia de los
logaritmos? Calcule la inflacin a partir del inpc y gafique.
Tambin es importante evaluar la distribucin de la serie a analizar a partir de su
histrograma y hacer la prueba de normalidad de la serie. Para ello de clic Show /OK/
View/ Descriptive Statistics/Histrogram/
31
0
5
10
15
20
25
30
0 20 40 60 80 100 120
Series: INPC
Sample 1985M01 2008M12
Observations 283
Mean 58.83333
Median 53.79175
Maximum 129.5760
Minimum 1.010696
Std. Dev. 43.21315
Skewness 0.149291
Kurtosis 1.452812
Jarque-Bera 29.27800
Probability 0.000000
Observe que la serie inpc no se distribuye de manera normal. Haga lo mismo con
dinpc
0
10
20
30
40
50
60
-0.5 -0.0 0.5 1.0 1.5 2.0 2.5
Series: DINPC
Sample 1985M01 2008M12
Observations 282
Mean 0.455905
Median 0.364077
Maximum 2.610758
Minimum -0.596000
Std. Dev. 0.408974
Skewness 1.303036
Kurtosis 6.428485
Jarque-Bera 217.9169
Probability 0.000000
Observe que la serie dinpc no se distribuye de manera normal.
TENDENCIA DE UNA SERIE
La tendencia es la evolucin lenta y a largo plazo de la serie que se desea modelar y
pronosticar.
Los modelos de tendencia determinista ms utilizados son
Tendencia lineal
Tiempo T
1 0
+
Tendencia cuadrtica
2
2 1 0
Tiempo Tiempo T + +
Tendencia exponencial
Tiempo
e T
1
0


Observe la grfica del inpc nuevamente, esta serie presenta una clase de tendencia
determinista que podra ser lineal, cuadrtica o exponencial. Por lo que se le puede
asociar los siguientes modelos.
t
u Tiempo inpc + +
1 0

i
u Tiempo Tiempo inpc + + +
2
2 1 0

i
u Tiempo linpc + +
1 0

Pero como el modelo exponencial lineal, en logaritmos no es comparable con los
otros dos modelos se trabaja con el modelo exponencial
u Tiempo
e e inpc
1
0

y se
calcula por mnimos cuadrados no lineales.
32
Analicemos cul de los modelos anteriores podra estar explicando la tendencia
determinista de la serie inpc. Genere la variable tiempo dando clic en genr e introduzca
la ecuacin tiempo=@trend y OK. Genere la variable tiempo al cuadrado dando clic
en genr e introduzca la ecuacin tempo2=tiempo^2.
Estime el primer modelo escribiendo en el espacio en blanco debajo de la barra de
herramientas ls inpc c tiempo. Guarde la regresin con un nombre, sobre los resultados
de sta, de clic en Name y anote, por ejemplo, inpctl.
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:24
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C -15.06310 0.873921 -17.23623 0.0000
TIEMPO 0.520397 0.005335 97.55243 0.0000
R-squared 0.971319 Mean dependent var 58.83333
Adjusted R-squared 0.971217 S.D. dependent var 43.21315
S.E. of regression 7.331340 Akaike info criterion 6.829236
Sum squared resid 15103.34 Schwarz criterion 6.854999
Log likelihood -964.3368 F-statistic 9516.477
Durbin-Watson stat 0.003190 Prob(F-statistic) 0.000000
Observe los resultados de la regresin, la variable tiempo es estadsticamente
significativa, sin embargo el estadstico DW es bajo lo que estara indicando
autocorrelacin.
Grafique el inpc estimado por el modelo junto con el inpc y los errores de la
regresin, dando clic sobre los resultados de la regresin en
View/Actual/Fitted/Residual/Graph
-20
-10
0
10
20
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
Residual Actual Fitted
33
Note como la variable real se sale de la tendencia lineal estimada y los errores no
parecen normales. Haga la prueba de normalidad en los errores.
0
4
8
12
16
20
24
-15 -10 -5 0 5 10 15
Series: Residuals
Sample 1985M02 2008M08
Observations 283
Mean 1.73e-15
Median 0.558612
Maximum 15.55340
Minimum -18.25873
Std. Dev. 7.318329
Skewness -0.519603
Kurtosis 2.742966
Jarque-Bera 13.51343
Probability 0.001163
Los errores no tienen una distribucin normal.
Estime el modelo con tendencia cuadrtica escribiendo en el espacio en blanco,
debajo de la barra de herramientas ls inpc c tiempo teimpo2 y guarde la regresin con
un nombre por ejemplo inpct2.
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:28
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C -8.083254 1.195368 -6.762146 0.0000
TIEMPO 0.373453 0.019436 19.21404 0.0000
TIEMPO2 0.000517 6.63E-05 7.806438 0.0000
R-squared 0.976446 Mean dependent var 58.83333
Adjusted R-squared 0.976277 S.D. dependent var 43.21315
S.E. of regression 6.655753 Akaike info criterion 6.639384
Sum squared resid 12403.73 Schwarz criterion 6.678029
Log likelihood -936.4729 F-statistic 5803.695
Durbin-Watson stat 0.003740 Prob(F-statistic) 0.000000
Observe como en el modelo de tendencia cuadrtica la variable tiempo y tiempo al
cuadrado son estadsticamente significativas pero el DW indica autocorrelacin, pero el
estadstico Schwarz del segundo modelo es ms bajo.
34
Estime la grfica de la serie real y estimada
-20
-10
0
10
20
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
Residual Actual Fitted
Es muy parecida a la anterior
Haga la prueba de normalidad en los errores
0
4
8
12
16
20
24
28
32
-15 -10 -5 0 5 10
Series: Residuals
Sample 1985M02 2008M08
Observations 283
Mean 5.23e-15
Median 1.205712
Maximum 11.12624
Minimum -15.07925
Std. Dev. 6.632109
Skewness -0.217170
Kurtosis 2.225438
Jarque-Bera 9.298887
Probability 0.009567
Los errores no son normales
Estime el modelo exponencial por mnimos cuadrados no lineales de la siguiente
forma: de clic en Quick/Estimate Equation e introduzca la ecuacin
inpc=c(1)*exp(C(2)*tiempo).
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:32
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Convergence achieved after 58 iterations
INPC=C(1)*EXP(C(2)*TIEMPO)
Coefficient Std. Error t-Statistic Prob.
C(1) 15.76667 0.696431 22.63925 0.0000
C(2) 0.008041 0.000191 42.04294 0.0000
R-squared 0.914354 Mean dependent var 58.83333
Adjusted R-squared 0.914049 S.D. dependent var 43.21315
35
S.E. of regression 12.66899 Akaike info criterion 7.923234
Sum squared resid 45101.43 Schwarz criterion 7.948997
Log likelihood -1119.138 Durbin-Watson stat 0.001494
Grafique la variable real y la estimada
-30
-20
-10
0
10
20
30
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
Residual Actual Fitted
Haga pruebas de normalidad
0
10
20
30
40
50
60
-20 -10 0 10 20
Series: Residuals
Sample 1985M02 2008M08
Observations 283
Mean -1.928073
Median -8.570290
Maximum 20.00287
Minimum -23.91263
Std. Dev. 12.49814
Skewness 0.427954
Kurtosis 1.762166
Jarque-Bera 26.70591
Probability 0.000002
Note que los errores en este modelo tampoco son normales
Compare los tres modelos con los criterios de Akaike y Schwarz
lineal cuadrtico exponencial
Akaike
info criterion 6.829236 6.639384 7.923234
Schwarz
criterion 6.854999 6.678029 7.948997
Observe que tanto el criterio de Akaike como el de Schuarz son ms pequeos en
el modelo cuadrtico. Elija este modelo para predecir, recuerde haber generado a la
variable tiempo y tiempo2 ms all del periodo de la muestra, para ello de clic en
Forecast sobre los resultados de la regresin.
36
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
INPCF
Forecast: INPCF
Actual: INPC
Forecast sample: 1985M01 2008M12
Included observations: 283
Root Mean Squared Error 6.620382
Mean Absolute Error 5.531359
Mean Abs. Percent Error 43.97767
Theil Inequality Coefficient 0.045468
Bias Proportion 0.000000
Variance Proportion 0.005959
Covariance Proportion 0.994041
El coeficiente de Desigualdad de Theil est dentro de los lmites permitidos al igual que
los otros tres. Grafique la serie real y el pronstico

-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
INPC INPCF
Esta es la grfica de las realizaciones reales y del pronstico de la serie inpc. Note que
an siendo el modelo de tendencia cuadrtico el elegido, el pronstico no flucta
alrededor a los datos de la variable real.
ESTACIONALIDAD DE UNA SERIE
La estacionalidad determinista de una serie de tiempo surge cuando las tecnologas,
preferencias e instituciones se enlazan con el calendario. Esta parte de la serie se puede
modelar con series estacionales indicadoras para cada trimestre si la serie es trimestral o
para mes si la serie es mensual.
Observe la variable ndice de desempleo en Mxico de 1996 a agosto de 2005
37
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
IDES

La serie muestra efectos estacionales en diciembre y en enero de cada ao.
Para modelar la serie, se crean 11 variables indicadoras de estacionalidad si el
modelo incluye ordenada al origen o 12 si no lo incluye. Genere estas variables dando
clic en genr y escriba la ecuacin d1=@seas(1) para generar la variable estacional de
enero y as sucesivamente.
Estime la regresin ls ides c d1 d2 d11
Dependent Variable: IDES
Method: Least Squares
Date: 09/10/08 Time: 17:41
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C 2.666667 0.345527 7.717684 0.0000
D1 0.858333 0.476276 1.802177 0.0744
D2 0.907333 0.476276 1.905058 0.0595
D3 0.750333 0.476276 1.575418 0.1182
D4 0.746333 0.476276 1.567019 0.1201
D5 0.607333 0.476276 1.275171 0.2051
D6 0.557333 0.476276 1.170190 0.2446
D7 0.685333 0.476276 1.438942 0.1532
D8 0.767333 0.476276 1.611111 0.1102
D9 0.711111 0.488649 1.455260 0.1486
D10 0.536667 0.488649 1.098267 0.2746
D11 0.375556 0.488649 0.768559 0.4439
R-squared 0.052077 Mean dependent var 3.299483
Adjusted R-squared -0.048184 S.D. dependent var 1.012475
S.E. of regression 1.036580 Akaike info criterion 3.007429
Sum squared resid 111.7479 Schwarz criterion 3.292283
Log likelihood -162.4309 F-statistic 0.519419
Durbin-Watson stat 0.093905 Prob(F-statistic) 0.886409
38
Note que solamente las dos primeras variables son estadsticamente significativas al
90%.
Ahora hagamos una regresin con las 12 variables indicadoras de estacionalidad
excluyendo la constante
Dependent Variable: IDES
Method: Least Squares
Date: 09/10/08 Time: 17:52
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
D1 3.525000 0.327796 10.75366 0.0000
D2 3.574000 0.327796 10.90314 0.0000
D3 3.417000 0.327796 10.42418 0.0000
D4 3.413000 0.327796 10.41198 0.0000
D5 3.274000 0.327796 9.987934 0.0000
D6 3.224000 0.327796 9.835400 0.0000
D7 3.352000 0.327796 10.22589 0.0000
D8 3.434000 0.327796 10.47604 0.0000
D9 3.377778 0.345527 9.775733 0.0000
D10 3.203333 0.345527 9.270867 0.0000
D11 3.042222 0.345527 8.804591 0.0000
D12 2.666667 0.345527 7.717684 0.0000
R-squared 0.052077 Mean dependent var 3.299483
Adjusted R-squared -0.048184 S.D. dependent var 1.012475
S.E. of regression 1.036580 Akaike info criterion 3.007429
Sum squared resid 111.7479 Schwarz criterion 3.292283
Log likelihood -162.4309 Durbin-Watson stat 0.093905
Observe como todas las variables se vuelven significativas sin embargo, el R cuadrado
es muy bajo y el estadstico DW indica autocorrelacin.
La grfica de la variable actual y estimada es la siguiente
39
-2
-1
0
1
2
3
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
Residual Actual Fitted
En ella se percibe que la variable modelada no se ajusta a los datos. Tal vez, faltara
introducir una tendencia cuadrtica dada la curvatura de la serie real. Veamos los
resultados.
Dependent Variable: IDES
Method: Least Squares
Date: 09/10/08 Time: 18:11
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
D1 5.826751 0.152927 38.10141 0.0000
D2 5.889708 0.153430 38.38684 0.0000
D3 5.744928 0.153905 37.32784 0.0000
D4 5.751410 0.154350 37.26208 0.0000
D5 5.621155 0.154767 36.32005 0.0000
D6 5.578162 0.155156 35.95194 0.0000
D7 5.711432 0.155517 36.72548 0.0000
D8 5.796965 0.155850 37.19577 0.0000
D9 5.903774 0.163041 36.21040 0.0000
D10 5.739812 0.163465 35.11339 0.0000
D11 5.587445 0.163859 34.09913 0.0000
D12 5.218897 0.164223 31.77940 0.0000
TIEMPO -0.108648 0.004217 -25.76255 0.0000
TIEMPO2 0.000869 3.55E-05 24.47281 0.0000
R-squared 0.874289 Mean dependent var 3.299483
Adjusted R-squared 0.858268 S.D. dependent var 1.012475
S.E. of regression 0.381170 Akaike info criterion 1.021621
Sum squared resid 14.81966 Schwarz criterion 1.353951
Log likelihood -45.25400 Durbin-Watson stat 0.626485
Observe como el R cuadrado aumenta, al igual que bajan los estadsticos Akaike y
Schwarz
40
Pero todava el DW indica autocorrelacin.
-1.5
-1.0
-0.5
0.0
0.5
1.0
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
Residual Actual Fitted
Observe, el ajuste es mejor comparado con los resultados de los otros modelos.
Hagamos algunas pruebas a este modelo
0
4
8
12
16
20
-1.0 -0.5 -0.0 0.5
Series: Residuals
Sample 1996M01 2005M08
Observations 116
Mean 2.32e-16
Median -0.030171
Maximum 0.856107
Minimum -1.115479
Std. Dev. 0.358980
Skewness -0.101755
Kurtosis 3.075346
Jarque-Bera 0.227617
Probability 0.892429
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 53.17358 Prob. F(2,100) 0.000000
Obs*R-squared 59.78406 Prob. Chi-Square(2) 0.000000
41
-80
-60
-40
-20
0
20
40
1997 1998 1999 2000 2001 2002 2003 2004 2005
CUSUM 5% Significance
Segn los resultados de las prueba este modelo tiene autocorrelacin, los estimadores no
son estables pero se distribuyen en forma normal.
Suponga que elegimos este modelo, hagamos la prediccin. Recuerde haber generado a
todas las variables X ms all de la muestra.
0
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
IDESF
Forecast: IDESF
Actual: IDES
Forecast sample: 1996M01 2005M12
Included observations: 116
Root Mean Squared Error 0.357429
Mean Absolute Error 0.279962
Mean Abs. Percent Error 8.537715
Theil Inequality Coefficient 0.051940
Bias Proportion 0.000000
Variance Proportion 0.033573
Covariance Proportion 0.966427
El coeficiente de desigualdad de Theil y los otros tres estn dentro de los lmites
permitidos.
La grfica de los valores reales y los estimados son
1
2
3
4
5
6
7
96 97 98 99 00 01 02 03 04 05
IDES IDESF
42
La tabla de los valores reales y los estimados es
2005M01 3.750000 4.225548
2005M02 3.930000 4.368370
2005M03 3.950000 4.305191
2005M04 4.200000 4.395013
2005M05 4.290000 4.349835
2005M06 3.540000 4.393657
2005M07 3.500000 4.615479
2005M08 4.050000 4.791301
2005M09 NA 4.990136
2005M10 NA 4.919938
2005M11 NA 4.863073
2005M12 NA 4.591764
GENERACIN DE MODELOS AR, MA Y ARMA ESTACIONARIOS Y NO
ESTACIONARIOS EN COVARIANZA
Un modelo ar(1) se expresa como
t t t
a y y +
1

, este proceso es estacionario si la


raz caracterstica

es de modulo menor que 1, es decir, un decimal cuyo valor est


entre menos uno y uno.
Un modelo ar(2) se expresa como
t t t t
a y y y + +
2 2 1 1

, este modelo es
estacionario si las races caractersticas se encuentran fuera de crculo unitario o en
trminos del valor de los coeficiente si
1
2

;
1
2 1
+
;
1
2 1

Un modelo ar(p) se expresa como t p t p t t t
e y y y y + + + +

......
2 2 1 1 , este
modelo es estacionario si sus races caractersticas se encuentran fuera del crculo
unitario o en trminos del valor de los coeficientes si
1 . . . . . . . . . .
3 2 1
+ + + +
p

.
Un modelo MA siempre es estacionario, para que sea invertible tiene que cumplir
con la condicin de que sus races caractersticas queden dentro del crculo unitario o en
trminos de las condiciones sobre los valores de los coeficientes, las cuales son las
mismas que en el proceso AR.
Un proceso ARMA(p,q) se expresa como
t q t t t p t p t t t
a a a a y y y y + + + + + + + +
3 2 2 1 1 2 2 1 1
.......... ......
Este proceso es estacionario e invertible si
43
1 . . . . . . . . . . . . . .
2 1 2 1
+ + + + + +
p q

Para generar procesos AR, MA y ARMA estacionarios en el paquete E-Views, se
presentan algunos ejemplos:
Haga una hoja de trabajo en el paquete E-Views con la instruccin
File/New/Workfile/Frequency/Undated/ con datos de por ejemplo 1 a 2000.
Un modelo ar(1) estacionario sera t t t
a y y + +
1
5 . 0 2
. Por tanto, genere un
espacio para la variable Y dando la instruccin data y en el espacio en blanco,
debajo del men principal.
A esa variable Y, asgnele el valor cero con la instruccin genr Y=0
Genere una serie con nmeros aleatorios con la instruccin genr at=nrnd
Cambie el Sample en un dato, ahora ser 2 2000
Genere el proceso estacionario con la instruccin genr y=2+0.5*y(-1)+at
Ahora grafique a la variable, de clic en esta variable, despus Show/View/Line
Grafic
0
2
4
6
8
500 1000 1500 2000
Y
Note como la variable estacionaria flucta alrededor de su media
Observe su correlograma. La funcin de autocorrelacin parcial se corta en la
primera, mientras que la funcin de autocorrelacin decae ms lentamente.
Sample: 2 2000
Included observations: 1999
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|**** | |**** | 1 0.464 0.464 431.71 0.000
|** | | | 2 0.197 -0.023 509.66 0.000
|* | | | 3 0.078 -0.007 521.70 0.000
| | | | 4 0.032 0.004 523.81 0.000
| | | | 5 -0.004 -0.023 523.85 0.000
| | | | 6 0.014 0.033 524.26 0.000
| | | | 7 0.022 0.008 525.22 0.000
| | | | 8 0.000 -0.021 525.22 0.000
| | | | 9 -0.009 -0.005 525.40 0.000
| | | | 10 -0.001 0.009 525.40 0.000
44
Ahora genere un proceso ma(2) invertible, como por ejemplo
t t t t
a a a z + +
2 1
2 . 0 3 . 0 3
, recuerde las condiciones sobre los valores de los
coeficientes que debe cumplir el proceso ma(2) invertible.
Genere un espacio para la variable Z dando la instruccin data z en el espacio en
blanco, debajo del men principal.
A esa variable z, asignele el valor cero con la instruccin genr z=0
Genere una serie de nmeros aleatorios con la instruccin genr at=nrnd
Cambie el Sample en dos datos, porque ahora se tienen dos rezagos de la variable
at, ahora ser 3 2000
Genere el proceso estacionario con la instruccin genr z=3+0.3*at(-1)-0.2*at(-
2)+at
Grafique a la variable z dando clic en esta variable, despus Show/View/Line
Grafic
-2
0
2
4
6
8
500 1000 1500 2000
Z
Note la grfica de un proceso invertible que es la contraparte del proceso estacionario.
Observe su correlograma. La funcin de autocorrelacin se corta en la segunda,
mientras que la autocorrelacin parcial decae ms lentamente.
Simple: 3 2000
Included observations: 1998
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|* | |* | 1 0.191 0.191 73.215 0.000
**| | **| | 2 -0.217 -0.263 167.43 0.000
| | |* | 3 -0.018 0.094 168.10 0.000
| | *| | 4 -0.007 -0.092 168.19 0.000
| | | | 5 -0.034 0.007 170.45 0.000
| | | | 6 0.013 0.001 170.79 0.000
| | | | 7 0.038 0.028 173.75 0.000
| | | | 8 -0.007 -0.019 173.84 0.000
| | | | 9 -0.024 -0.005 175.01 0.000
| | | | 10 0.013 0.014 175.37 0.000
Genere un proceso ARMA(1,1) estacionario e invertible como por ejemplo
t t t t
a a y y + + +
1 1
2 . 0 6 . 0 2
Genere un espacio para la variable Y dando la instruccin data y, en el espacio en
blanco, debajo del men principal.
A esa variable Y, asgnele el valor cero con la instruccin genr Y=0
Genere una serie de nmeros aleatorios con la instruccin genr at=nrnd
Cambie el Sample en un dato, ahora ser 2 2000
45
Genere el proceso ARMA(1,1) estacionario e invertible con la instruccin genr
y=2+0.6*y(-1)+0.2*at(-1)+at
Ahora grafique a la variable y dando clic en esta variable, despus
Show/View/Line Graph
0
2
4
6
8
10
500 1000 1500 2000
Y
Note que la grfica de un proceso ARMA(1,1) estacionario e invertible, es igual a las
dos anteriores
Simple: 2 2000
Included observations: 1999
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|***** | |***** | 1 0.670 0.670 897.52 0.000
|*** | *| | 2 0.366 -0.149 1165.6 0.000
|** | | | 3 0.197 0.029 1243.7 0.000
|* | | | 4 0.108 -0.003 1267.0 0.000
| | | | 5 0.052 -0.012 1272.5 0.000
| | | | 6 0.041 0.036 1275.9 0.000
| | | | 7 0.034 -0.008 1278.2 0.000
| | | | 8 0.011 -0.023 1278.4 0.000
| | | | 9 -0.003 0.002 1278.5 0.000
| | | | 10 -0.004 0.005 1278.5 0.000
Observe el correlograma de un proceso ARMA(1,1), la autocorrelacin parcial se
corta en la primera, mientras que la autocorrelacin decrece ms lentamente. Adems,
note que este proceso es ms parecido al ar(1) estacionario visto en el ejemplo 1.
Los procesos no estacionarios son aquellos que no cumplen con las condiciones sobre
el valor de los parmetros. Uno de los procesos ms conocidos es el de caminata
aleatoria, el cual se expresa como t t t
a y y +
1 , donde el coeficiente de la variable
endgena rezagada tiene el valor de uno o bien es de raz unitaria.
Para generar este proceso siga los mismos pasos que el ejemplo del modelo ar(1). D
la instruccin genr y=y(-1)+at despus de haber cambiado el Sample y grfique
46
-40
-20
0
20
40
60
500 1000 1500 2000
Y
Note como la variable no estacionaria, no flucta alrededor de su media.
Grafique el correlograma de esta caminata aleatoria
Sample: 2 2000
Included observations: 1999
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|******** |******** 1 0.996 0.996 1987.3 0.000
|******** | | 2 0.993 0.015 3961.5 0.000
|******** | | 3 0.989 0.007 5922.8 0.000
|******** | | 4 0.986 0.024 7872.0 0.000
|******** | | 5 0.983 0.004 9809.3 0.000
|******** | | 6 0.980 0.012 11735. 0.000
|******** | | 7 0.976 -0.008 13649. 0.000
|*******| | | 8 0.973 -0.021 15551. 0.000
|*******| | | 9 0.970 0.005 17441. 0.000
|*******| | | 10 0.966 0.016 19319. 0.000
|*******| | | 11 0.963 -0.016 21186. 0.000
|*******| | | 12 0.960 -0.016 23040. 0.000
|*******| | | 13 0.957 0.029 24883. 0.000
|*******| | | 14 0.954 0.015 26715. 0.000
|*******| | | 15 0.950 -0.003 28537. 0.000
|*******| | | 16 0.948 0.027 30348. 0.000
|*******| | | 17 0.945 -0.005 32149. 0.000
|*******| | | 18 0.942 -0.004 33940. 0.000
|*******| | | 19 0.939 0.024 35721. 0.000
|*******| | | 20 0.936 -0.036 37491. 0.000
Note como la funcin de autocorrelacin no decae ni an el la autocorrelacin 20 y la
autocorrelacin parcial se corta en la primera como el clsico en el modelo ar(1). Este
autocorrelograma es caracterstico de los procesos no estacionarios.
Como ejercicio genere y analice tres procesos ar, ma, y ARMA estacionarios y dos
procesos no estacionarios.
RAICES DE LOS MODELOS ARMA Y SU DIAGNSTICO
Un proceso AR es estacionario si sus races caractersticas son de modulo menor que
uno o bien se encuentran dentro del circulo unitario. Un proceso MA siempre es
estacionaria, para que sea invertible sus races se deben de encontrar fuera del circulo
unitario (dentro del circulo unitario). Las races de ambos procesos pueden ser reales o
imaginaras.
47
Suponga que se trabaja con la diferencia de los logaritmos del inpc (dlinpc) o con la
inflacin de Mxico de 1985 a 2008 con datos mensuales. La grfica respectiva de esta
serie es
-.04
.00
.04
.08
.12
.16
86 88 90 92 94 96 98 00 02 04 06 08
DLINPC
Una forma de determinar el modelo ARMA que est explicando a la serie es analizar su
correlograma. Por tanto, sombree la serie y de clic en Show/View/Correlogram y
OK.
Date: 09/11/08 Time: 10:39
Sample: 1985M01 2008M12
Included observations: 282
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|*******| .|*******| 1 0.915 0.915 238.56 0.000
.|****** | *|. | 2 0.822 -0.090 431.98 0.000
.|****** | .|* | 3 0.758 0.125 596.84 0.000
.|***** | .|. | 4 0.709 0.042 741.54 0.000
.|***** | .|* | 5 0.684 0.145 877.00 0.000
.|***** | *|. | 6 0.648 -0.081 998.98 0.000
.|***** | .|* | 7 0.625 0.126 1112.6 0.000
.|***** | .|. | 8 0.613 0.048 1222.4 0.000
.|***** | .|. | 9 0.592 -0.016 1325.1 0.000
.|**** | .|. | 10 0.576 0.046 1422.9 0.000
.|**** | .|* | 11 0.573 0.105 1519.9 0.000
.|**** | .|. | 12 0.566 -0.016 1614.8 0.000
.|**** | **|. | 13 0.514 -0.267 1693.4 0.000
.|*** | .|. | 14 0.459 0.029 1756.3 0.000
.|*** | .|. | 15 0.421 0.013 1809.5 0.000
.|*** | .|. | 16 0.398 0.010 1857.1 0.000
.|*** | *|. | 17 0.372 -0.095 1899.0 0.000
.|*** | .|. | 18 0.342 0.044 1934.6 0.000
48
.|** | .|. | 19 0.326 0.026 1967.0 0.000
.|** | *|. | 20 0.309 -0.061 1996.2 0.000
.|** | .|* | 21 0.301 0.103 2024.0 0.000
.|** | .|. | 22 0.296 0.014 2051.0 0.000
.|** | .|* | 23 0.316 0.187 2081.8 0.000
.|*** | *|. | 24 0.329 -0.079 2115.3 0.000
.|** | **|. | 25 0.281 -0.218 2139.9 0.000
.|** | .|. | 26 0.223 -0.053 2155.5 0.000
.|* | .|* | 27 0.191 0.092 2166.9 0.000
.|* | .|. | 28 0.173 -0.044 2176.3 0.000
.|* | .|. | 29 0.163 -0.001 2184.7 0.000
.|* | .|. | 30 0.140 -0.019 2191.0 0.000
.|* | .|. | 31 0.124 -0.006 2195.9 0.000
.|* | .|. | 32 0.121 0.023 2200.6 0.000
.|* | .|* | 33 0.131 0.118 2206.1 0.000
.|* | .|. | 34 0.135 -0.022 2212.0 0.000
.|* | *|. | 35 0.137 -0.087 2218.1 0.000
.|* | .|. | 36 0.135 0.029 2224.0 0.000
Observe como las autocorrelaciones decaen y las autocorrelaciones parciales se cortan
abruptamente en el primer rezago, aunque hay picos que se salen de la bandas en el
rezago 13 y 25, esto sugiere que un modelo AR(1) o un modelo ARMA(1,1) podra
estar explicando a la serie y que tiene una tendencia estacional. Hagamos caso omiso de
la tendencia estacional y concretmonos a modelar la serie como AR o ARMA.
Estime un modelo AR(1) y un ARMA(1,1). Los resultados de la regresin son
Dependent Variable: DLINPC
Method: Least Squares
Date: 09/11/08 Time: 10:27
Sample (adjusted): 1985M04 2008M08
Included observations: 281 after adjustments
Convergence achieved after 3 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 0.015889 0.006276 2.531622 0.0119
AR(1) 0.915778 0.023883 38.34410 0.0000
R-squared 0.840505 Mean dependent var 0.017137
Adjusted R-squared 0.839933 S.D. dependent var 0.022106
S.E. of regression 0.008844 Akaike info criterion -6.611030
Sum squared resid 0.021823 Schwarz criterion -6.585134
Log likelihood 930.8497 F-statistic 1470.270
Durbin-Watson stat 1.818836 Prob(F-statistic) 0.000000
Inverted AR Roots .92
Dependent Variable: DLINPC
49
Method: Least Squares
Date: 09/11/08 Time: 10:29
Sample (adjusted): 1985M04 2008M08
Included observations: 281 after adjustments
Convergence achieved after 8 iterations
Backcast: 1985M03
Variable Coefficient Std. Error t-Statistic Prob.
C 0.016155 0.005618 2.875694 0.0043
AR(1) 0.893240 0.029143 30.64992 0.0000
MA(1) 0.140830 0.064562 2.181330 0.0300
R-squared 0.842539 Mean dependent var 0.017137
Adjusted R-squared 0.841407 S.D. dependent var 0.022106
S.E. of regression 0.008803 Akaike info criterion -6.616751
Sum squared resid 0.021545 Schwarz criterion -6.577907
Log likelihood 932.6535 F-statistic 743.7606
Durbin-Watson stat 2.025108 Prob(F-statistic) 0.000000
Observe como el segundo modelo es el que mejor se ajusta a los datos. Ahora
veamos si el proceso ARMA(1,1) es estacionario e invertible. Sobre los resultados de la
regresin d clic en View/ARMA Structure/Roots/OK, con esta instruccin aparece
el crculo unitario y las races caractersticas del modelo.
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
AR roots MA roots
Inverse Roots of AR/MA Polynomial(s)

Note como ambas races se encuentran dentro del crculo unitario por tanto se
puede decir que el modelo es estacionario e invertible.
Otra forma de diagnstico del modelo ARMA es saber el comportamiento de sus
errores despus de remover los efectos de las variables explicativas dentro del modelo,
en este caso no hay variables explicativas en el modelo. Para ver la estructura de los
errores de clic en View/ARMA Structure/Correlogram/OK.
50
0.0
0.2
0.4
0.6
0.8
1.0
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
A
u
t
o
c
o
r
r
e
l
a
t
i
o
n
-0.4
0.0
0.4
0.8
1.2
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
P
a
r
t
i
a
l

a
u
t
o
c
o
r
r
e
l
a
t
i
o
n
Tericamente, la funcin de autocorrelacin y autocorrelacin parcial decaen a cero
si el proceso ARMA es estacionario. En este caso se observa que ambas funciones
decaen a cero.
Otro elemento importante del diagnstico es la su funcin estmulo respuesta. En
View/ARMA Estructure/Impulse Reponse se encuentra esta prueba de diagnstico.
-.004
.000
.004
.008
.012
2 4 6 8 10 12 14 16 18 20 22 24
Impulse Response 2 S.E.
.00
.04
.08
.12
.16
2 4 6 8 10 12 14 16 18 20 22 24
Accumulated Response 2 S.E.
Si el proceso ARMA es estacionario la funcin estmulo respuesta decae a cero y la
funcin estmulo respuesta acumulada tiende a aumentar o disminuir en el largo plazo.
Como se observa, ambas grficas determinan que el modelo ARMA es estacionario. La
interpretacin de la funcin estmulo respuesta sera, que un cambio inesperado en el
innovacin del modelo ARMA afecta a la inflacin en los primeros meses de manera
significativa en menos de 1.0%, pero que dicho aumento se desvanece lentamente a lo
largo de dos aos.
51
MODELOS ARMA CON COMPONENTES DE TENDENCIA,
ESTACIONALIDAD Y CICLO
En la primera parte de esta gua, se modelo inpc con un modelo de tendencia cuadrtica.
Ahora se extender ese anlisis para detectar algn componente estacional y cclico en
ese variable.
* Genere doce variables Dummy con la instruccin genr d1=@seas(1) genr
d2=@seas(2) y as sucesivamente hasta la 12.
* Estime el modelo ls inpc tiempo tiempo2 d1 d2 d3 d4 d5 d6 d7 d8 d9 d10 d11
d12. Los resultados de la regresin son
Dependent Variable: INPC
Method: Least Squares
Date: 09/17/08 Time: 17:55
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
TIEMPO 0.373623 0.019829 18.84204 0.0000
TIEMPO2 0.000517 6.76E-05 7.645560 0.0000
D1 -7.915649 1.838424 -4.305672 0.0000
D2 -7.609437 1.786477 -4.259465 0.0000
D3 -7.645147 1.788549 -4.274497 0.0000
D4 -7.727057 1.790564 -4.315432 0.0000
D5 -8.069978 1.792523 -4.502022 0.0000
D6 -8.263164 1.794426 -4.604907 0.0000
D7 -8.461817 1.796272 -4.710764 0.0000
D8 -8.605199 1.798063 -4.785815 0.0000
D9 -8.192993 1.830878 -4.474899 0.0000
D10 -8.304527 1.832851 -4.530935 0.0000
D11 -8.249116 1.834766 -4.496005 0.0000
D12 -8.128494 1.836623 -4.425782 0.0000
R-squared 0.976496 Mean dependent var 58.83333
Adjusted R-squared 0.975360 S.D. dependent var 43.21315
S.E. of regression 6.783225 Akaike info criterion 6.714987
Sum squared resid 12377.27 Schwarz criterion 6.895327
Log likelihood -936.1706 Durbin-Watson stat 0.003691
Observe que todas las variables son estadsticamente significativas.
Para analizar los errores del modelo estimado, primero se tienen que generar y
guardar con un nombre o bien sobre los resultados de la regresin hacer el anlisis.
EV guarda los errores de la ltima regresin estimada con el nombre de resid que
aparece en la hoja de trabajo, por tanto nicamente se cambian de nombre para no
perderlos y trabajar con ellos. Para lograr esto, anote genr residinpc=resid
inmediatamente despus de estimar la regresin y trabjelos como cualquier serie o
sobre los resultados de la regresin de clic en View/Residual Test/ Correlogram-Q
52
Statistics/OK y aparece el correlograma de los errores con las primeras 36
autocorrelaciones.
Date: 09/17/08 Time: 18:15
Sample: 1985M02 2008M08
Included observations: 283
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|******** .|******** 1 0.992 0.992 281.55 0.000
.|******** *|. | 2 0.982 -0.157 558.30 0.000
.|*******| *|. | 3 0.970 -0.103 829.25 0.000
.|*******| *|. | 4 0.956 -0.074 1093.6 0.000
.|*******| .|. | 5 0.942 -0.023 1351.0 0.000
.|*******| .|. | 6 0.927 -0.054 1601.0 0.000
.|*******| .|. | 7 0.910 -0.050 1843.0 0.000
.|*******| .|. | 8 0.893 -0.003 2077.0 0.000
.|*******| .|. | 9 0.876 -0.041 2302.7 0.000
.|*******| .|. | 10 0.857 -0.038 2519.9 0.000
.|****** | *|. | 11 0.838 -0.060 2728.0 0.000
.|****** | .|. | 12 0.818 -0.040 2927.0 0.000
.|****** | *|. | 13 0.796 -0.073 3116.2 0.000
.|****** | .|. | 14 0.773 -0.030 3295.5 0.000
.|****** | .|. | 15 0.750 -0.023 3464.9 0.000
.|****** | .|. | 16 0.727 -0.007 3624.4 0.000
.|***** | .|. | 17 0.704 0.033 3774.5 0.000
.|***** | .|. | 18 0.680 -0.016 3915.3 0.000
.|***** | .|. | 19 0.657 -0.011 4047.2 0.000
.|***** | .|. | 20 0.634 0.003 4170.4 0.000
.|***** | .|. | 21 0.610 -0.030 4285.0 0.000
.|**** | .|. | 22 0.586 -0.032 4391.3 0.000
.|**** | .|. | 23 0.562 -0.034 4489.3 0.000
.|**** | .|. | 24 0.537 -0.031 4579.2 0.000
.|**** | *|. | 25 0.512 -0.067 4661.0 0.000
.|**** | .|. | 26 0.485 -0.017 4735.0 0.000
.|**** | .|. | 27 0.459 -0.008 4801.4 0.000
.|*** | .|. | 28 0.433 -0.016 4860.6 0.000
.|*** | .|. | 29 0.407 0.008 4913.1 0.000
.|*** | .|. | 30 0.381 -0.040 4959.3 0.000
.|*** | .|. | 31 0.354 -0.005 4999.5 0.000
.|*** | .|. | 32 0.329 0.011 5034.2 0.000
.|** | .|. | 33 0.303 -0.041 5063.8 0.000
.|** | .|. | 34 0.277 -0.040 5088.6 0.000
.|** | *|. | 35 0.249 -0.072 5108.8 0.000
.|** | .|. | 36 0.222 -0.045 5124.9 0.000
Como se puede observar, las autocorrelaciones decaen lentamente y las
autocorrelaciones parciales se cortan inmediatamente en la primera, por tanto un
componente ar(1) o arma(1,1) podra estar explicando a la serie. Estime el modelo
primero con el ar(1).
53
Se estima al INPC con la tendencia cuadrtica, con las variables estacionales y con
el componente cclico AR(1), escribiendo debajo del men principal ls inpc tiempo
tiempo2 d1 d2 d3 d4 d5 d6 d7 d8 d9 d10 d11 d12 ar(1) y enter. El resultado de la
estimacin es el siguiente
Dependent Variable: INPC
Method: Least Squares
Date: 09/17/08 Time: 18:20
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 151 iterations
Variable Coefficient Std. Error t-Statistic Prob.
TIEMPO 4.508252 5.114522 0.881461 0.3789
TIEMPO2 -0.004990 0.004246 -1.175156 0.2410
D1 -1065.079 1994.626 -0.533974 0.5938
D2 -1065.075 1994.625 -0.533973 0.5938
D3 -1065.042 1994.626 -0.533956 0.5938
D4 -1065.054 1994.626 -0.533962 0.5938
D5 -1065.328 1994.626 -0.534099 0.5937
D6 -1065.453 1994.626 -0.534162 0.5937
D7 -1065.583 1994.625 -0.534227 0.5936
D8 -1065.658 1994.625 -0.534265 0.5936
D9 -1065.579 1994.625 -0.534225 0.5936
D10 -1065.634 1994.626 -0.534253 0.5936
D11 -1065.523 1994.626 -0.534197 0.5936
D12 -1065.347 1994.626 -0.534109 0.5937
AR(1) 0.995746 0.003207 310.4564 0.0000
R-squared 0.999935 Mean dependent var 59.03838
Adjusted R-squared 0.999932 S.D. dependent var 43.15184
S.E. of regression 0.355585 Akaike info criterion 0.821618
Sum squared resid 33.75960 Schwarz criterion 1.015336
Log likelihood -100.8481 Durbin-Watson stat 0.535676
Inverted AR Roots 1.00
Observe como la variable tiempo y tiempo al cuadrado y las dummy se vuelven
estadsticamente no significativas, por tanto se prueba con una regresin a partir del
origen sin variables estacionales (otro modelo que prodra proponerse es uno que parta
del origen, con 11 variables dummy, el componente de tendencia y el trmino ar(1)
como ejercicio estime este modelo). Escriba debajo del men principal ls inpc tiempo
tiempo2 ar(1) y enter.
Dependent Variable: INPC
Method: Least Squares
Date: 09/12/08 Time: 12:18
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 20 iterations
54
Variable Coefficient Std. Error t-Statistic Prob.
TIEMPO 0.318142 0.054684 5.817768 0.0000
TIEMPO2 0.000489 0.000186 2.628859 0.0090
AR(1) 0.998867 0.003627 275.3996 0.0000
R-squared 0.999914 Mean dependent var 59.03838
Adjusted R-squared 0.999913 S.D. dependent var 43.15184
S.E. of regression 0.402439 Akaike info criterion 1.028035
Sum squared resid 45.18603 Schwarz criterion 1.066778
Log likelihood -141.9529 Durbin-Watson stat 0.533647
Observe como las tres variables son estadsticamente significativas pero el DW indica
autocorrelacin en los errores.
Probemos ahora con el modelo ARMA(1,1). Escriba ls inpc tiempo tiempo2 ar(1)
ma(1) y enter. Los resultados de la regresin son los siguientes.
Dependent Variable: INPC
Method: Least Squares
Date: 09/12/08 Time: 12:27
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 16 iterations
Backcast: 1985M02
Variable Coefficient Std. Error t-Statistic Prob.
TIEMPO 0.318571 0.067156 4.743750 0.0000
TIEMPO2 0.000491 0.000232 2.119991 0.0349
AR(1) 0.998148 0.004605 216.7711 0.0000
MA(1) 0.644706 0.045849 14.06141 0.0000
R-squared 0.999949 Mean dependent var 59.03838
Adjusted R-squared 0.999948 S.D. dependent var 43.15184
S.E. of regression 0.311194 Akaike info criterion 0.517285
Sum squared resid 26.92208 Schwarz criterion 0.568944
Log likelihood -68.93724 Durbin-Watson stat 1.591259
Observe que todas las variables son estadsticamente significativas, el DW es
ms alto y los estadsticos de Akaike y Schwarz se hacen ms pequeos, por tanto
sigamos el anlisis con este modelo.
Analicemos el correlograma de los residuos para detectar si estos son ruido
blanco. Escriba sobre los resultados de la regresin View/Residal
Test/Correlogram/Squared Residuals.
55
Date: 09/12/08 Time: 12:41
Sample: 1985M03 2008M08
Included observations: 282
Q-statistic
probabilities
adjusted for 2 ARMA
term(s)
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|*** | .|*** | 1 0.349 0.349 34.652
.|* | .|. | 2 0.124 0.003 39.063
.|* | .|. | 3 0.083 0.044 41.023 0.000
.|. | *|. | 4 -0.039 -0.093 41.469 0.000
.|. | .|. | 5 -0.017 0.025 41.548 0.000
.|. | .|. | 6 0.014 0.020 41.609 0.000
.|. | .|. | 7 0.008 0.005 41.626 0.000
.|. | .|. | 8 0.065 0.062 42.852 0.000
.|* | .|. | 9 0.099 0.062 45.748 0.000
.|. | .|. | 10 0.040 -0.021 46.210 0.000
.|* | .|* | 11 0.123 0.117 50.679 0.000
.|** | .|* | 12 0.245 0.193 68.511 0.000
.|* | *|. | 13 0.077 -0.076 70.261 0.000
.|. | .|. | 14 0.002 -0.043 70.261 0.000
.|. | .|. | 15 -0.039 -0.046 70.715 0.000
*|. | .|. | 16 -0.065 -0.006 71.982 0.000
.|. | .|. | 17 -0.045 -0.024 72.586 0.000
.|. | .|. | 18 0.007 0.028 72.599 0.000
.|. | *|. | 19 -0.051 -0.082 73.393 0.000
.|* | .|* | 20 0.129 0.163 78.513 0.000
.|* | .|. | 21 0.136 0.023 84.179 0.000
.|. | .|. | 22 0.012 -0.050 84.222 0.000
.|. | .|. | 23 0.062 0.022 85.421 0.000
.|* | .|* | 24 0.110 0.073 89.188 0.000
.|. | .|. | 25 0.058 0.028 90.244 0.000
.|. | *|. | 26 -0.037 -0.086 90.676 0.000
.|. | .|. | 27 -0.035 0.020 91.058 0.000
.|. | .|. | 28 -0.048 -0.015 91.778 0.000
.|. | .|. | 29 -0.016 -0.001 91.863 0.000
.|. | .|. | 30 -0.015 -0.031 91.932 0.000
.|. | .|. | 31 -0.013 0.021 91.984 0.000
.|. | *|. | 32 -0.020 -0.128 92.116 0.000
.|* | .|* | 33 0.098 0.132 95.197 0.000
.|* | .|. | 34 0.071 0.029 96.806 0.000
.|. | .|. | 35 0.025 -0.014 97.016 0.000
.|. | .|. | 36 0.046 -0.017 97.718 0.000
Note que hay dos picos que se salen de las bandas en la primera autocorrelacin y
autocorrelacin parcial y la autocorrelacin 12 tambin se sale de las bandas. Estos dos
56
problemas estaran indicando que los errores no son ruido blanco y que hay una
tendencia estacional en el rezago 12. El problema de tendencia estacional podra
corregirse agregando una variable de diferencia estacional sma(12) en el modelo. Con
esta variable el modelo a estimar seria ls inpc tiempo tiempo2 ar(1) ma(1) sma(12) y
enter. Los resultados de la regresin son los siguientes.
Dependent Variable: INPC
Method: Least Squares
Date: 09/12/08 Time: 12:53
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 139 iterations
Backcast: 1984M02 1985M02
Variable Coefficient Std. Error t-Statistic Prob.
TIEMPO 0.220107 0.087283 2.521760 0.0122
TIEMPO2 0.002174 0.000474 4.589293 0.0000
AR(1) 1.011197 0.002188 462.2232 0.0000
MA(1) 0.621392 0.047103 13.19214 0.0000
SMA(12) 0.374582 0.058147 6.441962 0.0000
R-squared 0.999959 Mean dependent var 59.03838
Adjusted R-squared 0.999958 S.D. dependent var 43.15184
S.E. of regression 0.278517 Akaike info criterion 0.298899
Sum squared resid 21.48743 Schwarz criterion 0.363472
Log likelihood -37.14477 Durbin-Watson stat 1.615289
Inverted AR Roots 1.01
Estimated AR process is nonstationary
Inverted MA Roots .89-.24i .89+.24i .65-.65i .65+.65i
.24+.89i .24-.89i -.24+.89i -.24-.89i
-.62 -.65+.65i -.65+.65i -.89-.24i
-.89+.24i
Veamos nuevamente el correlograma para ver si se corrige la tendencia estacionaria
57
Date: 09/12/08 Time: 12:54
Sample: 1985M03 2008M08
Included observations: 282
Q-statistic
probabilities
adjusted for 3 ARMA
term(s)
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|*** | .|*** | 1 0.389 0.389 43.036
.|** | .|. | 2 0.199 0.057 54.418
.|* | .|. | 3 0.145 0.058 60.434
.|. | *|. | 4 -0.021 -0.123 60.565 0.000
.|. | .|. | 5 -0.002 0.033 60.567 0.000
.|. | .|. | 6 0.011 0.014 60.600 0.000
.|. | .|. | 7 0.021 0.034 60.733 0.000
.|* | .|. | 8 0.067 0.046 62.032 0.000
.|. | .|. | 9 0.046 -0.002 62.659 0.000
.|. | .|. | 10 -0.000 -0.038 62.659 0.000
.|. | .|. | 11 0.016 0.019 62.734 0.000
.|. | .|. | 12 0.025 0.029 62.917 0.000
.|. | .|. | 13 -0.011 -0.027 62.955 0.000
.|. | .|. | 14 -0.042 -0.051 63.492 0.000
.|. | .|. | 15 -0.036 -0.009 63.888 0.000
.|. | .|. | 16 -0.039 -0.011 64.351 0.000
*|. | .|. | 17 -0.061 -0.039 65.464 0.000
.|. | .|. | 18 -0.014 0.029 65.527 0.000
.|. | .|. | 19 -0.047 -0.051 66.213 0.000
.|. | .|* | 20 0.055 0.108 67.147 0.000
.|. | .|. | 21 0.044 -0.013 67.731 0.000
.|. | .|. | 22 -0.014 -0.030 67.792 0.000
.|. | .|. | 23 -0.003 -0.016 67.794 0.000
.|. | .|. | 24 0.012 0.040 67.843 0.000
.|. | .|. | 25 0.008 0.013 67.861 0.000
.|. | .|. | 26 -0.035 -0.056 68.254 0.000
.|. | .|. | 27 -0.033 -0.014 68.595 0.000
.|. | .|. | 28 -0.025 -0.008 68.799 0.000
.|. | .|. | 29 -0.043 -0.027 69.377 0.000
.|. | .|. | 30 -0.024 0.007 69.565 0.000
.|. | .|. | 31 -0.011 0.003 69.601 0.000
.|. | *|. | 32 -0.049 -0.064 70.366 0.000
.|. | .|* | 33 0.038 0.082 70.827 0.000
.|. | .|. | 34 0.039 0.023 71.319 0.000
.|. | .|. | 35 -0.022 -0.041 71.481 0.000
.|. | .|. | 36 0.033 0.025 71.844 0.000
58
Obseve como se removi la tendencia estacionaria.
Ahora veamos si la estructura ARMA del modelo es estacionaria e invertible, d clic en
View/ARMA Structure/Roots/OK y aparece el crculo unitario y las races
caractersticas del modelo.
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
AR roots MA roots
Inverse Roots of AR/MA Polynomial(s)
Note que tiene una raz fuera del crculo unitario y el resto dentro de l. Esto indica que
el proceso no es estacionario. Esto se confirma con el correlograma y con la funcin
estmulo respuesta de la estructura de los residuales.
0.6
0.7
0.8
0.9
1.0
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
A
u
t
o
c
o
r
r
e
l
a
t
i
o
n
-0.4
0.0
0.4
0.8
1.2
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
P
a
r
t
i
a
l

a
u
t
o
c
o
r
r
e
l
a
t
i
o
n
59
0.2
0.4
0.6
0.8
1.0
2 4 6 8 10 12 14 16 18 20 22 24
Impulse Response 2 S.E.
0
5
10
15
20
2 4 6 8 10 12 14 16 18 20 22 24
Accumulated Response 2 S.E.
Adems, es conveniente hacer pruebas de heteroscedasticidad, normalidad y
autocorrelacin de dicho modelo. Para ello sobre los resultados de la regresin de clic
en View/Residal Test/ARCH Tests, View/Residal Test/Histogram y View/Residal
Test/Serial Correlation LM Test, repectivamente
ARCH Test:
F-statistic 49.65871 Prob. F(1,279) 0.000000
Obs*R-squared 42.45771 Prob. Chi-Square(1) 0.000000
0
10
20
30
40
50
60
70
80
90
-0.5 -0.0 0.5 1.0 1.5
Series: Residuals
Sample 1985M03 2008M08
Observations 282
Mean -0.015217
Median -0.075024
Maximum 1.500330
Minimum -0.869809
Std. Dev. 0.276107
Skewness 1.305576
Kurtosis 7.586434
Jarque-Bera 327.2785
Probability 0.000000
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 32.07839 Prob. F(2,275) 0.000000
Obs*R-squared 52.64766 Prob. Chi-Square(2) 0.000000
Observe que el modelo presenta heteroscedasticidad, no normalidad y autocorrelacin
60
PREDICCIN DEL MODELO ARMA
Suponga que el modelo anterior para inpc, cumpli con las propiedades deseables y fue
elegido como el mejor para su uso en el pronstico, por tanto ahora el objetivo es
predecir el inpc hasta el mes de diciembre del ao 2008 Para llevar cabo el pronstico,
el rango debe de comprender de 1985 a 2008 y la serie tiempo y tiempo al cuadrado ya
tienen que estar generadas para ese tamao de rango. Si el rango es menor hay que
expandirlo antes de predecir dando clic en Range/End Date/ anotar 2008.12 y generar
la variable tiempo y tiempo al cuadrado para todo este rango.
Cheque el Sample, Este debe estar de 1985.02 al ltimo mes para el cual la variable
dependiente tiene observaciones.
Estime la regresin del modelo elegido para su uso en el pronstico (ls inpc c
tiempo tiempo2 ar(1) ma(1) sma(1) o si guardo la regresin con un nombre de clic
en ese nombre y Show para que la muestre.
Sobre los resultados de la regresin de clic en Forecast/OK (antes de dar OK
observe si el Sample contiene la muestra expandida). Despus de esta instruccin
aparece la tabla y la grfica del coeficiente de desigualdad de Theil
0
100
200
300
400
500
86 88 90 92 94 96 98 00 02 04 06 08
INPCARMASMAF
Forecast: INPCARMASMAF
Actual: INPC
Forecast sample: 1985M01 2008M12
Adjusted sample: 1985M03 2008M12
Included observations: 282
Root Mean Squared Error 49.26952
Mean Absolute Error 36.45383
Mean Abs. Percent Error 65.69297
Theil Inequality Coefficient 0.253968
Bias Proportion 0.547431
Variance Proportion 0.398475
Covariance Proportion 0.054093
Como se observa la proporcin de sesgo, varianza y covarianza no se encuentran dentro
de los lmites permitidos, al igual que el coefieciente de desigualdad de Theil. Estos
resultados indican que el pronstico no es favorable, como consecuencia de todos los
problemas que tuvo el modelo.
En este momento EV guarda la variable estimada por el modelo y su pronstico
fuera de la muestra con el nombre inpcf automticamente, si gusta cambie ese
nombre.
Muestre la grfica del inpc y su pronstico por lo menos cinco aos dentro de la
muestra y algunos meses fuera de la muestra. Para ello modifique el Sample antes
de graficar. D clic en Sample sobre la hoja de trabajo y modifique anotando
2001.06 2010.12 y OK. Despus, sobre la hoja de trabajo de clic y arrastre el mouse
para sombrear a la variable original y la estimada (inpc e inpcf) y clic en Show para
que EV las muestre. Sobre la lista de las variables d clic en View/Graph/Line y
aparece

61
0
40
80
120
160
200
240
280
86 88 90 92 94 96 98 00 02 04 06 08
INPC INPCARMASMAF
Observe que la prediccin en los modelo ARMA contienen menos movimientos que
la variable original.
La prediccin anterior se realiz, para un pronstico dinmico, pero tambin existe la
prediccin esttica, sta generalmente se ajusta mejor a los datos pero slo proporciona
un dato ms all de la muestra. Para hacer este tipo de prediccin de clic sobre los
resultados de la regresin Forecast/OK y ubique el cursor en Estatic Forecat. Los
resultados del pronstico son los siguientes.
0
20
40
60
80
100
120
140
86 88 90 92 94 96 98 00 02 04 06 08
INPCF
Forecast: INPCF
Actual: INPC
Forecast sample: 1985M01 2008M12
Adjusted sample: 1985M03 2008M09
Included observations: 282
Root Mean Squared Error 0.276037
Mean Absolute Error 0.194868
Mean Abs. Percent Error 0.925170
Theil Inequality Coefficient 0.001888
Bias Proportion 0.003039
Variance Proportion 0.000009
Covariance Proportion 0.996952
Note la diferencia con el pronstico anterior, el ajuste es casi perfecto. La grfica de
las realizaciones reales del ipnc y su pronstico es
0
20
40
60
80
100
120
140
86 88 90 92 94 96 98 00 02 04 06 08
INPC INPCFESTATICO
62
El valor las realizaciones reales del ipnc y su pronstico es
INPC INPCFSTATICO
2008M01 126.1460 125.7525
2008M02 126.5210 126.7029
2008M03 127.4380 126.7052
2008M04 127.7280 128.0561
2008M05 127.5900 127.5527
2008M06 128.1180 127.8266
2008M07 128.8320 128.6450
2008M08 129.5760 129.2233
2008M09 NA 130.1703
Como ejercicio, pronostique la inflacin para Mxico. Con los conocimientos
adquiridos, ajuste un modelo lo mejor posible.
RACES UNITARIA, MODELOS ARIMA Y PRNOSTICO
Generalmente las variables econmicas y financieras no son estacionarias en covarianza
o bien no tienden al equilibrio a largo plazo, este problema puede ser generado por que
la variable es de tendencia determinista o de tendencia estocstica (de raz unitaria).
Para detectar si una variable es de raz unitaria existen varias pruebas. Una de ellas,
consiste en observar el correlograma de la serie original y si la autocorrelacin muestral
presenta un largo proceso de decaimiento, esta serie es de tendencia estocstica. Otras
pruebas complementarias a sta, son las de Dikey Fuller y Phillips Perron que se
encuentran en el paquete EV.
Un mtodo para lograr que una variable sea estacionaria en covarianza es diferenciar
la serie tantas veces como sea necesario. Otro mtodo para eliminar la tendencia
estocstica en la serie, es la transformacin de sta por medio del cambio porcentual, la
diferencia del logaritmo de la serie, etc.
Como ejemplo considere la serie inflacin, la cual ya es una serie transformada o bien
es el cambio porcentual del INPC.
Para ver el correlograma mande mostrar la serie con Show y escriba el nombre de la
variable o d clic en la variable y luego Show, sobre la serie mostrada de clic en
View/Correlogram/Level/ OK. El correlograma de la inflacin en niveles es el que se
mostr en la seccin Races de los modelos ARMA .
Observe que las autocorrelaciones de la inflacin decaen pero no lo hacen
rpidamente, esto indica que probablemente la variable sea de raz unitaria.
Pasemos a realizar las pruebas Dikey-Fuller y Phillis Perron. Para ello de clic sobre
los resultados del correlograma en View/Unit Root Test/Argumented DF/Level y OK
y despus haga lo mismo para la prueba PP View/Unit Root Test/Argumented
PP/Level. Con esta instruccin, aparece una tabla con tres valores crticos a un nivel de
significancia del 10.0% (90.0% de confianza), del 5.0% (95.0% de confianza), 1.0%
(99.0% de confianza) y el valor del estadstico DF o el valor del estadstico PP. El
criterio de decisin es el siguiente: si el valor del estadstico DF o el de PP es mayor, en
trminos absolutos, a los valores crticos, se rechaza que la variable tenga una raz
63
unitaria, por el contrario si el valor del estadstico DF o PP es menor en trminos
absolutos que los tres valores crticos, no se rechaza la existencia de una raz unitaria en
la serie.
Resultados de la prueba DF
Null Hypothesis: DLINPC has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=15)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -3.526430 0.0080
Test critical values: 1% level -3.453483
5% level -2.871619
10% level -2.572213
*MacKinnon (1996) one-sided p-values.
Resultados de la prueba PP
Null Hypothesis: DLINPC has a unit root
Exogenous: Constant
Bandwidth: 6 (Newey-West using Bartlett kernel)
Adj. t-Stat Prob.*
Phillips-Perron test statistic -3.287694 0.0164
Test critical values: 1% level -3.453483
5% level -2.871619
10% level -2.572213
Los resultados de la prueba DF indican que se rechaza la hiptesis nula de la
existencia de raz unitaria en la serie a los tres niveles de singnificancia.
Los resultados de la prueba PP muestran que a los niveles de 90.0% y al 95.0% de
confianza se rechaza la hiptesis nula de la existencia de una raz unitaria en la serie
pero no al 99.0%.
Como DF rechaza la hiptesis nula en sus tres niveles de confianza y PP rechaza al
90.0% y al 95.0% de confianza se decide que la variable inflacin es estacionaria. Por
tanto se puede modelar como un proceso ARMA.
Analicemos ahora a la variable Cetes a 28 das con datos mensuales de 1986 a agosto
de 2008. Su correlograma es
64
Date: 09/12/08 Time: 13:46
Sample: 1986M01 2008M12
Included observations: 272
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|*******| .|*******| 1 0.970 0.970 258.77 0.000
.|*******| ***|. | 2 0.919 -0.379 491.66 0.000
.|*******| .|* | 3 0.869 0.150 700.71 0.000
.|****** | .|. | 4 0.827 0.046 890.74 0.000
.|****** | .|* | 5 0.796 0.120 1067.6 0.000
.|****** | .|. | 6 0.774 0.039 1235.7 0.000
.|****** | .|. | 7 0.757 0.026 1396.9 0.000
.|****** | .|. | 8 0.741 0.014 1551.8 0.000
.|****** | .|. | 9 0.722 -0.024 1699.6 0.000
.|***** | .|. | 10 0.703 0.035 1840.2 0.000
.|***** | .|. | 11 0.682 -0.040 1972.8 0.000
.|***** | *|. | 12 0.656 -0.067 2096.1 0.000
.|***** | .|. | 13 0.630 0.034 2210.2 0.000
.|***** | .|. | 14 0.606 0.005 2316.3 0.000
.|**** | .|. | 15 0.585 -0.004 2415.6 0.000
.|**** | .|. | 16 0.564 -0.044 2508.1 0.000
.|**** | *|. | 17 0.536 -0.141 2592.1 0.000
.|**** | .|. | 18 0.502 -0.037 2666.1 0.000
.|**** | .|* | 19 0.470 0.068 2731.1 0.000
.|*** | .|. | 20 0.443 0.013 2789.3 0.000
.|*** | .|. | 21 0.422 -0.017 2842.0 0.000
.|*** | .|. | 22 0.403 -0.012 2890.4 0.000
.|*** | *|. | 23 0.382 -0.059 2933.9 0.000
.|*** | .|. | 24 0.358 0.003 2972.5 0.000
.|*** | *|. | 25 0.329 -0.118 3005.2 0.000
.|** | .|* | 26 0.299 0.069 3032.4 0.000
.|** | .|* | 27 0.278 0.107 3056.0 0.000
.|** | .|. | 28 0.263 -0.021 3077.1 0.000
.|** | .|. | 29 0.251 0.036 3096.4 0.000
.|** | .|. | 30 0.242 0.021 3114.4 0.000
.|** | .|. | 31 0.234 -0.012 3131.4 0.000
.|** | .|. | 32 0.225 0.013 3147.1 0.000
.|** | .|. | 33 0.214 0.033 3161.4 0.000
.|** | .|. | 34 0.203 0.024 3174.4 0.000
.|* | *|. | 35 0.190 -0.064 3185.7 0.000
.|* | .|. | 36 0.176 0.031 3195.5 0.000
El decaimiento lento de las autocorrelaciones estara indicando que la serie cetes28 no
es estacionaria en covarianza.
Hagamos ahora las pruebas de DF y PP para esta serie
Resultados para la prueba DF en niveles
65
Null Hypothesis: CETES28 has a unit root
Exogenous: Constant
Lag Length: 2 (Automatic based on SIC, MAXLAG=15)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.548038 0.1054
Test critical values: 1% level -3.454534
5% level -2.872081
10% level -2.572460
*MacKinnon (1996) one-sided p-values.
Resultados para la prueba PP en niveles
Null Hypothesis: CETES28 has a unit root
Exogenous: Constant
Bandwidth: 12 (Newey-West using Bartlett kernel)
Adj. t-Stat Prob.*
Phillips-Perron test statistic -2.018003 0.2791
Test critical values: 1% level -3.454353
5% level -2.872001
10% level -2.572417
*MacKinnon (1996) one-sided p-values.
Como se observa en ambos resultados, las dos pruebas no rechazan la hiptesis nula de
la existencia de raz unitaria en la serie a los tres niveles de significancia, esto indica
que la tasa de los cetes a 28 das es una serie con tendencia estocstica en niveles.
Para corregir este problema trabajemos con la serie en primeras diferencias.
Hagamos las pruebas respectivas en primeras diferencias dando clic en View/Unit Root
Test/Argumented DF/1 difference/OK sobre la serie cetes28 mostrada y View/Unit
Root Test/Argumented PP/1 difference/OK.
Los resultados de la prueba DF en primeras diferencias
Null Hypothesis: D(CETES28) has a unit root
Exogenous: Constant
Lag Length: 3 (Automatic based on SIC, MAXLAG=15)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -10.22204 0.0000
Test critical values: 1% level -3.454719
5% level -2.872162
10% level -2.572503
66
Los resultados de la prueba PP en primeras diferencias
Null Hypothesis: D(CETES28) has a unit root
Exogenous: Constant
Bandwidth: 28 (Newey-West using Bartlett kernel)
Adj. t-Stat Prob.*
Phillips-Perron test statistic -9.283409 0.0000
Test critical values: 1% level -3.454443
5% level -2.872041
10% level -2.572439
Los resultados de ambas pruebas, rechazan la hiptesis nula de raz unitaria en la
primera diferencia de la serie.
Para detectar alguna tendencia estacional en la serie cetes28 se analiza el
correlograma de la primera diferencia de la serie. Si el correlograma tiene picos que
salgan de la bandas en alguna autocorrelaciones muy alejadas, esto indicara algn
elemento de tendencia estacional en la serie y se tendra que diferenciar esa tendencia
estacional generando la serie en primeras diferencia estocsticas y el orden de la
estacional con la instruccin genr dcetes28=d(cetes28,1, algn orden en nmero);
con esta instruccin, EV genera la diferencia necesaria de la serie para resolver el
problema de tendencia estacional y estocstica. Por tanto, analice el correlograma de la
primera diferencia de cetes28
Date: 09/12/08 Time: 14:01
Sample: 1986M01 2008M12
Included observations: 271
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|*** | .|*** | 1 0.442 0.442 53.630 0.000
*|. | **|. | 2 -0.058 -0.316 54.558 0.000
*|. | .|. | 3 -0.180 -0.009 63.503 0.000
**|. | **|. | 4 -0.239 -0.205 79.321 0.000
**|. | .|. | 5 -0.205 -0.053 90.997 0.000
*|. | *|. | 6 -0.117 -0.086 94.822 0.000
.|. | .|. | 7 -0.048 -0.054 95.472 0.000
.|. | .|. | 8 0.019 -0.019 95.575 0.000
.|. | *|. | 9 0.022 -0.073 95.711 0.000
.|. | .|. | 10 0.054 0.041 96.530 0.000
.|* | .|. | 11 0.074 -0.011 98.106 0.000
.|. | .|. | 12 0.016 -0.040 98.180 0.000
.|. | .|. | 13 -0.054 -0.056 99.019 0.000
.|. | .|. | 14 -0.047 0.007 99.654 0.000
.|. | .|. | 15 0.006 0.024 99.665 0.000
.|* | .|* | 16 0.147 0.172 105.92 0.000
.|* | .|. | 17 0.128 -0.038 110.71 0.000
67
.|. | *|. | 18 -0.047 -0.080 111.34 0.000
*|. | .|. | 19 -0.111 -0.003 114.93 0.000
*|. | .|. | 20 -0.096 -0.019 117.66 0.000
*|. | .|. | 21 -0.062 0.008 118.81 0.000
.|. | .|. | 22 -0.025 -0.037 119.00 0.000
.|. | *|. | 23 -0.042 -0.072 119.52 0.000
.|. | .|. | 24 -0.034 -0.033 119.86 0.000
.|. | .|. | 25 0.019 0.012 119.97 0.000
.|* | .|. | 26 0.077 0.031 121.76 0.000
.|. | *|. | 27 0.039 -0.092 122.22 0.000
.|. | .|. | 28 -0.025 -0.040 122.42 0.000
.|. | .|. | 29 -0.019 0.032 122.53 0.000
.|. | .|. | 30 -0.005 -0.004 122.53 0.000
.|. | .|. | 31 0.018 0.032 122.63 0.000
.|. | .|. | 32 0.018 -0.057 122.73 0.000
.|. | .|. | 33 0.004 -0.017 122.74 0.000
.|. | .|* | 34 0.023 0.072 122.91 0.000
.|. | .|. | 35 -0.010 -0.019 122.93 0.000
.|. | .|. | 36 -0.028 0.006 123.18 0.000
Como se observa los picos que salen de las bandas del 5.0% de significancia
indicaran que la variable cambio absoluto en lo la tasa de inters de los cetes a 28 das
estara explicada por los trminos ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5) ma(6). La
regresin que se estima es ls dcetes28 c ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5)
ma(6) . El resultado de la regresin es

Dependent Variable: DCETES28
Method: Least Squares
Date: 09/12/08 Time: 15:09
Sample (adjusted): 1986M06 2008M08
Included observations: 267 after adjustments
Convergence achieved after 13 iterations
Backcast: 1985M12 1986M05
Variable Coefficient Std. Error t-Statistic Prob.
C -0.308749 0.160383 -1.925076 0.0553
AR(1) 0.901089 0.059736 15.08456 0.0000
AR(2) -0.575480 0.041864 -13.74631 0.0000
AR(4) 0.416018 0.047587 8.742256 0.0000
MA(1) -0.350087 0.090246 -3.879265 0.0001
MA(3) 0.335906 0.034020 9.873783 0.0000
MA(4) -0.581564 0.053741 -10.82152 0.0000
MA(5) -0.402255 0.056032 -7.179090 0.0000
MA(6) 0.121225 0.056901 2.130465 0.0341
R-squared 0.357763 Mean dependent var -0.270861
Adjusted R-squared 0.337848 S.D. dependent var 6.058999
S.E. of regression 4.930372 Akaike info criterion 6.061832
68
Sum squared resid 6271.610 Schwarz criterion 6.182751
Log likelihood -800.2546 F-statistic 17.96507
Durbin-Watson stat 2.009858 Prob(F-statistic) 0.000000
Inverted AR Roots .87 .29+.89i .29-.89i -.55
Inverted MA Roots .96 .27-.96i .27+.96i .23
-.69+.25i -.69-.25i
Observe que todos los coeficientes son estadsticamente significativos, el DW estara
indicando no autocorrelacin, aunque el r cuadrado ajustado es bajo. Se tendran que
proponer otros modelos y escoger el mejor. Pero sopongamos que este es el nico y
analicemos la calidad del modelo ARIMA.
Analicemos el correlograma para saber si los errores son ruido blanco
Date: 09/12/08 Time: 15:30
Sample: 1986M06 2008M08
Included observations: 267
Q-statistic
probabilities
adjusted for 8 ARMA
term(s)
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|. | .|. | 1 -0.006 -0.006 0.0085
.|* | .|* | 2 0.074 0.074 1.5076
*|. | *|. | 3 -0.059 -0.058 2.4475
.|. | .|. | 4 -0.046 -0.052 3.0230
.|. | .|. | 5 -0.046 -0.038 3.5945
*|. | *|. | 6 -0.083 -0.080 5.4749
.|. | .|. | 7 -0.016 -0.017 5.5492
.|* | .|* | 8 0.070 0.076 6.9031
.|. | .|. | 9 0.042 0.034 7.4039 0.007
.|. | .|. | 10 0.045 0.024 7.9595 0.019
.|. | .|. | 11 0.039 0.035 8.3792 0.039
.|* | .|* | 12 0.066 0.066 9.6018 0.048
.|. | .|. | 13 -0.017 -0.011 9.6854 0.085
.|. | .|. | 14 0.037 0.050 10.079 0.121
.|. | .|. | 15 -0.050 -0.026 10.800 0.148
.|* | .|* | 16 0.123 0.128 15.132 0.057
.|* | .|* | 17 0.133 0.159 20.216 0.017
.|. | .|. | 18 -0.037 -0.048 20.610 0.024
.|. | *|. | 19 -0.042 -0.061 21.117 0.032
.|. | .|. | 20 -0.045 -0.024 21.709 0.041
.|. | .|. | 21 -0.036 -0.025 22.079 0.054
.|. | .|. | 22 -0.016 -0.003 22.155 0.075
.|. | .|. | 23 -0.033 -0.016 22.476 0.096
.|. | .|. | 24 0.042 0.008 22.997 0.114
.|. | .|. | 25 0.019 -0.023 23.101 0.146
.|* | .|. | 26 0.069 0.039 24.526 0.139
.|. | .|. | 27 0.028 0.019 24.762 0.169
69
.|. | *|. | 28 -0.037 -0.073 25.169 0.195
.|. | .|. | 29 0.040 0.042 25.652 0.220
.|. | .|. | 30 0.002 0.033 25.653 0.267
.|. | .|. | 31 0.007 0.020 25.668 0.317
.|. | .|. | 32 0.007 0.026 25.684 0.369
.|. | .|. | 33 -0.019 -0.050 25.796 0.419
.|* | .|. | 34 0.070 0.051 27.319 0.393
.|. | .|. | 35 -0.016 0.022 27.397 0.443
.|. | .|. | 36 -0.026 -0.018 27.605 0.486
Note que los errores son ruido blanco.
Las races del modelo son
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
AR roots MA roots
Inverse Roots of AR/MA Polynomial(s)
Observe que dos de sus races son unitaria, mientras que el resto son de modulo menor
que la unidad.
Observe, que los trminos ar estn alternando en signo pero an sigue siendo
significativo el ar(4) y el criterio de Akaike y Schuwarz son menores en el segundo
modelo, por tanto este modelo sera el elegido para su uso en el pronstico. Sin
embargo, hay que analizar si los errores del modelo cumplen con las propiedades
deseables.
70
-.4
-.2
.0
.2
.4
.6
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
A
u
t
o
c
o
r
r
e
l
a
t
i
o
n
-.4
-.2
.0
.2
.4
.6
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
P
a
r
t
i
a
l

a
u
t
o
c
o
r
r
e
l
a
t
i
o
n
-4
-2
0
2
4
6
2 4 6 8 10 12 14 16 18 20 22 24
Impulse Response 2 S.E.
0
2
4
6
8
10
2 4 6 8 10 12 14 16 18 20 22 24
Accumulated Response 2 S.E.
La funcin estmulo respuesta indica que un cambio inesperado en las innovaciones
de modelo afectan a los cambios absolutos de los cetes negativamente de tres meses a
seis meses y despus el efecto es menor y de forma cclica.
Las autocorrelaciones y autocorrelaciones parciales decaen lentamente a cero esto es
producto del valor de sus races.
Adems se realice algunas pruebas ms
ARCH Test:
F-statistic 9.406252 Prob. F(1,264) 0.002387
Obs*R-squared 9.151448 Prob. Chi-Square(1) 0.002485
71
0
20
40
60
80
100
120
-37.5 -25.0 -12.5 0.0 12.5 25.0
Series: Residuals
Sample 1986M06 2008M08
Observations 267
Mean -0.007522
Median 0.197002
Maximum 32.24053
Minimum -35.48912
Std. Dev. 4.855659
Skewness 0.371997
Kurtosis 24.11844
Jarque-Bera 4967.781
Probability 0.000000
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 3.446707 Prob. F(2,256) 0.033336
Obs*R-squared 7.000468 Prob. Chi-Square(2) 0.030190
Observe que errores del modelo son heteroscedsticos, no de distribuyen en forma
normal, pero no muestran autocorrelacin.
Suponga que los resultados del modelo fueron buenos y que se quiere predecir la
variable cetes28 en unidades originales no en primeras diferencias por tanto estime la
regresin ls d(cetes28) c ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5) ma(6), observe
como se escribe la variable dependiente a diferencia del modelo anterior. Sobre los
resultados de la regresin haga clic en Forecast y EV le hace el pronstico de la serie
original. Los resultados del pronstico son:
-120
-80
-40
0
40
80
120
160
86 88 90 92 94 96 98 00 02 04 06 08
CETES28F
Forecast: CETES28F
Actual: CETES28
Forecast sample: 1986M01 2008M12
Adjusted sample: 1986M06 2008M12
Included observations: 267
Root Mean Squared Error 28.91294
Mean Absolute Error 24.36238
Mean Abs. Percent Error 156.1920
Theil Inequality Coefficient 0.320067
Bias Proportion 0.527653
Variance Proportion 0.013267
Covariance Proportion 0.459081
Observe que estos resultados no son satisfactorios para un prnostico dinmico.
Para mejorar el pronstico seria conveniente introducir unas variables indicadoras de
estacionalidad desde el inicio. Como ejercicio proponga otro modelo de dcetes28 con
variables Dummy y un pronstico esttico.
72
ESTIMACIN DE MODELOS ARCH Y GARCH
Engle (1982) presenta una clase de modelos capaces de explicar periodos de alta
volatilidad con aquellos de relativa volatilidad. La metodologa de Engle es mostrar
primero que la varianza condicional de los errores de una serie puede variar mientras
que la varianza incondicional es una constante y en segundo lugar cmo se puede
modelar la varianza condicional heteroscedstica por medio de un proceso AR. Este tipo
de modelos reciben el nombre de modelos de Heteroscedasticidad Condicional
Autorregresiva (ARCH). Por ejemplo un modelo ARCH (1) se expresa como:
t t t
y a a y + +
1 1 0
donde
2
1 1 0
+
t t t
v
Con
t
v
= ruido blanco,
1 t

es independiente de
t
v
y 1 0
y
son constantes.
Adems las condiciones de estabilidad de los parmetros exigen que
1 0 0
1 0
y
.
Generalizando, el modelo ARCH (q) se expresa como:
2
1
0 i t i
q
i
t t
v

+
Donde
t
v
es ruido blanco y las condiciones sobre los parmetros que garantizan la
estabilidad son ahora
1 . . . . . . . . . . 0
4 3 2 1 0
+ + + + +
q
y
Bollerslew (1986) hizo una extensin del trabajo original de Engle y desarrollo una
tcnica aplicando un proceso ARMA a la varianza condicional de los errores. Este tipo
de modelos recibieron el nombre de modelos de Heteroscedasticidad Condicional
Autorregresiva Generalizada (GARCH). La varianza condicional de estos modelos se
expresa como:
2
t t t
v
Para un modelo GARCH (1,1) la varianza sera
73
2
1 1
2
1 1 0
2

+ +
t t t

Las condiciones de estabilidad sobre los parmetros del modelo son ahora
1 1 ; 1 0 ; 0
1 1 0

Para un modelo GARCH (p,q) la varianza sera
2
1
2
1
0
2
j t j
p
j
i t i
q
i
t


+ +
Las condiciones de estabilidad sobre los parmetros del modelo son
1 . . . . . . . . . . . . . . 0
2 1 2 1 0
+ + + + + +
p q
y
EJEMPLO
Los modelos ARCH y GARCH se utilizan, principalmente, para analizar variables
financieras. La variable que se utiliza para el ejemplo es el ndice de Precios y
Cotizaciones del la Bolsa Mexicana de Valores (ipyc). Analice la grfica del ipyc de
1985.01 a 2006.06. Haga la prueba de races unitarias para el ipyc en niveles.
ADF Test Statistic 2.779435 PP Test
Statistic
3.565524 1%
Critical
Value*
-3.4573
5%
Critical
Value
-2.8728
10%
Critical
Value
-2.5727
Note que mientras DF no rechazan la presencia de raz unitaria en la serie ipyc, pero
PP si la rechaza. Haga la prueba con la primera diferencia de la serie
ADF Test Statistic -6.840501 PP Test
Statistic
-16.85182 1%
Critical
Value*
-3.4573
5% -2.8728
74
Critical
Value
10%
Critical
Value
-2.5727
Note que la primera diferencia de la serie ipyc (dipyc) es estacionaria.
Trabaje con la serie dipyc, es decir, determine un modelo ARMA adecuado para sta.
Vea el correlograma de la serie dipyc
Sample: 1985:01 2006:06
Included observations: 258
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|. | .|. | 1 -0.053 -0.053 0.7369 0.391
.|* | .|* | 2 0.092 0.090 2.9665 0.227
.|* | .|* | 3 0.110 0.121 6.1529 0.104
.|. | .|. | 4 0.028 0.033 6.3595 0.174
*|. | *|. | 5 -0.072 -0.092 7.7380 0.171
.|. | *|. | 6 -0.055 -0.088 8.5566 0.200
.|** | .|** | 7 0.237 0.247 23.528 0.001
*|. | .|. | 8 -0.081 -0.022 25.276 0.001
.|* | .|. | 9 0.094 0.060 27.636 0.001
.|* | .|. | 10 0.077 0.034 29.225 0.001
.|* | .|. | 11 0.076 0.063 30.812 0.001
.|. | .|. | 12 -0.016 0.001 30.883 0.002
.|. | *|. | 13 -0.042 -0.061 31.363 0.003
.|* | .|. | 14 0.091 0.025 33.623 0.002
.|. | .|* | 15 0.024 0.098 33.776 0.004
.|. | .|. | 16 0.029 0.018 34.005 0.005
.|. | .|. | 17 -0.001 -0.045 34.005 0.008
.|. | .|. | 18 0.030 -0.038 34.263 0.012
.|. | .|. | 19 -0.016 -0.006 34.339 0.017
.|. | .|. | 20 0.018 0.056 34.435 0.023
.|. | .|. | 21 -0.001 -0.030 34.435 0.033
.|* | .|* | 22 0.100 0.088 37.255 0.022
.|. | .|. | 23 0.035 0.044 37.607 0.028
.|. | .|. | 24 0.050 0.041 38.326 0.032
.|* | .|* | 25 0.137 0.101 43.724 0.012
.|. | .|. | 26 0.039 0.030 44.167 0.015
.|* | .|* | 27 0.107 0.103 47.464 0.009
.|. | .|. | 28 -0.043 -0.034 47.993 0.011
.|. | *|. | 29 -0.055 -0.152 48.865 0.012
.|. | .|. | 30 -0.005 -0.015 48.873 0.016
.|. | .|. | 31 -0.029 -0.010 49.118 0.020
.|. | .|. | 32 0.029 0.021 49.363 0.026
.|. | .|. | 33 0.053 0.052 50.205 0.028
.|. | .|. | 34 0.049 -0.043 50.933 0.031
.|. | .|. | 35 -0.001 -0.006 50.934 0.040
*|. | *|. | 36 -0.124 -0.183 55.599 0.020
75
Note que la autocorrelacin y la autocorrelacin parcial 7 son estadsticamente
significativas. Por tanto un modelo tentativo para la serie dipyc sera ls dipyc c ar(7)
ma(7), el modelo estimado es entonces
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 7 iterations
Backcast: 1985:01 1985:07
Variable Coefficient Std. Error t-Statistic Prob.
C 86.85354 40.31312 2.154473 0.0322
AR(7) 0.538742 0.223667 2.408674 0.0167
MA(7) -0.249182 0.238818 -1.043400 0.2978
R-squared 0.075671 Mean dependent var 76.26088
Adjusted R-squared 0.068217 S.D. dependent var 393.0074
S.E. of regresin 379.3659 Akaike info criterion 14.72676
Sum squared resid 35691779 Schwarz criterion 14.76890
Log likelihood -1845.208 F-statistic 10.15134
Durbin-Watson stat 2.033617 Prob(F-statistic) 0.000058
Note que el trmino ma(7) no es estadsticamente significativo, por tanto otro modelo
tentativo es ls dipyc c ar(7)
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 3 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 80.22565 34.27784 2.340452 0.0201
AR(7) 0.300679 0.068786 4.371240 0.0000
R-squared 0.071269 Mean dependent var 76.26088
Adjusted R-squared 0.067539 S.D. dependent var 393.0074
S.E. of regresin 379.5038 Akaike info criterion 14.72354
Sum squared resid 35861753 Schwarz criterion 14.75163
Log likelihood -1845.805 F-statistic 19.10774
Durbin-Watson stat 2.025496 Prob(F-statistic) 0.000018
Note que el trmino ar(7) es estadsticamente significativo y que los criterios de
Akaike y Schwarz son ms pequeos en el segundo modelo que en el primero. En
consecuencia se toma como mejor modelo el segundo. Hasta este momento las
76
instrucciones y el anlisis de la serie son las mismas que cuando se estudiaron los
modelos ARIMA.
Ahora analice si la serie es voltil, es decir, si los errores al cuadrado de la serie dipyc
presenta efectos ARCH o GARCH. Para ello sobre los resultados de la regresin ls dipy
c ar(7) de clic en View/Residual Test/ARCH-LM Test/OK
ARCH Test:
F-statistic 6.512924 Probabilit
y
0.011310
Obs*R-squared 6.397440 Probabilit
y
0.011429
Note que la prueba de homoscedasticidad en los errores se rechaza porque el valor de
la probabilidad de ambos estadsticos son menores a 0.05. El hecho que sea rechazada
la prueba de homoscedasticidad indica que la varianza de los errores no es constante y
por tanto hay efectos ARCH. Ahora hay que modelar esos efectos como un modelo AR
o un modelo ARMA. Para determinar el grado del ARMA en la varianza condicional de
la serie genere los errores al cuadrado de la serie con la instruccin genr errdipyc=resid
inmediatamente despus de haber estimado el modelo ls dipyc c ar(7), despus genere
los residuos al cuadrado con la instruccin genr err2dipyc=errdipyc^2 (los residuos al
cuadrado estn guardados ahora con el nombre de err2dipyc). Analice su correlograma,
dando clic en err2dipyc/SHOW y una vez mostrada la variable dar clic en
View/Corrlogram/OK.
Sample: 1985:01 2006:06
Included observations: 251
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|* | .|* | 1 0.160 0.160 6.4925 0.011
.|** | .|** | 2 0.257 0.237 23.335 0.000
.|* | .|* | 3 0.161 0.099 29.935 0.000
.|** | .|* | 4 0.265 0.192 47.939 0.000
.|* | .|* | 5 0.170 0.078 55.368 0.000
.|** | .|** | 6 0.306 0.204 79.706 0.000
.|* | .|. | 7 0.163 0.045 86.658 0.000
.|*** | .|** | 8 0.360 0.236 120.45 0.000
.|* | .|. | 9 0.125 -0.020 124.55 0.000
.|* | .|. | 10 0.169 -0.031 132.12 0.000
.|* | .|. | 11 0.117 -0.022 135.75 0.000
.|* | *|. | 12 0.093 -0.121 138.03 0.000
.|* | .|. | 13 0.113 -0.009 141.45 0.000
.|** | .|* | 14 0.244 0.102 157.38 0.000
.|* | .|. | 15 0.070 -0.042 158.72 0.000
.|. | *|. | 16 0.055 -0.117 159.54 0.000
.|* | .|* | 17 0.125 0.078 163.78 0.000
.|* | .|. | 18 0.097 0.029 166.34 0.000
.|. | .|. | 19 0.063 -0.014 167.42 0.000
.|* | .|. | 20 0.100 0.055 170.16 0.000
.|. | .|. | 21 0.047 -0.028 170.77 0.000
.|. | *|. | 22 0.052 -0.070 171.51 0.000
.|. | .|. | 23 0.063 0.030 172.62 0.000
.|. | .|. | 24 0.017 -0.020 172.71 0.000
.|* | .|. | 25 0.093 0.031 175.13 0.000
.|. | .|. | 26 0.033 0.009 175.44 0.000
.|. | .|. | 27 0.053 0.011 176.23 0.000
77
.|. | .|. | 28 0.038 -0.037 176.64 0.000
.|* | .|* | 29 0.075 0.082 178.24 0.000
.|. | .|* | 30 0.060 0.092 179.26 0.000
.|. | *|. | 31 0.036 -0.069 179.64 0.000
.|. | .|. | 32 0.030 0.007 179.89 0.000
.|. | .|. | 33 0.041 -0.013 180.38 0.000
.|. | .|. | 34 0.015 -0.056 180.45 0.000
.|. | .|. | 35 0.009 -0.039 180.47 0.000
.|. | .|. | 36 0.039 0.035 180.93 0.000
Note que las correlaciones 2,4,6,8 y las correlaciones parciales 2,6,8 son
estadsticamente significativas o bien se salen de la banda del 5.0% de significancia. Por
tanto un modelo tentativo de la varianza condicional sera un GARCH ar(2) ar(6) ar(8)
ma(2) ma(4) ma(6) ma(8). Para estimar este modelo sobre los resultados de la regresin
ls dipyc c ar(7) de clic en Estimate/ y aparece una ventana donde hay que dar clic en la
flecha que dice Method y aparece una lista de los mtodos de estimacin, por tanto dar
clic en ARCH- Modelos de Heteroscedasticidad Condicional Autorregresiva y aparece
una ventana donde hay que anotar el orden de ARCH y del GARCH. Ah anotar, para el
caso del ejemplo ARCH 8 GARCH 8 y aparece el siguiente resultado
Dependent Variable: DIPYC
Method: ML ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 15 iterations
Coefficient Std. Error z-Statistic Prob.
C 75.17219 36.43276 2.063313 0.0391
AR(7) 0.179016 0.061902 2.891904 0.0038
Variance Equation
C 114680.3 186656.4 0.614393 0.5390
ARCH(1) 0.124726 0.136548 0.913424 0.3610
ARCH(2) 0.197831 0.325906 0.607021 0.5438
ARCH(3) 0.272835 0.389541 0.700401 0.4837
ARCH(4) 0.137545 0.452377 0.304049 0.7611
ARCH(5) -0.021313 0.324176 -0.065744 0.9476
ARCH(6) 0.107615 0.309584 0.347613 0.7281
ARCH(7) 0.119780 0.407704 0.293792 0.7689
ARCH(8) 0.090222 0.358342 0.251777 0.8012
GARCH(1) -0.132944 2.287901 -0.058107 0.9537
GARCH(2) -0.173952 1.753405 -0.099208 0.9210
GARCH(3) -0.150826 1.373350 -0.109824 0.9125
GARCH(4) -0.149402 1.005646 -0.148563 0.8819
GARCH(5) -0.114601 0.756388 -0.151511 0.8796
GARCH(6) -0.078912 0.670865 -0.117627 0.9064
GARCH(7) -0.019947 0.578881 -0.034458 0.9725
GARCH(8) 0.012889 0.376367 0.034247 0.9727
R-squared 0.059558 Mean dependent var 76.26088
Adjusted R-squared -0.013407 S.D. dependent var 393.0074
S.E. of regresin 395.6331 Akaike info criterion 14.39421
Sum squared resid 36313935 Schwarz criterion 14.66108
Log likelihood -1787.473 F-statistic 0.816258
Durbin-Watson stat 2.059570 Prob(F-statistic) 0.680316
78
Note que ningn trmino es estadsticamente significativo, por tanto se prueba con un
ARCH 6 y GARCH 8
Dependent Variable: DIPYC
Method: ML ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 42 iterations
Coefficient Std. Error z-Statistic Prob.
C 73.29669 19.51930 3.755087 0.0002
AR(7) 0.209876 0.049390 4.249384 0.0000
Variance Equation
C 110764.4 33698.72 3.286903 0.0010
ARCH(1) 0.187414 0.084623 2.214710 0.0268
ARCH(2) 0.418433 0.137312 3.047328 0.0023
ARCH(3) 0.487617 0.105073 4.640720 0.0000
ARCH(4) 0.437080 0.044092 9.912806 0.0000
ARCH(5) 0.157297 0.085809 1.833112 0.0668
ARCH(6) 0.072122 0.079983 0.901719 0.3672
GARCH(1) -0.959296 0.179256 -5.351529 0.0000
GARCH(2) -0.945641 0.146978 -6.433879 0.0000
GARCH(3) -0.303976 0.220809 -1.376643 0.1686
GARCH(4) -0.049267 0.188951 -0.260742 0.7943
GARCH(5) -0.068034 0.131348 -0.517968 0.6045
GARCH(6) -0.013141 0.133506 -0.098430 0.9216
GARCH(7) 0.252382 0.159067 1.586642 0.1126
GARCH(8) 0.191518 0.160453 1.193608 0.2326
R-squared 0.064650 Mean dependent var 76.26088
Adjusted R-squared 0.000695 S.D. dependent var 393.0074
S.E. of regresin 392.8709 Akaike info criterion 14.14578
Sum squared resid 36117319 Schwarz criterion 14.38455
Log likelihood -1758.295 F-statistic 1.010864
Durbin-Watson stat 2.050913 Prob(F-statistic) 0.445887
Note ahora que los trminos ARCH 5 y 6 y el GARCH 3 al 8 no son estadsticamente
significativos por tanto se prueba con aquellos que s son estadsticamente
significativos. Como ejercicio haga el pronstico.
Dependent Variable: DIPYC
Method: ML ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 25 iterations
Coefficient Std. Error z-Statistic Prob.
C 65.86900 22.26606 2.958269 0.0031
AR(7) 0.182517 0.039303 4.643846 0.0000
Variance Equation
C 112815.6 23557.41 4.788965 0.0000
ARCH(1) 0.344460 0.062391 5.520970 0.0000
ARCH(2) 0.546304 0.001144 477.5972 0.0000
ARCH(3) 0.435188 0.055656 7.819237 0.0000
79
ARCH(4) 0.316048 0.042001 7.524858 0.0000
GARCH(1) -0.751011 0.085884 -8.744507 0.0000
GARCH(2) -0.714136 0.108101 -6.606216 0.0000
R-squared 0.059589 Mean dependent var 76.26088
Adjusted R-squared 0.028501 S.D. dependent var 393.0074
S.E. of regresin 387.3664 Akaike info criterion 14.16072
Sum squared resid 36312756 Schwarz criterion 14.28713
Log likelihood -1768.170 F-statistic 1.916788
Durbin-Watson stat 2.057233 Prob(F-statistic) 0.058165
Note que los coeficiente ARCH 1,2,3,4 y GARCH 1 y 2 son estadsticamente
significativos y que adems el criterio de Schwarz es ms pequeo en el tercer modelo
que en los anteriores, por tanto el mejor modelo para su uso en el pronstico de la serie
dipyc sera el tercero.
VECTORES AUTORREGRESIVOS
Los modelos VAR son una combinacin de modelos de ecuaciones simultneas con
series de tiempo. Las variables que entran en este tipo de modelos son endgenas
porque las explicativas son los rezagos de las variables dependientes. En un modelo
univariado AR(p) la variable dependiente est explicada por sus propios rezagos, en un
modelo autorregresivo de orden p, se estiman n ecuaciones diferentes donde cada
variable estar explicada por sus propios rezagos y por lo n-1 rezagos de las otras
variables que forman parte del VAR. Por ejemplo un VAR(1) de dos variables es:
t t t t
y y y
1 1 2 12 1 1 11 1
+ +

t t t t
y y y
2 1 2 22 1 1 21 2
+ +

Donde cada variable depende de su primer rezago y del primer rezago de la otra
variable. Adems, las perturbaciones se pueden correlacionar de tal forma que cuando
una ecuacin sufre un choque, la otra tambin lo sufrir. Este tipo de interaccin es el
elemento distintivo de los VAR.
Los VAR se han utilizado principalmente para predecir, comprobar la causalidad
de Granger y para el estudio de las respuestas al impulso (la dinmica de los efectos de
las perturbaciones sobre las variables dependientes).
Prueba de causalidad de Granger
La prueba de causalidad de Granger es una herramienta estadstica para
determinar el sentido de la relacin entre las variables. El concepto de causalidad de
Granger hace referencia a la precedencia
1
de una variable sobre otra variable. Este
concepto, sostiene que si
x
t
puede ser explicado por sus valores pasados y por los
valores pasados de
y
t
entonces
y
t
causa a
x
t
, es decir, cunto del valor explicado
de
x
t
puede ser explicado por los valores pasados de
x
t
y por los valores pasados de
y
t
. Esta definicin implica que si
y
t
causa a
x
t
, entonces
x
t +1
es el mejor
predictor cuando se utiliza a
y
t j que cuando no se utiliza.
1
La precedencia de una variable sobre una variable o sobre otras variables surge de la nocin de que la
causa debe suceder antes que el efecto. Francis Diebold en su libro Elementos de Pronstico,
publicado en Mxico por la editorial Thomson en el ao de 1998, profundiza sobre el concepto de
causalidad relacionado con los pronsticos y retoma el concepto de causalidad como precedencia.
80
Francis Diebold (1998), siguiendo a Granger (1988) argumenta que una serie
causal debe contener informacin til para el pronstico que no este disponible en las
dems series (incluyendo la historia pasada de las variables pronosticables).
Esta definicin de causalidad de Granger se basa en dos principios fundamentales:
1. La causa ocurre antes que el efecto.
2. La serie causal contiene informacin acerca de la serie causada que no esta
disponible en otras series, aqu llamada
w
t
.
La prueba de causalidad, Granger la presenta en 1969 de la siguiente manera

A x Ax
o t t j t
j
m
+


1

donde
A
0
es un conjunto de matrices, m puede ser infinita y

t
es la parte no
explicada del modelo que se incluyen como un vector de variables aleatorias llamadas
ruido blanco
2
, las cuales toman los valores
[ ]
E
t s

,
, 0

t s

[ ]
E I
t s

,
,
t s
Segn Granger, este modelo puede ser ilustrado mediante un VAR de dos
variables
x
t
y
y
t
como sigue

x a x b y
t j t j j t j t
j
m
j
m
+ +




1 1


y c x d y
t j t j j t j t
j
m
j
m
+ +




1 1

Si
b
j
0
para toda j entonces
y
t
no causa a
x
t
Si
c
j
0
para toda j entonces
x
t
no causa a
y
t

PRUEBAS DE CAUSALIDAD DE GRANGER
Como ejemplo, suponga que se quiere probar si existe causalidad entre el cambio
porcentual del tipo de cambio fix (rendimiento), del cambio porcentual del ndice de
precios y cotizaciones de la Bolsa Mexicana de Valores (rendimiento) y del cambio
absoluto de la tasa de inters de los cetes a 28 das de 1996 a agosto de 2008. Para ello
sobre las tres variables d clic en SHOW y despus OK, sobre el listado de esas dos
variables, de clic en View/Granger Causality/OK y aparece los resultados de la prueba
de causalidad de Granger. Esta prueba EV la realiza con un VAR por pares de variables
2
Una variable ruido blanco es aquella que tiene media cero, varianza constante

2
y no est
autocorrelacionda.
81
y dos rezagos de cada una de ellas, si desea cambiar el nmero de rezagos incluidos,
debe de anotarlos antes de dar clic en OK. La hiptesis a probar aparece en forma
literal en los resultados de la prueba la primera variable no causa en el sentido de
Granger a la segunda variable- y el criterio de decisin es: si el valor de la probabilidad
del estadstico de prueba es mayor que 0.05 no se rechaza la hiptesis nula, es decir, la
primera variable no causa a la Granger a la segunda variable. Los resultados de la
prueba para el caso del ejemplo son:
Pairwise Granger Causality Tests
Date: 09/12/08 Time: 16:10
Sample: 1996M01 2008M12
Lags: 2
Null Hypothesis: Obs F-Statistic Probability
VPFIX does not Granger Cause DCETES28 149 25.6800 2.9E-10
DCETES28 does not Granger Cause VPFIX 0.13051 0.87775
VPIPYC does not Granger Cause DCETES28 149 20.6203 1.3E-08
DCETES28 does not Granger Cause VPIPYC 1.94864 0.14621
VPIPYC does not Granger Cause VPFIX 149 0.80532 0.44895
VPFIX does not Granger Cause VPIPYC 0.08524 0.91833
Observe como el valor de la probabilidad del estadstico F (menor a 0.05), para la
primera relacin indica que el rendimiento del tipo de cambio fix (rfix) causa a la
Granger al cambio absoluto de los cetes28 (dcetes28), es decir, se rechaza la hiptesis
nula. Para la segunda relacin, esta prueba indica que dcetes28 no causa a la Granger al
rendimiento del fix, es decir, no se rechaza la hiptesis nula al 5.0% de significancia o
al 95.0% de confianza (el valor de la probabilidad del estadstico F es mayor a 0.05). La
tercera relacin, indica que se rechaza la hiptesis nula, es decir, el rendimiento de
ndice de precios y cotizaciones (ripyc) est causando a la Granger a la dcetes28. En la
cuarta, no se rechaza la hiptesis nula, es decir, la dcetes28 no causan a la Granger al
ripyc. En la relacin cinco y seis no se rechaza la hiptesis nula, es decir, ni el ripyc
causa a la Granger al rfix, ni a la inversa.
En trminos generales, si ambas variables no se causan a la Granger, se dice que
son independientes, si se causan mutuamente, se dice que hay efecto retroalimentacin
entre ellas. Este ltimo efecto puede ser probado para las pocas de inflacin-
devaluacin.
Es importante destacar que la prueba de causalidad de Granger sirve para probar
exogeneidad entre las variables, mediante el concepto de precedencia. Esta definicin
de exogeneidad, se conoce como exogeneidad fuerte. Para el caso de los resultados de la
82
prueba de causalidad del ejemplo, significa que los movimientos del ripyc y del rfix
preceden a los movimientos del dcetes28, por tanto se concluye que el ripyc y el rfix se
pueden considerar como variables exgena en un modelo que explique a los dcetes28
en este periodo.
Finalmente, existe una prueba de exogeneidad en bloque que se encuentra
disponible en el paquete EV. Esta prueba se realiza tambin con un modelo VAR. Para
el caso de las tres variables del ejemplo, con un VAR que incluye dos rezagos dar clic
en Quick/Estimate VAR/ donde aparece el cursor anotar las variables endgenas, en el
caso del ejemplo son (dcetes28 vpfix vpipyc), en Lag Intervals dar 2 y dar OK o bien
liste las variables que entrarn en el VAR con Show y sobre el listado d clic en
Procs/Make Vector Autoregression y OK, sobre los resultados de la regresin de
View/Lag Structure/Granger Casuality/BlockExogeneity Tests y aparece la
siguiente tabla
VAR Granger Causality/Block Exogeneity Wald Tests
Date: 09/22/08 Time: 17:42
Sample: 1996M01 2008M12
Included observations: 149
Dependent variable: DCETES28
Excluded Chi-sq Df Prob.
VPFIX 26.01464 2 0.0000
VPIPYC 17.31179 2 0.0002
All 74.13293 4 0.0000
Dependent variable: VPFIX
Excluded Chi-sq Df Prob.
DCETES28 0.287071 2 0.8663
VPIPYC 1.618220 2 0.4453
All 1.878551 4 0.7581
Dependent variable: VPIPYC
Excluded Chi-sq Df Prob.
DCETES28 3.740153 2 0.1541
VPFIX 0.067711 2 0.9667
All 3.912701 4 0.4179
83
Observe los primeros renglones de la tabla, en ella se encuentran las pruebas
individuales de causalidad de Granger para la variable dcetes28 contra rfix y el ripyc;
segn los resultados de la prueba, estas variables causan a la Granger de manera
individual y conjunta a dcetes28 o bien los movimientos de estas variables preceden a
los movimientos de dcetes28. Estos resultados confirman lo que se haba encontrado
anteriormente. Como ejercicio interprete los resultados de esta prueba para rfix y ripyc.
LA FUNCIN ESTMULO RESPUESTA Y LA TABLA DE DESCOMPOSICIN
DE LA VARIANZA
Como se anot anteriormente una de las aplicaciones ms importante en el VAR es la
funcin estmulo respuesta y la tabla de descomposicin de la varianza. Sin embargo,
para obtener stas dos funciones falta puntualizar una de las propiedades que debe
cumplir la construccin de un VAR. Las variables que formar parte de un VAR, tienen
que ser estacionarias, por tanto, la prueba de races unitarias debe ser el primer paso
para la construccin de ste (hay autores que argumentan que si el VAR es estable no
importa si las variables incluidas en l son estacionarias). El segundo paso es la
determinacin de los rezagos incluidos en el VAR. El nmero de rezagos incluidos en el
VAR sern aquellos estadsticamente significativos, por lo regular se propone un
nmero alto para despus ir ajustando. Tambin, se debe de evaluar el VAR para saber
si es estable y si las innovaciones no estn autocorrelacionadas. Si el VAR es estable, la
inferencia que se obtenga de la funcin estmulo respuesta y de la tabla de
descomposicin de la varianza sern verdaderas. Si las innovaciones no estn
autocorrelacionadas los modelos VAR son buenas herramientas para realizar
pronsticos.
Para construir el VAR sigamos con el ejemplo de las variables consideradas en la
prueba de causalidad de Granger. Primero, se hacen las pruebas de races unitarias a la
variables dcetes28, ripyc, y rfix para el periodo 1996 a agosto 2008.
La variable dcetes28 los resultados son
Augmented Dickey-Fuller test statistic -12.07400 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Adj. t-Stat Prob.*
Phillips-Perron test statistic -12.08190 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Note que la serie dcetes28 es estacionaria en niveles
Para el ripyc
84
Lag Length: 0 (Automatic based on SIC, MAXLAG=13)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -12.41754 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
*MacKinnon (1996) one-sided p-values.
Bandwidth: 1 (Newey-West using Bartlett kernel)
Adj. t-Stat Prob.*
Phillips-Perron test statistic -12.41736 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Observe que la variable ripyc es estacionaria en niveles
Para la variable rfix
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -12.41754 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Adj. t-Stat Prob.*
Phillips-Perron test statistic -12.41736 0.0000
Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077
Note que rfix es estacionario en niveles
Como las series son estacionarias en niveles, se construir un VAR en niveles. Se
recomienda construir un VAR con ms rezagos y despus ir ajustando a travs de las
pruebas que existen en este paquete economtrico. El clculo del VAR se inicia dando
clic en Quick/Estimate VAR/ donde aparece el cursor anotar las variables endgenas,
en el caso del ejemplo son (dcetes28 vpfix vpipyc) y donde Lag Intervals dar 10
(siempre proponga ms rezagos), finalmente dar OK. o bien liste las variables que
entrarn en el VAR con Show y sobre el listado d clic en Procs/Make Vector
85
Autoregression. Para elegir el nmero de rezagos del VAR, de acuerdo a varios
crterios, sobre los resultados del VAR de clic en View/Lag Structure/Lag Length
Criteria y aparece una tabla con varios criterios
VAR Lag Order Selection Criteria
Endogenous variables: DCETES28 VPFIX VPIPYC
Exogenous variables: C
Date: 09/15/08 Time: 16:02
Sample: 1996M01 2008M12
Included observations: 141
Lag LogL LR FPE AIC SC HQ
0 -1074.701 NA 873.8547 15.28654 15.34928 15.31204
1 -1039.944 67.54221 606.4425* 14.92120* 15.17215* 15.02318*
2 -1034.400 10.53885 637.0325 14.97021 15.40938 15.14867
3 -1031.896 4.652705 698.8485 15.06235 15.68975 15.31730
4 -1026.171 10.39450 732.7074 15.10880 15.92442 15.44024
5 -1023.390 4.929476 801.3837 15.19703 16.20086 15.60495
6 -1017.625 9.976668 840.6925 15.24291 16.43496 15.72732
7 -1009.664 13.43797 855.5321 15.25764 16.63792 15.81854
8 -1003.908 9.470495 899.0999 15.30366 16.87215 15.94104
9 -992.2814 18.63590* 870.2796 15.26640 17.02311 15.98027
10 -981.9825 16.06910 859.4060 15.24798 17.19291 16.03833
* indicates lag order selected by the criterion
LR: sequential modified LR test statistic (each test at 5% level)
FPE: Final prediction error
AIC: Akaike information criterion
SC: Schwarz information criterion
HQ: Hannan-Quinn information criterion
Cuatro criterios recomiendan que el VAR debe contener 1 rezago y un criterio
sugiere que VAR contenga 9 rezagos.
Calculemos ambos modelos VAR
Resultados del VAR para dos rezagos
R-squared 0.359799 0.031131 0.031035
Adj. R-squared 0.332748 -0.009807 -0.009907
Sum sq. Resids 458.8433 738.4208 7316.106
S.E. equation 1.797579 2.280383 7.177874
F-statistic 13.30088 0.760438 0.758018
Log likelihood -295.2166 -330.6641 -501.5164
Akaike AIC 4.056599 4.532404 6.825724
Schwarz SC 4.197724 4.673529 6.966849
Mean dependent -0.223289 0.233833 1.709709
S.D. dependent 2.200610 2.269283 7.142579
86
Determinant resid covariance (dof adj.) 663.0361
Determinant resid covariance 573.9095
Log likelihood -1107.525
Akaike information criterion 15.14798
Schwarz criterion 15.57136
Resultados para el VAR con nueve rezagos
R-squared 0.492167 0.172742 0.200163
Adj. R-squared 0.371891 -0.023188 0.010727
Sum sq. Resids 300.8361 591.6376 5910.633
S.E. equation 1.624473 2.278114 7.200532
F-statistic 4.091969 0.881653 1.056628
Log likelihood -254.7917 -302.8110 -466.2256
Akaike AIC 3.982982 4.659310 6.960924
Schwarz SC 4.565821 5.242149 7.543764
Mean dependent -0.123732 0.197547 1.757017
S.D. dependent 2.049722 2.252152 7.239467
Determinant resid covariance (dof adj.) 518.1149
Determinant resid covariance 268.0869
Log likelihood -1001.451
Akaike information criterion 15.28804
Schwarz criterion 17.03656
Observe que segn los crterios de Log likelihood, Akaike y Schwarz recomiendan
el de un rezago.
Evaluemos los modelos VAR
Veamos si ambos modelos son estables. Sobre los resultados del VAR de clic en
View/Lag Structure/AR Root Grafic
87
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
Inverse Roots of AR Characteristic Polynomial
Como las races caractersticas se encuentran dentro del crculo unitario el VAR con dos
rezagos es estable.
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
Inverse Roots of AR Characteristic Polynomial
El VAR con nueve rezagos tambin es estable
Para saber si las innovaciones estn autocorrelacionadas, sobre los resultados del VAR
de clic en View/Residual Test/ Correlogram Grafic
Para el de un rezago
88
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,DCETES28(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPFIX(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPIPYC(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,DCETES28(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPFIX(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPIPYC(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,DCETES28(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPFIX(-i))
-.3
-.2
-.1
.0
.1
.2
.3
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPIPYC(-i))
Autocorrelations with 2 Std.Err. Bounds
Observe que hay autocorrelacin cruzada en las innovaciones de rfix con dcetes28 y
ripyc con dcetes28.

Para el de nueve rezagos
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,DCETES28(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPFIX(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(DCETES28,VPIPYC(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,DCETES28(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPFIX(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPFIX,VPIPYC(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,DCETES28(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPFIX(-i))
-.2
-.1
.0
.1
.2
1 2 3 4 5 6 7 8 9 10 11 12
Cor(VPIPYC,VPIPYC(-i))
Autocorrelations with 2 Std.Err. Bounds
Observe que hay autocorrelacin de los residuales de la variable dcetes 28 y ripyc
en la nmero 10 y 11 y en los residuales de rfix con rfix en la 12.
Otra prueba de autocorrelacin es la de ML. Para ver los resultados de esta prueba,
de clic sobre los resultados del VAR en View/Residual Test/ Autocorrelation LM
Test. La hiptesis nula es no hay problemas de autocorrelacin entre los errores.
Para el VAR con un rezago.
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 09/15/08 Time: 17:27
Sample: 1996M01 2008M12
89
Included observations: 149
Lags LM-Stat Prob
1 10.19384 0.3350
2 6.393424 0.7000
3 1.453589 0.9975
4 14.43962 0.1075
5 4.938293 0.8397
6 13.62792 0.1362
7 7.187000 0.6177
8 14.27531 0.1129
9 13.21709 0.1530
10 13.43748 0.1438
11 4.359905 0.8862
12 2.252297 0.9868
Segn los resultados de la regresin no hay autocorrelacin entre los errores
Para el VAR con nueve rezagos
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 09/15/08 Time: 16:45
Sample: 1996M01 2008M12
Included observations: 142
Lags LM-Stat Prob
1 19.03233 0.0249
2 11.56728 0.2388
3 15.64977 0.0746
4 7.665566 0.5682
5 2.692557 0.9752
6 8.348193 0.4995
7 10.17025 0.3369
8 10.84316 0.2866
9 7.520919 0.5830
10 14.34957 0.1104
11 9.127454 0.4256
12 12.38249 0.1926
Probs from chi-square with 9 df.
Observe como en el rezago uno se rechaza la hiptesis nula
Para saber si los errores del VAR se distribuyen en forma normal, sobre los resultados
de la regresin d clic en View/Residual Test/Normality Test. La hiptesis nula a
probar es que los errores se distribuyen en forma normal
Para el VAR con un rezagos
90
Component Jarque-Bera Df Prob.
1 639.5796 2 0.0000
2 78.38605 2 0.0000
3 0.175391 2 0.9160
Joint 718.1411 6 0.0000
Los errores no se distribuyen en forma normal
Para el VAR con nueve rezagos
Component Jarque-Bera Df Prob.
1 736.0968 2 0.0000
2 37.51001 2 0.0000
3 6.593882 2 0.0370
Joint 780.2007 6 0.0000
Segn los resultados de esta prueba los errores no son normales
Para realizar la prueba de heteroscedasticidad, sobre los resultados de la regresin d
clic en View/Residual Test/White. La hiptesis nula a probar es que los errores son
homoscedsticos.
Para el VAR con un rezago
Joint test:
Chi-sq Df Prob.
168.8574 72 0.0000
Para el VAR con nueve rezagos
Joint test:
91
Chi-sq Df Prob.
455.5810 324 0.0000
Segn los resultados de la prueba los errores son heteroscedsticos.
Por ltimo, tambin se puede observar la matriz de correlaciones de los errores. Para
ello, sobre los resultados de la regresin d clic en View/Residual /Correlations
Matrix. La hiptesis nula a probar es que los errores no estn autocorrelacionados.
Matriz de correlacin de los errores del VAR con un rezagos
DCETES28 1.000000 0.246176 -0.119691
VPFIX 0.246176 1.000000 -0.429555
VPIPYC -0.119691 -0.429555 1.000000
Segn los resultados de la prueba no hay autocorrelacin entre los errores
Matriz de correlacin de los errores del VAR con nueve rezagos
DCETES28 VPFIX VPIPYC
DCETES28 1.000000 0.251223 -0.029954
VPFIX 0.251223 1.000000 -0.461822
VPIPYC -0.029954 -0.461822 1.000000
Segn los resultados de la prueba los errores no estn autocorrelacionados
Al evaluar los resultados se elige el VAR con dos rezagos.
La funcin estmulo respuesta se obtiene dando clic sobre los resultados del VAR en
Impulse y en Displey type dar clic en Multiple Graphs, como se trabajan con datos
mensuales es conveniente realizar el anlisis de la funcin estmulo respuesta a 12
periodos, por tanto cambie el nmero de periodos de 10 a 12 y despus OK.
92
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of DCETES28 to DCETES28
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of DCETES28 to VPFIX
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of DCETES28 to VPIPYC
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPFIX to DCETES28
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPFIX to VPFIX
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPFIX to VPIPYC
-6
-4
-2
0
2
4
6
8
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPIPYC to DCETES28
-6
-4
-2
0
2
4
6
8
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPIPYC to VPFIX
-6
-4
-2
0
2
4
6
8
1 2 3 4 5 6 7 8 9 10 11 12
Response of VPIPYC to VPIPYC
Response to Cholesky One S.D. Innovations 2 S.E.

Observe que un choque en la innovacin del rendimiento del tipo de cambio
provocan un efecto importante en el movimiento del dcetes28 durante los tres primeros
meses y despus tiende a desvanecerse a los cinco meses (ver primer rengln segunda
grfica). Un cambio inesperado del ripyc provoca una baja dcetes28 durante dos meses,
pero se revierte durante un mes y se desvanecerse a los tres meses (ver primer rengln
tercera grfica). Como ejercicio interprete las grficas de los dos renglones siguientes.

La Tabla de Descomposicin de la Varianza se encuentra dando clic sobre los
resultados del VAR en Variance Descomposition/Table, cambie el nmero de
periodos a 12.
DCETE
S28
Period S.E. DCETES28 VPFIX VPIPYC
1 1.797579 100.0000 0.000000 0.000000
2 2.199225 68.29895 23.99944 7.701613
3 2.235681 68.12267 24.31315 7.564183
4 2.245330 67.53884 24.94312 7.518042
5 2.247070 67.46996 25.02250 7.507541
6 2.247396 67.45316 25.03676 7.510083
7 2.247452 67.45058 25.03736 7.512065
93
8 2.247474 67.44992 25.03812 7.511967
9 2.247476 67.44984 25.03807 7.512087
10 2.247478 67.44978 25.03815 7.512073
11 2.247478 67.44977 25.03815 7.512076
12 2.247479 67.44977 25.03816 7.512075
VCPFIX
Period S.E. DCETES28 VPFIX VPIPYC
1 2.280383 6.060254 93.93975 0.000000
2 2.282392 6.159254 93.78707 0.053676
3 2.315069 6.351007 92.63967 1.009325
4 2.315691 6.352091 92.60379 1.044123
5 2.317321 6.403246 92.53463 1.062125
6 2.317512 6.402820 92.53105 1.066131
7 2.317614 6.406347 92.52719 1.066468
8 2.317627 6.406301 92.52720 1.066501
9 2.317633 6.406463 92.52701 1.066524
10 2.317634 6.406463 92.52701 1.066524
11 2.317634 6.406470 92.52700 1.066527
12 2.317635 6.406471 92.52700 1.066527
VPIPYC
Period S.E. DCETES28 VPFIX VPIPYC
1 7.177874 1.432604 17.03982 81.52758
2 7.247764 3.162635 16.74534 80.09202
3 7.270443 3.667161 16.73964 79.59320
4 7.289256 3.704843 17.02698 79.26818
5 7.289853 3.718661 17.02468 79.25666
6 7.290364 3.718471 17.03518 79.24635
7 7.290380 3.718571 17.03544 79.24599
8 7.290398 3.718629 17.03566 79.24572
9 7.290399 3.718628 17.03565 79.24572
10 7.290400 3.718639 17.03566 79.24570
11 7.290400 3.718639 17.03566 79.24570
12 7.290400 3.718640 17.03566 79.24570
En primera parte de la funcin estmulo respuesta se encuentran los datos de la
participacin porcentual de cada movimiento en rfix y del ripyc sobre dcetes28. De esta
manera, el 25.0% de los movimientos de dcetes28 a un ao estn explicados por los
movimientos del rfix, mientras que el ripyc contribuye en 7.5 % en el movimiento de
dcetes28. Las variaciones de ambas variables explica el 32.5% de los movimientos en
dcetes28% (suma horizontal). Como ejercicio, interprete las dos tablas siguientes.
COINTEGRACIN Y MTODO DE CORRECCIN DEL ERROR
94
Los modelos de regresin multivariados son muy tiles cuando se trata de pronosticar
a una variable a travs de sus fundamentos, porque al contener ms variables, el
pronstico tiene una mayor informacin para realizarse. En economa y en las finanzas,
abundan los argumentos tericas de relaciones entre las variables y de equilibrio a largo
plazo entre ellas que despus, por medio de modelos economtricos, se tratar de probar
y explicar en la prctica. Los desarrollos en las tcnicas economtricas, han logrado
medir si las variables que se relacionan en los modelos tienden al equilibrio a largo
plazo por medio del concepto de cointegracin. Este concepto es el siguiente:
Aunque dos series
x
t
y
y
t
, individualmente, sean I(d) puede existir entre ellas una
combinacin lineal
z x ay
t t t
+
integrada de orden cero (estacionaria), si esto ocurre
se dice que ambas series estn cointegradas o que hay una relacin cointegrante entre
ellas.
El hecho que dos o ms series estn cointegradas significa que hay equilibrio a largo
plazo, es decir, que las series se movern muy cerca en el tiempo y la diferencia entre
ellas ser estable (estacionaria). Esta diferencia, estar medida por la variable
z
t
que es
el error hacia el equilibrio de largo plazo.
En un modelo de regresin lineal de k variables e X Y +

se dir que las variables


k
X X X Y .., ,......... , ,
2 1 estn cointegradas, si los errores estimados son
estacionarios, de lo contrario dichas regresiones son espurias.
Cuando las series estn cointegradas, los vectores que se construyan entre las
variables, las pruebas de causalidad y los modelos de regresin de corto plazo tendrn
que incluir a la variable
z x ay
t t t
+
o bien al mecanismo de correccin del error.
Un modelo de dos variables cointegradas de orden p, que incluya el mecanismo de
correccin del error, se expresara en el siguiente VAR como

t i t
p
i
i i t
p
i
i t t
y x z x
1
1 1
1 1
+ + +




t i t
p
i
i i t
p
i
i t t
y x z y
2
1 1
1 2
+ + +



Donde expresa la primera diferencia de la serie,

1 2
0 ,
y

1 2 t t
,
son
variables ruido blanco.
Un modelo de corto plazo que incluya al mecanismo de correccin del error estara
dado por el siguiente VAR
t i t
q
i
i t
p
i
t t
u y X z y + + + +


1 0
1

donde
1 t
z
es el rezago del error de equilibrio, mide la velocidad a que la variable
dependiente se ajusta a su valor de largo plazo, X es un vector formado por todas las
variables que explican a la variable dependiente en el corto plazo,
i t
y

son los rezagos
de la variable dependiente y
t
u
es una variable aleatoria. Este VAR muestra que las
variaciones de la variable dependiente en el corto plazo, pueden ser explicados por el
mecanismo de correccin, por todas las variables que se consideran influyen en los
movimientos de la variable dependiente en el corto plazo (incluyendo las variables de
95
de largo plazo), los rezagos de la misma variables dependiente y de un trmino
aleatorio.

PRUEBAS PARA DETECTAR COINTEGRACIN ENTRE LAS VARIABLES
Existen dos pruebas para detectar si existe equilibrio a largo plazo entre las variables
involucradas en un modelo de regresin. Una de ellas, es probar si los errores estimados
de la ecuacin cointegrante (modelo de regresin) son estacionarios aunque las series no
sean estacionarias. La estacionariedad de los errores se prueba mediante los estadsticos
Dikey-Fuller y Phillis-Perron. La otra prueba se conoce como prueba de cointegracin
de Johansen. Para realizar ambas pruebas se transformar las series a logaritmos y se
llevan a cabo de la siguiente forma:
Prueba de cointegracin mediante la prueba de races unitarias en los errores de la
ecuacin cointegrante. Se plantea una ecuacin cointegrante estimada en forma
logartmica. Generalmente la ecuacin cointegrante es el modelo economtrico que se
basa en los fundamentos. Por ejemplo, el tipo de cambio en la teora Monetaria de la
Balanza de Pagos dependera de la oferta monetaria externa e interna, de la tasa de
inters interna y externa y de producto interno y externo. Por tanto se estimara el
modelo cuya variable dependiente sera el logaritmo del tipo de cambio sobre las
variables explicativas medidas en forma logartmica. Despus se generan y se guardan
los residuos de la regresin y se prueba si estos son estacionarios. Si los residuos
estimados son estacionarios en niveles se dir que las series estn cointegradas o bien
que tienden al equilibrio a largo plazo.

Prueba de cointegracin de Johansen. La utilizacin de esta prueba se ha ido
generalizando en los ltimos aos, en realidad es ms comn y precisa que la anterior.
Para saber como se realiza y se interpreta, nuevamente retomemos a la variables
cetes28, tipo de cambio fix y al ipyc en el periodo 2006.01 a diciembre de 2007
(recuerde cambiar el sample). Transformemos estas variables a logaritmos escribiendo
debajo del men principal la palabra genr lcetes28=cetes28, genr lfix=log(fix) y genr
lipyc=log(ipyc) como ya se anot a lo largo de esta gua. Primero, pruebe que las
variables son no estacionarias en niveles. Ahora liste las variables dando clic en el
nombre de stas y despus Show, una vez mostradas las variables de clic en
View/Cointegration Test/OK. En esta prueba aparece una ventana donde se puede
elegir si la prueba contiene tendencia no determinista en los datos, tiene tendencia lineal
determinista en los datos o tendencia cuadrtica en los datos. Si no se est seguro de la
eleccin, anote el nmero 6) la suma de lo anterior y aparece una ventana con
diferentes resultados de los crterios de Akaike y Schuarz. La primera opcin y la quinta
es difcil que sucedan por tanto concntrese en la segunda, tercera y cuarta, y elija la de
menor crterio de Akaike.
Akaike Information Criteria by Rank (rows) and Model (columns
Data Trend: None None Linear Linear Quadratic
Rank or No Intercept Intercept Intercept Intercept Intercept
No. of CEs No Trend No Trend No Trend Trend Trend
96
0 -13.89914 -13.89914 -13.86696 -13.86696 -13.90957
1 -14.13813 -14.71622 -14.69961 -14.63166 -14.75407
2 -13.92668 -14.80699 -14.87100 -14.98908 -15.02825*
3 -13.49137 -14.49571 -14.49571 -14.53115 -14.53115
Observe que la 2) o 3) opcin son iguales en la ltima fila por tanto e indistinto elegir
cualquiera. Si elige la 3) los resultados de la prueba de cointegracin es la siguiente.
Unrestricted Cointegration Rank Test (Trace)
Hypothesized Trace 0.05
No. of CE(s) Eigenvalue Statistic Critical Value Prob.**
None * 0.736222 51.08983 29.79707 0.0001
At most 1 * 0.489000 19.10627 15.49471 0.0136
At most 2 0.117246 2.992999 3.841466 0.0836
Trace test indicates 2 cointegrating eqn(s) at the 0.05 level
* denotes rejection of the hypothesis at the 0.05 level
**MacKinnon-Haug-Michelis (1999) p-values

La interpretacin de la prueba est en forma literal la prueba LR indica dos
ecuaciones cointegrandas al 5.0% de significacia- entre estas tres variables. Por tanto,
el VAR a construir necesita incluir al mecanismo de correccin del error, las pruebas de
causalidad debern realizarse con este mecanismo, al igual que las de exogeneidad.
Ahora construyamos el VAR dando clic en Quick/Estimate Var/ y donde aparece el
cursor escribir el nombre de las variables cointegradas medidas en logaritmos, en este
caso lcetes28, lfix y lipy, despus ubicarse en VAR Especification y dar clic en Vector
Correction Error/OK. Con estas instrucciones aparece un VAR con dos rezagos de
cada una de las variables, si se quiere cambiar el nmero de rezagos en el VAR ubicarse
en Lag Intervals y cambiar el nmero de rezagos antes de dar OK

Vector Error Correction Estimates
Date: 09/22/08 Time: 16:27
Sample: 2006M01 2007M12
Included observations: 24
Standard errors in ( ) & t-statistics in [ ]
Cointegrating Eq: CointEq1
LCETES28(-1) 1.000000
LFIX(-1) 2.495513
97
(0.39317)
[ 6.34717]
LIPYC(-1) 0.047393
(0.03490)
[ 1.35779]
C -8.416713
Error Correction: D(LCETES28) D(LFIX) D(LIPYC)
CointEq1 -0.064488 -0.505006 -0.074626
(0.12027) (0.12173) (0.47303)
[-0.53621] [-4.14846] [-0.15776]
D(LCETES28(-1)) 0.254536 -0.045494 -0.520714
(0.20413) (0.20662) (0.80289)
[ 1.24690] [-0.22018] [-0.64855]
D(LCETES28(-2)) 0.406054 -0.055457 0.411076
(0.21575) (0.21838) (0.84858)
[ 1.88204] [-0.25394] [ 0.48443]
D(LFIX(-1)) -0.129957 0.480105 -0.239822
(0.21401) (0.21662) (0.84172)
[-0.60726] [ 2.21639] [-0.28492]
D(LFIX(-2)) 0.054275 0.205909 -0.380313
(0.18234) (0.18457) (0.71718)
[ 0.29765] [ 1.11564] [-0.53029]
D(LIPYC(-1)) -0.092914 -0.070647 -0.152248
(0.07103) (0.07189) (0.27936)
[-1.30816] [-0.98267] [-0.54500]
D(LIPYC(-2)) -0.040496 0.013592 -0.066025
(0.08183) (0.08282) (0.32184)
[-0.49490] [ 0.16410] [-0.20515]
C 0.004674 0.001059 0.027018
(0.00441) (0.00446) (0.01734)
[ 1.06001] [ 0.23726] [ 1.55771]
R-squared 0.588350 0.587247 0.063542
Adj. R-squared 0.408253 0.406668 -0.346158
Sum sq. resids 0.002888 0.002959 0.044671
S.E. equation 0.013434 0.013598 0.052839
F-statistic 3.266854 3.252020 0.155094
Log likelihood 74.24981 73.95885 41.38328
Akaike AIC -5.520818 -5.496570 -2.781940
Schwarz SC -5.128133 -5.103886 -2.389256
98
Mean dependent -0.004154 0.001088 0.021095
S.D. dependent 0.017464 0.017653 0.045541
Determinant resid covariance (dof adj.) 4.80E-11
Determinant resid covariance 1.42E-11
Log likelihood 197.5515
Akaike information criterion -14.21263
Schwarz criterion -12.88732
Note que en el resultado del VAR con mecanismo de correccin del error aparece la
ecuacin cointegrante y el VAR es estimado en primeras diferencias del logaritmo de
las series, es decir, en cambio relativo de las series o en tasas de crecimiento.
Por otro lado, observe que los rezagos de las variables no son estadsticamente
significativos en ningn caso. Para efectos de la evaluacin del VAR, este no es bueno.
Para efectos de la prueba de causalidad cuando las series estn cointegrados, la no
significacia estadstica de los coeficientes indica que ninguna de las variables se est
causando o bien que son independientes. Para efectos de la prueba de exogeneidad
fuerte, los resultados indican que las tres variables son exgenas.
99

Вам также может понравиться