Вы находитесь на странице: 1из 17

QED

(Documento de trabajo del Departamento de Economía de la Reina No. 1227)

Valores Críticos para Pruebas de Cointegración

James G.
MacKinnon
Queen’s
University

Departamento de
Economía
“Queen's
University”
94 University
Avenue
Kingston,
Ontario, Canada
K7L 3N6

1-2010
VALORES CRÍTICOS PARA LAS PRUEBAS DE COINTEGRACIÓN

James G. MacKinnon
Departamento de Economía
Queen’s University
Kingston, Ontario, Canada
K7L 3N6
jgm@econ.queensu.ca
http://www.econ.queensu.ca/faculty/mackinnon/

Abstracto

Este documento proporciona las tablas de valores críticos para algunas populares pruebas de
raíces unitarias y de cointegración. Aunque estas tablas se basan necesariamente en
simulaciones de computadora, son mucho más precisos que los disponibles anteriormente. Los
resultados de los experimentos de simulación se resumen por medio de regresiones de
superficie de respuesta en la que los valores críticos dependen del tamaño de la muestra. De
estas regresiones, los valores críticos asintóticos se pueden leer directamente, y valores
críticos para cualquier tamaño de muestra limitado pueden ser computados fácilmente con
una calculadora de mano. Añadido en la versión 2010: un nuevo Apéndice contiene resultados
adicionales que son más precisos y cubren más casos que en el documento original.

Enero de 1990
Reeditado en enero de 2010 con resultados adicionales

Este documento apareció originalmente como documento de discusión de la Universidad de


California en San Diego 90-4, que aparentemente ya no está disponible en la web. Fue escrito
mientras estaba visitando UCSD en el otoño de 1989 y principios de 1990 y apoyado, en parte,
por subvenciones del Consejo de Investigación de Ciencias Sociales y Humanidades de Canadá.
Estoy agradecido con todos los econometristas de UCSD por proporcionar un entorno de
investigación hospitalario y con Rob Engle y el difunto Clive Granger por sus comentarios sobre
una versión anterior.
Forward (Avance, adelanto)

Pasé el año académico de 1989-1990 en un año sabático en la Universidad de California en San


Diego. Como Robert Engle y Clive Granger estaban allí permanentemente, y David Hendry,
Søren Johansen y Timo Terásvirta también estaban de visita, inevitablemente hubo mucha
discusión sobre la cointegración. Me sorprendió descubrir que, para la mayoría de las pruebas,
entonces no existían valores críticos precisos. Por lo tanto, me propuse calcularlos para las
pruebas Dickey-Fuller y Engle-Granger, y el resultado fue este documento.

El documento apareció originalmente como documento de discusión de la Universidad de


California en San Diego No. 90-4. Durante muchos años, un PDF de mapa de bits que faltaba la
página de portada se podía encontrar en el sitio web económico de UCSD, pero parece
haberse desvanecido en algún momento durante 2009. El artículo fue publicado
posteriormente en un libro editado por Rob Engle y Clive Granger; ver las referencias.

He hecho disponible esta versión como un documento de trabajo del Departamento de


Economía de la Universidad de Queen, para que los investigadores que busquen el documento
de trabajo de la UCSD en la web puedan encontrarlo. También agregué un apéndice en el cual
proporciono nuevos resultados que son mucho más precisos y cubren más casos que los del
documento original. Los enormes aumentos en el poder de cómputo en los últimos veinte
años hicieron que esto fuera bastante fácil de hacer. También agregué algunas referencias
adicionales a trabajos que no existían cuando el documento fue escrito originalmente.

Después de escribir este artículo, desarrollé métodos más avanzados para calcular las
funciones de distribución aproximadas de las estadísticas de prueba, como las tratadas en este
documento; ver, en particular, MacKinnon (1994, 1996, 2000), MacKinnon, Haug y Michelis
(1999), y Ericsson y MacKinnon (2002). MacKinnon (1996) proporciona resultados
razonablemente precisos para las pruebas Dickey-Fuller y Engle-Granger, que cubren los
mismos casos que los del nuevo apéndice, aunque no son tan precisos. Las "funciones de
distribución numérica" obtenidas en ese documento se pueden usar para calcular los p-valores
así como los valores críticos. Sin embargo, los resultados de este documento continúan
usándose mucho más a menudo que los del artículo de 1996. Quizás eso se deba a que no
requieren el uso de un programa informático especializado para calcular valores críticos.
Espero que, en el futuro, los investigadores que prefieran el enfoque de este documento usen
los resultados más precisos y más ampliamente aplicables que se encuentran ahora en los
Cuadros 2, 3 y 4.

Esta versión del artículo está dedicada al fallecido Sir Clive Gran

ger, 1934-2009, sin cuyas contribuciones fundamentales nunca podría haber sido concebida.

Enero de 2010
1. Introducción
Engle y Granger (1987) sugirieron varias técnicas para probar la hipótesis nula de que dos
o más series, cada una de las cuales es 𝐼(1), no están cointegradas. Este documento se
ocupa de las más populares de estas técnicas, a las que me referiré como pruebas
EngleGranger (o EG) aunque no fueron las únicas pruebas propuestas por esos autores.
Las pruebas EG están estrechamente relacionadas con algunas de las pruebas sugeridas
por Fuller (1976) y Dickey y Fuller (1979) para probar la hipótesis de raíz unitaria; Me
referiré a estos como las pruebas Dickey-Fuller o DF. Las pruebas EG y DF son muy fáciles
de calcular, pero sufren de una seria desventaja: las estadísticas de las pruebas no siguen
ninguna distribución tabulada estándar, ya sea en muestras finitas o asintóticamente.
EngleandGranger (1987), EngleandYoo (1987), Yoo (1987), y Phillips y Ouliaris (1990)
proporcionan tablas para una o más versiones de la prueba EG. Pero estas tablas se basan
en un máximo de 10.000 réplicas, lo que significa que son bastante inexactas. Además,
contienen valores críticos para solo unos pocos tamaños de muestra finitos; valores
críticos asintóticos, que en muchos casos son los más interesantes, no se proporcionan.
Este documento proporciona tablas de valores críticos para dos versiones de la prueba EG
y tres versiones de la prueba DF. Aunque se basan en la simulación, deben ser lo
suficientemente precisos para todos los propósitos prácticos. Los resultados de los
experimentos de simulación se resumen mediante regresiones de superficie de respuesta,
en las que los valores críticos se relacionan con el tamaño de las muestras. Los objetivos
de la respuesta de la superficie de respuesta se han contabilizado de tal manera que los
valores críticos asintóticos se pueden leer directamente, y los valores críticos para
cualquier tamaño de muestra finito se pueden calcular fácilmente con una calculadora
manual.

2. Pruebas Engle-Granger y Dickey-Fuller


Las pruebas de Engle-Granger son conceptual y computacionalmente bastante simples.
Deje que el vector 𝑦𝑡 ≡ [𝑦𝑡1 , … , 𝑦𝑡𝑁 ]𝑇 denote la t-ésima observación en 𝑁 series
temporales, cada una de las cuales se sabe que es 𝐼 (1). Si estas series temporales están
cointegradas, existe un vector 𝛼 tal que el proceso estocástico con observación típica 𝑧𝑡 ≡
[1 𝑦𝑡 ]𝑇 𝛼 es 𝐼 (0). Si no están cointegrados, no existirá un vector 𝛼 con esta propiedad, y
cualquier combinación lineal de 𝑦1 a 𝑦𝑁 y una constante seguirá siendo 𝐼 (1).
Para implementar la forma original de la prueba de EG, primero se debe ejecutar la
regresión de cointegración
𝑁

𝑦𝑡1 = 𝛼1 + ∑ 𝛼𝑗 𝑦𝑡𝑗 + 𝑢𝑡 , (1)


𝑗=2
para una muestra de tamaño 𝑇 + 1, obteniendo así un vector de coeficientes
𝜶̂ ≡ [1 − 𝛼̂1 … − 𝛼̂𝑁 ]𝑇 . Entonces uno calcula

𝑧̂𝑡 ≡ [1 𝑦𝑡 ]𝑇 𝜶
̂ ≡ 𝑦𝑡1 − 𝛼̂1 − 𝛼̂2 𝑦𝑡2 … − 𝛼̂𝑁 𝑦𝑡𝑁

y prueba para ver si 𝑧̂𝑡 es 𝐼 (1) usando un procedimiento esencialmente igual (excepto
para la distribución de la estadística de prueba) como la prueba DF. La hipótesis nula de
no cointegración corresponde a la hipótesis nula de que 𝑧̂𝑡 es 𝐼 (1). Si uno rechaza el nulo,
uno concluye que 𝑦1 a 𝑦𝑁 están cointegrados.

Para probar si 𝑧̂𝑡 es 𝐼(1), uno puede ejecutar la regresión


𝑧̂𝑡 = 𝜌𝑧̂𝑡−1 + 𝜀𝑡 (2)

y calcular el estadístico 𝑡 ordinario para 𝜌 = 1, o ejecute la regresión

∆𝑧̂𝑡 = 𝛾𝑧̂𝑡−1 + 𝜀𝑡 , (3)

donde ∆𝑧̂𝑡 ≡ 𝑧̂𝑡 − 𝑧̂𝑡−1 , y calcular el estadístico 𝑡 ordinario para 𝛾 = 0. En cualquier


caso, uno deja caer la primera observación, reduciendo el tamaño de la muestra a 𝑇.
Estos dos procedimientos evidentemente arrojan pruebas de estadísticas idénticas.
Porque hay un término constante en (1), no es necesario incluir uno en (2) o (3). El
regresante 𝑧̂ 𝑡 y el regresor 𝑧̂ 𝑡−1, cada uno tiene una media cero si se observaron ambos
sobre las observaciones 0 a través de 𝑇. Sin embargo, porque la regresión no hace uso de
la primera observación en 𝑧̂ 𝑡 o la última observación en 𝑧̂ 𝑡−1 , eso no será del todo
cierto. Pero ambos deberían tener un significado muy cerca de cero, excepto cuando 𝑇
es pequeño y 𝑧̂ 0 o 𝑧̂ 𝑇 es inusualmente grande en absoluto valor. Por lo tanto, agregar
una constante a (2) o (3) generalmente tendría un efecto insignificante en la
estadística de prueba.1

La forma en que se calcula la prueba EG es algo arbitraria, ya que a cualquiera de la 𝑦𝑗


se le podría dar el índice 1 y hacer las regresiones de la regresión de cointegración (1).
Como resultado, el valor (pero no la distribución) de la estadística de prueba diferirá
dependiendo de qué serie se usa para regresar. Por lo tanto, uno puede desear repetir
el procedimiento con diferentes elecciones de 𝑦𝑗 sirviendo como regresantes,
computando hasta 𝑁 diferentes estadísticas de prueba, especialmente si la primera
está cerca del valor crítico elegido.
Si 𝑁 = 1, este procedimiento es equivalente a una variante de la prueba DF común
(ver a continuación), en la que se ejecuta la regresión

∆𝑧̂ 𝑡 = 𝛼1 + 𝛾𝑧̂ 𝑡−1 + 𝜀𝑡

y para la prueba es 𝛾 = 0. Como han demostrado varios autores (ver West (1988) y
Hylleberg y Mizon (1989)), este último tiene la distribución Dickey-Fuller solo cuando
no hay un término de deriva en el proceso de generación de datos para z𝑡 , de modo
que 𝛼1 = 0. Cuando 𝛼1 ≠ 0, el estadístico de prueba se distribuye asintóticamente
como 𝑁(0,1), y en muestras finitas su distribución puede o no ser bien aproximada por
la distribución de Dickey-Fuller. La versión original de la prueba EG también tiene una
distribución que depende del valor de 𝛼1 ; dado que todos los valores críticos tabulados
suponen que 𝛼1 = 0, pueden ser bastante engañosos cuando ese no es el caso.

Hay una manera más simple de evitar la dependencia de 𝛼1 de la distribución del


estadístico de prueba. Esto es para reemplazar la regresión de cointegración (1) por

𝑌t1 = 𝛼0 𝑡 + 𝛼1 + ∑ 𝛼j 𝑌tj + 𝑢𝑡 (4)


𝑗=2
Es decir, agregar una tendencia de tiempo lineal a la regresión de cointegración.

1
Se hicieron algunos cambios en este párrafo en la versión de 2010 para corregir errores menores en el
documento original. La conclusión no ha cambiado
La resultante de la estadística de prueba ahora será invariante con el valor de 𝛼1 , aunque
tendrá una distribución diferente a la basada en la regresión (1). Al agregar una tendencia a la
cointegración, la regresión a menudo tiene sentido por varias otras razones, como Engle y Yoo
(1990). Por lo tanto, hay dos variantes de la prueba de Engle-Granger. La variante "sin
tendencia" utiliza (1) como la regresión de cointegración, y la variante "con tendencia" usa (4)
en algunos casos, el vector 𝛼 (o al menos 𝛼2 a 𝛼N ) puede ser conocido.
Podemos entonces simplemente calcular 𝑧𝑡 = 𝑦t1 − 𝛼2 𝑦t2 … − 𝛼𝑁 𝑦tN y usar una prueba DF
común. En este caso, es más fácil prescindir por completo de las regresiones de cointegración
(1) o (4) ejecutando una de las siguientes regresiones de prueba:

∆𝑧𝑡 = 𝛾𝑧𝑡−1 + +𝜀𝑡 , (5)


∆𝑧𝑡 = 𝛼1 + 𝛾𝑧𝑡−1 + 𝜀𝑡 , (6)
∆𝑧𝑡 = 𝛼0t + 𝛼1 + 𝛾𝑧𝑡−1 + 𝜀𝑡 . (7)

Las estadísticas 𝑡 para 𝛾 = 0 en estas tres regresiones arrojan las estadísticas de prueba que
Fuller (1976) se refiere como 𝛾 = 0τ, τμ y τt, respectivamente; él proporciona algunos valores
críticos estimados en la página 373. Nos referiremos a estas estadísticas de prueba como "no
constante", "sin tendencia", y estadísticas "con tendencia", respectivamente. Tenga en cuenta
que la distribución tabulada de estadística no constante depende de la suposición de que z0 =
0, mientras que los de la otras dos son invariables a z0. La distribución tabulada de la
estadística sin tendencia depende en el supuesto de que α1 = 0 (ver West (1988) y Hylleberg y
Mizon (1989)), mientras que el de la estadística con tendencia depende de la suposición de
que α0 = 0.

Hasta este punto, se ha supuesto que las innovaciones εt son serialmente independientes y
homoscedásticos. Estas suposiciones bastante fuertes pueden relajarse sin afectar las
distribuciones asintóticas de las estadísticas de prueba. Las estadísticas de prueba ni siquiera
tienen para ser modificado para permitir la heterocedasticidad, ya que, como Phillips (1987) ha
demostrado, heteroscedasticidad no afecta la distribución asintótica de una amplia clase de
unidad estadística de prueba raíz, sin embargo, tienen que modificarse para permitir la
correlación serial. La forma más fácil de hacerlo es usar Dickey-Fuller aumentado, o ADF, y
Augmented Engle-Granger, o AEG, pruebas. En la práctica, esto significa que uno debe agregar
tantos rezagos de Δzt a regresiones (2) o (3), o de Δzt a regresiones (5), (6) o (7), como sean
necesarios para garantizar que los residuos de esas regresiones parezcan ser ruido blanco.

Un enfoque diferente para obtener pruebas unitarias de raíz que son asintóticamente válidas
en él, sugirió la presencia de correlación serial y / o heterocedasticidad de forma desconocida
por Phillips (1987) y extendido al caso de cointegración por Phillips y Ouliaris (1990). Las
distribuciones asintóticas de lo que Phillips y Ouliaris llaman Zt estadística son idénticos a los
de las pruebas correspondientes de DF, ADF, EG y AEG. Phillips y Ouliaris tabula valores críticos
para dos formas de esta estadística (correspondiente a las versiones sin tendencia y con
tendencia de las estadísticas DF y EG) para varios valores de N. Desafortunadamente, estos
valores críticos se basan en solo 10,000 repeticiones, por lo que sufren de considerable error
experimental.

Sin embargo, no será invariable con el valor de α0. Para lograr eso, uno tendría agregar t a la
regresión; ver el apéndice.
ellos sufren de un considerable error experimental. Además, es para 500 de un lugar
de números infinitos de observaciones, por lo que están sesgadas desde cero como
estimaciones de valores críticos asintóticos. Como se puede ver en la Tabla 1 a
continuación, este sesgo no es despreciable en algunos casos.

3.- Los experimentos de simulación


En lugar de simplemente proporcionar tablas de valores críticos estimados para
algunos tamaños de muestras específicas, como lo han hecho los documentos
anteriores, este documento estima las regresiones de superficie de respuesta. Estos
relacionan los valores críticos del 1%, 5% y 10% de cola inferior para las estadísticas de
prueba explicadas anteriormente, para varios valores de N, con el tamaño de muestra
𝑇2. Recordar que 𝑇 se refiere al número de observaciones en la unidad regresión de
prueba de raíz, y que esta es una menos que la cantidad total de observaciones
disponibles y utilizadas en la regresión de cointegración. Las superficies de respuesta
se estimaron para trece pruebas diferentes: las versiones no constantes, sin tendencia
y con tendencia de la prueba DF, que son equivalentes a las correspondientes pruebas
EG para 𝑁 = 1, y la no tendencia y sin- versiones de tendencia de la prueba EG para
𝑁 = 2, 3, 4, 5 𝑦 6. Por lo tanto, se estimaron un total de treinta y nueve regresiones de
superficie de respuesta.
Las pruebas DF se calcularon usando los procedimientos de un solo paso de las
regresiones (5), (6) y (7), mientras que las pruebas EG se calcularon usando
procedimientos de dos pasos consistentes en regresiones (1) o (4) seguidas de (3).
Estas son las formas más fáciles de calcular estas pruebas. Tenga en cuenta que existe
una ligera diferencia entre las correcciones de grados de libertad utilizadas para
calcular los errores estándar de regresión y, por lo tanto, las estadísticas 𝑡, para las
pruebas 𝐷𝐹 (𝑁 = 1) y para las pruebas EG (𝑁 ≥ 2). Si las pruebas DF sin tendencia y
con tendencia se computaron de la misma manera que las pruebas EG
correspondientes, serían más grandes si los factores ((𝑇 − 1)/(𝑇 − 2))1/2 y
((𝑇 − 1)/(𝑇 − 3))1/2; respectivamente.
Conceptualmente, cada experimento de simulación consistió en 25,000 repeticiones
para un valor único de 𝑇 y un valor único de 𝑁3. Luego se calcularon los cuantiles
empíricos del 1%, 5% y 10% para estos datos, y cada uno de estos se convirtió en una
observación única en la regresión de la superficie de respuesta. Se eligió el número
25,000 para minimizar el sesgo en la estimación de cuantiles, mientras se mantienen
los requisitos de memoria del programa manejable.
Para todos los valores de 𝑁 excepto 𝑁 = 6, se realizaron cuarenta experimentos para
cada uno de los siguientes tamaños de muestra: 18, 20, 22, 25, 28, 30, 32, 40, 50, 75,

2
La cola superior no tiene ningún interés en este caso, y la gran mayoría de las pruebas de hipótesis se
encuentran en niveles de 1%, 5% o 10%.

3
De hecho, los resultados para 𝑁 = 2, 3, 4 𝑦 5 se calcularon juntos para ahorrar tiempo en la
computadora. Los resultados para 𝑁 = 1 se calcularon por separado porque los cálculos fueron
ligeramente diferentes. Los resultados para 𝑁 = 6 se calcularon por separado porque no se decidió
extender el análisis a este caso hasta que la mayoría de los demás cálculos se hayan considerado
100, 150, 200, 250, y 500. Para 𝑁 = 6, los tamaños de muestra fueron 20, 22, 25, 28,
30, 32, 36, 40, 50, 100, 250 y 275. La mayoría de los tamaños de muestra fueron
relativamente pequeños porque el costo de los experimentos fue ligeramente menor
que proporcional al tamaño de la muestra, y debido a los pequeños tamaños de
muestra
la regresión de cointegración en los casos sin tendencia y con tendencia, respectivamente, a
menudo(pero no siempre) resultó en un deterioro dramático en el ajuste de la superficie de
respuesta.
Los residuos ek en la regresión (8) fueron heteroscedásticos, siendo más grandes para los más
pequeños tamaños de muestra. Esto fue particularmente notable cuando (8) se ejecutó para
valores más grandes de N. Por lo tanto, las regresiones de superficie de respuesta se estimaron
mediante GLS factible. Como un primer paso, Ck (p) se regresó en 15 (o 12) variables ficticias,
produciendo residuos 'ek.
Luego se ejecutó la siguiente regresión:

donde d es el número de grados de libertad utilizados en la regresión de cointegración, y hay


tres coeficientes que se estiman.7 Las inversas de las raíces cuadradas de los valores ajustados
de (9) se usaron luego como ponderaciones para la estimación de GLS factible de (8).
Las estimaciones factibles de GLS en general fueron mucho mejores que las de OLS en
términos de valores de loglikelihood, pero los dos conjuntos de estimaciones fueron
numéricamente muy cercanos.
Los resultados finales de este documento son las estimaciones de regresión de GLS factibles (8)
para 39 conjuntos de datos experimentales. Estas estimaciones se presentan en la Tabla 1. Las
estimaciones de β∞ proporciona valores críticos asintóticos directamente, mientras que los
valores para cualquier T finita pueden fácilmente se calcula utilizando las estimaciones de los
tres parámetros. La restricción de que β2 = 0 se ha impuesto siempre que la estadística t en β
2 fue menos de uno en valor absoluto.
Los errores estándar estimados se informan para β∞ pero no para β1 o β2, ya que este último
no son de interés Lo que es de interés es el error estándar de

El valor crítico estimado para una prueba en el nivel p% cuando el tamaño de la muestra es T.
Esto varía con T y tiende a ser más pequeño para tamaños de muestra en el rango de 80 a
150. Excepto por valores muy pequeños de T (menos de aproximadamente 25), el error
estándar de C (p, T) siempre fue menor que el error estándar de la β∞ correspondiente, por lo
que, si los errores estándar de β∞ eran precisos, podrían considerarse como límites superiores
para los errores estándar de C (p, T) para la mayoría de los valores de T.
Sin embargo, los errores estándar para β∞ informados en la Tabla 1 son, sin duda, demasiado
pequeños. El problema es que están condicionados a la especificación de la superficie de
respuesta regresiones. Aunque la especificación (8) funcionó muy bien en todos los casos,
otras las especificaciones también se desempeñaron bien en muchos casos, algunas veces
superando (8) insignificantemente. Las estimaciones de β∞ a veces cambiaron tanto como el
doble del reportado error estándar como resultado de cambios menores en la especificación
de la superficie de respuesta eso no afectó significativamente su ajuste. Por lo tanto, es
razonable pensar en el
7 Una considerable experimentación precedió a la elección de la forma funcional para la
regresión (9) Se encontró que omitir d tenía poco efecto en el ajuste de la regresión, aunque
en balance, parecía preferible retenerlo. En este sentido, la regresión (9) es bastante
diferente de la regresión (8), donde el uso de Tk-d en lugar de Tk a veces empeoraba
el ajuste sustancialmente.

los errores estándar actuales en el son aproximadamente dos veces más


grandes que los reportados. Aun así, parece probable que pocos o ninguno de
los valores críticos estimados en 1% en la Tabla 1 difieren del valor verdadero
hasta en .01, y es extremadamente improbable que cualquiera de los valores
críticos estimados del 5% y 10% difieren mucho de sus valores reales.

4. Conclusión
Se espera que los resultados en la Tabla 1 sean útiles para los investigadores
que realizan pruebas raíces unitarias y cointegración. Aunque los métodos
utilizados para obtener estos resultados son bastante intensivos
computacionalmente, son completamente factibles con personal actual
tecnología computacional. El uso de regresiones de superficie de respuesta
para resumir resultados es valioso por dos razones. En primer lugar, este
enfoque permite estimar asintóticos valores críticos sin utilizar realmente
muestras infinitamente grandes. En segundo lugar, lo hace es posible tabular
los resultados para todos los tamaños de muestra basados en resultados
experimentales solo unos pocos. Se podrían emplear métodos similares en
muchos otros casos donde las estadísticas de prueba no sigas las
distribuciones tabuladas estándar.
Explicación de la Tabla 1

N: Número de series I (1) para las cuales se está probando el nulo de la no cointegración.

Nivel: nivel de prueba de una cola de la raíz de la unidad nula frente a la alternativa de
estacionariedad.

Obs .: Número de observaciones utilizadas en la regresión de superficie de respuesta. Los


valores posibles son 600, 560, 520 y 480. Si Obs. = 600, la regresión usó 40 observaciones de T
= 18, 20, 22, 25, 28, 30, 32, 40, 50, 75, 100, 150, 200, 250 y 500. Si Obs. = 560, las
observaciones para T = 18 no se usaron. Si Obs. = 520, las observaciones para T = 18 y T = 20 no
se usaron. Si Obs. = 480, la regresión usó 40 observaciones de cada una de T = 20, 22, 25, 28,
30, 32, 36, 40, 50, 100, 250 y 275.

𝛽∞ : valores críticos asintóticos estimados (con errores estándar estimados entre paréntesis).

𝛽1 : Coeficiente en 𝑇 −1 en la regresión de superficie de respuesta.

𝛽2 : Coeficiente en 𝑇 −2 en la regresión de superficie de respuesta. Se omitió si el estadístico t


fue menor que uno en valor absoluto.

Para cualquier tamaño de muestra T, el valor crítico estimado es

𝛽∞ + 𝛽1 /𝑇 + 𝛽2 /𝑇 2 .
Por ejemplo, cuando T = 100, el valor crítico del 5% para la prueba EG con tendencia cuando N
= 5 es

−4.7154 − 17.432/100 − 16.50/100 2 = −4.8914 .


Apéndice (agregado en la versión 2010)
En los veinte años transcurridos desde que se escribió este documento, la tecnología
informática ha avanzado enormemente. Con motivo de la reedición del documento, tiene
sentido informar nuevos resultados basados en un número mucho mayor de repeticiones que
cubren una gama más amplia de casos. Sin embargo, para la comparabilidad con el documento
original, la metodología es en gran parte sin cambios. Los resultados de la simulación también
podrían haberse utilizado para proporcionar funciones de distribución numérica algo más
precisas que las de MacKinnon (1996), que permiten calcular los valores P y los valores críticos
para las pruebas en cualquier nivel, pero no se intenta hacerlo aquí.
Una diferencia importante entre los experimentos originales y los nuevos es que los últimos
implican mucha más computación. En lugar de 25,000 repeticiones, cada simulación ahora
involucra 200,000. En lugar de 40 simulaciones para cada tamaño de muestra, ahora hay 500. Y
en lugar de los 12 o 15 tamaños de muestra utilizados originalmente, hay 30. Los tamaños de
muestra son 20, 25, 30, 35, 40, 45, 50, 60, 70, 80, 90, 100, 120, 140, 160, 180, 200, 250, 300,
350, 400, 450, 500, 600, 700, 800, 900, 1000, 1200 y 1400. Algunos de estos valores de T son
mucho más grandes que los más grandes utilizados originalmente. Esto aumenta la precisión
de las estimaciones pero hace que los experimentos sean mucho más caro
El número total de observaciones para las regresiones de superficie de respuesta es
usualmente 15,000 (es decir, 30 veces 500), aunque, en algunos casos, las simulaciones para T
= 20 se descartaron porque la superficie de respuesta no encajaba lo suficientemente bien. En
muy pocos casos, las simulaciones para T = 25 también se descartaron. Por lo tanto, algunas de
las estimaciones, siempre para valores mayores de N, se basan en 14,500 o 14,000
observaciones.

Debido a que las nuevas regresiones de superficie de respuesta se basan en 200 veces más
simulaciones que las originales, cualquier especificación errónea se vuelve mucho más
aparente. Por lo tanto, era necesario en la mayoría de los casos agregar un término adicional
(cúbico) a la ecuación (8), que se convierte así en

Ck(p) = β∞ + β1T −1 + β2T −2 + β3T −3 + ek. (A.1)


Para evitar agregar el término cúbico, por lo general habría sido necesario eliminar uno o más
de los tamaños de muestra más pequeños (a menudo bastantes de ellos). Esto se intentó en
varios casos, y la estimación de β∞ no cambió mucho cuando se abandonaron suficientes
valores pequeños de Tk, por lo que la estimación de β3 se volvió insignificante al nivel del 10%.

En general, el error estándar de β fue menor cuando se estimó la ecuación (A.1) usando todos
los datos que cuando se estimó la ecuación (8) sin las observaciones correspondientes a
algunos de los valores más pequeños de Tk.

La segunda gran diferencia entre los experimentos originales y los nuevos es que estos últimos
tratan con una gama más amplia de casos. Los valores de N pasan ahora de 1 a 12 en lugar de
1 a 6. Además, se incluye una variante adicional de las pruebas DF y EG, en la que 𝑡 2 se agrega
a la regresión de cointegración (4) o a la regresión de la prueba DF (7). Esta variante de las
pruebas fue defendida por Ouliaris, Park y Phillips (1989). En la notación utilizada por
MacKinnon (1996), las pruebas para las que se calculan valores críticos son las pruebas
𝑡𝑐 ,𝑡𝑐𝑡 ,𝑡𝑐𝑡𝑡 . Estos involucran, respectivamente, una constante

Вам также может понравиться