Вы находитесь на странице: 1из 75

Introducción Series

de Tiempo

H.E. Sheriff
Tema 1
INF
7

-1
1955 1960 1965 1970 1975 1980 1985 1990
ING
920

910

900

890

880

870

860
1955 1960 1965 1970 1975 1980 1985 1990
Proceso Generador de Datos
 Modelo matemático desconocido
 Marginalización
 Eliminación de variables
 Ruido blanco
 Condicionalización
 Distinción entre variables exógenas y
endógenas
 Innovación y exogeneidad débil
 Ortogonalización
 Representación parsimoniosa de los datos
Ruido Blanco e Innovación
 Ruido blanco
 E(ut\ut-1) = E(ut)
 Ut es impredecible sobre la base de su propio pasado.

 Innovación
 E(ut\It-1) = E(ut)
 I es todo el conjunto de información disponible.
 U es impredecible por los datos disponibles.
 El mínimo requerimiento es que It-1 = xt-1

 Si u no fuese ruido blanco e innovación, la información


disponible no está totalmente aprovechada y podría ser
utilizada para mejorar el modelo.
Usos de los modelos
 Inferencia
 Explicar el comportamiento de las variables de interés
 Predicción
 Proyectar el sendero futuro de las variables de interés
 Simulación
 Proyectar o construir contrafactuales de las variables
de interés bajo determinados escenarios o supuestos.
La exogeneidad

Débil
 Sólo para inferencia
 Suficiente para estimación por MCO
Fuerte
 Causalidad en el sentido Granger
 Basada en VAR sirve para predicción
Super
 Permite simulación de políticas
 Refuta crítica de Lucas
Limitaciones del Análisis de
Series de Tiempo (ARIMA)
Una especificación tipo ARIMA utiliza exclusivamente la información
proporcionada por el análisis de las propiedades temporales de las
series.
Introduce el concepto de Proceso Generador de Datos de manera
explícita.
Las predicciones basadas en este tipo de modelos son de bajo
poder en horizontes de tiempo largos.
Dado que es un enfoque aplicado a la física y a experimentos
controlados, su aplicación a fenómenos económicos (no
experimentales) omite y no presta importancia a variables
explicativas que pueden mejorar las propiedades de un modelo.
Características generales de Eviews
• Ejemplo de datos estadísticos básicos
• Ejemplo de grafico simple
• Ejemplo de gráfico compuesto
• Gráficos avanzados
• Ejemplo de conversión simple de datos
La importancia del análisis gráfico
• Detección de tendencias
• Detección de movimiento estacional
• Detección de ciclos
• Detección de cambio estructural
• Detección de observaciones atípicas
Series de tiempo

1. Tendencia
2. Estacionalidad
3. Observaciones aberrantes
4. Heteroscedasticidad condicional
5. No linealidad
Series típicas
• Presentan al menos una de las características.
• Usualmente presentan 3 características.
Herramientas
• Modelos de regresión.
• Análisis gráfico
Construcción de modelos
• El valor de yt-1 se refleja en yt.
• Por lo tanto es necesario analizar los valores
pasados de y para poder efectuar predicciones de
y.
• Las series de tiempo pueden ser caracterizadas
por un conjunto de autocorrelaciones debido al
PGD.
• En los modelos causales, x no siempre es
observable.
Métodos estadísticos
• Análisis espectral
• Modelos Box Jenkins
Métodos estadísticos
Análisis de series de
Análisis espectral tiempo

• Una serie sin tendencia puede • El hecho de que las series


ser descompuesta en cierto vengan en secuencia puede
número de patrones cíclicos. ser aprovechada.
• La extensión de esos ciclos • La función de
puede ser objeto de estudio y autocorrelación juega un rol
ser explotados para central.
caracterizar las series. • Su principal uso es la
• No están diseñados para predicción.
predicción (excepto redes • En casos de no linealidades
neuronales). y componente estacional
existen puntos de encuentro
con el análisis espectral.
Tendencia
• 80% de las series económicas presentan
tendencias.
• Tendencias cambiantes
Tendencia
• Puede ser positiva o negativa.
• Lineal o no lineal.
• Si una serie presenta tendencia entonces esta
puede ser aprovechada para predicción.
• Analizar cambios en tendencia
• Tendencia determinística
Representación

yt    t  ut
yt    ut
Aspectos salientes de la tendencia
• No hay una forma de representar la tendencia
• Ello tiene impacto en las predicciones.
• A veces existe una tendencia cambiante.
Tendencia negativa
Tasa de interés pasiva
20

16

12

0
88 90 92 94 96 98 00 02 04 06 08 10
Tendencia cambiante
LPRSUS
6.50

6.25

6.00

5.75

5.50

5.25

5.00

4.75

4.50
68 70 72 74 76 78 80 82 84 86 88 90 92 94
Estacionalidad
S 1
yt     s Dst  ut
s 1

1 si t  (T  1)S  s y s  1, 2,3,....S
Ddt  
0 e.o.l.
Aspectos de la estacionalidad
• Casi siempre es notoria en una gráfica
• Puede haber cambios en la estacionalidad
Estacionalidad cambiante
Y
10.5

10.4

10.3

10.2

10.1

10.0

9.9

9.8
70 72 74 76 78 80 82 84 86 88 90 92
Observaciones aberrantes
• Después de confirmar que no son errores
humanos, la variedad de razones es amplia.
• Afecta la tendencia, la estacionalidad y la propia
correlación de las variables y sus rezagos.
• Intentar formas de identificar observaciones
aberrantes más allá del simple análisis gráfico.
Observaciones aberrantes
INF
120

100

80

60

40

20

-20
1950 1955 1960 1965 1970 1975 1980 1985 1990 1995
Dispersograma con aberrantes
120
1.2
80
0.8
40

0
0.4
-40
D2INF

D2INF
0.0
-80

-120 -0.4

-160
-0.8
-200

-240 -1.2
-120 -80 -40 0 40 80 120 -0.6 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0

DINF DINF
Heteroscedasticidad
• Las observaciones aberrantes se agrupan
(pánicos, corridas, etc.)
• Esos periodos de burbujas (altas varianzas) que
se agrupan.
• Esa volatilidad agrupada es la
heteroscedasticidad condicional.
• Si se la identifica ello puede ayudar a la
predicción.
Representación de la
heteroscedasticidad condicional

(yt )     (yt 1 )  ut
2 2
Differenced INFM
1.5

1.0

0.5

0.0

-0.5

-1.0

-1.5

-2.0
68 70 72 74 76 78 80 82 84 86 88 90 92 94
No linealidad
• Diferente a “todo lo que no es lineal”
• Asociada a cambios estructurales o dependencia
de estado.
• Usualmente existe alta asimetría
• Si se pretende predecir con un modelo no lineal
se tendrá mayor esfuerzo en la especificación y
estimación de sus parámetros.
• Por ello es mejor un diagnóstico previo.
LQ
7.11

7.10

7.09

7.08

7.07

7.06
1955 1960 1965 1970 1975 1980 1985 1990
Series con características comunes
• Aparentemente relacionadas.
• A veces se llaman variables de interés.
• A veces contienen relaciones de largo plazo.
• Otras veces la interrelación entre variables
ayuda a mejorar las predicciones.
7.11

7.10

7.09

6.82 7.08

7.07
6.80
7.06
6.78

6.76

6.74
1955 1960 1965 1970 1975 1980 1985 1990

LQ LCON LY
6.82 6.83

6.81 6.82

6.81
6.80
6.80

LY
LY

6.79
6.79

6.78 6.78

6.77
6.77

6.76
6.76 6.73 6.74 6.75 6.76 6.77 6.78 6.79 6.80 6.81 6.82
6.74 6.75 6.76 6.77 6.78 6.79 6.80
LCON
LCON
Modelos ARMA(p,q)
• Equivalentes a ARIMA(p,0,q)
• Aplicados a series que no tienen tendencia,
estacionalidad, observaciones aberrantes,
heteroscedasticidad condicional ni no
linealidades.
• Si I=0 entonces decimos que la serie es
estacionaria
Ruido blanco

E ( t /  t  j )  E( t )
E ( t )  0
E ( )  
t
2 2

E ( s t )  0
Series Estacionarias
• Los supuestos principales de los modelos
econométricos tradicionales están basados en una
presunción de que la series económicas son
estacionarias.
• Sin embargo, es usual encontrar series no
estacionarias en el trabajo econométrico,
particularmente en finanzas.
• Gráficamente las series estacionarias no presentan
tendencias y ante un shock, éste tiende a
desaparecer en el tiempo.
Definición (débil) de Serie
Estacionaria
• Una serie estacionaria es aquella que tiene un
atractor, es decir, cuando converge a un valor finito.
• Ante un shock, las series estacionarias tienden a
volver a su atractor.
• En términos estadísticos, una serie estacionaria es
aquella que tiene media única, varianza finita y
memoria corta (es decir, correlaciones finitas y
rápidamente decrecientes.
• La definición fuerte implica que la distribución de
una serie estacionaria no cambia en el tiempo.
160

140

120

100

80

60

40

20

0
1 5 9 13 17 21 25 29 33 37Series2
41 45 49 53 57 61 65 69 73 77 81

Ejemplo 1
Proceso AR
• Se dice que un proceso estacionario es AR(p) si la
variable estacionaria y puede ser explicada por sus
valores pasados. P
yt   φi yt i  t
i 1

• y estacionario determina que la ecuación en


diferencia anterior pueda ser convergente.
• El residuo et debe ser ruido blanco.
Algebra de rezagos
Lk yt  yt k
L2 yt  yt 2
L2 yt  yt 2
(1   L)  1   L   L   L  ......   0    1
1 2 2 3 3

(1  L2 )(1  L2 )  1  L4
Proceso AR(p)
P
yt   φi yt i   t
i 1

yt  φ1 yt 1  φ2 yt 2  ...  φp yt  p   t
yt  φ1 yt 1  φ2 yt 2  ...  φp yt  p   t
φp ( L) yt   t
φp ( L)  1  φ1L  φ2 L2  ...  φp Lp
Inversión de Ar(p)
φp ( L) yt   t
1
yt  φp ( L)  t
n 1
yt  i t i  y0
i 0


i 0
i 
Inversión de AR(1)
φp ( L) yt   t
yt  φ1 yt 1   t
y1  φ1 y0  1
y2  φ1  φ1 y0  1    2  φ12 y0  φ11   2
y3  φ13 y0  φ121  φ1 2   3
t 1
yt  φ1t y0   φ1i t 1
i 0


i 0
1 

1  1
Proceso MA(q)

• Un proceso estacionario MA(q) es aquel que


describe una variable y como un promedio móvil de
los shocks pasados.
yt   t  1 t 1  2 t 2  ....  q t q
• y estacionaria asegura que un proceso AR(p) pueda
ser reescrito como un proceso MA(infinito). En
términos formales debería poder pasarse de un MA
a un AR (descomposición de Wold)
Algebra de MA(p)
yt   t  1 t 1   2 t 2  ....   q t q
yt   q ( L) t
q ( L)  1  1L  2 L2  ....  q Lq
 (L)
q
1
yt   t
1  1 z   2 z 2  ....   q z q  0
zi  (1,1)
Implicaciones
• Mientras en un AR(p) una raiz unitaria tiene
efectos permanentes en un MA(q) los efectos son
menos evidentes.
• Sin embargo una raiz unitaria en MA puede
implicar haber sobrediferenciado la serie.
Proceso ARMA(p,q)
yt  1 yt 1  ....   p yt  p   t  1 t 1  ...   q t q
 p ( L) yt   q ( L) t
  p ( L) 
  yt   t
  q ( L) 
 
 q ( L)  1  1L   2 L2  ....   q Lq
 p ( L)  1  1L  2 L2  ....   p Lp
Constante
• En un proceso AR, la constante es importante en
caso de existencia de tendencias.
• En un proceso MA equivale a la media.
• Cuando se omite la constante en un modelo
ARMA el parámetro de y-1 tiende a uno.
Correlograma
k
k 
0
 k  E( yt   )( yt k   )
Correlograma de AR(1)
k
k 
0
 0  (1  1 ) 
2 1 2

 1  1
k  1k 1
Correlograma de AR(2)
1  10  2 1  0
1  (1  2 ) 11
2  (1  2 ) 1  2
1 2

k  1k 1  2 k 2
AR(1)
160.00000

155.00000

150.00000

145.00000

140.00000 Series1

135.00000

130.00000

125.00000
1

981
736
785
491

687

834
295
50

344
148

589
99

246

393

540

883
932
638
442
197
0.89
AR(2)
100.00000

90.00000

80.00000

70.00000
Series1
60.00000

50.00000

40.00000
1

209
261

729
521

937
313

885
365

781
573
105

625

833

989
469

677
417
157
53
-
15.00000

5.00000
25.00000

10.00000
20.00000
MA(1)
1
50
99
148
197
246
295
344
393
442
491
540
589
638
687
736
785
834
883
932
981
Series1
MA(2)
MA2
24

22

20

18

16

14

12

10

6
I II III IV I II III IV I II III IV
2001 2002 2003
P
Evaluación
Aspectos de la evaluación
• Residuo ruido blanco asegura 1 y 3.
• El análisis gráfico permite identificar 5, si existen
observaciones aberrantes, se debe considerar análisis de
intervención.
• 4 puede ser evaluada por el teste de Jarque Bera. Sin embargo,
se sabe que algún problema en la normalidad de los residuos
está ligada a que no se cumpla 1, 2 y 3. Dado que el método es
de máxima verosimilitud, se debe prestar mayor atención a
este aspecto.
• Admisibilidad implica también que las soluciones del
polinomio no entren dentro del círculo unitario. Para ello se
debe ser cuidadoso con los tests de raiz unitaria.
Normalidad de a
Estabilidad de la varianza
Estabilidad de Parámetros
• No implica hacer los
test de estabilidad
antes descritos.
Análisis del correlograma
Residuos
3

-1

-2

-3
75 80 85 90 95 00

PIND Resi dual s


4 puntos para intervención
Residuos no normales
80
Series : Res iduals
Sample 1972:04 2002:06
Obs ervations 363
60
Mean -0.013018
Median 0.027593
Maximum 2.475315
40
Minimum -2.768856
Std. Dev. 0.697635
Skewness -0.279897
20 Kurtos is 4.408154

J arque-Bera 34.73103
Probability 0.000000
0
-3 -2 -1 0 1 2
heteroscedasticidad

Вам также может понравиться