Вы находитесь на странице: 1из 23

Econometria II

Lecture 9: Modelo VAR

Prof.: Ricardo Masini

Graduação em Economia
2o Semestre de 2017
Tópicos de Hoje

Motivação e Definições

VAR Forma Reduzida vs. Forma Estrutural

Propriedades e Estimação

Previsão e Causalidade Granger


O que o VAR traz de novo para nós?

I Para fazer previsão univariada (uma única série ou variável)


usamos o modelo ARMA
I Para fazer análise de sensibilidade (ex.: de x em em y)
contemporânea (num único período de tempo t) usamos o
modelo de regressão
I O VAR faz previsão conjunta para x e y ao mesmo tempo,
quando x e y tem feedback no tempo
Exemplo de um VAR é simples com 3 variáveis
Considere a seguinte relação entre π é inflação, y é o hiato do
produto e i a taxa nominal de juros

πt = cπ + a1 πt−1 + a2 yt−1 + a3 it−1 + π,t


yt = cy + b1 πt−1 + b2 yt−1 + b3 it−1 + y,t
it = ci + c1 πt−1 + c2 yt−1 + c3 it−1 + i,t

Podemos rescrever este sistema de equação na forma matricial


como
Yt = Φ0 + Φ1 Yt−1 + t ,
onde definimos
        
πt cπ a1 a2 a3 πt−1 π,t
 yt  =  cy  +  b1 b2 b3   yt−1  +  y,t 
it ci c1 c2 c3 it−1 i,t
| {z } | {z } | {z } | {z } | {z }
≡Yt ≡Φ0 ≡Φ1 ≡Yt−1 ≡t
VAR(p) é simplesmente um modelo AR(p) para vetores
Seja Yt um vetor com n variáveis Yt ≡ (y1,t , . . . , yn,t )0 . O modelo
VAR(p) na forma reduzida coloca todas as variáveis como função
dos valores passados de todas elas na forma

Yt = Φ0 + Φ1 Yt−1 + · · · + Φp Yt−p + t

onde Φ0 é um vetor de tamanho n e cada Φi , i = 1 . . . p é uma


matrix quadrada (n × n) dos coeficientes.
Ou, usando o polinômio matricial no operador lag

Yt − Φ1 Yt−1 − · · · − Φp Yt−p = Φ0 + t
Yt − Φ1 LYt − · · · − Φp Lp Yt = Φ0 + t
(In − Φ1 L − · · · − Φp Lp )Yt = Φ0 + t
Φ(L)Yt = Φ0 + t

onde Φ(L) ≡ In − Φ1 L − · · · − Φp Lp
VAR é simplesmente um modelo AR(p) para vetores

I O vetor de erros εt ≡ (ε1,t , . . . , εn,t )0 é uma variável aleatória


multivariada, ou seja, um vetor aleatório com as seguintes
propriedades
I Todos os n erros tem média zero, E(εit ) = 0, ∀i, t
I Todas as variâncias são constantes, Var(εit ) = σi2 , ∀i, t
I Não tem correlação no tempo E(εit , εjs ) = 0, ∀i, j, t 6= s
I Mas podem ter correlação contemporânea entre eles
E(εit , εjt ) 6= 0, ∀i 6= j, t
I Em notação vetorial podemos resumir as propriedades acima
como

0 Σ se t = s
E(εt ) = 0, ∀t E(εt εs ) =
0 se t 6= s

onde Σ é uma matriz (n × n) positiva definida.


Tópicos de Hoje

Motivação e Definições

VAR Forma Reduzida vs. Forma Estrutural

Propriedades e Estimação

Previsão e Causalidade Granger


VAR Forma Reduzida vs. Forma Estrutural
I Note que na nossa definição de VAR somente relações lineares
entre uma variável e o passado de todas as outras (incluindo o
passado dela mesma) podem ser modeladas.

Yt = Φ0 + Φ1 Yt−1 + · · · + Φp Yt−p + t

I Mais IMPORTANTE, não modelamos explicitamente relações


contemporâneas entre as variáveis (Ex.: πt afeta yt ou
vice-versa?)
I Neste formato a VAR é conhecido como VAR na forma
reduzida (ou simplestemente VAR). Para se diferenciar de um
VAR na forma estrutural, SVAR, que toma forma

BYt = A0 + A1 Yt−1 + · · · + Ap Yt−p + Ut

onde B(n × n) modela as possíveis relações contemporâneas


entre as variáveis
Exemplo de um SVAR

I Considere o seguinte modelo de oferta e demanda

qt = −βpt + αqq qt−1 + αqp pt−1 + ud,t


pt = γqt + αpq qt−1 + αpp pt−1 + us,t

I Podemos reescrever como BYt = AYt−1 + Ut , onde


       
1 β qt αqq αqp qt−1 ε
= + d,t
−γ 1 pt αpq αpp pt−1 εs,t
| {z } | {z } | {z } | {z } | {z }
≡B ≡Yt ≡A ≡Yt−1 ≡Ut

I Considerando que B é inversível, temos

Yt = B −1 AYt−1 + B −1 Ut
≡ ΦYt−1 + εt
VAR Forma Reduzida vs. Forma Estrutural

I Quando não impomos nenhuma restrição sob as matrizes de


coeficientes Φ1 , . . . Φp , Σ chamamos o modelo de VAR na
forma reduzida
I Mas muitas vezes a teoria econômica diz alguma coisa a
respeito dos coeficientes:
I Variáveis monetárias não podem ter efeito no longo prazo
I Trilema: juros, base monetária e câmbio
I Equação de estoque no modelo de oferta e demanda
I Função de reação do banco central
I Quando impomos essas restrições o modelo passa a ser
chamado de VAR na forma estrutural
I Por enquanto vamos focar na forma reduzida, que é ateórica e
tem como função primordial a previsão conjunta. Trataremos
de modelos SVAR em outra aula
Tópicos de Hoje

Motivação e Definições

VAR Forma Reduzida vs. Forma Estrutural

Propriedades e Estimação

Previsão e Causalidade Granger


VAR(p) como um VAR(1)

Devemos sempre pensar no VAR como na representação VAR(p)


padrão, ou seja

Yt = Φ0 + Φ1 Yt−1 + . . . Φp Yt−p + εt ,

mas para demonstrar algumas propriedades fica mais fácil


reescrevê-lo na representação VAR(1). Sempre podemos reescrever
um VAR(p) como um VAR(1), (isso é verdade para um AR(p)
também)
Zt = G + F Zt−1 + η t ,
apenas definindo Zt (np × 1) como o vetor que empilha as variáveis
na forma Zt = (Yt , Yt−1 , . . . , Yt−p+1 )0 , um vetor G(np × 1), uma
matriz quadrada F (np × np) e definimos A e um vetor de erros
η t (np × 1) como...
Representação VAR(1) de um VAR(p)

Na forma VAR(1) Zt = AZt−1 + η t :


        
Yt Φ0 Φ1 · · · Φp−1 Φp Yt−1 εt
 Yt−1   0   In · · · 0 0  Yt−2   0 
 ..  =  ..  +  .. . . .. ..   ..  +  .. 
        
 .   .   . . . .   .  .
Yt−p+1 0 0 ··· In 0 Yt−p 0
| {z } | {z } | {z } | {z } | {z }
≡Zt ≡G ≡F ≡Zt−1 ≡η t

Note que a primeira equação (matricial) é o próprio VAR(p) e as


demais são apenas identidades do tipo Yt−i = Yt−i para
i = 1, . . . , p − 1
Condição de Estacionariedade

Na forma VAR(1) temos Zt = G + F Zt−1 + η t . Fazendo


substituição recursiva idênticas a que fizemos para o AR(1)
 
t−1
X t−1
X
j t
Zt =  F G + F Z0 + F j η t−j
j=0 j=0

Não é difícil mostrar que se todos autovalores de F são menores


que 1 em módulo então limt→∞ F t = 0. Heuristicamente, se F é
diagonalizável temos

F t = (P ΛP −1 )t = P (Λ)t P −1

onde Λ é a matriz diagonal contendo todos autovalores de F e P e


a matriz dos autovetores correspondentes
Momentos de um VAR(1) Estacionário
Sob esta condições temo que o VAR(1) tem um representação
VMA(∞)na forma

Zt = (Inp − F )−1 G +
X
F j η t−j
j=0

assim fica fácil calcular a média e a estrutura de covariância

µ ≡ E(Zt ) = (Inp − F )−1 G



j
X
Γ0 ≡ V(Zt ) = F 0 ΩF j
j=0

Γk ≡ C(Zt , Zt−k ) = F k Γ0 , k≥1

onde Ω ≡ V(η t ) é uma matrix (np × np) onde no canto superior


esquerdo tem Var(t ) ≡ Σ e o resto zero e lembre-se que Γk = Γ0−k
Estacionariedade do VAR

Condição de estacionariedade do VAR


Quando os autovalores da matriz F forem todos menores do que 1
em módulo, o processo VAR(1) será fracamente estacionário
I Isso é equivalente a dizer que todas as "raízes"do polinômio
matricial Φ(L) na representação VAR(p) estão fora do círculo
unitário
I Caso algum autovalor = 1 é análogo a presença de raiz
unitária em um AR(p). Distribuição multivariada não trivial.
Nunca é testado na prática conjuntamente. As pessoas testam
cada série individualmente (não é a mesma coisa!)
I Se a condição de estacionariedade acima for satisfeita, o LLN e
o CLT para vetores se aplica de maneira análoga ao caso
univariado na presneça de algum tipo de ergodicidade.
Estimação de VAR na Forma Reduzida
iid
I Estimado por quasi-verossimilhança (assume εt ∼ N (0, Σ))
I Como sempre em modelos lineares, isso se traduz em
minimizar a soma do quadrado dos resíduos
ε(Φ) = Yt − Φ1 Yt−1 − · · · − Φp Yt−p
T
X
(Φ̂, Σ̂) = argmin ε(Φ)0 Σ−1 ε(Φ)
t=p+1

I O caso de estimador de OLS com heterocedasticidade


desconhecida. Como estima? Feasible Generalized Least
Squares (FGLS)
I No caso em que todas as equações tem exatamente os
mesmos repressores, FGLS é numericamente igual ao OLS,
equação a equação
Estimação de VAR na Forma Reduzida

I Na prática, então, podemos estimar por OLS cada equação do


VAR e obter as matrizes Φ̂i , i = 1, . . . , p
I Calculamos, então, os resíduos de cada equação ε̂i,t e obtemos
um estimador para Σ como sendo
T
1 X
Σ̂ = ε̂t ε̂0t
T −p
t=p+1

I E se o lag p foi subestimado no VAR, o que acontece?


Estimação se torna inconsistente pela mesma razão discutida
do AR(p)
I Importante escolher a ordem p do VAR. Como?
Encontrando a ordem do VAR

I Usamos novamente os critérios de informação


2
AIC(p) = ln |Σ̂(p)| + pn2
T
2 ln T
BIC(p) = ln |Σ̂(p)| + pn
T
onde | · | é o determinante
I Seguimos novamente o protocolo
1. Escolhe um pmax grande o suficiente
2. Calcula o AIC(p) e BIC(p) para todo p = 0, . . . , pmax
3. Escolhe p∗ com o menor AIC(p) e/ou BIC(p)
I Como no caso do AR(p), BIC é consistente e mais bem
fundamentado, portanto, preferível
I O AIC tende a superestimar o valor de p
Tópicos de Hoje

Motivação e Definições

VAR Forma Reduzida vs. Forma Estrutural

Propriedades e Estimação

Previsão e Causalidade Granger


Causalidade vs; Causalidade de Granger

I A variável x Granger-causa a variável y se a variável x pode


ser usada para melhorar as previsões futuras de y
I Como vocês definiam causalidade antes? não-causalidade
Granger não é a mesma coisa que exogeneidade!
Não Causalidade de Granger

E(yt |yt−1 , . . . ) = E(yt |yt−1 , . . . , xt−1 , . . . )

I Só faz sentido estimar VAR se houver causalidade de Granger.


Um VAR(p) com n variáveis sem causalidade de Granger é
equivalente a n AR(p) "independentes"
I Para testar a hipótese nula de não-causalidade de Granger,
basta testar a restrição nos parâmetros das matrices Φi fora da
diagonal (Por quê?) via um teste F por exemplo
Previsão com VAR
É muito tedioso e complicado fazer previsão diretamente no
VAR(p). É bem mais fácil trabalhar com sua representação VAR(1)

Zt = G + F Zt−1 + η t

Previsão pontual se faz como no AR(1), ou seja, para um horizonte


de tempo h ≥ 1 dado informação até T temos
 
Xh−1
ZbT +h|T ≡ π(ZT +h |ZT . . . , Z1 ) =  F j  G + F h ZT
j=0

Lembre-se que o erro de previsão para o horizonte h ≥ 1 é definido


como uT +h|T ≡ ZbT +h|T − ZT +h e, é dado, em analogia com o caso
AR(1), por
h−1
X
uT +h|T = F j η t−j
j=0
Previsão com VAR
Assim a variância do erro de previsão de um VAR(1) á dada por
 
h−1 h−1
j
X X
Πh ≡ V(uT +h|T ) = V  j
F η t−j =
 F 0 ΩF j
j=0 j=0

Via uma aproximação assintótica e normalidade dos erros


 ∼ N (0, Σ) temos
 
ZT +h|T ∼ N ZbT +h|T , Πh

O Bootstrap também se aplica no caso vetorial, mas nós não vamos


cobrir esse caso. Se quiser retorn a variável original Y basta definir
C(n × np) ≡ (In 0) tal que Yt = CZt e portanto
 
YT +h|T ∼ N YbT +h|T , C 0 Πh C

Вам также может понравиться