Econometria de Series Temporales
Vectores Autorregresivos (VAR)
Walter Sosa Escudero
Procesos estocasticos multivariados
Y
t= [
Y
1t; Y
2t;
¢ ¢ ¢
; Y
N t]
0;
t
= 1
;
2
; : : : ; T
Estamos interesados en el comportamiento temporal de
N
variables simultaneamente.²
E
(
Y
t) =
¹
(vector de esperanzas)²
E
(
Y
t¡
¹
)(
Y
t¡¿¡
¹
)
0= ¡(
¿
)
(matriz de autocovarianzas)El elemento i; j es: °i;j = E(Yit ¡ ¹it)(Yj;t¡¿ ¡¹j;t¡¿)
Los elementos de la diagonal son las autocovarianzas y los de fuera de la diagonal las autocovarianzas cruzadas.
Y
t es estacionario si:1.
E
(
Y
t) =
¹ <
1
.2.
E
(
Y
t¡
¹
)(
Y
t¡¿¡
¹
)
0= ¡(
¿
)
<
1
;
¿
= 0
;
1
;
2
; : : :
Estacionariedad de
Y
t implica estacionariedad deY
it; i
= 1
; : : : ; N
. El converso NO es cierto (porque?)Ruido Blanco Multivariado
"
t esN
£
1
. Es RBM si: 1.E
(
"
t) = 0
2.E
(
"
t"
0s) =
8
<
:
−
N£N sit
=
s
0
sit
6
=
s
Cuidado: los elementos de
"
t pueden estar correlacionadosVectores Autorregresivos (VAR)
VAR(1) con media cero
Y
t= ©
Y
t¡1+
"
t;
"
t»
RBM
Y
t esN
£
1
,©
esN
£
N
. Ejemplo:Xt = Á11Xt¡1 +Á12Zt¡1 +"1t
Zt = Á12Xt¡1 +Á12Zt¡1 +"2t
Relacion entre el presente de una variable y el pasado de todas las variables del sistema.
Motivacion historica y metodologica del uso de VAR's
²
Motivacion: Sims (1980).Algunos resultados utiles de algebra
² Si A es cuadrada y diagonal con elemento carateristico aii, AK es una matriz diagonal con elemento i; i igual a aKii.
² Am£m. Cualquier escalar ¸ que satisfaga Ax = ¸x para un vector
m £1; x 6= 0 es un autovalor de A. x es un autovector de A
correspondiente al autovalor ¸.
² Si ¸ es un autovalor de A, entonces jA¡ ¸Ij = 0.
² La ecuacion caracteristica jA ¡¸Ij = 0 es una ecuacion de grado
m. Entonces, Amm tiene m autovalores.
² Am£m con autovalores ¸1; ¸2; : : : ; ¸m, entonces:
(a) tr(A) =
P
mi=1 ¸i(b) jAj =
Q
m² Si Am£m tiene m autovalores diferentes, entonces los autovectores
asociados son todos linealmente independientes.
² Si Am£m tiene m autovalores diferentes y ¤ ´ diag(¸1; : : : ; ¸m) y
X ´ (x1; x2;¢ ¢ ¢; xm), entonces:
A = X¤X¡1
² Bajo las condiciones del resultado anterior:
AK = AA¢ ¢ ¢A = (X¤X¡1)(X¤X¡1)¢ ¢ ¢(X¤KX¡1) = X¤KX¡1
Estacionariedad de VAR(1)
Recordar caso AR(1): Yt = ÁYt¡1 + "t. Estacionario si jÁj < 1.
Reemplazando recursivamente en VAR(1):
Y
t=
k
X
¡1 j=0©
j"
t¡j+ ©
kY
t¡kEn forma similar a AR(1) requeriremos que
©
k!
0
, o, equivalentemente,j
©
j
<
1
.De acuerdo al resultado anterior
© =
X
¤
X
¡1 en dondeX
es la matriz de autovectores y¤
la matriz diagonal con losautovalores
¸
1; : : : ; ¸
N. Entonces,©
k=
X
¤
kX
¡1Resumiendo:
Y
t= ©
Y
t¡1+
"
t es estacionario si y solo si todos los autovalores de©
son <1 en valor absoluto, o, equivalentemente, si todas las raices de la ecuacioncaracteristica
j
©
¡
¸I
Nj
son menores a uno en valor absoluto.Si VAR(1) es estacionario:
Y
t=
1X
j=0©
j"
t¡jVAR(p)
Y
t= ©
1Y
t¡1+ ©
2Y
t¡2+
¢ ¢ ¢
+ ©
pY
t¡p+
"
t;
"
t»
RBM
Estacionariedad de VAR(p): todas las raices de
j
¸
pI
¡
¸
p¡1©
1¡ ¢ ¢ ¢ ¡
©
pj
= 0
son mayores que uno en valor absoluto. Si VAR(p) es
Estimacion de VAR Consideremos VAR(1):
X
t=
Á
11X
t¡1+
Á
12Z
t¡1+
"
1tZ
t=
Á
12X
t¡1+
Á
12Z
t¡1+
"
2t²
Notar que los supuestos de Gauss-Markov se veri¯can ecuacion por ecuacion. MCO es insesgado, consistente y e¯ciente, ecuacion por ecuacion.²
MCO ecuacion-por-ecuacion es tambien e¯ciente en terminos del sistema. Idea: es un caso particular de SUR con las mismas variables explicativas en cada ecuacion: MCG coincide con MCO. Explica gran parte de laInterpretacion de VAR
²
No es una forma estructural. Los coe¯cientes no tienen una interpretacion clara ya que solo se busca unarepresentacion de los datos.
²
En la practica es comun basar la interpretacion en tests agregados y ejercicios de simulacion.²
Simulacion: a) Funciones impulso-respuesta, b) Descomposicion de la varianza.²
Tests: a) Relevancia de variables, b) Signi¯catividad de rezagos, c) Relaciones entre ecuaciones, d) Causalidad de Granger.Funciones impulso-respuesta
Investigar que sucede con el sistema VAR ante variaciones exogenas.
Consideremos la representacion VMA(
1
) de VAR(p):Y
t=
1X
s=0ª
s"
t¡s;
ª
0=
I
m; "
t»
RBM
@Y
t@"
t¡j=
@Y
t+s@"
t= ª
sª
ij(
s
) :
Efecto sobreY
i;t+s de cambiar"
jt en una unidad.ª
ij(
s
)
=
p
V
(
"
jt)
: Efecto sobreY
i;t+s de cambiar"
jt en un desvio estandar: Funcion de impulso-respuesta simple.Ejemplo: VAR(1) con
N
= 2
, hay 4 funciones de impulso respuesta simple.Problema:
"
it no son independientes.N
= 2
V
(
"
t) =
−
=
2
4
¾
11¾
12¾
21¾
223
5
Mas resultados de algebra
1. Si − es simetrica y positiva de¯nida, existe H no singular, tal que − = HH0. H es una `raiz cuadrada' de −. H no es unica.
2. Si "t es un vector aleatorio con E("t) = 0 y V ("t) = E("t"0t) = −,
existe H tal que "t = Hvt, en donde vt es un vector aleatorio con
E(vt) = 0 y V (vt) = I.
vt son las innovaciones ortogonales de "t. La idea es:
vt ¡! Hvt ¡! "t ¡! Yt
Entonces, lo que realmente nos interesa es @Yt+s=@vt.
² Problema: H no es unica. Si − es simetrica y positiva de¯nida, existe una unica matrix P no-singular y triangular inferior tal que P P0 = −. P
La idea, entonces, es utilizar:
"
t=
P v
t. Reemplazando:Y
t=
1X
i=1ª
sP v
t¡s=
1X
i=1©
sv
t¡s;
©
´
ª
sP
@Y
t@v
t¡s=
@Y
t+s@v
t= ©
sElemento caracteristico:
Á
(s)ij=
cambio enY
i;t+s resultante de cambios env
j;t en una unidad.¨
§
¥
¦
Á
(s)ij=
funcion de impulso-respuesta con respecto a las innovaciones ortogonales.Notar que como V (vj;t = 1) tambien mide el efecto de cambios en 1
Cuestion importante: el uso de
P
(la descomposicion de Choleski) implica cierta arbitrariedad.Ejemplo: N = 2
Ã
"1t "2t!
=Ã
P11 0 P21 P22! Ã
v1t v2t!
"1t depende solo de v1t "2t depende de v1t y v2tLa dependencia entre "1t y "2t es generada por esta estructura recursiva.
Que implicaciones tiene, por ejemplo, si Y1 es la tasa de crecimiento de
la cantidad nominal de dinero y Y2 es la tasa de in°acion?
Entonces, el orden de las variables en la matriz de Choleski es muy importante.
Notar que si
−
=
2
4
¾
110
0
¾
223
5
=
)
P
=
2
4
p
¾
110
0
p
¾
223
5
²
Si−
es diagonal el orden de la descomposicion de Choleski no importa.²
Trivialmente, las innovaciones originales son tambien las innovaciones ortogonales.²
En la practica, entonces, es importante evaluar empiricamente la diagonalidad de−
.Seguimos con el algebra...
²
Si−
es simetrica y pd, existe una unica matrizH
triangular inferior con 1's en la diagonal principal, y una
unica matriz diagonal
D
con todos sus elementos positivos, tal que−
=
HDH
0.²
Si"
t es un vector aleatorio conE
(
"
t) = 0
yV
(
"
t) =
−
,entonces
"
t puede escribirse com"
t=
Hu
t, conE
(
u
t) = 0
yV
(
u
t) =
D
, en dondeH
yD
satisfacen−
=
HDH
0.Notar que
V
(
u
jt) =
d
j, elj
¡
esimo elemento de la diagonalprincipal de
D
. La idea, en este caso, es permitir que cada una de las innovaciones ortogonales tenga su propiaDisgresion notacional
X
=
2
4
A
1B
1A
2B
23
5
´
h
A
B
i
Chequear que:XX
0=
2
4
A
1A
23
5
h
A
1A
2i
+
2
4
B
1B
23
5
h
B
1B
2i
En general, si
x
i es lai
-esima columna deX
,XX
0=
P
x
ix
0i.Es facil veri¯car que si
D
es diagonal con elemento caracteristicod
i,XDX
0=
P
d
ix
ix
0iDescomposicion de la varianza
²
Supongamos un VAR conN
variables. Cuanto de la variabilidad total de una variable es atribuible amovimientos en cada una de las otras variables?
²
R
2 en el modelo lineal: proporcion de la varianza deY
que es explicada por movimientos enX
. La idea es proporcionar una idea similar para descomponer lavariabilidad total de una variable del VAR en terminos de las variabilidades exogenas de cada una de las
Partimos de la representacion MA(
1
) de VAR:Y
t=
1X
s=0ª
s"
t¡s;
ª
0=
I
m; "
t»
RBM
que implica que:
V
(
Y
t)
=
1X
s=0ª
s−
ª
0s=
1X
s=0ª
sHDH
0ª
0s=
1X
s=0ª
s(
NX
i=1d
ih
ih
0i)
ª
0s=
NX
i=1d
i(
1X
s=0ª
sh
ih
0iª
0s)
V
(
Y
t)
=
NX
i=1V
(
u
i)
(
1X
s=0ª
sh
ih
0iª
0s)
=
NX
i=1V
(
u
i)
B
(i)En particular, la j-esima varianza:
V
(
Y
tj) =
NX
i=1V
(
u
i)
B
jj(i)1 =
NX
i=1V
(
u
i)
B
(i) jjV
(
Y
tj)
=
NX
i=1z
jiz
ji=
proporcion de la varianza de laj
¡
esima variable que es explicada por el componente exogeno de cada una de lasi
= 1
;
2
; : : : ; N
variables del sistema.En la practica: no podemos computar
1
rezagos!Partimos de la representacion
V M A
(
1
)
de VAR ent
+ 1
:Y
t+1=
"
t+1+ ª
1"
t+ ª
2"
t¡1+
¢ ¢ ¢
La prediccion de
Y
t+1 con la informacion disponible ent
es la esperanza deY
t+1 condicional en toda la informacion disponible ent
:E
t(
Y
t+1) = ª
1"
t+ ª
2"
t¡1+
¢ ¢ ¢
El error de pronostico de predecir
Y
t+1 ent
sera:Analogamente, el error de pronostico de predecir
Y
t+s ent
sera:
e
t+2´
Y
t+s¡
E
t(
Y
t+s) =
"
t+s+ª
1"
t+s¡1+ª
2"
t+s¡2+
¢ ¢ ¢
+ª
s¡1"
t+1El valor esperado de
e
t+s es cero y su varianza es:V
(
e
t+s) =
−
+ ª
01−
ª
1+ ª
02−
ª
2+
¢ ¢ ¢
+ ª
0s¡1−
ª
s¡1²
Da una idea de la magnitud del error de prediccion (es el error cuadratico medio ya que la esperanza es cero!).²
Notar que cuandos
! 1
,V
(
e
t+s)
!
V
(
Y
t)
.¨
§
¥
¦
Tests de hipotesis basicas en VAR
Supongamos que nos interesa evaluar si cierta restriccion sobre los parametros del VAR es correcta,
H
0:
h
(
µ
) = 0
versus
h
(
µ
) = 0
en dondeµ
son todos los parametros del VAR yh
es cualquier funcion continua.Si
"
t»
RBN
(0
;
−
)
(
T
¡
c
)
³
ln
j
−
^
rj ¡
ln
j
−
^
uj
´
»
Â
2(
m
)
asintoticamente bajo
H
0, en donde−
^
r y−
u son las matricesde varianzas estimadas bajo el modelo restringido y sin
restringir, respectivamente,
m
es el numero de restricciones,c
es el numero de parametros estimados en cada ecuacion en el modelo sin restringir, yT
es el numero deEjemplos
1. Relevancia de rezagos: Ejemplo, si en con series trimestrales los rezagos del 9 al 12 son relevantes. Modelo sin restringir: incluye los 12 rezagos, sin restringir: solo los primeros 8.
2. Relevancia de variables: todos los rezagos de una variable son irrelevantes en todas las ecuaciones.
Causalidad de Granger
Consideremos la primera ecuacion de la representacion VAR(p) para
x
t yy
t:x
t=
c
+
pX
i=1®
ix
t¡i+
pX
i=1¯
iy
t¡iy
t no causa ax
t en el sentido de Granger si¯
1=
¯
2=
¢ ¢ ¢
=
¯
p= 0
La hipotesis puede ser facilmente evaluada con un test
F
de signi¯catividad conjunta (existen varias alternativas). Enforma similar se puede de¯nir ausencia de causalidad de Granger de
x
t.²
Es uno de los resultados mas abusados en econometria.²
En realidad evalua si el pasado dey
t contribuye a predecirx
t. Es mas un test que tiene que ver con precedencia temporal y no con causalidad.Ejemplo 1: Forward-looking behavior y precios de acciones.
Ejemplo 2: Shocks en los precios de petroleo y recesiones.
Ejemplo 3: Efectos reales del dinero (Stock y Watson (1989), Christiano y Ljungqvist (1988)).