Universidad de Montevideo Macroeconom´ıa II
Danilo R. Trupkin
Notas de Clase (preliminares e incompletas)
Dynamic Programming
1 Ejemplo: Funci´ on de producci´ on Cobb-Douglas y utilidad logar´ıtmica
Considere el siguiente problema del planificador:
{ct,kmaxt+1}∞t=o
∞
X
t=0
βtln(ct)
s.a. kt+1 = ktα− ct, k0 dado,
donde α ∈ (0, 1), β ∈ (0, 1). El problema puede ser resuelto a mano, utilizando, por caso, cualquiera de los 2 siguientes m´etodos: (i) por iteraci´on de la ecuaci´on de Bellman, y (ii) por “guess-and-verify”.
1.1 Por iteraci´on (o inducci´on hacia atr´as)
Notemos que estamos asumiendo indirectamente una depreciaci´on igual a 1, o lo que es lo mismo, que la inversi´on en todo momento es igual a kt+1. Recordemos que, por definici´on,
it= kt+1− (1 − δ)kt, (1)
con lo cual la restricci´on de recursos resulta:
ct+ it= f (kt), o alternativamente tenemos
kt+1= f (kt) − ct+ (1 − δ)kt= ktα− ct. (δ = 1 y f (kt) = ktα) Se trabaja desde atr´as hacia adelante:
i) En t = T (j = 1) :
kt+1 = 0
⇒ cT = kαT ⇒ V0(kT +1) = 0
Luego, la primera funci´on de valor (utilidad indirecta, o valor de la funci´on de utilidad en el ´optimo) al momento T es:
V1(kT) = u(cT) = ln(kTα) = α ln kT
Por envelope condition (o condici´on de BS):
V10(kT) = u0(cT)∂cT
∂kT = α
kT. (2)
ii) En t = T − 1 (j = 2) :
(cT −1max,kT)ln(cT −1) + βV1(kT)
= ln(cT −1) + βα ln kT s.a. cT −1 = kαT −1− kT. El problema irrestricto:
maxkT
ln(kαT −1− kT) + βα ln kT. (3) CPO:
− 1
kαT −1− kT +βα kT = 0.
Entonces,
kT = αβ
1 + αβkαT −1, cT −1 = kT −1α − kT = 1
1 + αβkαT −1. Y la funci´on de valor resulta:
V2(kT −1) = ln
1
1 + αβkT −1α
+ βα ln
αβ 1 + αβkT −1α
.
iii) En t = T − 2 (j = 3) :
= ln(cT −2) + β
ln
1
1 + αβkαT −1
+ βα ln
αβ 1 + αβkαT −1
s.a. cT −2 = kαT −2− kT −1. El problema irrestricto:
maxkT −1
ln kT −2α − kT −1 + β
ln
1
1 + αβkαT −1
+ βα ln
αβ 1 + αβkT −1α
.
Sacando la CPO, m´as un poco de ´algebra, tenemos que
kT −1 = αβ + (αβ)2
1 + αβ + (αβ)2kT −2α , cT −2 = 1
1 + αβ + (αβ)2kαT −2.
Finalmente, con j → ∞ tenemos que las reglas de decisi´on resultan en:
ct = (1 − αβ)kαt, kt+1 = αβkαt. y la ecuaci´on de valor resulta ser:
V (kt) = 1 1 − β
ln(1 − αβ) + αβ
1 − αβln(αβ)
+ α
1 − αβln kt.
1.2 Guess and verify (o m´etodo de coeficientes indeterminados)
Planteamos un “guess” de la funci´on de valor (en forma correcta), pero dejamos los coefi- cientes indeterminados. El guess es:
v(kt) = E + F ln kt, (4)
donde E y F son constantes indeterminadas, tales que el LD y el LI deben coincidir para todo k.
Recordemos la ecuaci´on de Bellman del problema:
v(kt) = max
kt+1
ln(ktα− kt+1) + βv(kt+1)
La CPO del problema es la siguiente:
− 1
ktα− kt+1 + βv0(kt+1) = 0. (5) Aplicando BS sobre la funci´on de valor del guess, tenemos:
v0(kt) = F kt
, luego v0(kt+1) = F kt+1
.
Sustituyendo en (5),
1
ktα− kt+1 = β F kt+1 Lo que implica que:
kt+1= βF
1 + βFktα. (6)
Sustituyendo esta expresion para kt+1 en la ecuaci´on de Bellman, e igualando este resultado con el LD del guess en (4), tenemos lo siguiente:
ln
ktα− βF 1 + βFkαt
+ β
E + F ln βF 1 + βFktα
= E + F ln kt, lo cual implica la siguiente expresi´on:
ln
1
1 + βF
+ α ln (kt) + βE + βF ln βF
1 + βF + βF α ln kt= E + F ln kt As´ı, tenemos las dos condiciones que siguen para los coeficientes E y F :
α + βF α = F ⇒ F = α
1 − αβ (7)
y
ln
1
1 + βF
+ βE + βF ln βF
1 + βF = E, Utilizando la expresi´on para F deducida en (7):
ln 1
1 + β1−αβα
!
+ βE + β α
1 − αβln β1−αβα
1 + β1−αβα = E, Luego,
E = 1
1 − β
ln(1 − αβ) + αβ
1 − αβln αβ
. (8)
Recordando la expresi´on para kt+1 en (6), tenemos entonces que kt+1= αβktα,
y
ct= (1 − αβ)ktα
Notemos que la pol´ıtica ´optima implica una ecuaci´on de movimiento del capital equiv- alente a
ln kt+1= ln(αβ) + α ln kt. (9)
En tanto α sea menor a 1, tenemos que kt converger´a a un k de steady state, dado cualquier valor inicial k0 positivo. Este valor ser´a:
k∗ = (αβ)1−α1 .
2 El Problema Estoc´ astico
Consideremos una modificaci´on sobre el problema original, de modo de introducir incer- tidumbre. Cu´ales son los cambios que ello implica? En realidad, si uno introduce shocks que sean i.i.d. o mismo de Markov, entonces dichos cambios ser´an triviales.
De esta manera, considere el siguiente problema:
E0
∞
X
t=0
βtr(xt, ut),
s.a. xt+1 = g(xt, ut, t), x0 dado,
donde t es una secuencia de variables aleatorias i.i.d. con funcion de distribuci´on F. Et es el operador esperanza, dada informaci´on conocida al momento t. Al momento t, xt se asume conocido, pero xt+j, j ≥ 1 no se conoce. Es decir, t+1 es realizado despues que el agente elige el valor de la variable de control ut.
El problema actual presenta forma recursiva, dado que la funci´on objetivo es aditi- vamente separable y porque se asume una ley de transici´on, xt, en forma de ecuaci´on diferencial aleatoria. Qu´e implica esto? Ello significa que el set de variables de control al momento t afecta s´olo el set r(xs, us) para s ≥ t, y no valores anteriores.
Ahora el objetivo es resolver el problema de arriba eligiendo un “plan contingente,”
ut= h(xt). La ecuacio´n de Bellman deviene en V (x) = max
u {r(x, u) + βE[V [g(x, u, )]|x]}, (10) donde E{V [g(x, u, )]|x} =R V [g(x, u, )]dF () y donde V (x) es el valor ´optimo del prob- lema comenzando en x al momneto 0.
La soluci´on V (x) de la ecuaci´on (10) puede ser computada, por caso, iterando sobre Vj+1(x) = max
u {r(x, u) + βE[Vj[g(x, u, )]|x]}, (11) comenzando desde cualquier valor inicial continuo acotado V0.