II
Indice
1. Introduccion
a las ecuaciones diferenciales ordinarias
1.1. Un teorema de existencia y unicidad . . . . . . . . . . . . . .
1.2. Ecuaciones diferenciales lineales con coeficientes constantes
1.3. Ecuaciones diferenciales no lineales . . . . . . . . . . . . . .
1.4. Sistemas de ecuaciones diferenciales ordinarias . . . . . . .
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
7
12
18
22
22
2. Optimizacion
dinamica en tiempo discreto
2.1. Planteamiento de problemas dinamicos en tiempo discreto . . . . . .
2.2. El metodo de los multiplicadores de Lagrange . . . . . . . . . . . . .
dinamica. El Principio de optimalidad y la ecuacion
2.3. Programacion
de Bellman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Problemas con horizonte infinito . . . . . . . . . . . . . . . . . . . . .
2.5. El modelo de Brock y Mirman . . . . . . . . . . . . . . . . . . . . . .
2.6. Ecuaciones de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
26
27
3. Optimizacion
dinamica en tiempo continuo
del PCO en tiempo continuo .
3.1. Formulacion
de HamiltonJacobiBellman .
3.2. La ecuacion
3.3. Principio del maximo de Pontryagin . . . .
de Euler .
3.4. Calculo de variaciones. Ecuacion
3.5. Algunas extensiones del PMP . . . . . . . .
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
53
53
54
57
60
64
69
77
77
79
80
Referencias
81
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
32
38
41
43
Notacion
A1 A2 . . . A n =
Ai = {(a1, a2, . . . , an ) | ai Ai ,
i = 1, 2, . . . , n} ,
i =1
Reales.
Rn+ := { x = ( x1 , . . . , xn ) | xi 0, para i = 1, . . . , n}.
Rn++ := { x = ( x1 , . . . , xn ) | xi > 0, para i = 1, . . . , n}.
N = {1, 2, 3, . . .} es el conjunto de Numeros
Naturales.
Si A es una matriz, entonces A0 denota la transpuesta de A.
Los vectores son escritos como matrices columna:
x = ( x1 , . . . , x n ) 0 .
Si x, y son vectores, x y significa que
xi yi para todo i.
El producto escalar de vectores x, y es denotado por h x, yi, por x y o x 0 y.
irracionales.
1 Por
Dado un vector x = ( x1 , . . . , xn )0 y un numero
real p 1, se denota la norma
4.7 y el Ejercicio 4.5) mediante
p del vector x (vease la Definicion
n
| xi | p
kxk p =
!1/p
.
i =1
dxn
dx1
( t ), . . . ,
(t)
x (t) =
dt
dt
0
0
d2 x1
d2 x n
x (t) =
( t ), . . . , 2 ( t )
dt2
dt
#0
"
kx
kx
d
d
n
1
x (k) ( t ) =
(t), . . . , k (t) , k 3.
k
dt
dt
t0
(s) ds =
t0
1 (s) ds, . . . ,
t0
Smbolos y abreviaturas
n (s) ds
E
P
:=
ED
EDs
EDH
GAE
HJB
i.i.d.
l.i.
PCO
PCOs
PD
PMP
VA
VAs
operador de esperanza
medida de probabilidad
globalmente asintoticamente
estable
HamiltonJacobiBellman
(variables aleatorias) independientes e identicamente distribuidas
(vectores) linealmente independientes
1.
Introduccion
a las ecuaciones diferenciales ordinarias
cuya incognita
(1.1)
V (k) =
ln(k ) +
ln() ,
ln(1 ) +
(1.2)
1
1
1
funcional (1.1), vease el Ejercicio 1.1. La ecuacion
de Bellman
satisface la ecuacion
2.4.
sera estudiada en la Seccion
funcional que involucra a las derivadas de la incognita
Una ecuacion
se llama
para las EDs
ecuacion
diferencial (ED). Se puede hacer una primera clasificacion
de varias
parcial, o ecuacion
en derivadas parciales, la incognita
es una funcion
de una sola
de numeros
reales, la forma general de una ecuacion
diferencial ordinaria es
G (t, y(t), y (t), . . . , y(k) (t)) = 0.
anterior se puede reescribir en su
En la mayoria de las aplicaciones, la ecuacion
forma normal
y(k) (t) = G (t, y(t), y (t), . . . , y(k1) (t))
(1.3)
Al numero
k se le conoce como orden de la ED, es decir, k es la derivada mas
(1.4)
dada.
donde x : I Rn , I R es un intervalo, y F : I Rn Rn es una funcion
la ecuacion
(1.4) tambien se escribe como x = F (t, x ).
Para simplificar la notacion,
Observacion
1.1. Cuando n > 1 se dice que (1.4) es un sistema de ecuaciones
F, cualquier ED de la forma
diferenciales. Por la naturaleza vectorial de la fucion
(1.3) se puede expresar en la forma (1.4). Es decir, una ED de orden k es equivalente
a un sistema de EDs de orden 1. Vease el Ejercicio 1.2.
Seccion
1.4 se estudian sistemas de ecuaciones diferenciales, es decir, EDs de la forma (1.4).
Los temas abordados en este captulo pueden consultarse, por ejemplo, en
Brock y Malliaris [3], Coddington [6], Hartman [11], Lomel y Rumbos [14], Sanchez
[17], Simonovits [20] y Sydster et al. [23].
1.1.
Z t
t0
h(s) ds,
(1.5)
x2 ( t ) = c1 e c2 e
7
1,
(1.6)
(1.7)
A partir del Ejemplo 1.2 se puede conjeturar que la funcion F debe ser continua
Esta conjetura es cierta, vease el Teorema 1.4, abajo.
para que exista una solucion.
como se vera en
Sin embargo, esta hipotesis
no garantiza la unicidad de la solucion,
cuando se impone una condicion
inicial.
el siguiente ejemplo, aun
Ejemplo 1.4 (Multiples
x ( t0 ) = x0 ,
(1.9)
(1.10)
(1.11)
y para cada i = 1, . . . , n
Sean (t, x ), (t, y) dos elementos del conjunto . Por el Teorema del valor medio
(vease Sundaram [22, Teorema 1.74, p. 63]), para cada i = 1, . . . , n, existe 0 < i < 1
tal que
Fi (t, x ) Fi (t, y) = h Dx F (t, i x + (1 i )y), x yi .
(1.12)
Entonces
n
i =1
n
| h Dx Fi (t, i x + (1 i )y), x yi |
[por (1.12)]
i =1
n
i =1
n
i =1
n
K k x y k1
[por (1.11)]
i =1
= nK k x yk1 .
(1.13)
Escojase
r > 0 tal que
ra
(1.14a)
rM b
(1.14b)
rnK < 1 ,
(1.14c)
(1.15)
Z t
t0
(1.16)
es
Es importante verificar que T [] Gr . Claramente T [] es continua (mas aun,
diferenciable) y
k T [](t) x0 k1
Z t
=
F (s, (s)) ds
t
1
Z t0
k F (s, (s))k1 ds
t0
[Ejercicio 1.7]
(1.17)
Luego
d( T [] T []) = sup{k T [](t) T [](t)k1 | t [t0 r, t0 + r ]}
Por la condicion
Gr tal
Por el Teorema de Banach (Teorema 4.6), existe una unica
funcion
que = T [ ], es decir,
( t ) = x0 +
Z t
t0
(1.18)
Derivando con respecto a t, ambos lados de (1.18), y usando el Teorema fundamental del calculo
(t) = F (t, (t)),
de la ED (1.9)
ademas, (t0 ) = x0 . Esto demuestra que es la unica
solucion
definida en el intervalo [t0 r, t0 + r ].
anterior se ha usado un argumento de punto fijo, es decir,
En la demostracion
encontrada es un unto fijo del operador (1.16). Una prueba distinta
la solucion
puede consultarse en Brock y Malliaris [3, Lema 3.1, pp. 810].
10
Z t
t0
k 1,
diferencial
Ejemplo 1.7. Considerese la ecuacion
x = tx,
x (0) = 1.
(1.19)
A continuacion
esta dada por la condicion
inicial
1.6(b). La primera aproximacion
0 (t) 1.
Para n = 1 se tiene
1 (t) = 1 +
= 1+
Z t
0
Z t
= 1+
0
t2
s0 (s) ds
s ds
Si n = 2, entonces
2 (t) = 1 +
Z t
s1 (s) ds
Z t
s2
= 1+
s 1+
ds
2
0
t2
t4
= 1+ +
.
2
24
0
(t) := e
La funcion
t2 /2
(1.16)
es un punto fijo de la transformacion
T [](t) = 1 +
= 1+
Z t
0
Z t
s(s) ds
ses
0
t2 /2
= 1 + (e
2 /2
ds
1)
= ( t ).
Por lo tanto (t) = et
2 /2
satisface la ED (1.19).
x ( t0 ) = x0
(1.20)
1.2.
(1.21)
donde y : I R es la incognita
y las funciones b, a j : I R (j = 1, . . . , k) estan
dadas. Ademas, se imponen condiciones iniciales
y(t0 ) = y0 , y (t0 ) = y1 , . . . , y(k1) (t0 ) = yk1 .
12
(1.22)
Observacion
1.9. La mayora de las aplicaciones en economa involucran EDs de
el estudio se
orden uno o dos y las funciones a j son constantes. Por esta razon,
concentra en EDs del tipo
y + a1 y + a0 y = b(t),
y(t0 ) = y0 , y (t0 ) = y1 .
(1.23)
se pueden
Sin embargo, con los cambios apropiados, los resultados de esta seccion
generalizar a EDs de orden mayor que dos y con coeficientes constantes.
La ED lineal de primer orden con coeficientes variables se analiza en el Ejercicio
1.14.
La ED lineal homogenea
Teorema 1.10. Las soluciones de la ecuacion
diferencial homogenea (EDH)
y + a1 y + a0 y = 0
(1.24)
1 : R R . Asimismo, si se impone la
x (t0 ) = e1 posee una unica
solucion
inicial x (t0 ) = e2 , existe una unica
condicion
2 : R R2 que resuelve (1.25).
Estas soluciones satisfacen lo siguiente.
(1) Las funciones 1 , 2 son l.i. En efecto, si
c1 1 (t) + c2 2 (t) = 0,
t R,
deseada.
De (1) y (2) se tiene la conclusion
Lema 1.11. Sea C. Entonces
d t
dt e
= et .
+ a1 + a0 =
= et [2 + a1 + a0 ].
de (1.24) si y solo
si 2 + a1 + a0 = 0, ya que
Entonces (t) = et es solucion
et 6= 0 para todo t C.
{ e 1 t , e 2 t } .
(b) Si := 1 = 2 R,
{et , tet }.
14
(c) Si a + ib := 1 = 2 C,
{e at cos(bt), e at sen(bt)}.
Demostracion. En cada caso hay que verificar que las funciones dadas satisfacen la
ED (1.24) y ademas que son l.i.
(a) Si 1 , 2 R son distintas, las funciones e1 t , e2 t son soluciones de (1.24), por
t R.
(1.27)
de (1.24).
(b) Supongase
que := 1 = 2 R. Por el Teorema 1.12, et es solucion
prueba
En este caso la unica
raz es igual a a1 /2, una simple sustitucion
t
de (1.24). En el Ejercicio 1.12 se pide demostrar
que te tambien es solucion
que et y tet son l.i.
(c) Sea a + ib := 1 = 2 C. Por el Teorema 1.12, e(a+ib)t y e(aib)t son soluciones
lineal de estas funciones tambien
de (1.24) y por lo tanto cualquier combinacion
Observese que
es solucion.
1 (a+ib)t 1 (aib)t
e
+ e
2
2
1
1
e at sen(bt) =
e(a+ib)t e(aib)t .
2i
2i
e at cos(bt) =
La ED lineal no homogenea
15
(1.29)
y y p cualquier solucion
c1 1 (t) + c2 2 (t) + y p (t)
de la ED (1.28).
es solucion
de (1.28), es decir,
Recprocamente, si y es cualquier solucion
y + a1 y + a0 y = b(t),
y tambien y p es solucion
y p + a1 y p + a0 y p = b(t),
entonces
(y y p ) + a1 (y y p ) + a0 (y y p ) = b(t) b(t).
de la EDH asociada y, por el
La igualdad anterior prueba que y y p es solucion
lineal de 1 y 2 . Luego
Teorema 1.10, es combinacion
y y p = c1 1 + c2 2 ,
(1.29).
de donde se tiene la relacion
En virtud del teorema anterior, para resolver la ED no homogenea (1.28) se tiene
particular. Dependiendo de la forma funcional de b(t) se
que buscar una solucion
y p (t) de acuerdo con la siguiente tabla. Esta forma de buscar
propone una solucion
soluciones particulares se conoce como metodo de coeficientes indeterminados.
16
tk
y p (t)
b
+ . . . + b1 t + b0
b1 eb2 t
b1 sen(b2 t)
b1 cos(b2 t)
B
Bk + . . . + B1 t + B0
B1 eb2 t
B1 sen(b2 t) + B2 cos(b2 t)
B1 sen(b2 t) + B2 cos(b2 t)
tk
diferencial
Ejemplo 1.15 (Sydster et al. [23]). Considerese la siguiente ecuacion
y 4y + 4y = 2 cos(2t).
1.13, las funciones e2t y te2t son soluciones l.i. de EDH asociada.
Por la Proposicion
particular (de la ED no homogenea) es de
De acuerdo con la Tabla 1, una solucion
la forma
y p (t) = B1 sen(2t) + B2 cos(2t).
en la ED dada se encuentra que B1 = 1/4 y B2 = 0.
Al sustituir esta expresion
general esta dada por
Finalmente, por el Teorema 1.14, la solucion
1
sen(2t).
4
Si se imponen condiciones iniciales, se pueden determinar las constantes c1 y c2 .
y(t) = c1 e2t + c2 te2t
Estabilidad
de la ED no homogenea
Se ha visto como
encontrar la solucion
y + a1 y + a0 y = b(t),
y(t0 ) = y0 , y (t0 ) = y1 ,
estable (GAE) si
lm [c1 1 (t) + c2 2 (t)] = 0
c1 , c2 R,
1.3.
g( x ( ))
t0
Z t
t0
f ( ) d
mediante un cambio de variable (vease Bartle y Sherbert [1, Teorema 7.3.8, p. 279])
se obtiene
Z t
Z x (t)
dx
=
f ( ) d.
t0
x ( t0 ) g ( x )
inicial x (0) = 3.
Ejemplo 1.17. Resolver la ED (1 + et ) x x = et con la condicion
Solucion.
Esta ED es separable y puede reescribirse como
Z x (t)
x dx =
Z t
0
e
, d.
1 + e
Luego
1 2
[ x (t) 3] = ln(1 + et ) ln(2),
2
de donde x (t) =
2 ln(1 + et ) + 3 ln 4.
Ecuaciones exactas
Sean M, N : I B R, donde I, B son intervalos abiertos y no vacos. Una ED
de primer orden escrita en la forma
M(t, x ) + N (t, x ) x = 0
(1.30)
F
(t, x ) = N (t, x ),
x
(1.30) es equivalente a
En tal caso, la ecuacion
F
F
(t, x ) + (t, x ) x = 0.
t
x
18
(t, x ) I B.
(1.31)
(1.32)
d
F (t, (t)) = 0,
dt
si F (t, (t)) = c, para alguna constante c R.
si y solo
la funcion
F.
Lema 1.19. Sea f : I B R una funcion de clase C 1 . Entonces
Z t
t0
f (, x ) d =
Z t
f
t0
(, x ) d.
Ahora supongase
que se satisface (1.33). Defnase F : I B R
F (t, x ) :=
Z t
t0
M(, x ) d +
Z x
x0
N (t0 , s) ds,
(1.34)
mas aun,
F
(t, x ) =
x
x
Z t
t0
M (, x ) d + N (t0 , x )
Z t
M
(1.30) es exacta.
Por lo tanto la ecuacion
Los resultados sobre EDs exactas se pueden resumir en la siguiente obser
vacion.
Observacion
1.21. Una ED en la forma (1.30) es exacta si satisface (1.33). Si se
inicial x (t0 ) = x0 , entonces la definicion
(1.34) de F implica
impone la condicion
, que satisface la condicion
inicial
que F (t0 , x0 ) = 0. De esta manera, la solucion
(t0 ) = x0 , esta dada implcitamente por F (t, (t)) = 0.
Z t
t0
2
(2x 3 ) d +
= t x
Z x
(t20 2s) ds
x0
3
t0 ) + t20 x x2 (t20 x0
(t30 + t20 x0 x02 ).
t (t20 x
3
2
= t2 x t x
x02 )
20
Observacion
1.23. Otra forma de resolver una ED exacta se ilustra a continuacion.
F tal que F/t = M, entonces
Puesto que se esta buscando una funcion
F (t, x ) =
M(t, x ) dt + g( x )
M (t, x ) dt +
dg
( x ) = N (t, x )
dx
g.
de donde se puede encontrar a la funcion
1.23. En efecto,
La ED del Ejemplo 1.22 puede resolverse usando la Observacion
F (t, x ) =
(2tx 3t2 ) dt + g( x )
= t2 x t3 + g ( x )
luego
t2 +
dg
( x ) = t2 2x
dx
de donde
g( x ) =
(t2 2x t2 )dx
= x2 .
De este modo se tiene que F (t, x ) = t2 x t3 x2 , puesto que no hay una condicion
depende de una constante c, es decir,
inicial la solucion
t2 x t3 x2 = c.
La ecuacion
de Bernoulli
Una ecuacion
de Bernoulli es una ED de la forma
x + a(t) x = b(t) xr ,
r R.
intervalo de numeros
1
y
1.4.
1.5.
Ejercicios
x = et x ,
x =
x
,
t(ln tln x )
22
x (t + x ) = x,
(c) t = ln(c),
(d) t( + 1) = 2e t ,
(t+1)( x +1)
.
tx
x =
1.6 Mostrar que las funciones (t) = ct c2 (c R), (t) = t2 /4, son soluciones
de la ED x 2 = t x x.
integrable, donde I R es un intervalo. Cada
1.7 Sea f : I Rn una funcion
componente f i (i = 1, . . . , n) satisface la desigualdad
| f i | f i | f i |,
Z t
t0
Es decir,
| f i (s)| ds
Z t
t0
f i (s) ds
Z t
t0
| f i (s)| ds,
Z t
Z t
f
(
s
)
ds
| f i (s)| ds,
t i
t
0
t > t0 .
t > t0 .
(1.35)
t0
x (0) = 2,
y(0) = 1,
(c) y = y2 t,
y(1) = 1,
(d) x 1 = x2 , x 2 = x1 ,
(e) x = t x,
x (0) = 1, x (0) = 0.
en cada caso?
Se puede conjeturar la solucion
F en (1.9) solo
depende de t, es decir,
1.9 Supongase
que la funcion
x = f (t).
Z t
t0
f (s) ds + c,
x (0) = 2,
1
,
t (1 t )
(c) y = t2 et ,
y(1) = 1,
(d) x =
ct+d
,
(t a)(tb)
(e) x =
1e t
.
1+e t
a, b, c, d R,
1.11 Demostrar que las soluciones de la ED (1.24) forman un espacio vectorial sobre
R. Es cierto sobre C?
Sugerencia: Vease Pontriaguin [15, Seccion 1.5].
A la funcion
que A(t) es
unica,
salvo una constante aditiva.
(c) Identificar el factor integrante de la siguiente ED x + 2tx = x. Encontrar su
si x (0) = 2.
solucion
(d) Resolver la ED x x tan(t) = esen(t) si t (0, /2).
t2 x + 2tx = 1 en el intervalo (0, ).
1.15 Considerar la ecuacion
tiende a cero cuando t .
(a) Demostrar que toda solucion
24
= k,
u (c)
donde k es una constante positiva. Encontrar la forma general de las funciones u de tipo CARA y dar condiciones sobre los parametros para que u
satisfaga las propiedades impuestas en (a).
(c) Se dice que u es de tipo HARA (hyperbolic absolute risk aversion) si
u (c)
1
= 1
u (c)
c
cu (c)
= ,
u (c)
donde es una constante positiva. Encontrar la forma general de las funciones u de tipo CRRA y dar condiciones sobre los parametros para que u
satisfaga las propiedades impuestas en (a).
Sugerencia: Considerar dos casos = 1 y 6= 1.
25
2.
Optimizacion
dinamica en tiempo discreto
2.1.
(2.1)
v(, x ) :=
R(t, xt , ut ) + S(xT ),
(2.2)
t =0
donde las funciones R y S toman valores reales. Cada termino R(t, xt , ut ) puede
o recompensa (si el
interpretarse como el costo (en el caso de minimizacion)
por etapa. La catidad S( x T ) es conocida como
problema es de maximizacion)
valor de salvamento.
es optimizar (ya sea maximizar o minimizar) la funcion
El problema en cuestion
inicial x0 = x, mas
objetivo (2.2) sujeto al sistema dinamico (2.1) y la condicion
especficamente:
T 1
opt
v(, x ) = R(t, xt , ut ) + S( x T )
{ut }tT=01
t =0
s. a : xt+1 = f (t, xt , ut )
u0 , . . . , u T 1 U,
x0 dado.
t = 0, 1, . . . , T 1,
R(t, xt , ut ).
t =0
26
(2.3)
opt
v(, x ) = R(t, xt , ut )
{ut }
t =0
t =0
S. a : xt+1 = f (t, xt , ut )
ut U
x0 dado.
t = 0, 1, 2, . . . ,
t = 0, 1, 2, . . . ,
En las Secciones 2.2 y 2.3 se estudian problemas con horizonte finito, mientras
2.3 esta dedicada a aquellos con horizonte infinito.
que la Seccion
2.2.
(si el problema
Considerese el PCO (2.3) en el caso especfico de maximizacion
el Teorema 2.1 sigue siendo valido con los cambios adecuaes de minimizacion,
dos). Para usar el metodo de los multiplicadores de Lagrange conviene escribir
explictamente cada una de las T restricciones
max
{ut }tT=01
s. a :
T 1
v(, x0 ) = R(t, xt , ut ) + S( x T )
t =0
f (0, x0 , u0 ) x1 = 0
f (1, x1 , u1 ) x2 = 0
..
.
(2.4)
f ( T 1, x T 1 , u T 1 ) x T = 0.
Ahora defnase el Lagrangiano o funcion
Lagragiana
L (, x , ) :=
T 1
T 1
R(t, xt , ut ) + S( x T ) +
t =0
t [ f (t, xt , ut ) xt+1 ]
t =0
donde, = {u0 , u1 , . . . , u T 1 }, x = { x1 , x2 , . . . , x T }, = {0 , 1 , . . . , T 1 } y x0
dado. Suponiendo que las funciones R, S y f son continuamente diferenciables y
los conjuntos X, U son abiertos, las condiciones (necesarias) de Lagrange para una
estrategia optima
son
L
ut
L
0=
xt
L
0=
x T
L
0=
t
0=
R
f
+ t
ut
ut
R
f
=
t 1 + t
xt
xt
dS
=
T 1
dx T
= f (t, xt , ut ) xt+1
27
para t = 0, 1, . . . , T 1
(2.5)
para t = 1, 2, . . . , T 1
(2.6)
(2.7)
para t = 0, 1, . . . , T 1,
(2.8)
H
(t, xt , ut , t )
x
para t = 1, 2, . . . , T 1,
(2.9)
con la condicion
terminal
dS
( x ),
dx T
ademas, la condicion de maximizacion
del Hamiltoniano
T 1 =
H
(t, xt , ut , t ) = 0
u
para t = 0, 1, . . . , T 1,
(2.10)
(2.11)
y
xt+1 = f (t, xt , ut )
para t = 0, 1, . . . , T 1
(2.12)
es una funcion
con respecto a ( x, u), entonces (, x , ) es optimo
para
el problema (2.4).
2.3.
Programacion
dinamica. El Principio de optimalidad y la ecuacion
de Bellman
28
2.2, solo
se estudia el problema de maximizacion
(el otro
Al igual que en la Seccion
caso es totalmente analogo)
T 1
max
v(, x0 ) = R(t, xt , ut ) + S( x T )
{ut }tT=01
t =0
s. a : xt+1 = f (t, xt , ut )
u0 , . . . , u T 1 U,
x0 dado.
t = 0, 1, . . . , T 1,
(2.13)
Proposicion
2.3 (Principio de optimalidad de Bellman). Sea = {u0 , u1 , . . . , uT 1 }
una estrategia o ptima para el problema (2.13) y { x0 , x1 , . . . , x T } la trayectoria de estados
correspondiente, en particular, x0 = x0 . Entonces, para cualquier tiempo s {0, 1, . . . , T
1}, la estrategia truncada
s = {us , . . . , uT 1 }
es o ptima para el subproblema
max
{ut }tT=s1
v(, xs )
T 1
= R(t, xt , ut ) + S( x T )
t=s
s. a : xt+1 = f (t, xt , ut )
us , . . . , u T 1 U,
xs dado.
t = s, . . . , T 1,
(2.14)
(2.15)
(2.16)
y para s = T 1, T 2, . . . , 0,
us
{ut }tT=s1
T 1
t=s
R(t, xt , ut ) + S( x T ) xs = x
0 s T, x X.
y A, z B
y A
y A, z B
en particular,
max
y A, z B
de donde
max
y A, z B
y A
(2.17)
y A, z B
z B
y A
luego,
max
y A, z B
z B
(2.18)
f (r 1, xr1 , ur1 )
g1 ( x r 1 , u r 1 )
g1 [ f (r 2, xr2 , ur2 ), ur1 ]
g2 ( x r 2 , u r 2 , u r 1 )
= : gr j ( x j , u j , . . . , u r 2 , u r 1 ) .
de valor V ( x, 0) se puede escribir como
Paso 3. Usando los Pasos 1 y 2, la funcion
T 1
V ( x, 0) = max
R(t, xt , ut ) + S( x T )
{ut }tT=01
t =0
n
= max R(0, x0 , u0 ) + max R(1, x1 , u1 ) + . . . +
u1
u0
max{ R( T 1, x T 1 , u T 1 ) + S( x T )}
u T 1
)
,
sujeto a la dinamica
xt+1 = f (t, xt , ut ) para todo t = 0, 1, . . . , T 1,
y estado inicial x0 .
Definimos
JT ( x T ) = S ( x T ) ,
JT 1 ( x T 1 ) = max { R( T 1, x T 1 , u T 1 ) + JT ( x T )}
u T 1
x T = f ( T 1x T 1 , u T 1 ), y as sucesivamente, hasta
con la condicion
J1 ( x1 ) = max { R(1, x1 , u1 ) + J2 ( x2 )}
u1
con x1 = f (0, x0 , u0 ).
Las igualdades
V ( x, s) = Js ( x )
0 s T, x X,
Observacion
2.5. Al resolver un PCO usando el Principio del maximo de Pontryagin (Teorema 2.1) se obtienen estrategias de lazo abierto (openloop), es decir, los
si ademas la funcion
del estado), se dice
que la estrategia es estacionaria.
2.4.
se considera una clase particular de problemas con horizonte inEn esta seccion
de refinito, llamados problemas estacionarios con descuento ya que la funcion
compensa por etapa es de la forma
R(t, x, u) = t r ( x, u).
dependen del estado x y del control u, pero no dependen
Las funciones r y f solo
del tiempo t, por lo cual se dice que el PCO es estacionario. El problema que se
quiere estudiar es de la forma
max
v(, x0 ) = r ( xt , ut )
{ut }
t =0
t =0
s. a : xt+1 = f ( xt , ut )
ut ( xt ) U
x0 dado,
t = 0, 1, 2, . . . ,
t = 0, 1, 2, . . . ,
donde
(a) X Rm es el espacio de estados,
(b) U Rn es el espacio de controles,
(c) el numero
real 0 < < 1 es un factor de descuento,
(d) r : X U R es la funcion
de recompensa por etapa,
(e) f : X U X es la funcion
de transicion,
y
32
(2.19)
t r ( x t , u t ),
T
lm
(2.20)
t =0
y puede ser o .
Dado un numero
real h, se denotan su parte positiva y su parte negativa,
mediante
h+ := max{0, h}, h := max{0, h},
respectivamente. De este modo, h = h+ h . Sea ( x0 ) una poltica arbitraria.
Si
T
lm
t r+ (xt , ut ) < ,
T t =0
lm
t r (xt , ut ) < ,
T t =0
En virtud de la Hipotesis
2.6, tiene sentido definir la funcion
v(, x0 ) :=
t r ( xt , ut )
t =0
(2.21)
t r(xt , ut ),
t =0
equivalentemente, V ( x0 ) =
v( , x
0 ).
33
( x0 ),
(2.22)
(2.23)
de polticas, n ( x0 ) (n =
(b) Si V ( x0 ) = , entonces existe una sucesion
1, 2 . . .), tal que
lm v(n , x0 ) = .
n
(c) Si V ( x0 ) = , entonces
v(, x0 ) =
( x0 ).
La ecuacion
de Bellman
Sea ( x0 ) una poltica arbitraria. Observese que
v(, x0 ) = r ( x0 , u0 ) + v(, x1 ),
(2.24)
donde v(, x1 ) := r ( x1 , u1 ) + ( x2 , u2 ) + 2 r ( x3 , u3 ) + . . ..
que hay entre la siguiente ecuacion
x X,
(2.25)
y( x )
de valor V.
y la funcion
Teorema 2.8 (Bellman). La funcion de valor satisface la ecuacion de Bellman.
( x1 ), u0 ( x0 ).
Entonces
V ( x0 ) r ( x0 , x1 ) + V ( x1 )
u0 ( x0 ).
(2.26)
De (2.23) y (2.24) se sigue que para todo > 0 existe u 0 ( x0 ) tal que
V ( x0 ) < r ( x0 , u 0 ) + V ( x1 ).
34
(2.27)
de Bellman, es decir, se
Por (2.26) y (2.27) se concluye que V satisface la ecuacion
cumple la igualdad
V ( x ) = sup {r ( x, y) + V [ f ( x, y)]}
x X.
y( x )
( x0 ),
(2.28)
(2.29)
Notese
que
W ( x0 ) r ( x0 , u0 ) + W [ f ( x0 , u0 )]
u0 ( x0 ).
W ( x0 )
t =0
u 0 ( x0 )
para algun
u 1 ( x1 )
< r ( x1 , u 1 ) + W [ f ( x1 , u 1 )] para algun
..
.
W ( x t ) /2t+1 < r ( x t , u t ) + W [ f ( x t , u t )]
u t ( x t ).
para algun
T
T
t
(
/2
)
<
t r(xt , u t ) + T+1W [ f (x T , u T )].
2 t
=0
t =0
(2.30)
W : X R satisface la ecuacion
de Bellsiguiente. Supongase
que una funcion
man y es no acotada. Sin embargo, dada una poltica arbitraria ( x0 ), la
correspondiente trayectoria de estados { xt } satisface
lm t W ( xt ) 0.
(2.31)
x X.
Proposicion
2.11. Sea {ut } una solucion del problema (2.19) y { xt } la correspondiente
trayectoria de estados. Entonces la funcion de valor V satisface
V ( xt ) = r ( xt , ut ) + V [ f ( xt , ut )]
t = 0, 1, . . . .
(2.32)
( x0 ),
(2.33)
( x1 ),
2.3). Ademas, V ( x0 ) =
por lo tanto V ( x1 ) = v( , x1 ) (comparese con la Proposicion
r ( x0 , u0 ) + v( , x1 ) por lo que
V ( x0 ) = r ( x0 , u0 ) + V [ f ( x0 , u0 )].
(2.34)
V ( x0 ) =
t =0
optima.
Existencia de soluciones
Hipotesis
2.14. La correspondencia toma valores compactos, es decir, ( x ) es un conjunto compacto para todo x X. Ademas, es continua.
En el siguiente lema, C ( X ) denota al conjunto de funciones continuas y aco
contadas en X. En particular, cualquier numero
a R representa una funcion
stante a( x ) = a para todo x X.
Lema 2.15 (Condiciones de Blackwell). Sea L : C ( X ) C ( X ) un operador con las
siguientes propiedades:
(a) Si h, g C ( X ) son tales que h g, entonces L[h] L[ g].
(b) Existe un numero
h C ( X ), a R.
(2.35)
y( x )
de transicion.
Es inmediato verificar que L cumple las Condidonde f es la funcion
ciones de Blackwell.
37
Teorema 2.16. Bajo las Hipotesis 2.13 y 2.14, existe una solucion para el problema (2.19).
Demostracion. Por el Teorema de Berge (Teorema 4.15), L[h] C ( X ) para cada h
C ( X ). Entonces, por el Lema 2.15 y el Teorema de Banach, el operador L : C ( X )
C ( X ) tiene un unico
punto fijo. Finalmente, por el Teorema 2.9, el unico
punto
de valor. Una poltica optima
para n = 0, 1, 2, . . . ,
(2.36)
de valor V = lmn Vn .
de este modo, la funcion
2.5.
En esta seccion
debido
a Brock y Mirman [4],
max
ln(ct )
{ct }
t =0
t =0
s. a : k t+1 = kt ct ,
ct [0, kt ] t = 0, 1, 2, . . . ,
k0 > 0 dado,
(2.37)
t N.
Luego
r ( xt , ut ) = ln(ct )
= ln(kt k t+1 )
ln(kt )
= ln(k t ).
38
(2.38)
2 ln(k t2 )
..
.
t ln(k0 ).
(2.39)
lm
T t =0
t r + ( xt , ut )
lm
t t+1 | ln(k0 )|
T t =0
| ln(k0 )|.
1
(a) L[V ] V,
(b) lm t V ( xt ) 0,
t
(c) v(, x0 ) V ( x0 ).
Si la funcion W, dada por
W ( x ) := lm Lt [V ]( x ),
t
x X,
(2.40)
2.10,
y, en virtud de la Observacion
W V.
39
(2.41)
t N.
(2.42)
ln(k )
1
asociada. Notese
que
L[V ](k ) =
ln(k c)
= max ln(c) +
1
c[0,k ]
= V (k) + a1 ,
c[0,k ]
(2.43)
(2.44)
donde
a1 : =
ln() + ln(1 ).
1
v(, k0 ) =
t ln(ct )
T
lm
t =0
T
lm
t t+1 ln(k0 )
T t =0
ln(k0 )
1
= V (k0 ).
Para resolver el Modelo de Brock y Mirman, se tiene que encontrar la funcion
W dada por (2.40). De (2.44) se sigue que
L2 [V ](k ) = V (k) + a1 + a1 ,
en general,
Lt [V ](k) = V (k ) + a1 (1 + + . . . + t1 ).
Luego
W (k ) := lm Lt [V ](k )
t
= V (k) +
=
a1
1
ln(k) +
ln() + ln(1 ) .
1
1 1
W satisface la equacion
de Bellman. Mas aun,
por
Por el Ejercicio 1.1, la funcion
de valor asociada al Modelo de Brock y Mirman.
el Teorema 2.19, W es la funcion
a
a1
= ln(ct ) + V (kt ct ) + 1
1
1
a
= max ln(ct ) + V (k t ct ) +
,
ct
1
2.6.
Ecuaciones de Euler
F (t, xt , xt+1 ),
x0 dado.
(2.45)
t =0
Observacion
2.21. En el problema anterior no aparece explcitamente la variable
de control, sin embargo, e ste se puede replantear de manera equivalente usando la
(2.13).
formulacion
Si la funcion
e interiores,
entonces deben satisfacer las ecuaciones de Euler
Dxt F (t 1, xt1 , xt ) + Dxt F (t, xt , xt+1 ) = 0,
DxT F ( T 1, x T 1 , x T ) = 0.
t = 1, . . . , T 1,
(2.46)
t = 1, 2, . . . .
(2.47)
max
{ x t +1 }
t =0 X
t =0
)
t F ( xt , xt+1 ) x0 = x dado ,
(2.48)
donde
(a) el espacio de estados X es un subconjunto abierto de Rn++ ,
(b) para cada y, la funcion F (, y) es creciente en cada una de sus primeras n variables,
(c) F (, ) es concava.
Si { xt }
t=0 (en particular, x0 = x) satisface las ecuaciones de Euler
t = 1, 2, . . . ,
(2.49)
y la condicion
de tranversalidad
lm t Dxt F ( xt , xt+1 ) xt = 0,
(2.50)
entonces { xt+1 }
ptimo para el problema (2.35).
t=0 es o
en X, con x0 = x. Puesto que F es
Demostracion. Sea { xt+1 }
t=0 cualquier sucesion
concava
F ( xt , xt+1 ) F ( xt , xt+1 ) Dxt F ( xt , xt+1 ) ( xt xt ) + Dxt+1 F ( xt , xt+1 ) ( xt+1 xt+1 ).
Defnase T := tT=01 t [ F ( xt , xt+1 ) F ( xt , xt+1 )], entonces
T
T 1
t =0
T 1
t =1
+ T 1 DxT F ( x T 1 , x T ) ( x T x T )
= 0 + T 1 [ DxT F ( x T , x T +1 )] ( x T x T )
=
DxT F ( x T , x T +1 ) x T
T DxT F ( x T , x T +1 ) x T
T
por (2.36)
DxT F ( x T , x T +1 ) x T
t F ( xt , xt+1 )
t =0
t F ( x t , x t +1 ).
t =0
42
2.7.
Ejercicios
t = 0, 1, . . . , T 1.
(b) Suponga que el individuo desea maximizar su utilidad total dada por
tT=0 U (t, ut xt ). Escriba el correspondiente problema dinamico, con las restricciones adecuadas, e identifique las variables de estado y de control.
2.2 Suponga que se tiene una cantidad C de un recurso que se debe repartir (totalmente) entre N actividades. Si a la actividad k se le asigna una cantidad
del
uk , se obtiene un beneficio b(k, uk ). Si se quiere determinar la distribucion
como
recurso que maximiza los beneficios agregados, exprese esta situacion
un PCO.
anade
la cantidad ut , se incurre en un costo de cu2t . Suponiendo que hay un
mediante un
factor de descuento temporal 0 < < 1, describa esta situacion
PCO.
2.4 Resuelva el problema del Ejercicio 2.2, usando el Principio del maximo de
de
Pontryagin, si b(k, u) = u (el beneficio no depende de la actividad, solo
la cantidad asignada).
de mineral
2.5 El gestor de una mina debe determinar el plan optimo
de extraccion
ut , para t = 0, 1, 2, 3, 4, 5, 6. La mina debe abandonarse en t = 7. Se supone que
43
(b) Suponga que la tasa de interes es de 0.04. Explique por que la funcion
objetivo es de la forma
6
u2t
t
0.96 ut xt .
t =0
(c) Escriba el sistema dinamico asociado y resuelva el problema, usando el
principio del maximo de Pontryagin, si x0 = 1250.
Respuesta: (u0 , u1 , u2 , u3 , u4 , u5 , u6 , u7 ) = (262.5, 227.1, 190.1, 154, 129, 109.2, 89.1).
at > 0,
t = 0, 1, . . . , T 1.
Asuma que los activos iniciales x0 > 0 y los parametros at estan dados. Suponga que la recompensa por etapa es
R(t, x, u) = t u1 ,
donde , (0, 1). Si al final del horizonte temporal el inversionista tiene una
1
utilidad S( x T ) = T Ax T
(a) formule el correspondiente PCO,
dinamica.
(b) resuelvalo usando programacion
dinamica
2.7 Resuelva el siguiente problema usando programacion
(
)
3
2
max (1 + xt ut ) xt+1 = xt + ut , x0 = 0 .
t =0
1
2xt ,
ut = (2x0 )1 ( 32 )t .
U (t, ut xt ) = (1 + r )t ut xt , r > 0.
Calcule us ( x ) para s = T, T 1, T 2.
objetivo del Ejercicio 2.1 por tT=0 (1 + r )t ut xt .
2.11 Sustituya la funcion
(a) Calcule uT ( x ), uT 1 ( x ).
(b) Muestre que existen constantes Ps (que dependen de , r) tales que Js ( x ) =
dinamica
2.12 Resuelva el siguiente problema usando programacion
(
)
T
max (3 ut ) xt2 xt+1 = xt ut , x0 dado .
u [0,1]
t
t =0
max
u t R
(eut ) exT
t =0
)
xt+1 = 2xt ut , x0 dado .
(a) Calcule JT ( x ), JT 1 ( x ), JT 2 ( x ).
en diferencias para
(b) Muestre que Jt ( x ) = t ex y encuentre una ecuacion
t .
2.14 Resuelva el Ejercicio 2.10 cuando r = 0.
max t ln ct k t+1 = Akt ct , k0 dado ,
t =0
45
{k t } es convergente.
(c) Pruebe que la sucesion
(d) Encuentre el punto de equilibrio del capital y determine si es estable.
y encuentrela usando la ecuacion
max
t (ut xt )1 xt+1 = a(1 ut )xt , x0 dado ,
u (0,1)
t
t =0
1
max t eut e xt xt+1 = 2xt ut , x0 dado ,
2
u t R t =0
donde (0, 1).
Sugerencia: Suponga que V ( x ) = e x , para alguna constante positiva .
(2.52)
2.19 (CruzSuarez y MontesdeOca (2008)) Sean {Vn } las funciones definidas por
n 1
()t
k t
=0
n = 1, 2, . . . .
k
,
A n +1
n (k ) =
n = 1, 2, . . . ,
An 1
An
,
n = 1, 2, . . . .
{ Mn } es convergente?
(d) Por que la sucesion
(e) Encuentre lmn Mn y lmn An .
de valor V (k ), as como la poltica estacionaria (k ).
(f) Determine la funcion
2.20 Considere el problema
(
max
t =0
)
t U (ct ) xt+1 = ( xt + yt ct ), x0 dado ,
(2.53)
47
max t U (ct ) k t+1 = f (k t ) ct , k0 dado ,
t =0
t = 0, 1, . . . , T 1,
(2.54)
T 1
R(t, xt , ut , t ) + S(xT )
(2.55)
t =0
(2.56)
(2.57)
y para s = T 1, T 2, . . . , 0,
us
objetivo
Observacion
2.24. Si el problema es de horizonte infinito, con funcion
v(, x0 ) = E t r ( xt , ut ),
t =0
(2.58)
2.23 (Problemas LQ) Un problema LQ consiste de un sistema lineal con una recompensa por etapa cuadratica, tambien se conoce como problema del regulador
t = 0, 1, . . . ,
T 1
#
,
(2.60)
t =0
optima
estan dadas por
s ( x ) = Gs x, con Gs := (r + Ks+1 2 )1 Ks+1
donde las constantes Ks estan dadas recursivamente por KT = q T y para s =
T 1, . . . , 0,
Ks = [1 (r + Ks+1 2 )1 Ks+1 2 ]Ks+1 2 + q.
2.24 Resuelva el Ejercicio 2.6 pero suponiendo que los activos cambian de acuerdo
at > 0,
t = 0, 1, . . . , T 1,
donde { t } son variables aleatorias i.i.d. con valores positivos. Suponga que
1
existen constantes at tales que at
= E[ t1 ], compare con los resultados del
Ejercicio 2.6.
2.25 En el siguiente PCO estocastico, los controles ut toman valores en R y , son
constantes positivas
T 1
ut
x T
max E (e
) e
t =0
xt+1 = 2xt ut + t , x0 dado .
T 1
+ ax T
2u1/2
t
t =0
con a > 0 y ut 0. El estado del sistema xt+1 toma sus valores en el con inicial x0 > 0
junto {0, xt ut } cada uno con probabilidad 1/2. La condicion
esta dada.
2.27 Considere el PCO estocastico
(
)
max E t ( xt ut )1 xt+1 = t (1 ut ) xt , k0 , 0 = s0 dados ,
t =0
de
donde , (0, 1), ut (0, 1) para t = 0, 1, 2, . . . y { t } es una sucesion
1
50
1
1+[ F]1/
, donde F = [1 ( )1/ ] .
t
2
2
max E ( xt ut ) xt+1 = ut + xt + t , k0 , 0 = s0 dados ,
t =0
de VAs no
donde (0, 1), ut R para t = 0, 1, 2, . . . y { t } es una sucesion
2
2
negativas i.i.d. tales que E( ) = 0 y E( ) = .
de valor es de la forma V ( x ) = Ax2 + B. Encuentre la
Suponga que la funcion
Respuesta:
ut
Axt
1 A
, donde A =
12 1+42
2
yB=
A2
1 .
2.29 (Brock y Mirman (1972)) Considere el siguiente problema de crecimiento economico estocastico
(
)
max E t ln ct k t+1 = A t kt ct , k0 , 0 = s0 dados ,
{ct }
t =0
de valor es de la forma
(b) Suponga que la funcion
V (k, s) = F ln(k ) + G ln(s) + H.
z t 1
1
+
= 0 t = 1, 2 . . . ,
1 z t 1
1 zt
(2.61)
t = 1, 2 . . . .
(2.62)
c1 + c2 ()t+1
,
c1 + c2 ()t
(2.63)
52
3.
3.1.
Optimizacion
dinamica en tiempo continuo
Formulacion
del PCO en tiempo continuo
Supongase
que el estado de un sistema en el instante t puede ser descrito por un
sistema de ecuaciones diferenciales de la forma
x (t) = f (t, x (t), u(t)),
para t [0, T ],
x (0) = x0 dado,
(3.1)
donde x (t) X y u(t) U (t, x (t)) representan a las variables de estado y con 2.1, se asume que X Rn y
trol, respectivamente (al igual que en la Seccion
U (t, x (t)) Rm ). Se supone tambien que f (, , ) C 1 .
El numero
real T > 0 representa el horizonte o tiempo terminal; si el horizonte
temporal es infinito, el intervalo [0, T ] es reemplazado por [0, ).
Adicionalmente, el sistema puede tener alguna restriccion
terminal, por ejemplo, x ( T ) = x T o lmt x (t) 0.
Definicion
3.1. Un par de funciones ( x (), u()) : [0, T ] Rn Rm es un par admisible si
(a) u(t) U (t, x (t)) para todo t [0, T ], u() es continua a trozos,
(b) x () es continua, diferenciable a trozos y con derivada continua (siempre que exista),
(c) x (), u() satisfacen la ecuacion diferencial (3.1) para los valores de t en los cuales u()
es continua y x () es diferenciable, y
(d) se satisface la restriccion terminal (si la hay).
La funcion x () se conoce como trayectoria de estado, mientras que u() es la trayectoria
de control o control admisible.
En estas notas, un PCO en tiempo continuo consiste en encontrar un control
admisible u() que optimice un funcional de la forma
Z T
0
(3.2)
53
3.2.
La ecuacion
de HamiltonJacobiBellman
para t [0, T ],
x (0) = x0 dado,
(3.3)
(3.4)
:=
se tienen las variables discretas
xk := x (k),
k = 0, 1, . . . , N,
uk := u(k),
k = 0, 1, . . . , N.
k = 0, 1, . . . , N 1,
objetivo
y la funcion
N 1
g( xk , uk ) + S( x N ).
k =0
Defnanse
T
J (, x ) := max
g( x (t), u(t)) dt + S( x ( T )) x ( ) = x ,
u()
N 1
J (s, x ) := max g( xk , uk ) + S( x N ) xs = x .
Z
uk
k=s
y para s = N 1, N 2, . . . , 0
J (s, x ) = max{ g( x, u) + J ((s + 1), x + f ( x, u))}.
u
(3.5)
o ()
en (3.5)
= 0, sustituyendo esta ultima
expresion
0 = max{ g( x, u) + D Jd (, x ) + Dx Jd (, x ) f ( x, u) + o ()/}.
u
de frontera
con la condicion
J ( T, x ) = S( x ).
Teorema 3.2. Supongase que V : [0, T ] X R satisface la ecuacion de HJB
0 = max{ g( x, u) + D V (, x ) + Dx V (, x ) f ( x, u)},
u
(3.6)
y la condicion de frontera
V ( T, x ) = S( x ).
(3.7)
Supongase tambien que u = (, x ) maximiza el lado derecho de (3.6), sea x la correspondiente trayectoria de estado, i.e.,
x (t) = f ( x (t), (t, x (t))),
t [0, T ],
x (0) = x0 .
V (, x ) = J (, x )
2 Ver
55
, x.
(3.8)
por (3.6)
por (3.3).
Integrando ambos lados de la desigualdad anterior y usando el Teorema fundamental del calculo
0
Z T
0
g( x ( ), u( )) d + V ( T, x ( T )) V (0, x (0)).
de frontera (3.7)
Luego, por la condicion
V (0, x (0))
Z T
0
g( x ( ), u( )) d + S( x ( T )).
(3.9)
Z T
0
g( x ( ), u ( )) d + S( x ( T )).
(3.10)
(3.11)
y la condicion de frontera
V ( T, x ) = S( T, x ).
(3.12)
t [0, T ],
x (0) = x0 .
V (, x ) = J (, x )
Demostracion. Ejercicio 3.1.
56
, x.
(3.13)
3.3.
(3.14)
s. a
x (0) = x0
(3.15)
(3.16)
(3.17)
y la maximizacion
del Hamiltoniano
max
uU (t,x (t))
(3.18)
Observacion
3.5. En la siguiente demostracion
de valor
Z T
V (, x ) := max
g(t, x (t), u(t)) dt + S( T, x ( T )) x ( ) = x
(3.19)
u()
de HJB
es de clase C 2 . Se asume, ademas, que en el lado derecho de la ecuacion
teorema de la envolvente (ver Ejercicio 2.18). Estos supuestos
se puede usar algun
no siempre se cumplen, por ejemplo, en el Ejercicio 3.4 se pide demostrar que
de valor no es diferenciable. Una demostracion
mas general del PMP
la funcion
puede encontrarse en Fleming y Rishel (1975) [Cap. 2] o Gamkrelidze (1978).
3 El
(3.18)
nombre viene de la ecuacion
57
de HJB
Demostracion. Por el Corolario 3.3, la ecuacion
(3.20)
y la condicion
optimos.
Teorema 3.6 (Mangasarian). Sean ( x (), u ()), () un par admisible y una funcion
que satisfacen el PMP. Supongase que U ( x, t) es convexo para todo ( x, t), H es una funcion
concava en ( x, u) y S es concava en x. Entonces ( x (), u ()) es o ptimo para el problema
(3.14).
Demostracion. Sea ( x (), u()) cualquier par admisible, para simplificar la notacion
defnanse
:=
Z T
0
H := H(t, x , u , ),
S := S( T, x ( T )),
Z T
0
H := H(t, x, u, ),
S := S( T, x ( T )).
Por la concavidad de H y S
H H D x H ( x x ) + Du H ( u u )
Dx H ( x x )
= ( x x )
58
por (3.18)
por (3.16),
(3.22)
ademas,
S S Dx S ( x ( T ) x ( T )).
(3.23)
Luego,
=
Z T
(H H) +
Z T
0
Z T
Z T
0
( x x ) +
Z T
0
( x x ) + S S
( x x ) + S S
por (3.22)
D [( x x )] + Dx S ( x ( T ) x ( T ))
por (3.23)
( T )( x ( T ) x ( T )) 0 + ( T )( x ( T ) x ( T ))
por (3.17)
= 0
Definicion
3.7. Para el PCO (3.14) se define el Hamiltoniano maximizado, H : R
Rn Rn R, mediante
t, x, ) := max {H(t, x, u, )}.
H(
uU (t,x )
introducida en la demostracion
del Teorema 3.6 y suponiendo
Con la notacion
que se satisfacen las condiciones necesarias del PMP, se cumple que
t, x , ) = H(t, x , u , ) = H .
H(
concava
(3.24)
= Dx [H(t, x , u , )] ( x x )
= ( x x )
por (3.25)
por (3.17).
asume que x es interior, se puede encontrar en Grass et al. (2008) [Teorema 3.30,
p.121].
59
3.4.
t0
(3.25)
Z t1
t0
Por la Formula
de Leibniz
dJ
() =
d
Z t1
F
t0
luego
dJ
(0) =
d
Z t1
F
t0
(t, x
F
(3.27)
t0
(3.28)
x
dt x
y la condicion
de transversalidad
F
(t1 , x (t1 ), x (t1 )) = 0.
x
(3.29)
R,
F
(t, x (t), x (t)) h (t) dt =
(t1 , x (t1 ), x (t1 ))h(t1 )
x
x
Z t1
d F
de Euler, se llega a
Sustituyendo en (3.27) y usando la ecuacion
F
(t1 , x (t1 ), x (t1 ))h(t1 ) = 0,
x
por ser h arbitraria se puede escoger de tal forma que h(t1 ) 6= 0 y por lo tanto
F
(t1 , x (t1 ), x (t1 )) = 0.
x
Observacion
3.13. El problema (3.28) es una caso particular de un PCO (3.14) y,
de Euler a partir del PMP (siempre que
por lo tanto, es posible deducir la ecuacion
u sea interior).
hay que hacer T = t1 , x (t) = u(t), g(t, x (t), u(t)) = F (t, x (t), x (t))
En efecto, solo
(3.16) se convierte en
y S( T, x ( T )) 0. Usando el PMP, la ecuacion
F
,
x
(3.30)
(3.31)
Mas aun,
de segundo orden Duu H 0. Entonces F satisface otra
que H cumple la condicion
necesaria
condicion
Dx x F (t, x (t), x (t)) 0,
llamada condicion
de Legendre, ver Cerda Tena (2001) [Teorema 2.2, pp. 4142] o
6, pp. 4145].
Kamien y Schwartz (1991) [Seccion
t0
(3.32)
(3.33)
(3.35)
t0
x ( t0 ) = x0 , x ( t1 ) a ,
(3.36)
(3.37)
Z t1
t0
F = S(t0 , x (t0 )) +
Z t1 h
t0
F+
S
S i
+ x
t
x
3.5.
Observacion
3.16. En el PCO estandar (3.14) el estado terminal x ( T ) esta libre, una
pregunta natural es que sucede con el PMP cuando x ( T ) = x1 ? Para responder
esta pregunta observese que las funciones
Z T
V (, x ) := max
g( x (t), u(t)) dt + S( x ( T )) x ( ) = x ,
u()
Z T
V (, x ) := max
g( x (t), u(t)) dt + S( x ( T )) x ( ) = x, x ( T ) = x T ,
u()
Observacion
3.17. Si el problema (3.36) se escribe como un PCO con x = u, en de primer orden en (3.18) se convierte en
tonces la condicion
0 = Du H(t, x (t), u (t), (t)) = Dx F (t, x (t), x (t)) + (t),
t [0, T ].
de
En particular, ( T ) = Dx F ( T, x ( T ), x ( T )), sustituyendo en la condicion
transversalidad (3.37)
( T ) +
S
( T, x ( T )) 0, con igualdad si x ( T ) > a.
x
En el siguiente teorema se generaliza el PMP (Teorema 3.4), permitiendo dis (3.16) o en la Observacion
de los
(3.17). Supongase
que los conjuntos I, J, K son disjuntos a pares y la union
tres es igual a {1, 2, . . . , n}. Considerese el siguiente PCO
Z T
max
g(t, x (t), u(t)) dt + S( T, x ( T ))
u()
s. a
i I,
x j ( T ) = x jT ,
j J,
xk ( T ) ak ,
k K.
x (0) = x0 ,
(3.38)
Teorema 3.18. Sea ( x (), u ()) una solucion del PCO (3.38). Entonces existen una
constante 0 0 y una funcion : [0, T ] Rn continua, diferenciable a trozos y con
derivada continua, que satisfacen la ecuacion
adjunta
(3.39)
S
( x ( T ), T ),
xi
65
i I,
(3.40)
j J,
(3.41)
S
( T, x ( T )) k ( T ) 0, con igualdad si xk ( T ) > ak ,
xk
kK
(3.42)
y la maximizacion
del Hamiltoniano
max
uU (t,x (t))
(3.43)
donde
(3.44)
Las ecuaciones (3.39) y (3.43) se satisfacen para casi todo t [0, T ], mientras que
(0 , (t)) 6= 0 t [0, T ].
(3.45)
Observacion
3.19. En el Teorema 3.18 el Hamiltoniano esta dado por (3.44), e ste
es distinto al usado en el Teorema 3.4 ya que aparece el escalar 0 . En general, el
escalar 0 es positivo por lo que el Hamiltoniano (3.44) puede dividirse por 0 y
considerar /0 en lugar de .
Demostracion. Supongase
que 0 = 0, por las condiciones de frontera (3.40) se tiene
que ( T ) = 0. Luego, (0 , ( T )) = (0, 0) lo que cotradice a (3.45).
Hamiltoniano de valor corriente
s. a
66
x (0) = x0 ,
(3.46)
(3.48)
(3.49)
(3.50)
y la maximizacion
del Hamiltoniano
t, x (t), u (t), (t)) =
H(
max
uU (t,x (t))
t, x (t), u, (t))}.
{H(
(3.51)
s. a
i I,
x j ( T ) = x jT ,
j J,
xk ( T ) ak ,
k K,
x (0) = x0 ,
(3.52)
(3.53)
S
( x ( T ), T ),
xi
i I,
(3.54)
x j ( T ) = x jT ,
(3.55)
S
( T, x ( T )) pk ( T ) 0, con igualdad si xk ( T ) > ak ,
xk
kK
(3.56)
y la maximizacion
del Hamiltoniano
t, x (t), u (t), p0 , p(t)) =
H(
max
uU (t,x (t))
t, x (t), u, p0 , p(t))},
{H(
(3.57)
donde
t, x, u, p0 , p) := p0 g(t, x, u) + p f (t, x, u).
H(
(3.58)
Las ecuaciones (3.53) y (3.57) se satisfacen para casi todo t [0, T ], mientras que
( p0 , p(t)) 6= 0 t [0, T ].
(3.59)
s. a
x (0) = x0 ,
lm xi ( T ) libre,
i I,
lm x j ( T ) = x jT ,
j J,
lm xk ( T ) ak ,
k K.
T
T
(3.60)
Teorema 3.23. Sean ( x (), u ()), () un par admisible y una funcion que satisfacen
satisfacen la ecuacion
adjunta
(3.61)
y la maximizacion
del Hamiltoniano
max
uU (t,x (t))
68
(3.62)
donde
(3.63)
(3.64)
Z T
0
Z T
T 0
Z T
0
para todo T Tu .
3.6.
Ejercicios
lineal y
3.1 (Problemas LQ) Resuelva el siguiente problema con ley de transicion
costo cuadratico
Z T
2
2
2
max
[q( x (t)) + r (u(t)) ]dt + Q( x (t)) x (t) = ax (t) + bu(t), x (0) = x0 ,
u()
donde r > 0, q, Q 0, a, b R.
Sugerencia: Considere la funcion de valor V (t, x ) = k (t) x2 .
69
2x0 T 2t
e
2e T 1
t
x0
e2,
2e T 1
t
T 2 .
0
u (t) = 2e2x
T 1 e
3.5 Considere un mercado para un bien durable que consiste de varios consumidores por el lado de la demanda y una sola empresa por el lado de la oferta.
Sea el mercado potencial (total de posibles compradores) constante e igual a
M y denote por x (t) el porcentaje del mercado que ha comprado el producto
denote la intensidad de la publidel monopolista en el inatante t. Mas aun,
cidad hecha por la empresa al tiempo t por u(t) y asuma que los costos de
cuadratica u2 (t)/2.
publicidad estan dados por la funcion
(a) Interprete la siguiente dinamica para el estado
x (t) = u(t) M [1 x (t)].
uMT
Respuesta: El control o ptimo u es tal que ue
= M.
Demuestre que las tres formulaciones son equivalentes, es decir, cada forma
del funcional objetivo puede expresarse en cualquiera de las otras dos.
Sugerencia: Ver Cerda Tena (2001) [Seccion 4.2, pp. 115118].
dinamica
3.8 Considere el siguiente problema de optimizacion
Z T
max
[q f (K (t)) c( I (t))]dt K (t) = I (t) K (t), K (0) = K0 .
I ()
economica
2
u(t)[1,1]
0
71
() del siguiente
3.11 Usando el PMP, encuentre el control optimo
y la funcion
PCO
Z 2
2
max
(2x (t) 3u(t) u (t))dt x (t) = u(t) + x (t), x (0) = 5 .
u(t)[0,2]
h f (t), g(t)i dt = 0
rt
max
U ( f (K (t)) K (t))e dt K (0) = K0 , K ( T ) = KT .
K ()
de utilidad y la de produccion
satisfacen las siguientes
Suponga que la funcion
condiciones
f 0 > 0, f 00 0, U 0 > 0, U 00 < 0
(3.65)
e interprete economicamente
la ultima
expresion.
bK y U (C ) = C
/(1 ), donde b, > 0, 6= 1 y b 6= b r.
3.18 Un monopolista enfrenta el siguiente PCO
Z T
max
[ pD ( p, p ) b( D ( p, p ))]
p()
p (0) = p0 , p ( T ) = p T .
economicamente
las funciones D (, ) y b().
de Euler asociada a este problema.
(b) Encuentre la ecuacion
de Euler si b(q) = q2 + q + y D ( p, p ) = Ap +
(c) Resuelva la ecuacion
B p + C, suponga que todos los parametros son positivos.
3.19 Una empresa tiene que entregar B unidades de un bien en la fecha T. Sea x (t)
el nivel de inventario de dicho bien en el tiempo t. Suponga que el costo por
almacenar x (t) unidades es ax (t) por unidad de tiempo. Ademas la empresa
u(t) = x (t), e stos son iguales
incurre en costos por la velocidad de produccion
2
de utilidad y la de produccion
satisfacen las siguientes
Suponga que la funcion
condiciones
f 0 > 0, f 00 0, f (0) = 0, f 0 (0) > , U 0 > 0, U 00 < 0.
73
de Euler.
(a) Escriba la correspondiente ecuacion
(b) En particular, si U (c) = c1 /(1 ), con positivo y distinto de 1, de
muestre que las trayectorias optimas
para el consumo y el capital estan
dadas por el sistema de ecuaciones diferenciales
k = f (k) k c
c 0
c =
( f ( k ) ).
de beneficios
3.21 Una fabrica de microchips desea maximizar la siguiente funcion
Z 5
0
de activos a.
y la acumulacion
de Miguel y Rosita si a(0) = 0 y
Resolver el problema de maximizacion
a(50) = 0.
4 El
par (k , c ) no es el unico
punto de equilibrio, sin embargo, es el de mayor interes.
74
diferencial
economicamente
la siguiente ecuacion
w (t) = r (t)w(t) + y(t) c(t),
w ( 0 ) = w0 ,
(3.66)
la restriccion
puede dar
rt
rs
(3.67)
w ( t ) = e w0 +
e y(s) ds (1 e ) .
r
0
de transversalidad para probar que w ( T ) = 0.
(e) Use la condicion
76
4.
4.1.
Definicion
4.1. Una distancia o metrica sobre un conjunto X es una funcion d : X
X R, tal que para cualesquiera x, y, z X:
(a) d( x, y) = d(y, x ),
(b) d( x, y) 0 con igualdad si y solo si x = y,
(c) d( x, y) d( x, z) + d(z, y) (Desigualdad del triangulo).
En tal caso, se dice que la pareja ( X, d) es un espacio metrico.
Definicion
4.2. Sea ( X, d) un espacio metrico. Se dice que { xn } X es una sucesion
m, n N.
(4.1)
(4.2)
n,m
Definicion
4.5. Sean T : X X una funcion y x X. Se dice que x es un punto fijo
de T, si T ( x ) = x .
Teorema 4.6 (Banach). Sea ( X, d) un espacio metrico completo. Supongase que T : X
X es una contracion,
i.e.,
d( T ( x ), T (y)) d( x, y),
x, y X
punto fijo en X.
77
(4.3)
de
Demostracion. La unicidad se sigue de la propiedad (4.3) y de la definicion
punto fijo.
para n = 0, 1, 2, . . . ,
(4.4)
k f k := sup{| f ( x )|},
xX
es una norma en C ( X ).
Demostracion. Ejercicio 4.2.
La norma definida en el espacio vectorial C ( X ) induce una metrica, a saber,
d( f , g) := k f gk. De este modo, (C ( X ), d) es un espacio metrico.
Teorema 4.9. El espacio metrico (C ( X ), d) es completo.
Demostracion. Ejercicio 4.3.
78
4.2.
Correspondencias
se asume que X Rn , Z Rm .
En esta seccion
Definicion
4.10. Una correspondencia es una funcion que asocia a cada elemento
x X, un conjunto ( x ) Z y se denota como : X Z. Ademas, se define la grafica
de la correspondencia como el conjunto
gr() := {( x, z) X Z | z ( x )} .
Definicion
4.11. Sea : X Z una correspondencia tal que ( x ) 6= para todo
x X. Se dice que es hemicontinua inferior (hci) en x X si para cada z ( x )
y para cualquier { xn } tal que xn x, existe {zn } tal que zn ( xn ) (n = 1, 2, . . .) y
zn z.
Definicion
4.12. Sea : X Z una correspondencia tal que ( x ) es compacto y no
vaco para cada x X. Se dice que es hemicontinua superior (hcs) en x X si para
cualquier { xn } tal que xn x y {zn } tal que zn ( xn ) (n = 1, 2, . . .), existe una
subsucesion convergente {znk } tal que lmk znk ( x ).
Definicion
4.13. Una correspondencia : X Z es continua en x X si es hci y hcs
en x. Se dice que es continua en X si es continua en cada x X.
Teorema 4.14. Sea : X Z una correspondencia tal que ( x ) 6= para todo x X.
Supongase que la grafica de es cerrada y que para cada A X acotado, su imagen
x A}
( A) := {z Z | z ( x ) para algun
es un conjunto acotado. Entonces ( x ) es compacto para todo x X, mas aun,
es hcs.
Demostracion. Ejercicio 4.8.
Teorema 4.15 (Berge). Sea f : X Z R una funcion continua. Sea : X Z una
correspondencia continua y tal que ( x ) es compacto para todo x X. Entonces
(a) la funcion h : X R, dada por
h( x ) := max{ f ( x, z) | z ( x )},
(4.5)
es continua,
(b) para cada x X, el conjunto
G ( x ) := {z ( x ) | f ( x, z) = h( x )},
es no vaco y compacto,
(c) la correspondencia G : X Z, definida por (4.6), es hcs.
Demostracion. Ejercicio 4.9.
79
(4.6)
4.3.
Ejercicios
convergente es una
4.1 Demostrar que, en un espacio metrico, cualquier sucesion
de Cauchy.
sucesion
4.2 Demostrar el Lema 4.7.
4.3 Demostrar el Teorema 4.8.
80
Referencias
[1] Bartle, R. G., Sherbert, D. R. (2002) Introduccion al Analisis Matematico de una
Variable, 2a ed. Limusa, Mexico.
[2] Benveniste, L., Scheinkman, J. (1979). On the differentiability of the value function in dynamic models of economics. Econometrica 47, pp. 727732.
[3] Brock, W. A., Malliaris, A. G. (1989). Differential Equations, Stability and Chaos in
Dynamic Economics. NorthHolland.
[4] Brock, W. A., Mirman, L. (1972). Optimal Economic Growth and Uncertainty:
The Discounted Case. Journal of Economic Theory 4, pp. 479513.
[5] Cerda Tena, E. (2001). Optimizacion dinamica. Prentice Hall.
[6] Coddington, E. A. (1975) Introduccion a las ecuaciones diferenciales ordinarias.
a Editorial Continental.
Compan
[7] Cruz-Suarez, H., Montes-de-Oca, R. (2008). An envelope theorem and some
applications to discounted Markov decision processes. Math. Meth. Oper. Res.
67, pp. 299321.
[8] Fleming, W. H., Rishel, R. W. (1975). Deterministic and Stochastic Optimal Control.
SpringerVerlag.
[9] Gamkrelidze, R. V. (1978). Principles of optimal control theory. Plenum.
[10] Grass, D., Caulkins, J. P., Feichtinger, G., Tragler, G., Behrens, D. A. (2008).
Optimal Control of Nonlinear Processes. With Applications in Drugs, Corruption
and Terror. SpringerVerlag.
[11] Hartman, P. (2002). Ordinary Differential Equations. 2nd ed. SIAM.
[12] HernandezLerma, O., Lasserre, J. B. (1996). DiscreteTime Markov Control Processes: Basic Optimality Criteria. SpringerVerlag.
[13] Kamien, M. I., Schwartz, N. L. (1991). Dynamic optimization: the calculus of variations and optimal control in economics and management. 2nd ed. NorthHolland.
[14] Lomel, H., Rumbos, B. (2003). Metodos dinamicos en economa. Otra busqueda
81
82