SciELO - Scientific Electronic Library Online

 
vol.23 número3Geometrización de una porción del espacio realConstrucciones SERLIST y SERFUNC de series infinitas índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Educación matemática

versão impressa ISSN 1665-5826

Educ. mat vol.23 no.3 México Dez. 2011

 

Ensayos

 

Control óptimo estocástico en la enseñanza de la economía matemática

 

Stochastic optimal control in the teaching of mathematical economics

 

Ma. Teresa V. Martínez Palacios* y Francisco Venegas-Martínez**

 

 

* Escuela Superior de Economía del Instituto Politécnico Nacional (ESE-IPN). terevioleta@hotmail.com

** Escuela Superior de Economía del Instituto Politécnico Nacional (ESE-IPN). fvenegas1111@yahoo.com.mx

 

Fecha de recepción: 10 de abril de 2011.

 

Resumen

En este documento exponemos de manera didáctica el planteamiento del problema de control óptimo estocástico en tiempo continuo, en el cual las restricciones son procesos de difusión observables conducidos por el movimiento geométrico browniano. Asimismo, con el propósito de ilustrar el uso del control óptimo estocástico en la economía matemática, presentamos de manera didáctica dos ejemplos. El primero es un modelo de un agente económico racional que dispone de una riqueza inicial y enfrenta la decisión de cómo distribuir su riqueza entre consumo y un portafolio de activos en horizonte de planeación infinito, de manera tal que maximice su utilidad total esperada por el consumo. El segundo ejemplo corresponde al caso de un horizonte temporal finito cuya duración es estocástica.

Palabras clave: optimización dinámica estocástica, control óptimo estocástico en tiempo continuo, ecuación diferencial parcial de Hamilton-Jacobi-Bellman, teorema de verificación del cálculo estocástico, lema n-dimensional de Itô.

 

Abstract

In this paper we present in a didactic way the statement of the stochastic optimal control problem in continuous time where constraints are observable diffusion processes driven by the geometric Brownian motion. Furthermore, in order to illustrate the use of stochastic optimal control in Mathematical Economics, we present in an educational way two examples. The first is a model of a rational economic agent that has an initial wealth and faces the decision of how to distribute his wealth in consumption and a portfolio of assets in an infinite planning horizon, so as to maximize his total expected utility for consumption. The second example concerns the case of a finite time horizon of stochastic duration.

Keywords: stochastic dynamic optimization, stochastic optimal control in continuous time, partial differential equation of Hamilton-Jacobi-Bellman, verification theorem of stochastic calculus, n- dimensional Itô's lema.

 

INTRODUCCIÓN

La necesidad de aplicar el control óptimo estocástico en tiempo continuo como herramienta de modelación en las ciencias económicas se ha incrementado notablemente en las últimas décadas. Las respuestas de investigación a tales necesidades se han hecho patentes en diversos textos, por ejemplo, Venegas-Martínez (2008), Hernández-Lerma (1994), Björk (2004), Huyên (2009), entre otros.

Así pues, Venegas-Martínez (2008) presenta diversas aplicaciones económicas del control óptimo, determinista y estocástico, en tiempo continuo. Por su parte, Hernández-Lerma (1994) desarrolla aplicaciones económico-financieras de procesos de difusión markovianos controlados en un horizonte de tiempo finito. Asimismo, Björk (2004) presenta la teoría de control óptimo estocástico para la modelación del problema de selección de cartera y consumo óptimos. A pesar del éxito en sus aplicaciones, es bien conocido que el control óptimo estocástico en tiempo continuo no es fácil de comprender por el rigor matemático que lo sustenta y mucho menos es fácil de aplicar, aun para aquellos que son matemáticos no especialistas en el área. Por lo antes referido, el objetivo de este documento es presentar de manera accesible y didáctica el modelo de control óptimo estocástico en tiempo continuo y algunas de sus aplicaciones en Economía para aquellos que no son necesariamente expertos en control óptimo estocástico, pero que lo requieren como herramienta en sus actividades profesionales o de investigación.

Con este objetivo en mente, de manera didáctica, se formulará el problema de control óptimo estocástico y se presentará la técnica de programación dinámica para obtener la ecuación diferencial parcial (EDP) no lineal de Hamilton-Jacobi-Bellman (HJB), cuya solución nos lleva a encontrar el control óptimo y, con ello, las trayectorias óptimas de las variables que optimizan la función objetivo.1 Asimismo, como ilustración, se presentan dos ejemplos de aplicación. El primero de ellos corresponde a un modelo de un agente económico que desea maximizar su utilidad total esperada y descontada de consumo en un horizonte temporal infinito y el segundo ejemplo versa sobre un agente económico que desea maximizar su utilidad en un horizonte temporal finito y estocástico.2

Este trabajo está organizado de la siguiente manera. En la sección 2, se hace el planteamiento del problema general de control óptimo estocástico en tiempo continuo cuando las restricciones son difusiones conducidas por movimientos brownianos. En la sección 3, se plantea de manera general la metodología de programación dinámica (recursividad) en la que se basa la solución del problema de control óptimo planteado, obteniendo como resultados centrales: primero, la ecuación diferencial parcial no lineal de Hamilton-Jacobi-Bellmam y, segundo, las condiciones de primer orden que llevan a encontrar de manera general la expresión de la variable óptima de control. En la sección 4, se enuncia el teorema de verificación del control óptimo estocástico y su demostración se presenta en el apéndice A.2 de este documento. En la sección 5, se realiza una primera aplicación del modelo de control óptimo estocástico y se presenta su solución. En la sección 6, se describen nuevamente, mediante otro ejemplo, la aplicación del problema de control óptimo estocástico y su solución con la verificación correspondiente. La sección 7 presenta las conclusiones de este trabajo y la última sección contiene un apéndice en el que se desarrolla detalladamente el lema de Itô para n movimientos brownianos y la demostración del teorema de verificación del cálculo estocástico, con la intención de proporcionarle al lector las partes del análisis que no aparecen en el cuerpo principal del trabajo.

 

PLANTEAMIENTO DEL PROBLEMA DE CONTROL ÓPTIMO ESTOCÁSTICO

La optimización dinámica estocástica es el estudio de sistemas dinámicos sujetos a perturbaciones aleatorias que pueden ser controladas con el objetivo de optimizar algún criterio de desempeño. Surge en problemas de toma de decisiones bajo incertidumbre y encuentra un campo muy fértil para su aplicación en economía y finanzas. En un inicio, se utilizaban los principios de optimización de Pontryagin y Bellman, pero en los últimos años la teoría de control se ha desarrollado notablemente motivada por los problemas que surgen en la economía matemática y las matemáticas financieras (Huyên, 2009).

El control óptimo estocástico es una técnica matemática usada para resolver problemas de optimización de sistemas que evolucionan en el tiempo en un ambiente de incertidumbre. El problema matemático general de optimización intertemporal estocástica, en tiempo continuo o discreto, se compone de una función objetivo, definida sobre varios periodos (finitos o infinitos) sujeta a restricciones, de las cuales, al menos una de ellas es dinámica, así como a condiciones de frontera (Wickens, 2008), utilizando variables de control que permiten optimizar la función objetivo, a fin de encontrar las sendas óptimas y obtener así la trayectoria óptima de las variables de estado a partir de la ecuación de movimiento que las une (Cerda, 2001). Este problema intertemporal comúnmente se conoce como problema de control óptimo estocástico en optimización dinámica.

Para establecer el modelo matemático general del problema de control óptimo estocástico en optimización dinámica en tiempo continuo, resulta necesario disponer del planteamiento general del problema matemático. Para ello, se considera un sistema dinámico formulado en tiempo continuo en el horizonte temporal [0, T], y se definen las funciones , dadas por,

Para un punto considere la siguiente ecuación diferencial estocástica de estado

en donde se considera el proceso n-dimensional Xt como el proceso de variables de estado que se requiere controlar, el proceso k-dimensional ut como el proceso de control, cuya correcta elección controlará a Xt, y Wt es un proceso de Wiener o movimiento browniano d-dimensional, definido sobre un espacio fijo de probabilidad con una filtración .

Se define a continuación una regla de control admisible; para tal efecto, se considera la clase de procesos de control admisible como un proceso de control cuyo valor ut en el tiempo t se adapta al proceso de estado Xt, y el cual se obtiene mediante la función u(t, x).

u, así definida, se llama regla de control de retroalimentación. Supóngase ahora que se elige la regla de control de retroalimentación fija u(t, x) y se sustituye en 1, de donde se obtiene la ecuación diferencial estocástica

Además, se impone a u la restricción de que, para cada t, , donde U es la clase de controles admisibles.

Definición 1. Una regla de control u(t, x) es admisible si (Björk, 2004);3

ii) Para cualquier punto inicial (t, x) dado, la ecuación diferencial estocástica

tiene una única solución.

Puesto que el problema de control óptimo por definir se encuentra en el marco estocástico y toda vez que el proceso de estado es n-dimensional, será necesario definir las siguientes funciones y establecer el teorema fundamental del cálculo estocástico, llamado lema de Itô para el caso de n variables.

Definición 2

i) Para cualquier vector fijo , las funciones μu y σu están definidas por

y se suponen con segundas derivadas continuas.

ii) Para cualquier regla de control u las funciones μu y σu están definidas por

y se suponen con segundas derivadas continuas.

Lema de Itô4 para n variables

i) Considere la función y = f (x, t), x = (x1, x2,…, xn), la ecuación diferencial estocástica

y cualquier vector fijo , en donde, como ya se indicó, Wt es un movimiento browniano definido sobre un espacio fijo de probabilidad con una filtración aumentada . Entonces, mediante una aplicación estándar de expansión en serie de Taylor y el uso de las reglas del cálculo de Itô, se obtiene el teorema fundamental del cálculo estocástico (véase el apéndice A, sección A.1),

ii) Análogamente, para cualquier regla de control u, se tiene (véase el apéndice A, sección A.1)

Dada una regla de control u con su correspondiente proceso controlado Xu, algunas veces usaremos la notación

donde,

Para definir la función objetivo del problema de control se consideran las funciones (Cerda, 2001):

donde F valúa el desempeño del sistema a través del tiempo y Φ es el estado en el que queda el sistema en el horizonte temporal del problema. Se supone que tanto F como Φ son de clase C2.

Se define la funcional objetivo de nuestro problema como la función

definida por,

donde Xu es la solución de 3, con condición inicial X0 = x0, y donde F0 representa la información disponible hasta el tiempo t = 0. El problema de control puede ser escrito como uno de maximización de la funcional J0 (u), sobre todo u ∈ U, de donde se define la funcional óptima por

Si existe la regla de control admisible û tal que

entonces û se define como una regla de control óptimo para el problema dado.

Definición 3. Se supone una pareja (t, x) fija, donde t ∈ [0, T] y x ∈ Rn. El problema de control P (t, x) se define como:

sujeto a las ecuaciones dinámicas

y a la restricción

 

ECUACIÓN DE HAMILTON-JACOBI-BELLMAN

En esta sección nos enfocamos en la regla de control óptimo para el problema de control dado, para lo cual, utilizaremos la programación dinámica.

Definición 4

i) La función de valor

está definida por

junto con las ecuaciones dinámicas 5 y 6.

ii) La función de valor óptimo es

y está definida por

El objetivo, ahora, es caracterizar la función de valor en el control óptimo y hacer una derivación de su ecuación diferencial parcial, mejor conocida como la EDP de HJB,5 por lo cual se hacen los siguientes supuestos.

Supuestos 1. Se supone que:

1) Existe una regla de control óptimo u.

2) La función de valor óptimo es de clase C2.

Considere el par fijo pero arbitrario y suponga un incremento muy pequeño, de hecho, diferencial dt ∈ R, tal que t < t + dt < T. También elegimos una regla de control u fija pero arbitraria. Por tanto, dada la definición de la función de valor óptimo y el incremento dt, se tiene la relación recursiva temporal (Venegas-Martínez, 2008),

a esta expresión se le aplica en el primer sumando el teorema del valor medio de cálculo integral y, en el segundo sumando se aplica expansión en serie de Taylor, de lo que resulta

simplificando, se tiene

En la expresión anterior aplicamos el lema de Itô para obtener la diferencial estocástica de , así

Puesto que dWit ~ N 1dt2, al tomar valores esperados a los términos aleatorios de la ecuación anterior, se sigue que:

Ahora, se divide entre dt y se toma el límite cuando dt → 0

y así se obtiene finalmente la EDP de HJB:

Puesto que el análisis ha sido realizado sobre un punto fijo pero arbitrario, la ecuación se sostiene para todo punto (t, x) ∈ (0, T) × Rn, y podemos establecer ahora el siguiente teorema.

Teorema 1. Ecuación de Hamilton-Jacobi-Bellman

Bajo los supuestos 1 se afirma lo siguiente:

a) satisface la ecuación Hamilton-Jacobi-Bellman

 

CONDICIONES DE PRIMER ORDEN

A partir de la ecuación de HJB, se sigue que u es la única variable, ya que x y t son fijos y las funciones F, , se consideran como dadas. Si se tiene que u ∈ U es máximo, entonces se obtiene la siguiente ecuación diferencial parcial de segundo orden en ,

Al derivar dicha ecuación con respecto de la variable de control u se tiene la condición de primer orden

La ecuación 9, condicionada por las funciones F, (junto con sus derivadas parciales) , caracteriza al control óptimo u en función de x y t y ; es decir, û = û (t, xi, ).

Para resolver la ecuación de HJB y encontrar la trayectoria óptima del control, teóricamente se procede a resolver por el método de funciones en variables separables (en un producto), ya que se trata de una ecuación diferencial parcial no lineal; aunque es necesario recordar que, en general, es difícil obtener una solución explícita de la ecuación de HJB. Sin embargo, para el tipo de aplicaciones que se requieren en las ciencias económicas, existen algunos casos en los que, a pesar de ser no triviales, la ecuación de HJB tiene una solución analítica; véanse, al respecto, Merton (1990), Lehoczky (1983) y Hakansson (1970).

 

TEOREMA DE VERIFICACIÓN

Obsérvese que el teorema 1 tiene la forma de una condición necesaria, pero afortunadamente la ecuación de HJB también actúa como condición suficiente para el problema de control óptimo. El resultado que sustenta esta condición, el cual se enuncia a continuación, se conoce como el teorema de verificación para la programación dinámica (refiérase al apéndice A sección A.2 para ver la demostración del teorema de verificación).

Teorema 2. Teorema de verificación

Suponga que se tienen las funciones y g(t,x), tales que

i) H satisface la integral de Itô y es solución de la EDP HJB, es decir,

ii) La función g es una regla de control admisible.

iii) Para cada (t, x) ∈ (0, T) × Rn, (t, x), fijo pero arbitrario, el máximo en la ecuación de HJB es alcanzado por la elección u = g (t, x).

Por lo tanto se sostiene lo siguiente:

1) La función de valor óptimo del problema de control, esta dada por

2) Existe una regla de control óptima û tal que û (t, x) = g (t, x).

 

UN PROBLEMA DE CONSUMO ÓPTIMO

Considere un agente económico racional de vida infinita, lo que se interpreta como que su descendencia heredará su riqueza y su función de utilidad por el consumo. En el tiempo t = 0, el agente es dotado con una riqueza inicial x0 y enfrenta el problema de cómo distribuir su riqueza entre inversión y consumo en un horizonte infinito de tal modo que maximice su función de utilidad por el consumo.

Así pues, suponemos que la utilidad total del agente está dada por

donde F es la función de satisfacción por el consumo y F0 es la información disponible en el tiempo t0.

Suponemos que el agente puede invertir una parte de su dinero como ahorro en un banco que le otorga una tasa de interés r > 0, libre de riesgo de incumplimiento. Así, el saldo de la inversión en el tiempo t es Bt = B0ert, el cual puede ser expresado mediante la ecuación diferencial

lo cual implica que

También puede invertir en un activo con riesgo cuyo proceso de precios es conducido por la siguiente ecuación diferencial estocástica:

Lo cual conduce a

donde Wt es un proceso de Wiener, también llamado movimiento browniano, que está definido sobre un espacio fijo de probabilidad con su filtración aumentada .

Las proporciones de la riqueza que se destinarán a los activos sin riesgo y con riesgo en el portafolio de inversión en el tiempo t las denotaremos por 1 - θt y θt. Asimismo, denotaremos por ct la tasa de consumo, a la que se le pide que . Adicionalmente, restringimos las estrategias de consumo-inversión a que sean autofinanciables y suponemos, además, que vivimos en un mundo en el que las negociaciones son posibles de manera continua sin incurrir en ningún momento en costos por comisiones a agentes de bolsa ni pagos de impuestos a autoridades fiscales. Suponemos también que las ventas en corto (pedir acciones prestadas) son permitidas e ilimitadas.

De esta manera, si Xt representa la riqueza del consumidor en el tiempo t, entonces la dinámica del proceso de la riqueza está dada por:

equivalentemente,

donde

En la ecuación 12 se interpreta Xt θt μdt como el rendimiento esperado de la inversión con riesgo de Xt θt pesos durante el periodo de t a t + dt; Xt θt σdW representa el riesgo implicado en invertir los Xt θt pesos en el activo riesgoso; el término Xt (1- θ)rdt es el interés ganado por el ahorro de Xt (1- θ) pesos y, finalmente, ctdt representa el consumo en el intervalo de tiempo de t a t + dt (Sethi y Thompson, 2000).

En resumen, y estableciendo formalmente el problema de maximización de utilidad del consumidor como un problema de control óptimo estocástico, se tiene:

Para dar solución a nuestro problema, definimos la función de valor de la siguiente manera:

Al aplicar el teorema del valor medio del cálculo integral al primer sumando y recursividad al segundo sumando, se obtiene que

Si se utiliza la expansión en serie de Taylor al segundo sumando, se obtiene

consecuentemente,

Al aplicar a dJ (X, t) el lema de Itô y simplificar, se obtiene

Ahora se toma el valor esperado de la última ecuación, puesto que dWt se distribuye N 10, dt 2, se elimina el término con el movimiento browniano, de lo que resulta

A continuación se divide la expresión anterior entre dt y se toma el límite de ésta cuando dt → 0, para obtener la EDP de HJB

Ahora suponemos que la función de utilidad es de la forma F (ct, t) = e-pt V (ct), donde V (ct) es un miembro de la familia de funciones de utilidad HARA (Merton, 1990 y Hakansson, 1970)6 y p es un parámetro que representa la ansiedad por consumir del agente. Para nuestro problema elegimos, en particular, la función de consumo

Note que V (ct) tiene la propiedad de que

lo que forzará a que el consumo sea positivo a través del horizonte temporal.

Al suponer máximo interior y hacer las sustituciones correspondientes, de la EDP de HJB se obtiene

Lo que ahora se requiere es optimizar para ct y θt. Las condiciones de primer orden son:

Ahora, para elegir la función J (Xt, t) que satisfaga la EDP de HJB y toda vez que se trata de una ecuación diferencial parcial no lineal, su función solución es un producto de funciones en variables separables (en un producto) de la forma , es decir,

Una vez elegido el candidato de solución para J, se calculan sus derivadas parciales

Sustituimos los valores anteriores en las condiciones de primer orden de tal manera que

Observamos que la proporción óptima que se asigna a la tenencia del activo riesgoso es constante y la regla óptima de consumo es lineal en la riqueza. Para usar el teorema de verificación, se requiere mostrar que J (X, t) resuelve la ecuación de HJB, por lo que sustituimos las ecuaciones 20, 21 y 22 en la ecuación 18, de tal modo que:

Al denotar las constantes

se tiene la ecuación diferencial ordinaria

Si esta ecuación se sostiene para toda x y t, entonces h(t) debe de resolver la ecuación

la cual es una ecuación de Bernoulli con . Para transformar la ecuación de Bernoulli en una ecuación diferencial lineal de una función (desconocida), sustituimos , de donde se tiene que , al sustituir en 26 y multiplicar ambos lados de la ecuación por , se obtiene,

Para resolver esta ecuación lineal, se tiene que el factor integrante está dado por

de donde se obtiene que z 1t 2 es

y, por tanto,

Hemos mostrado que, si J está definida por 19 con h(t) dada por 29 y definida como la solución de 25 y si definimos por 21 y 22, entonces J satisface la ecuación de HJB y consiguen optimizar el problema de control óptimo.

 

UN PROBLEMA DE CONSUMO-INVERSIÓN ÓPTIMOS

Consideremos un agente económico y un intervalo de tiempo fijo [0, T ], en el tiempo t = 0; el agente es dotado con una riqueza inicial X0 y el problema que enfrenta es cómo distribuir su riqueza entre inversión y consumo de tal modo que su riqueza no sea negativa en un horizonte de tiempo finito y tal que maximice su utilidad total esperada y descontada por el consumo.

Supongamos que la utilidad del agente está dada por:

donde F es la función de utilidad para consumo y Φ es la función de legado o herencia (o función de retiro en el tiempo T ), la cual mide la utilidad de tener algo de dinero al final del periodo.

Suponemos que el agente puede invertir una parte de su dinero como ahorro en un banco que le otorga una tasa de interés r > 0 (continuamente capitalizable). Así, el monto acumulado en el tiempo t es Bt = B0ert, el cual puede ser expresado mediante la ecuación diferencial

También puede invertir en un activo con riesgo cuyo proceso de precios es modelado por la ecuación diferencial estocástica

donde Wt es un proceso de Wiener, o movimiento browniano, definido sobre un espacio fijo de probabilidad con su filtración aumentada.

Como antes, las proporciones relativas al portafolio en el tiempo t las denotamos por 1 - θt y θt para los activos libre de riesgo y con riesgo, respectivamente, ct denota la tasa de consumo y se restringe a las estrategias de consumo-inversión que sean autofinanciables. Además, se supone que el agente vive en un mundo en el que las negociaciones son posibles de manera continua sin incurrir en ningún momento en costos por comisiones a agentes de bolsa ni pagos de impuestos a autoridades fiscales, y que las ventas en corto son permitidas e ilimitadas.

De esta manera, si Xt representa la riqueza del consumidor en el tiempo t, entonces la dinámica del proceso de la riqueza está dada por,

equivalentemente,

donde

Dados los supuestos del problema, obsérvese que el agente puede pedir prestada una cantidad ilimitada e invertirla en acciones, por lo que, en algún momento, su riqueza podría llegar a ser cero e incluso negativa. De esta manera, T es una variable aleatoria, la cual se llama tiempo de paro. Para librar este problema, se restringe el dominio a , y se define la función

y la interpretación correspondiente es que, cuando el proceso de riqueza pegue en la frontera del dominio, es decir, sea cero, entonces la actividad se termina y ya no hay herencia, de esta manera lo natural es que Φ sea cero.

En resumen, y estableciendo formalmente el problema de maximización de utilidad del consumidor como un problema de control óptimo estocástico, se tiene

Para dar solución a nuestro problema y encontrar las proporciones óptimas en el portafolio de inversión y el consumó óptimo del agente maximizador, definimos la función de valor de nuestro problema de la siguiente manera:

Después de aplicar el teorema del valor medio del cálculo integral al primer sumando y recursividad al segundo sumando, se obtiene que

Al aplicar la expansión en serie de Taylor al segundo sumando, se tiene

por consiguiente,

Al aplicar a dJ (Xt, t) el lema de Itô y simplificar, se obtiene

A continuación, se obtiene el valor esperado de esta última ecuación y, puesto que dWt se distribuye N (0, dt), se elimina el término con browniano, de lo que resulta

Ahora se divide esta expresión entre dt y se toma su límite cuando dt → 0

A esta ecuación le anexamos las condiciones de frontera correspondientes para obtener la EDP de HJB

Las condiciones de frontera incorporan el tiempo de paro. Suponemos ahora que la función de utilidad es de la forma F(ct,t) = e-ptV (ct), donde V(ct) es un miembro de la familia de funciones de utilidad hara (Merton, 1990; Hakansson, 1970); para nuestro problema en particular, elegimos la función de consumo

Observe que V (ct) tiene la propiedad de que

lo que forzará a que el consumo sea positivo a través del horizonte temporal.

Al suponer máximo interior y hacer las sustituciones correspondientes en la EDP de HJB, se tiene

Ahora, lo que se requiere es optimizar para ct y θt, de donde se obtienen las condiciones de primer orden,

Ahora bien, para elegir la función J (Xt, t) que satisfaga la EDP de HJB y ya que se trata de una ecuación diferencial parcial no lineal, su solución es un producto de funciones separables de tal manera que:

junto con h (T) = 0 debido a las condiciones de frontera de la ecuación de HJB. Dado J, se tiene que

Si sustituimos los valores de 41 en 39, se obtiene:

obsérvese que es lineal en la riqueza y la proporción de portafolio óptimo es constante. Para hacer la verificación mediante el teorema enunciado, se requiere mostrar que J (Xt, t) resuelve la ecuación de HJB, para lo que sustituimos las ecuaciones 41, 42 y 43 en la ecuación 38, de donde se obtiene la ecuación,

Después de multiplicar por γ, se tiene que

Si se sustituyen los términos constantes por

se obtiene la ecuación diferencial ordinaria

Si esta ecuación se sostiene para toda x y t, entonces h (t) debe de resolver la ecuación

que es una ecuación de Bernoulli con . Análogamente al ejercicio anterior, se hace la sustitución , de donde se tiene que , al sustituir en 45 y multiplicar ambos lados de la ecuación por , se obtiene,

para resolver esta ecuación lineal, se tiene que el factor integrante está dado por:

de donde se obtiene que z (t) es

y, por tanto,

Ahora bien, para satisfacer la condición de frontera se debe de cumplir:

por consiguiente, la solución de 45 está dada por,

Hemos así mostrado que si J está dada por 40, con 49 definida como la solución de 45 y si definimos y por 43 y 42, entonces J satisface la ecuación de HJB y y consiguen optimizar el problema de control óptimo con horizonte temporal estocástico.

 

CONCLUSIONES

Es de reconocerse el importante papel que ha desempeñado la matemática en la economía. Específicamente, la teoría de control óptimo estocástico en tiempo continuo se ha revelado como un instrumento fundamental en la economía matemática cuando se requiere modelar alguna actividad económica que se desarrolla de manera dinámica.

Por lo anterior, este documento tuvo como propósito hacer accesibles la enseñanza y el aprendizaje de la modelación en problemas de optimización dinámica en economía matemática. Por lo que, de manera didáctica, se presentó de manera general el modelo matemático del problema de control óptimo estocástico en tiempo continuo. Además, de modo ameno y sencillo, se dedujo la ecuación diferencial parcial de segundo orden y lineal, ecuación de HJB (condición necesaria de óptimo) del problema en cuestión, cuya solución lleva a encontrar las trayectorias óptimas que dan solución al problema planteado, lo cual asegura el teorema de verificación (demostrado en el apéndice).

Asimismo, se presentaron dos ejemplos de aplicación en economía matemática, el primero de ellos corresponde a un modelo de un consumidor racional que dispone de una riqueza inicial y enfrenta la decisión de distribuir su riqueza entre consumo y un portafolio de activos en un horizonte de planeación infinito de tal modo que maximice su utilidad total esperada por el consumo. El segundo ejemplo es análogo al primero, con la salvedad de que ahora se establece un horizonte temporal finito cuya duración es estocástica. Una particularidad en ambos ejemplos es el supuesto de que la dinámica de los precios está modelada por un proceso de difusión, lo cual incorpora mayor realismo al modelado.

La principal dificultad de los problemas de control óptimo estocástico es resolver la ecuación de HJB, ya que no hay una teoría general disponible para esto. No obstante, para el caso de las aplicaciones que nos ocupan en este artículo, es posible encontrar soluciones analíticas y cerradas de dicha ecuación siempre que se incorpore en los supuestos que la dinámica de los precios sigue el movimiento geométrico browniano y la función de utilidad es del tipo U(c,t) = e-ptV(c) donde V es un miembro de la familia de funciones de tipo HARA (Hyperbolic Absolute Risk Aversion).7

 

REFERENCIAS BIBLIOGRÁFICAS

Bertsekas, D. (2005), Dynamic programming and optimal control, 3a. ed., Belmont, Massachusetts, Athena Scientific.         [ Links ]

Björk, T. (2004), Arbitrage Theory in Continuous Time, 2a. ed., Oxford University Press.         [ Links ]

Björk, T., J. Myhrman y M. Persson (1987), "Optimal consumption with stochastic prices in continuous time", Journal of Applied Probability, vol. 24, núm. 1, pp. 35-47.         [ Links ]

Cerda, E. (2001), Optimización dinámica, Madrid, Prentice-Hall.         [ Links ]

Hakansson, N. (1970), "Optimal Investment and Consumption Strategies under Risk for a Class of Utility Functions", Econometrica, vol. 38, núm. 5, pp. 587-607.         [ Links ]

Hernández-Lerma, O. (1994), "Lectures on Continuous-Time Markov Control Processes", Aportaciones Matemáticas 3, Sociedad Matemática Mexicana.         [ Links ]

Huyên, P. (2009), Continuous-time Stochastic Control and Optimization with Financial Applications, Berlin y Heidelberg, Springer.         [ Links ]

Lehoczky, J., S. Sethi y S. Shreve (1983), "Optimal Consumption and Investment Policies Allowing Consumption Constraints and Bankruptcy", Mathematics of Operations Research, vol. 8, núm. 4, pp. 613-636.         [ Links ]

Merton, R. (1990), Continuous-Time Finance, Cambridge, Massachusetts, Basil Blackwell.         [ Links ]

Schmidli, H (2008), Stochastic Control in Insurance, Londres, Springer.         [ Links ]

Sethi, S. y G. Thompson (2000), Optimal Control Theory, Nueva York, Springer.         [ Links ]

Venegas-Martínez, F. (2008), Riesgos financieros y económicos, productos derivados y decisiones económicas bajo incertidumbre, 2a. ed., México, Cengage.         [ Links ]

Wickens, M. (2008), Macroeconomic Theory: A Dynamic General Equilibrium Approach, Princeton and Oxford University Press.         [ Links ]

 

NOTAS

1 Para una rigurosa formalización de problemas de control óptimo estocástico en tiempo discreto y continuo léase Hernández-Lerma (1994).

2 Para una amplia referencia de problemas de control óptimo estocástico en tiempo discreto y continuo, aplicados en Ciencias Económicas, refiérase a Venegas-Martínez (2008).

3 Varios de los conceptos teóricos fundamentales utilizados, así como alguna de la notación adoptada en este documento, provienen del texto de Björk (2004).

4 Varios de los conceptos teóricos fundamentales utilizados, así como alguna de la notación empleada en este documento se adoptan del libro de Venegas-Martínez (2008).

5 La ecuación de HJB es el resultado central en la teoría de control óptimo. La ecuación correspondiente en tiempo discreto se conoce como la ecuación de Bellman.

6 Si la función de utilidad es tal que su medida de aversión absoluta o relativa al riesgo es positiva e hiperbólica en el consumo y puesto que se ha supuesto que los precios de los activos son generados por el movimiento browniano, será posible obtener soluciones explícitas para el consumo y portafolio óptimos. Para un amplio análisis de funciones de utilidad de tipo hara, véanse por ejemplo Merton (1990) y Hakansson (1970).

7 Para una amplia clasificación de las funciones tipo hara, véanse por ejemplo Merton (1990) y Hakanson(1970).