• No se han encontrado resultados

Valuación de Opciones Installment y Bermudas con Programación Dinámica

N/A
N/A
Protected

Academic year: 2017

Share "Valuación de Opciones Installment y Bermudas con Programación Dinámica"

Copied!
93
0
0

Texto completo

(1)

Valuación de Opciones Installment y Bermudas con

Programación Dinámica

Title Valuación de Opciones Installment y Bermudas con Programación Dinámica

(2)

opciones bermudas tradicionales, excepto que el comprador de estas opciones debe regularmente realizar un pago para mantener activa la opción. Las fechas preestablecidas llamadas fechas de decisión en las cuales la opción puede ser ejercida corresponden al calendario de pagos. En cada fecha de decisión, el comprador de una opción de este tipo debe elegir entre ejercer la opción, lo cual pone fin al contrato; no ejercer la opción y realizar un pago, con lo cual mantiene activa la opción para la siguiente fecha de decisión; y no ejercer la opción y no realizar el pago, lo cual pone fin al contrato. Debido a tales características de ejercicio este tipo de opciones son una innovación

financiera reciente que introduce cierta flexibilidad en la liquidez de los inversionistas, ya que en lugar de realizar un ínico desembolso (prima) por un instrumento derivado, el comprador realizará pagos en fechas futuras

predeterminadas. En particular, este tipo de instrumentos reduce considerablemente el costo de entrar en una estrategia de cobertura, ya que los administradores de riesgo pueden entrar en este tipo de contratos a un costo inicial bajo (prima) y ajustar el calendario de pagos de acuerdo a sus previsiones de efectivo y restricciones de liquidez. Adicionalmente, la no realización de un pago es suficiente para cerrar la posición sin costo de transacción. Esto reduce el riesgo de liquidez típicamente asociado con otros derivados sobre mostrador. Esta investigación pretende obtener o aproximar fórmulas de valuación cerradas o aproximadas de opciones bermudas y opciones “installments” bermudas a través de la teoría de valuación neutral al riesgo. Específicamente se utilizará

programación dinámica para calcular la prima en un mundo neutral al riesgo. Para aproximar la función de pagos se utilizará interpolación lineal por pedazos, herramienta que permitirá encontrar una fórmula cerrada para el valor esperado de la función de pagos en una fecha de ejercicio particular. Se aplicará este método de aproximación a dos modelos para representar la dinámica del precio del activo subyacente: el movimiento Browniano geométrico y el movimiento Browniano con reversión a la media, se obtienen fórmulas para encontrar el valor esperado de la función de pagos para algún periodo en particular para ambos modelos. Estas fórmulas serán posteriormente empleadas para obtener el precio de una opción bermuda e “installment” bermudas.

(3)

???pdf.cover.sheet .thesis.degree.nam e???

Doctorado en Ciencias Financieras

???pdf.cover.sheet .dc.contributor.adv isor???

Dr. Francisco Venegas Martínez

???pdf.cover.sheet .thesis.degree.disci pline???

EGADE Business School

???pdf.cover.sheet .thesis.degree.prog ram???

Sede EGADE Ciudad de México

Rights Open Access

Downloaded 18-Jan-2017 03:52:39

(4)

SUPERIORES DE MONTERREY

CAMPUS CIUDAD DE M´EXICO

“VALUACI ´

ON DE OPCIONES INSTALLMENT Y BERMUDAS

CON PROGRAMACI ´

ON DIN ´

AMICA”

DOCTORADO EN CIENCIAS FINANCIERAS

TESIS PRESENTADA POR

EDUARDO HERN ´

ANDEZ P ´

EREZ

ASESOR

(5)

COMITE DOCTORAL

Director de tesis: Dr. Francisco Venegas Mart´ınez

Codirector: Dr. Jos´e Antonio N´u˜nez Mora

Lector: Dr. Guillermo Sierra Ju´arez

Lector: Dr. Gerardo Pioquinto Aguilar S´anchez

(6)

AGRADECIMIENTOS

A mi mam´a: Por todo el apoyo, comprensi´on y cari˜no incondicional que me has dado durante toda mi vida, por desvivirte por el bienestar de tus hijos sin importar los obst´aculos que te encontraste y encuentres en la vida. Gracias por darme la familia que tenemos.

A mi pap´a: Por tu apoyo y comprensi´on durante esta etapa de mi vida, as´ı como tus ense˜nanzas.

A Paola: Por todo tu apoyo y comprensi´on incondicional, as´ı como tu ejemplo de nunca parar en la b´usqueda de tus metas. Gracias por toda tu ayuda para terminar esta ´ultima etapa. Gracias por todos los jalones de oreja que me das para ser mejor persona, mil gracias por todo este tiempo que hemos pasado juntos y por ser parte de mi vida.

A mis hermanos: Xochitl, Mauricio, Patricia, Sandra y Claudia, por todos los momentos que hemos compartido, as´ı como sus consejos y compa˜n´ıa.

A jovanna: Por ser parte de nuestra familia.

Familia Pav´on: Por hacerme sentir parte de su familia, por todo el apoyo brindado. Don Julio, Isabel y Maria luisa, por el cari˜no que me han dado en estos a˜nos de conocernos.

Mis amigos: Aar´on, Adriana, Ambrosio, ´Angel, Alex, Armando, Arturo, Cristi´an, Emma-nuel, Eduardo Lisci, Iv´an, Jorge, Jos´e Juan, Marcos, Miguel, Memo, Rafael, Roberto Ch´avez, To˜no, To˜no Lopez Velarde, Sergio, Yazm´ın Barcenas. A mis ex-compa˜neros de Ingenier´ıa de Riesgos.

Al comit´e doctoral: Por el tiempo dedicado a este trabajo.

Al Prof Venegas: Por su apoyo incondicional, as´ı como sus ense˜nanzas las cuales me motivaron a profundizar en este mundo de las Matem´aticas aplicadas afinanzas.

A todos los profesores que contribuyeron en mi formaci´on acad´emica, en especial a Hum-berto Santillana, Jaime V´azquez, Marisa, Beatriz Rodr´ıguez, Agust´ın Cano, Sergio Fuentes Maya, Andr´es Fund´ıa, Wojciech Szatzschneiderv.

A los asistentes del doctorado: Estrella, Igor, Martha y Roberto por su apoyo durante mi estancia en el programa doctoral. En especial a Martha por todo su apoyo en estos ´ultimos d´ıas.

A la M´usica y a las Matem´aticas.

(7)

RESUMEN

Las opciones “installments” bermudas son un tipo de opciones bermudas tradicionales, excepto que el comprador de estas opciones debe regularmente realizar un pago para man-tener activa la opci´on. Las fechas preestablecidas llamadas fechas de decisi´on en las cuales la opci´on puede ser ejercida corresponden al calendario de pagos. En cada fecha de de-cisi´on, el comprador de una opci´on de este tipo debe elegir entre ejercer la opci´on, lo cual pone fin al contrato; no ejercer la opci´on y realizar un pago, con lo cual mantiene activa la opci´on para la siguiente fecha de decisi´on; y no ejercer la opci´on y no realizar el pago, lo cual pone fin al contrato. Debido a tales caracter´ısticas de ejercicio este tipo de opciones son una innovaci´onfinanciera reciente que introduce ciertaflexibilidad en la liquidez de los inversionistas, ya que en lugar de realizar un ´unico desembolso (prima) por un instrumento derivado, el comprador realizar´a pagos en fechas futuras predeterminadas. En particular, este tipo de instrumentos reduce considerablemente el costo de entrar en una estrategia de cobertura, ya que los administradores de riesgo pueden entrar en este tipo de contratos a un costo inicial bajo (prima) y ajustar el calendario de pagos de acuerdo a sus previsiones de efectivo y restricciones de liquidez. Adicionalmente, la no realizaci´on de un pago es suficiente para cerrar la posici´on sin costo de transacci´on. Esto reduce el riesgo de liquidez t´ıpicamente asociado con otros derivados sobre mostrador.

(8)

´INDICE

P´ag.

Agradecimientos. . . .ii

Resumen. . . .1

´Indice. . . .2

´Indice de gr´aficas. . . .4

´Indice de cuadros. . . .5

Introducci´on. . . .6

Cap´ıtulo 1. PROGRAMACI ´ON DIN ´AMICA. . . .14

1.1 Problema de control ´optimo determinista en tiempo discreto . . . .14

1.2 Programaci´on din´amica determinista. . . .17

1.2.1 Causalidad. . . .17

1.2.2 Soluci´on al problema mediante programaci´on din´amica. . . .18

1.3 Programaci´on din´amica estoc´astica . . . .22

1.3.1 Planteamiento del problema. . . .22

1.3.2 Soluci´on al problema formulado mediante programaci´on din´amica. .24

1.4 Programaci´on din´amica continua . . . .26

1.4.1 Programaci´on din´amica determinista continua a tiempo homog´eneo. . . .26

1.4.2 Programaci´on din´amica continua estoc´astica . . . .27

1.4.3 Extensi´on a m´ultiples variables de estado . . . .30

1.4.4 Extensi´on a la dependencia expl´ıcita del tiempo . . . .32

2. M´ETODO DE VALUACI ´ON DE OPCIONES CON DEPENDENCIA EN LA TRAYECTORIA. . . .33

2.1 Opciones ex´oticas . . . 33

2.2 Opciones tipo path dependent . . . .34

2.3 Caso movimiento Browniano geom´etrico . . . .36

2.4 Caso movimiento Browniano con reversi´on a la media . . . .40

3. OPCIONES BERMUDAS. . . .50

3.1 Opciones bermudas . . . .50

3.2 Funci´on de pago de una opci´on bermuda . . . .51

3.3 Propiedades de ejercicio para un “call” bermuda . . . .51

3.4 Valuaci´on de una opci´on bermuda. . . .57

3.4.1 Movimiento Browniano geom´etrico . . . .58

(9)

4 OPCIONES INSTALLMENTS BERMUDAS. . . .62

4.1 Opciones installment . . . .62

4.2 Opciones installment bermudas . . . .63

4.3 Funci´on de pagos . . . .64

4.4 Valuaci´on de una opci´on installment bermuda . . . .65

4.4.1 Movimiento Browniano geom´etrico . . . .67

4.4.2 Movimiento Browniano con reversi´on a la media . . . .68

4.5 Propiedades te´oricas . . . .69

5. APLICACI ´ON NUM´ERICA. . . .72

5.1 Movimiento Browniano geom´etrico. . . .72

5.1.1 Opci´on bermuda tradicional . . . .72

5.1.2 Opci´on installment bermuda . . . .73

5.2 Movimiento Browniano con reversi´on a la media. . . .75

5.2.1 Opci´on bermuda tradicional . . . .75

5.2.2 Opci´on installment bermuda . . . .76

5.3 Comparaci´on de resultados . . . .78

6. CONCLUSIONES. . . .80

7. BIBLIOGRAF´IA. . . .82

(10)

´INDICE DE GR ´AFICAS

5.1 Comportamiento de la prima. . . .74

5.2 Comportamiento del precio total . . . .75

5.3 Comportamiento de la prima . . . .77

5.4 Comportamiento de la prima total. . . .77

5.5 Posibles valores en un periodo de 2 meses . . . .78

(11)

´INDICE DE CUADROS

5.1 Precios de opciones bermudas con el movimiento Browniano geom´etrico . . . .73

5.2 Precios de opciones “installment” bermudas con el movimiento Browniano

geom´etrico. . . .74

5.3 Precios de opciones bermudas con el movimiento Browniano con reversi´on

a la media. . . .76

5.4 Precios de opciones “installment” bermudas con el movimiento Browniano

(12)

INTRODUCCI ´

ON

El mundo actual se caracteriza por cambios continuos, lo cual implica tomar acciones con rapidez. Sin embargo, la toma de decisiones en este ambiente implica asumir ciertos riesgos, los cuales deben ser minimizados en la medida de lo posible. El mundofinanciero es un claro ejemplo de lo anterior, ya que se ha observado, en los ´ultimos a˜nos, que los mercados financieros en el mundo se han vuelto cada vez m´as vulnerables y sensibles. Se puede mencionar, por ejemplo, la crisis asi´atica (a fines de 1997 y principios de 1998), la cual ocasion´o p´erdidas de miles de millones de d´olares en los fondos de inversi´on de diferentes pa´ıses. Esto muestra una gran interrelaci´on entre las econom´ıas del mundo y, en consecuencia, cualquier problema que exista en una de ellas, influye en las dem´as. Asimismo, en 2002, Argentina se vio afectada por una crisis financiera y econ´omica que le impidi´o liquidar sus obligaciones con el Banco Mundial, lo cual afecto a Brasil, su principal socio comercial. Como consecuencia de esto, varias econom´ıas de Sudam´erica incrementaron su riesgo pa´ıs, teniendo como resultado que los inversionistas extranjeros buscaran otros mercados m´as seguros.

Debido a la inestabilidad de los mercados financieros, muchos inversionistas se vieron en la necesidad de buscar nuevas formas de invertir con menor riesgo. Si en las expectativas de los inversionistas se prev´e un cambio desfavorable en los precios de los activos, entonces ´estos deben tomar medidas para evitar cualquier impacto negativo en sus portafolios. Una particularidad de los mercados accionarios es que ´estos tienen un componente de incertidumbre importante, lo cual hace que los pron´osticos precisos no existan. En la d´ecada de los setentas se comenzaron a desarrollar diversas alternativas que permitieron minimizar el riesgo de mercado, tales como las estrategias de cobertura mediante el uso de “derivados financieros”.

Los instrumentos derivados son herramientas que permiten minimizar la exposici´on de los inversionistas al riesgo, el cual es considerado como peligroso pero a su vez retribuyente. Los derivados financieros m´as populares son: las opciones, los “forwards”, los futuros, los “swaps”, las notas estructuradas, etc. En los a˜nos 70 las opciones y los futuros tuvieron su mayor auge, debido en parte al modelo de Black-Scholes, el cual determina una formula de valuaci´on para opciones europeas y, por otra parte, al arranque de la bolsa de opciones “Chicago Board of Options Exchange”, la cual ha operado, a la fecha, billones de d´olares.

(13)

radica, m´as que en un modelo de valuaci´on de opciones, en el an´alisis cualitativo que subyace en el mismo. Este marco de valuaci´on se fundamenta en condiciones de no arbitraje donde el objetivo es establecer una dependencia funcional entre el valor de un producto derivado y el valor de un activo subyacente. La idea fundamental de los modelos en tiempo continuo con condiciones de no arbitraje es que, bajo ciertas hip´otesis, es posible crear una estrategia de cobertura, formada por un n´umero determinado de derivados y una cierta cantidad del activo subyacente (negociable), de tal manera que ajustando continua y convenientemente el n´umero de derivados se obtiene una cartera exenta de riesgo. Al suponer que el mercado no permite oportunidades de arbitraje, el rendimiento nominal instant´aneo esperado de la cartera debe coincidir con la tasa de inter´es libre de riesgo. La conjunci´on de estas hip´otesis proporciona un modelo de valuaci´on descrito por una ecuaci´on diferencial parcial, cuyas condiciones de frontera recogen las caracter´ısticas esenciales del derivado a valuar. Aunque este m´etodo de valuaci´on es muy flexible, la mayor´ıa de sus aplicaciones dan origen a ecuaciones diferenciales sin soluci´on anal´ıtica. Esto ha dado lugar a una extensa literatura sobre m´etodos num´ericos aplicados a la valuaci´on de opciones y de activos contingentes.

Despu´es de haber trascurrido m´as de 30 a˜nos de la creaci´on de los primeros derivados

financieros, ´estos han ido evolucionando dando lugar a nuevos productos derivados, como son los derivados financieros de segunda generaci´on, entre los cuales destacan las “notas estructuradas”. Estas notas nacen para satisfacer un mercado, en el que los inversionistas puedan invertir a corto plazo, pero con mayor liquidez. Este tipo de instrumentos requiere para su operaci´on un tipo especial de opciones ex´oticas ligadas con bonos.

El desarrollo de las opciones ex´oticas tiene su origen en la d´ecada de los noventas, aunque se sabe que algunas de sus modalidades ya aparec´ıan en los mercados “Over The Counter” (“OTC”) afinales de la d´ecada de los setentas. Pero no fue sino hasta la d´ecada de los noventas cuando su negociaci´on comienza a ser relevante. Las opciones ex´oticas son opciones que tienen una estructura diferente a la de las opciones tradicionales y sur-gen con la intenci´on de abaratar las primas de los derivados tradicionales ajust´andose adecuadamente a las necesidades de los inversionistas.

(14)

la especulaci´on. No obstante, su volumen de negociaci´on no es todav´ıa lo suficientemente grande, pero se espera que se experimenten un mayor auge en el futuro sustentado en las caracter´ısticas de estos derivados. Actualmente, su uso se comienza a extender y se podr´ıa dar un salto de los mercados “OTC” hacia los mercados organizados, debido a la gran movilidad que los subyacentes est´an experimentando. Entre las opciones ex´oticas mas conocidas se encuentran: las asi´aticas, de barrera, “lookback”, “leader”, “shout”, “cliquet”, bermudas, “chooser”, polinomiales, potenciales, digitales, “playlater, “quantos”, “compos” e “installments”, entre otras.

Las opciones tipo bermuda son un nuevo estilo de opciones, situado entre una opci´on europea, cuyo ejercicio s´olo puede ser al vencimiento, y una americana, con ejercicio en cualquier momento antes de la fecha de vencimiento, es decir, pueden ser ejercidas de forma anticipada en un n´umero determinado de fechas a lo largo de su vida, lo que constituye un caso intermedio entre las europeas y las americanas. Una caracter´ıstica de las opciones bermudas es que su precio de ejercicio puede ir aumentado con el paso del tiempo. Si estas opciones cotizan en mercados organizados, se denominan opciones japonesas. Otro tipo especial de opciones bermuda son las opciones “bermuda capped option” en las que el poseedor de ´esta no tiene derecho a ejercerla antes de la fecha de vencimiento y el ejercicio se da de manera autom´atica en un conjunto predeterminado de fechas si el valor del subyacente alcanza un determinado nivel denominado “cap”.

(15)

as´ı como el m´etodo de Monte Carlo para determinar la evoluci´on de las tasas forward. Asimismo, proponen una discretizaci´on del modelo. De igual forma, proporcionan dos estrategias de ejercicio sub´optimo usando fronteras de ejercicio. Tambi´en estudian los errores sistem´aticos en la evoluci´on de la tasa forward y discuten medidas simples para reducir su impacto en la valuaci´on de la opci´on.

Las opciones “installments” bermudas son un tipo de opciones bermudas tradicionales, excepto que el comprador de estas opciones debe regularmente realizar un pago para man-tener activa la opci´on. Las fechas preestablecidas llamadas fechas de decisi´on en las cuales la opci´on puede ser ejercida corresponden al calendario de pagos. En cada fecha de decisi´on, el comprador de una opci´on de este tipo debe elegir entre lo siguiente:

(i) Ejercer la opci´on, lo cual pone fin al contrato.

(ii) No ejercer la opci´on y realizar un pago, con lo cual mantiene activa la opci´on para la siguiente fecha de decisi´on.

(iii) No ejercer la opci´on y no realizar el pago, lo cual pone fin al contrato.

Se considera a estas opciones como una innovaci´onfinanciera reciente que introduce cierta

(16)

diferenciasfinitas y el m´etodo de Monte Carlo. Por ´ultimo, Ben-Ameur, Breton y Franccois (2006) desarrollaron un procedimiento para valuar opciones “installments” bajo el cual se obtuvo un rango para el precio de este instrumento. Adem´as, realizaron un an´alisis de simulaci´on encontrando precios convergentes, los cuales eran cercanos a los observados en el mercado. Finalmente, aplicaron este procedimiento a los “warrants installments” los cuales son activamente negociados en Australia tomando en cuenta el efecto de difusi´on.

Por todo lo anterior se considera importante determinar el valor de las opciones bermu-das e “installments” bermuda, de acuerdo a su naturaleza, la cual involucra la toma de decisiones en fechas preestablecidas. La programaci´on din´amica es una herramienta b´asica que toma en cuenta la toma de decisiones en un n´umero determinado de periodos, en donde la decisi´on actual s´olo depende de la decisi´on inmediata anterior.

El marco te´orico para valuar un instrumentofinanciero que se negocia en un mercado

financiero completo es la teor´ıa de valuaci´on neutral al riesgo, la cual mediante el teorema de Feynman-Kac, se puede llevar cabo bajo el contexto de ecuaciones diferenciales parciales o en el enfoque probabilista, donde ambos son equivalentes seg´un dicho teorema y bajo algunas condiciones t´ecnicas. En ambos enfoques se supone que el activo subyacente sigue un proceso de difusi´on. En el enfoque de ecuaciones diferenciales parciales la idea central es construir un portafolio libre de riesgo constituido por el activo subyacente y la opci´on. Posteriormente, a trav´es de argumentos de arbitraje se iguala el rendimiento libre de riesgo con el del portafolio (el cual ya es libre de riesgo), y de este modo se obtiene una ecuaci´on diferencial parcial de segundo orden la cual al resolverse proporciona el valor de la opci´on. Mientras que bajo el enfoque probabilista se tiene que el precio de la opci´on est´a dado por el valor esperado del pago de la opci´on en un mundo neutral al riesgo. Por lo tanto, el obtener una f´ormula de valuaci´on cerrada bajo ambos enfoques depende del tipo de derivado, el cual est´a determinado por la funci´on de pagos del instrumento. En general existen muy pocos casos en los cuales se obtienen f´ormulas de valuaci´on cerradas, por lo que es necesario recurrir a m´etodos num´ericos para estimar el valor del instrumentofinanciero. En el caso de ecuaciones diferenciales, el m´etodo num´erico empleado es el de diferencias

finitas. En el caso del m´etodo probabilista se puede hacer v´ıa ´arboles binomiales o por simulaci´on.

La valuaci´on de instrumentos derivados financieros v´ıa simulaci´on puede ser dividida en dos pasos b´asicos:

(i) Simulaci´on del activo subyacente y algunos otros par´ametros no estacionarios (por ejemplo tasa de inter´es, volatilidad del activo, etc.).

(17)

En t´erminos pr´acticos es adecuado utilizar el m´etodo de simulaci´on de Monte Carlo cuando se tienen una o m´as de las siguientes caracter´ısticas:

(i) La din´amica que caracteriza el activo subyacente es complicada.

(ii) Existe dependencia del derivado en m´ultiples variables de estado.

(iii) El derivado depende de la trayectoria del activo subyacente.

La metodolog´ıa empleada para valuar la opci´on “installment” bermuda o bermuda se basar´a en la metodolog´ıa de valuaci´on neutral al riesgo. Es decir, se descontar´a el valor presente de la funci´on de pagos en un mundo neutral al riesgo. Para resolver este problema se vivir´a en un mundo neutral al riesgo (espec´ıficamente se emplear´a el m´etodo probabilista) para calcular el valor esperado del pago de la opci´on que debe realizarse de contado. La valuaci´on de este tipo de opci´on depende de la din´amica del activo subyacente y del calendario de fechas de pago del contrato, ya que a partir de estas fechas se determina si se ejerce o si se realiza un pago para mantener vigente la opci´on. Por lo que en cada una de estas fechas se tendr´a una subestructura de valuaci´on, la cual determinar´a si es ´optimo mantener, abandonar o ejercer la opci´on. Es por lo anterior que una herramienta que es fundamental para desarrollar esta investigaci´on es la programaci´on din´amica.

A trav´es de la programaci´on din´amica el problema se puede resolver en subproblemas con estructuras ´optimas siguiendo los siguientes tres pasos:

(i) Dividir el problema en subproblemas m´as peque˜nos.

(ii) Resolver estos subproblemas recursivamente de manera ´optima.

(iii) Usar las soluciones sub´optimas para construir una soluci´on ´optima del problema ori-ginal.

Los subproblemas se resuelven a su vez dividi´endolos en subproblemas m´as peque˜nos hasta que se encuentra que la soluci´on al problema es trivial. En resumen, la progra-maci´on din´amica hace uso de: subproblemas superpuestos, subestructuras ´optimas y me-morizaci´on. Adem´as, utiliza alguno de los siguientes enfoques:

(i) “Top-down” (de adelante hacia hacia atr´as) : El problema se divide en subproblemas, los cuales se resuelven recordando las soluciones en caso de que sea necesario. Es una combinaci´on de memorizaci´on y recursi´on.

(18)

Esta tesis optar´a por el primer enfoque, ya que la naturaleza del problema requiere conocer el precio de la opci´on en cada fecha del calendario de pagos. Originalmente, el t´ermino de programaci´on din´amica se designaba ´unicamente a la resoluci´on de ciertos problemas de investigaci´on de operaciones fuera del ´ambito de la ingenier´ıa inform´atica, al igual que lo hac´ıa la programaci´on lineal. En este contexto, la programaci´on din´amica no tiene ninguna relaci´on con la programaci´on (computacional o en sistemas) en absoluto; el nombre es pura coincidencia. El t´ermino tambi´en se usaba en la d´ecada de los cuarentas por Richard Bellman (matem´atico estodounidense) para describir el proceso de soluci´on de problemas donde hace falta calcular soluciones recursivamente. Cuando se habla de op-timizar se hace referencia a buscar la mejor soluci´on de entre muchas alternativas posibles. Dicho proceso de optimizaci´on puede ser visto como una sucesi´on (pol´ıtica) de decisiones que proporcionan la soluci´on correcta. Si, dada una subsucesi´on (subpol´ıtica) de decisiones, siempre se sabe cual es la decisi´on ´optima que se debe tomar a continuaci´on, el problema es elemental y se resuelve trivialmente tomando una decisi´on detr´as de otra, lo que se conoce como estrategia voraz. A menudo, aunque no es posible aplicar la estrategia voraz, se cumple el principio de optimalidad de Bellman que dice que “dada una pol´ıtica ´optima de decisiones, toda subpol´ıtica de ella es, a su vez, ´optima”. En este caso es todav´ıa posible ir tomando decisiones elementales, con la confianza de que la combinaci´on de ellas seguir´a siendo ´optima, pero entonces ser´a necesario explorar muchas sucesiones de decisiones para dar con la correcta, siendo aqu´ı donde interviene la programaci´on din´amica.

Contemplar un problema como una secuencia de decisiones equivale a dividirlo en subproblemas m´as peque˜nos y por lo tanto m´as f´aciles de resolver como se hace en “divide y vencer´as”, t´ecnica similar a la de programaci´on din´amica. La programaci´on din´amica se aplica cuando la subdivisi´on de un problema conduce a una enorme cantidad de subpro-blemas, subproblemas cuyas soluciones parciales se solapan o grupos de subproblemas de muy distinta complejidad.

Debido a que se est´a considerando calcular el valor esperado de un proceso de difusi´on se har´a uso de programaci´on din´amica estoc´astica.

(19)

una secuencia de las decisiones est´aticas ´optimas para cada uno de los instantes o perio-dos que constituyen dicho contexto din´amico. Asimismo, las dicisiones ´optimas a corto plazo, en general, no coinciden con las decisiones ´optimas a largo plazo. La utilizaci´on de t´ecnicas de optimizaci´on din´amica permiten obtener la soluci´on ´optima en cada caso. La optimizaci´on din´amica, como su nombre lo indica, estudia la optimizaci´on de sistemas din´amicos, es decir, la optimizaci´on de sistemas que evolucionan en el tiempo. Dado un sistema que evoluciona en el tiempo, se trata de guiar o controlar el sistema de manera ´

optima a lo largo de un horizonte de tiempo dado, de acuerdo a un objetivo previamente establecido. Es por esta raz´on que en esta tesis se desarrollar´a una metodolog´ıa para valuar este tipo de opciones a trav´es de programaci´on Din´amica. Este procedimiento num´erico es apropiado para este tipo de opciones debido a que involucran un n´umero limitado de fechas de ejercicio distantes.

Esta tesis est´a organizada de la siguiente manera: en el cap´ıtulo 1 se proporciona una introducci´on a la programaci´on din´amica, sus propiedades y ventajas. El cap´ıtulo 2 muestra un m´etodo de aproximaci´on a trav´es de interpolaci´on lineal por pedazos para encontrar el valor esperado de una opci´on cuyo pago es dependiente en la trayectoria del precio del activo subyacente y que puede ser ejercido en un n´umero discreto de fechas. En particular se propone que la din´amica del activo subyacente es guiada por un movimiento Browniano geom´etrico y la modificaci´on de ´este que incorpora la propiedad de reversi´on a la media, el cual ser´a denominado movimiento Browniano con reversi´on. En el cap´ıtulo 3 se obtiene un m´etodo de valuaci´on de opciones bermudas para los modelos propuestos y en el cap´ıtulo 4 se obtiene un m´etodo de valuaci´on de opciones “installment” bermuda para los modelos mencionados anteriormente y se analizan algunas propiedades de estas. En el cap´ıtulo 5 se presenta una aplicaci´on num´erica y finalmente en el cap´ıtulo 6 se presentan las conclusiones.

(20)

CAP´ITULO 1

PROGRAMACI ´

ON DIN ´

AMICA

La programaci´on din´amica estudia la obtenci´on de soluciones ´optimas de problemas que evolucionan en el tiempo y que son susceptibles de influencia mediante decisiones externas. La mejor decisi´on a tomar depende del horizonte de tiempo que se contemple en el problema a estudiar. En general, la decisi´on ´optima en un contexto din´amico no se obtiene mediante una sucesi´on de decisiones est´aticas ´optimas en cada uno de los instantes o periodos que constituyen el horizonte de planeaci´on. Asimismo, las decisiones ´optimas a corto plazo, en general, no coinciden con las decisiones ´optimas a largo plazo. Al respecto, la utilizaci´on de t´ecnicas de optimizaci´on din´amica permite obtener la soluci´on ´optima en cada una de las situaciones anteriores.

La optimizaci´on din´amica, como su nombre lo indica, estudia la optimizaci´on de sis-temas din´amicos, es decir, la optimizaci´on de sistemas que evolucionan en el tiempo. Dado un sistema que evoluciona en el tiempo, se trata de guiar o controlar el sistema de manera ´

optima, de acuerdo a alg´un criterio preestablecido, a lo largo de un horizonte de tiempo dado, de acuerdo a un objetivo previamente establecido. En este cap´ıtulo se presenta el problema b´asico de control ´optimo en tiempo discreto y un algoritmo que permite obtener su soluci´on ´optima: la programaci´on din´amica la cual se debe a Richard Bellman cuyo su m´etodo que fue publicado en 1957.

1.1 Planteamiento del problema de Control ´

Optimo

de-terminista en tiempo discreto

Considere un sistema din´amico que evoluciona en el tiempo, formulado en tiempo discreto, para un n´umero dado, N, de etapas o periodos, cuya situaci´on inicial viene dada por el vector n-dimensional, x0. Al igual que en el caso de tiempo continuo, dicha evoluci´on

(21)

Sea u(k) un vector m-dimensional de variables de control en la etapa o periodo k, para k ∈ {0,1, ..., N −1}. Se define x(k), para cada k ∈ {0,1, ..., N −1}, como el vector

n-dimensional de variables de estado, el cual indica la situaci´on del sistema en la etapa o periodo k. La evoluci´on del sistema en el tiempo est´a determinada por un sistema de ecuaciones en diferencias finitas, conocido como ecuaciones de estado:

x(k+ 1) =f(x(k), u(k), k), para k = 0,1, ..., N −1,

con x(0) =x0 donde f es una funci´on tal que

f : D1(⊂Rn) × D2(⊂Rm) × {0,1, ..., N −1} → Rn

(x, u, k) f(x, u, k).

Se supone que:

u(k)∈Ω(k)⊂Rm, para k = 0,1, ..., N −1,

en donde para cada k, Ω(k) es el conjunto de controles admisibles. La funcional objetivo que se considerar´a es del tipo:

J =

N1

k=0

F[x(k), u(k), k] +S[x(N)],

donde F y S son funciones definidas como

F : D1(⊂Rn) × D2(⊂Rm) × {0,1, ..., N −1} → R

(x, u, k) → F(x, u, k)

y

S : D1 ⊂Rn → R

x S(x),

respectivamente. Es decir, el sistema din´amico parte del estado inicial x0. En el periodo

o etapa 1 (correspondiente a k = 0), el decisor debe elegir un controlu(0)∈Ω(0), el cual realiza una aportaci´on al funcional objetivo dada por:

F[x(0), u(0),0],

y se revisa el periodo o etapa 2 (correspondiente a k = 1) con el siguiente valor del vector de estado

x(1) =f(x(0), u(0),0).

En dicho periodo o etapa 2 (correspondiente ak = 1), hay que elegir un controlu(1)∈Ω(1), el cual realiza una aportaci´on al funcional objetivo dada por

(22)

y se inicia el periodo o etapa 3 (correspondiente a k = 2) con el siguiente valor del vector de estado

x(2) =f(x(1), u(1),1).

Se procede, consecutivamente, de esta manera hasta que el decisor encuentra el periodo ´o etapa N (correspondiente a k = N −1) con estado anterior, x(N −1), y tiene que elegir un controlu(N −1)∈Ω(N −1), el cual efect´ua una aportaci´on al funcional objetivo dada por

F[x(N 1), u(N 1), N 1], alcanzando finalmente el estado:

x(N) =f(x(N −1), u(N −1), N −1).

Por el hecho de terminar en dicho estado, se realiza tambi´en una aportaci´on al funcional objetivo dada por S[x(N)]. Un control ´optimo se define como un control tal que:

u(k)∈Ω(k)⊂Rn, para k = 0,1, ..., N −1,

es decir, un control admisible que, junto con los controles anteriormente seleccionados, maximiza el funcional objetivo. Por lo tanto, el problema en el que este trabajo estar´a interesado es: Dado un sistema din´amico con condici´on inicial, x0, que evoluciona en el

tiempo de acuerdo con la ecuaci´on de transici´on de estados

x(k+ 1) =f(x(k), u(k), k),

se desea encontrar para cadak un vector de controles que sea admisible y que haga que el funcional objetivo alcance su valor m´aximo. Si esto se expresa en t´erminos m´as formales queda entonces de la siguiente forma:

max

{u(k)}Nk=0−1

J =

N1

k=0

F[x(k), u(k), k] +S x(N) ,

s.a.

x(k+ 1) =f(x(k), u(k), k), para k = 0,1, ..., N −1,

x(0) =x0,

u(k)∈Ω(k)

(1.1)

(23)

1.2 Programaci´

on Din´

amica Determinista

La programaci´on din´amica, introducida por Bellman (1957), fue creada inicialmente para resolver problemas formulados en tiempo discreto, aunque posteriormente ser´ıa adaptada para la resoluci´on de problemas en tiempo continuo. La programaci´on din´amica transforma la soluci´on de un problema deN etapas o periodos a la resoluci´on deN problemas de una etapa cada uno, en donde la decisi´on en la etapa actual s´olo depende de la decisi´on en la etapa anterior.

1.2.1 Causalidad

El problema de control ´optimo en tiempo discreto planteado anteriormente tiene una propiedad importante, llamada propiedad de causalidad, la cual se expresa en los siguientes t´erminos.

Propiedad de causalidad. Para cualesquiera j, r ∈ {0,1, ..., N −1}, con j < r, se verifica que x(r) depende ´unicamente de x(j) y de los controles

{u(j), u(j+ 1), ..., u(r1)}.

Es decir, dado el estado x(j) en el que se encuentra el sistema din´amico al comienzo de la etapa (o periodo) j + 1, para cualquier etapa posterior r se verifica que el estado que se alcanzar´a al finalizar dicha etapa, x(r) depende exclusivamente del estado x(j) y de los controles que se apliquen entre las etapas j + 1 y r. En otras palabras, dados dos estados cualesquiera del sistema, uno anterior y otro posterior, el valor que tome el estado posterior depende ´unicamente del valor del estado anterior y de los valores de los controles intermedios entre ambos estados. Esta propiedad se verifica como consecuencia directa de la estructura del problema. En efecto, teniendo en cuenta la ecuaci´on de estado se tiene que:

x(j+ 1) =f(x(j), u(j), j),

y que

x(j+ 2) =f(x(j+ 1), u(j + 1), j+ 1) =f(f(x(j), u(j), j), u(j+ 1), j + 1),

y as´ı sucesivamente, hasta obtener

x(r) =f(x(r−1), u(r−1), r−1)

=f(f(x(r2), u(r2), r2), u(r1), r1)

(24)

en donde esta ´ultima funci´on Ψ se obtiene al ir sustituyendo de manera recurrente el vector de variables de estado por el valor que resulta al aplicar la ecuaci´on de estado. Como consecuencia de esta propiedad, el estado inicial x(0) y el conjunto de controles

{u(0), u(1), ..., u(N 1)},

determinan la trayectoria del vector de estado

{x(0), x(1), ..., x(N)}.

Al utilizar la notaci´on

u[0, N −1] ={u(0), u(1), ..., u(N −1)},

y, en general,

u[j, N−1] ={u(j), u(j+ 1), ..., u(N −1)},

el funcional objetivo del funcional se puede escribir como

J =J0{x(0), u[0, N −1]},

por lo que, si x(0) est´a dado, para maximizar J s´olo hay que determinar los controles

u[0, N −1].

Como puede notarse, la propiedad de causalidad no siempre se cumple en m´odelos econ´omicos din´amicos. Por ejemplo, una decisi´on a tomar en cierto momento futuro por una autoridad econ´omica, puede estar afectando al estado presente de dicha econom´ıa, por medio de las expectativas de los agentes. En tales casos la formulaci´on del modelo de opti-mizaci´on din´amica no se corresponde con el problema, en el que, como se ha comprobado, se cumple el supuesto de causalidad.

1.2.2 Soluci´on al problema de control ´optimo mediante programaci´on din´amica

A continuaci´on se presenta el m´etodo de programaci´on din´amica, el cual permite obtener la soluci´on ´optima del problema (1.1). Para ello se demuestra el siguiente lema:

Lema 1.1 Sean D y D dos conjuntos cualesquiera. Sean g y h funciones reales, cuyos dominios son D y D×D , respectivamente, entonces se cumple que:

max

yD,zD {g

(y) +h(y, z)}= max

yD g(y) + maxzD {h

(25)

suponiendo la existencia de soluci´on ´optima para estos problemas.

Demostraci´on

a) La expresi´on a la izquierda de la igualdad es mayor o igual que la situada a la derecha. En efecto, es claro que

max

yD,zD {g

(y) +h(y, z)}≥g(y) +h(y, z), yD, zD .

En part´ıcular:

max

yD,zD {g

(y) +h(y, z)}≥g(y) + max

zD {h

(y, z)}, yD,

por lo que

max

yD,zD {g(y) +h(y, z)}≥maxyD g(y) + maxzD {h(y, z)} .

b) Ahora se demostrar´a la desigualdad inversa. Es claro que

h(y, z)max

zD {h

(y, z)}, y D, zD ,

por lo que para todo y∈D, z ∈D , se verifica que

g(y) +h(y, z)g(y) + max

zD {h

(y, z)}≤max

yD g(y) + maxzD {h(y, z)} ,

de donde se obtiene que

max

yD,zD {g

(y) +h(y, z)}≤max

yD g(y) + maxzD {h

(y, z)} ,

(26)

Proposici´on 1.1

Sea J∗(x0) el valor ´optimo del funcional objetivo del problema (1.1), entonces

J∗(x0) =J0∗{x0},

en donde la funci´on J0∗ viene dada por el ´ultimo paso del siguiente algoritmo, el cual comienza al final del horizonte temporal y va hasta el principio de dicho horizonte. Por lo tanto, resolviendo hacia atr´as se sigue que:

JN∗ {x(N)}=S[x(N)],

y para cada k {N −1, N 2, ...,1,0}, se tiene que

Jk∗{x(k)}= max

u(k)∈Ω(k) F[x(k), u(k), k] +J

k+1{f[x(k), u(k), k]} ,

las cuales son llamada las ecuaciones recursivas de Bellman. Adem´as, si u∗(k) maximiza

la expresi´on situada a la derecha de la ecuaci´on anterior, en funci´on de x(k), para cada

k ∈{0,1, ..., N −1}, se obtiene que

u∗ = (u∗(0), u∗(1), ..., u∗(N 1)) ,

es el control ´optimo del problema planteado en (1.1).

Demostraci´on

A partir del enunciado del problema (1.1), es se sigue que

J∗(x0) = max

u(0)∈Ω(0),...,u(N1)∈Ω(N1)

N1

k=0

F[x(k), u(k), k] +S[x(N)] .

Por la propiedad de causalidad y el lema 1.1, la anterior expresi´on es equivalente a:

max

u(0)∈Ω(0) F[x(0), u(0),0] +u(1)max∈Ω(1){F[x(1), u(1),1]

+ max

u(2)∈Ω(2){F[x(2), u(2),2] +...+

+ max

u(N1)∈Ω(N1){F[x(N −1), u(N −1), N −1] +S[x(N)]}... .

Adem´as la maximizaci´on esta sujeta a la restricci´on de la ecuaci´on de transformaci´on de estados del sistema:

(27)

con x(0) =x0. Si se define ahora

JN∗ {x(N)}=S[x(N)], JN∗1{x(N −1)}

= max

u(N1)∈Ω(N1){{F[x(N −1), u(N −1), N −1] +J

N{x(N)}},

donde

x(N) =f(x(N −1), u(N −1), N −1),

y as´ı, sucesivamente, hasta

J1∗{x(1)}= max

u(1)∈Ω(1){{F[x(1), u(1),1] +J

2 {x(2)}},

en donde

x(2) =f(x(1), u(1),1),

se tiene que

J0∗{x(0)}= max

u(0)∈Ω(0){{F[x(0), u(0),0] +J

1 {x(1)}},

con

x(1) =f(x(0), u(0),0), con x(0) =x0,

y de acuerdo con la cadena de igualdades que se tienen, la proposici´on queda demostrada con el contr´ol ´optimo u∗ = (u∗(0), u∗(1), ..., u∗(N 1)) . De esta manera, u∗(k) maxi-miza la expresi´on situada a la derecha de la ecuaci´on de Bellman, en funci´on de x(k), para cada k = 0,1, ..., N 1.

Como es l´ogico pensar, si el problema fuera de minimizaci´on, habr´ıa que minimizar el lado derecho de la ecuaci´on de Bellman. Como ya se ha indicado anteriormente, la programaci´on din´amica consiste en resolver un problema de N etapas o periodos, a trav´es de la resoluci´on de N problemas de una etapa o periodo. Cada uno de los N problemas se resolver´a por el m´etodo que se considere oportuno en cada caso. No se ha supuesto diferenciabilidad de las funciones, pudiendo ser discretos o continuos los conjuntos de controles admisibles. La programaci´on din´amica se apoya en el principio de optimalidad de Bellman que dice lo siguiente:

Principio de optimalidad de Bellman

Suponga que

u∗ = (u∗(0), u∗(1), ..., u∗(N 1))

es el control ´optimo del problema (1.1) y

(28)

es la correspondiente trayectoria de estados ´optima. Si se considera el subproblema que consiste en:

max

{u(k)}Nk=j1

J =

N1

k=j

F[x(k), u(k), k] +S x(N) ,

s.a.

x(k+ 1) =f(x(k), u(k), k),para k =j, j+ 1, ..., N −1,

X(j) =x∗(j),

u(k)Ω(k),parak =j, j+ 1, ..., N 1,

es decir, el subproblema que desea encontrar los controles ´optimos en las etapas j + 1 a

N−1, partiendo de la condici´on inicial x∗(j), en la etapaj+ 1, entonces el control ´optimo del subproblema formulado es (u∗(j), u∗(j+ 1), ..., u∗(N −1)) , (vector truncado deu∗). En este caso, la funci´on Jj∗{x(j)} que proporciona el valor ´optimo del funcional objetivo

del problema truncado, en funci´on del estado inicial x(j), se llama funci´on valor de j a N.

1.3 Programaci´

on Din´

amica Estoc´

astica

La programaci´on din´amica estoc´astica es uno de los m´etodos m´as importantes de opti-mizaci´on din´amica, tanto en el caso de tiempo discreto, como en el caso de tiempo continuo. Esta extensi´on estoc´astica se presenta a continuaci´on:

1.3.1 Planteamiento del problema

Considere el siguiente sistema din´amico, formulado en tiempo discreto,

x(k+ 1) =f(x(k), u(k), v(k), k), para k = 0,1, ..., N −1,

con x(0) =x0,

en donde, para cada k:

x(k) es el vector de variables de estado, perteneciente al espacio Sk,

u(k) es el vector de variables de control, perteneciente al espacio Ck, y

v(k) es el vector de perturbaciones aleatorias, perteneciente al espacio Dk.

El control u(k) est´a restringido a tomar valores pertenecientes a un conjunto no vac´ıo

Ωk[x(k)], que depende del estado del sistema en ese periodo k, es decir: u(k)∈Ωk[x(k)], para cada x(k)∈Sk,∀ k = 0,1, ..., N −1.

La perturbaci´on aleatoria v(k) es caracterizada por una distribuci´on de probabilidad

(29)

que puede depender expl´ıcitamente de x(k),u(k), pero es independiente de las perturba-ciones aleatorias v(k−1), v(k−2),...,v(0). Si se consideran la pol´ıtica, que consiste en una sucesi´on de funciones:

π ={μ0,μ1, ...,μN−1},

en donde cada funci´on μk transforma el estado x(k) en el control u(k) =μk[x(k)], de tal manera que se verifica que

μk[x(k)]∈Ωk[x(k)] ∀ x(k)∈Sk.

De esta forma las pol´ıticas de control que cumplen esta condici´on se llamar´an admisibles. As´ı pues, el problema consiste en: dado un estado inicial x0, se trata de encontrar una

pol´ıtica de control admisible

π ={μ0,μ1, ...,μN−1},

que maximiza el siguiente funcional

maxJπ(x0) = E

N1

k=0

F[x(k),μk[x(k)], v(k), k] +S[x(N)] ,

s.a.

x(k+ 1) =f[x(k),μk[x(k)], v(k), k],k = 0,1, ..., N 1,

con

x(0) =x0,

μk[x(k)]∈Ωk[x(k)]∀x(k)∈Sk,

en donde E{·} denota el operador de esperanza matem´atica. Las funciones F, S y f se suponen conocidas. Se desea encontrar una pol´ıtica de control ´optimo π∗, para la cual se verifique

Jπ∗(x0) = max

π∈ΠJπ(x0),

en donde Πes el conjunto de pol´ıticas de control admisibles. La funci´on J∗, definida de la siguiente forma

J∗(x0) =Jπ∗(x0),

es la funci´on que asigna a cada estado inicial x0 el valor objetivo J∗(x0) y se llama

(30)

1.3.2 Soluci´on al problema formulado mediante Programaci´on Din´amica

En esta secci´on se estudia a la programaci´on din´amica, como m´etodo de soluci´on del problema de control estoc´astico en tiempo discreto, el cual fue formulado en la secci´on anterior. De la misma forma que en el caso determin´ıstico, se empieza por el final del horizonte temporal y se va analizando el problema periodo por periodo hasta llegar al periodo inicial. La programaci´on din´amica, en este caso, permite resolver un problema estoc´astico de N etapas mediante la resoluci´on deN problemas estoc´asticos de una etapa.

Proposici´on 1.2

Sea J∗(x0) el valor ´optimo del funcional objetivo del problema establecido en la secci´on

anterior, entonces

J∗(x0) =J0∗(x0),

en donde la funci´on J0∗ est´a dada por el ´ultimo paso del siguiente algoritmo, que comienza al final del horizonte temporal y va hasta el principio del mismo. Sea

JN∗ (x(N)) =s[x(N)],

y para cada k {N −1, N 2, ...,1,0} defina

Jk∗[x(k)] = max u(k)∈Ωk[x(k)]

Ev(k){F[x(k), u(k), v(k), k]

+Jk+1[f[x(k), u(k), v(k), k]] ,

que proporciona la ecuaci´on recursiva de Bellman. Si u∗(k) =μ∗k[x(k)] maximiza el lado derecho de la ecuaci´on de Bellman, para cada x(k) y para cada k {0,1, ..., N 1}, la pol´ıtica de control

π∗ = μ∗0,μ∗1, ...,μ∗N1 ,

es ´optima.

Demostraci´on

(31)

1), v(k2), ..., v(0) son variables aleatorias independientes, permite escribir lo siguiente:

J∗(x0) = max

μo,μ1,...,μN−1

J(x0,μ0,μ1, ...,μN−1)

= max

μo,μ1,...,μN−1 E

N−1

k=0

F[x(k),μk[x(k)], v(k), k] +S[x(N)]

= max

μo,μ1,...,μN−1

Ev(0){F[x(0),μ0[x(0)], v(0),0]

+ Ev(1){F[x(1),μ1[x(1)], v(1),1]

+· · ·

+ Ev(N1){F[x(N −1),μN−1[x(N −1)], v(N −1), N −1]

+s[X(N)]} · · ·}].

Por ser un sistema causal, la expresi´on anterior se puede reescribir como:

J∗(x0) = max

μo

Ev(0){F[x(0),μ0[x(0)], v(0),0]

+ max

μ1 Ev(1){F[x(1),μ1[x(1)], v(1),1]

+· · ·

+ max μN−1

Ev(N1){F[x(N −1),μN−1[x(N −1)], v(N −1), N −1]

+ S[x(N)]}]· · ·}]}].

En esta ecuaci´on, la maximizaci´on afecta a todas las funciones μk tales que

μk[x(k)]Ωk[x(k)].

Adem´as, la maximizaci´on est´a sujeta a la restricci´on de la ecuaci´on del sistema

x(k+ 1) =f(x(k),μk[x(k)], v(k), k), para k = 0,1, ..., N 1.

Si se definen las siguientes funciones

JN∗ [x(N)] =S[x(N)],

y para cada k {N −1, N 2, ...,1,0}, se cumple que

Jk∗[x(k)] = max u(k)∈Ωk[x(k)]

[E{F[x(k), u(k), v(k), k]

+Jk∗+1[f[x(k), u(k), v(k), k]] ,

entonces la proposici´on queda demostrada; siendo la pol´ıtica de control ´optimo:

(32)

1.4 Programaci´

on din´

amica continua

En esta secci´on se discute un tipo de problemas de optimizaci´on, en tiempo continuo, y se proporciona la intuici´on que se encuentra detr´as de los m´etodos empleados para resolverlos. Estos m´etodos han sido utilizados por diversos autores para estudiar: el equilibrio, las estrategias y la valuaci´on de activos. La primera parte de esta secci´on se concentra en el caso de un horizonte infinito. Es importante destacar que se puede usar el principio del m´aximo o las t´ecnicas del c´alculo diferencial para resolver este tipo de problemas. Posteriormente se extiende el an´alisis a problemas similares en un ambiente estoc´astico.

1.4.1 Programaci´on din´amica determinista continua a tiempo homog´eneo

En esta secci´on se generalizar´a el m´etodo de programaci´on din´amica a tiempo continuo, para ello suponga que se desea maximizar el funcional objetivo:

J(x(t), t) = max

u(t)

⎧ ⎨ ⎩

t

F(x(t), u(t), t) ⎫ ⎬

⎭,

s.a.

dx

dt =f(x(t), u(t), t), x(0) =x0,

(1.2)

donde x(t) es la variable de estado y u(t) es la variable de control. Para resolver este problema se escribe:

J(x(t), t) = max

u(t)

⎧ ⎨ ⎩

t

F(x(s), u(s), s) ds

⎫ ⎬ ⎭

= max

u(t)

⎧ ⎨ ⎩

t+dt

t

F(x(s), u(s), s)ds+

t+dt

F(x(s), u(s), s) ds

⎫ ⎬

⎭.

Por el teorema del valor medio para integrales, se tiene que

J(x(t), t) = max

u(t) {F(x(t), u(t), t) dt+o(dt) +J(x(t) + dx(t), t+ dt)}

= max

u(t) {F(x(t), u(t), t) dt+o(dt)

(33)

Al expandir a dJ en una serie de Taylor, alrededor del punto (x(t), t), la expresi´on anterior se transforma en:

J(x(t), t) = max

u(t) {F(x(t), u(t), t) dt+o(dt) +J(x(t), t)

+Jtdt+Jxdx+o(dt)}

= max

u(t) {F(x(t), u(t), t) dt+o(dt) +J(x(t), t)

+Jtdt+Jxdx}.

En consecuencia,

max

u(t) {F(x(t), u(t), t) dt+o(dt) +Jtdt+Jxdx}= 0,

Despu´es de dividir la expresi´on anterior entre dty tomar el l´ımite cuando dt→ ∞, se tiene que

max

u(t) F(x(t), u(t), t) +Jt+Jx

dx

dt = 0.

En virtud de (1.2), se obtiene que

max

u(t) {F(x(t), u(t), t) +Jt +Jxf(x(t), u(t), t)}= 0.

La ecuaci´on anterior es conocida como la ecuaci´on de Hamilton-Jacobi-Bellman. De esta forma para resolver el problema de optimizaci´on con programaci´on din´amica, en tiempo continuo, basta con resolver la ecuaci´on anterior.

1.4.2 Programaci´on din´amica continua estoc´astica

Se comenzar´a con el an´alisis de un problema de horizonte infinito, la ventaja de estos problemas en tiempo homog´eneo es que el valor del funcional objetivo no depende expl´ı ci-tamente del tiempo. Lo anterior permite eliminar una variable de la ecuaci´on diferencial parcial derivada. Si la optimizaci´on es tomada sobre un horizonte de tiempo finito, el problema es llamado a tiempo no homog´eneo. El problema general puede ser establecido de de la siguiente forma: se desea maximizar el valor de una variable,V, la cual depende de un conjunto de variables de estado, X, la variable de tiempo,t y par´ametros del problema. Adem´as, el valor de V puede ser influenciado por alg´un control, u(t). Para un proceso estoc´astico, X, el problema anterior puede ser escrito como:

V = max

u(t) E0

0

(34)

s.a.

dX =α(X, u(t)) dt+σ(X, u(t)) dW.

La consideraci´on de horizonte infinito en este problema junto con la independencia deu,α

y σ de t, es de particular inter´es en esta secci´on. Es importante mencionar que en algunos casos,u(t) puede ser una constante. Si se puede determinar una soluci´on en forma cerrada paraV, entoncesu(t) puede ser seleccionada a trav´es del c´alculo diferencial para maximizar el valor de V. Tambi´en puede ser empleado el principio estoc´astico del m´aximo, el cual permite el estudio de controles m´as complejos. El problema anterior puede ser resuelto de la siguiente forma:

sea

J(t, Xt) = max

u(s)|[s,∞) E

t

e−rsF(Xs, u(s))ds Ft

= max

u(s)|[s,∞) E

t+dt

t

e−rsF(Xs, u(s))ds+

t+dt

e−rsF(Xs, u(s))ds Ft

= max

u(s)|[t,t+dt] E

t+dt

t

e−rsF(Xs, u(s))ds+J(t+ dt, Xt+ dXt) Ft .

Por el teorema del valor medio para integrales, se tiene que

J(t, Xt) = max

u(s)|[t,t+dt]

E e−rtF(Xt, u(t))dt+o(dt) +J(t+ dt, Xt+ dXt) Ft .

En virtud de la definici´on de diferencial, se obtiene que

J(t+ dt, Xt + dXt)J(t, Xt) = dJ(t, Xt),

entonces

J(t, Xt) = max

u(s)|[t,t+dt]

E e−rtF(Xt, u(t))dt+o(dt) + dJ(t, Xt) +J(t, Xt) Ft

= max

u(s)|[t,t+dt]

E e−rtF(Xt, u(t))dt+o(dt) + dJ(t, Xt) Ft +J(t, Xt)

0 = max

u(s)|[t,t+dt]

E e−rtF(Xt, u(t))dt+o(dt) + dJ(t, Xt) Ft .

Al aplicar, a la ecuaci´on anterior, el Lema de Itˆo, se produce

0 = max

u(s)|[t,t+dt]

E e−rtF(Xt, u)dt+o(dt) + Jt +α(X, u)JX+ 1 2σ

2(X, u)JXX dt

+JXσ(X, u(t))dW Ft .

(35)

Despu´es de tomar el valor esperado, se sigue que

0 = max

u(s)|[t,t+dt]

e−rtF(Xt, u)dt+o(dt) + Jt+α(X, u)JX+ 1 2σ

2(X, u(t))JXX dt .

Si se dividen ambos lados de la ecuaci´on anterior por dt y luego se toma el l´ımite cuando dt tiende a cero, se obtiene

0 = max

u(t) e

−rtF(Xt, u(t)) +Jt+α(X, u(t))JX+ 1

2(X, u(t))JXX . (1.3)

Debido a que la funci´on objetivo tiene una forma separable entonces, se propone como candidato de la soluci´on de la ecuaci´on diferencial parcial anterior a:

J(t, X) =V(X)e−rt.

Al calcular Jt, JX, JXX, se tiene:

Jt =rV(X)e−rt, JX =VX(X)e−rt, JXX =VXX(X)e−rt.

Al sustituir lo anterior en (1.3), se obtiene

0 = max

u(t) e

−rtF(Xt, u(t))

−rV(X)e−rt+α(X, u(t))VX(X)ert

+ 1 2σ

2(X, u(t))VXX(X)e−rt .

Si se dividen ambos miembros de la ecuaci´on por el factor e−rt, se sigue que

0 = max

u(t) F(Xt, u(t))−rV(X) +α(X, u(t))VX(X) +

1 2σ

2(X, u(t))VXX(X) .

Lo anterior es equivalente a

rV(X) = max

u(t) F(Xt, u(t)) +α(X, u(t))VX(X) +

1 2σ

2(X, u(t))VXX(X) .

Para maximizar la expresi´on anterior se podr´ıa ocupar el c´alculo diferencial si u(t) es constante, los m´etodos de maximizaci´on restringida si u(t) es variable y restringida, o el c´alculo de variaciones. Una vez que el m´aximo deu(t) es encontrado, la ecuaci´on diferencial puede ser resuelta utilizando t´ecnicas de ecuaciones diferenciales parciales. La condici´on necesaria para un m´aximo es:

F(Xt, u(t)) +α(X, u(t))VX(X) + 1 2σ

(36)

La ecuaci´on anterior es conocida como la ecuaci´on de Hamilton-Jacobi-Bellman.

1.4.3 Extensi´on a m´ultiples variables de estado

Si hay mas de una variable estoc´astica (pero su valor no depende del tiempo) en el problema anterior, la extensi´on es directa. Al usar la extensi´on multivariada del lema de Itˆo, se puede calcular dV de forma directa. De esta manera la ecuaci´on diferencial parcial que caracteriza al control ´optimo mantiene la variable de estado extra.

Suponga que se desea maximizar el valor de una funci´on F(a, b, u, t), donde a y b

siguen el siguiente sistema de ecuaciones diferenciales estoc´asticas:

da=f(a, b, u)dt+σ(a, b, u)dZa

db=g(a, b, u)dt+ν(a, b, u)dZb

dZadZb =ρdt

sujeto a las condiciones iniciales a(0) = a0 y b(0) =b0. As´ı, el problema queda planteado

como:

V = max

u E ∞

0

e−rtF(a, b, u, t) dt F0 .

Para encontrar el control ´optimo, se seguir´a el siguiente procedimiento, para ello sea:

J(t, at, bt) max

u|[t,∞] E

t

F(a, b, u, s)e−rsds Ft .

Se tienen las siguientes igualdades

J(t, at, bt) = max

u|[t,∞] E

t+dt

t

F(a, b, u, s)e−rsds+

t+dt

G(s)e−rsds Ft

= max

u|[t,t+dt] E

t+dt

t

F(a, b, u, s)e−rsds+J(t+ dt, at + dat, bt+ dbt) Ft

= max

u|[t,t+dt]

E F(a, b, u, t)e−rsdt+o(dt) +J(t, at, bt) + dJ(t, at, bt) Ft

= max

u|[t,t+dt]

E F(a, b, u, t)e−rtdt+o(dt) +J(t, at, bt)

+ Jt+f(a, b, u)Ja+ 12σ2Jaa+g(a, b, u)Jb+ 12ν2Jbb+σνρJab dt

(37)

En consecuencia:

0 = max

u|[t,t+dt]

E F(a, b, u, t)e−rtdt+o(dt)

+ Jt+f(a, b, u)Ja+ 12σ2Jaa+g(a, b, u)Jb+ 12ν2Jbb+σνρJab dt

+σJadWt +νJbdVt Ft .

Si se toman valores esperados, se sigue que

0 = max

u|[t,t+dt]

F e−rtdt+o(dt)+ Jt+f(a, b, u)Ja+1 2σ

2Jaa+g(a, b, u)Jb+1 2ν

2Jbb+σνρJab dt

Si ahora se divide entre dt y, posteriormente, se toma el l´ımite cuando dt→0, se tiene que

0 = max

u F(a, b, u)e −rt

+Jt+f(a, b, u)Ja+ 12σ2Jaa+g(a, b, u)Jb+ 12ν2Jbb+σνρJab .

Si u es m´aximo, entonces

0 =F(a, b, u, t) +Jt +f(a, b, u)Ja+ 12σ2Jaa+g(a, b, u)Jb+ 21ν2Jbb+σνρJab. (1.4)

Dada la forma separable de la funci´on objetivo, se propone como candidato de la ecuaci´on diferencial parcial anterior a

J(t, at, bt) =V(at, bt)e−rt.

De esta manera,

Jt =rV(a, b)e−rt, Ja =Vae−rt,

Jb =Vbe−rt, Jaa =Vaae−rt,

Jbb =Vbbe−rt, Jab =Vabe−rt.

Al sustituir las derivadas pariciales anteriores en (1.4), se tiene que

0 =F(a, b, u, t)rV +f(a, b, u)Va+ 12σ2Vaa+g(a, b, u)Vb + 12ν2Vbb+σνρVab.

Por lo tanto, la siguiente ecuaci´on diferencial parcial debe ser satisfecha en el ´optimo:

rV = max

u F(a, b, u, t) +Vaf +Vbg+

1 2Vaaσ

2+Vabσνρ+ 1

2Vbbν

(38)

La ecuaci´on anterior es una generalizaci´on de la ecuaci´on de Hamilton-Jacobi-Bellman, para dos variables de estado. Por un procedimiento similar al anterior se puede obtener la ecuaci´on de Hamilton-Jacobi-Bellman paran variables de estado.

1.4.4 Extensi´on a la dependencia expl´ıcita del tiempo

En teor´ıa, la extensi´on del modelo b´asico para incorporar la dependencia expl´ıcita del tiempo es directa. Sin embargo, la dificultad computacional es frecuentemente magnificada por ´esta aparente extensi´on simple. Se considera una vez m´as el problema de maximizaci´on, pero adicionando algunos elementos:

V = max

u(t) E0

τ

0

e−rtF(X, s, u(t)) dt+e−rτB(X(τ),τ) F0

sujeto a:

dX =α(X, t, u(t)) dt+σ(X, t, u(t)) dZ.

de esta forma, la optimizaci´on es tomada en un horizontefijo de tiempo y alfinal la funci´on de herencia es incluida en la funci´on objetivo. La interpretaci´on de la funci´on de herencia puede diferir dependiendo del problema. Por ejemplo, un consumidor desea maximizar su utilidad m´as un consumo de supervivencia en una fecha determinada en el futuro. Al seguir la metodolog´ıa empleada anteriormente, se tiene que:

rV +Vτ = max

u(t) F(X, u(t),τ) +VXα(X, u(t),τ) +

1 2VXXσ

2(X, u(t),τ) .

La diferencia de este caso con el anterior est´a en el lado izquierdo de la ecuaci´on, la cual incluye la derivada parcial respecto del tiempo, adem´as se deben satisfacer condiciones adicionales de frontera del comportamiento de V cuando τ 0 es decir:

V(X,0) =B(X,0),

(39)

CAP´ITULO 2

ETODO DE VALUACI ´

ON DE OPCIONES

CON DEPENDENCIA EN LA TRAYECTORIA

En este cap´ıtulo se presentar´a un m´etodo de valuaci´on de opciones con dependencia en la trayectoria del precio del activo subyacente. Espec´ıficamente se utilizar´a programaci´on din´amica para calcular la prima de una opci´on con dependencia en la trayectoria. Para aproximar la funci´on de pagos se utilizar´a interpolaci´on lineal por pedazos.

2.1 Opciones ex´

oticas

Las opciones ex´oticas tienen su origen en la d´ecada de los noventa, aunque se sabe que algunas de sus modalidades ya aparec´ıan en mercados “Over The Counter” (OTC) afinales de la d´ecada de los setentas. Sin embargo, no es hasta la d´ecada de los noventas cuando su negociaci´on comienza a ser relevante. Las opciones ex´oticas son opciones con caracter´ısticas distintivas que difieren de las opciones cl´asicas, ya sea por el precio de ejercicio, el tipo de subyacente y las condiciones de pago. Este tipo de opciones tambi´en se les conoce con el nombre de opciones de segunda generaci´on, ya que tratan de superar los l´ımites de las operaciones est´andar, las cuales presentan en su mayor´ıa contratos sumamente r´ıgidos. A partir de una opci´on sencilla, con ciertas modificaciones y en funci´on de ciertas condiciones, se pueden dise˜nar distintos tipos de opciones ex´oticas. Los factores determinantes de ´este tipo de opciones son muy variados.

(40)

OTCs, a los mercados listados. Entre los tipos de opciones ex´oticas se pueden mencionar a las opciones “path-dependent” (dependientes de la trayectoria), opciones compuestas, op-ciones apalancadas, opop-ciones con pago singular y opop-ciones “rainbow”, entre otras. Dentro de este tipo de derivados, las opciones “path-dependent” juegan un papel muy importante en muchos mercadosfinancieros, en particular esta tesis se enfocar´a en dos opciones de ´este tipo: las opciones bermudas e “installments” bermudas cuyo pago al vencimiento depende no s´olo del valor que alcance el subyacente al vencimiento, sino tambi´en de su evoluci´on en el tiempo. Por lo que la decisi´on de ejercer o no la opci´on depende de la evoluci´on del precio del activo subyacente en el tiempo. Valuar este tipo de opciones es una tarea dif´ıcil, debido a su dependencia con la trayectoria del activo subyacente. En este caso, el uso de m´etodos de aproximaci´on es muy ´util para el proceso de valuaci´on. En lo subsiguiente se supondr´a una opci´on del tipo “path-dependent” cuyo ejercicio se puede realizar en un conjunto de fechas discretas hasta el vencimiento de este instrumento.

2.2 Opciones tipo Path-Dependent

En esta secci´on se describir´a un m´etodo para calcular el precio de una opci´on del tipo “path-dependent” a trav´es de una t´ecnica llamada interpolaci´on lineal por pedazos. (“Piecewise linear Interpolation”).

Considere una opci´on dependiente de la trayectoria cuyo ejercicio se puede realizar en un conjunto de fechas discretas hasta el vencimiento de este instrumento. Suponga que el valor de este instrumento (prima), al tiempo 0, est´a dado por v. Sean t0 = 0 la fecha de

emisi´on de la opci´on y t1, t2, ..., tn = T una colecci´on de fechas de ejercicio de la opci´on,

donde T es el vencimiento del contrato. Considere que el precio del activo subyacente es conducido por la siguiente ecuaci´on diferencial estoc´astica:

dSt =μ(St, t) dt+σ(St, t) dWt. (2.1)

Suponga que vm es el pago de la opci´on al tiempo tm y

vm =f(Stm, t),

es decir, el pago de la opci´on depende de la trayectoria del activo subyacente hasta la fecha

tm. Con base en la metodolog´ıa de valuaci´on neutral al riesgo, se tiene que el precio de esta opci´on al tiempo tm est´a dado por:

vm = E e−rdtvm+1(Stm+1)|Stm =s , para m= 0, ..., n−1. (2.2)

(41)

aproximado por alg´un m´etodo. Una t´ecnica eficiente y que es de gran utilidad es la conocida como interpolaci´on lineal por pedazos, la cual consiste en encontrar el valor de una funci´on en un punto intermedio desconocido dados dos valores de esta funci´on. Este m´etodo es muy popular en muchas aplicaciones tecnol´ogicas tales como en fotograf´ıa digital, calibraci´on de im´agenes y registros, texturas y remuestreo. El objetivo de esta secci´on es plantear un m´etodo para calcular el valor esperado de la ecuaci´on (2.1). Este m´etodo consiste en particionar el eje real positivo en una colecci´on de intervalos y entonces aproximar el valor de la funci´on de pagos por el m´etodo de interpolaci´on lineal por pedazos. Para ello considere un conjunto de puntos a0 = 0 < a1 < ... < ap < ap+1 = +∞ y sea R0, ..., Rp

una partici´on de los reales enp+ 1 intervalos de la forma

Ri = (ai, ai+1] para i= 0, .., p.

Sivm es una aproximaci´on del valor de la opci´on en los puntosaien el pasom, esta funci´on es interpolada linealmente por pedazos, lo cual produce

ˆ

vm(s) =

p

i=0

(αmi +β m

i s)I(ai < s ≤ai+1), (2.3)

dondeI es una funci´on indicadora. Los coeficientes locales de esta interpolaci´on en el paso

m, que son los αm

i y los β m

i , son obtenidos al resolver la ecuaci´on lineal

vm(ai) = ˆvm(ai), para i= 0, ..., p−1,

donde:

αm i =

vm(ai)ai+1−vm(ai+1)ai

ai+1−ai

, (2.4)

βm i =

vm(ai+1)−vm(ai)

ai+1−ai

. (2.5)

Para el caso i=p, los valores para αm

p y βpm est´an dados por

αmp =α m

p1 y βpm=βpm−1.

Si ˆvm+1 es conocido. En virtud de (2.1), el valor esperado en (2.2) al paso m est´a dado

por la expresi´on:

vmh = E e− rdt

ˆ

(42)

por lo que al sustituir (2.3) en la ecuaci´on anterior, se tiene que:

vm =E e−rdtvm+1 Stm+1 |Stm =ak

=E e−rdt p

i=0

αmi +β m

i Stm+1 I(ai < s≤ai+1)|Stm =ak

=e−rdt p

i=0

αmi E [I(ai < s≤ai+1)|Stm =ak]

+e−rdt p

i=0

βm

i E Stm+1I(ai < s≤ai+1)|Stm =ak .

(2.6)

Si se denotan

Ak,i = E I ai < Stm+1 ≤ai+1 |Stm =ak , (2.7)

Bk,i = E Stm+1I ai < Stm+1 ≤ai+1 |Stm =ak (2.8)

entonces

vm=e−rdt p

i=0

αm

i Ak,i+e−rdt p

i=0

βm

i Bk,i. (2.9)

En las siguientes secciones se ver´an los casos particulares para el movimiento Browniano geom´etrico y el movimiento Browniano con reversi´on a la media.

2.3 Caso movimiento Browniano geom´etrico

A continuaci´on se trabajar´a con el supuesto de que el proceso en (2.1) bajo una medida de probabilidad neutral al riesgo sigue un movimiento Browniano geom´etrico de la forma:

dSt = (rδ)Stdt+σStdWt

(43)

Ak,i, dado en (2.7), satisface

Ak,i = E I ai < Stm+1 ≤ai+1 |Stm =ak

=

0

I(ai < s ≤ai+1)fStm+1|Stm (s|Stm =ak)ds

=

ai+1

ai fStm

+1|Stm (s|Stm =ak)ds

=

ai+1

0

fStm

+1|Stm (s|Stm =ak)ds−

ai

0

fStm

+1|Stm (s|Stm =ak)ds

=N d(2)k,i+1 N d(2)k,i .

La ´ultima igualdad es debida a la f´ormula de valuaci´on de Black-Scholes. Por lo tanto,

Ak,i =N −d

(2)

k,i+1 −N −d (2)

k,i , (2.10)

donde

d(2)k,i = ln

Stm

ai + r−q− 12σ2 dt

σ√dt .

Sea μ=r−q− 1

2σ2. En virtud de que Stm =ak, se sigue que:

d(2)k,i =

ln aiak +μdt

σ√dt

= −

ln akai +μdt

σ√dt .

Sea

xk,i =d(2)k,i, (2.11)

entonces

xk,i =−d(2)k,i =−−ln

ai

ak +μdt σ√dt =

ln akai −μdt

σ√dt ,

es decir,

xk,i =

ln akai μdt

σ√dt . (2.12)

Por lo tanto, a partir de (2.10) y (2.12), se obtiene

(44)

A continuaci´on se analizar´an algunos casos especiales para el ´ındice i. Cuando i = 0, se tiene que

xk,0 =

ln a0

ak −μdt σ√dt =

ln ak0 −μdt

σ√dt =

ln (0)μdt

σ√dt =−∞

ya que a0 = 0. De esta forma se obtiene

N(xk,0) =N (−∞) = 0.

Por lo tanto,

Ak,0 =N (xk,1)−N(xk,0) =N(xk,1). (2.13)

Para el caso i=p+ 1, se tieneap+1 =∞, por lo que

xk,p+1 =

ln apak+1 −μdt

σ√dt =

ln ak∞ −μdt

σ√dt =∞,

as´ı

N (xk,p+1) =N (∞) = 1,

por lo tanto

Ak,p =N (xk,p+1)−N(xk,p) = 1−N (xk,p).

De esta forma se tiene que

Ak,i = ⎧ ⎨ ⎩

N(xk,1) si i = 0,

N(xk,i+1)−N(xk,i) si 1≤i ≤p−1,

1N (xk,p) si i =p.

(2.14)

Ahora se calcular´a el segundo sumando de (2.9). De acuerdo con (2.8), se tiene que

Bk,i =E Stm+1I ai < Stm+1 ≤ai+1 |Stm =ak

=

0

sI(ai < s≤ai+1)fStm+1|Stm (s|Stm =ak)ds

=

ai+1

ai

sfStm

+1|Stm (s|Stm =ak)ds

=

ai+1

0

sfStm

+1|Stm (s|Stm =ak)ds−

ai

0

sfStm

+1|Stm (s|Stm =ak)ds

Figure

Cuadro 5.1 Precios de opciones bermudas con el movimiento Browniano geom´etrico
Cuadro 5.2 Precios de opciones “installment” bermudas con el movimiento Brownianogeom´etrico
Cuadro 5.3 Precios de opciones bermudas con el movimiento Browniano con reversi´on a lamedia

Referencias

Documento similar

En cuarto lugar, se establecen unos medios para la actuación de re- fuerzo de la Cohesión (conducción y coordinación de las políticas eco- nómicas nacionales, políticas y acciones

You may wish to take a note of your Organisation ID, which, in addition to the organisation name, can be used to search for an organisation you will need to affiliate with when you

Where possible, the EU IG and more specifically the data fields and associated business rules present in Chapter 2 –Data elements for the electronic submission of information

The 'On-boarding of users to Substance, Product, Organisation and Referentials (SPOR) data services' document must be considered the reference guidance, as this document includes the

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)

D) El equipamiento constitucional para la recepción de las Comisiones Reguladoras: a) La estructura de la administración nacional, b) La su- prema autoridad administrativa

b) El Tribunal Constitucional se encuadra dentro de una organiza- ción jurídico constitucional que asume la supremacía de los dere- chos fundamentales y que reconoce la separación