Medición del riesgo cambiario utilizando modelos Garch

36  Descargar (1)

Texto completo

(1)UNIVERSIDAD DE LOS ANDES FACULTAD DE INGENIERIA. DEPARTAMENTO DE INGENIERÍA INDUSTRIAL. MEDICIÓN DEL RIESGO CAMBIARIO UTILIZANDO MODELOS GARCH.. PRESENTADA POR: CAMILO ECHEVERRI. Bogotá, Mayo 13 de 2004.

(2) INDICE DE CONTENIDOS 1. Introducción. 2. 2. Consideraciones Teóricas 2.1 Riesgo y Volatilidad 2.1.1 Tipos de Riesgo 2.1.2 El Riesgo Financiero o de Mercado 2.1.3 Instrumentos de cobertura de Riesgo 2.1.4 Riesgo Cambiario 2.2 Modelos de Series de Tiempo 2.2.1 Modelos ARMA 2.2.2 Modelos GARCH 2.3 Valor en Riesgo (VaR) 2.3.1 Que es el VaR 2.3.2 Aspectos importantes del VaR 2.3.3 VaR Econométrico 2.4 Estudios Relacionados. 3 3 3 4 4 5 5 6 8 9 9 10 11 12. 3. Metodología. 13. 4. Estimación del modelo y cálculo del VaR 4.1 Descripción de los Datos 4.2 Desarrollo del Modelo 4.2.1 Pruebas preliminares (identificación del modelo). 4.2.2 Estimación de los Parámetros ARMA 4.2.3 Estimación del Modelo GARCH 4.2.4 Desarrollo de un modelo Alternativo 4.3 Implementación de modelo y Backtesting 4.4 Cálculo del VaR usando Promedios Móviles. 16 16 17 17 18 19 20 21 25. 5. Conclusiones y Recomendaciones. 27. 6. Bibliografía Anexo 1. Resultados de la Identificación del modelo Anexo 2 Resultados del Modelo ARMA Anexo3. Resultados del Modelo 4.3 Anexo 4. Resultados del Modelo 4.4 Anexo 5. . Estimacion del modelo con 750 obs. Anexo 6. Estimacion del modelo con 1025 obs.. 1.

(3) 1. INTRODUCCIÓN La emisión de deuda, la inversión en mercados de capitales extranjeros y el manejo de cuentas en diferentes monedas, son tan sólo algunos de los casos en los que se presenta riesgo cambiario. Este representa la posibilidad de que la tasa de cambio fluctúe, de manera que el valor de las inversiones (deudas) cambie, afectando así el retorno (costo) de las mismas. El problema no es ajeno a la realidad colombiana. Son muchas las compañías que manejan transacciones e inversiones de este tipo y por lo tanto deben ser cuidadosas en su manejo, ya que un cambio puede afectar de manera drástica las proyecciones de sus flujos de caja. Como referencia, se puede tomar la rápida devaluación que sufrió el Sucre en el año 1999, en la cual el dólar inicio en un precio de 6,000 sucres (aprox.) y alcanzó niveles de hasta 30,000. Muchas compañías que tenían deuda en dólares sufrieron las consecuencias de la terrible devaluación. En Colombia, aunque la devaluación no ha tenido saltos tan grandes, no es ilógico contemplar una situación similar. Es para este tipo de situaciones, que los agentes económicos deben tener en cuenta el riesgo cambiario y los instrumentos de cobertura que el mercado mismo ofrece (por ejemplo tasas de cambio forward u opciones). Jorion (2000), menciona algunos de los escándalos financieros más grandes que se han presentado por un mal manejo de riesgo. En algunos casos, las pérdidas reportadas han sido de hasta 1500 millones de dólares en periodos muy cortos. La importancia del presente trabajo recae en intentar encontrar una mejor estimación de los costos del riesgo a través de herramientas estadísticas y financieras diferentes a las tradicionales y más comúnmente usadas. Como se mostrará, no se pretende llegar al fin de un camino sino continuar con unos intentos que otros han hecho e incentivar a que se siga trabajando en el tema. La sección 2, presenta una breve mirada a las consideraciones teóricas que fueron tenidas en cuenta para la realización del estudio. Se cubren nociones generales de riesgo, modelos de series de tiempo (en particular ARMA y GARCH) y finalmente conceptos de Valor en Riesgo (VaR). En la sección 3 se plantea la metodología seguida para la estimación de los modelos, el cálculo del VaR y los métodos para la legitimación del modelo o backtesting. La sección 4, presenta los principales resultados y análisis de los modelos obtenidos, así como las pruebas de ajuste y legitimación del modelo. Inicialmente se presenta la serie de datos trabajada y a continuación los resultados de los modelos desarrollados. Al final de la sección se expone una aproximación alternativa para la estimación de la varianza utilizando el método de promedios móviles. Finalmente la sección 5, expone las conclusiones del trabajo. Se deja claro que los resultados obtenidos no fueron los esperados y se plantean algunas sugerencias para estudios posteriores relacionados.. 2.

(4) 2. CONSIDERACIONES TEÓRICAS 2.1 Riesgo y Volatilidad En esta sección se discutirán los aspectos básicos del riesgo. Entre ellos, qué es, por qué es importante y como se mide. Se revisará así mismo una posible clasificación para los tipos de riesgo y, finalmente, se discutirá sobre algunos de los instrumentos de cobertura existentes en el mercado.. 2.1.1 Tipos de Riesgo El riesgo se presenta cuando no podemos conocer con total seguridad (es decir con probabilidad 1), cuál será el resultado (en el futuro) de un movimiento hecho en el presente. Esta incertidumbre, asociada a casi cualquier actividad, se presenta gracias al carácter dinámico e impredecible del mundo. Asociada inherentemente a la noción de riesgo, está la aplicación de la probabilidad y la estadística. Las herramientas proporcionadas por estas disciplinas, son de gran importancia ya que permiten hacer preguntas como “¿Cuál es el comportamiento, en un sentido probabilístico, de los llamados eventos indeseados?” o ¿”Como debo yo prepararme para estos eventos”? La respuesta a estas preguntas, nos puede dar una idea del nivel de riesgo asumido por adoptar una posición financiera. Para los sectores productivos, el riesgo es algo que viene con cada decisión. La causa de esto es que algunas variables, como la respuesta de los consumidores a una estrategia, los cambios en las regulaciones y en especial el comportamiento de las variables del mercado, son de gran importancia e impredecibles por naturaleza. Jorion (2001) sugiere clasificar el riesgo en 5 categorías: riesgo de mercado, riesgo de crédito, riesgo de liquidez, riesgo operativo y riesgo legal. Este trabajo únicamente contemplará el riesgo de mercado, sin embargo, es importante no olvidarse de la existencia de los demás, a la hora de diseñar una estrategia de cobertura de riesgo global. Jorion (2000) define el riesgo de mercado como aquel que “se deriva del cambio en los precios de los activos y pasivos financieros (o volatilidades) y se mide a través de los cambios de las posiciones abiertas”. Como se verá más adelante existen instrumentos de cobertura contra algunos de estos riesgos, y se ilustrará cuales son los usos posibles de ellos. Para que una compañía pueda decidir sobre sus estrategias de cobertura, es deseable que el riesgo pueda ser cuantificado. Quizás la medida más importante para cuantificar el riesgo (o la volatilidad), es la desviación estándar de los retornos del activo, financiero o real, sobre el cual se tiene la posición expuesta. Al usar esta medida, se debe ser conciente que tanto los retornos por encima de la media como por debajo, pueden aumentar la volatilidad del activo. Por esto, Jorion (2001) explica que los administradores de riesgo deben estar atentos a los movimientos del mercado anormalmente bajos y altos, ya que los dos implican un alto nivel de riesgo. La preocupación por el riesgo se basa en el supuesto que todas las personas somos en mayor o menor grado aversas al riesgo. Esto último, se traduce en que frente a dos activos con la misma rentabilidad se escogerá el de menor riesgo. La volatilidad, medida con la desviación estándar es, en general, percibida como algo negativo. Los inversionistas, tienden a preocuparse por las ganancias/pérdidas menores/mayores a las esperadas, concentrándose únicamente en lo que es conocido como el downside risk (riesgo hacia abajo).. 3.

(5) Tradicionalmente la varianza de una variable aleatoria ha sido estimada a través de la n. expresión:. ∑ i =1. (x. − x) . Sin embargo, en muchos casos, el asumir una varianza n −1 2. i. constante, como la estimada en la fórmula anterior, parece ser inapropiado. Como alternativa, existen métodos sencillos de estimación, como los promedios móviles o promedios móviles exponenciales (EWMA), los cuales, bajo circunstancias especiales, pueden traer buenos resultados (Véase Alexander 2001). Sin embargo, existen múltiples métodos más sofisticados, que se aproximan al cálculo de la volatilidad utilizando más información, y que pueden presentar un mejor ajuste. En el cálculo (y la predicción) de la volatilidad de un activo, la selección de un modelo puede afectar de manera drástica los resultados obtenidos por lo que la preocupación, de elegir un buen modelo, nace de la necesidad de tener un conjunto de información que pueda ser usado en pro de tomar mejores decisiones de inversión. Se espera que si se tiene en cuenta más información y, por supuesto, datos sólidos, los resultados del análisis serán mejores.. 2.1.2 Riesgo Financiero o de Mercado Como es de imaginarse, la mayoría de las decisiones de un agente económico se verán influenciadas por el comportamiento de las variables del mercado. Cualquier movimiento en alguna de ellas es totalmente impredecible e incontrolable y por lo tanto los actores del mercado no pueden hacer nada para detenerlos. Los que sí pueden hacer es tomar posiciones sobre activos financieros como los derivados que disminuyen su exposición al riesgo. Los movimientos en las tasas de interés (que no serán trabajados en este estudio) y en las tasas de cambio, son solo dos de las posibles fuentes de exposición fácilmente reconocibles.. 2.1.3 Instrumentos de Cobertura de Riesgo A raíz de algunas crisis financieras de los 70’s y 80’s (como la caída de Wall Street en Octubre de 1987) y de un cambio en el comportamiento de las variables de mercado (como las tasas de interés), se creó la necesidad de tener instrumentos financieros especialmente diseñados para suavizar los efectos de la volatilidad de los mercados. Un ejemplo de estos instrumentos son los derivados Los derivados se pueden definir como instrumentos financieros cuyo valor se deriva de los valores de otras variables subyacentes (Hull 2003). Por ejemplo, las tasas de cambio “forward”, se derivan de la tasa de cambio spot (o actual). Los instrumentos derivados básicos son 4: opciones, Forwards, swaps y futuros. Se dará un breve descripción de los primeros tres, ya que son comúnmente usados para cubrir riesgo cambiario. • Forwards: Los contratos forward son acuerdos entre dos partes para comprar o vender un activo en una fecha futura, a un precio acordado en el mercado Spot. • Swaps: Lo swaps son acuerdos entre dos partes para hacer un intercambio de flujos de caja en el futuro. Los dos tipos de swap más comunes son los Swaps de tasa de interés y los swaps de tasa de cambio (Hull 2003). • Opciones: Las opciones, como su nombre lo dice, son instrumentos que dan la opción a su tenedor de comprar (opciones call) o vender (opciones put) un activo en una fecha futura a un precio pactado (Precio Strike o de ejercicio).. 4.

(6) Como se puede ver la intención de estos contratos es garantizar un “precio” futuro del activo subyacente, lo cual elimina parte del riesgo, sin embargo es prácticamente imposible hacer una cobertura total. El riesgo crediticio o el riesgo de evento, por ejemplo, existe en la mayoría de las situaciones y no siempre es posible hacer una cobertura de los mismos. Este tipo de instrumentos, son atractivos para diferentes actores de mercado, divididos según Hull (2003) en tres tipos: cubridores de riesgo, especuladores y arbitrajistas). Aunque escándalos como los de Barings, Metalgesellshaft y Daiwa, -los cuales generaron pérdidas excediendo el billón (mil millones) de dólares-, fueron atribuidos al uso de los derivados, muchos argumentan que hubo un mal uso de ellos. Los derivados no son instrumentos que se utilicen por si mismos. Por el contrario, deben ser cuidadosamente administrados para no ocasionar pérdidas como las mencionadas (Jorion 2002).. 2.1.4 Riesgo Cambiario El Riesgo cambiario, como su nombre lo dice, es aquel resultante de tener una posición abierta y expuesta en una moneda extranjera. En Colombia la exposición al riesgo es un factor común para aquellos que importen o exporten ya que parte sus deudas o ingresos serán en moneda extranjera. El mercado cambiario ha cambiado mucho en Colombia1. Actualmente se cuenta con un régimen de libre flotación. No obstante, existen unos instrumentos, llamados opciones cambiarias de control de volatilidad, que el Banco de la Republica (BR) puede usar para controlar la volatilidad de la tasa de cambio. Aunque esto parece ir en contra del régimen de libre flotación, las condiciones para que el banco ofrezca estas opciones son muy específicas, y han sido ejercidas en un número limitado de veces. Aunque este elemento se puede incluir en un modelo de volatilidad, esto no se hizo para el presente proyecto. Sin embargo sí queda planteado como una sugerencia para futuros trabajos. La tasa de cambio representativa de mercado (TCRM), es calculada y publicada a diario por el Banco de la República. Es calculada como el precio promedio de las operaciones interbancarias en dólares del día anterior. Esta tasa se utiliza en múltiples operaciones bancarias y es la única fuente pública de la historia de la tasa de cambio.. 2.2 Modelos de Series de Tiempo En el estudio de un fenómeno como el precio de un activo financiero, o los retornos asociados al mismo, existe un amplio rango de herramientas estadísticas y probabilísticas útiles para aproximarse a su comportamiento “real”. Los modelos pueden ser divididos en modelos de tiempo discreto y de tiempo continuo. En los modelos de tiempo continuo, como por ejemplo el movimiento browniano, se asume que la variable aleatoria puede cambiar su estado en cualquier momento. Por otra parte los modelos de tiempo discreto, como los de series de tiempo, son procesos estocásticos, en los que la variable solo puede cambiar su valor en puntos definidos e igualmente distanciados en el tiempo. 1. A partir de septiembre de 1999, el banco de la república, decidió liberar la banda cambiaria, que regulaba el precio del dólar.. 5.

(7) La selección del modelo para un proceso estocástico, tiene tanto un componente teórico como uno empírico. El componente teórico implica utilizar toda la información “preliminar” posible para la especificación del modelo (por ejemplo ¿se espera que el modelo tenga tendencia?). La parte experimental representa el modelo en particular escogido por cada investigador. Así, aún cuando dos investigadores pueden estar de acuerdo en modelar un proceso con tendencia determinística, es posible que los modelos seleccionados por cada uno de ellos no sean iguales. En el presente estudio, en algunos casos, la especificación de los modelos propuestos no coincide con la de otros modelos utilizados tradicionalmente (como por ejemplo el propuesto por la metodología de RiskMetrics™).. 2.2.1 Modelos ARMA Los modelos ARMA (p,q) (Autoregressive(p) – Moving Average(q)) son una categoría especial de los modelos de series de tiempo en los que se explica el comportamiento de la variable aleatoria a través de rezagos de si misma y de una serie de choques propios de cada periodo. Los modelos ARMA han sido utilizados para una gran variedad de aplicaciones, entre las cuales se cuentan el VaR econométrico. El desarrollo de modelos ARMA se puede dividir en tres etapas: la identificación, la estimación y la realización de pronósticos. En la etapa de identificación se buscan indicios de qué tipo de modelo podría ser apropiado para el proceso (aunque algunas veces es poco lo que se puede inferir). En la etapa de identificación del modelo, es importante tener claro los conceptos de función de autocovarianza (y función de autocorrelacion (ACF). Estas dos funciones representan la covarianza (γi) y correlación (ρi) respectivamente, de la variable xt con xt-i. La ACF es una de las herramientas más útiles en la identificación de los modelos ARMA. Así mismo, existen otras herramientas como la función de autocorrelacion parcial (PACF), la función de autocorrelacion parcial extendida (véase Wei 1989) y el SCAN (Smallest Canonical Correlation) igualmente útiles en la identificación. En los modelos de series de tiempo es importante hacer una separación entre los modelos estacionarios y los no estacionarios. Se dice que un modelo es débilmente estacionario, si la media y las funciones de autocovarianza (primero y segundos momentos) no cambian a través del tiempo (expresado en 3.1). Por otra parte, la estacionariedad fuerte se cumple si la función de densidad de probabilidad es invariante a través del tiempo. Como se puede ver la estacionariedad débil es una condición menos restrictiva.. [ ] Cov[x , x ] = Cov[x E [xt ] = E xt + j = µ t. t+ j. ∀j t +k. ]. +, x t + k + j = γ j. ∀k , j. (3.1). El concepto de estacionariedad débil es de suma importancia ya que los modelos ARMA suponen este tipo de comportamiento en el proceso que originó los datos. Si los datos no provienen de un proceso estacionario, entonces se deberá hacer transformaciones a los datos con el fin de obtener un comportamiento estacionario. Un ejemplo de no estacionariedad al que se le debe dar atención especial se presenta cuando un modelo tiene un tendencia estocástica. Aunque en muchas series se ve claramente que el proceso presenta una tendencia, la dificultad está en determinar si esta tendencia es de carácter determinístico o estocástico. Si se cumple la primera,. 6.

(8) entonces podemos hablar de un proceso estacionario alrededor de una tendencia. Sin embargo si la tendencia sigue un comportamiento aleatorio, entonces el proceso no es estacionario. Cuando existe una tendencia aleatoria, se dice que el proceso tiene raíces unitarias. En caso que se presente una raíz unitaria, los modelos ARIMA (la “I” representa el orden de diferenciación o integración) proporcionan una solución. Existen (ver Hamilton, 1994) pruebas para detectar la presencia de una raíz unitaria en los datos, y estas deben ser de las primeras realizadas en el desarrollo de modelos de series de tiempo, con el fin de saber si un modelo ARMA es adecuado para los datos originales o si se debe hacer alguna diferenciación previa. Las diferencias en las características de un modelo que posee tendencia estocástica y uno que no la tiene, son abismales. Por lo tanto, la discusión teórica de si un proceso tiene raíz unitaria, es fundamental para el análisis del mismo. Debido a que en este trabajo no fue necesario diferenciar la serie, no se profundiza en la teoría de los modelos ARIMA, sin embargo se puede consultar Hamilton (1994) o Box & Jenkins (1994)). Antes de ilustrar los modelos ARMA, se deben introducir dos conceptos importantes: 1) el concepto de ruido blanco y 2) el operador backshift. Se dice que una serie de variables aleatorias se comportan como ruido blanco (ocasionalmente denotado como WN (0, σε2)) si tienen media cero y son independientes entre si. El operador backshift (B) (también llamado operador de rezago o lag operator (L)), al ser aplicado a una serie xt cumple lo siguiente: B(xt) = xt-1. Algunas propiedades importantes de este operador pueden ser consultadas en Hamilton (1994). Los modelos AR(p) (autoregresivos de orden p), explican a xt a través de sus rezagos y un choque (o innovación) aleatorio propio del periodo. Se pueden representar de la siguiente forma: xt = φ0 + φ1xt-1 + φ2xt-2 + …. + φpxt-p + εt. xt = φ0 + φ1B(xt) + φ2 B2(xt) + φ3 B3(xt) …. + φp Bp(xt) + εt (3.2) φp(B)xt = εt Donde εt corresponde a la innovación para el periodo t que se comporta como ruido blanco con varianza incondicional constante (WN (0, σε2)). Los valores de φi, corresponden a los parámetros que acompañan los términos Autoregresivos de la ecuación 3.2. φp(B) es un polinomio en B de orden p. Un proceso AR(p), es estacionario siempre y cuando las raíces del polinomio φp(B) caigan fuera del circulo unitario. Más información al respecto puede ser consultada en Hamilton (1994) y Box & Jenkins (1994) Por otra parte los modelos MA(q), (promedios móviles), explican a xt a través de las innovaciones de periodos anteriores y de una innovación propia del periodo t. Pueden ser representados de la siguiente manera: xt = θ0 + εt + θ1 εt-1 + θ2 εt-2 + θ3 εt-3 +…+ θq εt-q. Donde εt ~ WN (0, σ2) xt = θ0 + εt + θ1B(εt) + θ2 B2(εt) + θ3 B3(εt) …. + θp Bp(εt) (3.3) xt = θq(B) εt Donde εt se distribuye como ruido blanco y corresponde a la innovación para el periodo t. Los valores de θj corresponden a los parámetros –estimados- que acompañan los términos de promedios móviles de la ecuación 3.3. θq(B) es un polinomio en B de orden q. Los modelos MA(q) (finitos), siempre son estacionarios. Muchos procesos combinan características de los modelos 3.2 y 3.3. A raíz de esto se desarrollan los modelos ARMA(p, q), representados por: xt = φ0 + φ1xt-1 + φ2xt-2 + … + φpxt-p + εt + θ1 εt-1 + θ2 εt-2 +…+ θq εt-q xt = φ0 + φ1B(xt) + φ2 B2(xt) + …+ φp Bp(xt) + εt + θ1B(εt) +…+ θp Bp(εt) (3.4). 7.

(9) φp(B)xt = φ0 + θq(B) εt Donde se debe aplicar la notación de las ecuaciones 3.2 y 3.4. La estacionariedad del modelo ARMA, depende únicamente de la parte AR del modelo y por lo tanto se da si las raíces del polinomio característico están fuera del círculo unitario.. 2.2.2 Modelos GARCH Anteriormente se explicó que los modelos ARMA, asumen que la varianza y la media son constantes en el tiempo. De hecho en esto se fue un poco impreciso ya que lo que no debe variar en el tiempo es la media y la varianza incondicional (o de largo plazo). La media condicional está dada por E xt | xt −1, xt − 2 , xt − 3 .... .. [. ]. En 1982, Robert Engle, ganador del premio Nóbel en 2003, intentó modelar la inflación del Reino Unido usando un modelo cuya varianza condicional (i.e. la varianza calculada usando la información disponible hasta el momento t) variaba en el tiempo. Esto significa que la varianza de un periodo puede ser calculada de manera más precisa ya que utiliza la información disponible hasta dicho periodo. Para ello, Engle propone que las innovaciones del proceso son función de la varianza condicional (ht), la cual a su vez, puede ser expresada a mediante rezagos de los choques: ε t = ht a t (3.5). ε t2 = (α 0 + α1ε t2−1 + α 2ε t2− 2 + ... + α 2ε t2− 2 )at2 ht = Var (ε t | xt −1 , xt − 2 ...) = α 0 + α 1ε t2−1 + α 2ε t2− 2 + ... + α mε t2− m. Donde εt-i, representa el i-ésimo rezago de la innovación y at es una serie que se comporta como ruido blanco con varianza constante. Las ecuaciones anteriores caracterizan lo que es conocido como un modelo ARCH(m) (Autoregressive Conditional Heteroskedasticity de orden m). Este tipo de modelos pueden ser utilizados para modelar series en las que se presentan agrupamientos en la volatilidad o en que la información pasada puede reflejar la volatilidad presente y futura. Se puede ver en el modelo que una innovación “fuerte” en el periodo t-1 (i.e. un valor alto de εt-1), hará que la varianza de εt tome un valor más alto que si la innovación hubiese sido cercana cero. Al provocar un aumento en la varianza, una innovación grande en valor absoluto, tiende” a ser seguida por una innovación de magnitud similar pero no necesariamente del mismo “signo”. La razón es que una mayor varianza representa mayor probabilidad de obtener valores lejanos a la media (Tsay, 2002) En 1986 Tim Bollerslev sugirió un modelo para la varianza condicional que tuviera un componente adicional. El modelo para los εt, incluiría la varianza rezagada. De tal forma que los errores al cuadrado tomaban la forma de un ARMA. El modelo planteado fue el siguiente:. ε t = ht at ht = α 0 + α 1ε t2−1 + α 2ε t2− 2 + ... + α m ε t2− m + δ 1ht −1 + δ 2 ht − 2 + ... + δ r ht − r (3.6) Donde, como se explicó antes, εt es la innovación del proceso estudiado y ht representa su varianza condicional. El modelo anterior fue llamado GARCH (r,m) (Generalized Autoregressive conditional Heteroskedasticity). Aunque el modelo GARCH parece ser equivalente a un modelo ARMA para ht, Hamilton muestra que en realidad, εt2 es modelado como un ARMA (p, r) donde p= max (r, m).. 8.

(10) Los modelos GARCH tienen ventaja sobre los ARCH tradicionales en que un modelo ARCH de órdenes altos puede ser representado de una manera más parsimoniosa usando un modelo GARCH (Enders, 1995). Una condición básica para los modelos GARCH es que ninguno de los parámetros sea negativo, esto con el fin de que al estimar o pronosticar la varianza no se obtengan valores negativos para la misma.. αi ≥ 0 δi ≥ 0. (3.7). Al igual que para la media (modelos ARIMA), es posible especificar modelos no estacionarios para la varianza. Las condiciones para garantizar la estacionariedad son que las raíces del polinomio característico de la varianza estén por fuera del círculo unitario. Por otra parte si se cumplen las condiciones dadas por 3.7, la desigualdad 3.8, presentada a continuación, expresa la condición para garantizar la estacionariedad de la varianza. m. r. i =1. j =1. ∑α i + ∑ δ j < 1. (3.8). Si la suma de los coeficientes es igual a 1 entonces el proceso de la varianza sería no estacionario. Este tipo de procesos se conocen como IGARCH. De los modelos GARCH se han derivado gran cantidad de modelos que tratan de corregir algunas de las debilidades de los modelos inicialmente desarrollados. Por ejemplo Tsay (2002) observa que en las series financieras se puede ver claramente que las respuestas ante un choque positivo (εt > 0), no son iguales a las respuestas ante un choque negativo (εt <0), para lo cual sugiere modelos de volatilidad asimétrica.. 2.3 Valor en Riesgo (VaR) 2.3.1 ¿Qué es el VaR? La alta gerencia de las compañías no siempre tiene el tiempo de analizar cada una de las fuentes de riesgo a las que está expuesta. Más aún, la desviación estándar como medida de volatilidad no siempre es fácil interpretar. El VaR surge como una respuesta a la necesidad de cuantificar el riesgo en una sola medida fácil de entender. En pocas palabras el VaR es la máxima pérdida que se puede presentar en un horizonte de N días con un nivel de confianza de (100-α)%. Como se ve en la definición anterior, el VaR tiene dos parámetros que deben ser definidos: 1) El horizonte de tiempo y 2) el nivel de confianza. Los dos serán definidos por cada compañía de acuerdo a sus posiciones abiertas, el tipo de mercado y en general sus necesidades. Por ejemplo, el Comité de Basilea eligió y reguló que los bancos deben tener en reserva al menos tres veces su VaR para un horizonte de tiempo de 10 días, con un nivel de confianza de 99%. J.P. Morgan en su metodología de Riskmetrics utiliza un VaR del 95% para 1 día. El retorno de una inversión, dependerá de los valores en el futuro que tome una variable particular (la tasa de interés, la tasa de cambio, el precio del café entre otras). Sin embargo, como dichos valores no son conocidos con anterioridad, deben ser modelados como variables aleatorias. Debido a que el VaR no es más que la peor pérdida que se tendrá con un nivel de confianza, se puede deducir que para calcularlo, se debe encontrar la distribución de las pérdidas, la cual depende de la(s) variable(s) de mercado, y obtener el α-ésimo percentil de la distribución. De allí que la selección. 9.

(11) de una modelo para el comportamiento de dichas variables aleatorias sea crucial en el cálculo del VaR. El Valor en Riesgo de una posición sobre un activo financiero puede ser aproximado de dos maneras: 1) Encontrar el precio del activo que no será excedido un α% de las veces en el horizonte de tiempo para el cual se estima el VaR. 2) Encontrar el retorno necesario para que el cambio en el valor del activo resulte en el precio del punto anterior. La diferencia de los dos enfoques está en que, en el primer caso, se debe encontrar el proceso que rige el precio del activo y, en el segundo, se debe encontrar la distribución de los retornos. Por facilidad y conveniencia es común trabajar con los retornos. Sin importar el enfoque escogido, se deben hacer con anterioridad los supuestos distribucionales necesarios. Entre las aproximaciones más comunes a la estimación del VaR, están el método delta-normal, la aproximación por un modelo estadístico de covarianzas, el método de simulación histórica y la simulación de montecarlo. En el presente trabajo se utilizó una modificación de la aproximación tradicional de montecarlo. El cálculo del VaR, utilizando simulación de Montecarlo, es uno de los métodos que proporciona resultados más precisos. La simulación de Montecarlo, aunque es un método con resultados muy satisfactorios, tiene dos problemas: 1) Es “costoso” a nivel computacional, en especial para portafolios de inversión grandes y, 2) una equivocación en la especificación del modelo, hará que los resultados de la simulación sean inútiles (aunque esto es una debilidad de casi todos las aproximaciones).. 2.3.2 Aspectos importantes del VaR Como se mencionó anteriormente, el precio de un activo al final de un periodo, se puede calcular teniendo el retorno y el precio inicial. Una pérdida, por lo tanto, se puede expresar como un retorno negativo. Por otra parte, los retornos pueden ser calculados de dos maneras: Retornos Aritméticos Retornos Geométricos. rt +1 =. Pt +1 − Pt Pt. ⎛P ⎞ rt +1 = Ln⎜ t +1 ⎟ ⎝ Pt ⎠. (3.9). Jorion (2000) y otros autores sugieren trabajar con los retornos geométricos ya que trae ventajas como las siguientes: • El retorno de n días puede ser obtenido como la suma de n retornos diarios anteriores (3.10). Esta propiedad no se cumple para los retornos aritméticos.. ⎛P rndias = Ln⎜⎜ t + n ⎝ Pt •. ⎞ ⎟⎟ = rt +1 + rt + 2 + rt +3 + ............ + rt + n ⎠. (3.10). Al usar retornos aritméticos, si se asume que los retornos siguen una distribución t o normal (como es común hacerlo), entonces la cola inferior de la distribución admite la posibilidad de tener precios negativos, lo cual no ocurre con los retornos geométricos.. Habiendo dicho esto, se debe reconocer que el autor señala que cuando los retornos son pequeños, las diferencias entre los dos enfoques son no son muy grandes. Aun así, para este estudio se decidió usar retornos geométricos ya que las dos propiedades anteriores son muy importantes y deseables.. 10.

(12) Como se mencionó anteriormente es muy importante hacer una serie de supuestos distribucionales sobre los retornos del activo. La mayoría de los métodos de cálculo del VaR tienen como supuestos: 1) la media de los retornos (diarios) es cero, 2) la varianza es constante a través del horizonte de tiempo estudiado y 3) los retornos no están correlacionados. De igual manera, es común asumir que los logaritmos de los retornos se distribuyen normalmente. Sin embargo como han mostrado varios estudios, los retornos de muchos activos muestran un comportamiento distribucional que difiere de la normalidad. En el presente trabajo se pretende relajar algunos de esos supuestos para intentar obtener mejores resultados. Saliéndose un poco de las consideraciones estadísticas, es importante revisar algunas de las implicaciones económicas del VaR. Uno de sus usos más populares es dar a los entes reguladores una herramienta para establecer niveles de efectivo mínimos que deben tener las entidades financieras, como consecuencia de tener una posición de exposición al riesgo. La idea es que si se presenta alguna eventualidad en el mercado, la entidad financiera tenga forma de responder frente a los gastos o costos imprevistos. Para cálculos del VaR en este trabajo, se deberá asumir que un agente económico liquidará una posición en dólares a la TCRM. El valor de tener una medida como el VaR, no solamente dependerá del número de veces que el retorno real excede al VaR (que no sea mayor a α), sino también de que las cantidades que se le están exigiendo a la entidad, no sean más altas de lo realmente necesario. El objetivo del VaR no es impedir a una compañía (o entidad financiera), en el desarrollo de sus negocios mediante la congelación de capital, sino que esté preparada para situaciones de crisis extremas. Según lo anterior, la superioridad de un modelo de VaR sobre otro, dependerá entonces también del nivel de exactitud con el que las pérdidas reales superan al VaR.. 2.3.3 VaR Econométrico El VaR econométrico es una más de las aproximaciones al cálculo del VaR. Este método supone que los retornos siguen un proceso ARMA (p, q) (donde generalmente los ordenes son muy bajos), y que los errores siguen un proceso GARCH (r, m). Este proceso intenta modelar el carácter “cambiante” de la serie tanto en su media como en su varianza. El modelo supone lo siguiente: p. q. i =1. j =1. rt = φ 0 + ∑ φi rt −i + ∑ θ j ε t − j +ε t. ε t = ht at .. (3.11). r. m. i =1. j =1. ht = α 0 + ∑ α i ε t2−i + ∑ β j ht − j Donde ht representa la varianza del error. Para calcular el VaR econométrico, inicialmente se obtienen pronósticos de la media y de la varianza de la serie. Teniendo un estimado de los parámetros, y asumiendo una distribución –normal por ejemplo- se encuentran el percentil deseado y por lo tanto el VaR. Al realizar el procedimiento anterior, se asume que E ht = E [ht ] , lo cual,. [ ]. como hace notar Alexander (2001), no es una relación valida. Si se asume que las innovaciones se distribuyen de manera normal, se debe calcular el valor “z” tal que P[r ≤ z ] = 1 − α . Para un nivel de confianza a dado y un horizonte. 11.

(13) de tiempo de un periodo, se puede calcular el VaR econométrico de la siguiente manera: p. q. i =1. j =1. rt [t + 1] = φ 0 + ∑ φi xt +1−i + ∑ θ j ε t +1− j m. ht [t + 1] = α 0 + ∑ α i ε i =1. r. 2 t +1−i. (3.12). + ∑ δ j ht +1− j j =1. Donde las expresiones anteriores son pronósticos para el retorno y la volatilidad de la serie respectivamente. Si se asume que los at -el ruido blanco del proceso- se distribuyen de forma normal, entonces la distribución condicional de rt+1 dado la información en t es: N (rt [t+1], ht [t+1]) (Tsay, 2002). Teniendo lo anterior en cuenta, calculamos el VaR a un día de la siguiente forma: Var (α%) = rt [t+1] + zα* (h t[t+1])1/2 *X. Donde X es la posición abierta o expuesta y zα el a-ésimo percentil de la distribución normal estándar.. 2.4 Estudios Relacionados En el campo de estudio del valor en riesgo así como de los modelos de volatilidad estocástica, es realmente vasto el número de estudios y teorías las que se han desarrollado. Muchos han descubierto la importancia de este tema y de su gran aplicabilidad. En materia de los modelos GARCH, se pueden consultar temas como modelos de volatilidad no simétrica (como los EGARCH o TARCH), GARCH multivariado, o modelos no estacionarios como los IGARCH2 entre otros. Estos modelos han sido aplicados en una variedad de aplicaciones y particularmente en el campo de las finanzas han tenido gran acogida. De hecho, una de las metodologías más usadas en el cálculo del VaR (propuesta por J.P. Morgan en su documento de RiskMetrics™ en el año de 1994), hace uso de modelos no estacionarios para la varianza. En particular se seleccionó el modelo EWMA (IGARCH (1,1) con término constante igual a 0). La compresión y aplicación de cada uno de los modelos mencionados requiere un estudio cuidadoso de los mismos, lo cual esta fuera del alcance de este trabajo. En todo caso, lo que se quiere ilustrar en esta sección es que existen modelos GARCH que intentan ajustarse a las necesidades de los investigadores en diferentes situaciones. En materia de valor en riesgo los estudios también son numerosos y de todas las complejidades. Hoy en día se están reevaluando los supuestos básicos de los modelos tradicionales para el cálculo del VaR. La mayoría de los estudios se centran al alrededor del supuesto de normalidad de los retornos. La teoría del valor extremo, por ejemplo, intenta modelar un comportamiento diferente al de una distribución normal en las colas. Este tipo de estudios han sido de crucial importancia, ya que como se vio anteriormente el cálculo del VaR se realiza calculando los valores de la distribución en las colas. Otro tipo de estudios que se ha realizado, se centra alrededor de la aplicación de los diferentes modelos del tipo GARCH para calcular el VaR. Al igual que los anteriores, estos modelos tratan de modelar la distribución “real” de los retornos desde un enfoque diferente, mediante un cambio en los parámetros de la distribución (i.e. la varianza) a través del tiempo. Finalmente, otro campo en el que se han realizado un número considerable de estudios, es en la búsqueda de funciones de 2. En años recientes se han propuesto los modelos llamados FIGARCH en los cuales el orden de integración de la. varianza ya no es necesariamente entero.. 12.

(14) pérdida que tengan propiedades estadísticas deseables. Las funciones de pérdida son utilizadas para medir la eficacia de un modelo de VaR. La definición de una función para la evaluación de un modelo es crítica para entidades reguladoras, quienes tienen la tarea de establecer los niveles de seguridad de las entidades financieras.. 3. METODOLOGÍA De los 1089 datos de la TCRM disponibles hasta marzo 18 de 2004, se utilizaron 925 para estimar el modelo. Los datos del 926 al 1025 fueron utilizados para probar la bondad del modelo. El trabajo se dividió en dos etapas. Primero se realizaron dos de los tres pasos de cualquier estudio de series de tiempo (identificación y estimación). Una vez terminada esta etapa se prosiguió a calcular el VaR y a realizar el backtesting o legitimación del modelo (pruebas sobre el modelo para saber cuán adecuado fue). PRIMERA ETAPA: DESARROLLO MODELO PARA LA SERIE Identificación de las características principales de la serie. En esta etapa se llevó a cabo los estudios básicos que se deben realizar al trabajar con una serie de tiempo. Se realizaron pruebas de raíz unitaria (específicamente el test de Dickey & Fuller aumentado), revisión de las ACF, PACF y pruebas sobre ruido blanco. Los resultados del test de Dickey & Fuller (ADF) son de vital importancia ya que, como se estableció en el marco teórico, los modelos no estacionarios deben ser tratados de manera totalmente diferente. Una vez obtenidos estos resultados se prosiguió a revisar si la serie a trabajar, era en sí ruido blanco o si era necesario plantear un modelo más “complejo”. Para ello también se calculó la función de autocorrelacion simple autocorrelación parcial (normal y extendida) y el SCAN con el fin de que sugerir un modelo preliminar para la serie. Para la realización de estas pruebas se utilizó SAS. Estimación del Modelo. Para la estimación del modelo inicialmente se quiso trabajar con SAS v8.0, desafortunadamente el proc autoreg (procedimiento utilizado para estimar los modelos GARCH), no permite la inclusión de términos MA para el modelo de la media. Esto, como se verá mas adelante, presenta un problema para el estudio ya que la inclusión de términos MA era necesaria. Por esto fue necesario utilizar el programa EViews 3.0 para la estimación de los modelos. La estimación del modelo fue realizada en dos etapas. En la primera se buscó un modelo para la media de la serie (i.e. un modelo ARMA) que cumpliera adecuadamente los requerimientos estadísticos establecidos. Una vez se identificó cual era el modelo ARMA, se lo utilizó para estimar un modelo GARCH. Para el modelo de la varianza, en la segunda etapa se reestimaron conjuntamente todos los parámetros del modelo (incluyendo los términos ARMA). Los criterios básicos en la selección del modelo fueron los siguientes: residuales que se comporten como ruido blanco, significancia de los parámetros y el menor Akaike Information Criterion (AIC). La explicación de los criterios se presenta a continuación. En la especificación de un modelo de tipo econométrico, uno de los requisitos más importantes es que los residuales se comporten como variables aleatorias independiente e idénticamente distribuidas (IID) con media cero y varianza incondicional constante. La razón para esperar este tipo de comportamiento, obedece a que los residuales o las innovaciones no deben contener información relacionada con la serie en periodos rezagados. Es por esto que en la estimación de un modelo es. 13.

(15) muy importante verificar que los residuales (i.e. los estimados de las innovaciones) se comporten como ruido blanco. Para verificar esto se revisan las ACF y PACF de los residuales y se calculan estadísticos sobre su significancia. En teoría un modelo cuyos residuales no se comportan como ruido blanco puede ser mejorado incluyendo o eliminando términos. Como se verá mas adelante, este criterio contrapone en algunos aspectos los modelos econométricos encontrados con la posición de algunos autores sobre el comportamiento de una serie de retornos (correlación serial de orden bajo o ausencia de la misma) (véase Tsay, 2002). En cuanto a la significancia de los parámetros, en general, se trabajó con un nivel de confianza del 5%. Es decir un p-value que estuviera por encima del 5% haría que el modelo presentado no fuera considerado, ya que existía evidencia estadística para afirmar que al menos uno de los parámetros no era significativo. Finalmente, para probar el ajuste global del modelo se usó el Akaike Information Criterion. El AIC es una medida basada en la función de verosimilitud del modelo. Es muy aplicada en los modelos de series de tiempo para seleccionar entre dos modelos que “compitan” entre si. El modelo que tenga un AIC menor será un mejor candidato. Encontrar un modelo que cumpliera todos estos requisitos no fue algo fácil. Debido a que la estimación de un modelo GARCH se basa en la optimización de una función no lineal (i.e la de verosimilitud), al cambiar la solución inicial y los criterios de convergencia, la solución óptima variaba radicalmente, tanto en los valores de los parámetros como en sus p-values. Es posible encontrar situaciones en que los resultados estadísticos empíricos no estén de acuerdo con lo que sugiere la teoría y es entonces cuando el papel de investigador o analista se vuelve crucial. En este trabajo inicialmente se buscó un modelo que satisficiera los criterios estadísticos (aunque no hubiera una interpretación económica clara) y posteriormente se comparó con un modelo similar al de RiskMetrics™, el cual es frecuentemente utilizado por varios autores y tiene una interpretación económica clara. Típicamente la tercera etapa de un trabajo con series de tiempo sería el pronóstico de los retornos y la varianza de la serie. Para este trabajo se presentaron una serie de dificultades que impedían la aplicación de los pronósticos. SEGUNDA PARTE: CÁLCULO DEL VaR Para calcular el VaR a un horizonte de tiempo de n días se necesitaría conocer la distribución del retorno para ese periodo. Al usar la expresión 3.10, se ve que el retorno para n días se obtiene como la suma de variables aleatorias, para lo cual es importante recordar las siguientes relaciones:. E [X + Y ] = E [X ] + E [Y ]. Var [X + Y ] = Var [ X ] + Var [Y ] + 2Cov[x, y ]. En el caso más “sencillo”, el cálculo del VaR a n días, asume normalidad de los retornos. La media se calcula como nµ (donde µ es la media de los retornos diarios) y la desviación estándar se calcula usando la regla de la raíz cuadrada:. σ n _ días = σ 1 _ día * n Este modelo asume una varianza constante y sobre todo que los retornos se comportan como: rt = µ + ε t con εt ruido blanco. Mas adelante, se verá que el modelo anterior parece no ser adecuado. Se plantea entonces un modelo alternativo, con el cual el cálculo de la distribución de la suma de variables no se encuentra de la manera explicada. El problema para encontrar la distribución de la suma de variables aleatorias correlacionadas, cuando la varianza sigue un proceso cambiante es que la correlación también deberá cambiar con el. 14.

(16) tiempo. Debido a que no se conocía una manera analítica de resolver y estimar este tipo de modelos, la solución que se le dio al problema fue utilizar la simulación de Montecarlo, para “reproducir” el modelo ARMA-GARCH propuesto. Cuando se usó la Simulación de MonteCarlo para calcular el VaR, se generó una serie de retornos (uno por cada día del horizonte del VaR), replicando el proceso ARMAGARCH. Para generar las innovaciones de cada periodo, se calcula su varianza usando la especificación GARCH, y se genera un número aleatorio normalmente distribuido con media cero y la varianza GARCH. Para calcular el VaR para una fecha específica, se necesitan una serie de condiciones iniciales propias de cada día (rezagos de la serie, de los errores y de la varianza). Con estas condiciones, se hacen 500 replicaciones del proceso explicado en el párrafo anterior3. Para calcular el VaR a un nivel de confianza (α) se toma el α-ésimo menor dato de los simulados. Como alternativa, se utilizó un método similar a los promedios móviles. Los pasos para el cálculo del VaR con esta metodología fueron los siguientes. 1) Se calcula la desviación estándar de las últimas i observaciones (Se intentó con i=10, 20 y 60). 2) Se asume que los retornos siguen una distribución normal con media cero y desviación estándar calculada usando la regla de la raíz cuadrada, donde σ1 día es la desviación calculada del anterior. El α-ésimo percentil de la distribución mencionada, es el VaR para el horizonte deseado con un (100-α)% de confiabilidad. Se calculó para confiabilidades del 90% (α=10), 95% (α=5) y 99% (α=1). Este modelo supone que el proceso que siguen los retornos es rt = εt, donde los εt son variables aleatorias normales con media cero y varianza incondicional constante. Como se mencionó anteriormente, la estimación del modelo se condujo utilizando solo 925 de los datos que se tenía. Los datos del 926 al 10254 (del 17/07/2003 al 18/12/2003) fueron utilizados para probar la potencia del modelo o backtesting (i.e hacer una comparación entre el retorno real observado y el VaR proyectado). Si el VaR se calcula con un nivel de confiabilidad de α%, se esperaría que no más de α de los VaR estimados para la muestra de prueba estén por encima del retorno real observado. Para cada uno de los datos de la muestra de prueba se estimó el VaR con diferentes niveles de confianza y para diferentes horizontes de tiempo (5, 10, 20 y 60 días). La idea de realizar este tipo de procedimientos es probar la potencia del modelo para diferentes escenarios. Como se verá mas adelante, los modelos no se desempeñan igual para los diferentes horizontes probados. Sin embargo un modelo que no obtenga buenos resultados en todos los escenarios, no debe ser descartado inmediatamente. En vez de ello se debe enfatizar que presenta debilidades bajo ciertas condiciones. En la sección 3.1, se mencionó que es común el uso de promedios móviles en el cálculo de la varianza. Este método es sencillo de implementar y no requiere un conocimiento estadístico profundo para ser aplicado. Para comparar el rendimiento de los modelos planteados frente a modelos más sencillos, se calculará la varianza utilizando una ventana móvil (de 10, 20 y 60 días) y con esta producir estimados del VaR. Alexander (2001) explica que el fondo de esta metodología es pronosticar la 3 4. Para realizar las simulaciones se utilizó Visual Basic for Applications (VBA) en Excel. En adelante a estos datos se referirá como la muestra de prueba. 15.

(17) varianza incondicional, la cual se asume es invariante en el tiempo. Cualquier desviación se deberá a efectos de ruido.. 4. ESTIMACION DEL MODELO Y CÁLCULO DEL VaR Para el proceso de identificación y estimación del modelo, en general se prefería trabajar con SAS, pero no fue posible especificar los modelos deseados, por lo que se tuvieron que estimar en EViews 3.0. SAS fue utilizado en algunas ocasiones (cuando era posible) con el fin de respaldar o corroborar los resultados obtenidos por EViews.. 4.1 Descripción de los Datos5 Antes de 1999, los controles como las bandas cambiarias limitaban el proceso de la volatilidad de la divisa. Por ello, hacer un análisis antes de esta fecha no estaría de acuerdo con el objetivo de este estudio; la volatilidad no seguía su proceso “natural” sino que continuamente sufría de intervenciones exógenas que requerirían otro tipo de análisis. Los datos trabajados son las observaciones diarias de la TCRM desde el 29 de Septiembre de 1999 hasta el 18 de Marzo del 2004. Los fines de semana y festivos fueron eliminados ya que para estos días no se registran los precios de las operaciones del mercado. En la gráfica 4.1 se muestran los retornos diarios de la tasa de cambio para las fechas mencionadas. Grafica 4.1. Retornos Diarios del Dólar. Retornos del Dólar desde Sep 29 del 1999 hasta Marzo 18 del 2004 0.03. 0.02. 0.01. 28/01/04. 28/11/03. 28/09/03. 28/07/03. 28/05/03. 28/03/03. 28/01/03. 28/11/02. 28/09/02. 28/07/02. 28/05/02. 28/03/02. 28/01/02. 28/11/01. 28/09/01. 28/07/01. 28/05/01. 28/03/01. 28/01/01. 28/11/00. 28/09/00. 28/07/00. 28/05/00. 28/03/00. 28/01/00. 28/11/99. 28/09/99. 0. -0.01. -0.02. -0.03. -0.04. A primera vista la serie parece ser estacionaria. Por otra parte, parece ser que la volatilidad es cambiante y es posible que se presenten agrupamientos (i.e. los días de alta volatilidad suelen venir en grupos). Este tipo de afirmaciones debe ser sustentado con pruebas específicas. Como propone Enders (1995), un análisis a ojo de la serie no es un substituto para comprobar la presencia o ausencia de características como raíces unitarias o heteroscedasticidad condicional.. 5. La superintendencia bancaria pone a disponibilidad del público los precios diarios de la TCRM. 16.

(18) 4.2 Desarrollo del modelo Al seleccionar un modelo econométrico para un problema como el que se trabajó, es común suponer que una especificación como la siguiente (véase Tsay, 2002): rt = c + εt (4.1) Donde rt corresponde al retorno diario, c es una constante (es común asumir es cero) y εt se comporta como ruido blanco. Adicionalmente se puede complementar este modelo especificando uno del tipo GARCH para la varianza de los εt. Como se puede ver el modelo establece que los retornos no están correlacionados. Este modelo se puede explicar basándose en que, en teoría, los mercados incorporaran de la manera más eficiente la información, de tal manera que la que esté disponible hoy, será incluida en el precio “inmediatamente” y no debe afectar los retornos de periodos subsecuentes. En la sección 4.2.1 se presenta la identificación del modelo. Esta incluye pruebas de ruido blanco para la serie original, pruebas de raíz unitaria, ACF y PACF. En la sección 4.2.2, se expone el modelo ARMA propuesto como alternativa al modelo (4.1), que se ajustó de mejor manera a los datos y tuvo mejores propiedades estadísticas. En la sección 4.2.3 se exponen algunos de los resultados más importantes relacionados al modelo final encontrado. Finalmente La sección 4.2.3, expone que aún cuando el modelo mencionado fue el mejor que se encontró, presenta grandes inconvenientes que lastimosamente no pudieron ser corregidos. Finalmente en la sección 4.2.4, se vuelve al modelo (4.1). Aunque la evidencia estadística apunta a que este modelo no debería ser seleccionado, se quiso probar su desempeño en términos de cálculo del VaR (sección 4.3), en comparación con el modelo planteado en el presente trabajo.. 4.2.1 Pruebas preliminares (identificación del modelo). En esta etapa se buscó hacer una revisión de las características principales de la serie con el fin de verificar si el modelo sugerido por 4.1 es apropiado para el caso de la TCRM en Colombia o si es adecuada la especificación de modelos más “complejos”. Inicialmente se condujeron pruebas, para verificar la existencia de una raíz unitaria. Al realizar el ADF (Tabla 4.1), vemos que la hipótesis nula (presencia de una raíz unitaria), es rechazada fuertemente. Esto era de esperarse ya que no existen razones para creer que una serie de retornos puede tener un comportamiento no estacionario. Por lo tanto a partir de este punto quedó establecido que no era necesario diferenciar la serie de retornos.. TABLA 4.1 Type Zero Mean Single Mean. Lags 0 1 2 0 1. Augmented Dickey-Fuller Unit Root Tests Rho Pr < Rho Tau Pr < Tau -721.349 -955.239 -697.419 -727.559 -976.274. 0.0001 0.0001 0.0001 0.0001 0.0001. -24.37 -21.85 -15.92 -24.52 -22.08. <.0001 <.0001 <.0001 <.0001 <.0001. F. Pr > F. 300.61 243.67. 0.0010 0.0010. Las funciones de ACF y PACF (Anexo 1) reflejan que los datos de la serie están correlacionados en algunos de sus rezagos, lo que sugiere que el modelo a seguir debe incluir términos AR o MA. De igual manera en la tabla 4.2, se presentan los resultados de las pruebas de ruido blanco sobre la serie original. Los resultados. 17.

(19) anteriores, fueron utilizados para descartar al modelo (4.1) como alternativa inicial de trabajo.. TABLA 4.2. Autocorrelation Check for White Noise To Lag Chi-Square DF Pr >ChiSq ------------------Autocorrelations---------------6 56.60 6 <.0001 0.213 -0.096 0.041 -0.034 -0.018 0.060 12 76.77 12 <.0001 -0.019 0.039 0.131 0.049 0.002 -0.013 18 92.44 18 <.0001 0.010 0.042 -0.009 0.016 0.084 0.086 24 100.20 24 <.0001 0.044 0.010 -0.011 -0.018 0.036 0.066. 4.2.2 Estimación de los Parámetros ARMA En la sección anterior se mostró que si se trabajara con el modelo (4.1) se obtendrían resultados insatisfactorios. Se intentó encontrar un modelo alternativo del tipo ARMA que se ajustara de mejor manera y tuviera mejores propiedades estadísticas. Después de probar con una serie de modelos, revisando los criterios de selección, se decidió que la forma general del modelo fue:. rt = φ 0 + φ1 rt −6 + φ 2 rt −9 + ε t + θ1ε t −1 + θ 2 ε t − 2. (4.2). Donde se utiliza la notación expuesta en 3.2 y 3.3. Para esta etapa fue posible encontrar varios modelos que se ajustaban a los datos adecuadamente, sin embargo, el modelo final propuesto obtuvo mejores resultados que los otros. Aunque en general es deseable tener modelos ARIMA con órdenes p y q bajos, ninguna de las alternativas tenía esta característica (Tsay, 2002). La tabla 4.3 presenta los resultados de la estimación de los parámetros del modelo ARMA. Por otra parte, el Anexo 2 contiene pruebas sobre los residuales. En la Tabla A2.2, vemos los resultados de la prueba sobre heteroscedasticidad de los residuales más conocido como ARCH test. El valor de los p-values indica que es adecuado asumir una varianza cambiante. TABLA 4.3 MODELO ARMA Method: Least Squares Included observations: 916 after adjusting endpoints Convergence achieved after 5 iterations Variable. Coefficient Std. Error. t-Statistic. Prob.. C AR(6) AR(9) MA(1) MA(2). 0.000408 0.063890 0.113576 0.282725 -0.134771. 2.203430 1.945392 3.475205 8.601966 -4.099975. 0.0278 0.0520 0.0005 0.0000 0.0000. R-squared Adjusted R-squared S.E. of regression. 0.102473 0.098532 0.004013. 0.000185 0.032842 0.032682 0.032868 0.032871. Mean dependent var S.D. dependent var Akaike info criterion. 0.000403 0.004226 -8.193282. 18.

(20) 4.2.3 Estimación del Modelo GARCH Los resultados de la Tabla A2.2, muestran que un modelo GARCH, podía brindar un mejor ajuste que el modelo ARMA. En esta etapa se encontraron enormes dificultades. Como se mencionó antes, la elección de la solución inicial para un modelo GARCH tendrá importantes repercusiones en los resultados del algoritmo de optimización. Como consecuencia los algoritmos de optimización pueden dar como resultado que un parámetro no es significativo. Este se debe más a un problema de optimización que de especificación del modelo En todo el proceso de selección, fue posible encontrar sólo un modelo que aunque logró satisfacer los criterios iniciales de selección, no cumple las restricciones de no negatividad de los parámetros. Este problema no pudo ser controlado ya que este tipo de restricciones no están incluidas en los algoritmos de optimización de EViews. El modelo estimado fue de la forma:. rt = φ 0 + φ1 rt −6 + φ 2 rt −9 + ε t + θ 1ε t −1 + θ 2 ε t − 2 ht = σ t2 = α 0 + α 1ε t2−1 + α 2 ε t2− 2 + δ 1σ t2−1. (4.3). Donde rt representa el retorno diario para el día t, εt es la innovación del periodo y se comporta como ruido blanco y ht es la varianza condicional del periodo t. Para obtener la solución inicial se estimó el modelo utilizando únicamente los primeros 750 datos. Seguidamente, para verificar (de manera informal) la robustez del modelo, entendida como qué tanto cambia la estimación de los parámetros al cambiar el conjunto de observaciones utilizadas, se re estimó el modelo con 950, 1025 y 1085 observaciones (Ver los resultados en el anexo 5). En los anexos mencionados, se aprecia que medida que se fueron añadiendo más datos, los estimados de los parámetros se mantienen constantes., lo cual permite hacer el cálculo del VaR para diferentes fechas utilizando el mismo modelo. La tabla 4.4 presenta los resultados de la estimación del modelo (4.3). Aquí ya se evidencia el aspecto negativo mencionado: Uno de los requisitos más importantes exigidos para un modelo GARCH es que los estimados de todos los parámetros sean mayores que cero. Sin embargo, como se puede ver en la tabla 4.4, el valor estimado para el parámetro ARCH (2) es negativo. Esto podría tener repercusiones “graves” en la etapa del cálculo del VaR, al simular eventualmente una varianza negativa. Debido a que EViews no incluye restricciones de no negatividad en el algoritmo de optimización y en vista de que no se encontraron modelos alternativos, se decidió continuar con el desarrollo del modelo GARCH (2,1). Al revisar las raíces del polinomio característico de la ecuación de la varianza, se encontraron las siguientes soluciones: r1=1.035467 y r2= 7.72. El valor de estas raíces se encuentra en el límite del círculo unitario, indicando un modelo estacionario. Sin embargo queda sugerido para futuros trabajos probar con modelos no estacionarios para la varianza.. 19.

(21) TABLA 4.4. Parámetros del modelo GARCH planteado en (4.3) Method: ML – ARCH Included observations: 916 after adjusting endpoints Convergence achieved after 1 iterations Coefficient Std. Error z-Statistic. Prob.. C AR(6) AR(9) MA(1) MA(2). 2.824015 3.299827 2.364416 6.797653 -2.335406. 0.0047 0.0010 0.0181 0.0000 0.0195. 2.068840 7.265389 -2.922153 32.32826. 0.0386 0.0000 0.0035 0.0000. 0.000345 0.083474 0.067958 0.270945 -0.075055. 0.000122 0.025297 0.028742 0.039859 0.032138. Variance Equation C ARCH(1) ARCH(2) GARCH(1). 4.28E-07 0.276683 -0.125029 0.818528. R-squared Adjusted R-squared S.E. of regresión. 0.096047 0.088074 0.004036. 2.07E-07 0.038082 0.042787 0.025319. Mean dependent var S.D. dependent var Akaike info criterion. 0.000403 0.004226 -8.463220. El AIC más alto de los modelos estimados fue cercano a -8.54, pero los p-values de los parámetros no eran significativos. Se encontró entonces un modelo subóptimo en términos de su función de verosimilitud, pero que tenía mejor comportamiento estadístico que los otros. En el Anexo 3 se presentan las pruebas de ruido blanco realizadas sobre los residuales. Aunque EViews reporta la existencia un problema de correlación de los residuales para los rezagos 5 al 7, los resultados en SAS con los mismos residuales contradicen lo anterior y deja inconclusa la presencia de autocorrelación en los residuales. Así mismo, la tabla A3.3, muestra que el problema de heteroscedasticidad parece estar corregido. Por otra parte en la tabla A3.4 se presentan los resultados de las pruebas de normalidad para los residuales estandarizados. Se puede ver que la hipótesis nula, que plantea que los residuales están normalmente distribuidos, se rechaza utilizando el estadístico de Jarque-Bera. Algunos programas estadísticos (como SAS) permiten la estimación del modelo GARCH usando una distribución t en vez de normal. Debido a que la estimación de Eviews se realiza asumiendo una distribución normal, las simulaciones se harán usando esta función para generar las innovaciones de cada periodo. Desde un punto de vista económico la interpretación del modelo no es clara. No fue posible identificar un fenómeno que relacione el retorno de hoy con el de 9 y 6 días atrás. Una explicación tentativa propuesta, es que puede haber un agente económico que lleve a cabo operaciones en la divisa con alguna periodicidad y sea lo suficientemente grande para “mover” el mercado. El estudio de este fenómeno y la interpretación económica de un modelo como el propuesto puede llegar a ser muy extenso y complicado, por lo que hacer conjeturas al respecto parece inapropiado. Por otra parte, un estudio de causalidad está fuera del alcance de este trabajo. El objetivo principal de este es encontrar un modelo adecuado en términos de la medición del valor en riesgo.. 4.2.4 Desarrollo de un modelo Alternativo Debido a los problemas anteriores y a que no se quería descartar del todo el modelo trabajado en la mayoría de las aplicaciones, se decidió intentar con un modelo que no. 20.

(22) tuviera las propiedades estadísticas deseadas, pero que podía estar más cercano a la realidad. El modelo plateado fue:. rt = ε t. (4.4). σ t2 = α 0 + α 1ε t2−1 + δ 1σ t2−1. De la estimación del modelo (4.4), presentada en la tabla 4.5, hay que recalcar que: La suma de los parámetros α1 (ARCH (1)) y δ1 (GARCH(1)), es cercana la unidad, lo cual sugeriría probar con modelos no estacionarios para la varianza. Se probó un modelo así, pero los resultados de la estimación no cambiaron mucho por lo que no hubo razón para no continuar con el propuesto en 4.4. TABLA 4.5. Parámetros del modelo GARCH planteado en (4.4) Method: ML - ARCH Included observations: 925 Convergence achieved after 1 iterations Coefficient Std. Error z-Statistic Variance Equation C 5.87E-07 2.38E-07 2.466656 ARCH(1) 0.237802 0.029924 7.946769 GARCH(1) 0.748668 0.030755 24.34258 R-squared -0.008841 Mean dependent var Adjusted R-squared -0.011029 S.D. dependent var S.E. of regression 0.004259 Akaike info criterion. Prob. 0.0136 0.0000 0.0000 0.000398 0.004236 -8.407112. En el Anexo 4 se presentan algunas de las pruebas realizadas para este modelo, donde se puede ver que las pruebas de ruido blanco claramente sugieren que el modelo no es apropiado. Por otra parte las pruebas de heteroscedasticidad de los residuales, muestran que tras la estimación del modelo, este problema fue corregido. Adicionalmente, en la tabla A4.2, se observa que la evidencia estadística indica que los residuales no están normalmente distribuidos. Aun teniendo pruebas de ruido blanco que indican que el modelo seleccionado no es apropiado, se mostrará en la sección siguiente, que se obtienen buenos resultados en términos de cálculo del VaR.. 4.3 Implementación del modelo y Backtesting Antes de empezar con la implementación, se hace una revisión de los retornos observados para la muestra de prueba. Es importante recordar que los retornos. ⎛P ⎞. observados para esta muestra se calcularon como: ridias = Ln⎜⎜ t +i ⎟⎟ , donde Pt ⎝ Pt ⎠ corresponde al valor de la TCRM para el periodo t. En la gráfica 4.2 se presentan los retornos observados para la muestra de prueba. Se aprecia que, en general, el comportamiento de los retornos para periodos de tiempo más cortos, es más suave. Por otra parte, es importante no pasar por alto que los retornos de 60 días tienen una fuerte caída aproximadamente a partir de la observación 30 de la muestra de prueba.. 21.

(23) Grafica 4.2. Retornos para 5, 10, 20 y 60 días. RETORNOS PARA LOS HORIZONTES DE TIEMPO TRABAJADOS 0.04. 0.02. 12/12/2003. 05/12/2003. 28/11/2003. 21/11/2003. 14/11/2003. 07/11/2003. 31/10/2003. 24/10/2003. 17/10/2003. 10/10/2003. 03/10/2003. 26/09/2003. 19/09/2003. 12/09/2003. 05/09/2003. 29/08/2003. 22/08/2003. 15/08/2003. 08/08/2003. 01/08/2003. 25/07/2003. -0.02. 18/07/2003. ret. 0. Retorno 5 Días Retorno 10 Días Retorno 20 Días Retorno 60 Dias. -0.04. -0.06. -0.08 Fecha. Una posible explicación estadística de lo anterior sería suponer que el dólar presenta en realidad una raíz unitaria. Entonces se esperaría que en el largo plazo no haya una reversión a la media y por lo tanto sea más “probable” encontrar cercanía en las observaciones menos distanciadas6. La explicación a la fuerte pérdida en los retornos de 60 días, podría estar dada por el comportamiento de la serie que muestra la gráfica 4.3.Esta gráfica muestra que después de una subida en el precio del dólar hacia septiembre del año 2003, esta moneda ha venido experimentado una baja paulatina. Gráfica 4.3. Precios Diarios del Dólar. Precio del Dolar Desde Julio 17 del 2003 hasta 18 de Marzo del 04 2950.00 2900.00 2850.00. Precio. 2800.00 2750.00 2700.00 2650.00 2600.00 2550.00. 18/03/2004. 11/03/2004. 04/03/2004. 26/02/2004. 19/02/2004. 12/02/2004. 05/02/2004. 29/01/2004. 22/01/2004. 15/01/2004. 08/01/2004. 01/01/2004. 25/12/2003. 18/12/2003. 11/12/2003. 04/12/2003. 27/11/2003. 20/11/2003. 13/11/2003. 06/11/2003. 30/10/2003. 23/10/2003. 16/10/2003. 09/10/2003. 02/10/2003. 25/09/2003. 18/09/2003. 11/09/2003. 04/09/2003. 28/08/2003. 21/08/2003. 14/08/2003. 07/08/2003. 31/07/2003. 24/07/2003. 17/07/2003. 2500.00. Fecha. La Tabla 4.6 muestra el número de veces que el retorno real estuvo por debajo del cálculo del VaR estimado utilizando los modelos 4.3, y 4.4 respectivamente. Tabla 4.6. Backtesting de los modelos GARCH. 6. Lo anterior no es más que una suposición y si se quiere conocer dar una explicación a fondo del fenómeno se debe. realizar un estudio minucioso al respecto.. 22.

(24) Modelo 4.3. Modelo 4.4. FALLAS DEL MODELO Nivel de Confianza/ Horizonte 99% 95% 90% 99% 95% 90%. 5 Días 0 2 15 0 5 12. 10 Días 0 5 15 0 2 10. 20 Días 0 10 45 0 5 45. 60 Días 2 42 45 0 17 45. Para un horizonte de tiempo de 10 días los resultados de los dos modelos son bastante buenos. Esto se puede juzgar a partir del número de veces que falló el modelo para cada nivel de confianza. No obstante, el Modelo 4.4, obtiene mejores resultados. Las gráficas 4.4 y 4.5 muestran el comportamiento real de los retornos de la muestra de prueba y los niveles de VaR estimados (para 10 días) con los modelos 4.3 y 4.4 respectivamente. En estas se puede ver que el ajuste del modelo para calcular el VaR a 10 días de horizonte es bueno, para los 3 niveles de confiabilidad probados. Gráfica 4.4 VaR 10 dias. Modelo 4.3 0.04 0.03 0.02 0.01. Ret Real Cuantil 1. -0.01. Cuantil 5 Cuantil 10. -0.02 -0.03 -0.04 -0.05 -0.06 18 /0 7/ 20 03 25 /0 7/ 20 03 01 /0 8/ 20 03 08 /0 8/ 20 03 15 /0 8/ 20 03 22 /0 8/ 20 03 29 /0 8/ 20 03 05 /0 9/ 20 03 12 /0 9/ 20 03 19 /0 9/ 20 03 26 /0 9/ 20 03 03 /1 0/ 20 03 10 /1 0/ 20 03 17 /1 0/ 20 03 24 /1 0/ 20 03 31 /1 0/ 20 03 07 /1 1/ 20 03 14 /1 1/ 20 03 21 /1 1/ 20 03 28 /1 1/ 20 03 05 /1 2/ 20 03 12 /1 2/ 20 03. Retorno. 0. obs. 23.

(25) Gráfica 4.5 VaR 10 Dias. Modelo 4.4 0.04 0.03 0.02 0.01 Retorno. Ret Real 0. Cuantil 1 Cuantil 5. -0.01. Cuantil 10. -0.02 -0.03 -0.04. 18 /0 7/ 20 03 25 /0 7/ 20 03 01 /0 8/ 20 03 08 /0 8/ 20 03 15 /0 8/ 20 03 22 /0 8/ 20 03 29 /0 8/ 20 03 05 /0 9/ 20 03 12 /0 9/ 20 03 19 /0 9/ 20 03 26 /0 9/ 20 03 03 /1 0/ 20 03 10 /1 0/ 20 03 17 /1 0/ 20 03 24 /1 0/ 20 03 31 /1 0/ 20 03 07 /1 1/ 20 03 14 /1 1/ 20 03 21 /1 1/ 20 03 28 /1 1/ 20 03 05 /1 2/ 20 03 12 /1 2/ 20 03. -0.05. obs. Por otra parte, al revisar los resultados para el cálculo del VaR a 60 días utilizando los modelos 4.3 y 4.4, se aprecia en la tabla 4.6, que los resultados para los percentiles 5 y 10 son bastante pobres. La gráfica 4.6, muestra el VaR estimado por el modelo 4.4 frente a los retornos de 60 días. Hay un claro cambio en el precio del dólar que no fue “detectado” por el modelo, por lo que en general las fallas, se concentraron en las últimas observaciones de la muestra de prueba. Esto se puede atribuir a la caída de los retornos explicada al principio de esta sección. El modelo no percibió esta caída, ya que no había ningún tipo de información que permitiera prever un descenso tan rápido del dólar. Gráfica 4.6. VaR 60 DIAS. Modelo 4.4 0.02. 0. -0.02. Retorno. -0.04 Ret. Real Cuantil 1. -0.06. Cuantil 5 Cuantil 10. -0.08. -0.1. -0.12. -0.14 1. 4. 7. 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79 82 85 88 91 94 97 100 obs. 24.

(26) 4.4 Cálculo del VaR usando Promedios Móviles Para el método de promedios móviles, se asumió que los retornos se distribuyen normalmente, aunque las pruebas estadísticas indiquen que no es así. La tabla 4.7 muestra los resultados del backtesting de los modelos de PM (promedios o ventanas móviles). Los modelos que utilizan una ventana móvil de 10 y 20 días obtuvieron resultados inferiores a los GARCH en términos del backtesting. Sin embargo, al usar una ventana de 60 días los resultados no fueron los mismos. Tabla 4.7. Backtesting de los Modelos PM FALLAS EN EL CÁLCULO DEL VaR USANDO PM Nivel de Confianza/ Horizonte 5 Días 10 Días 99% 3 2 95% 11 9 90% 19 19 99% 0 1 95% 5 7 90% 14 15 99% 0 0 95% 3 2 90% 7 8. PM (10 Días). Pm (20 Días). PM (60 Días). 20 Días 9 18 29 6 14 27 0 4 18. 60 Días 27 35 50 18 37 52 11 50 54. Se puede ver que los resultados del VaR usando una ventana móvil de 60 días son, en general, satisfactorios y llegan incluso a superar a los modelos GARCH. Al estimar el VaR para 60 días, los resultados son bastante deficientes y en este caso, el modelo 4.4, parece ser una mejor alternativa. No obstante, los estimados de PM (60) son, en general, mejores que los de GARCH en todo sentido. La gráfica 4.7 muestra los estimados del VaR para un horizonte de tiempo de 5 días, utilizando el modelo 4.4 y el modelo de ventana móvil de 60 días (los estimados por el método de PM son las líneas “suaves”). En general los estimados del VaR utilizando el modelo 4.4 son menores. Gráfica 4.7 0.02. 0.015. 0.01. 0.005. 0 1 -0.005. 5. 9. 13. 17. 21. 25. 29. 33. 37. 41. 45. 49. 53. 57. 61. 65. 69. 73. 77. 81. 85. 89. 93. 97 101. Modelo 4.4 90% PM (60) 90% Modelo 4.3 95% PM (60) 95% Retorno Real. -0.01. -0.015. -0.02. -0.025. 25.

Figure

Actualización...

Referencias