• No se han encontrado resultados

UNIVERSIDAD DE COSTA RICA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA

N/A
N/A
Protected

Academic year: 2021

Share "UNIVERSIDAD DE COSTA RICA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA"

Copied!
142
0
0

Texto completo

(1)

FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA

Tesis para optar al grado académico de Licenciatura en Ciencias Actuariales

APLICACIÓN DE SERIES DE TIEMPO EN LA EVALUACIÓN DE REGÍMENES DE PENSIONES

José Fabio Santamaría Chaves

Ciudad Universitaria Rodrigo Facio San José, Costa Rica

Diciembre de 2015

(2)
(3)

ante el siguiente tribunal:

Dr. Óscar Roldán Santamaría Presidente del Tribunal

Dr. Luis Barboza Chinchilla Director de Tesis

Dr. Juan José Víquez Rodríguez Lector

Dr. Santiago Cambronero Villalobos Lector

Dr. Maikol Solís Chacón Lector Externo

José Fabio Santamaría Chaves Candidato

iii

(4)
(5)

A mi director de tesis, Luis Barboza Chinchilla, ya que su guía posibilitó la realización de este trabajo.

A los lectores Juan José Víquez Rodríguez y Santiago Cambronero Villalobos por sus valiosas observaciones.

A los funcionarios del Banco Nacional de Costa Rica que aportaron los datos necesarios para llevar a cabo el presente trabajo, así como por facilitar el equipo y los programas utilizados.

v

(6)

Santamaría Chaves, José Fabio. Aplicación de Series de Tiempo en la Evaluación de Regímenes de Pensiones. Tesis para optar por el grado de Licenciatura en Ciencias Actuariales. Universidad de Costa

Rica. San José, Costa Rica. 2015. Págs xvi y 126.

Director: PhD. Luis Barboza Chinchilla

Palabras claves: series de tiempo univariadas, series de tiempo multivariadas, evaluación actuarial, régimen de pensiones, ajuste de

distribuciones.

(7)

Agradecimientos v

Índice general ix

Índice de figuras xii

Índice de cuadros xiv

Resumen xv

1. Introducción 1

1.1. Justificación del tema . . . 1

1.2. Planteamiento . . . 2

1.3. Antecedentes . . . 3

1.4. Descripción del trabajo . . . 5

2. Marco Teórico 9 2.1. Series de tiempo univariadas . . . 9

2.1.1. Conceptos preliminares . . . 9

2.1.2. Modelos ARIMA . . . 11

Modelos no estacionarios . . . 15

Estimación de parámetros . . . 17

2.1.3. Especificación del modelo . . . 18

Criterios de información . . . 19

Prueba de cociente de verosimilitud . . . 20 vii

(8)

Análisis de residuos . . . 21

2.1.4. Estacionalidad . . . 23

2.1.5. Datos atípicos . . . 24

Aditivos . . . 24

Innovacionales . . . 25

Cambio de nivel . . . 26

Cambio temporal . . . 26

Identificación y estimación de datos atípicos . . . 27

2.1.6. Modelos de Heterocedasticidad . . . 30

2.2. Modelos multivariados . . . 31

2.2.1. Conceptos preliminares . . . 31

2.2.2. Modelos VARMA . . . 34

Función de verosimilitud . . . 35

2.2.3. Especificación del modelo . . . 36

Estimación preliminar de órdenes . . . 36

Análisis de residuos . . . 39

2.2.4. Cointegración . . . 42

2.2.5. Pruebas de heterocedasticidad . . . 43

2.3. Método de k-medias . . . 45

2.4. Evaluaciones actuariales . . . 47

2.4.1. Tasa de interés . . . 47

2.4.2. Valor presente actuarial . . . 49

2.5. Ajuste de Distribuciones . . . 51

3. Metodología 55 3.1. Obtención de datos . . . 55

3.2. Ajuste de series temporales . . . 59

3.2.1. Series univariadas . . . 59

3.2.2. Series multivariadas . . . 61

3.3. Evaluación actuarial . . . 63

3.3.1. Perfil de beneficios y requisitos . . . 63

(9)

3.3.2. Insumos . . . 65

3.3.3. Supuestos . . . 65

3.3.4. Cálculos realizados . . . 67

Beneficiarios actuales . . . 68

Miembros activos . . . 69

Balance Actuarial . . . 70

3.4. Ajuste de distribución teórica . . . 71

4. Desarrollo 73 4.1. Rendimiento del Fondo . . . 73

4.1.1. Especificación del modelo . . . 73

4.1.2. Ajuste del modelo . . . 79

4.1.3. Diagnóstico del modelo . . . 81

4.2. Inflación Mensual . . . 86

4.2.1. Especificación del modelo . . . 86

4.2.2. Ajuste del modelo . . . 91

4.2.3. Diagnóstico del modelo . . . 92

4.3. Variaciones salariales . . . 97

4.3.1. Especificación del modelo . . . 97

4.3.2. Ajuste del modelo . . . 103

4.3.3. Diagnóstico del modelo . . . 105

4.4. Evaluación Actuarial . . . 108

5. Conclusiones y Recomendaciones 119

Bibliografía 126

(10)
(11)

1.1. Relación entre las principales variables del modelo de Wilkie . . . 4

3.1. Valores mensuales de inflación desde Febrero de 1976 . . . 57

4.1. Valores mensuales de rendimiento del Fondo . . . 74

4.2. Función de autocorrelación del rendimiento del Fondo . . . 76

4.3. Función de autocorrelación parcial del rendimiento del Fondo . . . 77

4.4. Función de autocorrelación extendida del rendimiento del Fondo . . . . 77

4.5. Resultado de la función armasubsets para el rendimiento del Fondo . . 78

4.6. Efecto de puntos atípicos en el rendimiento del Fondo . . . 80

4.7. Diagnósticos de los residuos del modelo de rendimientos del Fondo . . . 82

4.8. Gráfico QQ de los residuos del modelo de rendimientos del Fondo . . . 83

4.9. Función de autocorrelación muestral de los residuos al cuadrado del mo- delo de rendimientos del Fondo . . . 84

4.10. Valores p de la prueba de McLeod-Li de los residuos del modelo de ren- dimientos del Fondo . . . 85

4.11. Gráfico de los valores mensuales de inflación . . . 86

4.12. Función de autocorrelación de la inflación . . . 88

4.13. Función de autocorrelación parcial de la inflación . . . 89

4.14. Función de autocorrelación extendida de la inflación . . . 89

4.15. Resultado de la función armasubsets para la inflación . . . . 90

4.16. Diagnósticos de los residuos del modelo de inflación . . . 93

4.17. Gráfico QQ de los residuos del modelo de inflación . . . 94 xi

(12)

4.18. Función de autocorrelación muestral de los residuos al cuadrado del mo- delo de inflación . . . 95 4.19. Valores p de la prueba de McLeod-Li de los residuos del modelo de inflación 96 4.20. Series de variaciones salariales para cada grupo de edad . . . 98 4.21. Valores p de la prueba Ljung-Box para seleccionar el orden VMA . . . 102 4.22. Función de correlación cruzada extendida de las variaciones salariales . 102 4.23. Valores p de la prueba Ljung-Box para los residuos del modelo de varia-

ciones salariales . . . 106 4.24. Histograma de tasas de rendimiento anual en los primeros 10 años de

simulaciones . . . 109 4.25. Histograma de tasas de inflación anual en los primeros 10 años de simu-

laciones . . . 110 4.26. Función de distribución empírica del balance actuarial . . . 111 4.27. Función de densidad empírica del balance actuarial . . . 112 4.28. Función de densidad empírica del balance actuarial y la mezcla gaussiana

con k = 2 . . . 116 4.29. Gráfico QQ de los resultados del balance actuarial y la mezcla gaussiana

con k = 2 . . . 117

(13)

2.1. Función de autocorrelación extendida para un modelo ARMA(1,1) . . . 15

2.2. Comportamiento de las matrices de correlación cruzada extendidas para un modelo VARMA(2,1) . . . 39

4.1. Pruebas de raíz unitaria para la serie de rendimientos del Fondo . . . . 75

4.2. Modelo seleccionado para la serie de rendimientos del Fondo . . . 79

4.3. Pruebas de raíz unitaria para los residuos del modelo de rendimientos del Fondo . . . 81

4.4. Pruebas de normalidad de los residuos del modelo de rendimientos del Fondo . . . 82

4.5. Pruebas de raíz unitaria para la serie de inflación . . . 87

4.6. Modelo seleccionado por los criterios AIC y AICc para la serie de inflación 91 4.7. Modelo seleccionado por el BIC para la serie de inflación . . . 91

4.8. Pruebas de raíz unitaria de los residuos del modelo de inflación . . . 92

4.9. Pruebas de normalidad de los residuos del modelo de inflación . . . 92

4.10. Grupos generados por el algoritmo de k-medias . . . 97

4.11. Rezagos significativos de la función de correlación cruzada según proce- dimiento de Cryer y Chan . . . 99

4.12. Rezagos significativos de la función de correlación cruzada según proce- dimiento de Brockwell y Davis . . . 99 4.13. Pruebas de raíz unitaria para las series marginales de variaciones salariales100 4.14. Prueba de cointegración de Johansen para la serie de variaciones salariales100

xiii

(14)

4.15. Estimación preliminar del orden para un modelo VAR(p) para la serie de variaciones salariales . . . 101 4.16. Pruebas de raíz unitaria para los residuos marginales del modelo de va-

riaciones salariales . . . 105 4.17. Prueba de cointegración de Johansen para los residuos del modelo de

variaciones salariales . . . 105 4.18. Pruebas de normalidad para los residuos del modelo de variaciones sala-

riales . . . 107 4.19. Pruebas de heterocedasticidad para los residuos del modelo de variacio-

nes salariales . . . 107 4.20. Escenarios de la función de distribución del balance actuarial . . . 113 4.21. Parámetros de la mezcla ajustada a la función de densidad empírica del

balance actuarial . . . 114 4.22. Pruebas de ajuste de la mezcla a la función de densidad empírica del

balance actuarial . . . 115

(15)

El presente trabajo pretende estudiar las series temporales y su aplicación en la mode- lización de las variables económicas que se utilizan en las evaluaciones actuariales de un fondo de pensiones hipotético.

Las variables económicas con las que se trabaja son: el rendimiento del fondo de pen- siones, la inflación, y las variaciones salariales de los afiliados a éste. Para modelizar el rendimiento del fondo y la inflación se aplicaron modelos univariados tipo ARIMA, mientras que para las variaciones salariales hubo que considerar el efecto de la edad del afiliado, por lo que se ajustó un modelo multivariado tipo VARMA. Dado el rango de edades de los afiliados, se hizo necesario agrupar estas edades mediante un algoritmo de k-medias que redujera el número de parámetros del modelo a estimar.

Una vez seleccionados los modelos que presentaron el mejor ajuste a los datos muestra- les, se procedió a realizar 10000 simulaciones de cada una de las series para un período de 115 años, que corresponde al período de tiempo necesario para llevar a todas las vidas del colectivo hasta el último año de vida en la tabla de mortalidad empleada. Con estos 10000 escenarios, se realizó el mismo número de evaluaciones actuariales. Con los resul- tados del balance actuarial de estos escenarios, se construyó la distribución empírica de la variable y se seleccionaron los percentiles clave para definir los escenarios optimista, pesimista y esperado. Finalmente, se procedió a ajustar una distribución teórica a los resultados empíricos. Al revisar el gráfico de la función de densidad, se observó que esta presenta colas asimétricas, por lo que se decidió utilizar una mezcla gaussiana para ajustar las colas por separado.

xv

(16)
(17)

Introducción

1.1. Justificación del tema

La sostenibilidad financiera de un fondo de pensiones depende de múltiples factores económicos: los aumentos salariales futuros de los afiliados al fondo, la inflación futura, los rendimientos de los instrumentos financieros en los que se invierten los activos que respaldan las provisiones, entre otros. A la hora de evaluar un fondo de pensiones, el actuario debe hacer supuestos acerca del comportamiento que tendrán a corto y largo plazo estas variables. Tradicionalmente, en las evaluaciones se utilizan variables deter- ministas, lo cual significa que estas se mantienen constantes durante todo el período en el que se realiza la proyección. Adicionalmente, es común asumir que esos valores cons- tantes de estas variables corresponden a sus respectivos valores en el año de evaluación o el promedio de los valores en una cierta cantidad de años anteriores a la fecha de valoración. Si el actuario desea estudiar el impacto de posibles cambios en las condicio- nes económicas, conocido como análisis de sensibilidad, lo que suele hacer es repetir el cálculo con valores distintos de las variables pero también manteniéndolos constantes en el tiempo. Generalmente se trabaja un escenario optimista, donde los rendimientos de las inversiones del fondo son mayores al promedio observado y uno pesimista en el cual estos rendimientos son más bajos de lo observado.

El tipo de análisis descrito en el párrafo anterior únicamente provee un estimador pun- 1

(18)

tual del resultado de la evaluación actuarial, así como del resultado pesimista y el resultado optimista. Esto impide contar con una distribución probabilística que permi- ta realizar un análisis más profundo de los resultados. Por ejemplo, se podría contar con los cuantiles para definir los escenarios optimistas y pesimistas. Varios autores han pro- puesto metodologías que utilizan simulaciones a través de series de tiempo para predecir el comportamiento de estas variables (ver por ejemplo [32] y [33]). Adicionalmente, las variables correlacionadas se pueden modelar de manera conjunta mediante estos méto- dos estocásticos para reflejar esta correlación.

A partir de las ideas anteriores, se propone aplicar estos métodos a un régimen de pensiones hipotético. Las variables que se modelizarán mediante series de tiempo son las siguientes:

La tasa mensual real de los rendimientos de las inversiones del fondo La inflación mensual

Las variaciones salariales mensuales reales de los afiliados al fondo

Las características y beneficios que otorga el fondo están explicados en el Capítulo 3.

1.2. Planteamiento

El tema del presente trabajo corresponde a la aplicación de series de tiempo en la eva- luación actuarial de regímenes de pensiones. Los objetivos propuestos son los siguientes:

Objetivo General

Investigar, desarrollar y utilizar modelos de series de tiempo en la evaluación actuarial de un fondo de pensiones

Objetivos Específicos

Realizar una investigación bibliográfica acerca de la teoría de series de tiempo y su aplicación.

(19)

Determinar el modelo de serie de tiempo que mejor ajuste el comportamiento de algunas variables económicas que influyen en la evaluación de un fondo de pensiones hipotético.

Efectuar la evaluación actuarial de un fondo de pensiones hipotético utilizando el enfoque estocástico, a partir de las series de tiempo que mejor representen el comportamiento de las variables económicas.

1.3. Antecedentes

Uno de los modelos estocásticos para inversiones más famosos es el propuesto por A. D.

Wilkie, el cual fue desarrollado para explicar el comportamiento de distintas variables económicas del Reino Unido. Este modelo se encuentra descrito en detalle en [33]. Wilkie aclara que escogió este modelo luego de evaluar múltiples alternativas y concluir que éste era el más apropiado. El principal supuesto utilizado por este autor es asumir que todas las variables de inversión dependen del índice de precios al consumidor. En su modelo, considera 4 variables principales, e indica que son las mínimas necesarias para describir las inversiones de un fondo de pensiones:

Índice de Precios al Consumidor Índice de cotización en bolsa

Rentabilidad por cotización, es decir, el índice de cotización en la fecha t entre el índice de precios en esa misma fecha

Tasa de interés a largo plazo, medida a través de bonos perpetuos del gobierno británico, denominados consols.

En la Figura 1.1 se muestran las interrelaciones entre las variables anteriores según lo determinó Wilkie.

Este modelo fue introducido en 1984. El artículo original no aplica el modelo a un problema en particular, sino que se limita a señalar los diversos escenarios en los que este tipo de modelos pueden ser utilizados. Desde la publicación del artículo, múltiples

(20)

Figura 1.1: Relación entre las principales variables del modelo de Wilkie

trabajos se han realizado con el objetivo de mejorar y actualizar el modelo, así como investigar sus aplicaciones. Por ejemplo, en [32] se propone la aplicación de modelos con umbrales o thresholds y se invierte la dependencia entre la tasa de interés a largo plazo y la rentabilidad por cotización.

En el contexto de evaluaciones actuariales de regímenes de pensiones, se encuentra una aplicación en [34], donde se presenta la deducción y aplicación de un modelo estocástico sencillo para realizar la evaluación de un régimen de pensiones canadiense hipotético.

El autor aboga por considerar modelos más simples que el propuesto por Wilkie y sus múltiples actualizaciones, ya que de acuerdo con él los modelos simples facilitan el entendimiento de la dinámica de las series económicas por parte de los actores que requieren tomar las decisiones con respecto a la administración de estos regímenes de pensiones y los afectados por éstas. Así, en su estudio se limita a los siguientes tipos de modelos:

Ruido blanco

AR(1): modelo autorregresivo de orden 1

ARCH(1): modelo autorregresivo con heterocedasticidad condicional de orden 1

«Regime switching» con dos casos: Estos modelos consideran las variaciones en el comportamiento de una serie de tiempo económica asociadas con ciertos eventos

(21)

o cambios de estado aleatorios.

Función de transferencia

En los anexos de [34] se incluyen las características de cada uno de los modelos ante- riores. Básicamente, el autor se dedica a buscar cuál de estos modelos explica mejor el comportamiento de las variables económicas consideradas, las cuales son las siguientes:

Inflación

Índice de salarios

Tasa de interés a largo plazo Retorno de capital canadiense Retorno de capital global

En el contexto costarricense, no se encontraron trabajos que utilizaran este tipo de me- todologías en evaluaciones actuariales, por lo que esta aplicación constituye un aporte original de este trabajo.

1.4. Descripción del trabajo

El desarrollo de este trabajo inicia con la investigación bibliográfica sobre los modelos de series de tiempo, tanto univariados como multivariados. Se pretende conocer las ca- racterísticas de estos y los procedimientos más utilizados para su análisis, estimación y diagnóstico. Luego, se pasa a la etapa de modelización, la cual consiste en identificar para cada una de las variables estudiadas (rendimiento del fondo, inflación y variacio- nes salariales) el modelo de serie de tiempo que presente el mejor ajuste a los datos correspondientes. Para esto, se aplicará el método conocido como Box-Jenkins, el cual es descrito y recomendado por múltiples autores. Ver por ejemplo [6], [11] y [30]. En resumen, este proceso consiste en proponer uno o varios modelos de serie de tiempo a través del estudio de los datos con los que se cuenta, estimar los parámetros de los

(22)

modelos y finalmente aplicar pruebas estadísticas para comprobar que cumplan las hi- pótesis requeridas y así poder seleccionar el modelo que presente el mejor ajuste.

Las series de rendimiento del fondo e inflación son univariadas, mientras que la serie de variaciones salariales es multivariada, ya que depende de la edad del funcionario. Dado que se cuenta con 31 valores posibles para la edad, se optó por agrupar las distintas edades mediante el método de k-medias. Lo anterior se realiza antes de ajustar el mo- delo VARMA para reducir la cantidad de parámetros que se deben estimar. El objetivo del algoritmo de k-medias es crear una partición del conjunto de edades de forma que los grupos queden bien separados y diferenciados, es decir, que las variaciones salariales de los individuos que pertenezcan a un mismo grupo de edades se parezcan más entre sí que a las variaciones salariales de los individuos de los otros grupos de edades. Este procedimiento se encuentra descrito en [29].

Con los tres modelos seleccionados, el siguiente paso consiste en ejecutar 10000 simula- ciones de cada modelo. Los resultados de las simulaciones son el insumo para realizar 10000 evaluaciones actuariales del fondo hipotético y así construir la función de distri- bución muestral del denominado resultado actuarial (déficit o supéravit). La teoría y fórmulas utilizadas en el cálculo del balance actuarial fueron tomadas de [5]. Finalmen- te, se identifica un modelo teórico que ajuste la distribución empírica obtenida. Dada la forma del histograma de la función de densidad muestral, se decide trabajar con mezclas gaussianas.

El presente documento contiene 4 capítulos adicionales: el capítulo 2 corresponde al marco teórico, en el cual se exponen los conceptos y resultados de la teoría de series de tiempo relevantes al presente trabajo, así como una idea general del procedimiento comúnmente utilizado para realizar evaluaciones actuariales. En el capítulo 3 se explican los pasos seguidos para ajustar los modelos de series de tiempo a los datos y los supuestos e insumos utilizados para realizar la evaluación actuarial. En el capítulo 4 se muestran los resultados del desarrollo del trabajo. Finalmente, en el capítulo 5 se presentan las conclusiones y recomendaciones, así como las limitaciones que se tuvo. En ese mismo

(23)

capítulo se mencionan las posibles extensiones del trabajo para investigaciones futuras.

(24)
(25)

Marco Teórico

En este capítulo se procederá a presentar los detalles teóricos más relevantes de los temas que se utilizarán en el trabajo. Comprende cinco secciones, en la primera se hablará acerca de los modelos ARIMA univariados, mientras que en la segunda se procederá a introducir los modelos multivariados. En la tercera sección se explicará brevemente el método de k-medias y en la cuarta se dará una idea general de lo que son las evaluaciones actuariales. Finalmente, la quinta sección habla sobre los conceptos utilizados para ajustar la distribución muestral de los resultados. Se debe tomar en cuenta que todos los temas mencionados son muy amplios, por lo que se presentarán unicamente las definiciones y resultados que se emplearán en el desarrollo de esta tesis.

2.1. Series de tiempo univariadas

El desarrollo de esta sección está basado principalmente en los trabajos de Cryer y Chan ([11]) y Brockwell y Davis ([6] y [7]).

2.1.1. Conceptos preliminares

Una serie de tiempo es un conjunto de observaciones yt, cada una de las cuales fue registrada en el momento específico t. En este trabajo se utilizarán series de tiempo discretas, en las cuales el conjunto de los tiempos en el que se realizan las observaciones

9

(26)

es discreto ([6]), es decir, t ∈ N o t ∈ Z.

Un modelo de serie de tiempo para los datos observados yt es una especificación de las distribuciones conjuntas de una sucesión de variables aleatorias {Yt} de la cual se postula que yt es una realización. La sucesión {Yt} se llama proceso estocástico.

Para un un proceso estocástico {Yt} se define ([11]):

La función de media como µt = E(Yt)para t = 0, ±1, ±2, ....

La función de autocovarianza como γt,s= Cov(Yt, Ys) = E[(Yt− µt)(Ys− µs)]para t, s = 0, ±1, ±2, ....

La función de autocorrelación (ACF) como ρt,s = Corr(Yt, Ys) = γt,s/√ γt,tγs,s para t, s = 0, ±1, ±2, ....

Uno de los supuestos más comunes a la hora de estudiar modelos de series de tiempo es el de estacionariedad. El proceso {Yt} es débilmente estacionario si:

1. µt es independiente de t, y

2. γt,t+h es independiente de t para cada h.

En el caso anterior la notación se simplificará denotando µ = µt, γh = γt,t+h y ρh = ρt,t+h.

Existe una definición más «fuerte» de estacionariedad, no obstante, para los propósitos de este trabajo únicamente se utilizará la definición anterior. Esto se debe al hecho de que se trabajará con modelos gaussianos (las distribuciones conjuntas del proceso {Yt} son normales multivariadas), en cuyo caso los conceptos de estacionariedad fuerte y estacionariedad débil son equivalentes. La idea básica detrás del concepto de estaciona- riedad es que las leyes de probabilidad que gobiernan el proceso no cambian en el tiempo.

(27)

El ejemplo más común de proceso estacionario es el denominado ruido blanco, el cual consiste en una sucesión de variables aleatorias independientes e idénticamente distri- buidas con varianza finita y se denota por et. A menos que se indique lo contrario, el proceso et tendrá media cero y varianza σ2e. Generalmente se asume que et sigue una distribución normal.

2.1.2. Modelos ARIMA

Definición 2.1.1 {Yt} es un proceso ARMA(p, q) si es estacionario y para todo t cumple

Yt− φ1Yt−1− ... − φpYt−p = et+ θ1et−1+ ... + θqet−q

donde et es un ruido blanco con media cero y varianza σ2e y los polinomios φ(x) = 1 − φ1x − ... − φpxp y θ(x) = 1 + θ1x + ... + θqxq no tienen factores comunes, lo cual significa que el modelo no se puede reducir a uno más simple.

El proceso anterior se puede escribir en forma compacta como φ(B)Yt = θ(B)et para t = 0, ±1, ..., donde B es el operador de rezago hacia atrás (BjYt= Yt−j, j = 0, 1, ...).

Cuando θ(x) ≡ 1 el proceso se denota por ARMA(p, 0) o AR(p) y se llama autorregre- sivo de orden p. En el caso de que φ(x) ≡ 1, el proceso se denota por ARMA(0, q) o MA(q) y se llama modelo de media móvil de orden q.

Definición 2.1.2 Sea {Yt} un proceso ARMA(p, q). {Yt} se denomina causal si existe una secuencia de constantes {ψj}j=0 tal que Pj=0j| < ∞ y Yt = P

j=0ψjet−j para t = 0, ±1, ...

El siguiente teorema señala el requisito para que un proceso ARMA sea causal. Su demostración se puede encontrar en [7].

(28)

Teorema 2.1.1 Sea {Yt} un proceso ARMA(p, q). {Yt} es causal si y sólo si φ(z) 6= 0 para todo z ∈ C tal que |z| ≤ 1. Los coeficientes ψj de la definición anterior se determinan a partir de la relación

ψ(z) =

X

j=0

ψjzj = θ(z)/φ(z), |z| ≤ 1.

Definición 2.1.3 Sea {Yt} un proceso ARMA(p, q). {Yt} se denomina invertible si existe una secuencia de constantes {πj}j=0 tal que Pj=0j| < ∞ y et = P

j=0πjYt−j para t = 0, ±1, ...

El siguiente teorema señala el requisito para que un proceso ARMA sea invertible. Su demostración se puede encontrar en [7].

Teorema 2.1.2 Sea {Yt}un proceso ARMA(p, q). {Yt} es invertible si y sólo si θ(z) 6=

0 para todo z ∈ C tal que |z| ≤ 1. Los coeficientes πj de la definición anterior se determinan a partir de la relación

π(z) =

X

j=0

πjzj = φ(z)/θ(z), |z| ≤ 1.

De acuerdo con [6], la sucesión πj se puede obtener a partir de las ecuaciones

πj +

q

X

k=1

θkπj−k = −φj, j = 0, 1, ...

donde φ0 := −1, φj := 0 para j > p y πj := 0 para j < 0.

Un resultado que será importante en el proceso de identificación de modelos es el com- portamiento de la función de autocorrelación de un proceso MA(q) ([11]):

(29)

ρk =





−θk+ θ1θk+1+ θ2θk+2+ ... + θq−kθq

1 + θ12+ θ22+ ... + θq2 para k = 1, 2, ..., q

0 para k > q.

(2.1)

Es decir, la función de autocorrelación de un proceso MA(q) se vuelve cero a partir del rezago q.

Cuando se tienen n observaciones de una serie de tiempo desconocida, no se cuenta con la función de autocorrelación del proceso que la generó, por lo que ésta se debe estimar a partir de la denominada función de autocorrelación muestral:

ˆ ρk =

Pn

t=k+1(Yt− ¯Y )(Yt−k− ¯Y ) Pn

t=1(Yt− ¯Y )2 para k = 1, 2, ...

donde ¯Y = 1nPn t=1Yt.

De acuerdo con [7], la distribución conjunta de ˆρk= ( ˆρ1, ˆρ2, ..., ˆρk)es aproximadamente N (ρk, n−1W ), donde ρk= (ρ1, ρ2, ..., ρk)y W es la matriz cuya entrada (i, j) está dada por la fórmula de Bartlett:

wij =

X

k=1

k+i+ ρk−i− 2ρiρk][ρk+j+ ρk−j− 2ρjρk].

Otra función importante es la denominada función de autocorrelación parcial (PACF), la cual representa la correlación entre Yty Yt−kluego de eliminar el efecto de las variables Yt−1, Yt−2, ..., Yt−k+1. Esta función se define como:

αk =

1 para k = 0

φkk para k ≥ 1 (2.2)

donde φkk satisface las denominadas ecuaciones de Yule-Walker:

ρj = φk1ρj−1+ φk2ρj−2+ ... + φkkρj−k para j = 1, 2, ..., k (2.3)

(30)

En el sistema de ecuaciones anterior se toman ρ1, ρ2,..., ρkcomo dados y se debe resolver para φk1, φk2,..., φkk ([11]).

Se puede probar que para un proceso AR(p) se cumple φkk = 0 para k > p (ver el ejemplo 3.2.6 de [6]).

La función de autocorrelación parcial muestral ˆφkk se construye de la misma manera que la teórica sustituyendo ρ por ˆρ en (2.2) y (2.3).

De acuerdo con [11], bajo la hipótesis de un modelo AR(p), la función de autocorrela- ción parcial muestral en rezagos mayores a p se distribuye aproximadamente como una densidad normal con media cero y varianza 1/n. Para más detalle consultar la sección 8.10 de [7].

La función de autocorrelación extendida (EACF) permite identificar los valores p y q de un modelo ARMA. Este método se basa en el hecho de que si se conoce la parte autorregresiva de un modelo ARMA, al filtrar esta parte de la serie observada se obtiene un modelo MA cuya función ACF cumple (2.1). Los coeficientes AR se pueden estimar a partir de una secuencia de regresiones. Dado que los valores p y q del modelo ARMA no son conocidos, se debe utilizar un proceso iterativo, el cual se explica en [11]. Al final, lo que se obtiene es una tabla como la mostrada en el Cuadro 2.1, el cual es tomado de [11] y corresponde a un modelo ARMA(1,1). En este tipo de gráficos lo que se busca es identificar la esquina del triángulo de O’s, la cual en este caso está marcada con un asterisco. El valor de p corresponde al de la fila en la que se encuentra ese punto y el valor de q a la columna.

No obstante, no siempre es posible identificar un punto claramente definido a través de la EACF muestral.

(31)

AR/MA 0 1 2 3 4 5 6 7 8 9 10 11 12 13

0 x x x x x x x x x x x x x x

1 x o* o o o o o o o o o o o o

2 x x o o o o o o o o o o o o

3 x x x o o o o o o o o o o o

4 x x x x o o o o o o o o o o

5 x x x x x o o o o o o o o o

6 x x x x x x o o o o o o o o

7 x x x x x x x o o o o o o o

Cuadro 2.1: Función de autocorrelación extendida para un modelo ARMA(1,1)

Modelos no estacionarios

Una generalización de los modelos ARMA son los denominados modelos ARIMA, los cuales permiten representar algunas series que no necesariamente son estacionarias ([6]).

Definición 2.1.4 Si d es un entero no negativo, {Yt} es un proceso ARIMA(p, d, q) si Zt= (1 − B)dYt es un proceso ARMA(p, q) causal.

Esta definición implica que {Yt} satisface una ecuación en diferencias de la forma φ(B)Yt ≡ φ(B)(1 − B)dYt= θ(B)et, donde φ(x) y θ(x) son polinomios de grado p y q respectivamente y φ(x) 6= 0 para |x| ≤ 1. El polinomio φ(x)tiene un cero de orden d en x = 1. El proceso {Yt}es estacionario si y sólo si d = 0, en cuyo caso se reduce a un pro- ceso ARMA(p, q). Así, la estimación de φ, θ y σ2 se hace sobre las diferencias (1−B)dYt.

Una limitante de ajustar un proceso ARIMA(p, d, q) es que a la serie {Yt} se le permite ser no estacionaria únicamente en la forma descrita en el párrafo anterior: que el polino- mio φ(B)tenga un cero de multiplicidad d en el punto 1 del círculo unitario, lo cual se puede evidenciar cuando la ACF muestral es una función positiva que decae lentamente.

(32)

Para determinar si se está en presencia del caso descrito en el párrafo anterior y es necesario diferenciar una serie, se puede aplicar una prueba estadística para ver si la serie posee raíces unitarias. Dos de estas pruebas son la Dickey-Fuller aumentada y la KPSS.

Se puede comprobar (Sección 6.4 de [11]) que una prueba de diferenciación equivale a realizar una prueba de raíz unitaria en el polinomio característico AR de una serie.

Considere el modelo Yt = αYt−1 + Xt para t = 1, 2, ... con Xt un proceso AR(k):

Xt= φ1Xt−1+ ... + φkXt−k+ et. Bajo la hipótesis nula α = 1 se tiene:

Xt = Yt− Yt−1= aYt−1+ φ1(Yt−1− Yt−2) + . . . + φk(Yt−k− Yt−k−1) + et

con a = α − 1. De acuerdo con [11], la hipótesis nula α = 1 (equivalentemente a = 0) se puede probar haciendo una regresión de la primera diferencia de la serie observada en el primer rezago de la serie observada y los k rezagos pasados de la primera diferencia de la serie observada. Entonces, se prueba si el coeficiente a es cero (el proceso es no es- tacionario pero se vuelve estacionario al diferenciarlo una vez). La hipótesis alternativa es que a < 0 y por ende {Yt} es estacionario. El estadístico Dickey-Fuller aumentado es el estadístico t del coeficiente de a de la regresión usando mínimos cuadrados. En la práctica, aunque se haya diferenciado, el proceso puede no ser AR de orden finito, pero puede ser aproximado por un proceso de este tipo. El orden AR aproximado puede ser estimado con un criterio de información1 antes de ejecutar la prueba ADF ([11]).

Por su parte, la hipótesis nula de la prueba KPSS es que el proceso es estacionario. La derivación de la prueba inicia con el modelo

yt= β0Dt + µt+ ut con

µt = µt−1+ et

1Los criterios de información se explicarán en la sección 2.1.3

(33)

donde et es un ruido blanco con media cero y varianza σe2, Dt contiene componentes deterministas (tendencias no estocásticas que siempre están presentes en el modelo, las más comunes son una constante o intercepto y la tendencia lineal) y ut es estacionario.

La hipótesis nula se formula como H0 : σ2e = 0, lo que implica que µt es constante.

El estadístico KPSS es el multiplicador de Lagrange (LM) usado para probar σe2 = 0 contra la alternativa σe2 > 0, el cual está dado por

KP SS = n−2

n

X

t=1

t2

! /ˆλ2

donde n es el tamaño de la muestra, ˆSt = Pt

j=1j, ˆuj es el residuo de la regresión de yt en Dt y ˆλ2 es un estimador consistente de la varianza de ut. Bajo la hipótesis nula, Kwiatkowski, Phillips, Schmidt y Shin mostraron que KP SS converge a una función de movimiento Browniano estándar que depende de la forma de los términos deterministas Dt pero no del valor de sus coeficientes. Para más detalle, revisar [19].

Estimación de parámetros

Existen varios métodos para estimar los parámetros de un modelo ARMA, los cuales corresponden a los coeficientes de los polinomios φ(x) y θ(x) y la varianza del ruido blanco. En este trabajo se utilizará el método de máxima verosimilitud. El procedimien- to detallado para obtener este tipo de estimadores se puede encontrar en [7].

La función de verosimilitud gaussiana para un proceso ARMA es la siguiente:

L φ, θ, σ2 = 1

p(2πσ2)nr0· · · rn−1 exp





− 1 2σ2

n

X

j=1



Yj− ˆYj

2

rj−1





(2.4)

donde n es el tamaño de la muestra, ˆY1 = 0, ˆYj = E(Yj|Y1, ..., Yj−1) son los predictores de un paso y ri son los correspondientes errores cuadráticos medios. Estos valores se calculan con las recursiones

(34)

n+1 =



 Pn

j=1θnj

Yn+1−j − ˆYn+1−j

para 1 ≤ n < m φ1Yn+ ... + φpYn+1−p+Pq

j=1θnj

Yn+1−j− ˆYn+1−j

para n ≥ m y

rn= vn σ2 = 1

σ2E

Yn+1− ˆYn+1

donde m = max(p, q). Los valores de θnjy rnse obtienen recursivamente con la sucesión que define el denominado algoritmo de innovaciones:

v0 = E(Y1Y1) θn,n−k = vk−1



E(Yn+1Yk+1) −Pk−1

j=0θk,k−jθn,n−jvj



, 0 ≤ k < n vn = E(Yn+1Yn+1) −Pn−1

j=0θn,n−j2 vj

Derivando parcialmente la función (2.4) con respecto a σ2 y notando que ˆYj y rj son independientes de σ2, se encuentra que los estimadores de máxima verosimilitud ˆφ, ˆθ y σˆ2 satisfacen:

σˆ2 = n−1S ˆφ, ˆθ donde

S ˆφ, ˆθ

=

n

X

j=1



Yj− ˆYj2

/rj−1 y ˆφ, ˆθ son los valores de φ, θ que minimizan

l(φ, θ) =ln n−1S (φ, θ) + n−1

n

X

j=1

ln(rj−1) Para más detalles, ver [6] o [7].

2.1.3. Especificación del modelo

El primer paso para especificar un modelo para una serie de datos consiste en determi- nar tentativamente el orden, es decir, los valores de p y q. Para esto se pueden utilizar

(35)

las funciones ACF, PACF y EACF. Primero se observa la ACF muestral, si existe un rezago q a partir del cual los rezagos mayores a q no son significativos, se propone un modelo MA(q) de acuerdo con (2.1). En el caso de la función PACF muestral, si existe un rezago p a partir del cual los rezagos mayores a p no son significativos, se propone un modelo AR(p). Para la función EACF, se construye una tabla como la del Cuadro 2.1 y se eligen los valores de p y q que señalen el vértice de un triángulo de O’s.

En caso de que las funciones anteriores no indiquen con claridad un modelo a ajustar, se deben probar varios modelos distintos y luego compararlos mediante criterios de infor- mación (AIC, AICc y BIC) o pruebas de cociente de verosimilitud, lo cual se explicará más adelante.

Criterios de información

Se considerarán 3 de estos criterios: AIC, AICc y BIC. El AIC (criterio de información de Akaike) es un estimador del índice de divergencia de Kullback-Leibler del modelo ajustado con respecto al modelo real. Sea p(y1, y2, ..., yn) la función de densidad de probabilidad (pdf) real de Y1, Y2, ..., Yn y qθ(y1,y2,...,yn) la pdf correspondiente bajo el modelo con vector de parámetros θ. La divergencia Kullback-Leibler de qθ con respecto a p se define como ([11])

D(p, qθ) = Z

−∞

Z

−∞

· · · Z

−∞

p(y1, y2, ..., yn)log p(y1, y2, ..., yn) qθ(y1, y2, ..., yn)



dy1dy2· · · dyn El AIC estima E [D (p, qθˆ)], donde ˆθ es el estimador de máxima verosimilitud del vector de parámetros θ. El criterio señala que se debe escoger el modelo en el que se minimice:

AIC = −2 log(L) + 2k

donde L es el valor máximo de la función de verosimilitud del modelo y k es el número de parámetros estimados: p + q + 1 si el modelo contiene un término constante y p + q en otro caso ([11]).

(36)

No obstante, el AIC es sesgado, por lo que se definió un AIC corregido (AICc) que intenta eliminar el sesgo (ver [11]):

AICc = AIC + 2(k + 1)(k + 2) n − k − 2 donde n es el tamaño de la muestra.

Otro método para seleccionar los órdenes de un modelo ARMA es seleccionar el modelo que minimice el criterio de información bayesiano de Schwarz (BIC) definido como:

BIC = −2 log(L) + k log(n)

Si el proceso sigue un modelo ARMA, de acuerdo con [11], los órdenes obtenidos por minimización del BIC son consistentes, es decir, tienden a los órdenes reales al incre- mentarse el tamaño de la muestra. No obstante, si el proceso real no es ARMA, la minimización del AIC permite obtener el modelo ARMA más cercano al proceso real.

La cercanía se mide en términos de la divergencia Kullback-Leibler.

Prueba de cociente de verosimilitud

Esta prueba es utilizada para comparar la bondad de ajuste de dos modelos anidados, uno de los cuales (el que rige bajo la hipótesis nula) es un caso particular del otro (el que rige bajo la hipótesis alternativa). Se basa en el cociente de verosimilitud, el cual expresa cuántas veces es más probable que los datos fueron generados por uno de los modelos. Al modelo bajo la hipótesis nula se le suele llamar modelo reducido, y al mo- delo bajo la hipótesis alternativa se le llama modelo completo.

Para poder efectuar la prueba, el modelo reducido debe corresponder a un caso particu- lar del modelo completo al que se le han establecido restricciones en uno o varios de sus parámetros. Por ejemplo, un modelo AR(1) puede visualizarse como un modelo AR(2) con la restricción φ2 = 0.

(37)

Para efectuar la prueba, se ajustan los dos modelos candidatos a los datos y se calcula la verosimilitud de cada uno. El estadístico de prueba se calcula como:

Λ = −2ln(L0) + 2ln(L1)

donde L0 corresponde a la verosimilitud del modelo nulo y L1 a la verosimilitud del modelo alternativo.

La distribución de probabilidad de Λ bajo la hipótesis nula es aproximadamente chi cuadrado con df1− df0 grados de libertad, donde df0 es la cantidad de parámetros del modelo nulo y df1 la cantidad de parámetros del modelo alternativo. Para más detalle sobre el uso de esta prueba en el contexto de series de tiempo se puede revisar [14].

Análisis de residuos

Los residuos del ajuste de un modelo ARMA se definen a partir de la forma invertida del modelo como

ˆ

et= Yt− ˆπ1Yt−1− ˆπ2Yt−2− ...

donde los valores de los π’s son estimados implícitamente como funciones de los φ’s y θ’s (ver Teorema 2.1.2).

Si el modelo propuesto fue especificado correctamente, se espera que estos residuos se comporten como un ruido blanco (ver [7]), por lo que se debe de verificar que sean estacionarios e independientes. Adicionalmente, dado que se utilizarán métodos de ve- rosimilitud para la estimación de parámetros, se verificará que los residuos sigan una distribución normal.

Para el caso de estacionariedad se pueden aplicar pruebas como la de Dickey-Fuller au- mentada y la KPSS. Por otra parte, para la independencia se puede graficar la función de autocorrelación muestral de los residuos. Para un verdadero ruido blanco se espera que las autocorrelaciones muestrales estén distribuidas normalmente con media cero y

(38)

varianza 1/n (para más detalle ver la sección 9.4 de [7]). Se busca entonces que ninguno de los rezagos de orden mayor que cero de la función de autocorrelación muestral sea significativo.

La prueba anterior revisa la correlación en rezagos individuales, por lo que para tomar en cuenta la posibilidad de que los rezagos sean significativos en forma conjunta, se utiliza el estadístico Ljung-Box, definido como ([11]):

Q = n(n + 2)

K

X

j=1

ˆ ρ2j n − j

!

donde K es el máximo rezago considerado, n es la cantidad de observaciones de la serie y ˆρj el valor de la ACF residual en el rezago j. Cuando n → ∞, la distribución de Q es aproximadamente chi cuadrado con K − p − q grados de libertad (ver [11] y [7]).

En cuanto a la normalidad de los residuos, ésta se puede revisar gráficamente mediante un gráfico cuantil-cuantil o mediante pruebas estadísticas como la de Shapiro-Wilk o la de Jarque-Bera. Un gráfico cuantil-cuantil o gráfico QQ permite comparar una distribu- cion muestral con una distribucion teórica en particular, que en este caso corresponde a la normal. El gráfico despliega los cuantiles muestrales de los residuos contra los cuan- tiles teóricos de la distribución normal. Así, si los residuos se distribuyen normalmente, el gráfico QQ se debería asemejar a la función identidad.

Por su parte, la prueba de Shapiro-Wilk esencialmente calcula la correlación entre los residuos y los correspondientes cuantiles normales. La hipótesis nula es que una muestra x1, ..., xn fue generada por una distribución normal. El estadístico de prueba es:

W = Pn

i=1aix(i)2

Pn

i=1(xi− x)2

donde x(i) es el i-ésimo estadístico de orden, x es la media muestral y las constantes ai

están dadas por

(39)

(a1, ..., an) = mTV−1 (mTV−1V−1m)1/2

donde m = (m1, ..., mn)T, m1, ..., mn son los valores esperados de los estadísticos de orden de una muestra de tamaño n de una distribución normal y V es la matriz de covarianzas de esos estadísticos ([22]).

La prueba Jarque-Bera utiliza el hecho de que la distribución normal tiene coeficiente de asimetría (skewness) y kurtosis iguales a cero. Asumiendo datos independientes e idénticamente distribuidos, el estadístico Jarque-Bera se define como

J B = ng12

6 +ng22 24

donde g1 es el coeficiente de asimetría muestral, g2 la kurtosis muestral y n es la canti- dad de observaciones de la serie. Bajo la hipótesis nula de normalidad, JB se distribuye aproximadamente como una chi cuadrado con 2 grados de libertad ([11]).

2.1.4. Estacionalidad

Si d y D son enteros no negativos, {Yt} es un proceso estacional ARIMA(p, d, q) × (P, D, Q)s de período s si la serie diferenciada Zt = (1 − B)d(1 − Bs)DYt es un proceso ARMA causal definido por ([7])

φ(B)Φ(Bs)Zt= θ(B)Θ(Bs)et donde

φ(x) = 1 − φ1x − ... − φpxp Φ(x) = 1 − Φ1x − ... − ΦPxP θ(x) = 1 − θ1x + ... + θqxq Θ(x) = 1 + Θ1x + ... + ΘQxQ

(40)

Para identificar un modelo de este tipo se puede observar el gráfico de la serie para identificar algún tipo de ciclo. También, al graficar la ACF se debería de notar ciclicidad en la significancia de los rezagos. Otra opción consiste en ajustar un modelo de este tipo a los datos y compararlo con uno sin componente estacional mediante criterios de información o una prueba de cociente de verosimilitud ([11]).

2.1.5. Datos atípicos

Los datos observados de una serie de tiempo pueden contener observaciones atípicas o outliers. El método más usado para estudiar y compensar sus efectos es el conocido como de diagnóstico [20]. Básicamente consiste en estudiar los residuos obtenidos luego de ajustar el modelo a los datos para identificar posibles observaciones atípicas y pro- poner un modelo que las incorpore. Así, los parámetros del modelo y los efectos de los datos atípicos se estiman conjuntamente.

Existen cuatro tipos principales de outliers, los demás se pueden construir a partir de es- tos: aditivos (AO), innovacionales (IO), cambios de nivel (LS) y cambio temporal (TC).

Aditivos

Un outlier aditivo (AO) corresponde a un cambio exógeno del valor observado de una serie de tiempo de un punto temporal particular. En vez de observar la serie original {Yt}, se observa {Zt}:

Zt=

Yt si t 6= T Yt+ ωA si t = T donde ωA es la magnitud del AO.

Un outlier aditivo no afecta las observaciones de ningún otro punto de la serie. Otras

(41)

formas de representar este tipo de outlier son:

Zt= ωAIt(T )+ ψ(B)et π(B)

Zt− ωAIt(T )

= et donde It(T ) vale 1 cuando t = T y cero en los demás puntos.

Se puede mostrar (ver [20]) que un outlier aditivo puede contaminar los p residuos posteriores de la serie. Además, provocará que los parámetros de la parte autorregresiva se sesgen hacia cero. Como es de esperar, el efecto se reduce conforme aumenta el tamaño de la muestra.

Innovacionales

Este tipo puede ser generado por un cambio interno en el ruido del proceso. El modelo para un outlier innovacional (IO) se construye agregando un efecto de impulso al ruido del proceso original ([20]):

Zt= ψ(B)

ωIIt(T )+ et La ecuación anterior también se puede escribir como

π(B)Zt = ωIIt(T )+ et

Mientras que la relación entre el modelo original {Yt} y el afectado {Zt}está dada por

Zt=

Yt si t < T

Yt+ ωIψj si t = T + j, j > 0

donde los coeficientes ψj vienen de la representación causal de la serie (ver Teorema 2.1.1). Se puede mostrar ([20]) que un IO sólo afecta el residuo del momento en el que inicia su efecto, por lo que su impacto es menor que el de un AO.

(42)

Cambio de nivel

Un cambio de nivel (LS) corresponde a una modificación de la media o nivel del proceso que inicia en un punto en específico y continúa hasta el final del periodo de observación.

En un proceso estacionario el cambio en la media provocado por un LS transforma el proceso en uno no estacionario. La relación entre la serie real y la observada está dada por:

Zt=

Yt si t < T Yt+ ωL si t ≥ T El modelo para este tipo de outlier es

Zt = ωLSt(T )+ ψ(B)et

donde

St(T ) = [1/(1 − B)]It(T ) El modelo también se puede escribir como

π(B)

Zt− ωLSt(T )

= et

De acuerdo con [20], un LS puede afectar a todos los residuos que lo suceden, por lo que el efecto va a depender de la distancia entre el período en el que sucede y la última observación de la serie.

Cambio temporal

Este tipo de outlier es el más general. Intuitivamente se puede ver como un outlier aditivo cuyo efecto no desaparece inmediatamente en la siguiente observación sino que lo hace gradualmente. El modelo para este tipo de outlier está dado por

Zt= ωT CSt∗(T ) + ψ(B)et

donde

(43)

St∗(T ) = [1/(1 − δB)]It(T ) El modelo también se puede escribir como

π(B)

Zt− ωT CSt∗(T )

= et

Note que cuando δ = 0, el TC corresponde a un AO, mientras que si δ = 1 corresponde a un LS.

Identificación y estimación de datos atípicos

Diversos autores han propuesto diversos métodos para identificar y tomar en cuenta el efecto de las observaciones atípicas en el ajuste de modelos de series de tiempo. En el presente trabajo se utilizará la metodología propuesta por Chen y Liu en [10].

Para identificar un outlier individual, se puede examinar el valor máximo de los esta- dísticos estandarizados de los efectos de los datos atípicos:

ˆ

τIO(t) = ˆet/ ˆσe (2.5)

ˆ

τAO(t) = Pn

j=tjx2j ˆ

σePn

j=tx22t (2.6)

ˆ

τLS(t) = Pn

j=tjx3j ˆ

σePn

j=tx23t (2.7)

ˆ

τT C(t) = Pn

j=tjx4j

ˆ σePn

j=tx24t (2.8)

donde xij = 0 para todo i y j < t, xit = 1 para todo i, x2(t+k) = −πk, x3(t + k) = 1 −Pk

j=1πj y x4(t + k) = δk −Pk−1

j=1δk−jπj − πk. Los valores de πk se determinan dependiendo del tipo del modelo de datos atípicos.

Ahora, suponga que la serie Yt está sujeta a m outliers de varios tipos en los tiempos

(44)

t1, t2, ..., tm. El modelo para Yt puede expresarse como

Yt =

m

X

j=1

ωjLj(B)It(tj) + θ(B)

φ(B)(1 − B)det (2.9)

donde

Lj(B) =

















1 para un AO

θ(B)/[φ(B)(1 − B)d] para un IO

1/(1 − B) para un LS

1/(1 − δB) para un TC

Sin distinguir la notación de los parámetros reales y los estimados, los residuos de ajustar un modelo ARMA a Yt pueden expresarse como

ˆ et=

m

X

j=1

ωjπ(B)Lj(B)It(tj) + et (2.10)

cuando el modelo se especifica correctamente sin tomar en cuenta los efectos de los outliers.

El procedimiento propuesto por los autores consiste de 3 etapas ([10]):

Etapa I: Estimación inicial de parámetros y detección de observaciones atípicas 1. Se calculan los estimadores de máxima verosimilitud de los parámetros del modelo con la serie original (en la primera iteración) o la ajustada (siguientes iteraciones) y se obtienen los residuos.

2. Para t = 1, ..., n se calcula ηt =max{|ˆτIO(t)|, |ˆτAO(t)|, |ˆτLS(t)|, |ˆτT C(t)|} con la ecuación (2.8). Si max ηt = |ˆτtp(t)| > C, donde C es un valor crítico predeterminado2, existe la posibilidad de un outlier tipo tp en el momento t;

tp puede ser IO, AO, LS o TC.

2En [20] se recomienda un valor de 3,5 o 4.

(45)

3. Si no se encontraron outliers se continúa al paso siguiente, de lo contrario, se corrige el efecto del outlier en los residuos y se devuelve al paso anterior para ver si se encuentra otro outlier.

4. Si no se encontraron outliers en la primera iteración de este bucle hay que detenerse ya que la serie no tiene outliers. De lo contrario, devuélvase al paso 1 y vuelva a estimar los parámetros. Si el número total de outliers en todos los bucles es mayor a cero y no se detectan outliers adicionales en el bucle actual, pasar a la siguiente etapa.

Etapa II: Estimación conjunta de efectos de los datos atípicos y los parámetros del modelo

1. Suponga que los m puntos en el tiempo t1, t2, ..., tm son identificados co- mo posibles outliers. Sus efectos ωj pueden estimarse conjuntamente con el modelo de regresión múltiple (2.10), con ˆet como variable dependiente y Lj(B)It(tj)como las independientes.

2. Calcule los estadísticos ˆτ de los ωj estimados, donde ˆτj = ˆωj/std( ˆωj)3 para j = 1, ..., m. Si min|ˆτj| := ˆτν ≤ C, donde C es el mismo valor crítico de la etapa anterior, elimine el outlier del tiempo tν del conjunto de outliers identificados y vaya al paso anterior con los m − 1 outliers restantes. De lo contrario vaya al paso siguiente.

3. Obtenga la serie ajustada eliminando los efectos de los outliers usando los ωj estimados más recientes del paso 1 de esta etapa.

4. Calcule los estimadores de máxima verosimilitud de los parámetros del mo- delo basado en la serie ajustada obtenida en el paso anterior. Si el cambio relativo en el error estándar del residuo con respecto al estimador anterior es mayor a 4, vaya al primer paso de esta etapa y siga iterando, de lo contrario, pase a la siguiente etapa.

3std denota desviación estándar

4La tolerancia  es una constante seleccionada por el usuario para controlar la precisión de los estimadores de los parámetros

(46)

Etapa III: Detección de datos atípicos basándose en los estimadores finales de los parámetros

1. Calcule los residuos filtrando la serie original basándose en los estimadores de los parámetros obtenidos en el paso 4 de la etapa anterior.

2. Utilice los residuos obtenidos en el paso anterior e itere sobre las etapas I y II con las siguientes modificaciones:

• los estimadores de parámetros usados en la etapa I se establecen de manera fija como los obtenidos en el paso 4 de la etapa II

• se omiten los pasos 3 y 4 de la etapa II

Los ˆωj estimados en la última iteración del paso 1 de la etapa II son los estimadores finales de los efectos de los outliers detectados.

Entre las ventajas del método anterior, se encuentra la reducción del efecto de enmas- caramiento generado por la existencia de múltiples datos atípicos en la serie. Además, se reduce el sesgo en la estimación de los parámetros producido por los datos atípicos ([10]).

2.1.6. Modelos de Heterocedasticidad

La exposición de esta sección sigue las ideas de [11]. La varianza condicional de la serie Yt dados los valores pasados de Y mide la incertidumbre en la desviación de Yt de su media condicional E(Yt|Yt−1, Yt−2, ...). Si Ytsigue un modelo ARIMA, la varianza condi- cional siempre es igual a la varianza del ruido para cualquier valor presente y pasado del proceso. No obstante, existen casos en los cuales la varianza condicional puede variar con los valores actuales y pasados del proceso, por lo que la varianza condicional es un proceso aleatorio en sí mismo, haciendo necesario utilizar un modelo que tome en cuenta la heterocedasticidad.

Para determinar si se debe considerar un modelo de este tipo, Cryer y Chan señalan que se debe identificar si los residuos del ajuste de un modelo ARIMA elevados al cua- drado están autocorrelacionados ([11]). Esto se puede verificar a través de la función de

(47)

autocorrelación o una prueba Ljung-Box, que en este contexto se denomina prueba de McLeod-Li. En caso de que se tenga evidencia de autocorrelación, se debe ajustar un modelo que permita modelizarla. Los modelos más usuales para esto son los denomi- nados ARCH y GARCH, aunque también existen otros más complejos que se pueden consultar en [20].

Dado que, como se verá en el capítulo de Desarrollo, en ningún caso se encontró evi- dencia de autocorrelación en los residuos al cuadrado de los modelos ajustados, no se ahondará más en este tema.

2.2. Modelos multivariados

2.2.1. Conceptos preliminares

El desarrollo de esta sección está basado principalmente en el trabajo de Tsay ([30]).

Una serie de tiempo k-dimensional zt = (z1t, ..., zkt)0 es un vector de k variables aleato- rias. Se asumirá que el dominio de t (el tiempo) es discreto. En el resto de esta sección, a menos que se indique lo contrario, cuando se mencione una serie de tiempo se entenderá que es multivariada.

Al igual que en las series de tiempo univariadas, una serie de tiempo k-dimensional es débilmente estacionaria si su esperanza y su covarianza son independientes del tiempo.

La matriz de covarianza en este caso se denota por Cov(zt) = E[(zt−µ)(zt−µ)0] = Σz. A menos que se señale lo contrario, cuando se hable de una serie estacionaria se estará haciendo referencia al concepto de estacionariedad débil.

Para medir la dependencia dinámica lineal de una serie de tiempo estacionaria zt, se define su matriz de covarianza cruzada en el rezago ` como

Referencias

Documento similar

La campaña ha consistido en la revisión del etiquetado e instrucciones de uso de todos los ter- mómetros digitales comunicados, así como de la documentación técnica adicional de

Colaboradores Teresa Castilla Mesa y Servicio de Orientación de Ciencias de la Educación Destinatarios Alumnos/as de todos los grados. Lugar Facultad de Ciencias de

Fuente de emisión secundaria que afecta a la estación: Combustión en sector residencial y comercial Distancia a la primera vía de tráfico: 3 metros (15 m de ancho)..

que hasta que llegue el tiempo en que su regia planta ; | pise el hispano suelo... que hasta que el

IN31 - Grado de satisfacción de los alumnos que participan en programas de movilidad (enviados) Intervalo Valor: -.. Rama: Ciencias Sociales

El contar con el financiamiento institucional a través de las cátedras ha significado para los grupos de profesores, el poder centrarse en estudios sobre áreas de interés

Esta U.D.A. de Podología nace con la voluntad de dar respuesta a la necesidad de contribuir a la integración de conocimiento, actitudes y habilidades en la formación de

De la Salud de la Universidad de Málaga y comienza el primer curso de Grado en Podología, el cual ofrece una formación generalista y profesionalizadora que contempla