Anda di halaman 1dari 100

Anlisis de Series de Tiempo

NDICE GENERAL
NDICE DE CUADROS .............................................................................................................i
NDICE DE GRFICAS Y FIGURAS .....................................................................................ii
RESUMEN................................................................................................................................. iv
SUMMARY ................................................................................................................................. v
1. INTRODUCCIN GENERAL .............................................................................................. 1
2. OBJETIVOS ........................................................................................................................... 2
2.1. Objetivo General ......................................................................................................................... 2
2.2. Objetivos Particulares ................................................................................................................ 2

3. METODOLOGA ................................................................................................................... 2
4. ANLISIS DE SERIES DE TIEMPO .................................................................................. 3
5. CONCLUSIONES .............................................................................................................. 196
6. BIBLIOGRAFA ................................................................................................................ 197
7. ANEXO ............................................................................................................................... 198

NDICE DE CUADROS
Cuadro1. Resumen de las caractersticas del proceso AR(1).................................................. 35
Cuadro2. Resumen de las propiedades del proceso MA(1) ..................................................... 39
Cuadro3. Resumen del ejemplo regresin con errores ARMA. ............................................ 121
Cuadro4. Valores crticos de Dicky-Fuller. ........................................................................... 124
Cuadro5. Parmetros estimados de la regresin de

X t sobre Xt-1. ................................... 125

Cuadro6. Parmetros estimados de la regresin de

X t sobre Xt-1 y

X t 1 . ..................... 125

Cuadro7. Valores crticos de la estadstica C. ...................................................................... 126


Cuadro8. Autocovarianzas de algunos modelos estacionales. .............................................. 128
Cuadro9. Estimacin de valores perdidos de la serie del ndice Dow Jones ................... 172

Anlisis de Series de Tiempo


NDICE DE GRFICAS Y FIGURAS
Grfica1. Tasa de desempleo nacional enero-1998 a febrero-2004. ........................................ 8
Grfica2. Tipo de cambio peso-dlar Enero 1998 a Marzo 2004. ............................................ 9
Figura1. Estacionaridad Estricta............................................................................................. 11
Grfica3. Serie tipo de cambio diferenciada a distancia 1...................................................... 21
Grfica4. Desempleo con ajuste de tendencia cuadrtico. ..................................................... 22
Grfica5. Residuales despus de ajustar modelo cuadrtico a la serie de desempleo. .......... 23
Grfica6. Precipitacin mensual para la Rep. Mexicana Ene-1990 a Feb-2004. ................. 23
Grfica7. Serie precipitacin diferenciada a distancia 12. ..................................................... 24
Grfica8. Viajeros internacionales mensuales Ene-1980 a Feb-2004. .................................. 25
Grfica9. Logaritmo de la serie viajeros. ................................................................................. 26
Grfica10. Logaritmo de viajeros diferenciado a distancia 12. .............................................. 26
Grfica11. Logaritmo de viajeros diferenciado a distancia 12 y a distancia 1. ..................... 27
Grfica12. Funcin de autocorrelacin AR(1): phi=0.8 ........................................................ 34
Grfica13. Funcin de autocorrelacin AR(1): phi= -0.8 ...................................................... 35
Grfica 14. X t v.s X t

de la serie de desempleo nacional. ................................................... 36

Grfica15. Funcin de Autocorrelacin MA(1): theta=0.8 .................................................... 38


Grfica16. Funcin de Autocorrelacin MA(1): theta=-0.8................................................... 39
Figura2. Regin de estacionaridad del modelo AR(2). ........................................................... 48
Grfica17. Alguna formas de la ACF de un modelo AR(2).................................................... 49
Grfica18. Algunas formas de la ACF de un modelo MA(2). ................................................ 53
Figura3. Ajuste de un proceso ARMA(p,q) ............................................................................. 83
Grfica19. Serie ndice de utilidad Dow Jones Ago-28 a Dic-28 de 1972.............................. 86
Grfica20. Serie ndice de utilidad Dow Jones diferenciada a distancia 1. ........................... 86
Grfica21. ACF y PACF Serie del ndice de utilidad Dow Jones diferenciada a distancia 1.
................................................................................................................................................... 87
Grfica22. Serie nivel del lago Hurn aos 1875-1972. ......................................................... 89
Grfica23. ACF y PACF de la serie nivel del lago Hurn aos 1875-1972. ......................... 89
Grfica24. ACF y PACF de los residuales despus de ajustar un modelo ARMA(1,1) a la
serie nivel del lago Hurn. ..................................................................................................... 101
Grfica25. Valores simulados de la serie X(t)=cos(t) +N(t), t=0.1,0.2,,20, donde N(t) es
WN(0,0.25). ............................................................................................................................. 103
Grfica26. ACF de la serie X(t)=cos(t) + N(t), t=0.1,0.2,,20, donde N(t) es WN(0,0.25). 103
ii

Anlisis de Series de Tiempo


Grfica27. Serie Muertes mensuales causadas por accidentes en USA de 1973-1978........ 110
Grfica28. Serie (1 B 12 ) X t , donde Xt es la serie de muertes causadas por accidentes. .... 110
Grfica29. Serie (1 B 12 )(1 B ) X t , donde Xt es la serie de muertes causadas por accidentes.
................................................................................................................................................. 111
Grfica30. ACF y PACF de la Serie (1 B 12 )(1 B ) X t , donde Xt es la serie muertes. ....... 111
Grfica31. Serie (1 B 12 )(1 B ) X t , donde Xt es la serie de viajeros. .................................. 113
Grfica32. ACF y PACF de (1 B 12 )(1 B ) X t , donde Xt es la serie de viajeros. ................ 113
Figura4. Proceso de ajuste de un modelo de regresin con errores siguiendo un proceso
ARMA(p,q). ............................................................................................................................. 120
Grfica33. Serie bivariada: ventas e indicador de ventas. .................................................... 132
Grfica34. Serie (1 B) X t , donde X t es la serie bivariada: ventas e indicador de ventas.
................................................................................................................................................. 132
Grfica35. ACF y PACF de la serie (1 B) X t , donde X t es la serie bivariada: ventas e
indicador de ventas. ................................................................................................................ 133
Grfica36. Serie bivariada: ndice Dow Jones y otro alternativo. ....................................... 146
Grfica37. ACF y PACF de los residuales despus de ajustar un modelo multivariado AR(5)
a la serie diferenciada de ventas. ........................................................................................... 149

iii

Anlisis de Series de Tiempo


ANLISIS DE SERIES DE TIEMPO
Flores, S.S (azche_sfs@yahoo.com.mx).
Terrazas, G.G.H(getemo25@hotmail.com).
RESUMEN
En la actualidad podemos encontrar un sinfn de material bibliogrfico para el anlisis
de series de tiempo, llmense artculos cientficos, libros, revistas, etc. Sin embargo, la
mayora de estos trabajos se encuentran escritos en idiomas como el ingls, francs o alemn,
fundamentalmente. Esta situacin justifica la importancia de contar con material en espaol
que incluya la teora bsica de series de tiempo.
En el presente trabajo se incluye un resumen de libros clsicos de series de tiempo, as
como ejemplos con datos reales que dejan en claro de qu se trata el anlisis de series de
tiempo. En el presente se usaron diferentes paquetes estadsticos ITSM2000, S-PLUS, R y
Eviews5. Sin embargo, en mayor medida se us el paquete S-PLUS como una alternativa al
libro de texto de Brockwell y Davis.
Debemos enfatizar que para llevar a cabo un buen pronstico, en el sentido de
minimizar los errores, no basta con aplicar al pie de la letra la teora, sino que se deben
emplear elementos de juicio y sentido comn. Slo en esta forma se puede llevar a cabo un
pronstico inteligente.

Palabras Clave: series de tiempo, anlisis de series de tiempo, ITSM2000, S-PLUS, R,


Eviews5, pronstico.

iv

Anlisis de Series de Tiempo


TIME SERIES ANALYSIS
Flores, S.S (azche_sfs@yahoo.com.mx).
Terrazas, G.G.H(getemo25@hotmail.com).
SUMMARY
Currently we can find a large quantity of bibliographic material for the time series
analysis, be called scientific articles, books, magazines, etc. However, the majority of these
jobs are founded in languages as the English, French or German, fundamentally. This
situation justifies the importance of count on material in Spanish that includes the basic theory
of series of time.
In the present job a summary of classical books of series of time is included, as well as
examples with real data that leave in clear of what treats the time series analysis. In the present
different statistical packages were used: ITSM2000, S-PLUS, R and Eviews5. However, in
greater measurement the package S-PLUS, as an alternative to the book of text of Brockwell
and Davis, was used.
We stand out that to carry out a "good" forecasting, in the sense of minimizing the
errors, does not suffice with applying the theory, but elements of judgment they should be
employed and common sense. Only in this form an intelligent forecasting can be carried out.

Key words: series of time, time series analysis, ITSM2000, S-PLUS, R, Eviews5, forecasting.

Anlisis de Series de Tiempo


1. INTRODUCCIN GENERAL
Toda institucin, ya sea la familia, la empresa o el mismo gobierno, tiene que hacer
planes para el futuro si ha de sobrevivir y progresar. Hoy en da diversas instituciones
requieren conocer el comportamiento futuro de ciertos fenmenos con el fin de planificar sus
recursos.
La planificacin racional exige anticipar sucesos que probablemente vayan a ocurrir en
el futuro. La previsin, a su vez, se suele basar en lo que ha ocurrido en el pasado, es decir, en
hechos histricos. Se tiene pues un tipo de inferencia estadstica que se hace acerca del futuro
de alguna variable o conjunto de variables basndose en sucesos pasados. Una de las tcnicas
ms importantes para hacer inferencias sobre el futuro con base en lo ocurrido en el pasado, es
el anlisis de series de tiempo.
Llamamos Serie de Tiempo a un conjunto de mediciones registradas secuencialmente
en el tiempo. Las series temporales, que se manejan en Economa y en otras reas en donde se
utiliza el anlisis de series de tiempo, estn constituidas por observaciones histricas, es decir,
no proceden de la experimentacin y por tanto, son irrepetibles. Una serie temporal puede
contemplarse como una sola prueba de un experimento aleatorio multivariado y constituye lo
que se denomina una realizacin del proceso.
Son innumerables las aplicaciones que se pueden citar, en distintas reas del
conocimiento, tales como, en Economa, Fsica, Geofsica, Demografa, en Mercadotecnia, en
telecomunicaciones, en transporte, etc. Algunos ejemplos son:
1. Series de tiempo Econmicas:
a) Precios de un artculo.
b) Tasas de desempleo.
c) Tasa de inflacin
d) ndice de precios
2. Series de tiempo Fsicas:
e) Cantidad de agua precipitada
f) Temperatura.
g) Velocidad del viento.
h) Energa solar.
3. Series de tiempo Demogrficas:
i) Tasas de crecimiento de la poblacin
j) Tasas de mortalidad
k) Censos poblacionales
4. Series de tiempo de Mercadotecnia:
l) Oferta y demanda
m) Gastos.
Uno de los problemas que intenta resolver el anlisis de series de tiempo es el de
prediccin. Esto es, dada una serie {x(t1),...,x(tn)} nuestro objetivo es describir el
comportamiento de la serie buscando posibles patrones temporales que permitan encontrar
procesos de ajuste de los datos observados y as poder predecir a futuro.
1

Anlisis de Series de Tiempo


En la presente tesis se estudia cmo construir un modelo para explicar la estructura y
prever la evolucin de una variable que observamos a lo largo del tiempo. Las variables de
inters pueden ser de diferente naturaleza, pero nos enfocaremos a algunas econmicas y
financieras, principalmente.
Cabe mencionar que los periodos de tiempo en los que se observa la variable depende
de qu variable estemos midiendo. Estos periodos pueden ser: por hora, diarios, mensuales,
trimestrales, semestrales o anuales. Aunque existen tcnicas para datos continuos, estas no se
consideran en este trabajo.
2. OBJETIVOS
2.1. Objetivo General
Elaborar material de apoyo para las materias Series de Tiempo I y II que se imparten
en la Licenciatura en Estadstica de la Universidad Autnoma Chapingo.
2.2. Objetivos Particulares
1. Resumir la teora del Anlisis de Series de Tiempo univariado y multivariado en forma
detallada y comprensible.
2. Contribuir con una alternativa bibliogrfica para los estudiantes de la Licenciatura en
Estadstica y en general, a la gente interesada en pronstico.
3. Ejemplificar el uso de los programas S-PLUS e ITSM2000 en el ajuste de series de
tiempo.
3. METODOLOGA
La naturaleza de la tesis (apuntes) no exige experimentos prcticos ni anlisis de datos,
salvo los ejemplos que se desarrollaron. De aqu que la metodologa consisti, bsicamente, en
revisin bibliogrfica.
Se revis la mayor cantidad posible de libros enfocados al tema de anlisis de series de
tiempo, artculos en Internet y algunos manuales para el programa S-PLUS. El contenido del
trabajo est basado principalmente en el libro Introduction To Time Series and Forecasting de
Peter J. Brockwell y Richard A. Davis (2002), que es el libro gua de las materias de Series de
Tiempo en la Licenciatura en Estadstica de la UACh; Sin embargo, tiene temas que requieren
mayor explicacin para una mejor comprensin de la materia. Por ejemplo, el texto
mencionado, no discute con detalle el tema de Cointegracin, por lo que se debe ampliar la
discusin. El paquete estadstico que utiliza Brockwell y Davis es el ITSM2000. En la
presente se da una alternativa con el paquete S-PLUS.
Los conjuntos de datos que se utilizaron para ejemplificar la teora vienen junto con el
paquete ITSM-2000. Adems de ellos, utilizamos datos del Banco de Informacin Econmica
(BIE) de INEGI, de la Asociacin Automotriz de Mxico y del Banco de Mxico.

Anlisis de Series de Tiempo


4. ANLISIS DE SERIES DE TIEMPO
CAPTUL0 I. INTRODUCCIN _______________________________________________ 6
CAPITULO II. CONCEPTOS BSICOS Y EL MODELO CLSICO _________________ 7
II.1. CONCEPTOS BSICOS ____________________________________________________ 7
II.2. DISTRIBUCIN NORMAL MULTIVARIADA Y SUS PROPIEDADES BSICAS __ 14
II.3. EL MODELO CLSICO ___________________________________________________ 18
II.3.1. Modelo con componente de tendencia _______________________________________________ 20
II.3.2. Modelo con componente estacional _________________________________________________ 23
II.3.3. Modelo con componentes de tendencia y estacional _____________________________________ 24

CAPITULO III. PROCESOS ESTACIONARIOS Y MODELOS BSICOS DE SERIES DE


TIEMPO__________________________________________________________________ 28
III.1 PROPIEDADES BSICAS _________________________________________________ 28
III.1.1. Propiedades de las Funciones de Auto-covarianza y Auto-correlacin ______________________ 28

III.2. PROCESOS LINEALES ___________________________________________________ 30


III.3. MODELOS AUTORREGRESIVOS: MODELO AR(1) _________________________ 32
III.4. MODELOS DE PROMEDIO MVIL: MA(1) _________________________________ 36
III.5. MODELO AR(p) _________________________________________________________ 39
III.5.1. Causalidad ____________________________________________________________________ 40
III.5.2. Mtodo de Yule-Walker__________________________________________________________ 41
III.5.3. El Modelo AR(2) _______________________________________________________________ 44

III.6. MODELO MA(q) _________________________________________________________ 50


III.6.1. Invertibilidad __________________________________________________________________ 51
III.6.2. El Modelo MA(2) ______________________________________________________________ 52

CAPITULO IV. MODELOS ARMA(p,q) ________________________________________ 54


IV.1. DEFINICIN Y PROPIEDADES ___________________________________________ 54
IV.2. MODELO ARMA(1,1) _____________________________________________________ 55
IV.3. PROPIEDADES DE Y ( h ) _____________________________________________ 56
IV.4. PREDICCIN EN PROCESOS ESTACIONARIOS (El mejor Predictor Lineal) ____ 59
IV.4.1. Propiedades del operador Pn ______________________________________________________ 61
IV.4.2. Algoritmo de Durbin-Levinson ____________________________________________________ 64
IV.4.3. Algoritmo de Innovaciones _______________________________________________________ 70

IV.5. PRONSTICO DE PROCESOS ARMA(p,q) __________________________________ 75

CAPITULO V. MODELACIN CON MODELOS ARMA(p,q) ______________________ 82


V.1. ESTIMACIN PRELIMINAR ______________________________________________ 84
V.1.1. Estimacin de Yule-Walker _______________________________________________________ 84
V.1.2. Algoritmo de Burg ______________________________________________________________ 88
V.1.3. Algoritmo de Innovaciones ________________________________________________________ 90
V.1.4. Algoritmo de Hannan-Rissanen ____________________________________________________ 93

V.2. ESTIMACIN POR MXIMA VEROSIMILITUD _____________________________ 95


V.3. PRUEBAS DE BONDAD DE AJUSTE _______________________________________ 100

Anlisis de Series de Tiempo


V.3.1. La funcin de autocorrelacin de residuales __________________________________________ 100
V.3.2. Prueba de puntos cambiantes (turning points) ________________________________________ 101
V.3.3. Prueba de signo (difference-sign) __________________________________________________ 102

CAPITULO VI. MODELOS NO-ESTACIONARIOS _____________________________ 105


VI.1. MODELOS ARIMA PARA SERIES NO-ESTACIONARIAS ___________________ 105
VI.1.1 Identificacin y estimacin de modelos _____________________________________________ 108

VI.2. MODELOS SARIMA ____________________________________________________ 109


VI.2.1 Prediccin con Modelos SARIMA _________________________________________________ 114

VI.3. REGRESIN CON ERRORES ARMA(p,q) _________________________________ 116


VI.3.1 Mnimos Cuadrados Ordinarios (MCO) _____________________________________________ 117
VI.3.2 Mnimos Cuadrados Generalizados (MCG) __________________________________________ 117

VI.4. RAICES UNITARIAS EN SERIES DE TIEMPO _____________________________ 122


VI.4.1 Races Unitarias en el polinomio Autorregresivo ______________________________________ 122
VI.4.2 Races Unitarias en el polinomio de Promedio Mvil __________________________________ 126

CAPITULO VII. SERIES DE TIEMPO MULTIVARIADAS ______________________ 131


VII.1. PROPIEDADES DE LA FUNCIN DE AUTOCOVARIANZAS,

(h ) __________ 133

VII.2. ESTIMACIN DEL VECTOR PROMEDIO Y LA FUNCIN DE COVARIANZAS136


VII.2.1. Estimacin del vector promedio,

______________________________________________ 137

(h ) _____________________________________ 137

VII.2.2. Estimacin de la funcin de Covarianzas,

VII.3. PROCESOS ARMA MULTIVARIADOS ___________________________________ 139


VII.3.1. Funcin de Covarianzas de un proceso ARMA causal, (h ) ___________________________ 141

VII.4. EL MEJOR PREDICTOR LINEAL _______________________________________ 142


VII.5. MODELACIN Y PRONSTICO CON MODELOS AR MULTIVARIADOS ____ 144
VII.5.1. Estimacin Preliminar de Whittle (Yule-Walker multivariado) __________________________ 144
VII.5.2. Mxima Verosimilitud _________________________________________________________ 145
VII.5.3. Pronstico con modelos Autoregresivos Multivariados ________________________________ 149

CAPITULO VIII. MODELOS ESPACIO-ESTADO ______________________________ 153


VIII.1. REPRESENTACIN DE LOS MODELOS ESPACIO-ESTADO ______________ 153
VIII.2. EL MODELO ESTRUCTURAL BSICO __________________________________ 155
VIII.3. REPRESENTACIN ESPACIO-ESTADO DE MODELOS ARMA ____________ 158
VIII.4. RECURSIONES KALMAN ______________________________________________ 159
VIII.5. EL ALGORITMO EM __________________________________________________ 168

CAPITULO IX. COINTEGRACIN __________________________________________ 173


IX.1. DEFINICIONES Y PROPIEDADES ________________________________________ 173
IX.2. representacin DEL Mecanismo de CORRECCIN DE ERROR (mCE) __________ 176
IX.3. ESTIMACIN Y CONTRASTE DE RELACIONES DE COINTEGRACIN _____ 179
IX.3.1. Estimacin en dos etapas de Engle y Granger ________________________________________ 179
IX.3.1a. Estimacin Directa de la Relacin de Cointegracin __________________________________ 181
IX.3.1b. Estimacin del Mecanismo de Correccin de Error (MCE) ____________________________ 182
IX.3.2. Estimacin de Johansen _________________________________________________________ 182
IX.3.3. Contrastes de Cointegracin sobre los Residuales _____________________________________ 185

Anlisis de Series de Tiempo


IX.3.3a. Contraste Durbin-Watson sobre los Residuales de Cointegracin (DWRC) ________________ 185
IX.3.3b. Contraste Dickey-Fuller sobre los Residuales de Cointegracin (DFRC) __________________ 186

IX.4. PRONSTICO EN SISTEMAS COINTEGRADOS ___________________________ 186

Anlisis de Series de Tiempo


CAPTUL0 I. INTRODUCCIN
En la vida real, la mayora de los fenmenos que se estudian secuencialmente, deben
tomar en cuenta la dinmica de los proceso con la finalidad de entenderlos de la mejor manera
posible. Una herramienta muy til en dicho objetivo es el Anlisis de Series de Tiempo. Se
pueden presentar casos de series de tiempo en una multitud de disciplinas como ingeniera,
sociologa, economa, finanzas por solo mencionar algunas de ellas.
El propsito fundamental es mostrar las tcnicas que nos permitan hacer inferencias del
proceso en estudio incluyendo su prediccin. Esto se logra estableciendo modelos
probabilsticos hipotticos que representen a los datos; y en consecuencia, se lleva a cabo el
proceso de ajuste que incluye desde la estimacin hasta la prediccin una vez que se determina
un modelo satisfactorio.
Los modelos de series deben considerar la naturaleza del fenmeno y determinar los
factores que pueden ser incluidos en los modelos; por ejemplo, en muchas series econmicas
es indispensable considerar los efectos estacionales de la serie. Si esto no se toma en cuanta,
los modelos no sern apropiados.
As como en los mtodos estadsticos tradicionales existen supuestos y conceptos
bsicos como la independencia de los errores aleatorios, en series de tiempo tambin se tiene
una serie de conceptos y supuestos que se usan como base fundamental de la teora. El
concepto quiz ms importante en este caso es la Estacionaridad, la cual existe en sentido
dbil y fuerte; y el supuesto ms comn es el de que los errores aleatorios forman un proceso
de Ruido Blanco, el cual no requiere que sean independientes. Aunque estos son, quiz, los
conceptos ms importantes, no son tampoco los nicos. Estos conceptos y otros adicionales
son el tema inicial del documento en el captulo 1.
Muchas de las tcnicas tanto de ajuste como de pronstico que se utilizan actualmente
y que se exponen en este trabajo se desarrollaron en el siglo XIX; un ejemplo de ello es el
anlisis de regresin. Con el desarrollo de tcnicas de pronstico ms complejas, junto con el
advenimiento de las computadoras, los pronsticos recibieron ms atencin durante los aos
recientes. Este desarrollo es en especial cierto desde la proliferacin de la pequea
computadora personal.
En la presente Tesis presentamos en el proceso de prediccin para series de tiempo los
modelos Auto-regresivos (AR), de Promedios Mviles (MA) y modelos mixtos autoregresivos de promedios mviles (ARMA); los cuales a su vez, son casos particulares de los
modelos ARIMA- Autorregresive, Integrated and Moving Average, lo que se traduce como
Modelos Integrados Auto-regresivos y de Promedios Mviles. La metodologa de ajuste e
inferencia de estos modelos fue formalizada por Box y Jenkins en 1976, (por lo que tambin
se les denomina modelos Box-Jenkins). Adems se presentan captulos adicionales como
bases de modelos Espacio Estado, y Series de Tiempo Multivariadas incluyendo el tema de
Cointegracin.

Anlisis de Series de Tiempo


CAPITULO II. CONCEPTOS BSICOS Y EL MODELO CLSICO
II.1. CONCEPTOS BSICOS
Para poder entender las bases de series de tiempo es necesario tener un fundamento
claro sobre las definiciones y conceptos que se acostumbran en esta rea de la Estadstica. Esta
seccin est dedicada a presentar dichos conceptos y la definicin de modelos bsicos en serie
de tiempo. Tambin se presenta una revisin bsica de la distribucin normal multi-variada y
sus propiedades.
Definicin II.1.1. (Proceso estocstico).- Un proceso estocstico es una coleccin de
variables aleatorias { X t } , referidas a un conjunto ndice T, el cual puede ser discreto o
continuo con una distribucin comn FX .
Note que la definicin no menciona si las variables aleatorias a las que se refiere el
proceso son independientes o no. Un aspecto importante es que el proceso debe estar referido
al mismo espacio de probabilidad ( , B, P ) . Detalles ms avanzados sobre definiciones y
conceptos de probabilidad y estadstica en series de tiempo se pueden consultar en [Brockwell
y Davis (1991)].
Definicin II.1.2. (Serie de tiempo).- Una serie de tiempo es una realizacin de las
variables aleatorias de un proceso estocstico referidas a un conjunto ndice T. En el contexto
de series de tiempo, el conjunto ndice es el tiempo. Aunque el conjunto T puede ser discreto o
continuo, en el presente trabajo se considera el caso discreto y las observaciones igualmente
espaciadas.
Ntese que, mientras un proceso estocstico es la coleccin de las variables aleatorias,
una serie de tiempo es una realizacin finita de un proceso estocstico. Es decir, la serie de
tiempo es el resultado de observar la coleccin de las variables aleatorias. De esta manera,
existe un nmero infinito de realizaciones (series de tiempo) de un mismo proceso estocstico
(ver ejemplo II.1.4).
Aunque es importante la distincin entre procesos estocsticos y series de tiempo, a
partir de esta seccin ambos conceptos se usan como sinnimos lo cul es muy comn en
textos de series de tiempo y solamente se estudian los modelos donde el conjunto ndice T es
discreto. Los ejemplos II.1.1, II.1.2 y II.1.3 muestran las definiciones de algunos de los
procesos estocsticos sencillos.
Las grficas 1 y 2 son ejemplos de series de tiempo reales. La grfica1 se refiere a la
tasa de desempleo mensual nacional de enero de 1998 a febrero del 2004; mientras que la
grfica 2 es sobre el tipo de cambio peso-dlar mensual promedio desde enero de 1998 a
marzo del 2004 [fuente: www.banxico.org.mx].
Ejemplo II.1.1. (Proceso Binario). Sea { X t } una coleccin de variables aleatorias Bernoulli
(p) para Xt=0,1. Entonces a {Xt} se denomina proceso binario.

Anlisis de Series de Tiempo


Ejemplo II.1.2. (Caminata Aleatoria). Sea { X t } una coleccin de variables aleatorias
independientes con media

y varianza

. Sea S n

X i , con S 0

0 , por definicin.

i 1

Entonces, la coleccin de variables aleatorias S0, S1, S2,... se le denomina caminata aleatoria.
Debe notarse que la definicin no supone la forma de la distribucin, sino que solo supone la
existencia de la media y la varianza de la variable aleatoria.
Ejemplo II.1.3. (Ruido Blanco). Sea {Z t } una coleccin de variables aleatorias nocorrelacionadas con media cero y varianza 2. A la coleccin Z0, Z1, Z2,..., se le conoce como
proceso de ruido blanco.
Es importante comentar que el proceso de ruido blanco no requiere que las variables
aleatorias sean independientes, ya que como es sabido, correlacin cero no implica
independencia de variables aleatorias, excepto cuando las variables aleatorias tienen
distribucin normal. Con este razonamiento, entonces, cualquier coleccin de v.a iid ~ (0, 2 )
es un proceso de ruido blanco, pero lo contrario no es necesariamente cierto.
Ejemplo II.1.4. (Serie de tiempo). Las colecciones de datos
{0,1,1,1,0,0,1,0,1,0,0,0,1,1,1}
{1,0,0,1,0,0,1,1,0,0,0,1,1,0,1},

son realizaciones (series de tiempo) del proceso binario del ejemplo II.1.1.
Grfica1. Tasa de desempleo nacional enero-1998 a febrero-2004.
4.5

1.5

2004/09

2004/04

2003/11

2003/06

2003/01

2002/08

2002/03

2001/10

2001/05

2000/12

2000/07

2000/02

1999/09

1999/04

1998/11

1998/06

1998/01

En S-PLUS se puede graficar creando un nuevo dataset y elegir alguna de las opciones
de la opcin Graph de la barra de herramientas. Para el caso de la serie del tipo de cambio, la
grfica se genera como sigue: Guardamos nuestra serie en un Dataset llamado Tcambio y la
variable como pesoxdolar. Seleccionamos la opcin Graph> 2D Plot y el tipo de grfica Y
series line. Obteniendo:

Anlisis de Series de Tiempo


Grfica2. Tipo de cambio peso-dlar Enero 1998 a Marzo 2004.

pesoxdolar

11

10

8
10

30

50

70

90

Definicin II.1.3. (Funcin de auto-covarianza).- La funcin de auto-covarianza de


una serie de tiempo { X t } , (t1, t2), est dada por:
(t1 , t 2 )

Sin perder generalidad se supone que t1

Cov( X t1 , X t 2 )

t2; tambin se puede suponer t2= t1+h.

Cuando t1 t 2 la auto-covarianza (t1 , t 2 ) es la varianza de la variable aleatoria en


cuestin. Es decir, dependiendo si t1 se iguala a t 2 o si t 2 se iguala a t1 . La distincin en este
caso es porque no es necesario que las variables aleatorias tengan la misma varianza con
respecto a t . Algunos avances recientes en series de tiempo han propuesto modelos cuyo
objetivo es estimar la medida de dispersin de los datos (modelos ARCH y GARCH). Estos
modelos no se discuten en el presente texto.
Definicin II.1.3a. (Funcin de auto-correlacin, ACF).- La funcin de autocorrelacin de una serie de tiempo est definida como:
(t1 , t 2 )

Cov( X t1 , X t 2 )
Var ( X t1 )Var ( X t 2 )

1/ 2

En el captulo III se darn las propiedades bsicas de la funcin de auto-covarianzas


(auto-correlaciones) y su caracterizacin para proceso estacionarios.
Definicin II.1.4. (Funcin promedio).- La funcin promedio de una serie de tiempo
{ X t } , para t=0,1,2,3,..., denotada por t , est definida por
t

E ( X t ),

para t=0,1,2,...
El subndice t en la definicin anterior implica que t es una funcin de t (en este
caso, del tiempo). De aqu que a la funcin se le denomine funcin promedio.

Anlisis de Series de Tiempo


Ejemplo II.1.5. (Caminata Aleatoria). Sea { X t } una coleccin de variables aleatorias
n

independientes con media

y varianza

. Sea S n

X i , con S 0

0 , por definicin. La

i 1

funcin de auto-covarianza y la funcin promedio del proceso {S t } estn dadas por:


t

E(

X j)

t .

j 1

y
(t1 , t 2 )

Cov( S t1 , S t 2 )
t1

(t1 , t1 h) Cov(

t1 h

X j,
j 1

X j)
j 1

(t1 , t1

h)

Cov( X 1

X2

... X t1 , X 1

(t1 , t1

h)

2
2
2
2
...

t1

X2
2

... X t1
2

min( t1 , t1

... X t1 h )

h) .

t1Veces

Ejemplo II.1.6. (Ruido Blanco). Sea {Z t } un proceso de Ruido Blanco. Las funciones
promedio y de auto-covarianzas del proceso {Z t } estn dadas por:
t

E (Z t )

y
(t1 , t 2 )

Cov( Z t1 , Z t 2 )

(t1 , t1

h)

Cov( Z t1 , Z t1 h )
2

(t1 , t1

h)

Cov( Z t1 , Z t1 h )

si h

0 si h

0
0

A continuacin se dan las definiciones de las dos versiones de Estacionaridad:


Estacionaridad estricta y Estacionaridad dbil.
Definicin II.1.5. (Estacionaridad Estricta).- Una serie de tiempo { X t } , con
t=0,1,2,3,... se dice que es estrictamente estacionaria si para cualquier coleccin finita de
variables aleatorias sobre el proceso se cumple que,
FX 1 , X 2 ,..., X k

FX 1

h , X 2 h ,..., X k h

La definicin anterior nos dice que, si seleccionamos k variables aleatorias y estas las
desplazamos h unidades de tiempo, la distribucin conjunta de las variables aleatorias no
cambia. La definicin la podemos representar en la siguiente figura:

10

Anlisis de Series de Tiempo


Figura1. Estacionaridad Estricta.

Definicin II.1.6. (Estacionaridad dbil).- Una serie de tiempo { X t } , para t=0,1,2,...


es estacionaria en sentido dbil si para cualquier coleccin finita de variables aleatorias sobre
el proceso aleatorio, cumple con las siguientes condiciones:
1.
2.

la funcin promedio no depende de t.

(t1 , t 2 )
(t1 , t1 h)
(h) la funcin de auto-covarianza no depende de t sino de
la diferencia (distancia) entre t1 y t2=t1+h.

La definicin de estacionaridad dbil asume que, para que una serie de tiempo sea
estacionaria en sentido dbil, debe de satisfacer forzosamente las dos condiciones expuestas;
de otra manera, la serie de tiempo no ser estacionaria en sentido dbil. Existen procesos que
pueden cumplir solo una de las condiciones por lo que en estos casos los procesos no sern
estacionarios (ver ejemplo II.1.7).
La relacin que existe entre estacionaridad dbil y estacionaridad estricta es sencilla,
ya que cualquier proceso que sea estrictamente estacionario tambin lo es en sentido dbil
(con momento de segundo orden finito). Esto sucede porque, al mantener la misma
distribucin en el tiempo, tambin se mantienen los mismos momentos (lo que implica que los
momentos no dependen del tiempo). Lo contrario no es necesariamente cierto; es decir, un
proceso estocstico que sea estacionario en sentido dbil, no es necesariamente estrictamente
estacionario (el nico caso donde esto se cumple es cuando el proceso es Gaussiano).
Es importante la interpretacin de la definicin ya que esta permite darnos una idea de
cmo debe lucir una serie de tiempo estacionaria. La primera condicin implica que el
promedio no debe cambiar con el tiempo, lo que quiere decir que la grfica de la serie debe
fluctuar alrededor de una constante (que se supone es el valor esperado de la serie). Por otro
lado, la segunda condicin quiere decir que a medida que avanza el tiempo, la funcin de autocovarianzas tampoco debe cambiar. Es decir, para una serie suficientemente grande tomando
como indicador, por ejemplo la (0) , debe mantenerse en un rango ms o menos constante. El
sentido comn es, muchas veces, un ingrediente importante para decidir si una serie es o no
estacionaria. Los ejemplos que se muestran en la discusin del modelo clsico ayudarn a
tener una idea ms clara de lo que significa que una serie sea estacionaria.
11

Anlisis de Series de Tiempo


El desarrollo de la teora de series de tiempo descansa en la estacionaridad de la serie.
Como se ver despus, la estrategia de ajuste de un modelo de series de tiempo, primero debe
satisfacer la condicin de estacionaridad y despus procede el ajuste del modelo.
Cuando una serie de tiempo no es estacionaria, se deben aplicar transformaciones que
permitan transformarla en una serie estacionaria (como transformaciones de Box y Cox y las
diferenciaciones).
A continuacin se resaltan algunas notas importantes deducidas de las definiciones
anteriores:
NOTA1: Otra manera de llamar a la estacionaridad dbil es estacionaridad de segundo orden
o estacionaridad en sentido amplio. En este texto se identificar como estacionaridad en
sentido dbil o simplemente estacionaridad. En el texto, cuando se suponga estacionaridad de
un proceso, se asumir que es sentido dbil si no se indica lo contrario.
NOTA2: La segunda condicin de estacionaridad dbil es equivalente a la condicin
(t1 , t 2 )
(t1 , t1 h)
(h).
NOTA3: Cuando una serie de tiempo es estacionaria, la funcin de auto-correlacin
( h)
estar dada por (h)
.
(0)

(h)

Un resultado importante sobre estacionaridad se da a continuacin. Este resultado


establece que cualquier transformacin de una coleccin de variables aleatorias estacionaria,
es estacionaria.
RESULTADO II.1.- Una combinacin lineal de 2 o ms series de tiempo estacionarias no
correlacionadas, es estacionaria. Es decir, si { X t } y {Yt } son 2 series estacionarias, entonces
la serie definida por Wt aX t bYt es estacionaria.
Demostracin.
Dado que { X t } y {Yt } son estacionarias, podemos suponer que E ( X t )
Cov( X t , X t h )
X ( h) y Cov(Yt , Yt h )
Y ( h) . As,
E (Wt )

E (aX t

bYt )

aE ( X t ) bE (Yt )

, E (Yt )

Claramente, la funcin promedio no depende de t. Veamos que pasa con la funcin de


autocovarianzas.

12

Anlisis de Series de Tiempo


W

(t , t

h)

Cov(Wt ,Wt h )

Cov(aX t

bYt , aX t

bYt h )

Cov(aX t , aX t h ) Cov(aX t , bYt h ) Cov(bYt , aX t h ) Cov(bYt , bYt h )


a 2 Cov( X t , X t h ) 2abCov( X t , Yt h ) b 2 Cov(Yt , Yt h )
a2

( h) b 2

( h)

La identidad resulta del supuesto de que las series estn no correlacionadas. Tambin,
podemos ver que la funcin de autocovarianzas de la combinacin lineal {Wt} no depende del
tiempo, sino de la distancia h. De esta forma queda demostrado que la combinacin lineal de
series estacionarias es estacionaria.
///
El ltimo concepto que se presenta en este captulo es el Error Cuadrado Medio (ECM)
de un estimador. La idea de este concepto es evaluar la precisin con la que se lleva a cabo
una estimacin, ya sea prediccin o estimacin de parmetros de un modelo.
Definicin II.1.7. (Error Cuadrado Medio).- El error cuadrado medio de un
estimador del parmetro de dimensin k. se define como
ECM ( )

E[(

)(

)]

Cabe destacar que la definicin del ECM no supone que el estimador sea insesgado
para ; Sin embargo, cuando el estimador es insesgado, el ECM se transforma en la varianza
del estimador. No es difcil demostrar que el ECM, en general, es igual a la varianza del
estimador ms el sesgo del estimador al cuadrado. Es decir,
ECM ( ) Var ( ) [ Sesg ( )] 2

Ejemplo II.1.7. (Estacionaridad dbil y estricta). Sea { X t } , tal que

E ( X t ) , un proceso

aleatorio con distribucin exponencial si t es un nmero non con E ( X t ) 1 ; y con


distribucin normal (1,1) si t es un nmero par. Es fcil verificar que para todo t , el valor
esperado y la varianza del proceso son iguales (ambas iguales a 1) y por lo tanto no dependen
del tiempo; Es decir, el proceso es estacionario en sentido dbil. Sin embargo, para distintos
valores de t la distribucin cambia en el tiempo (en este ejemplo es exponencial para nones y
normal para pares), por lo tanto el proceso no es estacionario en sentido estricto.
Ejemplo II.1.8. Sea { X t } una coleccin de variables aleatorias independientes con media
n

y varianza

. Sea S n

X i , con S 0

0 . De acuerdo al ejemplo II.1.5,

i 1

t
t

E(

X j)

t .

j 1

y
(t , t

h)

min( t , t

h) .

13

Anlisis de Series de Tiempo


En este ejemplo, tanto la funcin promedio como la funcin de auto-covarianza
dependen de t, por lo tanto, la caminata aleatoria no es un proceso estacionario. Si se supone
media igual a cero, t 0 , la funcin promedio no depende del tiempo; Sin embargo el
proceso sigue siendo no estacionario ya que la funcin de auto-covarianza si depende del
tiempo, pues sigue siendo igual a 2 min( t , t h) ; por lo que se cumple la primera condicin
de estacionaridad dbil, pero no la segunda. Por tanto el proceso no es estacionario.
II.2. DISTRIBUCIN NORMAL MULTIVARIADA Y SUS PROPIEDADES BSICAS
La inferencia estadstica bsica y, en general, los mtodos estadsticos, se basan
fundamentalmente en la distribucin de los datos, y dependiendo del caso, es la distribucin
que se asume. La distribucin ms comnmente usada con este propsito es la distribucin
normal, la cual ha probado ser un modelo adecuado para varios fenmenos reales. Esta
seccin est dedicada a presentar la distribucin normal multi-variada y sus propiedades
bsicas. Para mayor detalle sobre la distribucin normal puede consultar [Mood, et. al (1974)].
Definicin II.2.1. (Distribucin Normal multivariada).- Sea X un vector aleatorio
de dimensin n. Entonces, se dice que X tiene una distribucin normal multivariada,
denotado como X ~ NMV ( , ) , si su funcin de densidad est dada por:
fX

donde X

1
2

n/2

(1 / 2 )

exp ( X

(X

),

, la matriz de covarianzas, es positiva definida, abreviada como

p.d.
Cada componente del vector aleatorio es una variable aleatoria; por lo tanto

es el

vector de los valores esperados de cada uno de los componentes del vector aleatorio;
Es decir,
E[ X ] {E[ X 1 ], E[ X 2 ],..., E[ X n ]}' [ 1 ,

,...,

]'

Las propiedades ms importantes de esta distribucin se listan enseguida sin


demostracin. La demostracin de ellas puede consultarse en trabajos como los de [Mood, et.
al (1974)], [Graybill,F.A(1983)], entre otros.
Propiedad1. (Distribucin de una combinacin lineal). Sea X un vector aleatorio de
dimensin m con distribucin NMV ( , ) . Si a es un vector de constantes de dimensin k y
B una matriz de constantes de dimensin k m , entonces Y = a + B X se distribuye como
Normal Multivariada con media E[ Y = a + B X ]= a + B y matriz de covarianzas B B' .

Es decir:

14

Anlisis de Series de Tiempo


Y ~ NMV (a B , B B' )

Propiedad2. (Transformacin a una normal Estndar). Sea X un vector aleatorio de


1/ 2
dimensin m con distribucin NMV ( , ) . Entonces la transformacin W
(X
) se
distribuye NMV (0, I ) .
1/ 2
se puede construir usando la descomposicin espectral de
o
La matriz
aplicando la descomposicin de Cholesky. Esta propiedad es la generalizacin de la de
estandarizacin que se tiene en la normal univariado.

Propiedad3. (Distribuciones marginales 1). Sea X un vector aleatorio de dimensin m con


distribucin NMV ( , ) . Entonces X i (el i-simo componente de X ) tiene distribucin
normal con media i y varianza 2 i , donde
simo componente de la diagonal de .

es el i-simo componente de

es el i-

El resultado anterior se puede generalizar para cuando la distribucin buscada es un


vector de dimensin k n cuyos componentes son un subconjunto de los componentes del
vector aleatorio X .
Propiedad4. (Distribuciones marginales 2). Sea X

[X

(1)

,X

( 2)

]' un vector aleatorio de

(1)
( 2)
dimensin m con distribucin NMV ( , ) ; y sean X y X una particin de X , tal que

(1)

es de dimensin k1 y X
11

12

21

es NMV (

( 2)

de k 2 con k1

las particiones correspondientes de

(1)

( 2)

]' y

. Entonces, la distribucin de X

(i )

22
(i )

ii

(i )

) para i=1,2., donde

componentes que forman a X

(i )

(i )

E ( X ) contiene los valores esperados de los

E[( X

ii

(i )

(i )

covarianzas de los componentes de X . Adicionalmente, X


'
0.
independientes si y solo si 12
21
Propiedad5. (Distribuciones condicionales). Sea X

(1)

condicional de ( X

( 2)

(1)

[X

]' y matriz de co-varianzas


|X

( 2)

x 2 ) es NMV (
(1|2)

(1|2 )

(1|2 )

(1)

1
12

22

( 2)

y
(1|2 )

1
11

12

15

22

(1)

(1)

21

( 2)

11

12

21

22

( 2)

(i )

y X

,X

) donde

(x

(i )

)( X

(i )

media

m . Sean

k2

( 2)

)' ] es la matriz de

son vectores aleatorios

]' un vector aleatorio con

. Entonces la distribucin

Anlisis de Series de Tiempo


Esta propiedad, se conoce como funcin de regresin y est ntimamente relacionada
con la prediccin en series de tiempo.
Enseguida se presenta un ejercicio que muestra la aplicacin de la distribucin Normal
y del principio del error cuadrado medio para llevar a cabo la prediccin a un paso en una serie
de tiempo estacionaria. El problema bsico se reduce a encontrar el mejor predictor lineal de
.
Ejemplo II.2.1. Sea { X t } para t
varianza

1,2,3,... una serie de tiempo estacionaria con media

Xn

. Defina el vector aleatorio, X

varianzas

( 0)

(1)

(1)

( 0)

. Sea, PX n

X n

Xn
1

con media

y matriz de co-

a1 X n , el mejor predictor lineal de X n

a0

en funcin de X n . Encuentre:
1. Los coeficientes a0 y a1, tal que el ECM ( X n 1 ) sea mnimo.
2. La distribucin condicional de [ X n 1 | X n xn ] suponiendo que el vector tiene
distribucin normal.
Solucin1.
Aplicando la definicin del ECM, tenemos:

ECM ( X n 1 )

E[ X n

X n 1 ]2

E[ X n

(a0

a1 X n )] 2

El proceso de minimizacin, como es sabido, consiste en igualar ambas derivadas


(resultantes de derivar con respecto a a1 y a2) con cero. Es decir,
Derivando con respecto a a0:

a0

ECM ( X n 1 )

a0

E Xn

2E X n

a0

a0

(a 0

(a0

a1 X n ) =0

a1 X n ) ( 1) =0

a1 =0

(1 a1 ) a 0 =0

Derivando con respecto a a1:

a1

ECM ( X n 1 )

a1

E Xn

(a 0

a1 X n ) =0

16

Anlisis de Series de Tiempo


2E X n

a1 X n ) ( X n ) =0

(a0

E [ X n 1 X n ] (a0 X n ) a1 X n X n ) =0

a1

(1)

a0

a1 (0) a1

=0

Con las dos igualdades anteriores (derivadas igual a cero) se obtiene un sistema de
ecuaciones. De la primera ecuacin se obtiene (1 a1 ) a0 . Sustituyendo esta igualdad en la
segunda ecuacin obtenemos:
2

(1)

Sustituyendo la solucin a1

(1 a1 ) a1 (0) a1
(1) a1 (0)
(1)
a1
(1) .
(0)

(1) en la primera ecuacin encontramos:


[1

a0 .

(1)]

Por lo que el mejor predictor lineal deseado es

X n

[1

(1)]

(1) X n

).

(1)( X n

El ECM del estimador se obtiene sustituyendo la solucin en la expresin general del


ECM. As,

E Xn

(a0

a1 X n )

E Xn

E{ X 2 n

2 X n 1[

(1)( X n

)] [

E{ X 2 n

2 X n 1[

(1)( X n

)] [

(0)

(0)

2 EX n
2

2 (1) E ( X n

2 (1) (1)

(0) 2 (1) (1) (0)

(1) 2 (0)

(1)( X n

)] 2 },

(1)( X n
2

)X n
2

)] ,

(1)( X n
2

(1) E ( X n

(0)[1

(1) 2 ( X n

(1) E ( X n
(1) 2 E ( X n

) 2 ]},
(1) 2 E ( X n

)
)2 ,

(1) 2 ]

Es decir,

ECM ( X n 1 ) [1

(1) 2 ] (0).

2
En la ltima ecuacin es importante mencionar que (0)
es la varianza de la serie
2
de tiempo. El comentario se debe a que, en general,
es la varianza del proceso de ruido
blanco en el proceso de anlisis de series de tiempo.

17

)2 ,

Anlisis de Series de Tiempo


Solucin2 (suponiendo normalidad).
Suponiendo normalidad, podemos aplicar el resultado correspondiente a las
distribuciones condicionales de distribuciones normales. El ejercicio requiere encontrar la
distribucin condicional de [ X n 1 | X n xn ] , la cual es normal con media:
(1)
( xn
(0)

(1|2 )

(1)( x n

X n 1 ,

y varianza
(1|2 )

(1|2)

(0)[1

(0)

(1) 2
.
(0)

(1) 2 ]

ECM ( X n 1 ).

Note que comparando las estrategias resulta que ambas llegan al mismo resultado.
As, la estrategia de prediccin sera usar resultados de la distribucin normal si se tiene (o se
supone) normalidad de los datos, de otra manera se puede aplicar el principio de mnimos
cuadrados. Otra posible interpretacin del ejercicio es que la funcin de regresin, en efecto,
produce el estimador de mnimos cuadrados.
II.3. EL MODELO CLSICO
La teora clsica de series de tiempo tiene como base el representar a una serie de
tiempo con una serie de componentes que describen su comportamiento. Lo ms comn es la
inclusin de componentes de tendencia, estacional y aleatorio. Es decir, una serie de tiempo
{ X t } se puede representar como:
Xt

mt

st

Yt

donde: mt es una funcin que describe la tendencia de los datos;


s t es un componente estacional determinada por un periodo d, y
Yt es el componente aleatorio de la serie (usualmente se refiere a un proceso

estacionario). Las formas funcionales ms comunes {mt } son:


mt a bt
funcin de tendencia lineal
mt

a bt

ct 2

funcin de tendencia cuadrtica

o, en general
n

a jt j

mt

funcin de tendencia polinomial de grado n.

j 1

Con respecto al componente estacional, s t con periodo d, se supone que cada d


observaciones el componente estacional se repite. Es decir, se cumple:

18

Anlisis de Series de Tiempo


st

st

st

Si se clasifican a las series de tiempo de acuerdo a la presencia y o ausencia de los


componentes de tendencia y estacional, las series pueden ser:
Xt

mt

st

Xt

st

Yt

Xt

mt

Yt

Xt

Yt

Estacional con tendencia.


Estacional sin tendencia.
Sin estacionalidad con tendencia, y
Sin estacionalidad y sin tendencia.

Yt

Tanto el componente de tendencia, como el componente estacional, son


matemticamente funciones determinsticas (no aleatorias) que forman parte de la estructura
del modelo. Es claro que cuando una serie de tiempo muestra tendencia y o estacionalidad, la
serie no es estacionaria. Por esta razn, se deben tener las herramientas necesarias para poder
estimar y o eliminar dichos componentes de una serie de tiempo con el fin de transformarla en
estacionaria. Las estrategias ms comunes incluyen la aplicacin de diferenciaciones a los
datos, ajustando funciones que describen a los componentes (usando mnimos cuadrados) y
aplicando filtros. Se describen solamente las diferenciaciones para estacionalidad y tendencia,
y el ajuste polinomial al componente de tendencia. La descripcin de los filtros y tcnicas ms
sofisticadas para tratar estos componentes se encuentran en [Brockwell y Davis (1998)].
incluyendo la relacin entre
A continuacin se da el lgebra de los operadores B y
ellos para poder mostrar la utilidad de las diferenciaciones en la transformacin de las series
de tiempo.
BX t

Xt

Xt

Xt

Xt

Potencias de B y
Bk X t
k

Xt

(1 B) X t

son consistentes con el lgebra comn. As,

Xt

(1 B) k X t

Xt

(1 B k ) X t

Xt

Xt

Es importante destacar que diferenciar k veces una serie no es igual a tomar una
diferencia a distancia k . La razn es muy simple debido a que estaramos comparando a
(1 B) k X t contra (1 B k ) X t , las cuales son totalmente diferentes.
Ntese que las propiedades descritas sobre el operador B implican que B es un
operador lineal, es decir,

(1 a B a2 B 2

... an B n ) X t

Xt

19

a1 X t

a2 X t

... an X t n .

Anlisis de Series de Tiempo


Conociendo los operadores B y
, procede al anlisis de diferentes modelos
generales de series para eliminar y o estimar los componentes de estacionalidad y tendencia.
II.3.1. Modelo con componente de tendencia
Supongamos primeramente un modelo de la forma X t
Diferenciando una vez el modelo, se obtiene:
Xt

Xt

mt

mt

Yt

mt

Yt , donde mt

a bt .

Yt 1 ,

Xt

(a bt ) [a b(t 1)]

Yt ,

Xt

a bt

Yt

Y,

Xt
la cual sera una serie sin tendencia, ya que
grado cero como trmino de tendencia (constante).

Yt incluye solo un polinomio de

a bt b

Con la finalidad de mostrar ms detalles de las diferenciaciones en la funcin de


tendencia, considrese mt a bt ct 2 . Aplicando diferenciacin se obtiene:
ct 2 ) [a b(t 1) c(t 1) 2 ]

Xt

(a bt

Xt

a bt

ct 2

Xt

a bt

Xt

(b c) 2ct

ct

a bt
a bt

b c(t 2
b ct

Yt ,

2t 1)
2ct

Yt ,
Yt ,

Yt .

Es claro que despus de aplicar una diferenciacin al modelo propuesto, se obtiene


como componente de tendencia, un polinomio de primer grado. Ahora, por el caso anterior, si
aplicamos nuevamente la diferenciacin al nuevo modelo, obtendremos un modelo sin
tendencia; es decir con un polinomio de grado cero. As,

Por lo tanto,

Xt

(b c) 2ct (b c) 2c(t 1)

Xt

2c

Yt ,

Yt .

X t es un modelo sin tendencia.

Con estos ejercicios, puede deducirse que si se tiene una serie de tiempo con un
n

a j t j , aplicando n diferenciaciones a distancia uno se

componente de tendencia mt
j 0

obtendr una serie sin componente de tendencia. Es decir,


n

Xt

20

Yt .

Anlisis de Series de Tiempo


La grfica3 muestra la serie del tipo de cambio mensual diferenciada a distancia 1. En
la grfica2 es claro que la serie original no es estacionaria. Por lo tanto se recurre a
diferenciarla. En la grfica3 se nota a simple vista que la serie diferenciada es estacionaria.
Grfica3. Serie tipo de cambio diferenciada a distancia 1.

pesoxdolar

1.0

0.5

0.0

-0.5

10

30

50

70

90

Las instrucciones en S-PLUS para llevar a cabo la grfica3 son:


tcamb.dif<-diff(Tcambio,1,1)
guiPlot(PlotType="Y Series Lines", Columns=1, DataSet="tcamb.dif")

Para llevar a cabo la diferenciacin y grfica de la serie diferenciada en ITSM-2000,


una vez que se tiene en pantalla la grfica de la serie original, se sigue la secuencia de
opciones Transform>Difference y se especifica la distancia a la que se desea diferenciar, en
este ejemplo es 1. La grfica de la serie diferenciada aparece automticamente.
Una manera de modelar la tendencia es ajustando un polinomio de grado k usando
mnimos cuadrados. Es decir, se ajustara una regresin usando a X t como variable
dependiente y a t como variable independiente. Entonces, el problema se reduce a estimar las
constantes del polinomio usando
n

min

a0 , a1 ,..., ak

a k t k ) 2

(X t
t 1

i 0

Es conocido que la solucin de mnimos cuadrados para el vector a est dada por:
(W W ) 1W X ,

donde:
1 1
W

...

X1

X2

a 0
a1

1 2

... 2

...

... , X

...

...

1 t

Xt

a k

... t

21

y a

Anlisis de Series de Tiempo


Esta solucin se usa para obtener el estimador del componente de tendencia, que a su
vez se puede restar de la serie original para obtener una serie estacionaria. La estrategia,
entonces, se reduce a obtener:
k

m t

Xt

Xt

a j t j

Yt ,

j 0

y dado que se asumi a {Yt } como proceso estacionario, restando de la serie original el
componente de tendencia estimado, se obtiene una nueva serie estacionaria.
La grfica4 muestra el efecto de la eliminacin de tendencia aplicando regresin lineal
con un modelo cuadrtico. Los datos son de la serie de desempleo presentados en la grfica1.
Con esta estrategia, los parmetros del modelo ajustados toman los valores:
a0

3.5621 , a1

0.0737 y a2

0.00105

Grfica4. Desempleo con ajuste de tendencia cuadrtico.


4.5

1.5

2004/09

2004/04

2003/11

2003/06

2003/01

2002/08

2002/03

2001/10

2001/05

2000/12

2000/07

2000/02

1999/09

1999/04

1998/11

1998/06

1998/01

La grfica4 est hecha en Microsoft Excel. Para agregar la lnea de tendencia en la


grfica se selecciona la secuencia de la barra de herramientas superior Grfico>Agregar lnea
de tendencia y seleccionar la opcin que uno desee (lineal, logartmica, polinomial, etc.). En
este caso, se eligi un polinomio de segundo grado. Tambin existe la opcin de mostrar los
valores de los coeficientes de la lnea ajustada.
La grfica de los residuales (la diferencia entre el valor observado y el valor calculado
por el modelo ajustado), despus de ajustar el modelo cuadrtico, se presenta en la grfica5. A
simple vista se puede observar que la serie ya es estacionaria.
Es importante mencionar que la aplicacin de estrategias diferentes para controlar
la tendencia, da como resultado series estacionarias diferentes. Es decir, la serie resultante
con diferenciaciones no es igual a la serie resultante con polinomios.

22

Anlisis de Series de Tiempo


Grfica5. Residuales despus de ajustar modelo cuadrtico a la serie de
desempleo.
0.8
0.6
0.4
0.2
0
1

13

17

21

25

29

33

37

41

45

49

53

57

61

65

69

73

77

81

-0.2
-0.4
-0.6

II.3.2. Modelo con componente estacional


Supngase el modelo X t st Yt con s t un componente estacional con periodo d.
Aplicando diferenciaciones a distancia d y del hecho de que st st d st d , el modelo se
transforma en:
X t X t d st st d Yt Yt d ,
d Xt
d Yt ,
el cual es un nuevo modelo sin componente estacional; solo contiene la parte estacionaria.
La grfica6 muestra la precipitacin promedio mensual de la Repblica Mexicana
desde enero de 1990 a febrero del 2004 [fuente: www.inegi.org.mx]. Claramente se observa
un componente estacional cuya magnitud es muy similar de ciclo a ciclo. Por lo tanto, la serie
no es estacionaria. Adems, por la naturaleza de la serie (datos mensuales), se tiene una serie
estacional con periodo d=12 lo que sugiere una diferenciacin a distancia 12. Esta nueva serie
se muestra en la grfica7 y se puede observar que la nueva serie ya es estacionaria.

Grfica6. Precipitacin mensual para la Rep. Mexicana Ene-1990 a Feb-2004.

23

Anlisis de Series de Tiempo


Grfica7. Serie precipitacin diferenciada a distancia 12.

Existen casos donde por la naturaleza de la serie, los ciclos no tienen la misma
magnitud (regularmente cada vez es mayor). Cuando esto ocurre, el primer paso para volver la
serie estacionaria es transformarla con las transformaciones de Box y Cox. Esto se realiza con
la finalidad de estandarizar la variabilidad del proceso. La expresin general de estas
transformaciones est dada por:
X

para

X
ln( X ) para

La importancia de estas transformaciones radica en que diferentes valores de


son
casos particulares de las transformaciones ms comunes. La transformacin con logaritmos es
quizs la ms comn para estabilizar la varianza de un conjunto de datos lo cul corresponde
un valor de
0 . Ver [Box y Cox (1964)]. Por ello, si se tiene una serie de tiempo cuyo ciclo
no sea homogneo, cada vez de mayor magnitud, lo ms recomendable es en primer lugar,
transformar los datos con logaritmos y posteriormente aplicar las diferenciaciones para lograr
la estacionaridad de la serie. Un ejemplo de este tipo se presenta en la siguiente seccin.
II.3.3. Modelo con componentes de tendencia y estacional
k

Considrese el modelo dado por X t

mt

st

a j t j y st

Yt con mt

st d . El

j 1

objetivo es transformar la serie en una nueva serie estacionaria. Apliquemos una


diferenciacin a distancia d con el fin de eliminar el componente estacional. Es decir:
Xt

Xt
d

( st

st d ) (mt

Xt

(mt

mt d )

mt d ) Yt

Yt d ,

Yt ,

Como puede observarse, el resultado de la diferenciacin es una serie nueva sin


estacionalidad pero con tendencia (polinomio de grado k). Por lo discutido en prrafos

24

Anlisis de Series de Tiempo


anteriores, si esta nueva serie se diferencia k veces a distancia uno, se obtendr una serie
estacionaria. As,
k
k
C
d Xt
d Yt , .
Es comn llevar a cabo el anlisis de una serie con ambos componentes usando tanto la
estrategia de mnimos cuadrados para el componente de tendencia y la diferenciacin en el
componente estacional. Si se adopta una estrategia como esta, el primer paso podra ser el
ajuste del polinomio de tendencia. As, la nueva serie estacional sera:
X t m t st Yt ,
donde m t es el componente de tendencia estimado por mnimos cuadrados.
El siguiente paso sera llevar a cabo la diferenciacin para eliminar el componente de
tendencia, por lo que diferenciando a distancia d, la serie final sera:
X *t

X *t

st

st

Yt

Yt d ,

Yt ,

donde
X *t

Xt

m t

que finalmente es una serie estacionaria.


La estrategia a seguir en la transformacin de una serie para que sea estacionaria no es
nica, por lo tanto no existe una estrategia mejor que la otra. Ms bien, la estrategia se debe
seleccionar de acuerdo al objetivo que se persiga. Por ejemplo, si es necesario tener
estimaciones del componente de tendencia se recurre a la segunda estrategia; mientras que si
no se requiere la estimacin del componente de tendencia se podra optar por la primera.
La grfica8 muestra el nmero de viajeros internacionales de enero de 1980 a febrero
del 2004 por va area en Mxico (Fuente: www.banxico.org.mx). En la grfica puede
observarse una serie estacional con tendencia lineal donde la magnitud el ciclo estacional
aumenta conforme pasa el tiempo.
Grfica8. Viajeros internacionales mensuales Ene-1980 a Feb-2004.

25

Anlisis de Series de Tiempo


Dada la variabilidad de la serie, es recomendable tomar logaritmos con el fin de
estabilizar la varianza de la serie antes de proceder a eliminar la tendencia o la estacionalidad.
La grfica9 muestra el efecto de haber eliminado la variabilidad con los logaritmos. La
estabilidad de la variabilidad se logr ya que la nueva serie tiene ciclos prcticamente
homogneos.
Por la naturaleza de la serie, el periodo del ciclo es 12 con una tendencia lineal. Con
este razonamiento, la serie se diferencia a distancia 12 y despus a distancia 1. Las grficas 10
y 11 muestran las series diferenciadas a distancia 12 y posteriormente a distancia 1. En la
grfica10 se ve como la diferenciacin a distancia 12 elimin el componente estacional
dejando irregularidades que muestran que la serie no es estacionaria. Una nueva diferenciacin
a distancia 1 se hace con le fin de volver a la serie estacionaria. En la grfica11 se observa que
la serie final ya es estacionaria.
Grfica9. Logaritmo de la serie viajeros.

Grfica10. Logaritmo de viajeros diferenciado a distancia 12.

26

Anlisis de Series de Tiempo


Grfica11. Logaritmo de viajeros diferenciado a distancia 12 y a distancia 1.

Las grficas anteriores estn hechas con Microsoft Excel. Las grficas 9 y 10 se
consiguen tomando logaritmo natural en las observaciones originales y se grafican contra el
tiempo. En ITSM-2000 el procedimiento consiste en seleccionar las opciones Transform >
Box Cox y especificar el valor cero en el cuadro de dilogo (Enter Parameter), esto
equivale a obtener los logaritmos de las observaciones. La grfica de los logaritmos de las
observaciones aparece automticamente. La grfica 10 (en ITSM-2000) se hace como en la
grfica3.
Las estrategias presentadas en el presente captulo para volver una serie estacionaria
son de gran utilidad, ya que esta etapa es el primer paso en el proceso de ajuste de un modelo
de series de tiempo a datos reales.

27

Anlisis de Series de Tiempo


CAPITULO III. PROCESOS ESTACIONARIOS Y MODELOS BSICOS DE SERIES DE
TIEMPO
En este captulo se estudian temas relacionados a los procesos estacionarios y
resultados relativos, ya que dichos procesos son la base fundamental de la teora de series de
tiempo. Puede decirse que el manejar datos estacionarios es una manera de generalizar una
coleccin de datos que no provienen de una muestra aleatoria; Es decir, no son independientes
e idnticamente distribuidas, por lo tanto se debe asumir un tipo de dependencia entre ellas.
Adems, esto implica que las covarianzas entre las variables aleatorias consideradas son
diferentes de cero; lo cual a se vez sugiere que tanto las funciones de autocovarianza y
autocorrelacin sern la parte esencial en el proceso de anlisis de las series de tiempo.
III.1 PROPIEDADES BSICAS
Esta seccin presentar las herramientas fundamentales de anlisis e inferencia para
llevar a cabo el anlisis de series de datos reales.
III.1.1. Propiedades de las Funciones de Auto-covarianza y Auto-correlacin
La manera ms importante de explicar la estacionaridad de un conjunto de datos es a
travs de la funcin de auto-covarianza, (h) , o de la funcin de auto-correlacin, (h) .
El siguiente resultado da las propiedades que una funcin cualquiera
satisfacer para que pueda ser una funcin autocovarianzas.

(h) debe

RESULTADO III.1.- Sea (h) la funcin de auto-covarianza de un proceso estacionario.


Entonces (h) tiene las siguientes propiedades:
1. (0) 0
2. | ( h) | (0)
( h)
3. (h)
y
n

ai (i

4.

j )a j

0 para todos los vectores a

(a1 , a 2 ,..., a n )' de dimensin n.

i, j 1

Demostracin.
La propiedad (1) es muy sencilla de probar ya que (0) es una varianza, por lo tanto debe ser
mayor o igual a cero.
Para demostrar la propiedad dada en (2) partimos del hecho de que | ( h) | 1 , dado que es una
correlacin. Entonces:
| (h) | 1

28

Anlisis de Series de Tiempo


(h)
( 0)

Como (0) es no-negativa (por la propiedad 1), su valor absoluto es igual al valor real.
(h)
1
(0)
(h)
(0)
La propiedad (3) establece que la funcin de auto-covarianzas debe ser una funcin par, lo
cual se observa porque
(h)

Cov( X t , X t h )

Cov( X t h , X t )

Cov( X t , X t h )

( h)

La igualdad se da debido a la suposicin de estacionaridad del proceso.


La ltima propiedad, se cumple porque si a (a1 , a 2 ,..., a n )' , con componentes en los nmeros
reales. Entonces, la varianza de a' X debe ser no-negativa; Es decir,
Var (a X )

a' a

ai (i

j )a j

0.

i, j 1

es la matriz de
Esta es la expresin de una funcin no-negativa definida, porque la matriz
covarianzas del vector X ( X 1 ,..., X n )' , la cual por definicin debe ser no-negativa definida.
///
Tambin existe el resultado que garantiza que cualquier funcin de valor real que sea
una funcin par y no-negativa definida es la funcin de autocovarianzas de una serie de
tiempo estacionaria. A continuacin se da el resultado sin demostracin. Para su demostracin
ver [Brockwell y Davis (1991)].
RESULTADO III.2.- Una funcin de variable real (h) definida en los enteros ( h Z ) es la
funcin de auto-covarianzas de un proceso estacionario si y solo si es una funcin par y nonegativa definida.
En consecuencia de la definicin de la funcin de auto-correlacin, (h ) , esta tiene las
mismas propiedades de (h) , adems del conocido resultado de que est acotada entre -1 y 1.

29

Anlisis de Series de Tiempo


III.2. PROCESOS LINEALES
La clase de procesos estacionarios ms comunes para estudiar series de tiempo son los
procesos lineales. Estos procesos son el punto de referencia para el estudio de los modelos ms
conocidos en las series de tiempo estacionarias.
Definicin III.2.1. (Proceso Lineal).- Una serie de tiempo { X t } es un proceso lineal
si tiene como expresin,

Xt

Zt

para toda t, donde {Z t }

WN (0,

) y{

} es una sucesin tal que

Usando el operador B definido en el captulo anterior, el proceso { X t } se puede reescribir como


( B) Z t ,

Xt

( B)

donde

Bj .

Se puede probar que la condicin de convergencia de la serie

| asegura la

convergencia del proceso X t

Z t j . La razn se demuestra usando teoremas de

convergencia. Para mayor informacin sobre el tema ver [Brockwell y Davis (1991)].
El siguiente resultado da una estrategia para calcular la funcin de auto-covarianza de
un proceso { X t } definido en funcin de otro proceso estacionario {Yt } . El resultado es uno de
los ms importantes que se debe tener presente en la teora de las series de tiempo ya que
cuando el proceso {Yt } es un proceso de ruido blanco, define la estrategia de clculo de la
funcin de auto-covarianza de un proceso lineal. En las siguientes secciones, se discuten los
modelos clsicos de series de tiempo, los cuales pueden representarse como procesos lineales.
RESULTADO III.3.- Sea {Yt } un proceso estacionario con media cero y funcin de autocovarianzas

(h) . Entonces el proceso { X t } definido por X t

j t j

, donde

, es estacionario con media cero y funcin de auto-covarianzas

( h)

(| k

j |)

j ,k

Si adems, el proceso {Yt } es un proceso de ruido blanco, la funcin de auto-covarianzas se


transforma a:

30

Anlisis de Series de Tiempo


x

( h)

k h

Demostracin.
La manera obvia de demostrar el resultado es mediante la aplicacin de la definicin de
covarianzas. Sabemos que por las propiedades del operador covarianza:

( h)

Cov( X t , X t h )

Cov(

Yt k ,

( h)
k

( h)

Cov(Yt k , Yt
y

(| k

j t h j

h j

j |)

por lo tanto
x

( h)

k
k

(| k

j |) .

Ahora, si {Yt } {Z t } es un proceso de ruido blanco, X t

Z t j . Sustituyendo en la

expresin de covarianzas, obtenemos que

( h)

k, j

Ahora, suponiendo que k

h , la expresin se transforma a:

( h)

k h

La primera parte del resultado dice que la convergencia absoluta de las series en filtros de la
forma

( B)

Bj

( B)

Bj

con coeficientes absolutamente convergentes, se pueden aplicar sucesivamente a una serie


estacionaria {Yt } para generar una nueva serie estacionaria dada por

Wt

j t j
j

31

( B) Z t ,

Anlisis de Series de Tiempo


donde,

j k

j k

NOTA1: La condicin

implica que cualquier transformacin que se haga a la

serie original con filtros que cumplan con esta condicin, generar una nueva serie
estacionaria.

Definicin III.2.2. (Proceso de promedio mvil).- Sea { X t } un proceso lineal. Si


0 para toda j < 0, entonces al proceso { X t } se le llama proceso de promedio mvil o

MA( ) . Es decir, un proceso de promedio mvil tiene como expresin:

Xt

Zt

( B) Z t

j 0

donde

( B)

Bj .

j 0

La definicin anterior es muy importante en el estudio de los modelos clsicos de


series de tiempo, ya que si los procesos de series de tiempo satisfacen ciertas condiciones, se
pueden expresar como procesos de promedio mvil.
III.3. MODELOS AUTORREGRESIVOS: MODELO AR(1)
Los modelos ms comunes en series de tiempo son los modelos auto-regresivos. Estos
modelos se caracterizan por tener una forma funcional donde el valor de la variable a tiempo t
depende de valores pasados de la misma variable a tiempos (t 1) , (t 2) , ..., (t p ) . Es decir,
si { X t } es un proceso estacionario, el valor que toma la variable X t depende de X t 1 , X t 2 ,...
y X t p . Para empezar el estudio de estos modelos, comenzaremos con el proceso autoregresivo de primer orden.
Definicin III.3.1 (AR(1)).- Un proceso estocstico { X t } , sigue un proceso AR(1) si
tiene como expresin a:
Xt

Xt

Zt

. (1)

donde {Z t } es un proceso de ruido blanco con media 0 y varianza


{Z t } ~ WN (0,

1 . [Notacin:

) ].

Alternativamente, usando el operador B, el proceso puede escribirse como


( B) X t

Z t , donde ( B ) 1

32

B.

Anlisis de Series de Tiempo


Buscaremos una expresin del modelo como proceso lineal para poder estudiar a
detalle su funcin de auto-correlacin. Si hacemos sustituciones recursivas de { X t } en (1) ,
obtenemos:
Xt

Xt

Zt

[ Xt
2

Xt

2
3
3

Xt

Zt

[ Xt
3

[ Xt

Xt

Zt

Zt

Zt 3 ]

Xt

Zt

Zt 2 ]

3
2

Xt

Zt 1] Zt

Zt

k 1
k

Zt

Zt

Zt

Zt

Zt

Zt

Zt

k 2

Zt

Zt

k 1

Zt

Zt

...

k 2

Zt

Repitiendo este proceso un nmero infinito de veces (cuando k


anterior se transforma en:
j

Xt

Zt

( B) Z t ,

Zt

Zt

), la expresin

(2)

j 0
j

donde ( B)

Bj .

j 0

Debemos notar que con las sustituciones recursivas se expres al modelo AR(1) como
j
proceso lineal donde
; y dado que debemos asegurar que la serie
j

|
j 0

, se debe imponer la restriccin | | 1 . Es decir, el modelo AR(1) es

j 0

estacionario si y solo si | | 1 .
)
(Xt 1
) Z t , el
NOTA2: Una expresin ms general del modelo AR(1) es ( X t
cual es un proceso AR(1) con media . En el presente texto se asumirn los procesos con
media cero al menos que se especifique lo contrario. Como veremos posteriormente, al
imponer media igual a cero en el proceso, no se pierde generalidad en el estudio de cualquier
modelo.

Si aplicamos el resultado III.3 a la expresin ( 2) , podemos encontrar la funcin de


auto-covarianzas del proceso AR(1) ya que se expres como proceso lineal. As,

( h)

2
j

j h

j 0

j 0

33

j h

Anlisis de Series de Tiempo


2

( h)

2j
j 0

por lo tanto,
2

( h)

Usando la expresin de
(h) est dada por:

(h) , la

h
2

(h) se obtiene aplicando su definicin. Es decir,

(h)

La expresin de la funcin de auto-correlacin para este proceso es muy sencilla.


Adems, recordemos que se impuso la condicin de estacionaridad en el modelo AR(1) de que
| | 1 . Es claro que dado que | | 1 , la funcin converge a cero de manera decreciente o de
manera alternante con los valores de h. O sea, dependiendo del valor de , la funcin de auto0 , la funcin es decreciente y si
0 la
correlacin puede mostrar diferentes formas; si
funcin es alternante. Las grficas 12 y 13 muestran las funciones de auto-correlacin de un
proceso AR(1) , cuando toma valores de 0.8 y -0.8, respectivamente.
En las grficas se puede observar como las funciones convergen a cero para una h
moderadamente pequea. Dependiendo del valor de , la convergencia hacia cero puede ser
ms o menos rpida; a mayor valor de , menos rpido ser la convergencia a cero.

Grfica12. Funcin de autocorrelacin AR(1): phi=0.8

1.0

ACF

0.8

0.6

0.4

0.2

0.0
0

10
h

11

34

12

13

14

15

16

17

18

19

20

Anlisis de Series de Tiempo


Grfica13. Funcin de autocorrelacin AR(1): phi= -0.8

1.0

ACF

0.5

0.0

-0.5

-1.0
0

10
h

11

12

13

14

15

16

17

18

19

20

Ambas grficas (12 y 13) estn hechas con S-PLUS. La primera, como ya se
mencion, corresponde a la funcin (h) 0.8 h y la segunda a (h) ( 0.8) h . Las
instrucciones para hacerlas son: Crear un dataset con dos columnas: en una el valor de h y en
la otra el valor de la ACF. Seleccionar Graph > 2D Plot y la opcin Bar Y min Base. Ms
adelante aparecen grficas de la ACF para otros modelos. La forma de hacerlas es la misma
que en este caso.
La aplicacin del resultado III.3 no es el nico mtodo para calcular la funcin de
auto-covarianzas (auto-correlacin). Existen mtodos adicionales que, dependiendo del caso a
analizar, pueden ser ms sencillos de aplicar. Un ejemplo sera para modelos auto-regresivos
AR(p), donde es ms sencillo aplicar el mtodo de Yule-Walker. Este mtodo se describe en la
generalizacin de los modelos auto-regresivos.
A continuacin se da un cuadro resumen de las propiedades fundamentales del proceso
AR(1):
Cuadro1. Resumen de las caractersticas del proceso AR(1)
AR(1)
Xt
X t 1 Zt
2 h
Funcin de Auto-covarianzas
(h)
( h)
1 2
h
Funcin de Auto-correlacin
(h)
(h)
Modelo

Condicin de Estacionaridad

| 1

Un ejercicio interesante para una serie de tiempo estacionaria resulta de la


visualizacin de la grfica entre X t y X t 1 . As, si se nota una relacin lineal entre ambas
variables, es una seal de que se podra ajustar un modelo autorregresivo a la coleccin de
datos. Para la coleccin de datos de desempleo vista en el captulo anterior, presentamos la
grfica hecha en S-PLUS. El procedimiento es crear un Dataset con una columna con X t y
otra con X t 1 , dar clic en el botn 2D Plots de la barra superior y elegir la opcin Linear Fit.

35

Anlisis de Series de Tiempo


Grfica 14. X t v.s X t

de la serie de desempleo nacional.

4.0

Xt

3.5

3.0

2.5

2.0

1.7

2.2

2.7

3.2

3.7

4.2

Xt1

Claramente se observa la relacin entre datos consecutivos de la serie. Esto sugiere que
el modelo debe incluir a X t 1 como una variable independiente.
III.4. MODELOS DE PROMEDIO MVIL: MA(1)
La segunda clase de modelos de series de tiempo son los modelos de promedios
mviles (Moving Average). A diferencia de los modelos auto-regresivos, los modelos de
promedios mviles dependen de las realizaciones pasadas de los errores (proceso de ruido
blanco) tambin llamadas innovaciones. El modelo de promedio mvil ms sencillo es el
modelo MA(1). A continuacin se da su definicin.
Definicin III.4.1. (MA(1)).- Un proceso estocstico { X t } sigue un
promedio mvil de primer orden, MA(1), si tiene como expresin a:
Xt

Zt

proceso de

Zt

donde {Z t } es un proceso de ruido blanco con media 0, varianza

1.

Alternativamente, el modelo puede expresarse usando el operador B como:


Xt

( B) Z t , donde ( B ) 1

B.

Dado que el polinomio (B ) es finito, el modelo es proceso lineal y por lo tanto


estacionario (esto ocurre con cualquier modelo de promedios mviles). Por lo tanto podemos
aplicar el resultado III.3 para obtener su funcin de auto-covarianzas (y auto-correlaciones).
Escribiendo el modelo como un proceso lineal, tenemos:

Xt

j
j 0

36

Zt j ,

Anlisis de Series de Tiempo


donde

1,

0 para todo j > 1.

La funcin de auto-covarianzas es entonces:

( h)

2
j

j h

j 0

( h)

( h)

...)

h 1

h 1

La ltima expresin se cumple ya que 0 1 y 1


son los nicos valores de la
serie distintos de cero. De aqu que la funcin de auto-covarianzas tenga solo valores distintos
de cero para h 0 y h 1. Con base en este comentario obtenemos:
2

(1

si h

( h)

si | h | 1

si | h | 1

La funcin de auto-correlacin, por lo tanto, est dada por:


1
( h)

Para que

(1)

si h

si | h | 1

1
0

si | h | 1

sea una correlacin, debe cumplirse que |

condicin genera condiciones para

. Entonces, si

2
2

Resolviendo para

, encontramos que:

por lo que

es real si y solo si 1 4

1 4
2

0 . Entonces,

37

| 1 . Esta

Anlisis de Series de Tiempo


1 4

1 4

1
4
1
|
2

Por lo tanto, la restriccin para que el modelo sea un modelo vlido debe de
satisfacer que (1) 0.5 , ya que esto garantiza que
sea un nmero real. Para saber qu
valores puede tomar , bajo esta condicin, podemos sustituir los valores en frontera de (1) .
As, se tiene que con

y con

(1)

1
2

(1) 1 / 2 ,

1/ 2

1
2

Por lo que se concluye que para que se tenga un proceso MA(1) vlido se debe cumplir
|
|
1 . Es decir, congruente con una auto-correlacin entre -1 y 1.
que
*

Es importante destacar que si definimos el proceso MA(1) X t


*

1/

Zt

Z t con

1 , la funcin de autocovarianzas es invariante. La diferencia entre ambos

modelos es que con


el modelo es invertible, mientras que con * 1 / el modelo es no
invertible. El concepto de invertibilidad es muy importante en las series de tiempo, como se
ver en el prximo captulo.
Las formas de la funcin de auto-correlacin para un MA(1), dependiendo del valor de
, se dan en las grficas 15 y 16 con valores de 0.8 y 0.8 para , respectivamente.
Grfica15. Funcin de Autocorrelacin MA(1): theta=0.8
1.0

ACF

0.8

0.6

0.4

0.2

0.0
0

10
h

11

38

12

13

14

15

16

17

18

19

20

Anlisis de Series de Tiempo


Grfica16. Funcin de Autocorrelacin MA(1): theta=-0.8
1.1

ACF

0.7

0.3

-0.1

-0.5
0

10
h

11

12

13

14

15

16

17

18

19

20

Con este anlisis, podemos concluir que dado que la funcin de auto-correlacin del
modelo MA(1) se trunca en h=1, una manera de identificar un modelo MA(1) es usando (h) .
Si una coleccin de datos muestra a (1) como la nica auto-correlacin diferente de cero,
entonces un modelo apropiado para los datos sera un MA(1). En la siguiente seccin
demostraremos que la caracterstica que identifica a un modelo MA(q) es que tiene q autocorrelaciones diferentes de cero. A continuacin se da un cuadro resumen de las propiedades
estudiadas del proceso MA(1):

Modelo

Cuadro2. Resumen de las propiedades del proceso MA(1)


MA(1)
Xt
Zt 1 Zt

Funcin de Auto-covarianzas

(h)

( h)
Funcin de Auto-correlacin

(h)

(1
0

d .o. f

|h| 1

si

si

h 1

d .o. f

|h| 1

Condicin
modelo

de

Validez

del

1
2

(1)

h 1

si

1
( h)

) si

III.5. MODELO AR(p)


En esta seccin se va a generalizar el modelo auto-regresivos considerando a p mayor
que 1. Se darn primeramente aspectos generales del modelo y despus se analizar el caso
para el modelo AR(2).
Definicin III.5.1.- [Modelo AR(p)].- Un proceso estacionario { X t } sigue un modelo
AR(p) si obedece a la expresin dada por:
Xt

Xt

Xt

39

...

Xt

Zt ,

Anlisis de Series de Tiempo


2

donde {Z t } ~ WN (0,

).

Usando el operador B, el modelo puede re-escribirse como:


( B) X t

donde ( B) 1

B 2 ...

Zt ,

B p . A (B ) se le denomina polinomio auto-regresivo.

III.5.1. Causalidad
Supongamos el modelo definido por
Xt

con {Z t } ~ WN (0,

Xt

Xt

...

Xt

Zt ,

).

Definicin III.5.2.- [Causalidad del proceso AR(p)].- Se dice que el modelo AR(p) es
causal si las soluciones z1 , z 2 ,..., z p del polinomio (z ) 0, tienen por mdulo | z j | 1 , para
j 1,2,..., p . O tambin, si

(z j ) 1

zj

zj

...

zj

0,

para toda | z | 1 y z elemento del conjunto de los nmeros complejos.


La definicin establece que toda solucin del polinomio auto-regresivo debe ser
diferente de cero y debe tener mdulo mayor a uno. La regin determinada por z tal que
| z | 1 , se denomina crculo unitario. El concepto tambin se aplica a modelos ms generales;
pero por el momento slo lo aplicaremos a los modelos auto-regresivos.
De acuerdo con [Brockwell y Davis (2002)], el concepto de causalidad es equivalente a
la existencia de constantes {

} tal que

y Xt

j 0

Zt

. Es decir, se puede

j 0

representar como un proceso lineal y por lo tanto estacionario.


Si aplicamos el concepto al modelo AR(1) podemos notar que el polinomio auto1
z . El cual igualado a cero, nos da como solucin z
regresivo es ( z ) 1
. Ahora, si
queremos que | z | 1 , entonces | | 1 ; por lo tanto, existe su representacin como
j

Xt

Zt

y el proceso es estacionario. Esto se analiz en la seccin pasada donde se

j 0

estudi el modelo AR(1). En trminos de ecuaciones en diferencias con elemento aleatorio,

40

Anlisis de Series de Tiempo


j

esto quiere decir que X t

Zt

es la nica solucin estacionaria al proceso estocstico

j 0

dado por la ecuacin X t

Xt

Zt .

Una posible pregunta que surge es: con | | 1 existe solucin estacionaria del
modelo? Lo primero que podemos decir es que el modelo no es causal; sin embargo, la
respuesta a la pregunta anterior es s; slo que se debe aplicar una transformacin. Sea el
modelo:
Xt
X t 1 Zt
con | | 1 y {Z t } ~ WN (0,

).

Si el modelo se divide entre

, encontramos que
1
1
Xt Xt 1
Zt ,
Xt

*
1

Z *t .

Xt

Iterando el modelo, llegamos a la solucin estacionaria:


j

Xt

Zt

j 1

j 0

Un detalle que debemos aclarar en este caso es que el valor de X t 1 depende de X t


!!! . Lo cual quiere decir que el presente depende del futuro !!!. Esta es la consecuencia de
que el modelo no sea causal. .
III.5.2. Mtodo de Yule-Walker
A pesar de que un modelo AR(p) puede expresarse, bajo ciertas condiciones, como un
proceso lineal, procederemos a calcular la funcin de auto-covarianzas usando el mtodo de
Yule-Walker. La razn fundamental de usar esta alternativa es que la expresin de un modelo
AR(p) como proceso lineal no tienen una expresin sencilla de manejar. Consideraremos que
el proceso causal estacionario y en su momento estudiaremos las condiciones de
estacionaridad del modelo AR(2) [ver discusin del modelo AR(2)]. La causalidad de un
modelo asegura que se pueda expresar como

Xt

Zt

j 0

donde {Z t } ~ WN (0,

).

El mtodo de Yule-Walker para calcular la funcin de auto-covarianza, (h) , consiste


en llevar a cabo los siguientes pasos:

41

Anlisis de Series de Tiempo


Se multiplica ambos lados del modelo por { X t k } .
Suponiendo media cero, se toma el valor esperado de la expresin resultante para
k=0,1,2,..p.
Se divide el sistema entre (0) . El sistema resultante tiene por incgnitas a (0) ,
(1) , . . . , ( p) y la primera ecuacin es la nica que depende de (0) , la cual
corresponde al valor de k=0.
Usando las p ecuaciones resultantes con los valores de k=1,2,..p, se resuelve el
sistema para (1) , . . . ( p) .
Sustituyendo los valores de (1) , . . . ( p) en la primera ecuacin se obtiene una
ecuacin cuya nica incgnita es (0) .
Con el valor de (0) y (1) , . . . ( p) , se calculan la auto-covarianzas
correspondientes a h=1, h=2,..., h=p.
Las autocovarianzas para h > p se obtienen calculando las ecuaciones de
autocovarianzas con k=p+1, p+2, ..., equivalentes a las del punto 2. La expresin
resultante para (h) con h>p depende funcionalmente de (h 1), (h 2), ...,
( h p ), por lo que el clculo es recursivo.
A continuacin se mostrar el proceso descrito para el clculo de la funcin de autocovarianzas para el modelo AR(p).
Sea el modelo AR(p) causal, definido por:
Xt

donde {Z t } ~ WN (0,

Xt

Xt

...

Xt

Zt ,

).

1.- Multiplicando ambos lados del modelo por { X t k } se obtiene:


Xt Xt

Xt 1Xt

Xt 2Xt

...

Xt p Xt

Zt X t

2.- Tomando valor esperado se obtiene:


E( X t X t k )

(k )

E( X t 1 X t k )

(k 1)

(k

( X t 2 X t k ) ...

2) ...

(k

E( X t p X t k )

p) E ( Z t

j
j 0

(0)

(1)

(2) ...

k 1

(1)

(0)

(1) ...

( 2)

(1)

(0) ...

( p)

( p 1)

p
p

( p)
( p 1)

( p 2)

( p 2) ...

42

( 0)

Zt

k j

E (Z t X t k )

Anlisis de Series de Tiempo


3.- Dividiendo entre (0)
2

k 1

(1)

(2)

(1)

( p)

(1)

(2) ...

( p)

(1) ...

( p 1)

...

( p 2)

( p 1)

(0)

( p 2) ...

4.- Tomando las ecuaciones desde k

1,2,..., p se obtiene la solucin para (1) ,...,

( p) .

5.- Sustituyendo (1) ,..., ( p) en la primera ecuacin nos queda una expresin que
solo depende de (0) . De aqu la solucin de (0) est dada por
2

( 0)

( h)

(1)

(2) ...

( p)

6.- Una vez conocidas (1) ,..., ( p) , las auto-covarianzas estn dadas por
(h) (0) para h=1,2, . . . , p.

7.- Para h > p las autocovarianzas se calculan primero obteniendo la ecuacin


resultante de tomar el valor esperado de la expresin dada en 2 con k p 1, p 2,... etctera.
As,
k

p 1

( p 1)

( p)

( p 1) ...

(1) .

(h) (0) para h=1,2,...,p, la


( p 1) se
Como en el punto 6 se obtuvieron (h)
obtiene por sustitucin recursiva. De la misma manera, para k=p+2, k=p+3,... el clculo de las
auto-covarianzas se obtiene de manera recursiva como sigue:

p 1

( p 1)

p 2

(p

2)

( p 1)

( p ) ...

p 3

( p 3)

(p

2)

( p 1) ...

(h 1)

( p)

( p 1) ...

p
p

(1)
(2)
p

(3)

( h)

(h 2) ...

(h

p) .

NOTA3: El proceso descrito del mtodo de Yule-Walker para calcular la funcin de autocovarianzas tambin puede ser aplicado al clculo de la funcin de auto-correlacin. En este
caso, las ecuaciones para k p 1, p 2... etctera, pueden establecerse como autocorrelaciones en vez de auto-covarianzas, sin que se afecte el resultado del proceso. Por
ejemplo, para k p 1, p 2 , las ecuaciones en funcin de auto-correlaciones seran;

43

Anlisis de Series de Tiempo


k

p 1

( p 1)

p 2

(p

2)

1
1

( p)

( p 1) ...

( p 1)

( p) ...

(1)
(2)

las cuales muestran el proceso recursivo, ya que la primera ecuacin dependen de las autocorrelaciones obtenidas en el paso 4 y la segunda de la auto-correlacin anterior y anteriores.
III.5.3. El Modelo AR(2)
EL modelo AR(2) tiene por expresin
Xt

donde {Z t } ~ WN (0,

Xt

Xt

Zt ,

).

El cual es equivalente al modelo


Zt ,

( B) X t

con ( B) 1

B .

Usando el concepto de causalidad, podemos caracterizar si un modelo AR(2) es causal


y por lo tanto estacionario. As, se presenta el siguiente resultado.
RESULTADO III.4.- (Estacionaridad del modelo AR(2)).- El modelo AR(2) definido por
Xt
Z t , con {Z t } ~ WN(0, 2 ) es causal si:
1Xt 1
2Xt 2
1

1,
1

| 1

Demostracin.
La demostracin consiste en resolver la ecuacin del polinomio auto-regresivo garantizando
que la solucin sea de un proceso causal; es decir | z | 1 . As, la ecuacin a resolver es:
1 1z 2 z 2 0 ,
cuya solucin est dada por:
2

y debemos garantizar que | z | 1 .


Ahora, sean

44

1
2

Anlisis de Series de Tiempo


2
1

z1

z2

las soluciones de la ecuacin de segundo grado. Se desea que


2
1

1.

Si tomamos z1 , sabemos que si | z1 | 1 ,


1
| | 1.
z1
Entonces:

(z1 )

2
1

1
2

2
2

2
2

4
2

( z1 )

4 2)

Similarmente, tomando (z 2 ) 1 , se obtiene,


2

(z2 )

La demostracin debe dividirse cuando las soluciones z1 y z 2 son reales o complejas.


Caso Real
Cuando las soluciones son reales se sabe que
Entonces,
| ( z i ) 1 | 1 , para i=1,2
2

1
2

2
2

2
2
1

2
1

2
2

1,
2

Considerando el lado izquierdo de la desigualdad, obtenemos:

45

0 y se desea que | ( z i ) 1 | 1 .

ya que

Anlisis de Series de Tiempo


2

1
2

2
2

4(

1
1

2) 2

1
2
1

) 4
1

Con el lado derecho se obtiene:


2
1
2

2
2

4(

(2

(4 4
4
1)
1
2

)2
2
1

Ahora, combinando ambos resultados, 2


1 y 2 1 1 con la condicin de solucin
1
2
real 1 4 2 0 , podemos encontrar los puntos de interseccin de la solucin (en los reales)
con 21 4 2 0 . Esto es,
2

0 y

Entonces, sustituyendo

2
2
2

(
|

por lo tanto

4(1

1
2

1,

1
1

en la primera desigualdad,
1

0,

ya que

2)
0
2| 0

Si consideramos la igualdad en vez de desigualdad, podemos encontrar el punto


correspondiente de 2 cuando 1
2 (recordemos que estamos buscando los puntos de
interseccin). Entonces, sustituyendo esta solucin encontramos que 2 1 1 , 2 2 1 y
por lo tanto 1
1.

46

Anlisis de Series de Tiempo


Por otro lado,
2

0,

y
2

Entonces sustituyendo

1
2.

en la primera desigualdad,

(1

)2

(1

)2

0.

(1
(1

1,

)
1.

0,

ya que
2

1 2

1| 0

(1

)2 ,

Aplicando la misma estrategia que en lneas arriba, el punto correspondiente de


1 , es 1 2 .
2

cuando

Con este anlisis podemos concluir que cuando las soluciones son reales, la regin definida
por 2 1 2 , 1 1 1 y 21 4 2 0 es la que garantiza un modelo AR(2) causal.
En la figura1 se muestran las grficas de esta regin la cual corresponde a la que est por
arriba de la parbola. La regin por debajo de la parbola corresponde al caso complejo el cual
se da a continuacin.
Caso Complejo
Para este caso, sabemos que por ser races complejas tenemos que:
2

0 y

z1

z2 ,

y por lo tanto
z1 1

z2 1

Este razonamiento, sugiere que solo tomando una raz se cumple la condicin de mdulo
menor a 1 para ambas races simultneamente. Tomando z1 1 , encontramos que:
z1 1

2
1

2
1

4 2)

4
2

1.

47

Anlisis de Series de Tiempo


Esta solucin junto con la condicin 21
las races del polinomio son complejas.

0 , definen la regin de estacionaridad cuando

///
Figura2. Regin de estacionaridad del modelo AR(2).

Caso Real

Caso Complejo

Para continuar con el estudio del modelo AR(2), procederemos a calcular su funcin de
auto-covarianzas (auto-correlaciones) usando el mtodo de Yule-Walker. La razn de usar este
mtodo es debido a que es ms sencillo que aplicar el Resultado III.3, ya que la expresin del
modelo como proceso lineal no es muy sencilla de encontrar. Sea el modelo definido por:
Xt

donde {Z t } ~ WN (0,

Xt

Xt

Zt ,

).

Entonces las ecuaciones de Yule-Walker, usando auto-correlaciones, son:


2

(1)
(2)

k 1
k 2

(1)
1
1

(2)

(1)

(1)

Las ecuaciones para k

(0)

1,2 , tienen por solucin:


2

(1)

y
2

(2)

1
2

Usando est solucin, el valor que toma (0) es:


2

(0)

(1)

(2)

Ahora, las auto-covarianzas estn dadas por (h)

48

(h) (0) , para h

1,2.

Anlisis de Series de Tiempo


Para k

k
k

3,4,... se tienen las ecuaciones (en funcin de auto-correlaciones pasadas); Es decir,

(3)
(4)

3
4

(2)
(3)

(h 1)

(1)
(2)

2
2

(h)

(h 2) .

Dependiendo de los valores de 1 y 2 , la funcin de auto-correlacin puede adquirir


diferentes formas. A continuacin se muestran las posibles formas de la funcin de autocorrelacin del modelo.
Grfica17. Alguna formas de la ACF de un modelo AR(2).

0.8 ,

0.5

0.8 ,

1.0

0.5

1.0

0.8

ACF

ACF

0.5

0.6

0.0
0.4

-0.5

0.2
0

0.8 ,

5
h

10

0.5

5
h

0.8 ,

1.0

10

0.5

1.0

0.5
ACF

ACF

0.5

0.0
0.0

-0.5
-0.5

5
h

10

5
h

10

De las grficas podemos observar las formas tpicas de la funcin de auto-correlacin


para valores positivos y negativos de los parmetros; y si estos valores corresponden al caso
real o complejo de las soluciones del polinomio auto-regresivo. Como puede verse, sera
complicado identificar un modelo AR(2) usando simplemente al funcin de auto-correlacin.

49

Anlisis de Series de Tiempo


Como veremos posteriormente, la identificacin de modelos auto-regresivos es mucho ms
fcil de hacer usando la funcin de auto-correlacin parcial.
III.6. MODELO MA(q)
La seccin anterior se dedic al estudio de los modelos AR(p) y en particular al modelo
AR(2). Esta generaliza el modelo MA(1) considerando a q mayor que 1. El estudio se har de
forma similar al caso autorregresivo; es decir, se darn primeramente aspectos generales del
modelo y despus se analizar el caso para el modelo MA(2).
Definicin III.6.1.- [Modelo MA(q)]. Un proceso estacionario { X t } sigue un modelo
MA(q) si obedece la expresin dada por:
Xt

donde {Z t } ~ WN (0,

Zt

Zt

...

Zt

Zt

Usando el operador B, el modelo puede re-escribirse como:


( B) Z t ,

Xt

donde

( B) 1

B 2 ...

Bp . A

(B ) se le denomina polinomio de promedio

mvil.
Debe notarse que por definicin, el modelo MA(q) es un proceso lineal, por lo que la
estimacin de su funcin de auto-covarianzas (o auto-correlaciones), puede hacerse aplicando
el resultado III.1 directamente. Supondremos que el proceso es estacionario y en su momento
estudiaremos las condiciones de estacionaridad del modelo.

Dado que el modelo es un proceso lineal, podemos caracterizar la representacin como


0,1,2,..., q y j 0 para j q . De aqu que
j para j

Xt

Zt

j 0

Usando esta representacin, tenemos que:


2

( h)

j h

j 0

Ahora, variando h, se obtienen las correspondiente auto-covarianzas. Entonces:

(0)

(1

j 0

50

...

Anlisis de Series de Tiempo


2

(1)

2
j

j 1

1 2

...

2 3

q 1 q

q 2

j 0
2

(2)

2
j

j 2

1 3

q 1

1 q

...

j 0

(q 1)

2
j

j q 1

j 0

(q)

2
j

j q

0 para h

q.

j 0

(h)

Y, finalmente

Aplicando la definicin de auto-correlacin, obtenemos:


(1)

1 2
2

(1
(

(2)

...

2 3
2

1 3

(1

(1

...
...

...

2
2

q 1 q
2

q 2
2

(q 1)

(h)

q 1

1 q
2

)
2

...

(q)

(1
0

para

...

q.

III.6.1. Invertibilidad
De la misma forma que la causalidad de un modelo ARMA(p,q), en la que expresamos
a { X t } en trminos de {Z t } , podemos expresar a {Z t } en trminos de { X t } . Esta expresin se
conoce como invertibilidad.
Definicin III.6.2. [Invertibilidad de un modelo ARMA(p,q)].- Un proceso { X t }
ARMA(p,q) es invertible si existen constantes { j } tales que

Zt

Xt

j 0

para todo t.

j 0

La definicin de invertibilidad es equivalente a la condicin:

( z) 1

zq

0 para todo z

51

y:

Anlisis de Series de Tiempo


Los coeficientes { j } se calculan a partir de las ecuaciones:

j k

definiendo

para j=0,1,

k 1

1;

0 para j > p y

0 para j<0.

III.6.2. El Modelo MA(2)


El modelo MA(2) est dado por:
Xt
2

con {Z t } ~ WN (0,

Zt

Zt

Zt

).

Cuando revisamos el modelo MA(1), analizamos los valores posibles de


y
para
que el modelo fuera un modelo vlido (estacionario). Una propiedad que se analiza en los
modelos de promedio mvil, equivalente a la causalidad en los modelos de auto-regresivos, es
la invertibilidad. Mientras la causalidad garantiza que un modelo por el momento autoregresivo- puede escribirse como proceso lineal, la invertibilidad garantiza que el proceso de
ruido blanco puede expresarse como un modelo auto-regresivo de orden infinito. Es decir:

Zt

Xt

j 0

donde

|
j 0

La idea detrs de la invertibilidad, es que si las soluciones del polinomio de promedio


mvil quedan fuera del crculo unitario, entonces el modelo es invertible. Puede demostrarse
por ejemplo para el modelo MA(1) - que bajo la condicin de invertibilidad, se cumple la
condicin | | 1 . Por lo tanto es un modelo vlido y estacionario.
La condicin de invertibilidad del modelo MA(2) consiste en plantear el polinomio de
promedio mvil, resolver la ecuacin de segundo grado resultante y garantizar que las
soluciones queden fuera del crculo unitario. El ejercicio es muy parecido al presentado para el
modelo AR(2) por lo que se deja como ejercicio par el lector. El siguiente resultado muestra
las condiciones de invertibilidad del modelo MA(2).
RESULTADO III.5.- (Estacionaridad del modelo MA(2)). El modelo MA(2) definido por
Xt
Z t , con {Z t } ~ WN (0, 2 ) es causal y estacionario si
1Z t 1
2 Zt 2
1
2

1
1
1
| 2 | 1.
2

52

Anlisis de Series de Tiempo


La funcin de auto-correlacin del modelo en cuestin est dada por:
(
(1

1 2
2

( h)

(1

si

h 1

si

si

Dependiendo de los valores de los parmetros 1 y 2 , la grfica de la funcin de autocorrelacin puede adquirir diferentes formas. Las siguientes figuras muestran la variabilidad
de la funcin de auto-correlacin para un modelo MA(2), para diferentes valores de los
parmetros.
Grfica18. Algunas formas de la ACF de un modelo MA(2).

0.8 ,

0.5

0.8 ,

0.5

1.1

1.0

0.8

0.6

ACF

ACF

0.7

0.3

0.4

-0.1
0.2

0.0

-0.5
0

0.8 ,

5
h

10

0.5

1.1

1.1

0.7

0.7

0.3

5
h

0.8 ,

ACF

ACF

10

0.5

0.3

-0.1

-0.1

-0.5

-0.5
0

5
h

10

5
h

10

Las grficas muestran las formas tpicas de la funcin de auto-correlacin para los
casos donde los parmetros toman valores positivos y negativos. Tambin podemos ver que la
grfica se trunca en el valor de q, en este caso, igual a 2.

53

Anlisis de Series de Tiempo


CAPITULO IV. MODELOS ARMA(p,q)
Hasta ahora hemos presentado los modelos clsicos de series de tiempo, los procesos
AR(p) y MA(q). En este captulo introduciremos una familia de series de tiempo estacionarias
conocida como procesos de promedio mvil autorregresivo o simplemente, modelos ARMA.
En 1970, Box y Jenkins desarrollaron un cuerpo metodolgico destinado a identificar,
estimar y diagnosticar modelos dinmicos de series temporales en los que la variable tiempo
juega un papel fundamental. Una parte importante de esta metodologa est pensada para
liberar al investigador de la tarea de especificacin de los modelos dejando que los propios
datos temporales de la variable a estudiar nos indiquen las caractersticas de la estructura
probabilstica subyacente.
En ocasiones pretendemos predecir el comportamiento de una variable yt en un
momento futuro t, a partir del comportamiento que la variable tuvo en un momento pasado,
por ejemplo, en el perodo anterior, y t 1 . Formalmente notaramos que yt f ( yt 1 ) , es decir,
que el valor de la variable y en el momento t es funcin del valor tomado en el perodo t-1.
IV.1. DEFINICIN Y PROPIEDADES
En esta seccin extenderemos el concepto de causalidad, as como la existencia y
unicidad de soluciones estacionarias, discutidos en la seccin anterior, a los procesos ARMA.
Los modelos ARMA integran a los modelos AR y a los modelos MA en una nica
expresin. Por tanto, la variable yt queda explicada en funcin de los valores tomados por la
variable en perodos anteriores, y los errores incurridos en la estimacin. Una expresin
general de un modelo ARMA (p, q) viene dada por lo siguiente:
Definicin IV.1.1. [Modelo ARMA(p,q)].- { X t } es un proceso ARMA(p,q) si es
estacionario y tiene como expresin:
Xt

donde {Z t } ~ WN (0,

Xt

...

Xt

Zt

Zt

...

Zt

).

Una solucin { X t } de la ecuacin anterior existe (y es la nica solucin estacionaria)


si y slo si:
( z) 1 1z ... p z p 0 para todo z 1
Un proceso ARMA(p,q) es causal si existen constantes

tales que

j
j 0

Xt

Zt

para todo t.

j 0

54

Anlisis de Series de Tiempo


Obviamente, los modelos AR (p) corresponden al modelo ARMA (p,0), mientras que
los modelos MA (q) corresponden al modelo ARMA (0,q).
Para ejemplificar las propiedades de los modelos ARMA(p,q), en la siguiente seccin
estudiaremos el modelo ARMA(1,1).
IV.2. MODELO ARMA(1,1)
{ X t } es un proceso ARMA(1,1) estacionario si satisface la siguiente ecuacin:
Xt
2

donde {Z t } ~ WN (0,

),

1y

Xt

Zt

Zt

1.

Usando el operador B, el modelo ARMA(1,1) puede ser escrito como:


(1

B) X t

(1

B) Z t

Para encontrar la funcin de autocovarianzas del proceso ARMA(1,1) haremos uso del
resultado sobre procesos lineales (resultado III.3) del captulo anterior. Para ello debemos
encontrar los trminos

de la ecuacin: X t

Zt

j 0

Haciendo sustituciones recursivas de las X t , tenemos:

Xt

Xt
[ Xt
2

Xt

Zt
Zt

Zt 2 ] Zt

Zt

Zt

Zt

Zt

Zt

Zt

Zt

Xt

Zt

j 1

con

j 1

Usando el resultado III.3, que establece

( h)

2
k
k

Para h=0,
2
(0)
(12

)2

) [1

)2[
1

)2

(
2

1
2

)2

...]

55

...)

k h

, tenemos:

Anlisis de Series de Tiempo


Para h=1,
2
(1)
((
2

{(

) [

)2

)
2

)2

) 2 [1

(
(
1

)2

...)

...]

]}

En general,
h 1

(h)

(1)

h 1

(1)
(0)

( h)

h 1

(1)

Antes de discutir ms detalles y propiedades de los modelos ARMA(p,q), daremos las


y (h ) y consideraremos el proceso de prediccin
bases para llevar a cabo inferencia sobre
en procesos estacionarios.
IV.3. PROPIEDADES DE Y ( h )
Un proceso estacionario es caracterizado por su media, , y su funcin de
autocorrelacin, (h). La estimacin de y de la funcin de autocorrelacin de las
observaciones, digamos X1,,Xn, juega un papel muy importante en problemas de inferencia y
en particular, en el problema de ajuste de un modelo apropiado para las observaciones.
En esta parte del captulo se presenta la estrategia de estimacin del parmetro y de
(h) , cada una con sus propiedades distribucionales con el fin de llevar acabo inferencias.
Cabe destacar que el obtener la distribucin del estimador de (h) es muy complicado, por lo
que en la prctica se recurre a aproximaciones y o resultados asintticos.
Con respecto a
, dado que es una medida de tendencia central, la media
muestral, X n , es un estimador insesgado de
. Lo que debe esperarse respecto a la
distribucin de X n es que, bajo la suposicin de que los datos provienen de un proceso
estacionario, debe tener sus diferencias respecto al caso de cuando se tiene una muestra
aleatoria (caso iid). El siguiente resultado da las propiedades de X n bajo las condiciones de
una muestra estacionaria.
RESULTADO IV.1.- Sea { X t } una serie de tiempo estacionaria con media
auto-covarianzas (h) para h 1,2,..., entonces, conforme n
,

Var ( X n )

E( X n

)2

1
n

1
j

| j|
n

56

( j)

0,

si

(n)

y funcin de

0,

Anlisis de Series de Tiempo


nVar ( X n )

si

( h)

| ( h) |

donde
Xn

1
n

Xt
t 1

Demostracin.
La demostracin del resultado es, primeramente, una aplicacin de la varianza de una suma de
variables aleatorias. Como es sabido, la varianza de una suma de variables aleatorias es la
suma de las covarianzas:
n
1
Var ( X n )
Cov
(
Xi)
n2
i 1
1 n n
Var ( X n )
[
Cov(X i , X j )]
n2 i 1 j 1
1 n n 1
Var ( X n )
[
Cov(X i , X j )]
n i1 j1n
El detalle importante a tomar en cuenta en este caso, es que se refiere a un proceso
estacionario, lo que implica que las variables son, en general, correlacionadas. Para facilitar el
proceso podemos definir una matriz de covarianzas. Es decir,

X1
X2
.
Xn

X1
( 0)
( 1)
.
( (n 1))

X2
(1)
( 0)
.
( (n 2))

Xn

(n 1)

( n 2)

( 0)

Sumando todos los componentes de la matriz podemos notar que la suma va desde
h
(n 1)
n 1 hasta h (n 1) . Conforme se va avanzando en los valores de h , el
nmero de auto-covarianzas aumenta en uno hasta llegar a h 0 y despus disminuye en 1
hasta que llega a (n 1) . Bajo este comentario y considerando la divisin entre n de la suma
de covarianzas, la suma queda como:
Var ( X n )

1
[
n h

0
n

( n h)
( h)
n
1

n 1
h

h
( h )] .
1 n

Finalmente, la expresin de la varianza queda como:

Var ( X n )

1 ( n 1)
|h|
[
1
n h n1
n

57

(h)].

Anlisis de Series de Tiempo


Ahora, cuando (n) 0 y n
, el trmino de la derecha converge a cero; por lo tanto, X
converge en error cuadrado medio a y por lo tanto es un estimador consistente, lo cual se
quera demostrar.
///
Con respecto a (h) , el estimador (h) est dado por

( h)

1n h
(X t
nt1

X n )( X t

Xn)

De aqu que, el estimador de la funcin de autocorrelacin sea:


( h)
(0)

( h)

Ambos estimadores son sesgados; y an con denominador (n h) , los estimadores


siguen siendo sesgados. La razn fundamental de usar n es para evitar estimaciones negativas
de varianzas. Detalles sobre el tema se pueden consultar en [Brockwell y Davis (1991)].
Como se mencion en prrafos anteriores, la inferencia sobre (h) se lleva a cabo
usando la distribucin asinttica del estimador. Barttlet (1966) fue el primero en encontrar la
distribucin asinttica del vector h [ (1), (2),..., (h)] , el cul se conoce como frmula de
Barttlet. A continuacin se enuncia el teorema de Barttlet (Frmula de Barttlet).
RESULTADO IV.2.- (TEOREMA DE BARTTLET). Si { X t } es un proceso estacionario tal
que

Xt

Zt

con

{Z t } ~ IID (0,

donde

E (Z t )

Entonces

para

h {1,2,...}

el

vector

[ (1), (2),..., (h)] se distribuye asintticamente AN (

W
) , donde el (i, j ) - simo
n

elemento de W est dado por:


wij

{ (k

i)

(k

i ) 2 (i ) (k )}{ (k

j)

(k

j ) 2 ( j ) (k )}

k 1

Demostracin.
La demostracin se puede consultar en el captulo VII de [Brockwell y Davis (1991)].
///

58

Anlisis de Series de Tiempo


Ejemplo IV.3.1. Supongamos el proceso AR(1): X t

Xt

Z t con {Z t } ~ WN (0,

) y

1.
Sabemos, del captulo anterior, que
tenemos que:

(h)

. Aplicando el resultado anterior,

i
2i

wii

)2

k 1

2k

i 2

k i 1
2i

(1 -

)(1

)(1

2i

2i

Ahora, si queremos establecer bandas de confianza para (h), basta aplicar la siguiente
ecuacin:
w
(h) 1.96 ii
n
donde wii est dado por la expresin anterior.
IV.4. PREDICCIN EN PROCESOS ESTACIONARIOS (El mejor Predictor Lineal)
El problema es predecir los valores de X n h , h>0, de una serie estacionaria con media
conocida y funcin de autocovarianzas (h) , en trminos de los valores {Xn,, X1}.
La idea central de la prediccin radica en dos puntos fundamentales:
La forma del predictor es lineal
El criterio bsico para definir el mejor predictor es el error cuadrado medio, ECM.
El mejor predictor lineal lo denotaremos como Pn X n h , y tendr la forma:
Pn X n

a0

a1 X n

a2 X n

... an X 1

De aqu, el ECM est dado por:


ECM ( Pn X n h ) 2

E[ X n

a0

a1 X n

a2 X n

... a n X 1 ] 2

Nuestro objetivo ser encontrar los valores de {a0, a1, a2,,an} tales que ECM(PnXn+h)
sea mnimo. Por otro lado, tenemos que el ECM es una funcin cuadrtica de a0, a1, a2,,an,
por tanto tendr al menos un valor de {a0, a1, a2,,an} que la minimiza y que satisface la
ecuacin:
ECM ( Pn X n h )
aj

59

0, j

0,1,..., n.

Anlisis de Series de Tiempo


Derivando e igualando con cero, tenemos:
ECM ( Pn X n h )
a0

2 E[ X n
- a0

a0

a1

a1 X n

a2 X n

an

a2

an X 1 ]

a0

ai
i 1

ECM ( Pn X n h )
a1

2 E[( X n

ECM ( Pn X n h )
a2

a2 X n

an X 1 ) X n ]

a1 (0) a 2 ( 1) a n ( n 1)

a0

2 E[( X n

a0

a1 X n

a2 X n

an X 1 ) X n 1 ]

a1 (1) a 2 (0) a n ( n 2)

(h 1) - a0
(h 1)

a1 X n

a1 (0) a 2 ( 1) a n ( n 1)

( h) - a 0
( h)

a0

a1 (1) a 2 (0) a n ( n 2)

a0

ECM ( Pn X n h )
an

2 E[( X n

a0

(h n 1) - a0
(h n 1)

a0

a1 X n

a2 X n

an X 1 ) X 1 ]

a1 (n 1) a 2 (n 2) a n (0)

a1 (n 1) a 2 (n 2) a n (0)

Tales derivadas igualadas con cero dan origen al sistema de ecuaciones siguiente:
n

a0

ai
i 1

an

donde :
n

[ (h), (h 1),..., (h n 1)]'

[ (i

an

j )]in, j

[a1 , a 2 ,..., a n ]'


La solucin estar dada por a n

1
n

Dependiendo de la estructura de la matriz n, podremos o no resolver el problema de


prediccin. Suponiendo que la solucin existe, el mejor predictor lineal est dado por:

60

Anlisis de Series de Tiempo


Pn X n

'

a0

an X n
n

1-

ai

1
n

)' X n

i 1
n

ai

ai X n

i 1

1 i

i 1

ai ( X n

1 i

i 1

Es decir,
Pn X n

ai ( X n

1 i

A partir del predictor, podemos obtener el ECM:


n

E[ X n

Pn X n h ] 2

E[ X n

ai ( X n

))] 2

1 i

i 1
n

E[ X n h ]

2E

Xn

ai [( X n

)X n h ]

1 i

ai ( X n

i 1

(0)

-2

-2

ai (h i 1) E

i 1

(0)

-2

ai (h i 1)
i 1

ai ( X n

1 i

ai (i

Pn X n

ai E ( X n

1 i

) E

ai ( X n

1 i

i 1

j )a j

2
h

'

(0) a n

y n estn definidas como antes.

IV.4.1. Propiedades del operador Pn


A continuacin se enuncian las propiedades ms importantes del predictor lineal
Pn X n

1:

1. E[ X n 1 Pn X n 1 ] 0
2. E[( X n 1 Pn X n 1 ) X j ]
3. Pn X n
4. P0 X n

Xn
0

61

i, j 1

E Xn
n

1 i

ai (h i 1)
i 1

donde

i 1

i 1

(0) - 2

ai ( X n

-2

i 1

n
2

1 i

i 1

n
2

Anlisis de Series de Tiempo


Note que las propiedades uno y dos son equivalentes al sistema de ecuaciones que se
obtienen al derivar el ECM, es decir las ecuaciones que se usan para encontrar la solucin del
vector a n .
Ejemplo IV.4.1. Considere el proceso estacionario AR(1) dado por: X t
2

{Z t } ~ WN (0,

Xt

Z t con

) . Encontrar el predictor lineal de Xn+1, es decir, encontrar Pn Xn+1.

Solucin.
Dado que el proceso es un AR(1), del captulo anterior tenemos que :
2

( h)

Por otro lado, de acuerdo al resultado anterior, tenemos por resolver el sistema
n a n . Explcitamente:

1
2

1
2

n 1

a1

n 2

a2

n 1

n 2

an

2
2

( ,0,...,0) ' . Aplicando el resultado

Claramente, una solucin del sistema es: a n


anterior, el predictor lineal es:
Pn X n

(X n

Dado que el proceso tiene media cero, se tiene:


Pn X n

Xn

Para obtener el ECM, aplicamos el resultado del mejor predictor lineal. Obteniendo:
2

ECM ( Pn X n 1 )

(0) a n'

(0)

2
2

(1)

Se puede mostrar que para un proceso AR(1) y para h 1:


Pn X n

h
h

Xn
2

ECM ( Pn X n h )

62

(1
1

2h
2

Anlisis de Series de Tiempo


Muchas veces se tiene inters en estimar datos perdidos o, simplemente, datos
intermedios. El procedimiento de prediccin de este tipo se desarrolla enseguida.
Supongamos las variables Y y Wn ,...,W1 con E[Y ]
, E[Wi ]
segundo orden finitos y Cov(Y ), Cov(Y , Wi ), Cov(Wi , W j ) conocidas.

, momentos de

Definamos los siguientes vectores y matriz de covarianzas:


W
W

(Wn ,..., W1 )'


(

,...,

)'

Cov(Y , W ) [Cov(Y , Wn ),..., Cov(Y , W1 )]'


Cov(W , W )

Cov(Wn

1 i

, Wn

1 j

) i, j

Entonces, el mejor predictor lineal de Y en trminos de {1,Wn ,..., W1 } est dado por:
P(Y | W )

a' (W

donde el vector a es una solucin del sistema

a.

Y el correspondiente error cuadrado medio del predictor:


E (Y

P(Y | W )) 2

Var (Y ) a '

El predictor tiene las propiedades de un operador y otras que se enuncian aqu.


Supongamos dos variables U y V con momentos de segundo orden finitos, el vector de
variables independientes W (Wn ,...,W1 )' con matriz de covarianzas W Cov(W ,W ) y las
constantes , 1 ,..., n . Entonces, se tienen las siguientes propiedades:

1.P(U | W ) E(U ) a' (W E(W )) donde a es una solucin de


2.E [U P(U | W )W ] 0 y E[U - P(U | W )] 0
P(U | W )] 2

3.E [U
4.P

1
n

5.P

Cov(U ,W )

Var (U ) a' Cov(U , W )


|W

P(U | W )

P(V | W )

n
iWi

|W

i 1

Wi

i 1

Ejemplo IV.4.2. Considere el proceso estacionario AR(1) dado por: X t


{Z t } ~ WN (0,

) . Suponga que tenemos las observaciones 1 y 3, W

ellas queremos estimar la observacin 2, Y

X2 .
63

Xt

Z t con

( X 3 , X 1 )' , y a partir de

Anlisis de Series de Tiempo


Solucin.

por:

El vector de coeficientes a que queremos encontrar es el que resuelve el sistema dado


a donde:
[Cov( X 2 , X 3 ), Cov( X 2 , X 1 )]' ( (1), ( 1)) '
[ (i

j )] i , j

1, 3

(0)

(2)

( 2)

(0)

Dado que el proceso es un AR(1), la funcin de autocovarianzas es la misma que en el


ejemplo anterior. Es decir, tenemos el sistema:
2

2
2

Aplicando el resultado de prediccin y usando la condicin de media cero, el mejor


estimador lineal de Y X 2 dado W ( X 3 , X 1 )' , est dado por:
P( X 2 / W )

a'

X1
X3

(X1

X3)

Con error cuadrado medio:


2

E[( X 2

P ( X 2 | W )) 2 ]

( 0) a '

2
2

2
1

2
2

1 2
Como podemos ver, el procedimiento es el mismo que se sigue cuando se predicen
valores futuros en funcin de observaciones pasadas. Sin embargo, se debe tener cuidado al
momento de especificar el vector y matriz de autocovarianzas involucrados en el sistema de
ecuaciones.

IV.4.2. Algoritmo de Durbin-Levinson


En casos donde el proceso es definido por un sistema de ecuaciones lineales (como el
ejemplo anterior) hemos visto cmo la linealidad del operador Pn puede usarse como una gran
ventaja. Para procesos estacionarios ms generales, esta ventaja nos sirve para predecir en
un paso, es decir, PnXn+1 basado en n observaciones previas, Pn+1Xn+2 en funcin de n+1
observaciones previas y as sucesivamente. Los algoritmos de prediccin que se basan esta
idea son llamados recursivos. Dos algoritmos recursivos importantes en series de tiempo son
el algoritmo de Durbin-Levinson (discutido en esta seccin) y el algoritmo de Innovaciones
(se discutir en la siguiente seccin).

64

Anlisis de Series de Tiempo


De acuerdo a Durbin-Levinson, el algoritmo dado por el resultado siguiente resuelve el
proceso de prediccin de Xn+1 en funcin de X1,,Xn:
Pn X n

n1

Xn

n2

Xn

...

nn

X1

Xn

'
n

Con su respectivo error cuadrado medio, definido por:

E[ X n

Pn X n 1 ]2

(0)

donde:
( (1), (2),..., (n))'
n
n

n1

,...,

nn

)'

Recordemos que el sistema por resolver es:


n

es decir,

1
n

RESULTADO IV.3.- (Algoritmo de Durbin-Levinson). Si { X n } es un proceso estacionario


con media cero y funcin de autocovarianzas igual a (h) . Entonces, los coeficientes
n1 , n 2 ,..., nn del predictor Pn X n h se pueden calcular recursivamente por medio de:
n 1
nn

( n)

n 1, j

(n

j)

1
n 1

.............(iv.1)

j 1
n1

n -1,1

n,n -1

n -1,n -1
nn

n -1,n -1

.............(iv.2)
n -1,1

con
n

n 1

[1

2
nn

donde
11

(1)
y
(0)

(0)

Demostracin.
La igualdad 11
, donde Rn es la
(1)/ (0) garantiza que, para n=1, se cumple: Rn n
n
matriz de autocorrelaciones, n ( n1 , n 2 ,..., nn )' , n ( (1), (2),..., (n))' .
La prueba consiste en probar que n , definido como en el algoritmo de D-L (recursivamente),
satisface la ecuacin Rn n
para toda n. La prueba se lleva a cabo por el mtodo de
n

65

Anlisis de Series de Tiempo


induccin matemtica. Ya hemos visto que para n=1 se satisface; Supongamos que se
cumple para n=k y probaremos que se cumple para n=k+1. Definamos:
(r )
k

: [ (k ), (k 1),..., (1)]'

(r )
k

: [

kk

k ,k 1

,...,

k1

]'

Entonces, de acuerdo a (iv.2) y haciendo la particin adecuada de Rn, tenemos:


k1

k 1,1

Rk

(r )
k

Rk
1 k 1

(r )
k

'

(r )
k

(r )
k

Rk

k 1, 2

'

k 1, k 1 kk

k2

k 1, k 1 k , k 1

kk

k 1, k 1 k 1

k 1, k 1
(r )
k

Rk
(r )
k

'

k 1, k 1

k 1, k 1

(r )
k

k 1, k 1

Sabiendo que para n=k se cumple Rn

Rk
Rk

(r )
k

Rk
1 k 1

(r )
k

'

(r )
k

'

, obtenemos:

(r )
k 1, k 1 k

(r )
k

k 1, k 1

'

k 1, k 1

(r )
k

k 1, k 1

k
1 k 1

(r )
k

k 1, k 1

'

(r )
k 1, k 1 k
(r )
k 1, k 1
k

k
(r )
k

'

(r )
k

k 1

(k 1)

k 1, k 1

La igualdad anterior significa que Rn n


se cumple para k+1. As, por el principio de
n
Induccin Matemtica, las ecuaciones recursivas de D-L se cumplen para todo n.
En cuanto al ECM, sabemos que el mejor predictor lineal satisface:
por la ecuacin (iv.2), tenemos que:
n

(0)

'

(0)

n 1

'

n 1

nn

(r )
n 1

'

nn

n 1

(0)

'

. Ahora,

(n)

Aplicando, nuevamente, la ecuacin del ECM del mejor predictor lineal y agrupando trminos,
obtenemos:
n

[ (0)

n 1

'

n 1

nn

(r )
n 1

'

n 1

nn

(n)

n 1

nn

[ (n)

Finalmente, por la ecuacin (iv.1), concluimos que:


n

n 1

2
nn

[ (0)

(r )
n 1

'

n 1

n 1

2
nn

n 1

66

n 1

[1

2
nn

(r )
n 1

'

n 1

Anlisis de Series de Tiempo


De esta forma, queda demostrado el Algoritmo de Durbin-Levinson.
///
Definicin IV.4.1. [Funcin de Autocorrelacin parcial (PACF)]. Bajo las
condiciones del resultado anterior, la funcin de autocorrelacin parcial se define como:
( 0) 1
( h)

donde
h

[ (i

hh

hh

es el ltimo componente del vector

j )]ih, j

1
h

[ (1), (2),..., (h)] ' y

La estimacin de la PACF se obtiene sustituyendo las estimaciones de las


1
autocovarianzas en la expresin h
.
h
h
NOTA1: La funcin (h) tiene la propiedad de que en procesos AR(p) se trunca en el valor de
p, es decir:
si n p
hh
( h)
0
si n p
NOTA2: Se puede mostrar que hh mide la correlacin entre los errores de prediccin
X h P( X h / X 1 ,..., X h 1 ) y X 0 P( X 0 / X 1 ,..., X h 1 ) . Es decir, entre Zh y Z0, y en general,
entre Zt-h y Zt. Para ms detalles ver [Box, Jenkins y Reinsel (1994)].
NOTA3: La expresin de la PACF de un modelo ARMA es demasiado extensa del hecho de
la expansin del polinomio de promedio mvil. Sin embargo, su grfica se comporta como la
de un modelo puro de promedio mvil, dominada por un exponente mixto que depende de los
parmetros y del orden del modelo. Para dejar clara la nota, consideremos el modelo MA(1),
2
0 para k>1 en la ecuacin Rn n
con 1
. Haciendo un poco de
1 /(1
1 ) y
k
n
lgebra se puede llegar a la expresin de la PACF:
k
1
kk

2
1
2 ( k 1)
1

(1

Note que, el signo de la PACF depende del exponente, k, y del valor del coeficiente, 1.
Veamos algunas consecuencias:
Si
Si

>0, entonces 1<0 y la PACF alterna el signo dependiendo de k.


1 <0, entonces 1>0 y la PACF es negativa para todo k.
1

Ejemplo IV.4.3. Consideremos el proceso AR(2) y apliquemos el algoritmo de DurbinLevinson para encontrar el mejor predictor.

67

Anlisis de Series de Tiempo


Solucin.
El proceso est dado por: X t
Z t con {Z t } ~ WN (0, 2 ) . Nuestro
1Xt 1
2Xt 2
objetivo es encontrar el mejor predictor lineal de Xt+1 para el proceso AR(2). Es decir:
Pt X t

t1

Xt

...

tt

X1

Aplicando el algoritmo D-L, tenemos que:

1,

X 2

11

[ (1)]
0 [1

11
1

X1
1
0
2
11

(1) / (0)
(1)
2
(0)[1
(1) ]

2,

X 3

21

X2

22

[ (2)

22

21

11

(1) 2 ]]

22 11

( 2)
(1) (1)
(0)[1
(1) 2 ]
2
22

[1

1
1

(1) (1)][ (0)[1

(1) 1
2

(1)]

11

[ ( 2)

X1

3,

X 4

31

33

[ (3)
[

X3

21

32
21

(2)

X2

33

( 2)

22

22

(1)

X1
(1)]
21

1
2

( 2)

22

(1)]

1
2

El resultado resulta de que para el proceso AR(2) y con t=3, se tiene la igualdad
(3) 1 (2) 2 (1) .
32

22

33 21

22

31

21

33 22

21

n2

[1

2
22

En

el

n1

]
mtodo
1

de

D-L,

se

cumple

. Y as sucesivamente para todo t

68

nj

3.

cuando n

Es

decir,

Anlisis de Series de Tiempo


De este modo, el predictor para una AR(2) queda como:
X t

t1

Xt

t2

X t 1.

Por ejemplo, si se tiene X1 y X2 y se desea predecir X4, se procede como sigue:


X 4

X3

31 X 3
31

32

X2

33

X1

32

X2

dado que

33

Note que antes de predecir X4, se debe predecir X3, pues X4 depende de ella.
Box y Jenkins desarrollan un mtodo recursivo para el clculo de la PACF usando las
ecuaciones de Yule-Walker. Este mtodo fue propuesto por [Durbin (1960)]. Para mostrar
este mtodo, consideremos las ecuaciones de Yule-Walker para un proceso AR(2) y un AR(3).
AR(2)
(2)

(1)

21

22

(1)

21

22

AR(3)
(3)

31

( 2)

32

31

(1)

32

( 2)
(1)

31

32

(1)

(1)

(1)

21

21

(1)

(1)

(1)

22

22

(1)

(1)
(1)
1

31
32

(1)

31
31

32

33

(1)
1

31

(2)

31

(2)

31

(1)

(1)

33

(1)

(1)

32

(1)

21

32

32

(2)

(1)

(1)

(1)
33

(2)

(2)
(1)

(1)

33

(1)

(1)

22
33

22

21

31

21

33 22

32

22

33 21

(1)

( 2)

33

32

(2)

(1)

Los coeficientes 31 y 32 se pueden expresar en funcin de


ecuaciones del AR(3). Es decir,
(2)

33

33

(1)

(2)

69

(1)
(2)

33
33

(1)
( 2)

33

usando las dos ltimas

Anlisis de Series de Tiempo


As, usando la primera ecuacin del AR(3) para
(3)

31

(3) [

33

(3)

33

(2)

[1

22

21
21

(2)

(1)

32

22 33

(2)

21

33

22 33

(1)]

33

(3)

33

] (2) [

22

(2)

22

(3)
(3)
1

33 21

(1)

31

(2)

32

(1)

(1)

33 21

(1)

22

(2)
(2)

21
22

, tenemos:

] (1)

(2)

21

33

(1)
(1)

22
21

De la misma forma, se puede deducir

kk

, la cual est dada por:

k 1

(k )

k 1, j

(k

k 1, j

( j)

j)

j 1
kk

k 1

1
j 1

Como mencionamos antes, este procedimiento fue desarrollado por [Durbin (1960)].
IV.4.3. Algoritmo de Innovaciones
El algoritmo de innovaciones se caracteriza por ser un algoritmo recursivo, al igual que
el algoritmo de Durbin- Levinson.
Este algoritmo es aplicable a todos los procesos con segundo momento finito, sin
importar si el proceso es estacionario o no.
Sea { X t } un proceso con media cero y segundo momento finito, E ( X t ) 2
defnase:

E[ X i X j ]
X n
n

(i, j )

0,

si n 1

Pn 1 X n , si n
E[ X n

2,3,...

Pn X n 1 ] 2

As mismo, se introduce el concepto de Innovacin, o prediccin en un paso, como:


Un

Xn

70

X n

Anlisis de Series de Tiempo


El proceso de innovaciones para un proceso estacionario, para toda n, procede como
sigue:

u1

X1

u2

X2

u3

X3

X 1 X 1 0 X 1
X 2 X 2 (a1 X 1 )
X 3 X 3 (a1 X 1 a 2 X 2 )

Xn

X n

un

Xn

(a1 X 1

a2 X 2

... a n 1 X n 1 )

Matricialmente, tenemos:
Un

An X n

exp lcitament e
u1

u2

a1

u3

a1

0 X1

X2

a2

X3

a1

un

a3 1

a2

Xn

Como se puede ver, la matriz An es no singular, por tanto existe su inversa. Sea Cn la
inversa de An:

1
11

Cn

22

n 1, n 1

21

n 1, n 3

n 1, n 2

De esta forma,
Xn
X n

C nU n

Por otro lado, el vector de predictores


( X 1 , P1 X 2 ,..., Pn 1 X n ) ' . Se puede ver que:

71

en

un

paso

est

dado

por:

Anlisis de Series de Tiempo


X n

Un

Xn

X n

Xn Un

C nU n U n

(C n - I)U n
n

Un

donde
0

11

22

21

n 1, n 3

Cn

n 1, n 1

n 1, n 2

Tal expresin nos da una representacin del mejor predictor lineal de Xn en funcin de
las Innovaciones.
Si observamos el proceso de Innovaciones, podemos ver que estas son una estimacin
del proceso de Ruido Blanco {Zt}. Por lo tanto, las Innovaciones deben satisfacer las
condiciones de tal proceso. Es decir, tienen media cero y son no correlacionadas. Esta
caracterstica se toma como una ventaja del Algoritmo de Innovaciones sobre el de DurbinLevinson.
Por otro lado, podemos usar la ltima expresin de X n y deducir que:
X n

nn 1

...

n ,n 1 2

n1 n

n
n ,n 1

ju j

j 1

nj

un

1 j

j 1

n
nj

(X n

1 j

X n

1 j

j 1

Lo anterior se resume en el siguiente resultado.


RESULTADO IV.4.- (Algoritmo de Innovaciones). Sea Sea { X t } un proceso con media
cero y segundo momento finito, E ( X t ) 2
. Entonces, los coeficientes n1 ,..., nn del mejor
predictor de X n 1 , as como el error cuadrado medio, se pueden calcular recursivamente de las
ecuaciones siguientes:

72

Anlisis de Series de Tiempo


(1,1)

k 1
1
n,n k

(n 1, k 1)

k ,k j

n ,n j

, 0

n,

j 0

y
n 1

E[ X n

Pn X n 1 ] 2

2
n ,n j

(n 1, n 1)

j 0

donde
(i,j )

E[ X i X j ]

Por estructura, el Algoritmo de Innovaciones es til para los procesos MA(q) y


ARMA(p,q). Esto lo veremos con el ejemplo siguiente.
Ejemplo IV.4.3. Considere el proceso MA(1): X t

Zt

Z t ,donde {Z t } ~ WN(0,

Apliquemos el A.I para encontrar el mejor predictor de Xn+1.

Solucin.
Antes, recordemos que para el proceso MA(1) se tiene que:
2

(1

( h)

si h

si | h | 1

( h)

si | h | 1

(1
0

si h
2

si | h | 1

si | h | 1

Entonces, si

n 1,
1

0,

1
11

(2,1)

1
1

(.)(.)

(2,1)

ya que

j 0
1

(1)

(1) / (0)

(1)
0
1

2
1,1 j

(2,2)

(1

2
11

(0)(1

j 0
2

(1

1
0

(.)(.) no est definida


j 0

73

2
11

).

Anlisis de Series de Tiempo


n

2,

0,

1
1
22

(3,1)

(.)(.)

(3,1)

j 0
1

(2)

(2) / (0)

(2)
0
0

k 1,

1
21

(3,2)

1,1 j

2, 2 j

j 0
1

(1)

1
1

11 22

(1) 0

(1)

1
1
2
2, 2 j

(3,3)

2
22

2
21 1

2
21 1

(0)

(1

1 1

j 0
2

(1

n 3,
k

0,

33

k 1,

32

0
1

2,

1
31

(4,3)

2, 2 j

3, 3 j

j 0
1

(1) (

2
1

22 33 0

21 32

(1) 0

1
2

(1)

2
2
3

2
3, 3 j

(3,3)

2
33 0

2
32 1

2
31 2

j 0
2

(1

1
2

En general, para el proceso MA(1), se tiene:

0,
n, j

1
n 1
2

2,3,..., n

2
2

74

1
n 1

(0)

2
31 2

(1

Anlisis de Series de Tiempo


IV.5. PRONSTICO DE PROCESOS ARMA(p,q)
La manera de llevar a cabo el pronstico de los procesos ARMA(p,q) es a travs del
Algoritmo de Innovaciones. Para esto, el A.I se aplica a un modelo transformado el cual hace
que el clculo sea relativamente ms sencillo.
Sea { X t } el proceso ARMA(p,q) dado por:
( B) Z t con {Z t } ~ WN (0,

( B) X t

El proceso transformado (sugerido por Ansley-1979) es:


1

Wt

Xt
( B) X t

si t

1,..., m

si t

donde
m
(i, j )

Las autocovarianzas
2
X

(i

max( p, q)
E (WiW j ) se obtienen a partir de la siguiente expresin:

j)

1 i, j

p
2

X (i

j)

(r

j)

min (i,j)

max (i,j)

(i, j )

2m
.(IV.5.1)

r 1
q
r

min (i,j)

r i j

r 0

de otro modo.

Aplicando el A.I al proceso {Wt } se obtiene:


n

W n

nj

(Wn

1 j

W n

1 j

si 1 n

nj

(Wn

1 j

W n

1 j

si n

j 1
1

j 1

Donde los coeficientes

nj

y los errores cuadrados medios rn

E (Wn

W n 1 ) 2 se

encuentran recursivamente del A.I visto en la seccin IV.4.2.


Por otra parte, observe que de la transformacin hecha, cada Xn puede ser escrito como
un a combinacin lineal de Wj, j=1,,n, y viceversa. Esto significa que el mejor predictor
lineal de alguna variable Y en trminos de {1, X1,, Xn} es el mismo para la variable Y en
trminos de {1, W1,, Wn}. Denotemos a ese predictor como Pn.
75

Anlisis de Series de Tiempo


Usando la linealidad de Pn podemos ver que:
1

W t

X t
X t

Xt

...

Xt

si t

1,...,m

si t

No olvidemos que nuestro objetivo es encontrar una expresin para calcular X n 1 .


Entonces:
Si 1 n m
1
W n 1
X n 1

Wn

1
1

Xn

(Wn 1 - W n 1 )

(X n

X n 1 )

Sustituyendo, tenemos que:


W n

n
1

(Wn

nj

W n

1 j

1 j

nj

j 1

W n

(X n

X n

1 j

1 j

j 1
n

nj

(X n

X n

1 j

1 j

j 1

X n

n
1

nj

(X n

X n

1 j

1 j

j 1

Si n m
W n 1

X n

q
nj

(Wn

1 j

Xn

...

W n

1 j

Xn

1 p

j 1
q
1
nj

(X n

X n

1 j

1 j

j 1

X n

q
1

Xn

...

Xn

1 p

nj

(X n

1 j

X n

1 j

nj

(X n

1 j

X n

1 j

j 1

X n

q
1

1X n

...

pXn

1 p
j 1

En resumen:
n
nj

X n

(X n

1 j

X n

1 j

si 1 n

j 1
1

q
1X n

...

pXn

1 p

nj

(X n

1 j

X n

1 j

si n

j 1

E Xn

X n

2
1

E Wn

W n

2
1

76

rn , m

max (p,q)

Anlisis de Series de Tiempo


Los coeficientes

y los errores cuadrados medios rn

nj

E (Wn

W n 1 ) 2 se

encuentran recursivamente aplicando el A.I, visto en la seccin IV.4.2, al proceso {Wt}.


Una vez calculados los valores X 1 ,..., X n , podemos calcular el predictor lineal a
distancia h>1 como sigue:
n h 1
n h 1, j

Pn X n

(X n

X n

h j

si 1 h

n h 1
j P( X n

i)

n h 1, j

i 1

h j

m-n

j h

(X n

X n

h j

h j

si h

m-n

j h

max (p,q)

En la prctica, generalmente, se tiene n>m; por lo que generalmente se usa la


expresin:
p

Pn X n

q
i P( X n

i)

n h 1, j

i 1

(X n

h j

X n

h j

para todo h 1 ..(IV.5.2)

j h

Para calcular el error cuadrado medio de prediccin utilizaremos una aproximacin


para muestras grandes, la cual usa como base la causalidad del modelo. Supongamos que el
modelo ARMA(p,q) es causal e invertible, entonces de acuerdo al captulo III y
especficamente a las definiciones de causalidad e invertibilidad, tenemos que:

Xn

Zn

h j

y Zn

Xn

j 0

Xn

h j

Xn

j 1

Zn

Xn

h j

j 1

~ Y la mejor aproximacin a Y. Aplicando este operador, P~ , a las expresiones


Sea P
n
n
anteriores, obtenemos:
~X
~
P
n
n h
j Pn Z n h j
j Zn h j y
j 0

~X
P
n n

j h

~ (Z )
P
n
n h

~X
P
n
n

h j

j 1

~X
P
n
n

h j

j 1

De esta forma, el error cuadrado medio (aproximado) est dado por:


~ 2 ( h)

E( X n

~ X )2
P
n
n h

Zn

h j

j 0

h j

h 1

Zn

j h

Zn

h j

j 0

77

Anlisis de Series de Tiempo


De esta igualdad y del hecho de que {Zt} sigue un proceso de Ruido Blanco, se tiene:
h 1

~ 2 ( h)

2
j
j 0

Ejemplo IV.5.1. Ilustraremos los pasos que se siguen en la prediccin de un proceso


ARMA(1,2), dado por: X t 0.4 X t 1 Z t Z t 1 0.4Z t 2 donde {Z t } WN (0,1) .
Claramente el proceso es causal, dado que el polinomio autorregresivo 1 0.4 z 0
tiene por solucin z 2.5 1. El primer paso es calcular la funcin de autocovarianzas usando
las ecuaciones de Yule-Walker y la secuencia { j } que encontramos de la igualdad:
(
0

0.4

( 0. 4

1
0

z 0 .4
1

z2

) z ( 0.4

z2

0.4

0.4(1)

0.4

0.4

- 0.4(1.4)

z 2 ...)(1 0.4 z ) 1 z 0.4 z 2

0 .4
)z 2

z3

0 .4

... 1 z 0.4 z 2
z3

... 1 z 0.4 z 2

1 .4

0.4

0.96

Las ecuaciones de Yule-Walker estn dadas por:

(k )

(k 1)

(k

p)

k j

para 0

max( p, q)

j 0
2

Para nuestro ejemplo, m=2, p=1 y

1 . As, tenemos las ecuaciones:

0
(0)

(1)

(1)(

...)

(0) 0.4 (1) 1 (1)(1.4) (0.4)(0.96)

(0)

(1)(

...)

(1) 0.4 (0) 1 (0.4)(1.4) 1.56

1
(1)

La solucin del sistema de ecuaciones anterior es:


resto de autocovarianzas se calcula recursivamente de:
(k )

(k 1)

(k

p)

(0)

para k

4.0571 y

max( p, q )

As,
(2) 0.4 (1)

0 .4

(3) 0.4 (2)

( 2)
(3)

0.4(3.1828) 0.4
0.4(1.6731)

(2) 1.6731
( 2)

78

0.6692

(1)

3.1828 . El

2.784

Anlisis de Series de Tiempo


[ (i, j )] i , j

De acuerdo a la expresin en (IV.5.1), podemos construir la matriz

1, 2 ,...

como sigue:

i 1, j 1

(1,1)

i 1, j

(1,2)

(1 2)

i 1, j 3
i 2, j 3

(1,3)
(2,3)

(2) 0.4 (1 2)
(1) 0.4 (1 1)

3, j

(3,3) 1 1 0.4 2

3, j

(3,4) 1 0.4 1.4

3, j

(3,5)

(1 1)

(0)

0.4

(2,2) 4.0571

(1)

(2,1) 3.1828
(2) 0.4 (1)
(3,1)
(1) 0.4 (0) 1.56

2.16

(i, i) , i

(i, j ) , con i

(i, j ) , con i

(2,4) 0.4

2,i

1, i
2, j

2, j

En resumen,
4.0571 3.1828

0 .4

3.1828 4.0571 1.56

0 .4

0
0 .4

0 .4

1.56

2.16

1 .4

0 .4

1 .4

2.16 1.4

0 .4

1 .4

El siguiente paso es encontrar los coeficientes

usando el algoritmo de

n, n k

Innovaciones dado por:


k 1
1
n,n k

(n 1, k 1)

k ,k j

n ,n j

, 0

n,

j 0

con
n 1
n

E[ X n

Pn X n 1 ] 2

2
n ,n j

(n 1, n 1)

j 0

n 1, k

0
1

11
1

n
(2,1)

(2,2)

0,1
1

3.1828 / 4.0571 0.7845

2
11 0

2, k
22

4.0571 0.7845 2 (4.0571) 1.5602

21
2

79

0
1

(3,3)

(3,1)

0.4 / 4.0571 0.0986

(3,2)
2
22

11 22
0

2
21 1

0.7987
1.1252

Anlisis de Series de Tiempo


n 3, k

0,1,2
1

33

1
1

31

(4,2)

11 33

(4,3)

22 33

2
33

(4,4)

44

2
31 2

43

1
1

0.9603

21 32 1

1y

11 44

(5,3)

22

44

33 44

41

(5,4)

(5,5)

2
44

(5,2)

42

1.0198

Note como a medida que n crece,

(5,1) 0 / 4.0571 0

0
1

0.4 / 1.562 0.2564

2
32 1

0,1,2,3
1

(4,1) 0 / 4.0571 0

32

n 4, k

nj

2
43 1

0
21 43 1
32
2
42

43 1
2
41 3

0.3555
31 42

0.9961

1.006

. Las predicciones con el A.I estn

dadas por:
n
nj

X n

(X n

X n

1 j

1 j

si 1 n

j 1
1

0.4 X n

nj

(X n

X n

1 j

1 j

si n

j 1

Supongamos 8 observaciones simuladas del proceso: 0.42, 0.63, 0.52, 0.82, 0.7, 1.12,
1.14, 1.09. Las predicciones quedan como:

n 1,

X 1
X 2

2,

X 3

0.4 X 2

0.7845(0.42) 0.3295
X 2 ) 22 ( X 1 X 1 )
21 ( X 2

7,

X 8

0.4 X 7

71

0,

0
11

(X1

X 1 )

0.0294

X 7 )

(X 7

72

(X 6

X 6 )

0.56

Para la prediccin con h 1 usamos la expresin (IV.5.2), quedando:


2

Pn X n

0.4 P8 X 7

n h 1, j

(X n

h j

X n

h j

) para todo h 1,2

j h

Pn X n

0.4 P8 X 7

para todo h

As, para h=1,2,3 se tiene:


h 1,

P8 X 9

2,

P8 X 10

0.4 X 8
0.4 X 9

3,

P8 X 11

0.4 X 10

81

(X8

92

(X8

X 8 )
X 8 )

82

(X 7
0.4 X 9

X 7 )

0.4 X 8 ( X 8 X 8 ) 0.4( X 7
0.4( X 8 X 8 ) 1.23

Para calcular el ECM de las predicciones, usamos la aproximacin:

80

X 7 )

0.87

Anlisis de Series de Tiempo


h 1

~ 2 ( h)

2
j
j 0

De esta forma,

h 1,

~ 2 (1)

2,

~ 2 (2)

(1)(12 1.94 2 )

3,

~ 2 (3)

(1)(12 1.94 2

(1)(12 ) 1
4.7636
0.96 2 )

5.6852

Con lo que queda concluido el ejemplo del Algoritmo de Innovaciones.

81

Anlisis de Series de Tiempo


CAPITULO V. MODELACIN CON MODELOS ARMA(p,q)
En captulos anteriores asumimos conocer tanto el modelo, como la forma del proceso.
A partir de ahora, lo nico que tenemos son datos y estamos interesados en saber qu procesos
son adecuados para explicarlos.
La determinacin de un modelo ARMA(p,q) apropiado involucra varios aspectos, tales
como el orden, es decir, los valores de p y q, los coeficientes i , i 1,..., p y j , j 1,..., q , y la
varianza del ruido blanco. Tambin, la eleccin de un modelo depende de la bondad de ajuste.
El proceso de ajuste de un modelo de series de tiempo consiste en, primeramente,
graficar y si es necesario, se transforman los datos a un proceso estacionario mediante
diferenciacin. Una vez que se tiene un proceso estacionario, debemos tener herramientas para
identificar posibles modelos. Por ejemplo:
Funcin de autocorrelacin: para modelos MA(q)
Funcin de autocorrelacin parcial : para modelos AR(p)
Criterio del AICC: todos los posibles modelos.
Como se mencion antes, si algn modelo cumple con ser un buen modelo, debemos
tener estrategias para decidir qu modelo es mejor que otros. Para ello se llevan pruebas de
bondad de ajuste, las cuales incluyen, fundamentalmente, pruebas sobre los residuales.
Algunas de las pruebas que se llevan a cabo son:
Probar que los residuales forman un proceso de Ruido Blanco mediante:
Grfica de autocorrelacin de los residuales.
Pruebas de hiptesis (basadas en autocorrelacin).
Probar que los residuales forman una muestra aleatoria mediante:
Prueba de Signo ordinario.
Prueba de Racha (Run test)
Prueba de puntos alternantes.
En este captulo, el objetivo principal es estimar los parmetros
( 1 ,...,

)' y

( 1 ,...,

)' ,

cuando se asume que p y q que son conocidos. Tambin, se asume que

los datos han sido corregidos por la media, es decir, si el modelo ajustado es:
( B) X t

( B) Z t

entonces el correspondiente modelo para la serie estacionaria original {Yt} se encuentra


reemplazando Xt por Yt y , donde y es la media muestral de los datos originales.
Cuando p y q son conocidos, buenos estimadores de y pueden ser encontrados
tomando en cuenta los datos como observaciones de una serie de tiempo estacionaria
Gaussiana y maximizando la verosimilitud con respecto a los p+q+1 parmetros. Estos
estimadores son conocidos como estimadores de mxima verosimilitud. Estos estimadores
se encuentran usando la opcin de ITSM Model> Estimation>Autofit. S-PLUS ajusta
82

Anlisis de Series de Tiempo


modelos por Mxima Verosimilitud por default y las instrucciones son Statistics> Time
Series> ARIMA Models y elegir las opciones que se deseen en el cuadro de dilogo.
Obviamente, para llegar a un modelo, debemos tener las herramientas necesarias de
estimacin. Dado que este proceso requiere mtodos numricos, primero debemos tener
valores iniciales (una estimacin previa) y despus llevar a cabo la optimizacin. Dependiendo
del proceso, podemos usar los algoritmos de Yule-Walker o de Burg para modelos AR(p); y
el Algoritmo de Innovaciones o de Hannan-Rissanen para modelos MA(q) y ARMA(p,q).
En resumen, para llevar a cabo el ajuste de un proceso (datos) se tienen que seguir los
siguientes pasos:
1. Verificar si el proceso es estacionario. Si no lo es, entonces se deben trasformar los
datos para lograr estacionaridad (diferenciacin, logaritmos, etc.).
2. Identificar posibles modelos mediante la funcin de autocorrelacin, la funcin de
autocorrelacin parcial o el AICC.
3. Seleccionar p y q mediante la estimacin preliminar (Algoritmos de Yule-Walker,
Burg, Innovaciones o Hannan-Rissanen).
4. Llevar a cabo la prueba de bondad de ajuste.
5. Si el modelo elegido aprueba la prueba de bondad de ajuste, el proceso se termina. En
caso contrario, se regresa al paso 2.
Figura3. Ajuste de un proceso ARMA(p,q)

Es estacionaria la serie?

No

Diferenciar la serie

Si
Identificar posibles modelos

Estimacin preliminar

Realizar pruebas de bondad de ajuste

Se cumplen las pruebas de bondad de ajuste?


Si
Fin

83

No

Anlisis de Series de Tiempo


V.1. ESTIMACIN PRELIMINAR
En esta seccin consideraremos las cuatro tcnicas de estimacin preliminar que se
mencionaron arriba.
V.1.1. Estimacin de Yule-Walker
Considere el proceso AR(p) causal. Dada esta propiedad, podemos escribir:

Xt

Z t j (5.1)

En este momento, supondremos que a travs de alguna tcnica construimos el valor de


p. El mtodo de Yule-Walker consiste en encontrar los valores de las s tales que las
ecuaciones de Yule-Walker cumplan con las autocovarianzas. Es decir, multiplicando ambos
lados de la ecuacin 5.1 por X t j para j=0,1,,p y tomando valor esperado, obtenemos las
ecuaciones de Yule-Walker:
p

(0)

y
donde
[ (i
p
( 1,
p

j )]ip, j
2

,....,

'

)'

[ (1), (2),..., ( p)]'

Por otra parte, si reemplazamos las covarianzas


covarianzas muestrales ( j ) , obtenemos:
p
p

( j ) por las correspondientes

( 0)

' p

Note que, bajo los supuestos iniciales, en este momento el vector de incgnitas es el
vector . Ahora, si (0) 0 , entonces m es no singular para m=1,2,. De esta forma,
podemos escribir las ecuaciones muestrales de Yule-Walker:

p1 p
2

(0)[1

R p 1 p
p ' R p p ],
1

donde :
p

[ (1), (2),..., ( p)]'

84

p / (0)

Anlisis de Series de Tiempo


Segn Brockwell y Davis, es un estimador consistente de
(2002), pp. 140].
Si deseamos hacer inferencia sobre

. Ver [Brockwell y Davis

podemos usar el hecho de que:

N( , n

1
p

En la prctica no conocemos el verdadero orden del modelo generado por los datos. De
hecho, puede suceder que el modelo AR(p) no sea apropiado. Suponiendo que el modelo
AR(p) es adecuado, resta encontrar el orden de tal modelo, es decir, el valor de p. Dos tcnicas
que se usan en esta parte del proceso de modelacin son: aplicando intervalos de confianza
para los componentes del modelo y otra, minimizando el AICC.
El programa ITSM grafica la funcin de autocorrelacin muestral junto con las bandas
de confianza usando aproximacin Normal. De esta grfica es fcil encontrar el valor de p. SPLUS tambin grafica las bandas de confianza en cuestin siguiendo Statistics> Time Series>
Autocorrelations.
Si queremos aplicar el criterio del AICC, se considera el valor:

AICC

2 ln L(

, S(

) / n) 2( p 1)n /( n

p 2)

donde L es la verosimilitud. Note que mientras ms grande sea L, ms pequeo ser el valor
del AICC, y por lo tanto el modelo es mejor. Para seleccionar p, se ajustan modelos para
diferentes valores de p* y aquella p* que minimice el AICC ser el estimador de p.
NOTA1: No todos los criterios de seleccin darn el mismo valor de p.
En resumen, tenemos que el modelo AR(p) ajustado por Yule-Walker es:
Xt

p1 X t

...

pp X t

Zt

donde :
Zt

WN (0, p ),

( p1 ,..., pp )' R p1 p

(0)[1

1
p ' R p p ]

Para n grande, los intervalos de confianza al 95% para los componentes de

pj 1.96n
Para probar la hiptesis H 0 :

pj

1/ 2

son:

1/ 2

jj

0 , consideramos el intervalo anterior, si el valor

cero se encuentra en tal intervalo no se rechaza H0, de otro modo, se rechaza.


85

Anlisis de Series de Tiempo


Ejemplo V.1.1. Consideremos los datos del ndice de Utilidad Dow Jones de Agosto 28 a
Diciembre 28 de 1972. El archivo es DOWJ.TXT.
Solucin.
Los datos presentan el siguiente comportamiento:
Nmero de observaciones =
Media muestral = .1157E+03

78

Grfica19. Serie ndice de utilidad Dow Jones Ago-28 a Dic-28 de 1972.


125

DJ

120

115

110

105
10

30

50

70

Note que es necesario diferenciar la serie para obtener un proceso estacionario. Es


decir, tendremos un nuevo modelo: Yt Dt Dt 1 . Por tanto, ajustaremos un proceso AR a
esta nueva serie mediante Yule-Walker. La serie diferenciada es:
Grfica20. Serie ndice de utilidad Dow Jones diferenciada a distancia 1.
1.5

DJ

1.0

0.5

0.0

-0.5

-1.0
10

30

50

70

Las instrucciones para llevar a cabo lo anterior en S-PLUS son las siguientes:
dif.DJ<-diff(DOWJ,1,1)
guiPlot(PlotType="Y Series Lines", Columns=1, DataSet="DOWJ")
guiPlot(PlotType="Y Series Lines", Columns=1, DataSet="dif.DJ")

donde DOWJ es el nombre del Dataset con los datos del ndice de utilidad Dow Jones.
Las autocorrelaciones muestrales de la serie diferenciada, as como la grfica de estas,
las obtenemos siguiendo Statistics > Time Series> Autocorrelations en el Dataset dif.DJ,
86

Anlisis de Series de Tiempo


entonces aparecer un cuadro de dilogo en el que seleccionamos Autocorrelation en la
opcin Estimate Type. Los resultados se presentan enseguida:
Autocorrelation matrix:
lag dif.DJ
1
0 1.0000
2
1 0.4219
3
2 0.2715
4
3 0.1617
5
4 0.2270
6
5 0.1490
7
6 0.2006
8
7 0.1721
9
8 0.0262
10
9 0.0400
11 10 0.0545
12 11 0.1767
13 12 0.0142
14 13 0.1947
15 14 0.0578
16 15 -0.0758
17 16 -0.1796
18 17 0.0760
19 18 0.0159

Grfica21. ACF y PACF Serie del ndice de utilidad Dow Jones diferenciada a
distancia 1.
Series : dif.DJ[,"difDJ"]

0.0

-0.2

-0.2

0.0

-0.1

0.2

ACF
0.4

Partial ACF
0.1
0.2

0.6

0.3

0.8

0.4

1.0

Series : dif.DJ[,"difDJ"]

10

15

Lag

10

15

Lag

La grfica de la PACF (derecha) sugiere ajustar un modelo AR(1), puesto que las
dems autocorrelaciones son estadsticamente iguales a cero. Para obtener la estimacin
preliminar por Yule-Walker y con mnimo AICC, agregamos las instrucciones siguientes (en
S-PLUS):
yw.dif.DJ<-ar.yw(dif.DJ, aic=T)
yw.dif.DJ

El modelo obtenido es:


$order:
[1] 1
[,1]
[1,] 0.4218786
$var.pred:
[,1]
[1,]

0.1518409

87

Anlisis de Series de Tiempo


As, el correspondiente modelo para Yt, la serie original, es:
Yt

0.1157

0.4219(Yt

0.1157) Z t ,

{Z t }

WN(0,0.1518)

El intervalo de confianza para el coeficiente autorregresivo es:


(1.96)(. 1518)
(0.1799) 77

0.4219

que

(0.2194,0.6244)

Cabe notar que el intervalo de confianza no contiene al cero, por lo que se concluye
0 con
0.05 de significancia.

V.1.2. Algoritmo de Burg


El Algoritmo de Burg estima la funcin de autocorrelacin parcial { 11 , 22 ,...}
minimizando sucesivamente la suma de cuadrados de los predictores un paso adelante y un
paso atrs con respecto a los coeficientes ii .
Dadas las observaciones {x1 , x2 ,..., xn } de un proceso estacionario con media cero,
definiremos:
u 0 (t ) v0 (t ) x n 1 t
u i (t )

u i 1 (t 1)

vi (t )

vi 1 (t )

Entonces, el estimador de
minimizando la siguiente expresin:
2
1

11

v (t )

ii i 1
ii

u i 1 (t 1)

usando el algoritmo de Burg,

1
2(n 1)

(B)
11

, se encuentra

[u12 (t ) v12 (t )]
t 2

con respecto a 11 . La solucin nos dar los valores de u1 (t ), v1 (t ) y 12 , que se usarn para
encontrar el estimador de 22 y los valores de u 2 (t ), v2 (t ) y 22 . Esto sucede minimizando la
nueva expresin:
n
1
2
[u 22 (t ) v 22 (t )]
2
2( n 2) t 3
El proceso de estimacin continua de la misma forma hasta obtener el estimador
(B ) 2
p

los correspondientes valores mnimos de


El clculo de los estimadores de
siguientes ecuaciones recursivas:

ii

(B )
pp

.
2
i

88

descritos arriba es equivalente a resolver las

Anlisis de Series de Tiempo


Algoritmo de burg
n

[u 02 (t 1) v02 (t )]

d (1)
t 2

2
d (i ) t

(B)
ii

d (i 1)
(B)2
i

1
1

[vi 1 (t ) u i 1 (t 1)]
i 1
( B)2
ii
( B)2
ii

d (i ) vi2 (i 1) u i2 (n)

d (i ) /[ 2(n i )]

La distribucin de los coeficientes estimados por el Algoritmo de Burg, para muestras


grandes, es la misma que la de los estimadores de Yule-Walker. Sin embargo, no se asegura
que las estimaciones (valores) sean iguales.
Ejemplo V.1.2. Consideremos los datos del nivel del Lago Hurn (en pies) en los aos 18751972. El archivo es LAKE.TXT.
Solucin.
Esta serie tiene 98 datos {Yt , t 1,...,98} . Ajustaremos un modelo AR a los datos sin
eliminar algn componente de tendencia, es decir no se diferenciar la serie. Los datos, las
funciones de autocorrelacin y autocorrelacin parcial se muestran en las grficas siguientes:
Grfica22. Serie nivel del lago Hurn aos 1875-1972.

lake

11

5
10

30

50

70

90

Grfica23. ACF y PACF de la serie nivel del lago Hurn aos 1875-1972.
Series : Lake$lake

-0.2

-0.2

0.0

0.0

0.2

ACF
0.4

Partial ACF
0.2
0.4

0.6

0.6

0.8

0.8

1.0

Series : Lake$lake

10
Lag

15

89

10
Lag

15

Anlisis de Series de Tiempo


Las grficas anteriores las obtenemos mediante las instrucciones:
guiPlot(PlotType="Y Series Lines", Columns=1, DataSet="Lake")
acf(x = Lake$lake, type = "correlation")
acf(x = Lake$lake, type = "partial")

donde Lake es el nombre del Dataset con la serie en cuestin.


La grfica de la PACF (arriba a la derecha) sugiere ajustar un modelo AR de orden p=2
a los datos corregidos por la media, X t Yt 9.0041 .
Para obtener la estimacin preliminar del modelo autorregresivo por el Algoritmo de
Burg en para los datos corregidos, agregamos las lneas siguientes en nuestro Script File:
Lake.corr<-Lake-mean(t(Lake)) /corrige los datos por la media/
burg.lake<-ar.burg(Lake.corr, aic=T)
burg.lake

La opcin aic=T asegura que se obtendr el modelo con mnimo AICC. Los resultados
son:
$order:
[1] 2
$ar:
[,1]
[1,] 1.0450438
[2,] -0.2457325
$var.pred:
[,1]
[1,] 0.4788279

As, nuestra estimacin preliminar queda como:


Yt

9.0041 1.0450(Yt

9.0041) 0.2457(Yt

9.0041) Z t ,

{Z t }

WN(0,0.4788)

V.1.3. Algoritmo de Innovaciones


Al igual que el mtodo de Yule-Walker, el Algoritmo de Innovaciones puede usarse
como mtodo de estimacin preliminar, pero en este caso, para modelos MA(q) y ARMA(p,q).
La idea de aplicar este mtodo radica en que las ecuaciones del Algoritmo de
Innovaciones, tanto de las n,n k , como de las n , se plantean con las autocovarianzas
muestrales, quedando como incgnitas las

n, n k

Para aplicar el mtodo es necesario tener un valor inicial de q. A continuacin se


enuncian algunas formas de obtener un valor preliminar de q:

90

Anlisis de Series de Tiempo


1. Sabemos que para un proceso MA(q), las autocorrelaciones (m ) son cero para m > q.
Por otro lado, sabemos de la frmula de Barttlet (Resultado IV.2) que ( m ) se
2
distribuye asintticamente Normal, N (0, (1 2 2 (1)
(q) / n) . As, podemos
usar la grfica de ( m ) para obtener una estimacin preliminar del orden q como el
valor ms pequeo de m, tal que ( m ) sea cero para m > q.
( B) Z t donde
2. Se puede mostrar que si {Xt} sigue un proceso MA(q) invertible X t
{Z t } IID(0,

) con las condiciones E ( Z t4 )

1y

0 para j > q, entonces

los estimadores de Innovaciones tienen la propiedad: Si n


, m(n) una sucesin de
3
enteros tal que m(n)
, pero m(n) / n 0 , entonces para cada entero positivo k,
se tiene que:

n ( m1

, m2

,..., mk

NMV (0, A)

donde la matriz de covarianzas A tiene como componente (i,j) al elemento:


min( i , j )

aij

i r

r 1

j r

Este resultado nos permite construir intervalos de confianza para los coeficientes y
decidir cuales de ellos son estadsticamente diferentes de cero y as decidir el orden q.
3. Al igual que para los procesos AR(p), una aproximacin ms sistemtica para
seleccionar el orden de los modelos MA(q) es encontrar el valor de q y
q ( m1 , m2 ,..., mq )' que minimice el valor AICC, dado por:
AICC

2 ln L(

, S(

) / n) 2(q 1)n /( n q 2)

De esta forma, el modelo MA(m) ajustado por Innovaciones es:


Xt

Zt

m1 Z t

...

mm Z t

con {Z t } WN ( m )

Asintticamente (muestras grandes), un intervalo de confianza para

mj

al 95% de

confianza se puede obtener como sigue:

mj 1.96n

j 1
1/ 2

1/ 2

2
mi

i 0

Hasta ahora, en el desarrollo del Algoritmo de Innovaciones hemos supuesto que p=0 y
q>0. Pero el Algoritmo se puede llevar a casos ms generales, es decir, cuando p>0 y q>0.

91

Anlisis de Series de Tiempo


Recordemos que la causalidad de un proceso ARMA(p,q) garantiza la expresin:

Xt

Zt

j 0

donde los coeficientes {

} se encuentran de las ecuaciones:

p
j

j=0,1,

j k

k 1

Con

1y

0 para j > q.

Para estimar la secuencia {

} , j=1,2,,p+q, se pueden usar los estimadores del A.I

m1 , m 2 ,..., m, p q , ya que el modelo se supone causal. As, sustituyendo las mj por los
obtenemos el sistema de ecuaciones:
m1

m 2

1 m1

mq

1 m ,q 1

m ,q

m ,q

1 m,q

1 m,q p 1

m ,q

m ,q

1 p

m ,q

Empezamos por resolver las ltimas p ecuaciones para encontrar

( 1 , 2 ,..., p )' . Es

decir, resolvemos:

m, q

m, q

m, q
m, q

m, q

m, q
1

m, q

p 1

m, q

1 p

m, q

m, q

2 p

m, q

m, q

p 2

Una vez que tenemos


( 1 ,. 2 ,...,

mj

( 1 , 2 ,..., p )' , podemos determinar la estimacin de

)' mediante:

min( j , p )

k m, j

j=1,2,,q

k 1

92

Anlisis de Series de Tiempo


El estimador de la varianza del proceso de Ruido Blanco est dado por:

1
nrt 1

(X t

X t ) 2

t 1

donde X t es el valor de la prediccin a un paso usando los coeficientes encontrados


anteriormente y rn E (Wn 1 W n 1 ) 2 como en la seccin IV.5.
Ejemplo V.1.3. Consideremos los datos del nivel del Lago Hurn (ver ejemplo anterior).
Solucin.
El paquete S-PLUS no trae la opcin de estimacin preliminar por Innovaciones, por lo
que usaremos ITSM-2000.
En el ejemplo V.1.2 ajustamos un modelo AR(2) a los datos corregidos por la media
usando el Algoritmo de Burg. Si ahora queremos ajustar un modelo ARMA(1,1) usando el
Algoritmo de Innovaciones, en ITSM tenemos que seguir los pasos: 1) Dar clic en el botn
superior de estimacin preliminar y seleccionar yes para corregir los datos por la media; 2)
Especificar 1 en el orden de AR y 1 en MA y estimacin por algoritmo de Innovaciones; y 3)
Clic en OK para obtener el modelo estimado:
ARMA Model:
X(t) - .7234 X(t-1) = Z(t) + .3596 Z(t-1)
WN Variance = .475680
AICC = .212894E+03
para los datos corregidos por la media, X t

Yt

9.0041 .

Es interesante notar que el valor de AICC ajustando el modelo ARMA(1,1) es 212.89,


el cual es ms pequeo al correspondiente valor de AICC (213.57) ajustando un modelo AR(2)
por cualquier mtodo. Esto sugiere que el modelo ARMA(1,1) es mejor que el AR(2). Sin
embargo, se deben llevar a cabo pruebas de bondad de ajuste de los modelos para poder elegir
a uno de ellos.
V.1.4. Algoritmo de Hannan-Rissanen
Recordemos que la secuencia de errores {Zt} es no-observable; no obstante, podemos
usar los residuales como una estimacin de ella.
El Algoritmo de Hannan-Rissanen consiste en realizar la regresin por mnimos
cuadrados de la serie {Xt} sobre los residuales Z t 1 ,..., Z t q resultantes del ajuste de un modelo
autorregresivo. En seguida se describe el procedimiento.

93

Anlisis de Series de Tiempo


1. Estimar un modelo AR(m) con m grande usando el Algoritmo de Yule-Walker de la
seccin V.1.1. Sea ( m1 ,..., mm )' el vector de coeficientes estimados. Entonces calculamos
los residuales como la diferencia entre el valor de la observacin y la estimacin:
Z t

m1 X t

Xt

mm X t

, t=m+1,,n

2. Ahora, podemos llevar a cabo la regresin de Xt sobre X t 1 ,..., X t p , Z t 1 ,..., Z t

( 1 ,..., p , 1 ,..., q )' minimizando con respecto a

el vector de parmetros

y encontrar
la cantidad

(mnimos cuadrados):
n

S( )

Xt

Xt

Xt

Z t

Z t

t m q 1

As, obtenemos el estimador de Hannan-Rissanen como:

donde X n

(X m

1 q

(Z ' Z ) 1 Z ' X n

,..., X n )' es un vector de orden n-m-q y la matriz Z es de orden (n-m-q) x

(p+q) dados por:


Xn

(X m
Xm

Xm

q 1
q

q 1

Xn

,...., X n ) '
Xm
Xm

q 1
q

Xn

Xm

q 1 p

Xm

q 2 p

Xn

Z m q
Z m q 1

Z m q 1 Z m
Z m q Z m

Z n

Z n

1
2

Z n

Claramente, si el modelo AR ajustado en el paso1 es de orden 0, la matriz Z slo


contendr las ltimas q columnas.
El estimador de la varianza del Ruido Blanco por este mtodo est dado por:
2

HR

S( )
n m q

donde S ( ) est definida como la suma de errores de estimacin al cuadrado.


La estimacin preliminar en ITSM por el Algoritmo de Hannan-Rissanen consiste en
seleccionar Model>Estimation> Preliminary y seleccionar la opcin Hannan-Rissanen del
cuadro de dilogo. El programa restringe valores de q entre 0 y 27.

94

Anlisis de Series de Tiempo


El algoritmo de Hannan-Rissanen incluye un tercer paso, que consiste en llevar a cabo
una regresin ms.
Definamos las variables:
0,
Z~t

si t
p

j X t

Xt

j Z~t j , si t

j 1

max (p,q)
max (p,q)

j 1

y para t=1,,n,
0,

si t

Vt

jVt

Z~ t , si t

max (p,q)
max (p,q)

j 1

0,
q

Wt

jWt

si t

max (p,q)

Z~t j , si t

max (p,q)

j 1

Minimizando la cantidad:
n

Z~t

S ( )

t max( p q ) 1

Vt

Wt

k p

j 1

k 1

*
*
~
encontraremos el vector
. Entonces el estimador mejorado de , dado por
,
tiene la misma eficiencia (asinttica) que el estimador de mxima verosimilitud, que se
muestra enseguida.

V.2. ESTIMACIN POR MXIMA VEROSIMILITUD

Suponga un proceso {Xt} estacionario ARMA(p,q) y deseamos estimar los parmetros


y 2 (p y q conocidos).

Para aplicar el mtodo de mxima verosimilitud debemos suponer una distribucin del
proceso, digamos una distribucin Normal con media cero y funcin de autocovarianzas (h) .
Si disponemos de n observaciones de esta distribucin, podemos plantear la funcin de
distribucin conjunta de X n ( X 1 ,..., X n )' como sigue:
L(

donde

(2 )

es la matriz de covarianzas,

1/ 2

n/2
n

exp{

E ( X n X n' ) .

95

1 '
Xn
2

1
n

X n}

Anda mungkin juga menyukai