Anda di halaman 1dari 49

68

CAPITULO 2. ANALISIS UNIVARIANTE DE SERIES TEMPORALES: MODELOS


ARIMA.


2.1. INTRODUCCIN

Una serie temporal es una sucesin de observaciones de una variable en distintos
momentos del tiempo. Aunque el tiempo es, en realidad, una variable continua, en la prctica
utilizaremos mediciones en periodos aproximadamente equidistantes. Por ejemplo, la sucesin
de valores del PNB
pm
para un pas desde 1900 hasta 1990.

Bsicamente, lo que se pretende con el estudio univariante de las series temporales es el
conocimiento de una variable a lo largo del tiempo para, a partir de este conocimiento y bajo el
supuesto de que no van a producirse cambios estructurales, poder realizar predicciones.

Hay casos en los que la variable observada tiene un patrn de comportamiento fijo. En
trminos estadsticos estamos ante una serie determinista. Por el contrario hay series que
resultan impredecibles. Su pauta de comportamiento no responde a un patrn fijo, por lo que
son puramente aleatorias. Un ejemplo tpico es la sucesin de nmeros premiados en un sorteo
de loteras. En general, las series econmicas contienen una componente determinista y una
componente aleatoria.

Hasta el primer cuarto del siglo XX, los mtodos de anlisis de series temporales se
basaban en los modelos de descomposicin. Segn stos, las series reales resultan de la
agregacin de cuatro componentes bsicas: tendencia, componente estacional, componente
cclica y componente irregular. Cada una de estas componentes se estudia por separado
mediante el uso de mtodos matemticos.

La tendencia se corresponde con la evolucin de la serie a largo plazo, evolucin que
puede ser creciente, decreciente o estable. Suele estar reflejada por una lnea alrededor de la
cual oscilan los valores de la serie. En la figura 2.1.1. se aprecia la representacin grfica de una
serie simulada con tendencia creciente.

Los movimientos cclicos son variaciones o movimientos oscilatorios de amplitud
superior al ao, en general no peridicos y se suelen apreciar cuando la serie tiene gran longitud.
La duracin del ciclo no se mantiene constante. En economa, una explicacin sobre la aparicin
69
de los ciclos, es la existencia de los perodos de prosperidad y recesin de los pases (la serie
observada puede ser la renta per cpita).

Tiempo
S
e
r
i
e


Figura 2.1.1.


La figura 2.1.2. presenta un ejemplo de serie con componente cclica y con tendencia
constante o estacionaria. Las ondas peridicas plurianuales son los ciclos de la serie.

Tiempo
S
e
r
i
e


Figura 2.1.2.


La estacionalidad se refiere a las oscilaciones que acontecen dentro del ao y que se
repiten en aos sucesivos. Es consecuencia de factores climticos, organizativos y
administrativos, fundamentalmente. Considrese como ejemplo, el aumento de la venta de
juguetes durante la fiesta de Reyes cada ao.

70
As como los ciclos se caracterizan por su irregularidad, en la componente estacional se
pueden encontrar movimientos parecidos de un ao a otro. El grfico de la figura 2.1.3.
representa una serie estacionaria con movimientos estacionales.

Tiempo
S
e
r
i
e
Tiempo
S
e
r
i
e


Figura 2.1.3.

La componente irregular contiene variaciones espordicas que no responden a ningn
patrn fijo, y que son originadas por acontecimientos singulares. Recoge los efectos sobre la
serie de hechos no previsibles, como pueden ser las catstrofes o huelgas, o factores
inapreciables no explicables a causa de la conducta impredecible de los sujetos.

Estos elementos se pueden combinar de forma aditiva, multiplicativa o mixta, para
formar el valor total de la serie temporal.

En el esquema aditivo, el valor total de la serie es la suma de sus elementos:

Y
t
= T
t
+ C
t
+ E
t
+ I
t


En el esquema multiplicativo:

Y
t
= T
t
C
t
E
t
I
t


Un modelo mixto, puede ser:

Y
t
= T
t
C
t
E
t
+ I
t


T es la tendencia, C los movimientos cclicos, E la estacionalidad e I la componente
irregular.
71
El anlisis clsico tiene como fin describir la pauta de comportamiento que siguen cada
una de estas componentes, con el fin de reproducir su conducta y realizar predicciones. Se parte
de un esquema previo y se trata de aislar cada uno de los componentes.

Posteriormente surgi la concepcin moderna o estocstica, basada en la teora de los
procesos aleatorios. Se trata de los modelos estocsticos de series temporales, los cuales se
representan mediante relaciones analticas que conectan los valores de la variable con
combinaciones lineales o no, de parmetros y variables. Entre estas variables, al menos, una
tiene carcter probabilstico, hecho que confiere a la serie un rasgo aleatorio. En este sentido, los
modelos predictivos univariantes de series temporales propuestos por Box y Jenkins (1970),
sern el punto de atencin de este captulo. Son los denominados modelos ARIMA.

La parte aleatoria de una serie no debe confundirse con el movimiento irregular, debido
a que ste no est sujeto a periodicidad alguna pero puede ser previsible (por ejemplo, el efecto
de una huelga en la produccin). El componente aleatorio se caracteriza por no ser previsible.



2.2. MODELOS LINEALES DE SERIES TEMPORALES: MODELOS ARIMA

2.2.1. PROCESOS ESTOCSTICOS

Un proceso estocstico es una familia de variables aleatorias que corresponden a
momentos sucesivos del tiempo. En cada perodo o momento temporal se dispone de una
variable que tendr su correspondiente distribucin de probabilidad.

Sea el proceso Y
t
. Para t = 1, por ejemplo, Y
1
es una variable aleatoria que tomar
diferentes valores con diferentes probabilidades. Lo mismo ocurre para todo t =1, 2, ....

En la metodologa ARIMA, una serie temporal es una muestra de un proceso
estocstico. Est formada por una sola observacin de cada una de las variables que componen
el proceso, es decir, es una realizacin del mismo
1
. Dicho de otra forma, la serie ha sido
generada por un proceso estocstico, y, por tanto, tiene carcter aleatorio
2
.

1
La notacin Y
t
puede representar tanto una variable aleatoria como una observacin muestral, depende
del contexto.
2
No se pueden obtener los valores de la serie de forma exacta a travs de una funcin matemtica del
tiempo, por ejemplo Y
t
= 2t.
72
Por ejemplo, el PIB
pm
desde 1970 hasta 1990 de un pas es, en cada ao, una variable
aleatoria que puede tomar infinitos valores con distintas probabilidades. La sucesin de
observaciones efectuadas cada ao en ese pas formara la serie temporal.

Un proceso estocstico Y
t
, se suele describir mediante las siguientes caractersticas:
esperanza matemtica, varianza, autocovarianzas y coeficientes de autocorrelacin.

La esperanza matemtica de Y
t
se traduce en la sucesin de las esperanzas matemticas
de las variables que componen el proceso, a lo largo del tiempo.

E(Y
t
) =
t,
t = 1,2,3,...

La varianza de un proceso aleatorio es una sucesin de varianzas, una para cada variable
del proceso.

Var (Y
t
) = E(Y
t
-
t
)
2
, t =1,2,3,...


Las autocovarianzas son las covarianzas entre cada par de variables del proceso.

Cov(Y
t
,Y
t+k
) = E[(Y
t
-
t
)(Y
t+k
-
t+k
)] =
t,t+k
, t = 1,2,3...


Los coeficientes de autocorrelacin son los coeficientes de correlacin entre cada par de
variables que componen el proceso.

t,t+k
=

t t k
t t k
Var Y Var Y
,
( ) ( )
+
+
, t=1,2,3,..., con
+
1 1
t t k ,


La funcin de autocorrelacin simple o correlograma (FAS) es la representacin grfica
de los coeficientes de autocorrelacin, en funcin de los distintos retardos o desfases entre las
variables.

La funcin de autocorrelacin parcial (FAP) responde a la medicin de la correlacin
existente entre dos variables del proceso en distintos perodos de tiempo, pero una vez
eliminados los efectos sobre las mismas de los perodos intermedios. Parte de la correlacin que
73
pueda detectarse entre Y
t
e Y
t-2
puede ser debida a que ambas variables estn correlacionadas
con Y
t-1
.


2.2.1.1. PROCESOS ESTACIONARIOS

Un tipo de procesos que alcanzan gran importancia en este anlisis es el de los procesos
estacionarios, en contraposicin a los procesos evolutivos. La estacionariedad de un proceso
puede concebirse en sentido estricto y en sentido amplio.

Un proceso es estacionario en sentido estricto si cualquier conjunto m de variables
aleatorias del proceso tienen la misma distribucin de probabilidad que cualquier otro conjunto
de m variables, para todo m dado. Implica que las caractersticas del proceso no sufren
alteracin al considerar tiempos diferentes.

El mayor problema de esta definicin es que no es empricamente contrastable, porque
la serie temporal est formada por una sola observacin de cada una de las distribuciones de
probabilidad que componen el proceso en cada perodo de tiempo. Adems, el nmero de
condiciones a comprobar podra ser infinito.

Para fines prcticos se defini la estacionariedad en sentido amplio o de segundo orden.
Un proceso es estacionario en sentido amplio si su media es constante e independiente del
tiempo, su varianza es finita y constante, y el valor de la covarianza entre dos periodos no
depende del tiempo en el cual se ha calculado, sino de la distancia o desfase entre aquellos.
Todos los momentos de primer y segundo orden del proceso son independientes del tiempo,
incluyendo la funcin de autocorrelacin parcial.

E(Y
t
) = , t =1,2,3...

Var(Y
t
) = E(Y
t
- )
2
=
2
, t =1,2,3...


t t k t k t k , , +
, t =1,2,3...

k
es la covarianza entre dos variables del proceso separadas k perodos.

Si k = 0,
0
= E(Y
t
- )( Y
t
- ) =
2

74

t,t+k
=
k
0
k
2 2
k

k
es el coeficiente de autocorrelacin simple de dos variables separadas k perodos.


Estacionariedad en media y varianza

Vamos a suponer que una serie temporal muestra una tendencia creciente. Como cada
observacin de la serie proviene de la distribucin de probabilidad del perodo correspondiente,
es razonable creer que la esperanza matemtica de dichas distribuciones tambin crece en el
tiempo.

Para conocer si la serie temporal es estacionaria en varianza, puede realizarse la
observacin de los datos originales. Si alcanzan oscilaciones desiguales en torno a la tendencia,
se puede defender la no estacionariedad de la serie. La figura 2.2.1. presenta una serie temporal
generada por un proceso no estacionario en varianza, siendo sta creciente con el tiempo.

Tiempo
S
e
r
i
e


Figura 2.2.1.

Los modelos de prediccin de series temporales estn diseados para procesos
estacionarios. Si las caractersticas del proceso cambian a lo largo del tiempo, resultar difcil
representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal
sencillo. Sin embargo, por regla general, las series econmicas no son series que proceden de
procesos estacionarios, sino que suelen tener una tendencia creciente o decreciente, y
75
variabilidad no constante. Esta limitacin no es tan importante porque, en la prctica, se pueden
transformar las series no estacionarias en otras que s lo son.

Un tipo de proceso estacionario particular es el denominado ruido blanco, formado por
una sucesin de variables aleatorias con distribucin normal, esperanza cero, varianza constante
e incorreladas entre s (figura 2.2.2):

t
es ruido blanco si
t
N(0,
2

), para cualquier t, tal que Cov(


t
,
t
) = 0, t t' .


Tiempo
S
e
r
i
e

-1
-0,5
0
0,5
1
1 2 3 4 5 6 7
Retardo

k


Figura 2.2.2. Figura 2.2.3.


Por otra parte, un proceso estocstico se dice ergdico cuando los valores de la serie
alejados en el tiempo estn poco correlacionados, es decir, cuando
k
decrece al aumentar el
retardo k (figura 2.2.3.).


2.2.1.2. ESTIMACIN DE LA FUNCIN DE AUTOCORRELACIN SIMPLE EN
UN PROCESO ESTACIONARIO.

En la prctica se dispone de una muestra de un proceso estocstico, Y
1
, ...Y
n
. Se pueden
obtener los coeficientes de autocorrelacin simple y parcial muestral y, a partir de ellos, la
funcin de autocorrelacin simple y parcial terica
3
.

Funcin de autocorrelacin simple de la muestra:

3
La estimacin de la FAP se tratar en el epgrafe 3 del captulo.
76

n
Y
Y
n
1 t
t

,
n
) Y Y (

2
n
1 t
t
0



k n
) Y Y )( Y Y (
k n
) Y Y )( Y Y (

t
n
1 k t
k t k t
n
1 k t
t
k




+
+
+

k
k

0


Si el tamao de la muestra es grande con respecto a k, dividir por n o por n-k es
prcticamente lo mismo, as como el clculo de la media con n o con n-k observaciones:

k
k

0
=
2
n
1 t
t
k t
n
1 k t
t
2
n
1 t
t
k t
n
1 k t
t
) Y Y (
) Y Y )( Y Y (
n
) Y Y (
k n
) Y Y )( Y Y (

+
+

+
+






2.2.2. MODELIZACIN UNIVARIANTE DE SERIES TEMPORALES.

La representacin formal de los procesos aleatorios que generan series reales se puede
realizar a travs de los modelos lineales de series temporales, desarrollados especialmente a
travs de la metodologa de Box y Jenkins. Considerando que la serie temporal ha sido generada
por un proceso estocstico, en este apartado se describirn los posibles modelos tericos que
permitan explicar el comportamiento de la misma y, por tanto, el de su proceso generador.
Despus, se utilizarn con fines predictivos.

Las estructuras estocsticas estacionarias lineales que se tratarn de asociar a una serie
de datos econmicos se clasifican en tres tipos: el modelo autorregresivo, el modelo de medias
mviles y el modelo mixto.

77
2.2.2.1. PROCESOS AUTORREGRESIVOS

Representan los valores de una variable durante un instante del tiempo en funcin de sus
valores precedentes. Un modelo autorregresivo de orden p (AR(p)) tiene la forma siguiente:

Yt = +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t


es un trmino constante.

t
es una variable ruido blanco, que representa los errores del ajuste y otorga el carcter aleatorio
a la misma.

Las caractersticas de los procesos AR(1) y AR(2) se analizarn a continuacin y los
resultados obtenidos se van a generalizar al AR(p).

Modelos autorregresivos de primer orden AR(1):

Y
t
= +
1
Y
t-1
+
t

Si el proceso es estacionario en media y varianza: E(Y
t
) = E(Y
t-1
) y Var (Y
t
) = Var(Y
t-1
),
t. Entonces:

Media: E(Y
t
) = E(Y
t-1
) = = +
1


=

1
1


Varianza: Var(Y
t
) = Var(Y
t-1
) =
0

0
=
1
2

0
+

2

0
=

2
1
2
1

La condicin a cumplir para que
0
sea positiva y finita es que
1
1 < . En ese caso el
modelo es estacionario en media y varianza.

Si el modelo es estacionario en sentido amplio, adems:

Autocovarianzas:
Cov(Y
t-1
,Y
t
) = Cov(Y
t
,Y
t+1
) =
1 ,
t.

Cov (Y
t-1
,Yt)=E[( Y
t-1
-)(Yt-)] = E(y
t-1
y
t
)

78
Y
t
= +
1
Y
t-1
+
t
= (1-
1)
+
1
Y
t-1
+
t
Yt- =
1(
Y
t-1
-) +
t
y
t
=
1
y
t-1
+
t

1
= E(y
t-1
y
t
) = E(y
t-1
(
1
y
t-1
+
t
)) = 1E(y
t-1
2
) + E(y
t-1

t
) =
1

0

y
t-1
est correlacionado con
t-1
pero no con
t
, debido a que sta es una variable ruido blanco y
no presenta autocorrelacin.

2
= E(y
t-2
y
t
) = E(y
t-2
(
1
y
t-1
+
t
))=
1
E(y
t-2
Y
t-1
)+ E(y
t-2

t
) =
1

1
=
1
2

0

............

k
=
1
k

0

Coeficientes de autocorrelacin simple:

0
= 1

1
=
1
0
1

2
=
2
1
0
2


.........

k
=
k
1
0
k

k

Los valores de la funcin de autocorrelacin son las sucesivas potencias de
1
. La
condicin 1
1
< garantiza que los sucesivos valores
k
converjan a cero, por lo que la funcin
de autocorrelacin o correlograma puede tener dos aspectos distintos, dependiendo del signo de

1
(figura 2.2.4.).

Utilizando el operador de retardos L que, aplicado sobre una variable en un periodo del
tiempo t, la retarda un perodo, podemos establecer de otro modo la condicin de
estacionariedad:

LY
t
= Y
t-1
, LY
t-1
= Y
t-2
= LLY
t
=L
2
Y
t
, ... Y
t-k
= L
k
Y
t


L
0
=1 por lo que L
0
Y
t
= Y
t

Podemos escribir el modelo:
79

Y
t
= +
1
Y
t-1
+
t
= +
1
LY
t
+
t
Yt -
1
LY
t
=



+
t
Y
t
(1 -
1
L) =

+
t


donde (1 -
1
L) = (L) es el operador polinomial de retardos.

Para que el proceso AR(1) sea estacionario, 1
1
< y es equivalente a la condicin de
que la raz del operador polinomial (L) = 0 debe caer fuera del crculo unidad, es decir:
1 -
1
L = 0 1 L > 1
1
1
>

1
1
< .-
Si 1
1
< 1
L
1
< 1 L > .-

1
>0
-1
-0,5
0
0,5
1
Retardo
r
k

1
<0
-1
-0,5
0
0,5
1
Retardo




Figura 2.2.4. FAS de un modelo AR(1)


Modelos autorregresivos de segundo orden AR(2):

Y
t
= +
1
Y
t-1
+
2
Y
t-2
+
t


Si el proceso es estacionario en media y varianza: E(Y
t
) = E(Y
t-1
) y Var(Y
t
) = Var(Y
t-1
),
t. Entonces:
Media: E(Y
t
) = E(Y
t-1
) = = +
1
+


=
2 1
1


Para que la media sea finita
1
+
2
1.

80
Varianza: Var(Y
t
) = Var(Y
t-1
)= Var (Y
t-2
) =
0
Var (Y
t
) = E(y
t
2
) = E(y
t
y
t
) = E[y
t
(
1
y
t-1

+... +
2
y
t-2
+
t
)] =
1

1
+
2

2
+ E(y
t

t
) =
1

1
+
2

2
+
2



Ya que y
t
=
1
y
t-1
+
2
y
t-2
+
t

Autocovarianzas:

Cov(Y
t-1
,Y
t
) = Cov(Y
t
,Y
t+1
) =
1
, t.

1
= Cov (Y
t-1
,Y
t
) = E[( Y
t-1
- )(Yt - )] = E(y
t-1
y
t
) = E[y
t-1
(
1
y
t-1
+
2
y
t-2
+
t
)] =
1

0
+

1.

Hay que recordar que en un proceso estacionario
1
=
-1
.

2
= Cov (Y
t-2
,Y
t
) = E(y
t-2
y
t
) = E(y
t-2
(
1
y
t-1
+
2
y
t-2
+
t
)) =
1

1
+
2

0

...

k
=
1

k-1
+
2

k-2
(k>0).

Coeficientes de autocorrelacin simple:

0
=1

1
=

1
0
=
1
+
2

2
=

2
0

1

1
+
2
....

k
=

k
0

1

k-1
+
2

k-2 ,
k>0

En la figura 2.2.5. se pueden observar los correlogramas de procesos AR(2).

Modelos autorregresivos de orden p, AR(p):

Y
t
= +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t


Si el proceso es estacionario en media y varianza: E(Y
t
) = E(Y
t-1
) =...= E(Y
t-p
) y Var(Y
t
)
= Var(Y
t-1
) =...= Var(Y
t-p
), t. Entonces:
81
=
p 2 1
... 1

; para que la media sea finita


1
+
2
+...+
p
1.

La condicin de estacionariedad es que las races de la ecuacin polinomial (L) = 0
estn fuera del crculo unidad
4
.

0 L

... L

1
p
p
2
2 1

Si L
i
es una raz de la ecuacin polinomial se demuestra que
i
L
1
=
i
Donde
i
son las races de la denominada ecuacin caracterstica:

p
-
1

p-1
-
2

p-2
-...-
p
= 0.

Por tanto, la condicin de invertibilidad se puede obtener de forma alternativa y es que
las races de la ecuacin caracterstica deben ser menores a la unidad en valor absoluto.

1
>0,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
<0,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
>0,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
<0,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.2.5. FAS de procesos AR(2)

82

Generalizando:

0
=
1

1
+
2

2
+...+
p

p
+
2

k
=
1

k-1
+
2

k-2
+...+
p

k-p
, para todo k 1 (*)

El sistema de ecuaciones (*) para k = 1...p, relaciona las p primeras autocovarianzas con
los parmetros del proceso. Se denominan ecuaciones de Yule-Walker:

1
=
1

0
+
2

1
+...+
p

p-1

2
=
1

1
+
2

0
+...+
p

p-2

.............................................

p
=
1

p-1
+
2

p-2
+...+
p

0


Las ecuaciones de Yule-Walker se pueden expresar en trminos de los coeficientes de
autocorrelacin dividiendo por
0
ambos miembros:

1
=
1

0
+
2

1
+...+
p

p-1

2
=
1

1
+
2

0
+...+
p

p-2

.............................................

p
=
1

p-1
+
2

p-2
+...+
p

0


Mediante estas ecuaciones se pueden obtener los coeficientes o parmetros del proceso
AR(p) con los datos de los coeficientes de autocorrelacin o autocovarianzas.

Si se resuelve sucesivamente el sistema de Yule-Walker bajo la hiptesis de la serie es
un AR(1), AR(2), AR(3), etc., y se toma el ltimo coeficiente de cada uno de los procesos se
obtiene la funcin de autocorrelacin parcial terica. Bajo el supuesto de que p es el orden del
proceso autorregresivo, se obtiene que los coeficientes de autocorrelacin parcial sern distintos
de cero para retardos iguales o inferiores a p (figura 2.2.6.).



4
En caso de que las races sean nmeros complejos basta calcular su mdulo.
83

1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.2.6. FAP de procesos AR (1)


2.2.2.2. PROCESOS DE MEDIA MVIL

En los procesos de media mvil de orden q, cada observacin Y
t
es generada por una
media ponderada de perturbaciones aleatorias, con un retardo de q perodos. Se simboliza por
MA(q):

Y
t
= +
t
-
1

t-1
-
2

t-2
-...-
q

t-q,

t
es ruido blanco.

Modelo MA(1):

Y
t
= +
t
-
1

t-1
E(Y
t
) =
Var (Y
t
) = Var (
t
) +
1
2
Var (
t-1
) =

2
(1+
1
2
) =
0

Autocovarianzas:

1
= E(Y
t-1
- )(Y
t
- ) = E(
t-1
-
1

t-2
)(
t
-
1

t-1
) = -
1

2
= E(Y
t-2
- )(Y
t
- ) = E(
t-2
-
1

t-3
)(
t
-
1

t-1
) = 0
....

k
= 0, > k 1


Se dice que el proceso tiene una memoria de slo un perodo. Cualquier valor de Y
t
est
correlacionado con Y
t-1
e Y
t+1
, pero con ningn otro valor de la serie.

Coeficientes de autocorrelacin:
84

0
= 1

1
=

1
0
=
2
1
1
1 +

k
=

k
0
0
,
k>1

Un modelo MA(1) siempre es estacionario con independencia del valor de
1
.

1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.2.7. FAS de un proceso MA(1)


Modelo MA(2):

Y
t
= +
t
-
1

t-1
-
2

t-2


E(Y
t
) =

0
= Var (Y
t
) = Var (
t
) +
1
2
Var (
t-1
) +
2
2
Var (
t-2
) =

2
(1+
1
2
+
2
2)
=
0

Autocovarianzas:

1
= E(Y
t-1
- )(Y
t
- ) = E(
t-1
-
1

t-2
-
2

t-3
)(
t
-
1

t-1
-
2

t-2
) =

2
(-
1
+
1

2
)

2
= E(Y
t-2
- )(Y
t
- ) = E(
t-2
-
1

t-3
-
1

t-4
)(
t
-
1

t-1
-
2

t-2
) = -
2

2

....

k
= 0, > k 2

85

Coeficientes de autocorrelacin:

0
=1

1
=

1
0
=
+
+ +


1 1 2
1
2
2
2
1

1
=

2
0
=

+ +


2
1
2
2
2
1

......

k
=

k
0
0
,
k>2

Un modelo MA(2) siempre es estacionario con independencia del valor de sus
parmetros y su memoria es de dos perodos.

1
<0
,

2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
>0
,

2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
<0
,

2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
>0
,

2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.2.8. FAS del modelo MA(2)


86
Modelo MA(q):

Y
t
= +
t
-
1

t-1
-
2

t-2
-...-
q

t-q


E(Y
t
) =

0
= Var (Y
t
) = Var (
t
) +
1
2
Var (
t-1
) +
2
2
Var (
t-2
) =

2
(1 +
1
2
+
2
2
+...+
q
2
)


Autocovarianzas:

1
= E(Y
t-1
- )(Y
t
- ) =

2
(-
1
+
1

2
+
2

3
+...+
q-1

q
)

2
= E(Y
t-2
- )(Yt - ) = (-
2
+
1

3
+
2

4
+...+
q-2

q
)

2

....

q
= -
q

2
....

k
= 0, > k q


Los coeficientes de autocorrelacin pueden ser obtenidos a partir de las
autocovarianzas.

Todos los procesos MA de orden finito son estacionarios.


Concepto de invertibilidad de los procesos MA

Cualquier proceso MA(q) puede expresarse como un AR(). Un modelo MA(1):

Y
t
= +
t
-
1

t-1
Y
t-1
= +
t-1
-
1

t-2
Y
t-2
= +
t-2
-
1

t-3

t
= Y
t
- +
1

t-1
= Y
t
- +
1
(Y
t-1
- +
1

t-2
) = Y
t
- +
1
Y
t-1
-
1
+
1
2

t-2
= Y
t
- +
1
Y
t-1
-
1

+
1
2
(Y
t-2
- +
1

t-3
) = Y
t
- +
1
Y
t-1
-
1
+
1
2
Y
t-2
-
1
2
+
1
3

t-3
Y
t
= (1 +
1
+
1
2
)

-
1
Y
t-1

-
1
2
Y
t-2
-
1
3

t-3
+
t


87
Si continuamos eliminando
t-3
y siguientes, el procedimiento continuar hasta el
infinito. Lleva a expresar Y
t
como funcin de sus valores retardados ms una constante y un
trmino de error. Esto tiene sentido si 1
1
< , ya que, de otro modo, el efecto del pasado sera
ms importante para explicar el comportamiento actual. Lo ms lgico es pensar que el efecto
del pasado va siendo cada vez menor y el proceso es invertible. Si 1
1
, es un caso lmite de
invertibilidad, en el que el efecto se mantiene constante con el retardo. 1
1
< , equivale a que
las races de 1-
1
L = 0 1 L1 >1.

Para un modelo MA(2), la condicin de invertibilidad es 1 -
1
L -
2
L
2
= 0 1 L1 >1
Para un modelo MA(q), dicha condicin es 1 -
1
L -
2
L
2
-...-
q
L
q
= 0 1 L1 >1

Debido a que el proceso MA(q) se puede expresar como un AR(), consta de infinitos
coeficientes de autocorrelacin parcial distintos de cero, aunque a partir del valor q decaern
rpidamente. As, la FAP de un proceso MA se comporta de manera anloga a como lo hace la
FAS en un AR (vase figura 2.2.9.).

1
>0
,

2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
<0
,

2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
>0
,

2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
<0
,

2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.2.9. FAP de procesos MA(2)


88
2.2.2.3. PROCESOS ARMA

Un modelo mixto con componente autorregresiva y con componente de medias mviles
se denomina ARMA (p,q), donde p es el orden de la parte autorregresiva y q el de la parte de
medias mviles:

Y
t
= +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t
-
1

t-1
-
2

t-2
-...-
q

t-q


La condicin de estacionariedad es que las races de la ecuacin caracterstica (L) = 0
estn fuera del crculo unidad.

La condicin de invertibilidad es que las races de la ecuacin (L) = 0 estn fuera del
crculo unidad.

Vamos a analizar las caractersticas de un modelo ARMA (1,1):

Y
t
= +
1
Y
t-1
+
t
-
1

t-1

Media: = <

1
1
,
1
1

Varianza:
0
= E(Y
t
2
), ya que = 0 no afecta a la varianza.

0
= E( +
1
Y
t-1
+
t
-
1

t-1
)
2
=
1
2

0
+
2

+
1
2

2

- 2
1

0
=
2
1
1 1
2
1
2
1
) 2 1 (

+

, con 1
1
<

Autocovarianzas:

1
= E(Y
t-1
Y
t
) =
1

0
-
1

2
= E(Y
t-2
Y
t
) =
1

1
....

k
= E(Y
t-k
Y
t
) =
1

k-1 , 2 k

Lgicamente, en un proceso ARMA (p,q) tanto la FAS como la FAP tienen infinitos
elementos distintos de cero ( figura 2.2.10.).

89

1
>0
,

1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

1
>0
,

1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.2.10. FAS y FAP para un proceso ARMA(1,1).



2.2.2.4. MODELOS ARIMA

Hasta este momento se han tratado procesos estacionarios. Sin embargo, las series de
datos econmicos suelen caracterizarse por ser no estacionarias: ntese la simple observacin de
una tendencia creciente en el tiempo o de unas fluctuaciones que crecen en tamao con el paso
del tiempo, como, por ejemplo, puede ocurrir con el precio de algunos activos financieros.

Es cierto que muchas series econmicas se convierten en aproximadamente
estacionarias despus de aplicar diferencias en una ms etapas. Lo que se hace en tales
situaciones es trabajar con la serie en diferencias especificando y estimando un modelo para
ellas. Una prediccin con estas series hay que traducirla a una prediccin para la serie origen, en
cuyo anlisis est interesado el investigador.

- Diferencias de orden uno o de primer orden o primeras diferencias:

1 t t t
Y Y Y



- Diferencias de orden dos o segundas diferencias: se aplican primeras diferencias a la serie ya
diferenciada una vez.

2 t 1 t t 1 t t 1 t t t
2
t
Y Y 2 Y Y Y ) Y Y ( Y ) Y (

+

Se pueden calcular diferencias de cualquier orden.

90
Un ejemplo de proceso estocstico o aleatorio no estacionario es el denominado paseo o
camino aleatorio:

Y
t
= Y
t-1
+
t
bien Y
t
= + Y
t-1
+
t
, donde
t
es ruido blanco.
Y
t
= Y
t-1
+
t
= Y
t-2
+
t 1
+
t
= Y
t-3
+
t 2
+
t 1
+
t
= ....=

0 k
k t

Es un proceso no estacionario en varianza pues Var (Y
t
) = Var (

0 k
k t
) = .
La transformacin consistente en tomar primeras diferencias de la variable produce una
nueva serie claramente estacionaria:
t 1 t t t
Y Y Y

, variable que sigue un proceso ruido
blanco, estacionario.

La serie Y
t
es no estacionaria homognea de orden d, si la serie
t
=
d
Y
t
es
estacionaria. Entonces, Y
t
es un proceso autorregresivo integrado de media mvil de orden
(p,d,q) y se denomina ARIMA (p,d,q). Si se aplican diferencias de orden d a Y
t
se obtiene un
proceso estacionario
t
del tipo ARMA (p,q).

t
= +
1

t-1
+
2

t-2
+ ...+
p

t-p
+
t
-
1

t-1
-
2

t-2
-...-
q

t-q

(1-
1
L
-

2
L
2
-
...-
p
L
p
)
t
= + (1

-
1
L

-
2
L
2

-...-
q
L
q
)
t

(1-
1
L
-

2
L
2
-
...-
p
L
p
)
d
Y
t
= + (1

-
1
L

-
2
L
2

-...-
q
L
q
)
t




2.3. FASES PARA LA ELABORACIN DE MODELOS ARIMA

2.3.1. FASE DE IDENTIFICACIN

Se trata de buscar un proceso ARMA que de forma verosmil haya podido generar la
serie temporal, es decir, que se adapte mejor a las caractersticas de la misma. Pero esos
procesos son estacionarios, por lo que habr que efectuar un anlisis de la estacionariedad de
los datos. Con tal fin se utilizan los siguientes instrumentos:

- Representacin grfica. Si el grfico de la serie temporal presenta fluctuaciones cuya amplitud
cambia para distintos intervalos del perodo muestral, se pensar que el proceso que genera la
serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o decreciente con el
tiempo.
91

- El correlograma. El hecho de que la funcin de autocorrelacin simple decrece muy
lentamente al aumentar el retardo, ha demostrado ser una seal de tendencia no estacionaria.
Puesto que en la prctica se dispone de una realizacin de un proceso estocstico, podemos
obtener los coeficientes de autocorrelacin muestral y, a partir de ellos, el correlograma
muestral. Una vez representado el correlograma muestral, se conoce si la serie es o no
estacionaria.

- Mediante los contrastes de races unitarias. Son vlidos para determinar si existe tendencia
determinstica o estocstica
5
.

- A travs del grfico desviacin tpica-media. Si conforme crece la media, la desviacin tpica
aumenta, la varianza del proceso es creciente.

Si la serie temporal no es estacionaria se aplican las transformaciones adecuadas con
objeto de convertirla en estacionaria. Cuando la serie presente no estacionariedad en media, se
suele aplicar el proceso de diferenciacin. Pero, a veces, la toma de diferencias no es suficiente
para obtener series estacionarias en media y en varianza. Una solucin consiste en fijar
logaritmos de la serie, teniendo en cuenta que posteriormente hay que deshacer el cambio de
variable. En series econmicas que estn afectadas por una fuerte tendencia, suele ser necesario
efectuar alguna transformacin del tipo Box-Cox, para obtener una serie estacionaria en
varianza. Esta transformacin se define por:

Y
t
()
=

'

0 LnY
0 / ) 1 Y (
t
t


Una vez estacionaria, se determinar el orden de la parte autorregresiva (p) y el de la
parte de medias mviles (q) del proceso ARMA, que se considere haya podido generar la serie
estacionaria. Para tal fin se utilizan el correlograma estimado y la funcin de autocorrelacin
parcial estimada. Esta ltima puede obtenerse de dos formas alternativas, prcticamente
equivalentes: mediante el sistema de Yule-Walker, y mediante el mtodo de regresin.

Se puede utilizar el sistema de Yule-Walker para estimar los coeficientes de
autocorrelacin parcial a partir de los simples estimados:


5
Estos trminos se desarrollarn con amplitud en el tercer captulo.
92
1 11

=
0
1

,
1
]
1

1
]
1

1
1
]
1


2
1
1
1
1
22
21

1
1

,
1
1
1
]
1

1
1
1
]
1

1
1
1
]
1


3
2
1
1
1 2
1 1
2 1
33
32
31

1
1
1

.....

Se escogen los coeficientes ,...

33 22 11
para configurar la FAP estimada.


La otra opcin para el clculo de la FAP, consiste en obtener los coeficientes mediante
las siguientes regresiones sucesivas:

t k t kk 2 t 2 k 1 t 1 k t
t 2 t 22 1 t 21 t
t 1 t 11 t
Y

... Y

...
Y

+ + + +
+ +
+



As,
kk

es la correlacin estimada existente entre Y


t
e Y
t-k
, despus de eliminar de
ambas el efecto de Y
t-1,
Y
t-2
, ..., Y
t-k+1
.

En los modelos AR(p), la FAP presenta los p primeros coeficientes distintos de cero y el
resto nulos. La FAS presenta un decrecimiento rpido de tipo exponencial, sinusoidal o ambos.
En los modelos MA(q), sucede el patrn opuesto: la FAS se anula para retardos superiores a q y
la FAP decrece exponencial o sinusoidalmente. Sin embargo, la especificacin de los modelos
ARMA no se ajusta a unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la
FAP es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la componente AR(1) hay
que superponer la MA(1) cuya FAP converge exponencialmente a cero. En la prctica, se puede
especificar una de las componentes y analizar sus residuos. Si el modelo considerado es un
ARMA (2,1) se especifica inicialmente la componente AR(2). Se analizarn estos residuos a
travs del correlograma y si siguen un MA (1), el proceso completo ser un ARMA (2,1)
6
. Para
que una serie sea fcilmente identificable hay que considerar un tamao muestral elevado
(mayor a 50).

No puede olvidarse que cuando se trabaja con series reales, los correlogramas
resultantes se refieren a los estimados por la muestra. Si el proceso es estacionario, las

6
Puesto que en la prctica se observan las FAS y FAP estimadas, stas no concordarn exactamente con
sus valores tericos. Lo nico que se pretende es buscar la mayor similitud posible entre las funciones
tericas y muestrales
93
correlaciones muestrales estiman considerablemente las poblacionales y existe la posibilidad de
constrastar hiptesis respecto a la nulidad de cada coeficiente terico de la FAS y FAP. De
hecho, si hay evidencia de que algn coeficiente es estadsticamente no significativo, puede
considerarse nulo.

El estimador

k
es una variable aleatoria cuya varianza se estima de forma aproximada
(Barlett, 1946) por:

Var (
k
)
1
n
) 2 1 (
1 k
1 i
2
i

+

Con un tamao muestral suficientemente grande,
k
se aproxima a una distribucin
normal. Se puede, por tanto, construir un intervalo de confianza al 95%, para contrastar la
hiptesis nula de que
k
= 0:

) ( Var 2
k
t

Si los coeficientes muestrales caen dentro del intervalo, se concluye que los coeficientes
de autocorrelacin no son significativamente distintos de cero. En la prctica, esta frmula
permite identificar procesos de media mvil, para los cuales
k
se anula a partir de algn k>q.

Para la FAP, se ha demostrado (Quenouille, 1949) que, en un proceso AR(p):

Var
n
1
)

(
kk
, k>p

Entonces, el intervalo de confianza, al 95%, para contrastar 0

kk
es igual a:

)

( Var 2
kk
t =
n
1
2 t

Es posible, pues, verificar si una muestra procede de un proceso autorregresivo de un
orden p* dado, comprobando si

kk
cae dentro del intervalo (es significativamente igual a cero)
para todo k>p*. En la prctica, se utiliza empricamente para calcular intervalos de confianza
94
para todos los coeficientes de autocorrelacin parcial estimados, con independencia de cul sea
el tipo de proceso, el cual se desconoce de antemano.

Tambin hay que identificar la inclusin o no de trmino independiente. La media del
proceso est ligada al mismo, por tanto, si la media observada se considera significativamente
igual a cero, no se introducir trmino independiente en el modelo.

Esta etapa suele plantear ciertas dificultades y su objetivo consiste, en general, en la
especificacin tentativa de unos pocos modelos con estructuras sencillas. La etapa de estimacin
y la posterior validacin de los resultados confirmarn los indicios o, por el contrario, servirn
de fundamento para la reformulacin de los modelos propuestos.


2.3.2. FASE DE ESTIMACIN

Una vez identificado el modelo de series temporales ARIMA(p,d,q), se proceder a
estimar sus parmetros.

Sea Y
t
ARIMA(p,d,q), donde
t
= (1-L)
d
Y
t
ARMA(p,q):

t
= +
1

t-1
+
2

t-2
+ ...+
p

t-p
+
t
-
1

t-1
-
2

t-2
-...-
q

t-q


El objetivo es la estimacin de ,
1,

2
,...,
p
,
1,

2
...
q
y, para ello, se dispone de una
muestra de tamao n de Y. Al tomar diferencias de orden d se perderan d observaciones para la
nueva serie
t
, quedando n-d datos
1
,...
n-d
.

Las hiptesis que se adoptan en el proceso de estimacin son las siguientes:

a)
t
N(0,
2

)
b) El proceso es estacionario.
c) El proceso es invertible.

Estimacin de procesos autorregresivos

Un proceso autorregresivo no cumple la hiptesis del modelo clsico de regresin
basada en regresores fijos. Son variables aleatorias puesto que son retardos de la variable Y
t
(
95

t
, en su caso) que es aleatoria. Sin embargo, en presencia de errores que no presentan
autocorrelacin, los estimadores mnimocuadrticos tienen buenas propiedades (consistencia).
Por el contrario, si el trmino de error estuviese correlacionado (no fuese ruido blanco), estos
estimadores seran inconsistentes. En este caso, el modelo estara mal especificado, puesto que
una especificacin correcta debe provocar un trmino de error con estructura de ruido blanco.

t
= +
1

t-1
+
2

t-2
+ ...+
p

t-p
+
t


Aplicar el criterio de mnimos cuadrados, implica minimizar la suma de los cuadrados
de los residuos e
t
=
t
-

t
. El residuo se considera una estimacin de la perturbacin aleatoria
una vez estimado el modelo.

En forma matricial:
n1
= W
n(p+1)

(p+1)1
+
n1
, donde n es el nmero final de datos
utilizados en la estimacin.

n1
=

1
2
...
n

1
]
1
1
1
1
, W
n(p+1)
=
1
1
1
0 1 1
1 0 2
1 2
...
...
...
... ... ... ...
...



1
]
1
1
1
1
p
p
n n n p

(p+1)1
=

1
...
p

1
]
1
1
1
1
,
n1
=

1
2
...
n

1
]
1
1
1
1


( )
MCO


W' W W' w
1


Si no se incluye trmino independiente en el modelo, se suprime la columna de unos.


Estimacin de procesos de medias mviles y mixtos

La estimacin de modelos de medias mviles y modelos mixtos se lleva a cabo
mediante algoritmos de optimizacin numrica, debido a que los errores no son funcin lineal
de los parmetros.

Partimos de un modelo MA(1), sin trmino independiente:

t
=
t
-
1

t-1

96
e
t
=
t
-

t
=
t
+


1 1 t
.

t
=
t
+
1

t-1


Para t =1:
1
=
1
+
1

0

Para t =2:
2
=
2
+
1

1
=
2
+
1
(
1
+
1

0
) =
2
+
1

1
+
2
1

0

Para t =3:
3
=
3
+
1

2
=
3
+
1
(
2
+
1

1
+
2
1

0
) =
3
+
1

2
+
2
1

1
+ +
3
1

0
.....

El trmino de error no es funcin lineal del parmetro a diferencia de lo que sucede con
los modelos autorregresivos. El modelo se puede estimar a travs de un proceso iterativo de
estimacin no lineal, que utiliza los dos primeros trminos de la aproximacin de
t
a travs del
desarrollo en serie de Taylor
7
(se consideran despreciables los trminos de segundo orden y
superior).

t
+

1
]
1
1


t
t 0
1 1
0
1
1 1
0
( )


0
t
es el valor que toma el residuo despus de sustituir
1
por el valor inicial
0
1
. Por
tanto, hay que partir de un valor inicial para el parmetro.


t
1
1 1
0

1
]
1

es la derivada de los errores respecto a


1
, sustituyendo
1
por su valor
inicial.

En este modelo


t
t
1
1


. Entonces:


7
Si y =f(x
1
,x
2
) es una funcin no lineal de dos variables X
1
y X
2
, se puede igualar a una serie de Taylor,
en torno a unos valores numricos de las variables x
10
y x
20
:

...
x x
x x
2
x
1
x
f
2
) x x )( x x (
x x
x x
2
x
f
2
2
) x x (
2
1
x x
x x
1
x
f
2
2
) x x (
2
1
x x
x x
2
x
f
) x x (
x x
x x
1
x
f
) x x ( ) x , x ( f y
20
10
20
10
20
10
20
10
20
10
2
1
20 2 10 1
2
1
20 2
2
1
10 1
2
1
20 2
2
1
10 1 20 10
+

+
+

+
1
1
]
1

1
1
]
1

1
1
]
1

1
1
]
1

1
1
]
1


El resto de los trminos son despreciables.
97

t 1 t
0 0
1 1
0
t
1
t 0
1 1
0
t
) ( ) (
0
1 1


+
1
]
1

+ =
1 t
0
1 t
1 t
0 0
1
0
t
1 t
0
1
1 t
0 0
1
0
t
+

t t 1 t
x w +
donde w
t
= 1 t
0 0
1
0
t
y x
t
= 1 t
0


Es una ecuacin de regresin lineal que se puede estimar mediante MCO. Tambin es
posible establecer la ecuacin en funcin de ) (
0
1 1
y obtendramos el estimador de
) (
0
1 1
:
MCO

= )

(
0
1 1

0
1 MCO 1

+ . Entonces,
1

constituye la primera iteracin del


proceso. Este valor se utiliza para realizar una segunda iteracin, como valor inicial, y as
sucesivamente.

La frmula de actualizacin de las estimaciones sucesivas sera la siguiente:

)

(
1 h 1 h h
+

Si h = 0, tenemos el valor inicial.
Si h = 1, tenemos la primera iteracin.
Si h = 2, la segunda iteracin.
......

El procedimiento finaliza cuando se cumple algn criterio de convergencia
satisfactorio, como el que establece que la diferencia entre dos estimaciones sucesivas en valor
absoluto sea menor que una cantidad pequea fijada de antemano (0,001, por ejemplo):

001 , 0
1 h h
<



Otro criterio de convergencia alternativo consistira en detener el proceso si la
variacin producida en la suma de los cuadrados de los residuos es pequea (por ejemplo,
inferior al 1%).

Un criterio ms exigente sera el de aceptar la convergencia del proceso cuando se
cumplan a la vez los dos criterios citados.

98
Este procedimiento, aplicado a un modelo MA(2), generara la siguiente aproximacin:

t
0
2 1
0
1 1
0
2 1
0
1 1 2
t 0
2 1
1
t 0
1 1
0
t
) ( ) (




1
]
1

+
1
]
1

+


0
t
es el valor que toma el residuo despus de sustituir
1
por el valor inicial
0
1
y
2
por

0
2.



1 t
1
t

y
2 t
2
t



Se tiene:

t
0
2 1
0
1 1
0
2 1
0
1 1 2
t 0
2 2
1
t 0
1 1
0
t
) ( ) (




1
1
]
1

+
1
1
]
1

+ =
2 t
0
2
1 t
0
1 t
2 t
0 0
2
1 t
0 0
1
0
t
2 t
0
2
2 t
0 0
2
1 t
0
1
1 t
0 0
1
0
t



+ +

t t 2 2 t 1 1 t
x x w + +
donde w
t
= 2 t
0 0
2
1 t
0 0
1
0
t
, x
1t
=
0
1 t y x
2t
= 2 t
0


Este mtodo se puede extender a cualquier proceso MA(q) y ARMA(p,q):

t
= +
1

t-1
+
2

t-2
+ ...+
p

t-p
+
t
-
1

t-1
-
2

t-2
-...-
q

t-q


Supongamos que = 0

t
=
t
-
1

t-1
-
2

t-2
-...-
p

t-p
+
1

t-1
+
2

t-2
+...+
q

t-q

t
0 i
t 0
i i
q p
1 i
0
t
) (

+

1
]
1

+


Ahora habr que estimar el vector de p+q parmetros =
1
1
1
1
1
]
1

+q p
2
1
...
, p de la parte AR y q
de la parte MA, siendo el procedimiento igual al visto anteriormente.
99

Con objeto de obtener un proceso de convergencia rpido, se introducen ciertos
refinamientos en el proceso. En este sentido, el algoritmo de Marquardt (1963) es muy utilizado
en los paquetes de ordenador.

Tambin un proceso AR puede estimarse desde el punto de vista de este procedimiento
iterativo, siguiendo los mismos pasos.

Para efectuar contrastes estadsticos, en la iteracin final se calcula la estimacin de la
matriz de varianzas y covarianzas de los estimadores mediante la expresin:

V =
1 1 2
) (
q p n
) (


X X'
e e'
X X'

El procedimiento iterativo no siempre es convergente. Si se produce divergencia el
modelo se puede volver a estimar una o ms veces, utilizando diferentes pronsticos iniciales,
con la esperanza de obtener convergencia. Puede tambin producirse por una mala
especificacin del modelo, es decir porque no sea el que mejor representa la estructura del
proceso estocstico que gener la serie temporal objeto de anlisis. En este caso, habra que
elegir una nueva especificacin.


Obtencin de valores iniciales para los parmetros del modelo

Los valores numricos de la FAS y FAP estimadas pueden utilizarse para obtener
estimaciones iniciales de los coeficientes. La convergencia del proceso de estimacin puede que
sea ms rpida si el pronstico inicial es bueno.

Si el modelo identificado es un AR(p), las ecuaciones de Yule-Walker proporcionan los
valores de los parmetros del modelo a partir de los coeficientes de autocorrelacin estimados.

Si, por el contrario, se ha elegido un modelo MA(1), entonces recordando que
2
1
1
1
1

+

, podemos deducir un valor para el parmetro, teniendo en cuenta que el modelo
debe cumplir la condicin de invertibilidad.

Para procesos de orden superior, el mtodo es ms complejo aunque similar.
100

Enfoque condicionado y no condicionado en la fase de estimacin

Si en el modelo
t
= +
1

t-1
+
2

t-2
+ ...+
p

t-p
+
t
-
1

t-1
-
2

t-2
-...-
q

t-q
se dan
valores desde t =1...n, se nota que para determinar el valor de los
t
= t- -
1

t-1
-
2

t-2
- ...-

t-p
+
1

t-1
+
2

t-2
+...+
q

t-q
, se necesitan los valores anteriores y no observables de
t
y t:

0
,
-1
, ...,
0,.....
Estos valores constituyen las condiciones iniciales y los estimadores
mnimocuadrticos que obtengamos, dependern de los valores elegidos para ellos.

El mtodo de estimacin puede seguir un enfoque condicional o un enfoque no
condicional. El enfoque condicional asigna unos valores apropiados a las condiciones iniciales
basados en las hiptesis estadsticas del modelo: los errores se igualan a su media terica, es
decir, cero, y los primeros datos de la serie son utilizados para estimar los valores iniciales
0
,

-1
, ...
8
(a veces, se consideran igual a cero, es decir a su media terica, en caso de no incluir
trmino constante en el modelo, pero esta solucin no es demasiado realista).

El enfoque no condicional se caracteriza porque los valores iniciales no se consideran
como datos, sino que se determinan dentro del proceso de estimacin, conjuntamente con los
parmetros del modelo. Este procedimiento es ms eficiente que el condicional.



2.3.3.FASE DE VALIDACIN

En esta etapa se comprobar la capacidad de ajuste del modelo propuesto y estimado a
los datos. Si ste no supera satisfactoriamente este paso, es necesario reformularlo. Cabe decir
que los resultados de la comprobacin de la validez del modelo, suelen dar insinuaciones para
proceder a la especificacin de uno diferente.

Para la aceptacin del modelo, ste debe cumplir algunos requisitos:

Anlisis de los residuos:


8
La muestra se divide en dos partes, la primera de las cuales sirve para determinar los valores previos o
iniciales y la otra para el proceso de estimacin.
101
Se parte de la hiptesis de que el trmino de error de un modelo ARIMA es ruido
blanco. Estos errores son inobservables, pero no ocurre lo mismo con los residuos. Cualquier
test sobre la perturbacin aleatoria debe basarse en los residuos del modelo, los cuales deben
seguir, pues, el comportamiento de un proceso puramente aleatorio normal. En caso contrario,
contendran informacin relevante para la prediccin.

Con el objeto de estudiar si los residuos se aproximan al comportamiento de un proceso
ruido blanco, se disponen de las siguientes herramientas:


Contraste independencia de Box-Pierce

Est destinado a contrastar la independencia o no autocorrelacin de los residuos. La
autocorrelacin se mide por los coeficientes de autocorrelacin de los residuos r
k
. Es un
contraste global (contraste de portmanteau) acerca de la no autocorrelacin de los residuos de
las observaciones separadas un nmero determinado de periodos.

H
o
: r
1
= r
2
=...= r
k
= 0

Se utiliza el siguiente estadstico propuesto por Box y Pierce (1970): Q (k) = n

k
1 t
2
t
r
r
t
es el coeficiente de autocorrelacin estimado de orden t de los residuos, t = 1...k.

La eleccin de k es arbitraria. Cuanto mayor sea k el test se extender a desfases
mayores, pero la precisin en la estimacin de los r
k
es menor y disminuye la potencia del
contraste, es decir, la probabilidad de rechazar la hiptesis nula cuando es falsa.

Bajo la hiptesis nula, la distribucin asinttica del estadstico es: Q(k)
k

Se rechazar la hiptesis nula si el valor de Q experimental es superior que el terico o
tabulado de la distribucin a un nivel de significacin dado.

Box y Pierce han demostrado que utilizando k elevado, el estadstico Q es apropiado si
se supone que sigue una distribucin Q(k)
k-(p+q)
.

102
La versin mas actual de ese estadstico es la de Ljung-Box (1978), para disminuir el
sesgo en pequeas muestras.

Bajo la hiptesis nula: Q*(k) = n (n+2)


k
1 t
2
t
t n
r

k-(p+q)

Sabiendo que
k
r =

1 t
2
t
k n
1 t
k t t
e
e e
es el coeficiente de autocorrelacin de orden k y e
t
son
los residuos.

A veces, en lugar de fijar a priori un nivel de significacin para el contraste, el contraste
se puede contemplar a travs del nivel de significacin crtico. ste es un indicador del nivel de
admisibilidad de la hiptesis nula. Cuanto mayor sea el nivel de significacin crtico mayor
confianza podemos tener para aceptar la hiptesis nula y viceversa: si toma el valor cero,
podemos rechazar la hiptesis nula al 100% de confianza.


Representacin de la funcin de autocorrelacin simple y parcial de los residuos

La serie de residuos es aleatoria si los coeficientes de autocorrelacin simple y parcial
son significativamente cero.

Anderson (1942) ha demostrado que los coeficientes de autocorrelacin muestrales
procedentes de un proceso ruido blanco, siguen asintticamente, la siguiente distribucin:

r
k
) n / 1 , 0 ( N

En consecuencia, bajo la hiptesis de que r
k
= 0 , se construye un intervalo de confianza
al 95% de la siguiente forma:
n
2
t . Si algn r
k
cae fuera de los lmites, se rechaza la hiptesis
de no autocorrelacin. En este caso hay evidencia de no aleatoriedad de la serie.

Adems, los errores debern alternar el signo de su coeficiente de autocorrelacin sin
ningn criterio obvio.

103
Tambin, los coeficientes de la FAP deben ser significativamente cero. En la prctica se
construyen bandas de confianza utilizando la distribucin de una variable ruido blanco cuya
varianza es 1/n segn se ha visto anteriormente.

Hay que tener en cuenta que esta aproximacin realizada sobre la varianza no es muy
adecuada tanto para la FAS como para la FAP especialmente en los retardos bajos. Se podra
concluir que un coeficiente es estadsticamente no significativo cuando en realidad lo es.

La FAS y la FAP de los residuos del modelo estimado son instrumentos valiosos a la
hora de reformular el modelo, en caso de que no se comporten como un proceso ruido blanco.
Supongamos que se ha estimado un AR(1): Y
t
=
1

Y
t-1
e
t
= Y
t
-
1

Y
t-1
. Despus de examinar
la FAS y la FAP de la serie e
t
, se llega a la conclusin de que sigue un modelo MA (1), no un
proceso ruido blanco : e
t
=
t
-
1

t-1.
Sustituyendo en el modelo AR (1) : Y
t
=
1
Y
t-1
+ t -
1

t-1
,
se puede concluir que Y
t
es un ARMA (1,1).


Representacin grfica de los residuos

La representacin de los residuos en el tiempo permite observar si la varianza es
constante y si la media est prxima a cero. Adems, se puede verificar si se ajustan a una
distribucin normal y la existencia de residuos atpicos. Un residuo se considera atpico si el
valor absoluto excede en tres o cuatro veces su desviacin tpica (siendo su media cero).

Para contrastar la existencia de heteroscedasticidad se puede realizar el contraste de
White (1980). Su hiptesis nula es que el trmino de perturbacin es homocedstico e
independiente de los regresores y que la especificacin lineal es correcta. El procedimiento es el
siguiente:

a) Estimacin del modelo original ignorando la posible heteroscedasticidad.
b) Estimacin de una regresin del cuadrado de los residuos anteriores sobre una constante, los
regresores del modelo original, sus cuadrados y productos cruzados de segundo orden.
c) El output es un estadstico nR
2
, donde n es el tamao muestral y R
2
es el coeficiente de
determinacin de la ltima regresin, que sigue una distribucin asinttica chi-cuadrado con
grados de libertad igual al nmero de regresores en el contraste de regresin anterior.
d) Bajo la hiptesis nula de homoscedasticidad, asintticamente el coeficiente de
determinacin tender a cero, excepto cuando la varianza del trmino de error del modelo
104
depende de sus variables explicativas. En tal caso nR
2
permanecer lejos de cero y es de
esperar que sea mayor que el valor de las tablas de la distribucin chi-cuadrado.

Para contrastar la normalidad se utiliza el contraste de Jarque-Bera (1987). Se trata de
una prueba de grandes muestras, que primero calcula la asimetra (A) y la curtosis o
apuntamiento (K) de los residuos de la estimacin del modelo y despus utiliza el siguiente
estadstico de contraste:
1
]
1


+
24
) 3 K (
6
A
n JB
2 2


Bajo la hiptesis nula de que los residuos estn normalmente distribuidos,
asintticamente JB sigue una distribucin
2
2
. Si el valor del estadstico supera el valor
tabulado de la distribucin chi- cuadrado, se rechazar la hiptesis nula a un determinado nivel
de confianza. O si el nivel de significacin crtico (p-valor) es suficientemente pequeo, se
puede rechazar la hiptesis de que los residuos siguen una distribucin normal.


Anlisis de los coeficientes estimados

Primero hay que verificar si los coeficientes son significativos. El estadstico de
contraste est construido bajo la hiptesis nula de que el coeficiente es cero y sigue una
distribucin t-student con n-m grados de libertad, con m igual al nmero de parmetros
incluidos. Si concluimos que alguno no es significativo se puede suprimir.

H
o
:
i
= 0 , t
*
=
m n
i
i i
t
) ( S
) ( E




H
o
:
i
= 0, t
*
=
m n
i
i i
t
) ( S
) ( E




H
o
: = 0, t
*
=
m n
t
) ( S
) ( E




La aplicacin del test anterior requiere un contraste de dos colas, pues la hiptesis
alternativa considera que puede tomar el coeficiente cualquier valor distinto de cero. Si * t es
mayor que el terico tabulado, se rechaza la hiptesis nula y el parmetro es significativo.
105

Otro aspecto importante es el examen del cumplimiento de las condiciones de
estacionariedad e invertibilidad:

Si alguna de las races de:

0 L

... L

1
p
p
2
2 1

0 L

... L

1
p
p
2
2 1


fuesen inferior a la unidad, el modelo se rechazara.

Si alguna de las races de 0 L

... L

1
p
p
2
2 1
, estuviese prxima a uno, es
posible que la serie original est subdiferenciada, por lo que puede que precise alguna
diferenciacin adicional.

Si alguna de las races de 0 L

... L

1
p
p
2
2 1
est prxima a uno, es posible
que el modelo est sobrediferenciado.

Si existen races comunes, se podra utilizar para las predicciones un modelo con dos
parmetros menos, es decir, el modelo sera un ARMA (p-1, q-1).

Es conveniente tambin examinar la matriz de correlacin entre los coeficientes
estimados. Cuando la correlacin entre dos coeficientes es prxima a uno, los coeficientes
estimados son muy inestables, con lo que podran cambiar bastante de una muestra a otra. El
modelo estimado para el perodo muestral puede diferir del que se obtendra para los perodos
de prediccin. Puede existir este problema siempre que alguna de las correlaciones entre
estimadores tome un valor superior a 0,6. Para evitar este problema puede ser eficaz eliminar
algn parmetro an a costa de que el grado de ajuste sea ms pequeo. No obstante, si todos
los coeficientes son significativos no sera aconsejable eliminar coeficientes del modelo.


Anlisis de la bondad del ajuste:

Se suele utilizar el coeficiente de determinacin R
2
o el corregido R
2
:

106
STC
SCR
1 R
2


Es una medida de la proporcin de la variacin total de la variable que es explicada por
el modelo.

1 n / STC
m n / SCR
1 R
2



donde SCR =
n
e
t
2
t
es la suma de los cuadrados de los residuos y
n
) (
STC
2
T
t

la suma total de los cuadrados.

El coeficiente de determinacin corregido penaliza la introduccin de parmetros
adicionales en el modelo. Si se introducen parmetros adicionales aunque no sean apropiados
pueden incrementar R
2
. Para evitar este problema se suele utilizar el coeficiente corregido.

El modelo se ajusta en mayor medida a los datos cuanto ms prximos a la unidad estn
los coeficientes de determinacin. Pero slo son comparables en modelos en los que se hayan
tomado idntico nmero de diferencias, debido a que para que este sea un elemento de
comparacin directa la varianza de la variable debe ser la misma. Si se calcula el coeficiente de
determinacin con la varianza de la variable diferenciada una vez, el resultado no ser
comparable con el calculado a partir del ajuste a un modelo sobre la variable original.

Para paliar el anterior inconveniente, se han propuesto medidas alternativas destacando
el estadstico AIC (Akaike Information Criterion), formulado por Akaike (1974). Consiste en
seleccionar aqul modelo para el que se obtenga un AIC ms bajo. Otra medida es SC (Schwarz
Criterion) y cuanto menor sea sta, mejor es el ajuste.


Anlisis de la estabilidad

La construccin de un modelo ARIMA est justificada por su utilizacin para la
prediccin. Conviene saber si el modelo estimado para el perodo muestral sigue siendo vlido
107
para perodos futuros. Para esta finalidad se puede aplicar el test de estabilidad estructural de
Chow:

m 2 n , m
n
1 t
2
t 2
n
1 t
2
t 1
n
1 t
2
t 2
n
1 t
2
t 1
n
1 t
2
t
F
m 2 n / e e
m / e e e
F
2 1
2 1

,
_

+
1
1
]
1

,
_






m es el nmero de parmetros a estimar.
N = n
1
+n
2
e
t
es el residuo del modelo utilizando todo el perodo muestral.
e
1t
es el residuo utilizando los n
1
primeros datos.
e
2t
es el residuo utilizando los n
2
ltimos datos.

Se pretende contrastar si el ltimo tramo muestral ha estado generado por la misma
estructura que el resto de las observaciones. Algunos autores aconsejan tomar como segundo
tramo muestral un tercio o un cuarto de la muestra.

Si la F calculada o experimental es mayor que la tabulada o terica a un determinado
nivel de significacin, se rechaza la hiptesis de estabilidad estructural.


2.3.4. FASE DE PREDICCIN.

Una vez que el modelo ha sido estimado y sometido a la fase de diagnosis, se convierte
en un instrumento til para la prediccin. Sea el modelo estimado ARMA(p,q), para la serie
t
,
siendo la serie original Y
t
ARIMA(p,d,q). Se trata de predecir los valores para la serie no
estacionaria Y
t
, una vez se haya realizado para la serie
t
estacionaria.

Por ejemplo, si
t
=Y
t
-Y
t-1
, donde
t
es estacionaria. La prediccin para esa serie en el
perodo n+1 es
1 n

+
. La correspondiente prediccin para

Y
n+1
es
1 n

+
+Y
n
.

Si se aplica una diferencia de segundo orden
t
= Y
t
2Y
t-1
+Y
t-2
, entonces
1 n
Y

+
=
=
1 n

+
+ 2Y
n
Y
n-1

108

Si se ha fijado en algn momento la transformacin logartmica, se tomarn
antilogaritmos para deshacer el cambio:
t
= LnY
t
Y
t
= e
t

Un criterio que se suele establecer para realizar predicciones es elegir aquellas con
mnimo error cuadrtico medio. El error cuadrtico medio es igual a la esperanza matemtica
del cuadrado de los errores de prediccin. La mejor prediccin puntual desde este punto de vista
es aqulla que se obtiene mediante la esperanza matemtica condicional a toda la informacin
disponible hasta el perodo de prediccin. La expresin de este predictor es la siguiente:

1 n
Y

+
= E(Y
n+1
/Y
n
, Y
n-1
...)

Y
n+1
= +
1
Y
n
+
2
Y
n-1
+ ...+
p
Y
n+1-p
+
n+1
-
1

n
-
2

n-1
-...-
q

n+1-q

Tomando esperanzas condicionadas, se obtiene:

Y
n+1
= +
1
Y
n
+
2
Y
n-1
+ ...+
p
Y
n+1-p
-
1

n
-
2

n-1
-...-
q

n+1-q


donde todas las variables con subndices inferiores a n+1, dejan de ser aleatorias, por lo que sus
esperanzas matemticas coinciden con sus realizaciones y E(
n+1
) = 0, por hiptesis.

Despus de obtener
1 n
Y

+
, se calcula
2 n
Y

+
, y as sucesivamente.

Los
t
son inobservables, por lo que hay que sustituirlos por sus estimaciones, que se
obtienen a travs de los sucesivos residuos del modelo. Si algn residuo no es posible obtenerlo,
se considera igual a su media terica: cero. Esta solucin es aceptable si el proceso es invertible,
dado que, en ese caso, la importancia de los valores iniciales tiende a desaparecer a medida que
aumenta el tamao muestral.

Cuando dispongamos de los valores observados, se utilizan para efectuar la prediccin,
si no se conocen se utilizan sus estimaciones en perodos anteriores.

A medida que el horizonte de la prediccin crece, la prediccin por puntos de un
modelo ARMA tiende a la media.


109
Error de prediccin

La prediccin de una variable aleatoria como es Y
t
, conlleva incertidumbre pues
depende de la muestra considerada. Entonces aparece un error de prediccin. Si se conociesen
los valores exactos de los coeficientes, cosa imposible en la mayora de los casos, sera posible
obtener una expresin del error de prediccin como sigue:

Y
t+s
-
s t
Y

+
= e
t+s

Escribamos el proceso ARMA, como un proceso de medias mviles de infinitos
trminos, mediante sustituciones sucesivas:

Y
t
= +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t
-
1

t-1
-
2

t-2
-...-
q

t-q

Y
t
= K+
t
+
1

t-1
+
2

t-2
+...
Y
t+s
= K +
t+s
+
1

t+s-1
+
2

t+s-2
+...+
s-1

t+s-s+1
+

+

0 j
j t j s

La prediccin
s t
Y

+
se puede basar nicamente en la informacin disponible hasta el
perodo t. Escribimos la prediccin como una suma ponderada de los trminos de error que
podemos estimar:
s t
Y

+

= K+

+

0 j
j t j s
* , donde las ponderaciones * se elegirn de manera que minimicen el
Error Cuadrtico Medio de predicin.

e
t+s
=
t+s
+
1

t+s-1
+
2

t+s-2
+...+
s-1

t+1
+

+ +

0 j
j t j s j s
) * (

El error cuadrtico medio de prediccin es E(e
t+s
)
2
= (1

+
2
1
+
2
2
+...+
2
s-1
)

2

+

+ +

0 j
2 2
j s j s
) * ( , puesto que E(
i

j
) = 0, para ij.

El error cuadrtico medio se minimiza cuando el ltimo trmino es igual a cero, es decir si
j s j s
*
+ +
. Entonces el error de prediccin se puede escribir:

e
t+s
=
t+s
+
1

t+s-1
+
2

t+s-2
+...+
s-1

t+1


110
y teniendo en cuenta que E(e
n+s
) = 0:

Var (e
n+s
) = E(e
n+s
)
2
= (1

+
2
1
+
2
2
+...+
2
s-1
)



El uso ms importante de los errores de prediccin es la construccin de intervalos de
confianza para la prediccin. El intervalo de prediccin para el pronstico de Y
t+s
es, al 95%:

2
1 s
2
2
2
1 s t
... 1 96 , 1 Y

+
+ + + + t

El clculo de los coeficientes se obtienen a partir de la siguiente relacin:

(L)Y
t
= (L)
t
Y
t
=
-1
(L)(L)
t
= (L)
t
, con (L) = 1

+
1
L+
2
L
2
+...

-1
(L)(L)
t
= (L) (L)(L) = (L)


Valoracin de la capacidad predictiva de los modelos

Podemos verificar si el modelo sigue siendo vlido para los perodos de prediccin, una
vez se ha comprobado su validez para el periodo muestral, utilizando el siguiente estadstico:

E* =
2
m
0 s
s t / 1 s t
2

+ + +



Donde s t / 1 s t
2
e + + + es el error de prediccin de Y
t+s+1
utilizando la informacin disponible
en el momento t+s y
2

=
k n
SCR

, con k el nmero de parmetros del modelo.



Este estadstico se distribuye asintticamente como una chi-cuadrado con m grados de
libertad, bajo la hiptesis nula de estabilidad estructural al pasar a los perodos de prediccin.

Si el valor calculado supera al tabulado, habr diferencias significativas entre los
verdaderos valores y los estimados, por lo que se rechazar la hiptesis nula de estabilidad.



111
2.4. MODELOS ESTACIONALES

Las series temporales de datos econmicos presentan generalmente caractersticas
estacionales cuando se disponen de datos con frecuencia inferior al ao, trimestral o
mensualmente. Un ejemplo de serie temporal con una marcada componente estacional podra
ser la venta de helados en verano. Cuando la serie es estacional, suelen aparecer relaciones entre
los valores que se corresponden con periodos anlogos dentro de cada ao (mes a mes o
trimestre a trimestre).


Modelos autorregresivos estacionales

Trabajando con datos mensuales, por ejemplo, Y
t
puede expresarse en funcin de Y
t-12
,
el valor correspondiente al mismo mes del ao anterior, de forma que:

Y
t
=
1
Y
t-12
+
t


Este es un proceso autorregresivo estacional de primer orden, para el que se utiliza la
notacin AR(1)
12
.

En general, el proceso autorregresivo estacional de orden P, AR(P)
s
, donde s = 12 para
datos mensuales, s = 4 para datos trimestrales, etc., viene definido:

Y
t
=
1
Y
t-s
+
2
Y
t-2s
+ ...+
P
Y
t-Ps
+
t


Y
t
(1 -
1
L
s
-
2
L
2s
-...-
P
L
Ps
) =
t


Para este proceso las funciones de autocorrelacin simple y parcial, se comportan como
en el caso del modelo AR(p) pero a intervalos de s retardos, siendo cero en los retardos
intermedios.


Modelos de medias mviles estacionales

El valor actual Y
t
se puede expresar en funcin de una perturbacin actual y de otra
correspondiente a s perodos anteriores (s =12 para datos mensuales):

112
Y
t
=
t
-
t-s


Y
t
sigue un proceso de medias mviles estacional de primer orden MA(1)
s
.


FAP de un modelo AR(1)s=4
-1
-0,5
0
0,5
1
1 2 3 4 5 6 7 8
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

FAS de un modelo AR(1)s=4
-1
-0,5
0
0,5
1
1 3 5 7 9
1
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.4.1. FAS y FAP de un modelo AR(1)
4



En general, un proceso de medias mviles estacional de orden Q, MA (Q)
s
, es el
siguiente:

Y
t
=
t
-
1

t-s
-
2

t-2s
- ...-
Q

t-Qs


Y
t
= (1 -
1
L
s
-
2
L
2s
-...-
Q
L
Qs
)
t



La funcin de autocorrelacin simple de un proceso de medias mviles estacional tiene
el mismo comportamiento que la de un proceso de medias mviles no estacional. As en un
MA(1)
4
presenta un solo valor distinto de cero, que corresponde con el desfase k = 4.


Modelos mixtos estacionales

Generalizando, podemos definir el proceso mixto ARMA (P,Q)
s
mediante:

Y
t
=
1
Y
t-s
+
2
Y
t-2s
+...+
P
Y
t-Ps
+
t
-
1

t-s
-
2

t-2s
- ... -
Q

t -Qs


113
Proceso mixto estacional ARIMA (P,D,Q)
s
:

Adems de la presencia de tendencia o de varianza, la estacionalidad constituye una
fuente de no estacionariedad de la serie. El procedimiento que se suele utilizar para
desestacionalizar las series es el de la diferenciacin estacional.

Si los datos son mensuales, la diferenciacin estacional consiste en calcular una nueva
variable:
Z
t
= Y
t
Y
t-12
= (1-L
12
) Y
t
=
12
Y
t


Con datos trimestrales se calculara:

Z
t
= Y
t
Y
t-4
= (1-L
4
) Y
t
=
4
Y
t


Si despus de efectuar esta transformacin, la serie sigue presentando evidencia de
variaciones estacionales, es posible aplicar de nuevo el procedimiento, es decir, calcular las
diferencias de segundo orden, y as sucesivamente.

Una vez que a la serie original Y
t
se le aplica D veces el procedimiento de la
diferenciacin estacional y se obtiene una serie Z
t
que es estacionaria, entonces se puede aplicar
a Z
t
cualquiera de los modelos estudiados para las series estacionarias.

(1-L
s
)
D
Y
t
= Z
t
, con (1-L
s
)
D
=
s
D


Y
t
sigue un proceso estacional ARIMA(P,D,Q)
s
si:

Z
t
(1 -
1
L
s
-
2
L
2s
-...-
P
L
Ps
) = (1-
1
L
s
-
2
L
2s
- ...-
Q
L
Qs
)
t


Con Z
t
= (1-L
s
)
D
Y
t



Modelo multiplicativo general:

En la realidad, los factores estacionales se sobreponen a los factores regulares, por lo
que podemos encontrar series que vengan generadas por ambos tipos de procesos. Se puede
formular un modelo mixto o multiplicativo, ARMA(p,q) (P,Q)
s
:
114

(L)
s
(L)Y
t
= (L)
s
(L)
t


Por ejemplo, un modelo estacional multiplicativo ARMA(1,0)(1,0)
12
, se escribira:

(1-
1
L)(1-
1
L
12
)Y
t
=


t
Y
t
=
1
Y
t-1
+
1
Y
t-12
-
1

1
Y
t-13
+
t
.

El primer trmino de la derecha representa la componente autorregresiva regular de
primer orden, el segundo trmino indica lo mismo para la componente autorregresiva estacional,
y el tercer trmino permite la interaccin entre ambas estructuras.

Finalmente, si la tendencia est presente tanto en la componente regular como en la
estacional, habr que efectuar una doble diferenciacin, una en cada parte. As, todos los
modelos estacionales pueden unirse en uno general denominado ARIMA estacional
multiplicativo: ARIMA (p,d,q)(P,D,Q)
s
.

(L)
d

s
(L)
s
D
Y
t
= (L)
s
(L)
t

(1-
1
L -
2
L
2
- ...-
p
L
p
)
d
(1-1L
s
-2L
2s
-...-
P
L
Ps
)
s
D
Y
t
=
= (1

-
1
L

-
2
L
2

-...-
q
L
q
)(1-
1
L
s
-
2
L
2s
- ...-
Q
L
Qs
)
t
.

La FAS de los modelos multiplicativos, de forma aproximada, se caracteriza porque en
los retardos bajos, la nica estructura que aparece es la de la parte ordinaria, en los retardos s,
2s, 3s... el nico efecto importante es el de la parte estacional y en los retardos contiguos a
mltiplos de s, se obtiene simtricamente la reproduccin de la parte ordinaria tomando como
referencia los valores de los retardos estacionales, es decir, recogen la interaccin entre la parte
ordinaria y la parte estacional.

FAS de un modelo
ARMA(0,1)x(0,1)s=4
-1
-0,5
0
0,5
1
1 2 3 4 5 6
Retardo
C
o
e
f
i
c
i
e
n
t
e
s

FAS de un modelo
ARMA(1,0)x(1,0)s=12
-1
-0,5
0
0,5
1
1 4 7 10 13 16 19
Retardo
C
o
e
f
i
c
i
e
n
t
e
s


Figura 2.4.2. FAS de modelos multiplicativos
115

Se puede construir el siguiente cuadro como resumen de los modelos estacionales
multiplicativos, aunque para ms detalles puede consultarse Vandale (1983):


Modelos FAS FAP
ARMA(p,0)(P,0)s Decaimiento exponencial o
sinusoidad o ambos
Se anula para un retardo
k>p+sP
ARMA(0,q)(0,Q)s Se anula para un retardo
k>q+sQ
Decrecimiento exponencial o
sinusoidal o ambos



























116