t,t+k
=
t t k
t t k
Var Y Var Y
,
( ) ( )
+
+
, t=1,2,3,..., con
+
1 1
t t k ,
La funcin de autocorrelacin simple o correlograma (FAS) es la representacin grfica
de los coeficientes de autocorrelacin, en funcin de los distintos retardos o desfases entre las
variables.
La funcin de autocorrelacin parcial (FAP) responde a la medicin de la correlacin
existente entre dos variables del proceso en distintos perodos de tiempo, pero una vez
eliminados los efectos sobre las mismas de los perodos intermedios. Parte de la correlacin que
73
pueda detectarse entre Y
t
e Y
t-2
puede ser debida a que ambas variables estn correlacionadas
con Y
t-1
.
2.2.1.1. PROCESOS ESTACIONARIOS
Un tipo de procesos que alcanzan gran importancia en este anlisis es el de los procesos
estacionarios, en contraposicin a los procesos evolutivos. La estacionariedad de un proceso
puede concebirse en sentido estricto y en sentido amplio.
Un proceso es estacionario en sentido estricto si cualquier conjunto m de variables
aleatorias del proceso tienen la misma distribucin de probabilidad que cualquier otro conjunto
de m variables, para todo m dado. Implica que las caractersticas del proceso no sufren
alteracin al considerar tiempos diferentes.
El mayor problema de esta definicin es que no es empricamente contrastable, porque
la serie temporal est formada por una sola observacin de cada una de las distribuciones de
probabilidad que componen el proceso en cada perodo de tiempo. Adems, el nmero de
condiciones a comprobar podra ser infinito.
Para fines prcticos se defini la estacionariedad en sentido amplio o de segundo orden.
Un proceso es estacionario en sentido amplio si su media es constante e independiente del
tiempo, su varianza es finita y constante, y el valor de la covarianza entre dos periodos no
depende del tiempo en el cual se ha calculado, sino de la distancia o desfase entre aquellos.
Todos los momentos de primer y segundo orden del proceso son independientes del tiempo,
incluyendo la funcin de autocorrelacin parcial.
E(Y
t
) = , t =1,2,3...
Var(Y
t
) = E(Y
t
- )
2
=
2
, t =1,2,3...
t t k t k t k , , +
, t =1,2,3...
k
es la covarianza entre dos variables del proceso separadas k perodos.
Si k = 0,
0
= E(Y
t
- )( Y
t
- ) =
2
74
t,t+k
=
k
0
k
2 2
k
k
es el coeficiente de autocorrelacin simple de dos variables separadas k perodos.
Estacionariedad en media y varianza
Vamos a suponer que una serie temporal muestra una tendencia creciente. Como cada
observacin de la serie proviene de la distribucin de probabilidad del perodo correspondiente,
es razonable creer que la esperanza matemtica de dichas distribuciones tambin crece en el
tiempo.
Para conocer si la serie temporal es estacionaria en varianza, puede realizarse la
observacin de los datos originales. Si alcanzan oscilaciones desiguales en torno a la tendencia,
se puede defender la no estacionariedad de la serie. La figura 2.2.1. presenta una serie temporal
generada por un proceso no estacionario en varianza, siendo sta creciente con el tiempo.
Tiempo
S
e
r
i
e
Figura 2.2.1.
Los modelos de prediccin de series temporales estn diseados para procesos
estacionarios. Si las caractersticas del proceso cambian a lo largo del tiempo, resultar difcil
representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal
sencillo. Sin embargo, por regla general, las series econmicas no son series que proceden de
procesos estacionarios, sino que suelen tener una tendencia creciente o decreciente, y
75
variabilidad no constante. Esta limitacin no es tan importante porque, en la prctica, se pueden
transformar las series no estacionarias en otras que s lo son.
Un tipo de proceso estacionario particular es el denominado ruido blanco, formado por
una sucesin de variables aleatorias con distribucin normal, esperanza cero, varianza constante
e incorreladas entre s (figura 2.2.2):
t
es ruido blanco si
t
N(0,
2
k
Figura 2.2.2. Figura 2.2.3.
Por otra parte, un proceso estocstico se dice ergdico cuando los valores de la serie
alejados en el tiempo estn poco correlacionados, es decir, cuando
k
decrece al aumentar el
retardo k (figura 2.2.3.).
2.2.1.2. ESTIMACIN DE LA FUNCIN DE AUTOCORRELACIN SIMPLE EN
UN PROCESO ESTACIONARIO.
En la prctica se dispone de una muestra de un proceso estocstico, Y
1
, ...Y
n
. Se pueden
obtener los coeficientes de autocorrelacin simple y parcial muestral y, a partir de ellos, la
funcin de autocorrelacin simple y parcial terica
3
.
Funcin de autocorrelacin simple de la muestra:
3
La estimacin de la FAP se tratar en el epgrafe 3 del captulo.
76
n
Y
Y
n
1 t
t
,
n
) Y Y (
2
n
1 t
t
0
k n
) Y Y )( Y Y (
k n
) Y Y )( Y Y (
t
n
1 k t
k t k t
n
1 k t
t
k
+
+
+
k
k
0
Si el tamao de la muestra es grande con respecto a k, dividir por n o por n-k es
prcticamente lo mismo, as como el clculo de la media con n o con n-k observaciones:
k
k
0
=
2
n
1 t
t
k t
n
1 k t
t
2
n
1 t
t
k t
n
1 k t
t
) Y Y (
) Y Y )( Y Y (
n
) Y Y (
k n
) Y Y )( Y Y (
+
+
+
+
2.2.2. MODELIZACIN UNIVARIANTE DE SERIES TEMPORALES.
La representacin formal de los procesos aleatorios que generan series reales se puede
realizar a travs de los modelos lineales de series temporales, desarrollados especialmente a
travs de la metodologa de Box y Jenkins. Considerando que la serie temporal ha sido generada
por un proceso estocstico, en este apartado se describirn los posibles modelos tericos que
permitan explicar el comportamiento de la misma y, por tanto, el de su proceso generador.
Despus, se utilizarn con fines predictivos.
Las estructuras estocsticas estacionarias lineales que se tratarn de asociar a una serie
de datos econmicos se clasifican en tres tipos: el modelo autorregresivo, el modelo de medias
mviles y el modelo mixto.
77
2.2.2.1. PROCESOS AUTORREGRESIVOS
Representan los valores de una variable durante un instante del tiempo en funcin de sus
valores precedentes. Un modelo autorregresivo de orden p (AR(p)) tiene la forma siguiente:
Yt = +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t
es un trmino constante.
t
es una variable ruido blanco, que representa los errores del ajuste y otorga el carcter aleatorio
a la misma.
Las caractersticas de los procesos AR(1) y AR(2) se analizarn a continuacin y los
resultados obtenidos se van a generalizar al AR(p).
Modelos autorregresivos de primer orden AR(1):
Y
t
= +
1
Y
t-1
+
t
Si el proceso es estacionario en media y varianza: E(Y
t
) = E(Y
t-1
) y Var (Y
t
) = Var(Y
t-1
),
t. Entonces:
Media: E(Y
t
) = E(Y
t-1
) = = +
1
=
1
1
Varianza: Var(Y
t
) = Var(Y
t-1
) =
0
0
=
1
2
0
+
2
0
=
2
1
2
1
La condicin a cumplir para que
0
sea positiva y finita es que
1
1 < . En ese caso el
modelo es estacionario en media y varianza.
Si el modelo es estacionario en sentido amplio, adems:
Autocovarianzas:
Cov(Y
t-1
,Y
t
) = Cov(Y
t
,Y
t+1
) =
1 ,
t.
Cov (Y
t-1
,Yt)=E[( Y
t-1
-)(Yt-)] = E(y
t-1
y
t
)
78
Y
t
= +
1
Y
t-1
+
t
= (1-
1)
+
1
Y
t-1
+
t
Yt- =
1(
Y
t-1
-) +
t
y
t
=
1
y
t-1
+
t
1
= E(y
t-1
y
t
) = E(y
t-1
(
1
y
t-1
+
t
)) = 1E(y
t-1
2
) + E(y
t-1
t
) =
1
0
y
t-1
est correlacionado con
t-1
pero no con
t
, debido a que sta es una variable ruido blanco y
no presenta autocorrelacin.
2
= E(y
t-2
y
t
) = E(y
t-2
(
1
y
t-1
+
t
))=
1
E(y
t-2
Y
t-1
)+ E(y
t-2
t
) =
1
1
=
1
2
0
............
k
=
1
k
0
Coeficientes de autocorrelacin simple:
0
= 1
1
=
1
0
1
2
=
2
1
0
2
.........
k
=
k
1
0
k
k
Los valores de la funcin de autocorrelacin son las sucesivas potencias de
1
. La
condicin 1
1
< garantiza que los sucesivos valores
k
converjan a cero, por lo que la funcin
de autocorrelacin o correlograma puede tener dos aspectos distintos, dependiendo del signo de
1
(figura 2.2.4.).
Utilizando el operador de retardos L que, aplicado sobre una variable en un periodo del
tiempo t, la retarda un perodo, podemos establecer de otro modo la condicin de
estacionariedad:
LY
t
= Y
t-1
, LY
t-1
= Y
t-2
= LLY
t
=L
2
Y
t
, ... Y
t-k
= L
k
Y
t
L
0
=1 por lo que L
0
Y
t
= Y
t
Podemos escribir el modelo:
79
Y
t
= +
1
Y
t-1
+
t
= +
1
LY
t
+
t
Yt -
1
LY
t
=
+
t
Y
t
(1 -
1
L) =
+
t
donde (1 -
1
L) = (L) es el operador polinomial de retardos.
Para que el proceso AR(1) sea estacionario, 1
1
< y es equivalente a la condicin de
que la raz del operador polinomial (L) = 0 debe caer fuera del crculo unidad, es decir:
1 -
1
L = 0 1 L > 1
1
1
>
1
1
< .-
Si 1
1
< 1
L
1
< 1 L > .-
1
>0
-1
-0,5
0
0,5
1
Retardo
r
k
1
<0
-1
-0,5
0
0,5
1
Retardo
Figura 2.2.4. FAS de un modelo AR(1)
Modelos autorregresivos de segundo orden AR(2):
Y
t
= +
1
Y
t-1
+
2
Y
t-2
+
t
Si el proceso es estacionario en media y varianza: E(Y
t
) = E(Y
t-1
) y Var(Y
t
) = Var(Y
t-1
),
t. Entonces:
Media: E(Y
t
) = E(Y
t-1
) = = +
1
+
=
2 1
1
Para que la media sea finita
1
+
2
1.
80
Varianza: Var(Y
t
) = Var(Y
t-1
)= Var (Y
t-2
) =
0
Var (Y
t
) = E(y
t
2
) = E(y
t
y
t
) = E[y
t
(
1
y
t-1
+... +
2
y
t-2
+
t
)] =
1
1
+
2
2
+ E(y
t
t
) =
1
1
+
2
2
+
2
Ya que y
t
=
1
y
t-1
+
2
y
t-2
+
t
Autocovarianzas:
Cov(Y
t-1
,Y
t
) = Cov(Y
t
,Y
t+1
) =
1
, t.
1
= Cov (Y
t-1
,Y
t
) = E[( Y
t-1
- )(Yt - )] = E(y
t-1
y
t
) = E[y
t-1
(
1
y
t-1
+
2
y
t-2
+
t
)] =
1
0
+
1.
Hay que recordar que en un proceso estacionario
1
=
-1
.
2
= Cov (Y
t-2
,Y
t
) = E(y
t-2
y
t
) = E(y
t-2
(
1
y
t-1
+
2
y
t-2
+
t
)) =
1
1
+
2
0
...
k
=
1
k-1
+
2
k-2
(k>0).
Coeficientes de autocorrelacin simple:
0
=1
1
=
1
0
=
1
+
2
2
=
2
0
1
1
+
2
....
k
=
k
0
1
k-1
+
2
k-2 ,
k>0
En la figura 2.2.5. se pueden observar los correlogramas de procesos AR(2).
Modelos autorregresivos de orden p, AR(p):
Y
t
= +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t
Si el proceso es estacionario en media y varianza: E(Y
t
) = E(Y
t-1
) =...= E(Y
t-p
) y Var(Y
t
)
= Var(Y
t-1
) =...= Var(Y
t-p
), t. Entonces:
81
=
p 2 1
... 1
... L
1
p
p
2
2 1
Si L
i
es una raz de la ecuacin polinomial se demuestra que
i
L
1
=
i
Donde
i
son las races de la denominada ecuacin caracterstica:
p
-
1
p-1
-
2
p-2
-...-
p
= 0.
Por tanto, la condicin de invertibilidad se puede obtener de forma alternativa y es que
las races de la ecuacin caracterstica deben ser menores a la unidad en valor absoluto.
1
>0,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
<0,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
>0,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
<0,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
Figura 2.2.5. FAS de procesos AR(2)
82
Generalizando:
0
=
1
1
+
2
2
+...+
p
p
+
2
k
=
1
k-1
+
2
k-2
+...+
p
k-p
, para todo k 1 (*)
El sistema de ecuaciones (*) para k = 1...p, relaciona las p primeras autocovarianzas con
los parmetros del proceso. Se denominan ecuaciones de Yule-Walker:
1
=
1
0
+
2
1
+...+
p
p-1
2
=
1
1
+
2
0
+...+
p
p-2
.............................................
p
=
1
p-1
+
2
p-2
+...+
p
0
Las ecuaciones de Yule-Walker se pueden expresar en trminos de los coeficientes de
autocorrelacin dividiendo por
0
ambos miembros:
1
=
1
0
+
2
1
+...+
p
p-1
2
=
1
1
+
2
0
+...+
p
p-2
.............................................
p
=
1
p-1
+
2
p-2
+...+
p
0
Mediante estas ecuaciones se pueden obtener los coeficientes o parmetros del proceso
AR(p) con los datos de los coeficientes de autocorrelacin o autocovarianzas.
Si se resuelve sucesivamente el sistema de Yule-Walker bajo la hiptesis de la serie es
un AR(1), AR(2), AR(3), etc., y se toma el ltimo coeficiente de cada uno de los procesos se
obtiene la funcin de autocorrelacin parcial terica. Bajo el supuesto de que p es el orden del
proceso autorregresivo, se obtiene que los coeficientes de autocorrelacin parcial sern distintos
de cero para retardos iguales o inferiores a p (figura 2.2.6.).
4
En caso de que las races sean nmeros complejos basta calcular su mdulo.
83
1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
Figura 2.2.6. FAP de procesos AR (1)
2.2.2.2. PROCESOS DE MEDIA MVIL
En los procesos de media mvil de orden q, cada observacin Y
t
es generada por una
media ponderada de perturbaciones aleatorias, con un retardo de q perodos. Se simboliza por
MA(q):
Y
t
= +
t
-
1
t-1
-
2
t-2
-...-
q
t-q,
t
es ruido blanco.
Modelo MA(1):
Y
t
= +
t
-
1
t-1
E(Y
t
) =
Var (Y
t
) = Var (
t
) +
1
2
Var (
t-1
) =
2
(1+
1
2
) =
0
Autocovarianzas:
1
= E(Y
t-1
- )(Y
t
- ) = E(
t-1
-
1
t-2
)(
t
-
1
t-1
) = -
1
2
= E(Y
t-2
- )(Y
t
- ) = E(
t-2
-
1
t-3
)(
t
-
1
t-1
) = 0
....
k
= 0, > k 1
Se dice que el proceso tiene una memoria de slo un perodo. Cualquier valor de Y
t
est
correlacionado con Y
t-1
e Y
t+1
, pero con ningn otro valor de la serie.
Coeficientes de autocorrelacin:
84
0
= 1
1
=
1
0
=
2
1
1
1 +
k
=
k
0
0
,
k>1
Un modelo MA(1) siempre es estacionario con independencia del valor de
1
.
1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
Figura 2.2.7. FAS de un proceso MA(1)
Modelo MA(2):
Y
t
= +
t
-
1
t-1
-
2
t-2
E(Y
t
) =
0
= Var (Y
t
) = Var (
t
) +
1
2
Var (
t-1
) +
2
2
Var (
t-2
) =
2
(1+
1
2
+
2
2)
=
0
Autocovarianzas:
1
= E(Y
t-1
- )(Y
t
- ) = E(
t-1
-
1
t-2
-
2
t-3
)(
t
-
1
t-1
-
2
t-2
) =
2
(-
1
+
1
2
)
2
= E(Y
t-2
- )(Y
t
- ) = E(
t-2
-
1
t-3
-
1
t-4
)(
t
-
1
t-1
-
2
t-2
) = -
2
2
....
k
= 0, > k 2
85
Coeficientes de autocorrelacin:
0
=1
1
=
1
0
=
+
+ +
1 1 2
1
2
2
2
1
1
=
2
0
=
+ +
2
1
2
2
2
1
......
k
=
k
0
0
,
k>2
Un modelo MA(2) siempre es estacionario con independencia del valor de sus
parmetros y su memoria es de dos perodos.
1
<0
,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
>0
,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
<0
,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
>0
,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
Figura 2.2.8. FAS del modelo MA(2)
86
Modelo MA(q):
Y
t
= +
t
-
1
t-1
-
2
t-2
-...-
q
t-q
E(Y
t
) =
0
= Var (Y
t
) = Var (
t
) +
1
2
Var (
t-1
) +
2
2
Var (
t-2
) =
2
(1 +
1
2
+
2
2
+...+
q
2
)
Autocovarianzas:
1
= E(Y
t-1
- )(Y
t
- ) =
2
(-
1
+
1
2
+
2
3
+...+
q-1
q
)
2
= E(Y
t-2
- )(Yt - ) = (-
2
+
1
3
+
2
4
+...+
q-2
q
)
2
....
q
= -
q
2
....
k
= 0, > k q
Los coeficientes de autocorrelacin pueden ser obtenidos a partir de las
autocovarianzas.
Todos los procesos MA de orden finito son estacionarios.
Concepto de invertibilidad de los procesos MA
Cualquier proceso MA(q) puede expresarse como un AR(). Un modelo MA(1):
Y
t
= +
t
-
1
t-1
Y
t-1
= +
t-1
-
1
t-2
Y
t-2
= +
t-2
-
1
t-3
t
= Y
t
- +
1
t-1
= Y
t
- +
1
(Y
t-1
- +
1
t-2
) = Y
t
- +
1
Y
t-1
-
1
+
1
2
t-2
= Y
t
- +
1
Y
t-1
-
1
+
1
2
(Y
t-2
- +
1
t-3
) = Y
t
- +
1
Y
t-1
-
1
+
1
2
Y
t-2
-
1
2
+
1
3
t-3
Y
t
= (1 +
1
+
1
2
)
-
1
Y
t-1
-
1
2
Y
t-2
-
1
3
t-3
+
t
87
Si continuamos eliminando
t-3
y siguientes, el procedimiento continuar hasta el
infinito. Lleva a expresar Y
t
como funcin de sus valores retardados ms una constante y un
trmino de error. Esto tiene sentido si 1
1
< , ya que, de otro modo, el efecto del pasado sera
ms importante para explicar el comportamiento actual. Lo ms lgico es pensar que el efecto
del pasado va siendo cada vez menor y el proceso es invertible. Si 1
1
, es un caso lmite de
invertibilidad, en el que el efecto se mantiene constante con el retardo. 1
1
< , equivale a que
las races de 1-
1
L = 0 1 L1 >1.
Para un modelo MA(2), la condicin de invertibilidad es 1 -
1
L -
2
L
2
= 0 1 L1 >1
Para un modelo MA(q), dicha condicin es 1 -
1
L -
2
L
2
-...-
q
L
q
= 0 1 L1 >1
Debido a que el proceso MA(q) se puede expresar como un AR(), consta de infinitos
coeficientes de autocorrelacin parcial distintos de cero, aunque a partir del valor q decaern
rpidamente. As, la FAP de un proceso MA se comporta de manera anloga a como lo hace la
FAS en un AR (vase figura 2.2.9.).
1
>0
,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
<0
,
2
>0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
>0
,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
<0
,
2
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
Figura 2.2.9. FAP de procesos MA(2)
88
2.2.2.3. PROCESOS ARMA
Un modelo mixto con componente autorregresiva y con componente de medias mviles
se denomina ARMA (p,q), donde p es el orden de la parte autorregresiva y q el de la parte de
medias mviles:
Y
t
= +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t
-
1
t-1
-
2
t-2
-...-
q
t-q
La condicin de estacionariedad es que las races de la ecuacin caracterstica (L) = 0
estn fuera del crculo unidad.
La condicin de invertibilidad es que las races de la ecuacin (L) = 0 estn fuera del
crculo unidad.
Vamos a analizar las caractersticas de un modelo ARMA (1,1):
Y
t
= +
1
Y
t-1
+
t
-
1
t-1
Media: = <
1
1
,
1
1
Varianza:
0
= E(Y
t
2
), ya que = 0 no afecta a la varianza.
0
= E( +
1
Y
t-1
+
t
-
1
t-1
)
2
=
1
2
0
+
2
+
1
2
2
- 2
1
0
=
2
1
1 1
2
1
2
1
) 2 1 (
+
, con 1
1
<
Autocovarianzas:
1
= E(Y
t-1
Y
t
) =
1
0
-
1
2
= E(Y
t-2
Y
t
) =
1
1
....
k
= E(Y
t-k
Y
t
) =
1
k-1 , 2 k
Lgicamente, en un proceso ARMA (p,q) tanto la FAS como la FAP tienen infinitos
elementos distintos de cero ( figura 2.2.10.).
89
1
>0
,
1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
1
>0
,
1
<0
-1
-0,5
0
0,5
1
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
Figura 2.2.10. FAS y FAP para un proceso ARMA(1,1).
2.2.2.4. MODELOS ARIMA
Hasta este momento se han tratado procesos estacionarios. Sin embargo, las series de
datos econmicos suelen caracterizarse por ser no estacionarias: ntese la simple observacin de
una tendencia creciente en el tiempo o de unas fluctuaciones que crecen en tamao con el paso
del tiempo, como, por ejemplo, puede ocurrir con el precio de algunos activos financieros.
Es cierto que muchas series econmicas se convierten en aproximadamente
estacionarias despus de aplicar diferencias en una ms etapas. Lo que se hace en tales
situaciones es trabajar con la serie en diferencias especificando y estimando un modelo para
ellas. Una prediccin con estas series hay que traducirla a una prediccin para la serie origen, en
cuyo anlisis est interesado el investigador.
- Diferencias de orden uno o de primer orden o primeras diferencias:
1 t t t
Y Y Y
- Diferencias de orden dos o segundas diferencias: se aplican primeras diferencias a la serie ya
diferenciada una vez.
2 t 1 t t 1 t t 1 t t t
2
t
Y Y 2 Y Y Y ) Y Y ( Y ) Y (
+
Se pueden calcular diferencias de cualquier orden.
90
Un ejemplo de proceso estocstico o aleatorio no estacionario es el denominado paseo o
camino aleatorio:
Y
t
= Y
t-1
+
t
bien Y
t
= + Y
t-1
+
t
, donde
t
es ruido blanco.
Y
t
= Y
t-1
+
t
= Y
t-2
+
t 1
+
t
= Y
t-3
+
t 2
+
t 1
+
t
= ....=
0 k
k t
Es un proceso no estacionario en varianza pues Var (Y
t
) = Var (
0 k
k t
) = .
La transformacin consistente en tomar primeras diferencias de la variable produce una
nueva serie claramente estacionaria:
t 1 t t t
Y Y Y
, variable que sigue un proceso ruido
blanco, estacionario.
La serie Y
t
es no estacionaria homognea de orden d, si la serie
t
=
d
Y
t
es
estacionaria. Entonces, Y
t
es un proceso autorregresivo integrado de media mvil de orden
(p,d,q) y se denomina ARIMA (p,d,q). Si se aplican diferencias de orden d a Y
t
se obtiene un
proceso estacionario
t
del tipo ARMA (p,q).
t
= +
1
t-1
+
2
t-2
+ ...+
p
t-p
+
t
-
1
t-1
-
2
t-2
-...-
q
t-q
(1-
1
L
-
2
L
2
-
...-
p
L
p
)
t
= + (1
-
1
L
-
2
L
2
-...-
q
L
q
)
t
(1-
1
L
-
2
L
2
-
...-
p
L
p
)
d
Y
t
= + (1
-
1
L
-
2
L
2
-...-
q
L
q
)
t
2.3. FASES PARA LA ELABORACIN DE MODELOS ARIMA
2.3.1. FASE DE IDENTIFICACIN
Se trata de buscar un proceso ARMA que de forma verosmil haya podido generar la
serie temporal, es decir, que se adapte mejor a las caractersticas de la misma. Pero esos
procesos son estacionarios, por lo que habr que efectuar un anlisis de la estacionariedad de
los datos. Con tal fin se utilizan los siguientes instrumentos:
- Representacin grfica. Si el grfico de la serie temporal presenta fluctuaciones cuya amplitud
cambia para distintos intervalos del perodo muestral, se pensar que el proceso que genera la
serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o decreciente con el
tiempo.
91
- El correlograma. El hecho de que la funcin de autocorrelacin simple decrece muy
lentamente al aumentar el retardo, ha demostrado ser una seal de tendencia no estacionaria.
Puesto que en la prctica se dispone de una realizacin de un proceso estocstico, podemos
obtener los coeficientes de autocorrelacin muestral y, a partir de ellos, el correlograma
muestral. Una vez representado el correlograma muestral, se conoce si la serie es o no
estacionaria.
- Mediante los contrastes de races unitarias. Son vlidos para determinar si existe tendencia
determinstica o estocstica
5
.
- A travs del grfico desviacin tpica-media. Si conforme crece la media, la desviacin tpica
aumenta, la varianza del proceso es creciente.
Si la serie temporal no es estacionaria se aplican las transformaciones adecuadas con
objeto de convertirla en estacionaria. Cuando la serie presente no estacionariedad en media, se
suele aplicar el proceso de diferenciacin. Pero, a veces, la toma de diferencias no es suficiente
para obtener series estacionarias en media y en varianza. Una solucin consiste en fijar
logaritmos de la serie, teniendo en cuenta que posteriormente hay que deshacer el cambio de
variable. En series econmicas que estn afectadas por una fuerte tendencia, suele ser necesario
efectuar alguna transformacin del tipo Box-Cox, para obtener una serie estacionaria en
varianza. Esta transformacin se define por:
Y
t
()
=
'
0 LnY
0 / ) 1 Y (
t
t
Una vez estacionaria, se determinar el orden de la parte autorregresiva (p) y el de la
parte de medias mviles (q) del proceso ARMA, que se considere haya podido generar la serie
estacionaria. Para tal fin se utilizan el correlograma estimado y la funcin de autocorrelacin
parcial estimada. Esta ltima puede obtenerse de dos formas alternativas, prcticamente
equivalentes: mediante el sistema de Yule-Walker, y mediante el mtodo de regresin.
Se puede utilizar el sistema de Yule-Walker para estimar los coeficientes de
autocorrelacin parcial a partir de los simples estimados:
5
Estos trminos se desarrollarn con amplitud en el tercer captulo.
92
1 11
=
0
1
,
1
]
1
1
]
1
1
1
]
1
2
1
1
1
1
22
21
1
1
,
1
1
1
]
1
1
1
1
]
1
1
1
1
]
1
3
2
1
1
1 2
1 1
2 1
33
32
31
1
1
1
.....
Se escogen los coeficientes ,...
33 22 11
para configurar la FAP estimada.
La otra opcin para el clculo de la FAP, consiste en obtener los coeficientes mediante
las siguientes regresiones sucesivas:
t k t kk 2 t 2 k 1 t 1 k t
t 2 t 22 1 t 21 t
t 1 t 11 t
Y
... Y
...
Y
+ + + +
+ +
+
As,
kk
k
es una variable aleatoria cuya varianza se estima de forma aproximada
(Barlett, 1946) por:
Var (
k
)
1
n
) 2 1 (
1 k
1 i
2
i
+
Con un tamao muestral suficientemente grande,
k
se aproxima a una distribucin
normal. Se puede, por tanto, construir un intervalo de confianza al 95%, para contrastar la
hiptesis nula de que
k
= 0:
) ( Var 2
k
t
Si los coeficientes muestrales caen dentro del intervalo, se concluye que los coeficientes
de autocorrelacin no son significativamente distintos de cero. En la prctica, esta frmula
permite identificar procesos de media mvil, para los cuales
k
se anula a partir de algn k>q.
Para la FAP, se ha demostrado (Quenouille, 1949) que, en un proceso AR(p):
Var
n
1
)
(
kk
, k>p
Entonces, el intervalo de confianza, al 95%, para contrastar 0
kk
es igual a:
)
( Var 2
kk
t =
n
1
2 t
Es posible, pues, verificar si una muestra procede de un proceso autorregresivo de un
orden p* dado, comprobando si
kk
cae dentro del intervalo (es significativamente igual a cero)
para todo k>p*. En la prctica, se utiliza empricamente para calcular intervalos de confianza
94
para todos los coeficientes de autocorrelacin parcial estimados, con independencia de cul sea
el tipo de proceso, el cual se desconoce de antemano.
Tambin hay que identificar la inclusin o no de trmino independiente. La media del
proceso est ligada al mismo, por tanto, si la media observada se considera significativamente
igual a cero, no se introducir trmino independiente en el modelo.
Esta etapa suele plantear ciertas dificultades y su objetivo consiste, en general, en la
especificacin tentativa de unos pocos modelos con estructuras sencillas. La etapa de estimacin
y la posterior validacin de los resultados confirmarn los indicios o, por el contrario, servirn
de fundamento para la reformulacin de los modelos propuestos.
2.3.2. FASE DE ESTIMACIN
Una vez identificado el modelo de series temporales ARIMA(p,d,q), se proceder a
estimar sus parmetros.
Sea Y
t
ARIMA(p,d,q), donde
t
= (1-L)
d
Y
t
ARMA(p,q):
t
= +
1
t-1
+
2
t-2
+ ...+
p
t-p
+
t
-
1
t-1
-
2
t-2
-...-
q
t-q
El objetivo es la estimacin de ,
1,
2
,...,
p
,
1,
2
...
q
y, para ello, se dispone de una
muestra de tamao n de Y. Al tomar diferencias de orden d se perderan d observaciones para la
nueva serie
t
, quedando n-d datos
1
,...
n-d
.
Las hiptesis que se adoptan en el proceso de estimacin son las siguientes:
a)
t
N(0,
2
)
b) El proceso es estacionario.
c) El proceso es invertible.
Estimacin de procesos autorregresivos
Un proceso autorregresivo no cumple la hiptesis del modelo clsico de regresin
basada en regresores fijos. Son variables aleatorias puesto que son retardos de la variable Y
t
(
95
t
, en su caso) que es aleatoria. Sin embargo, en presencia de errores que no presentan
autocorrelacin, los estimadores mnimocuadrticos tienen buenas propiedades (consistencia).
Por el contrario, si el trmino de error estuviese correlacionado (no fuese ruido blanco), estos
estimadores seran inconsistentes. En este caso, el modelo estara mal especificado, puesto que
una especificacin correcta debe provocar un trmino de error con estructura de ruido blanco.
t
= +
1
t-1
+
2
t-2
+ ...+
p
t-p
+
t
Aplicar el criterio de mnimos cuadrados, implica minimizar la suma de los cuadrados
de los residuos e
t
=
t
-
t
. El residuo se considera una estimacin de la perturbacin aleatoria
una vez estimado el modelo.
En forma matricial:
n1
= W
n(p+1)
(p+1)1
+
n1
, donde n es el nmero final de datos
utilizados en la estimacin.
n1
=
1
2
...
n
1
]
1
1
1
1
, W
n(p+1)
=
1
1
1
0 1 1
1 0 2
1 2
...
...
...
... ... ... ...
...
1
]
1
1
1
1
p
p
n n n p
(p+1)1
=
1
...
p
1
]
1
1
1
1
,
n1
=
1
2
...
n
1
]
1
1
1
1
( )
MCO
W' W W' w
1
Si no se incluye trmino independiente en el modelo, se suprime la columna de unos.
Estimacin de procesos de medias mviles y mixtos
La estimacin de modelos de medias mviles y modelos mixtos se lleva a cabo
mediante algoritmos de optimizacin numrica, debido a que los errores no son funcin lineal
de los parmetros.
Partimos de un modelo MA(1), sin trmino independiente:
t
=
t
-
1
t-1
96
e
t
=
t
-
t
=
t
+
1 1 t
.
t
=
t
+
1
t-1
Para t =1:
1
=
1
+
1
0
Para t =2:
2
=
2
+
1
1
=
2
+
1
(
1
+
1
0
) =
2
+
1
1
+
2
1
0
Para t =3:
3
=
3
+
1
2
=
3
+
1
(
2
+
1
1
+
2
1
0
) =
3
+
1
2
+
2
1
1
+ +
3
1
0
.....
El trmino de error no es funcin lineal del parmetro a diferencia de lo que sucede con
los modelos autorregresivos. El modelo se puede estimar a travs de un proceso iterativo de
estimacin no lineal, que utiliza los dos primeros trminos de la aproximacin de
t
a travs del
desarrollo en serie de Taylor
7
(se consideran despreciables los trminos de segundo orden y
superior).
t
+
1
]
1
1
t
t 0
1 1
0
1
1 1
0
( )
0
t
es el valor que toma el residuo despus de sustituir
1
por el valor inicial
0
1
. Por
tanto, hay que partir de un valor inicial para el parmetro.
t
1
1 1
0
1
]
1
t
t
1
1
. Entonces:
7
Si y =f(x
1
,x
2
) es una funcin no lineal de dos variables X
1
y X
2
, se puede igualar a una serie de Taylor,
en torno a unos valores numricos de las variables x
10
y x
20
:
...
x x
x x
2
x
1
x
f
2
) x x )( x x (
x x
x x
2
x
f
2
2
) x x (
2
1
x x
x x
1
x
f
2
2
) x x (
2
1
x x
x x
2
x
f
) x x (
x x
x x
1
x
f
) x x ( ) x , x ( f y
20
10
20
10
20
10
20
10
20
10
2
1
20 2 10 1
2
1
20 2
2
1
10 1
2
1
20 2
2
1
10 1 20 10
+
+
+
+
1
1
]
1
1
1
]
1
1
1
]
1
1
1
]
1
1
1
]
1
El resto de los trminos son despreciables.
97
t 1 t
0 0
1 1
0
t
1
t 0
1 1
0
t
) ( ) (
0
1 1
+
1
]
1
+ =
1 t
0
1 t
1 t
0 0
1
0
t
1 t
0
1
1 t
0 0
1
0
t
+
t t 1 t
x w +
donde w
t
= 1 t
0 0
1
0
t
y x
t
= 1 t
0
Es una ecuacin de regresin lineal que se puede estimar mediante MCO. Tambin es
posible establecer la ecuacin en funcin de ) (
0
1 1
y obtendramos el estimador de
) (
0
1 1
:
MCO
= )
(
0
1 1
0
1 MCO 1
+ . Entonces,
1
(
1 h 1 h h
+
Si h = 0, tenemos el valor inicial.
Si h = 1, tenemos la primera iteracin.
Si h = 2, la segunda iteracin.
......
El procedimiento finaliza cuando se cumple algn criterio de convergencia
satisfactorio, como el que establece que la diferencia entre dos estimaciones sucesivas en valor
absoluto sea menor que una cantidad pequea fijada de antemano (0,001, por ejemplo):
001 , 0
1 h h
<
Otro criterio de convergencia alternativo consistira en detener el proceso si la
variacin producida en la suma de los cuadrados de los residuos es pequea (por ejemplo,
inferior al 1%).
Un criterio ms exigente sera el de aceptar la convergencia del proceso cuando se
cumplan a la vez los dos criterios citados.
98
Este procedimiento, aplicado a un modelo MA(2), generara la siguiente aproximacin:
t
0
2 1
0
1 1
0
2 1
0
1 1 2
t 0
2 1
1
t 0
1 1
0
t
) ( ) (
1
]
1
+
1
]
1
+
0
t
es el valor que toma el residuo despus de sustituir
1
por el valor inicial
0
1
y
2
por
0
2.
1 t
1
t
y
2 t
2
t
Se tiene:
t
0
2 1
0
1 1
0
2 1
0
1 1 2
t 0
2 2
1
t 0
1 1
0
t
) ( ) (
1
1
]
1
+
1
1
]
1
+ =
2 t
0
2
1 t
0
1 t
2 t
0 0
2
1 t
0 0
1
0
t
2 t
0
2
2 t
0 0
2
1 t
0
1
1 t
0 0
1
0
t
+ +
t t 2 2 t 1 1 t
x x w + +
donde w
t
= 2 t
0 0
2
1 t
0 0
1
0
t
, x
1t
=
0
1 t y x
2t
= 2 t
0
Este mtodo se puede extender a cualquier proceso MA(q) y ARMA(p,q):
t
= +
1
t-1
+
2
t-2
+ ...+
p
t-p
+
t
-
1
t-1
-
2
t-2
-...-
q
t-q
Supongamos que = 0
t
=
t
-
1
t-1
-
2
t-2
-...-
p
t-p
+
1
t-1
+
2
t-2
+...+
q
t-q
t
0 i
t 0
i i
q p
1 i
0
t
) (
+
1
]
1
+
Ahora habr que estimar el vector de p+q parmetros =
1
1
1
1
1
]
1
+q p
2
1
...
, p de la parte AR y q
de la parte MA, siendo el procedimiento igual al visto anteriormente.
99
Con objeto de obtener un proceso de convergencia rpido, se introducen ciertos
refinamientos en el proceso. En este sentido, el algoritmo de Marquardt (1963) es muy utilizado
en los paquetes de ordenador.
Tambin un proceso AR puede estimarse desde el punto de vista de este procedimiento
iterativo, siguiendo los mismos pasos.
Para efectuar contrastes estadsticos, en la iteracin final se calcula la estimacin de la
matriz de varianzas y covarianzas de los estimadores mediante la expresin:
V =
1 1 2
) (
q p n
) (
X X'
e e'
X X'
El procedimiento iterativo no siempre es convergente. Si se produce divergencia el
modelo se puede volver a estimar una o ms veces, utilizando diferentes pronsticos iniciales,
con la esperanza de obtener convergencia. Puede tambin producirse por una mala
especificacin del modelo, es decir porque no sea el que mejor representa la estructura del
proceso estocstico que gener la serie temporal objeto de anlisis. En este caso, habra que
elegir una nueva especificacin.
Obtencin de valores iniciales para los parmetros del modelo
Los valores numricos de la FAS y FAP estimadas pueden utilizarse para obtener
estimaciones iniciales de los coeficientes. La convergencia del proceso de estimacin puede que
sea ms rpida si el pronstico inicial es bueno.
Si el modelo identificado es un AR(p), las ecuaciones de Yule-Walker proporcionan los
valores de los parmetros del modelo a partir de los coeficientes de autocorrelacin estimados.
Si, por el contrario, se ha elegido un modelo MA(1), entonces recordando que
2
1
1
1
1
+
, podemos deducir un valor para el parmetro, teniendo en cuenta que el modelo
debe cumplir la condicin de invertibilidad.
Para procesos de orden superior, el mtodo es ms complejo aunque similar.
100
Enfoque condicionado y no condicionado en la fase de estimacin
Si en el modelo
t
= +
1
t-1
+
2
t-2
+ ...+
p
t-p
+
t
-
1
t-1
-
2
t-2
-...-
q
t-q
se dan
valores desde t =1...n, se nota que para determinar el valor de los
t
= t- -
1
t-1
-
2
t-2
- ...-
t-p
+
1
t-1
+
2
t-2
+...+
q
t-q
, se necesitan los valores anteriores y no observables de
t
y t:
0
,
-1
, ...,
0,.....
Estos valores constituyen las condiciones iniciales y los estimadores
mnimocuadrticos que obtengamos, dependern de los valores elegidos para ellos.
El mtodo de estimacin puede seguir un enfoque condicional o un enfoque no
condicional. El enfoque condicional asigna unos valores apropiados a las condiciones iniciales
basados en las hiptesis estadsticas del modelo: los errores se igualan a su media terica, es
decir, cero, y los primeros datos de la serie son utilizados para estimar los valores iniciales
0
,
-1
, ...
8
(a veces, se consideran igual a cero, es decir a su media terica, en caso de no incluir
trmino constante en el modelo, pero esta solucin no es demasiado realista).
El enfoque no condicional se caracteriza porque los valores iniciales no se consideran
como datos, sino que se determinan dentro del proceso de estimacin, conjuntamente con los
parmetros del modelo. Este procedimiento es ms eficiente que el condicional.
2.3.3.FASE DE VALIDACIN
En esta etapa se comprobar la capacidad de ajuste del modelo propuesto y estimado a
los datos. Si ste no supera satisfactoriamente este paso, es necesario reformularlo. Cabe decir
que los resultados de la comprobacin de la validez del modelo, suelen dar insinuaciones para
proceder a la especificacin de uno diferente.
Para la aceptacin del modelo, ste debe cumplir algunos requisitos:
Anlisis de los residuos:
8
La muestra se divide en dos partes, la primera de las cuales sirve para determinar los valores previos o
iniciales y la otra para el proceso de estimacin.
101
Se parte de la hiptesis de que el trmino de error de un modelo ARIMA es ruido
blanco. Estos errores son inobservables, pero no ocurre lo mismo con los residuos. Cualquier
test sobre la perturbacin aleatoria debe basarse en los residuos del modelo, los cuales deben
seguir, pues, el comportamiento de un proceso puramente aleatorio normal. En caso contrario,
contendran informacin relevante para la prediccin.
Con el objeto de estudiar si los residuos se aproximan al comportamiento de un proceso
ruido blanco, se disponen de las siguientes herramientas:
Contraste independencia de Box-Pierce
Est destinado a contrastar la independencia o no autocorrelacin de los residuos. La
autocorrelacin se mide por los coeficientes de autocorrelacin de los residuos r
k
. Es un
contraste global (contraste de portmanteau) acerca de la no autocorrelacin de los residuos de
las observaciones separadas un nmero determinado de periodos.
H
o
: r
1
= r
2
=...= r
k
= 0
Se utiliza el siguiente estadstico propuesto por Box y Pierce (1970): Q (k) = n
k
1 t
2
t
r
r
t
es el coeficiente de autocorrelacin estimado de orden t de los residuos, t = 1...k.
La eleccin de k es arbitraria. Cuanto mayor sea k el test se extender a desfases
mayores, pero la precisin en la estimacin de los r
k
es menor y disminuye la potencia del
contraste, es decir, la probabilidad de rechazar la hiptesis nula cuando es falsa.
Bajo la hiptesis nula, la distribucin asinttica del estadstico es: Q(k)
k
Se rechazar la hiptesis nula si el valor de Q experimental es superior que el terico o
tabulado de la distribucin a un nivel de significacin dado.
Box y Pierce han demostrado que utilizando k elevado, el estadstico Q es apropiado si
se supone que sigue una distribucin Q(k)
k-(p+q)
.
102
La versin mas actual de ese estadstico es la de Ljung-Box (1978), para disminuir el
sesgo en pequeas muestras.
Bajo la hiptesis nula: Q*(k) = n (n+2)
k
1 t
2
t
t n
r
k-(p+q)
Sabiendo que
k
r =
1 t
2
t
k n
1 t
k t t
e
e e
es el coeficiente de autocorrelacin de orden k y e
t
son
los residuos.
A veces, en lugar de fijar a priori un nivel de significacin para el contraste, el contraste
se puede contemplar a travs del nivel de significacin crtico. ste es un indicador del nivel de
admisibilidad de la hiptesis nula. Cuanto mayor sea el nivel de significacin crtico mayor
confianza podemos tener para aceptar la hiptesis nula y viceversa: si toma el valor cero,
podemos rechazar la hiptesis nula al 100% de confianza.
Representacin de la funcin de autocorrelacin simple y parcial de los residuos
La serie de residuos es aleatoria si los coeficientes de autocorrelacin simple y parcial
son significativamente cero.
Anderson (1942) ha demostrado que los coeficientes de autocorrelacin muestrales
procedentes de un proceso ruido blanco, siguen asintticamente, la siguiente distribucin:
r
k
) n / 1 , 0 ( N
En consecuencia, bajo la hiptesis de que r
k
= 0 , se construye un intervalo de confianza
al 95% de la siguiente forma:
n
2
t . Si algn r
k
cae fuera de los lmites, se rechaza la hiptesis
de no autocorrelacin. En este caso hay evidencia de no aleatoriedad de la serie.
Adems, los errores debern alternar el signo de su coeficiente de autocorrelacin sin
ningn criterio obvio.
103
Tambin, los coeficientes de la FAP deben ser significativamente cero. En la prctica se
construyen bandas de confianza utilizando la distribucin de una variable ruido blanco cuya
varianza es 1/n segn se ha visto anteriormente.
Hay que tener en cuenta que esta aproximacin realizada sobre la varianza no es muy
adecuada tanto para la FAS como para la FAP especialmente en los retardos bajos. Se podra
concluir que un coeficiente es estadsticamente no significativo cuando en realidad lo es.
La FAS y la FAP de los residuos del modelo estimado son instrumentos valiosos a la
hora de reformular el modelo, en caso de que no se comporten como un proceso ruido blanco.
Supongamos que se ha estimado un AR(1): Y
t
=
1
Y
t-1
e
t
= Y
t
-
1
Y
t-1
. Despus de examinar
la FAS y la FAP de la serie e
t
, se llega a la conclusin de que sigue un modelo MA (1), no un
proceso ruido blanco : e
t
=
t
-
1
t-1.
Sustituyendo en el modelo AR (1) : Y
t
=
1
Y
t-1
+ t -
1
t-1
,
se puede concluir que Y
t
es un ARMA (1,1).
Representacin grfica de los residuos
La representacin de los residuos en el tiempo permite observar si la varianza es
constante y si la media est prxima a cero. Adems, se puede verificar si se ajustan a una
distribucin normal y la existencia de residuos atpicos. Un residuo se considera atpico si el
valor absoluto excede en tres o cuatro veces su desviacin tpica (siendo su media cero).
Para contrastar la existencia de heteroscedasticidad se puede realizar el contraste de
White (1980). Su hiptesis nula es que el trmino de perturbacin es homocedstico e
independiente de los regresores y que la especificacin lineal es correcta. El procedimiento es el
siguiente:
a) Estimacin del modelo original ignorando la posible heteroscedasticidad.
b) Estimacin de una regresin del cuadrado de los residuos anteriores sobre una constante, los
regresores del modelo original, sus cuadrados y productos cruzados de segundo orden.
c) El output es un estadstico nR
2
, donde n es el tamao muestral y R
2
es el coeficiente de
determinacin de la ltima regresin, que sigue una distribucin asinttica chi-cuadrado con
grados de libertad igual al nmero de regresores en el contraste de regresin anterior.
d) Bajo la hiptesis nula de homoscedasticidad, asintticamente el coeficiente de
determinacin tender a cero, excepto cuando la varianza del trmino de error del modelo
104
depende de sus variables explicativas. En tal caso nR
2
permanecer lejos de cero y es de
esperar que sea mayor que el valor de las tablas de la distribucin chi-cuadrado.
Para contrastar la normalidad se utiliza el contraste de Jarque-Bera (1987). Se trata de
una prueba de grandes muestras, que primero calcula la asimetra (A) y la curtosis o
apuntamiento (K) de los residuos de la estimacin del modelo y despus utiliza el siguiente
estadstico de contraste:
1
]
1
+
24
) 3 K (
6
A
n JB
2 2
Bajo la hiptesis nula de que los residuos estn normalmente distribuidos,
asintticamente JB sigue una distribucin
2
2
. Si el valor del estadstico supera el valor
tabulado de la distribucin chi- cuadrado, se rechazar la hiptesis nula a un determinado nivel
de confianza. O si el nivel de significacin crtico (p-valor) es suficientemente pequeo, se
puede rechazar la hiptesis de que los residuos siguen una distribucin normal.
Anlisis de los coeficientes estimados
Primero hay que verificar si los coeficientes son significativos. El estadstico de
contraste est construido bajo la hiptesis nula de que el coeficiente es cero y sigue una
distribucin t-student con n-m grados de libertad, con m igual al nmero de parmetros
incluidos. Si concluimos que alguno no es significativo se puede suprimir.
H
o
:
i
= 0 , t
*
=
m n
i
i i
t
) ( S
) ( E
H
o
:
i
= 0, t
*
=
m n
i
i i
t
) ( S
) ( E
H
o
: = 0, t
*
=
m n
t
) ( S
) ( E
La aplicacin del test anterior requiere un contraste de dos colas, pues la hiptesis
alternativa considera que puede tomar el coeficiente cualquier valor distinto de cero. Si * t es
mayor que el terico tabulado, se rechaza la hiptesis nula y el parmetro es significativo.
105
Otro aspecto importante es el examen del cumplimiento de las condiciones de
estacionariedad e invertibilidad:
Si alguna de las races de:
0 L
... L
1
p
p
2
2 1
0 L
... L
1
p
p
2
2 1
fuesen inferior a la unidad, el modelo se rechazara.
Si alguna de las races de 0 L
... L
1
p
p
2
2 1
, estuviese prxima a uno, es
posible que la serie original est subdiferenciada, por lo que puede que precise alguna
diferenciacin adicional.
Si alguna de las races de 0 L
... L
1
p
p
2
2 1
est prxima a uno, es posible
que el modelo est sobrediferenciado.
Si existen races comunes, se podra utilizar para las predicciones un modelo con dos
parmetros menos, es decir, el modelo sera un ARMA (p-1, q-1).
Es conveniente tambin examinar la matriz de correlacin entre los coeficientes
estimados. Cuando la correlacin entre dos coeficientes es prxima a uno, los coeficientes
estimados son muy inestables, con lo que podran cambiar bastante de una muestra a otra. El
modelo estimado para el perodo muestral puede diferir del que se obtendra para los perodos
de prediccin. Puede existir este problema siempre que alguna de las correlaciones entre
estimadores tome un valor superior a 0,6. Para evitar este problema puede ser eficaz eliminar
algn parmetro an a costa de que el grado de ajuste sea ms pequeo. No obstante, si todos
los coeficientes son significativos no sera aconsejable eliminar coeficientes del modelo.
Anlisis de la bondad del ajuste:
Se suele utilizar el coeficiente de determinacin R
2
o el corregido R
2
:
106
STC
SCR
1 R
2
Es una medida de la proporcin de la variacin total de la variable que es explicada por
el modelo.
1 n / STC
m n / SCR
1 R
2
donde SCR =
n
e
t
2
t
es la suma de los cuadrados de los residuos y
n
) (
STC
2
T
t
la suma total de los cuadrados.
El coeficiente de determinacin corregido penaliza la introduccin de parmetros
adicionales en el modelo. Si se introducen parmetros adicionales aunque no sean apropiados
pueden incrementar R
2
. Para evitar este problema se suele utilizar el coeficiente corregido.
El modelo se ajusta en mayor medida a los datos cuanto ms prximos a la unidad estn
los coeficientes de determinacin. Pero slo son comparables en modelos en los que se hayan
tomado idntico nmero de diferencias, debido a que para que este sea un elemento de
comparacin directa la varianza de la variable debe ser la misma. Si se calcula el coeficiente de
determinacin con la varianza de la variable diferenciada una vez, el resultado no ser
comparable con el calculado a partir del ajuste a un modelo sobre la variable original.
Para paliar el anterior inconveniente, se han propuesto medidas alternativas destacando
el estadstico AIC (Akaike Information Criterion), formulado por Akaike (1974). Consiste en
seleccionar aqul modelo para el que se obtenga un AIC ms bajo. Otra medida es SC (Schwarz
Criterion) y cuanto menor sea sta, mejor es el ajuste.
Anlisis de la estabilidad
La construccin de un modelo ARIMA est justificada por su utilizacin para la
prediccin. Conviene saber si el modelo estimado para el perodo muestral sigue siendo vlido
107
para perodos futuros. Para esta finalidad se puede aplicar el test de estabilidad estructural de
Chow:
m 2 n , m
n
1 t
2
t 2
n
1 t
2
t 1
n
1 t
2
t 2
n
1 t
2
t 1
n
1 t
2
t
F
m 2 n / e e
m / e e e
F
2 1
2 1
,
_
+
1
1
]
1
,
_
m es el nmero de parmetros a estimar.
N = n
1
+n
2
e
t
es el residuo del modelo utilizando todo el perodo muestral.
e
1t
es el residuo utilizando los n
1
primeros datos.
e
2t
es el residuo utilizando los n
2
ltimos datos.
Se pretende contrastar si el ltimo tramo muestral ha estado generado por la misma
estructura que el resto de las observaciones. Algunos autores aconsejan tomar como segundo
tramo muestral un tercio o un cuarto de la muestra.
Si la F calculada o experimental es mayor que la tabulada o terica a un determinado
nivel de significacin, se rechaza la hiptesis de estabilidad estructural.
2.3.4. FASE DE PREDICCIN.
Una vez que el modelo ha sido estimado y sometido a la fase de diagnosis, se convierte
en un instrumento til para la prediccin. Sea el modelo estimado ARMA(p,q), para la serie
t
,
siendo la serie original Y
t
ARIMA(p,d,q). Se trata de predecir los valores para la serie no
estacionaria Y
t
, una vez se haya realizado para la serie
t
estacionaria.
Por ejemplo, si
t
=Y
t
-Y
t-1
, donde
t
es estacionaria. La prediccin para esa serie en el
perodo n+1 es
1 n
+
. La correspondiente prediccin para
Y
n+1
es
1 n
+
+Y
n
.
Si se aplica una diferencia de segundo orden
t
= Y
t
2Y
t-1
+Y
t-2
, entonces
1 n
Y
+
=
=
1 n
+
+ 2Y
n
Y
n-1
108
Si se ha fijado en algn momento la transformacin logartmica, se tomarn
antilogaritmos para deshacer el cambio:
t
= LnY
t
Y
t
= e
t
Un criterio que se suele establecer para realizar predicciones es elegir aquellas con
mnimo error cuadrtico medio. El error cuadrtico medio es igual a la esperanza matemtica
del cuadrado de los errores de prediccin. La mejor prediccin puntual desde este punto de vista
es aqulla que se obtiene mediante la esperanza matemtica condicional a toda la informacin
disponible hasta el perodo de prediccin. La expresin de este predictor es la siguiente:
1 n
Y
+
= E(Y
n+1
/Y
n
, Y
n-1
...)
Y
n+1
= +
1
Y
n
+
2
Y
n-1
+ ...+
p
Y
n+1-p
+
n+1
-
1
n
-
2
n-1
-...-
q
n+1-q
Tomando esperanzas condicionadas, se obtiene:
Y
n+1
= +
1
Y
n
+
2
Y
n-1
+ ...+
p
Y
n+1-p
-
1
n
-
2
n-1
-...-
q
n+1-q
donde todas las variables con subndices inferiores a n+1, dejan de ser aleatorias, por lo que sus
esperanzas matemticas coinciden con sus realizaciones y E(
n+1
) = 0, por hiptesis.
Despus de obtener
1 n
Y
+
, se calcula
2 n
Y
+
, y as sucesivamente.
Los
t
son inobservables, por lo que hay que sustituirlos por sus estimaciones, que se
obtienen a travs de los sucesivos residuos del modelo. Si algn residuo no es posible obtenerlo,
se considera igual a su media terica: cero. Esta solucin es aceptable si el proceso es invertible,
dado que, en ese caso, la importancia de los valores iniciales tiende a desaparecer a medida que
aumenta el tamao muestral.
Cuando dispongamos de los valores observados, se utilizan para efectuar la prediccin,
si no se conocen se utilizan sus estimaciones en perodos anteriores.
A medida que el horizonte de la prediccin crece, la prediccin por puntos de un
modelo ARMA tiende a la media.
109
Error de prediccin
La prediccin de una variable aleatoria como es Y
t
, conlleva incertidumbre pues
depende de la muestra considerada. Entonces aparece un error de prediccin. Si se conociesen
los valores exactos de los coeficientes, cosa imposible en la mayora de los casos, sera posible
obtener una expresin del error de prediccin como sigue:
Y
t+s
-
s t
Y
+
= e
t+s
Escribamos el proceso ARMA, como un proceso de medias mviles de infinitos
trminos, mediante sustituciones sucesivas:
Y
t
= +
1
Y
t-1
+
2
Y
t-2
+ ...+
p
Y
t-p
+
t
-
1
t-1
-
2
t-2
-...-
q
t-q
Y
t
= K+
t
+
1
t-1
+
2
t-2
+...
Y
t+s
= K +
t+s
+
1
t+s-1
+
2
t+s-2
+...+
s-1
t+s-s+1
+
+
0 j
j t j s
La prediccin
s t
Y
+
se puede basar nicamente en la informacin disponible hasta el
perodo t. Escribimos la prediccin como una suma ponderada de los trminos de error que
podemos estimar:
s t
Y
+
= K+
+
0 j
j t j s
* , donde las ponderaciones * se elegirn de manera que minimicen el
Error Cuadrtico Medio de predicin.
e
t+s
=
t+s
+
1
t+s-1
+
2
t+s-2
+...+
s-1
t+1
+
+ +
0 j
j t j s j s
) * (
El error cuadrtico medio de prediccin es E(e
t+s
)
2
= (1
+
2
1
+
2
2
+...+
2
s-1
)
2
+
+ +
0 j
2 2
j s j s
) * ( , puesto que E(
i
j
) = 0, para ij.
El error cuadrtico medio se minimiza cuando el ltimo trmino es igual a cero, es decir si
j s j s
*
+ +
. Entonces el error de prediccin se puede escribir:
e
t+s
=
t+s
+
1
t+s-1
+
2
t+s-2
+...+
s-1
t+1
110
y teniendo en cuenta que E(e
n+s
) = 0:
Var (e
n+s
) = E(e
n+s
)
2
= (1
+
2
1
+
2
2
+...+
2
s-1
)
El uso ms importante de los errores de prediccin es la construccin de intervalos de
confianza para la prediccin. El intervalo de prediccin para el pronstico de Y
t+s
es, al 95%:
2
1 s
2
2
2
1 s t
... 1 96 , 1 Y
+
+ + + + t
El clculo de los coeficientes se obtienen a partir de la siguiente relacin:
(L)Y
t
= (L)
t
Y
t
=
-1
(L)(L)
t
= (L)
t
, con (L) = 1
+
1
L+
2
L
2
+...
-1
(L)(L)
t
= (L) (L)(L) = (L)
Valoracin de la capacidad predictiva de los modelos
Podemos verificar si el modelo sigue siendo vlido para los perodos de prediccin, una
vez se ha comprobado su validez para el periodo muestral, utilizando el siguiente estadstico:
E* =
2
m
0 s
s t / 1 s t
2
+ + +
Donde s t / 1 s t
2
e + + + es el error de prediccin de Y
t+s+1
utilizando la informacin disponible
en el momento t+s y
2
=
k n
SCR
t-s
-
2
t-2s
- ...-
Q
t-Qs
Y
t
= (1 -
1
L
s
-
2
L
2s
-...-
Q
L
Qs
)
t
La funcin de autocorrelacin simple de un proceso de medias mviles estacional tiene
el mismo comportamiento que la de un proceso de medias mviles no estacional. As en un
MA(1)
4
presenta un solo valor distinto de cero, que corresponde con el desfase k = 4.
Modelos mixtos estacionales
Generalizando, podemos definir el proceso mixto ARMA (P,Q)
s
mediante:
Y
t
=
1
Y
t-s
+
2
Y
t-2s
+...+
P
Y
t-Ps
+
t
-
1
t-s
-
2
t-2s
- ... -
Q
t -Qs
113
Proceso mixto estacional ARIMA (P,D,Q)
s
:
Adems de la presencia de tendencia o de varianza, la estacionalidad constituye una
fuente de no estacionariedad de la serie. El procedimiento que se suele utilizar para
desestacionalizar las series es el de la diferenciacin estacional.
Si los datos son mensuales, la diferenciacin estacional consiste en calcular una nueva
variable:
Z
t
= Y
t
Y
t-12
= (1-L
12
) Y
t
=
12
Y
t
Con datos trimestrales se calculara:
Z
t
= Y
t
Y
t-4
= (1-L
4
) Y
t
=
4
Y
t
Si despus de efectuar esta transformacin, la serie sigue presentando evidencia de
variaciones estacionales, es posible aplicar de nuevo el procedimiento, es decir, calcular las
diferencias de segundo orden, y as sucesivamente.
Una vez que a la serie original Y
t
se le aplica D veces el procedimiento de la
diferenciacin estacional y se obtiene una serie Z
t
que es estacionaria, entonces se puede aplicar
a Z
t
cualquiera de los modelos estudiados para las series estacionarias.
(1-L
s
)
D
Y
t
= Z
t
, con (1-L
s
)
D
=
s
D
Y
t
sigue un proceso estacional ARIMA(P,D,Q)
s
si:
Z
t
(1 -
1
L
s
-
2
L
2s
-...-
P
L
Ps
) = (1-
1
L
s
-
2
L
2s
- ...-
Q
L
Qs
)
t
Con Z
t
= (1-L
s
)
D
Y
t
Modelo multiplicativo general:
En la realidad, los factores estacionales se sobreponen a los factores regulares, por lo
que podemos encontrar series que vengan generadas por ambos tipos de procesos. Se puede
formular un modelo mixto o multiplicativo, ARMA(p,q) (P,Q)
s
:
114
(L)
s
(L)Y
t
= (L)
s
(L)
t
Por ejemplo, un modelo estacional multiplicativo ARMA(1,0)(1,0)
12
, se escribira:
(1-
1
L)(1-
1
L
12
)Y
t
=
t
Y
t
=
1
Y
t-1
+
1
Y
t-12
-
1
1
Y
t-13
+
t
.
El primer trmino de la derecha representa la componente autorregresiva regular de
primer orden, el segundo trmino indica lo mismo para la componente autorregresiva estacional,
y el tercer trmino permite la interaccin entre ambas estructuras.
Finalmente, si la tendencia est presente tanto en la componente regular como en la
estacional, habr que efectuar una doble diferenciacin, una en cada parte. As, todos los
modelos estacionales pueden unirse en uno general denominado ARIMA estacional
multiplicativo: ARIMA (p,d,q)(P,D,Q)
s
.
(L)
d
s
(L)
s
D
Y
t
= (L)
s
(L)
t
(1-
1
L -
2
L
2
- ...-
p
L
p
)
d
(1-1L
s
-2L
2s
-...-
P
L
Ps
)
s
D
Y
t
=
= (1
-
1
L
-
2
L
2
-...-
q
L
q
)(1-
1
L
s
-
2
L
2s
- ...-
Q
L
Qs
)
t
.
La FAS de los modelos multiplicativos, de forma aproximada, se caracteriza porque en
los retardos bajos, la nica estructura que aparece es la de la parte ordinaria, en los retardos s,
2s, 3s... el nico efecto importante es el de la parte estacional y en los retardos contiguos a
mltiplos de s, se obtiene simtricamente la reproduccin de la parte ordinaria tomando como
referencia los valores de los retardos estacionales, es decir, recogen la interaccin entre la parte
ordinaria y la parte estacional.
FAS de un modelo
ARMA(0,1)x(0,1)s=4
-1
-0,5
0
0,5
1
1 2 3 4 5 6
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
FAS de un modelo
ARMA(1,0)x(1,0)s=12
-1
-0,5
0
0,5
1
1 4 7 10 13 16 19
Retardo
C
o
e
f
i
c
i
e
n
t
e
s
Figura 2.4.2. FAS de modelos multiplicativos
115
Se puede construir el siguiente cuadro como resumen de los modelos estacionales
multiplicativos, aunque para ms detalles puede consultarse Vandale (1983):
Modelos FAS FAP
ARMA(p,0)(P,0)s Decaimiento exponencial o
sinusoidad o ambos
Se anula para un retardo
k>p+sP
ARMA(0,q)(0,Q)s Se anula para un retardo
k>q+sQ
Decrecimiento exponencial o
sinusoidal o ambos
116