Anda di halaman 1dari 13

Capitulo 1

Preliminares

1.

Introducci
on al an
alisis de series de tiempo

En un sentido amplio podemos decir que el objeto de la ciencia economica es el estudio de la


forma en que los agente toman sus decisiones y el analisis de las consecuencias de esta toma de
decisiones.
Uno de los elementos basicos en el proceso de toma de decisiones en un marco de incertidumbre
es proporcionar predicciones sobre el comportamiento que van a seguir algunas de las variables
en el periodo en el que se manifiestan los efectos de dichas decisiones
La prediccion debera ser de forma que aporte el maximo apoyo al proceso de toma de decisiones.
Una tecnica de prediccion es un proceso que incluye desde la recogida de la informacion considerada como relevante para predecir una variable, hasta la obtencion de la prediccion tras
procesar dicha informacion.
El primer concepto relevante a considerar es el de serie temporal. Una serie temporal es el
conjunto de valores de una variable correspondientes a perodos temporales sucesivos de igual
duracion. Denotaremos por {Yt } el valor que toma la serie que se va a predecir en el perodo t
Existen diferentes metodos para obtener predicciones de una serie temporal, los cuales podran
clasificarse en dos categoras basicas: m
etodos cualitativos generalmente utilizan la opini
on
de un experto, y los m
etodos cuantitativos estan basados en el analisis de datos historicos
para predecir los valores futuros de la variable de interes, estos a su vez se dividen en dos
grupos: series temporales y metodos causales. Nosotros aqu consideraremos Metodos de series
temporales univariantes cuantitativos.
Para el analisis de estas series temporales se requiere de todos los elementos vistos en los cursos
de estadstica.

Elementos Descriptivos: Se ocupan de resumir y describir, ya sea mediante graficas,


tablas o medidas descriptivas la informacion dada.
Elementos de Inferencia estadstica: Por medio de muestras representativas, se realizan inferencias para toda la poblacion.

1.1.

M
etodos de analizar una serie temporal

1.1.1.

M
etodos de descomposici
on de series

El esquema basico del que se parte es supones que una serie temporal tiene cuatro componentes,
pudiendose escribir:
Yt = Tt + Ct + St + ut

(1)

donde:
Tt : Componente de Tendencia: Es aquella parte de la serie que mantiene una pauta de comportamiento estable en largos perodos de tiempo, esta puede ser creciente o
decreciente.
Ct : Componente Cclico: es aquella parte de la serie que, conforme pasan los perodos
mantiene una cierta regularidad en su comportamiento, pero sin que pueda hablarse de
una pauta estable y repetida. La longitud del periodo en que se observa la regularidad no
es uniforme.
St : Componente Estacional: Aparece en aquellas series observadas en perodos con
una duracion inferior a un a
no. La aportacion de este fenomeno va asociada a fenomenos
meteorologicos o institucionales.
ut : Componente Aleatorio: no tiene ning
un comportamiento sistematico que pueda
tipificarse a lo largo de los diferentes perodos.
Para el componente de tendencia distinguiremos dos grandes enfoques que llamaremos tendencia
determinista y tendencia estocastica.
En el enfoque determinista, la tendencia es una funcion de la variable tiempo, la cual puede ser
lineal, cuadratica, etc.

Dentro del enfoque estocastico, la tendencia puede tener la forma


Tt = Tt1 + t + t

(2)

con t ruido blanco.


1.1.2.

M
etodo relacionado con Procesos estoc
asticos

(Metodologa Box - Jenkins): Presenta algunas ventajas sobre la metodologa expuesta anteriormente
Gran flexibilidad para representar un gran n
umero de fenomenos reales mediante una sola
clase de modelos.
Facilidad y precision al realizar pronosticos.
Posibilidad de generalizacion de metodos univariantes a modelos multivariantes (modelos
VAR)

1.2.

Procesos Estoc
asticos

Definici
on 1 : Un procesos estoc
asticos es una familia de variables aleatorias {Yt }, t {, +},
representa el tiempo, tal que, para cada serie finita de elecciones de t, es decir, t1 , t2 , . . . , tn se
define una distribuci
on de probabilidad conjunta para las correspondientes variables aleatorias
Yt1 , Yt2 , . . . , Ytn .
Definici
on 2 : Un procesos estoc
asticos es una familia de variables aleatorias asociadas a un
conjunto ndice de n
umeros reales {Y (t), t T } donde T es el conjunto ndice y {Yt } es una
variable aleatoria correspondiente a t, donde
- Si T es un intervalo de n
umeros reales, el proceso estoc
astico es continuo
- Si T es un conjunto finito o infinito numerable, el proceso estoc
astico es discreto.

1.3.

Serie de Tiempo

Definici
on 3 : Una serie de tiempo es un conjunto de valores observados de distintas variables
aleatorias correspondientes a perodos de tiempo consecutivos, dichos perodos tienen la misma
amplitud y la serie tiene un car
acter discreto.
Definici
on 4 : Es una sucesi
on de observaciones generadas por un proceso estoc
astico indizado
con relaci
on al tiempo.
Luego, la inferencia acerca de la caracterstica del proceso estoc
astico se puede realizar basados
en la funci
on de distribuci
on del mismo, as.
- Si Y es una variable aleatoria, puede caracterizarse a traves de su funci
on de distribuci
on
f (Y ).
- Si Y1 y Y2 son variables aleatorias, se caracterizan por f (Y1 , Y2 ) su funci
on de distribuci
on
bivariante.
- Si Y1 , Y2 , . . . , Yn son variables aleatorias, la caracterizaci
on de estas puede hacerse por
medio de f (Y1 , Y2 , . . . , Yn ) su funci
on de distribuci
on conjunta.

2.

Procesos estoc
asticos estacionarios

Para definir la estacionariedad de un proceso estocastico puede utilizarse, bien sea, la funci
on
de distribucion de la(s) variable(s) o los primeros momentos de las mismas.
Definici
on 5 : Estacionariedad en el Sentido estricto o fuerte
Diremos que un proceso estoc
astico {Yt } es estacionario en el sentido estricto cuando su funci
on
de distribuci
on conjunta es invariante respecto a un desplazamiento en el tiempo.
Es decir, considerando que t1 , t2 , . . . , tk corresponden a periodos sucesivos de tiempo que denominamos como t, t + 1, . . . , t + k, entonces
f (Yt , Yt+1 , . . . , Yt+k ) = f (Yt+m , Yt+1+m , . . . , Yt+k+m )
para cualquier t, k y m.

(3)

De esta expresi
on, y si los primeros momentos existen, se sigue que
E(Yt ) = E(Ytm ) =
E[(Yt )2 ] = E[(Ytm )2 ] = 0

(4)

E(Yt )(Ytk ) = E[(Yt+m )(Yt+k+m )] = k


Definici
on 6 : Estacionariedad en el Sentido Amplio o d
ebil
A partir del concepto de estacionariedad en sentido estricto, se derivan tres propiedades
1.

Las esperanzas matem


aticas de las variables aleatorias no dependen del tiempo, es decir,
son constantes
E(Yt ) = E(Yt+m ) =

Las varianzas tampoco dependen del tiempo y son finitas, es decir,


V ar(Yt ) = V ar(Yt+m ) <
t2 = 2

3.

(5)

t =
2.

(6)

Las covarianzas entre dos periodos de tiempo distintos solamente dependen del lapso de
tiempo transcurrido entre estos dos periodos, esto es
Cov(Yt , Yt0 ) = Cov(Yt+m , Yt0 +m )
t,s = |ts|

(7)

t, s

La estacionariedad fuerte implica estacionariedad debil pero no viceverza.


En el caso de una distribucion normal, coincidiran ambos tipos de estacionariedad.

3.
3.1.

Funciones de Autocovarianza y de autocorrelaci


on
Funci
on de Autocovarianza

Denominaremos por autocovarianza de orden j (j ) a la covarianza separada j periodos de la


misma serie temporal.
j = Cov(Yt , Ytj ) = E[(Yt )(Ytj )]
5

(8)

si j = 0 obtenemos
0 = E[(Yt )2 ] = V ar(Yt ) = 2

(9)

Al conjunto de Autocovarianzas obtenidas para los distintos valores de j se define como funci
on
de autocovarianza
Por tanto, en un proceso estocastico estacionario la funcion de autocovarianza cumple con las
propiedades
i.) |j | 0
ii.) j = j simetra

3.2.

Funci
on de Autocorrelaci
on

La funcion de autocorrelacion de orden j, (j ) es la correlacion separada j periodos de la misma


serie temporal.
Cov(Yt , Ytj )
j
p
=
0
V ar(Yt ) V ar(Ytj )

j = Corr(Yt , Ytj ) = p

(10)

Al conjunto de autocorrelaciones obtenidas para los distintos valores de j se le denomina funci


on
de autocorrelaci
on con las siguientes propiedades
i.) 0 = 1
ii.) |j | 1
iii.) j = j simetra
iv.) Limj j = 0 Condicion de Ergodicidad
Es decir, trabajamos con procesos estocasticos estacionarios y ergodicos
Intuitivamente podemos decir que la ergodicidad posibilita obtener estimadores consistentes de
los parametros del proceso.

3.3.

Funci
on de Autocorrelaci
on Parcial

Este concepto es similar al de autocorrelacion entre Yt y Ytj , salvo porque se mide dicha
correlacion ajustada por el efecto de los retardos intermedios

En la Corr(Yt , Ytj ) se elimina la influencia de las variables Yt1 , Yt2 , . . . , Yt(j1) , mientras que
en la funcion de autocorrelacion parcial denotada como (j ), la correlacion esta condicionada a
las variables Yt1 , Yt2 , . . . , Yt(j1) , luego definimos
Cov[(Yt Yt ), (Ytj Ytj )]
q
j = Corr[(Yt Yt ), Ytj Ytj ] = q
V ar(Yt Yt ) V ar(Ytj Ytj )

(11)

donde Yt y Ytj son las mejores predicciones lineales en el sentido de mnimo error cuadratico
medio de Yt y Ytj como funciones lineales de Yt1 , Yt2 , . . . , Yt(j1) .
Cumpliendose que
j =

j 1 j1 2 j2 j1 1
0 1 1 2 2 j1 j1

(12)

Para demostrar la ecuacion (12) escribimos Yt como


Yt = 1 Yt1 + 2 Yt2 + + j1 Ytj+1
donde 1 , 2 , . . . , j1 son los coeficientes de regresion que minimizan
E[(Yt Yt )2 ] = E[(Yt 1 Yt1 2 Yt2 j1 Ytj+1 )2 ]

(13)

Minimizando (13) se obtiene


E[(Yt Yt )2 ]
=0
i

1ij1

E[Yt1 (Yt 1 Yt1 2 Yt2 j1 Ytj+1 )] = 0


E[Yt2 (Yt 1 Yt1 2 Yt2 j1 Ytj+1 )] = 0

E[Ytj+1 (Yt 1 Yt1 2 Yt2 j1 Ytj+1 )] = 0


Luego, multiplicando termino a tertmino en cada ecuacion y despejando se obtiene
1 = 1 0 + 2 1 + + j1 j2
2 = 1 1 + 2 2 + + j1 j3

(14)

j1 = 1 j2 + 2 j3 + + j1 0
el sistema (14) puede expresarse genericamente como
i = 1 i1 + 2 i2 + + j1 ij+1
7

1ij1

(15)

Dividiendo a ambos lados por 0 se obtiene


i = 1 i1 + 2 i2 + + j1 ij+1

1ij1

(16)

luego, la ecuacion (16) puede escribirse como un sistema de ecuaciones


1
2
..
.

1
1
..
.

1
1
..
.

2
1
..
.

..
.

j2 j3 j4

j1

j2
j3
..
.
1

1
2
..
.

(17)

j1

Por otro lado, analogamente Ytj puede escribirse como


Ytj = 1 Yt1 + 2 Yt2 + + j1 Ytj+1
donde 1 , 2 , . . . , j1 son los coeficientes de regresion que minimizan
E[(Ytj Ytj )2 ] = E[(Ytj 1 Ytj+1 2 Ytj+2 j1 Yt1 )2 ]

(18)

Operando como antes se obtiene


1
2
..
.

1
1
..
.

1
1
..
.

2
1
..
.

..
.

j2 j3 j4

j1

j2
j3
..
.
1

1
2
..
.

(19)

j1

y comparando estos dos sistemas de ecuaciones se obtiene que i = i 1 i j 1.


De acuerdo con estos resultados se tiene
i.) var(Yt Yt ) = var(Ytj Ytj ) = 0 1 1 2 2 j1 j1
ii.) Cov(Yt Yt )(Ytj Ytj ) = j 1 j1 2 j2 j1 1

(20)
(21)

falta demostrar los item i.) y ii.)


Por lo tanto, reemplazando (20) y (21) en (11) se obtiene
j

=
=

j 1 j1 2 j2 j1 1
0 1 1 2 2 j1 j1
j 1 j1 2 j2 j1 1
0 1 1 2 2 j1 j1

(22)

Los coeficientes de autocorrelacion parcial pueden expresarse en funcion


unicamente de los
coeficientes de autocorrelacion.
8

Luego debemos obtener los valores de 1 , 2 , . . . , j1 de (4). Aplicando regla de Cramer al


sistema de ecuaciones se obtiene
1
1
..
.
i =

1
1
..
.

..
.

i1
i2
..
.

j1 j2
1
1
..
.

..
.

1
1
..
.

1
2
..
.

..
.

ji j1 ji2
i1
i2
..
.

j1 j2

i+1
i+2
..
.

i
i1
..
.

i+1
i+2
..
.

..
.

ji ji1 ji2

j2
j3
..
.
1
j2
j3
..
.

(23)

reemplazando (23) en (4) y multiplicando tanto numerador como denominador de (4) por
1
1
..
.

1
1
..
.

..
.

2
1
..
.

j1 j2 j3

j2 j1
j3 j2
..
..
.
.
1
1

se obtiene que
1
1
..
.
j =

1
1
..
.

2
1
..
.

..
.

j2 1
j3 2
..
..
.
.
1 j

j1 j2 j3
1
1
..
.

1
1
..
.

2
1
..
.

..
.

j2 j1
j3 j2
..
..
.
.
1
1

j1 j2 j3
Ejemplo 1 : Supongamos j = 3
3 =

3 1 2 2 1
1 1 1 2 2

De la ecuaci
on (16) se tiene que 1 i j 1
1 = 1 0 + 2 1
2 = 1 1 + 2 0
1
1 1

=
1
2
1 1
2

1 =

1 1
2 1

2 =

1 1
1 1
9

1 1
1 2
1 1
1 1

(24)

3 =

1 1
1 1
1 2
2 1
1 1
2
1
3
1 1
1 1
1 1
1 1
1 1
1 1
1 1
2 1
1 2
1 1
1
1
2
1 1
1 1
1 1
1 1
1 1

El coeficiente de autocorrelacion parcial puede derivarse tambien como sigue. Consideremos el


modelo de regresion con variable dependiente Yt y variables explicativas Yt1 , Yt2 , . . . , Ytj ; es
decir:
Yt = j1 Yt1 + j2 Yt2 + + jj Ytj + ut

(25)

donde E(Yti ut ) = 0. Luego, multiplicando a ambos lados de (25) por Yti y tomando esperanza
matematica se obtiene
i = j1 i1 + j2 i2 + + jj ij

(26)

y dividiendo (26) a ambos lados por 0 se obtiene


i = j1 i1 + j2 i2 + + jj ij

i = 1, 2, , j

(27)

1 = j1 0 + j2 1 + + jj j1
2 = j1 1 + j2 0 + + jj j2

(28)

= j1 j1 + j2 j2 + + jj 0

aplicando regla de cramer al sistema de ecuaciones se obtiene

4.

Funciones de Autocovarianza y de Autocorrelaci


on mu
estrales

Cuando un proceso estocastico es estacionario los parametros que caracterizan el mismo pueden
estimarse a partir de una sola realizacion de la serie.
Supongamos dada una serie temporal de T observaciones Y1 , Y2 , . . . , YT , luego

10

4.1.

Media muestral

El estimador de la media = E(Yt ) de un proceso estacionario sera la media muestral


T
1X
Y =
Yt
T

(29)

t=1

la cual cumple las propiedades


1.

Insesgamiento
E(Y ) =
Prueba

(30)

T
1X
1

E(Y ) =
E(Yt ) = T =
T
T
t=1

2.

Consistencia: Esta se cumple cuando


lm

T
X

(1

t=1

i
) i
T

(31)

es finito
esta condicion se cumplira siempre que el proceso estocastico, ademas de estacionario sea ergodico
Para demostrar esta propiedad basta probar
i.) Y asintoticamente es insesgado
ii.) lmT V ar(Y ) = 0
Demostracion de i.) identica a la demostracion de 1.)
Demostracion de ii.)

4.2.

Funci
on de Autocovarianza muestral

El estimador de la autocovarianza poblacional es


Cj

T
1 X
(Yt Y )(Ytj Y )
T

(32)

T
X
1
(Yt Y )(Ytj Y )
T j

(33)

t=j+1

Cj1

t=j+1

11

Para su demostracion tengamos en cuenta que


T
X

(Yt Y )(Ytj Y )
=

t=j+1

T
X

(Yt )(Ytj ) (T j)(Y )2

(34)

t=j+1

E(Cj )
=

T
1 X
E[(Yt )(Ytj ) (T j)(Y )2 ]
T
t=j+1

=
E(Cj1 )
=

j
T j
1
[(t j)j (T j)0 ] = j j
0
T
T
T
T
X
1
E[(Yt )(Ytj ) (T j)(Y )2 ]
T j
t=j+1

T
X
1
E[(Yt )(Ytj )] (T j)E[(Y )2 ]
T j
t=j+1

= j V ar(Yt )
Del resultado puede verse que ambos estimadores son sesgados, donde el de Cj1 tendra un sesgo
inferior
Si el proceso es estacionario y ergodico se cumple que
lm E(Cj ) = lm E(Cj1 ) = j

Ademas bajo la hipotesis de normalidad, es decir, si {Yt } es un proceso Gaussiano. Bartlett


(1946) demostro que
V ar(Cj )
=
V ar(Cj1 )
=

1
T

(i2 + i+j ij

i=inf ty

1
T j

(i2 + i+j ij

(35)

(36)

i=inf ty

De aqu podemos ver que E(Cj ) < E(Cj1 )


Teniendo en cuenta que si T es peque
no respecto a j el sesgo es de tener en cuenta.
Aun as se recomienda calcular solamente alrededor de T /4 autocovarianzas muestrales.
Al conjunto de autocovarianzas muestrales obtenidas para distintos valores de j forman la funci
on
de autocovarianza muestral.
Finalmente, el estimador de la varianza del proceso 0 sera la varianza muestral C0 definida
como

T
1X
C0 =
(Yt Y )2
T
t=1

12

(37)

4.3.

Funci
on de Autocorrelaci
on muestral

El estimador de j denotado por rj es la autocorrelacion muestral


Cj
=
j =
C0

PT

t=j+1 (Yt Y )(Ytj


PT
2
t=1 (Yt Y )

Y )

(38)

El conjunto de las autocorrelaciones muestrales obtenidas para distintos valores de j constituyen la funcion de autocorrelacion muestral. La representacion grafica de esta se conoce como
Correlograma muestral.

4.4.

Funci
on de Autocorrelaci
on parcial muestral

Las autocorrelaciones parciales muestrales jj , estimaciones de las autocorrelaciones parciales


se calcularan reemplazando las autocorrelaciones j por sus estimadores rj .
Un metodo recursivo para calcular jj desarrollado por Durbin (1960), el cual consiste en comenzar con
jj

= r1

j+1,j+1 =

y continuar con
Pj
r1 i=1 ji rj+1i
P
1 j ji ri

(39)

i=1

j+1,i = ji j+1,j+1 j,j+1i

i = 1, 2, . . . , j

La representacion grafica de la funcion de autocorrelacion parcial muestral se denomina Autocorrelograma parcial.

13

Anda mungkin juga menyukai