Temporais
MAURICIO ZEVALLOS
Universidade Estadual de Campinas
amadeus@ime.unicamp.br
Copyright 2013
Sumario
1 Introducao
1.1 Series
Temporais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Caractersticas Empricas . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
2
.
.
.
.
.
3
3
4
7
8
9
3 Processos Estacionarios
3.1 Definico es . . . . . . . . . . . . . . . . .
3.2 Inferencia
. . . . . . . . . . . . . . . . .
de Autocorrelacao
Parcial . . .
3.3 Funcao
3.4 Processos Lineares e Teorema de Wold
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
14
18
20
4 Modelos ARMA
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
28
32
34
34
5 Modelagem ARMA
5.1 Analise
Exploratoria
. . . . .
5.2 Identificacao
. . . . . .
5.3 Estimacao
5.4 Diagnostico
. . . . .
de Modelo .
5.5 Selecao
5.6 Aplicaco es . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
36
36
36
37
37
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Series
Temporais
7 Previsao
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1 Introducao
em Processos Autoregressivos . . . . . . . . . . . .
7.2 Previsao
em Processos de Media Movel e ARMA . . . . . . .
7.3 Previsao
com amostra infinita em processos estacionarios
7.4 Previsao
.
em Processos ARIMA e SARIMA . . . . . . . . . . . .
7.5 Previsao
7.6 Comportamento a longo prazo . . . . . . . . . . . . . . . . .
7.7 Criterios para comparar modelos em termos de previsoes .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
50
50
50
50
50
51
51
52
iii
Captulo 1
Introducao
1.1
Series
Temporais
1.1.1
Objetivos
Series
Temporais
1.2
1.2.1
Caractersticas Empricas
Tendencia
1.2.2
Sazonalidade
1.2.3
Ciclos
1.2.4
1.2.5
Captulo 2
Modelos Simples de
Tendencia
e Sazonalidade
2.1
Introducao
(2.1)
(2.2)
Series
Temporais
(2.3)
2.2
(2.4)
Modelos de Regressao
(2.5)
(2.6)
2. Testes de hipoteses
3. R2 ajustado, criterios AIC,BIC
Outras especificaco es alternativas sao as funco es nao lineares em t, como por exemplo
a exponencial. Nestas situaco es a estimaca o e realizada usando metodos numericos.
Exemplo 2.1 GNP USA
Agora, vamos supor que trabalhamos com o modelo que possui somente sazonalidade,
Yt = + St + t .
(2.7)
Supondo que temos dados trimestrais, uma forma simples de especificar a sazonalidade e
St = i
t i-esimo trimestre,
i = 1, 2, 3, 4
(2.8)
onde
1 + 2 + 3 + 4 = 0.
(2.9)
Series
Temporais
(2.10)
(2.11)
(2.12)
(2.13)
(2.14)
2.2.1
Regressao Harmonica
harmonica
e definir
St = A sin(2t + )
= a sin(2t) + b cos(2t)
(2.15)
(2.16)
Series
Temporais
Exemplo 2.3 Vendas de cerveja. A serie de vendas trimestrais de cerveja apresenta um comportamento sazonal cada 4 trimestres. Portanto o ciclo e de 4
trimestres P = 4, e = 1/4 (un ciclo cada 4 trimestres). Segundo o discutido
anteriormente, um modelo plausvel e
yt = 0 + 1 t + 2 sin(2t) + 3 cos(2t) + t
Quando ha k periodicidades com frequencias: 1 , . . . , k
St =
k n
X
o
aj sin(2j t) + bj cos(2j t)
(2.17)
j=1
(2.18)
+ 4 sin(2t/72) + 5 cos(2t/72) + t .
Modelagem
Especificaca o: primeiro determinamos as frequencias j . Uma das ferramentas para fazer isto e o periodograma.
Estimaca o: os parametros j sao estimados por quadrados mnimos.
2.2.2
Acerca da significancia
dos coeficientes
Series
Temporais
Transformaco es
2.3
Sao uteis
para: (i) estabilizar a variabilidade e ou (ii) simetrizar a distribuica o.
1
(2.19)
(2.20)
capitulo.
Series
Temporais
2.4
Suavizacao
(2.21)
k
X
cj yt+j ,
t = k + 1, . . . , n k
(2.22)
j=k
P
onde os pesos cj satisfazem kj=k cj = 1. Observe que perdemos k observaco es
tanto no incio quanto no final. Se supormos que cada observaca o tem igual peso
na suavizacao entao
k
1 X
m t =
yt+j ,
2k + 1
t = k + 1, . . . , n k
(2.23)
j=k
2.4.1
(2.24)
Um Metodo
Simples de Decomposicao
(2.25)
Series
Temporais
(2.26)
2.5
2.5.1
Notas
Criterios
de Escolha de Modelos
2k + n
n
BIC = ln(k2 ) +
k ln(n)
n
Schwarz,
Escolhemos o modelo com menor AIC e ou BIC. E prefervel usar o BIC. Lembre
que o modelo escolhido poderia nao ser adequado.
Series
Temporais
2.5.2
Outros metodos
de suavizacao
Medianas Moveis
t = k + 1, . . . , n k
(2.27)
|u| < 1,
(2.28)
2 2
|u| < 1,
(2.29)
(u) = (1 |u| ) ,
(2.30)
10
Captulo 3
Processos Estacionarios
3.1
Definico es
Definica o 3.1 Um processo estocastico e uma familia de variaveis aleatorias {Yt ; t C}.
Se C = [0, ) o processo e de Tempo continuo,
Se C = {1, 2, . . . , } o processo e de Tempo discreto.
Definica o 3.2 Uma serie temporal e uma realizaca o de um processo estocastico, isto
e, corresponde a` ocorrencia de um dos possiveis resultados .
t
X
(3.1)
i=1
= Yt1 + t
(3.2)
Definica o 3.3 A distribuica o conjunta (finita) do processo estocastico esta dada por:
Ft (y) = P (Yt1 y1 , . . . , Ytn yn ),
y = (y1 , . . . , yn )
(3.3)
onde t = (t1 , . . . , tn ). No caso que F seja Normal Multivariada dizemos que o processo e
Gaussiano.
11
Series
Temporais
r, s T
(3.4)
(3.5)
12
Series
Temporais
Demonstraca o. Partes (a) e (c) sao obvias. Parte (b) e uma consequencia da desigualdade de Cauchy-Schwarz. Para a Parte (d) note que 0 V ar(a> y) = a> V ar(y)a,
onde V ar(y) e uma matriz com elementos (|i j|).
13
Series
Temporais
3.2
Inferencia
a autocovariancia amostral
b) ck = nk
i=1 (Yi Y )(Yi+k Y )/n e
c) rk = ck /c0 e a autocorrelaca o amostral
O grafico de rk versus k se denomina correolograma ou grafico da funca o de
autocorrelaca o amostral. Note que nao podemos calcular a FAC amostral para
quaisquer defasagem. De fato, se temos n dados so dispomos de (n 1) pares
(Yi , Yi+1 ) e de um par (Yn , Yn1 ). Alem disso, com puocos pares as estimaco es nao
sao precissas. Portanto temos regras como: nao avaliar rk para k > n/3, ou segundo
Box-Jenkins
considerar k n/4 com pelo menos n = 50 observaco es, ou avaliar para
k n.
No R a funca o acf calcula a FAC de uma serie. Por defeito considera X defasagens.
Na analise e necessario que voce considere o numero de defasagens de acordo com
o tamanho da serie segundo as recomendaco es anteriores.
Exemplo 3.8 Em uma serie temporal com 84 observaco es sao calculadas as seguintes
autocorrelaco es:
O grafico da FAC e.
k
rk
1
-0.67
2
0.43
3
-0.24
4
0.09
5
0.04
6
-0.12
7
0.14
8
-0.09
9
0.04
10
0.09
As autocovariancias e autocorrelaco es amostrais podem ser calculadas para qualquer conjunto de dados y1 , . . . , yn , nao somente para observaco es provenientes de
procesos estacionarios. Mesmos que a FAC nao tenha interpretaca o para processos nao estacionarios, a FAC fornece informaca o muito valiosa para entender a
estrutura de dependencia da serie, por exemplo para identificar tendencia e ou
sazonalidade.
Exemplo 3.9
14
Series
Temporais
3.2.1
V ar(Y ) =
(0) X 2(n k)
(k)
+
n
n2
k=1
n1
X
(0)
2(n k)
1 +
(k)
n
n
(3.6)
(3.7)
k=1
onde FIV = 1 +
Pn1 2(nk)
k=1
n1
n 1 + 2
Por exemplo se n = 100 e = 0.8 entao FIV = 1.966. Isto e, a variancia e quase 2 vezes
a variancia supondo independencia!
Se quisermos encontrar intervalos de confianca para podemos trabalhar com
a distribuica o assintotica
de Y . Sob determinadas condico es esta distribuica o e
normal, veja por exemplo Brockwell and Davis (1991).
Com respeito a` s propriedades de ck , sob determinadas condico es,
!
!
k
k
E(ck ) 1 (k) 1 V ar(Y ).
n
n
(3.8)
15
Series
Temporais
um dos motivos pelos quais e aconselhavel calcular ck para valores de k n/4 (Wei
pp 19).
Um estimador alternativo para (k) e
nk
ck =
1 X
(Yi Y )(Yi+k Y ).
nk
i=1
Em geral, este estimador apresenta menor vies do que ck . No entanto, nem sempre e
semidefinido positivo, enquanto que ck sim. Por este motivo e sendo ck consistente,
preferimos ck .
Sob determinadas condico es, os estimadores rk sao consistentes. Em geral obter
a distribuica o de rk e muito dificil mesmo para modelos simples. Entao temos
assintotica
do vetor (r1 , . . . , rs ) e normal multivariada, onde a matriz de covariancia
em geral nao e diagonal. Portanto, haveria correlaca o entre ri e rj e esta poderia ser
grande. Veja por exemplo Brockwell and Davis (1991) e Harvey (1990). No entanto,
3.2.2
Na analise exploratoria,
um dos principais graficos e a FAC amostral. Da Proposica o
3.3, se os dados sao independentes, para uma defasagem fixa k, a distribuica o
assintotica
de
rk e normal, k AN (0, 1/n). Assim, os limites de confianca 95%
sao +, , 1.96 n. Desta forma, no grafico da FAC esperariamos que a maioria das
autocorrelaco es esteja dentro desses limites. Na pratica, no entanto, se os dados
sao ruido branco, espera-se que 1 em 20 autocorrelaciones esteja fora dos limites
16
Series
Temporais
considerando a hipotese
nula H0 : 1 = . . . = 10 = 0, a significancia seria igual ao
produto das 10 significancias obtidas.
Testes de Portmanteau
Pode acontecer que as autocorrelaciones estimadas sejam individualmente pequenas mas a soma destas nao ser pequena. Isto nao deveria ocorrer se os dados fossem
gerados por um ruido branco. Para docimar H0 : 1 = . . . = m = 0 conjuntamente,
Box e Pierce (197?) propuseram o seguinte teste:
Q(m) = n
m
X
rk2 .
(3.9)
k=1
Este resultado esta baseado novamente na Proposica o 3.3. Ja que sob H0 , nrk
Q(m) = n(n + 2)
m
X
(3.10)
k=1
Como
especificar m?. Por um lado, m nao pode ser pequeno pois interessa avaliar
varias correlaco es. Por outro lado, a medida que m aumenta em relaca o ao tamanho
da amostra n, a qualidade da distribuica o aproximada deteriora-se. Entao temos
que tomar um valor de compromisso entre
significancia (m grande) e poder (m
pequeno). Um valor razoavel seria m = n, mas nas aplicaco es e conveniente
calcular a estatstica para varios valores de m.
Exemplo 3.11 A partir de uma serie temporal com 100 observaco es sao calculadas as
seguintes autocorrelaco es.
Nografico da FAC vemos que as autocorrelaco es 6 (quase) e 10 estao fora dos limites
2/ 100 = 0.2. Assim, nao teriamos evidencia contra a hipotese de nao-correlaca o.
17
Series
Temporais
k
rk
k
rk
1
0.06
11
0.10
2
-0.12
12
0.05
3
0.01
13
0.01
4
-0.10
14
-0.02
5
-0.12
15
-0.10
6
-0.19
16
-0.08
7
0.09
17
0.09
8
-0.07
18
-0.02
9
0.07
19
0.00
10
0.27
20
-0.01
Por outro lado, na seguinte tabela temos os resultados do teste de Portmanteau para
diversos valores de m.
m
4
8
12
16
20
Q(m)
2.94
9.84
20.08
22.12
23.18
Valor-P
0.43
0.72
0.93
0.86
0.72
3.3
de Autocorrelacao
Parcial
Funcao
3.3.1
18
Series
Temporais
(3.11)
(3.12)
(3.13)
(0) (1) . . . (k 1)
(0) . . . (k 2)
..
(0)
k1
k2
..
.
kk
(1)
(2)
=
..
.
(k)
(3.14)
kk =
(0) (1) . . . (k 2) (k 1)
(0) . . . (k 3) (k 2)
..
.
(1)
(0)
(3.15)
da ultima
coluna que e o vetor de correlaco es (do lado direito) de (3.15). Por
exemplo,
(1)
1
(1) (2)
22 =
(3.16)
(1)
1
(1)
1
Exemplo: no Ruido Branco, kk = 1 quando k = 0 e zero em outro caso. Isto
pode ser comprovado a partir de (3.13) onde Yt = Yt+k = 0 ou a partir de
(3.15).
19
Series
Temporais
(k + 1)
Pk
Pk
j=1 kj (k + 1 j)
j=1 kj (j)
k = 1, . . . ,
j = 1, . . . , k
(3.17)
(3.18)
(2) 2 (1)
,
1 2 (1)
= 11 22 11
(3) 21 (2) 22 (1)
=
,
1 21 (1) 22 (2)
(3.19)
(3.20)
(3.21)
(3.22)
3.3.2
k (1 2 )
1 2(k+1)
(3.23)
Estimacao
Para estimar a FACP, estimamos primeiro as autocorrelaco es e depois calculamos as correlaco es parciais, seja resolvendo o sistema (3.15) ou mediante o
algoritmo de Durbin-Levinson.
e o seguinte,
Para testar a hipotese
de Ruido Branco um resultado util
n kk N (0, 1).
(3.24)
3.4
20
Series
Temporais
Definica o 3.10 Una processo {Yt } e dito Processo Linear se para todo t temos a
seguinte representaca o:
Yt =
(3.25)
j tj
j=
j2 < .
(3.26)
j=
(3.27)
j tj .
j=0
Observaca o 3.1 A condica o (3.26) permite garantir que a soma infinita (3.25) convirja
em media quadratica (Teorema de Riesz-Fisher). No lugar de (3.26) outra condica o
P
geralmente utilizada e
a o o processo converge quase
j= |j | < . Sob esta condic
seguramente.
Duas classes importantes de processos lineares sao os,
ARMA, os quais satisfazem
j= |j | <
2
j= j
< mas
j= |j | =
(3.28)
= 0 B t + 1 B t + 2 B t + 3 B t + . . .
0
= (0 B + 1 B + 2 B + 3 B + . . .)t .
(3.29)
(3.30)
(3.31)
21
Series
Temporais
Portanto,
Yt = (B)t ,
onde (B) =
j B j
(3.32)
j=0
Assim, o polinomio (B) pode ser enxergado como um Filtro Linear, o qual, aplicado no processo de entrada {t } produz a saida {Yt }
Exemplo 3.12 Coeficientes j no AR(1) estacionario. Como (1 B)Yt = t entao
Yt = t /(1 B). Logo, ja que Yt = (0 B0 + 1 B1 + 2 B2 + 3 B3 + . . .)t entao,
1
= 0 B0 + 1 B1 + 2 B2 + 3 B3 + . . . ,
1 B
1 = (1 B)(0 B0 + 1 B1 + 2 B2 + 3 B3 + . . .).
Dois polinomios sao iguais se os respectivos coeficientes de Bk sao iguais para k = 0, 1, . . ..
Portanto
1 = 0
(3.33)
0 = 1 0 ,
0 = 2 1 ,
1 =
(3.34)
2
2 = ,
(3.35)
j Ytj
(3.36)
j=
j k Y ( + k j)
(3.37)
j= k=
22
Series
Temporais
(3.38)
j j+
j=
Demonstraca o. E(Xt ) = 0. e
Cov(Xt , Xt+ ) = Cov(
(3.39)
i j Cov(Yti , Yt+j ).
(3.40)
i=
j Yt+j )
i Yti ,
j=
i= j=
(3.41)
j expij t j ,
tZ
(3.42)
j=
23
Series
Temporais
2
j= j
j2 expij j ,
(3.43)
j=
X
Ut =
j tj
Vt =
j=0
j expij t j
j=
onde {t }, {t } sao ruidos brancos com esperanca zero e variancia finita; as sequencias
P
P 2
2
de constantes {j }, {j }, {j } satisfazem
j=0 j < , j=0 j < , j (, ], e as
componentes linear (Ut ) e singular (Vt )sao ortogonais, isto e Cov(Ut , Vt ) = 0.
24
Captulo 4
Modelos ARMA
Uma clase importante de procesos estocasticos saoos Procesos Autoregresivos de
Medias Moviles ARMA, propostos por Box & Jenkins. Estes modelos sao bastante
utilizados na analise de series temporais de diversas a reas do conhecimento.
Denotaremos a um ruido branco estrito com esperanca 0 e variancia 2 como
RB(0, 2 ). Adicionalmente, B e o operador de defasagem.
4.1
Procesos de Medias
Moveis
Definica o 4.1 Um processo de medias moveis de primer ordem com esperanca , denotado como MA(1), e definido como,
yt = + t + t1 ,
t RB(0, 2 ).
(4.1)
(1 + 2 ) si k = 0
2
si k = 1
(k) =
(4.2)
0
elsewhere,
1
si k = 0
2 ) si k = 1
/(1
+
(k) =
0
elsewhere,
(4.3)
Series
Temporais
>
>
>
>
>
>
eps = rnorm(201)
y = eps[2:201] + 0.8*eps[1:200]
z = eps[2:201] - 0.8*eps[1:200]
par(mfrow=c(2,1))
ts.plot(y,main="theta = 0.8")
ts.plot(z,main="theta = -0.8")
Quando = 0.8 temos correlaca o de ordem um positiva, de forma que valores grandes
(pequenos) conduzem a valores grandes (pequenos). Mas, se = 0.8 temos correlaca o
de ordem um negativa e, de forma que valores grandes (pequenos) conduzem a valores
pequenos (grandes). Isto e observado na Figura 4.1, na qual quando = 0.8 a serie e
mais aleatoria quando comparada com a serie com = 0.8.
-2 -1
theta = 0.8
50
100
150
200
150
200
Time
-2
theta = -0.8
50
100
Time
Exemplo 4.2 No processo MA(1) mostrar que determina de maneira u nica (1) mas
nao o contrario.
Definica o 4.2 O processo de medias moveis de ordem q com esperanca , denotado
como MA(q), e definido como,
yt = + t + 1 t1 + . . . + q tq ,
t RB(0, 2 ).
(4.4)
26
Series
Temporais
(1 + 12 + . . . + q2 ) si k = 0,
2 Pqk
(k) =
si k q
j=0 j j+k
0
outro caso
(4.5)
0.37
si k = 1
0.13
si k = 2
(k) =
(4.6)
0
si k = 3, 4, . . .
Na Figura 2 e mostrada uma simulaca o deste processo.
q
X
k Bk t ,
k=0
q
X
= (
0 = 1,
k Bk )t .
(4.7)
(4.8)
k=0
= (B)t ,
(4.9)
27
Series
Temporais
4.2
Processos Autoregresivos
variaveis explanatorias
sendo defasagens desta, isto e , yt1 , yt2 , . . . entao temos um
modelo autoregressivo. Formalmente temos a seguinte definica o.
Definica o 4.3 O processo {yt } e denominado autoregresivo de ordem p, denotado
como AR(p), se
a) {yt } e estacionario.
b) {yt } satisfaz
yt = 1 yt1 + 2 yt2 + . . . + p ytp + t ,
(B)yt = t
(4.10)
(4.11)
e unica)
se e somente se as razes do polinomio autoregressivo
(z) = 1 z 2 z2 . . . p zp
nao estao no circulo unitario. Isto e se as razes da equaca o (z) = 0 satisfazem
|z| , 1.
Adicionalmente, estamos interessados em processos que sejam Causais, isto e ,
processos que possam ser escritos como
Yt =
j tj ,
j=0
|j | <
(4.12)
j=0
j tj , t+k
(4.13)
Cov(Yt , t+k ) = Cov
j=0
X
j=0
j Cov(tj , t+k )
(4.14)
j (k + j)
(4.15)
j=0
28
Series
Temporais
= 0,
(4.16)
4.2.1
AR(1)
O processo AR(1)
yt = yt1 + t
(4.17)
(4.18)
(4.19)
i=0
como || < 1 entao o primeiro termo vai para zero2 quando k e entao obtemos
P
j
Yt =
j=0 tj .
Exemplo 4.4 Seja o processo AR(1) com = 0.7. Entao,
Yt = t + 0.7t1 + 0.49t2 + 0.343t3 + 0.2401t4 + . . .
(4.20)
29
Series
Temporais
Yt (4.17). Entao E(Yt2 ) = E(Yt Yt1 ) + E(Yt t ), isto e (0) = (1) + E(Yt t ).
Mas, de t (4.17) e tomando esperanca, E(t Yt ) = E(t Yt1 ) + E(2 ). Sendo o
processo causal entao E(t Yt1 ) = 0 e assim E(Yt t ) = 2 . Consequentemente,
(0) = (1) + 2
(4.21)
(4.22)
2
1 2
(4.23)
(4.24)
k 1,
(4.25)
e portanto (k) = k .
Exemplo 4.5 Na Figura 4.3 sao mostradas duas series simuladas de processos AR(1).
Em (a) consideramos = 0.7 e em (c) consideramos = 0.7. Comentar acerca do
comportamento das series e das FAC amostrais.
Definica o 4.4 Dizemos que {Yt } e um processo AR(1) com esperanca se o processo
{Yt } e um processo AR(1).
Definica o 4.5 Dizemos que {Yt } e um processo AR(1) com drift se,
Yt = + Yt1 + t
(4.26)
(4.27)
30
Series
Temporais
0.4
-0.2
-3
0.0
-2
0.2
-1
ACF
0.6
0.8
1.0
50
100
150
200
10
15
Time
Lag
20
ACF
0.0
0
-3
-0.5
-2
-1
0.5
1.0
50
100
150
200
Time
10
15
20
Lag
k
X
i ti
(4.28)
Yt =
+
i ti ,
1
(4.29)
Yt =
i=0
i=0
entao quando k ,
i=0
de forma que E(Yt ) = = /(1 ) e portanto {Yt } e AR(1) com esperanca (4.27).
Outra forma de encontrar a esperanca e tomando valor esperado em (4.26). Se o
processo e estacionario entao de E(Yt ) = + E(Yt1 ) + E(t ) obtemos = + e
de aqui igual a (4.27).
4.2.2
AR(2)
(4.30)
31
Series
Temporais
(4.31)
4.3
Processos ARMA
(4.32)
onde os polinomios autoregressivo e de media movel, (B) e (B), nao possuem fatores
comuns.
O processo {Yt } e um processo ARMA(p, q) com media se {Yt } e um processo ARMA.
Observaca o 4.1 Fatores comuns nos polinomios significa raizes comuns. Por exemplo
se (B) = (B) = 1 0.7B
Vemos que para que um processo seja ARMA, este precissa ter uma soluca o estacionaria. O seguinte resultado fornece as condico es para isso.
Proposica o 4.2 Existencia e Unicidade
A equaca o (4.32) possui uma soluca o estacionaria (que e unica) se e somente se as raizes
de (z) = 0, digamos , satisfazem || , 1
Exemplo 4.7 O processo Yt = 0.6Yt1 0.08Yt2 +t 0.2t1 e na verdade um processo
AR(1) Yt = 0.4Yt1 + t que e estacionario.
Estamos interessados em processos ARMA(p, q) causais, de forma que tenham
expansao MA(). As condico es sao as seguintes:
Proposica o 4.3 Causalidade
O processo ARMA(p, q) e causal se as raizes de (z) = 0, digamos , estao fora do circulo
unitario, i.e || > 1
32
Series
Temporais
Por outro lado, e importante, por exemplo em termos de previsao, que o processo
ARMA possa ser escrito na forma AR(),
t = 0 Yt + 1 Yt1 + 2 Yt2 + 3 Yt3 + . . . ,
= (B)Yt ,
(4.33)
(4.34)
onde
(B) = 0 + 1 B + 2 B2 + 3 B3 + . . . ,
|j | <
(4.35)
(B) = (B)(B).
(4.36)
(B) = (B)(B).
(4.37)
Note que os processos MA(q) sempre sao causais e os processo AR(p) sempre sao
inversveis.
Exemplo 4.8 Seja o processo ARMA(1,1)
Yt = 10 + 0.8Yt1 + t 0.5t1
(4.38)
0.5k ytk
(4.39)
k=0
(4.40)
33
Series
Temporais
4.4
Estrutura de Dependencia
nos processos ARMA
j=0 j tj
FAC
FACP
4.5
AR(p)
decaimento
exponencial
zero depois da
defasagem p
MA(q)
zero depois da
defasagem q
decaimento
exponencial
ARMA(p, q)
decaimento
exponencial
decaimento
exponencial
Notas
kl
1
m1
!k
+ c2
1
m2
!k
1
m
k
34
Series
Temporais
= arcCos
= arcSen
r
r
onde as constantes sao determinadas a partir das condico es inicias (l 1), (l 2)
35
Captulo 5
Modelagem ARMA
5.1
Analise
Exploratoria
5.2
Identificacao
5.3
Estimacao
5.4
Diagnostico
m
X
2 (i)
e
i=1
36
ni
(5.1)
Series
Temporais
Sob a hipotese
nula de ausencia de correlaca o, Q(m) mk
onde k = p +q =numero
de parametros i e j . Caso houver estrutura de correlaca o, postular outro modelo.
Outros aspectos que precissam ser avaliados sao: homocedasticidade dos residuos,
normalidade (quando for assumido distribuica o Gaussiana) e examinar se ha
valores atpicos (outliers1 ).
5.5
de Modelo
Selecao
(5.2)
(5.3)
(5.4)
5.6
Aplicaco es
Exemplo 5.1 Serie W7 de Wei: yearly number of lynx pelts sold by the Hudsons Bay
Company in Canada between 1857 and 1911.
E estimado um modelo ARMA(2,1) com media no logaritmo da serie. O resultado e
(1 1, 53B + 0, 91B2 )(ln(yt ) 9, 81) = (1 0, 60B)t
A saida do programa Gretl e a seguinte3 .
Modelo 1: ARMA, usando as observacoes 18571911 (T = 55)
Variavel dependente: l v1
Erros padrao baseados na Hessiana
const
1
2
1
Coeficiente
Erro Padrao
p-valor
9,81495
1,52577
0,913413
0,605412
0,0484385
0,0553305
0,0482659
0,107868
202,6271
27,5756
18,9246
5,6125
0,0000
0,0000
0,0000
0,0000
1 Isto pode ser feito utilizando testes de outliers ou de maneira informal identificando os residuos
padronizados com valores maiores (em modulo) a 3 ou 4
2 No R, usando o commando sarima, k = p + q + 1 quando a media e estimada.
3 Escolher opcao por defeito, isto e ML incluindo constante
37
Series
Temporais
Log da verossimilhanAa
Criterio de Schwarz
9, 803051
0, 005865
19, 71207
59, 46081
0, 881952
0, 336084
49, 42414
53, 30540
ajustado
efetivo
l_v1
10,5
10
9,5
9
8,5
8
const
1
2
1
Coeficiente
Erro Padrao
p-valor
0,0242693
0,987388
0,109131
0,834819
0,0664434
0,172959
0,0612202
0,164471
0,3653
5,7088
1,7826
5,0758
0,7149
0,0000
0,0747
0,0000
0,023617
0,000805
558,6512
1147,260
0,992319
0,977897
1127,302
1135,206
38
Series
Temporais
Real
Imaginaria
Modulo
Frequencia
AR
Raiz
Raiz
1
2
1, 1620
7, 8858
0, 0000
0, 0000
1, 1620
7, 8858
0, 0000
0, 0000
Raiz
1, 1979
0, 0000
1, 1979
0, 0000
MA
Temos raizes muito proximas: 1, 1620 e 1, 1979; portanto, o modelo poderia ser simplificado. Fazer o ajuste do modelo AR(1) e compare os dois ajustes. Qual modelo escolheria?
Fazer a analise completa incluindo diagnostico e comparando os criterios de informacao.
39
Captulo 6
Tendencia Estocastica
Lembrando o passeio ao acaso. Este processo esta definido como Yt = Yt1 + t para
t = 1, 2, . . . e consideremos que Y0 = c. Assim,
Yt = c + t1 + t2 + . . . + 1
e portanto E[Yt ] = c e V ar[Yt ] = (t 1) 2 . Isto e , trata-se de um processo nao
estacionario na variancia. Na Figura X mostramos uma serie simulada deste
t MA(1)
(6.1)
(6.2)
40
Series
Temporais
6.1.2
ARIMA
Definica o 6.1 Seja d um inteiro nao negativo, entao {Yt } e um processo ARIMA(p, d, q)
se Xt = (1 B)d Yt e um processo ARMA causal.
Da definica o, {Yt } e ARIMA(p, d, q) se satisfaz a equaca o em diferencas,
(B)(1 B)d Yt = (B)t ,
t RB(0, 2 )
(6.3)
onde (B) e (B) sao os polinomios autoregressivos (de grau p) e de media movel
(de grau q), respectivamente. Para satisfazer a condica o de causalidade, as razes
de (z) = 0 estao fora do circulo unitario.
1. {Yt } e estacionario se e somente se d = 0
2. Seja c uma constante, ja que (1 B)(Yt c) = Yt Yt1 = (1 B)Yt entao se
d 1 podemos introduzir uma constante em (6.4) e o processo Yt continua
satisfazendo a equaca o em diferencas. Exeto quando d = 0 a media do
processo {Yt } nao e determinada pela equaca o (6.4).
3. d e conhecido como o grau de diferenciaca o e Xt = (1 B)d Yt = d Yt e o
processo diferenciado (na modelagem, se y1 , . . . , yn sao as observaco es entao
xt = (1 B)d yt e a serie diferenciada.
Exemplo 6.1 Considere os processos
ARIMA(1,1,0): (1 0.8B)(1 B)Yt = t
ARIMA(0,1,1): (1 B)Yt = (1 0.75B)t
ARIMA(1,1,1): (1 0.9B)(1 B)Yt = (1 0.5B)t
Foram simuladas tres trajetorias destes processos. Comentarios
As series apresentam tendencia estocastica e as series diferenciadas (com d = 1)
parecem estacionarias.
As autocorrelaco es amostrais sao grandes e decaem muito divagar.
41
Series
Temporais
6.1.3
Modelagem ARIMA
t RB(0, 2 ),
(6.4)
e fazer o diagnostico.
Modelo estacionario ou nao estacionario? Na modelagem poderiamos ter como
candidatos um modelo ARMA e um modelo ARIMA. Qual escolher? Como sempre,
devemos considerar a natureza da serie analisada. Por exemplo, se as observaco es
correspondem a medidas de um processo controlado teria mais sentido ajustar um
modelo estacionario. Outro elemento a considerar e quais as consequencias em
termos de previsao. O comportamento a medio ou longo praco das previsoes dos
modelos ARMA e ARIMA e muito diferente.
Exemplo 6.2 Serie W5 de Wei: yearly cancer death rate (all forms, per 100000 population) of Pennsylvania between 1930 and 2000.
1 No Gretl, usar o metodo de estimaca
o por defeito
42
Series
Temporais
= 0, 333571 e
Estimando ARIMA(0,1,0) com constante obtemos: = 2, 05429, ep()
= 2, 790859
Exemplo 6.3 Serie W6 de Wei: yearly US tobacco production from 1871 to 1984
Seja yt a serie, estimamos ARIMA(0,1,1) com constante no ln(yt ) e obtemos: =
= 0, 00482235, = 0, 688905, ep()
= 0, 0686734 e = 0, 161523.
0, 0142574, ep()
ajustado
efetivo
ln(y_t)
7
6,5
6
5,5
5
6.2
Modelos SARIMA
6.2.1
Comecamos discutindo o seguinte exemplo: interesa modelar a serie de dados composta pelas vendas trimestrais de sorvete. Usualmente observa-se que as maiores
vendas acontecem nos veroes e as menores vendas nos invernos. Adicionalmente,
observa-se que as vendas nos veroes estao correlacionadas e o mesmo acontece com
em tempos multiplos
de s = 4. Entao seria conveniente ter um modelo que explique
43
Series
Temporais
Ps
(6.6)
2s
Qs
(6.7)
(B ) = 1 1 B 2 B . . . P B ,
s
(6.5)
2s
(B ) = 1 + 1 B + 2 B + . . . + Q B .
Note que este processo e como um processo ARMA mas com operadores definidos
em multiplos
de s. Asim, o processo SARMA e causal somente quando as raizes
do polinomio (zs ) estao fora do crculo unitario e e inversvel somente quando as
raizes do polinomio (zs ) estao fora do crculo unitario.
Exemplo 6.4 O modelo SARMA(1,0)12 esta definido como
(1 1 B12 )yt = t ,
(6.8)
yt = 1 yt12 + t .
(6.9)
/(1 12 )
si k = 0
2 k
2
(k) =
(6.10)
1 /(1 1 ) se k = . . . , 24, 12, 12, 24, . . .
0
o.c,
Observe que nas defasagens que nao sao multiplos de 12 as autocovariancas sao zero.
Por outro lado, o processo SARMA(0,1)4 ,
yt = (1 + 1 B4 )t = t + 1 t4 ,
e inversvel se |1 | < 1 e e causal.
(k) =
(6.11)
A FACov e
2 (1 + 12 ) si k = 0
1 2
se |k| = 4
0
o.c,
(6.12)
(6.13)
yt = 1 yt12 + t + 1 t12
(6.14)
44
Series
Temporais
e calcule a FAC.
Suponhamos agora que a empresa que vende sorvetes tem conseguido sucesso
nas vendas e cada ano vende mais. Isto e , nao so as vendas de cada trimestre
estao correlacionadas; tambem as vendas nos veroes apresentam tendencia. Isto
significa que temos nao-estacionaridade sazonal. Para incorporar esta caracteristica
no modelo SARMA anterior, trabalhamos de maneira analoga ao realizado com os
modelos ARIMA.
Definica o 6.3 O operador de diferenca sazonal, D esta definido como
s D
D
s yt = (1 B ) yt ,
(6.15)
(6.16)
(6.17)
yt yt4 = t + 1 t4 ,
(6.18)
yt = yt4 + t + 1 t4 .
(6.19)
6.2.2
(6.20)
onde
(Bs ) = 1 1 Bs 2 B2s . . . P BP s ,
(6.21)
45
Series
Temporais
(6.22)
(B) = 1 1 B 2 B . . . p B ,
(6.23)
(B) = 1 + 1 B + 2 B2 + . . . + q Bq .
(6.24)
(6.25)
(6.26)
Asim, o presente esta relacionado com um tempo atras e quatro tempos atras. Mas, da
combinaca o destas tem que estar relacionada com tres e cinco tempos atras. Com efeito,
a parte regular MA(1) tem autocorrelaca o diferente de zero so na primeira defasagem. A
parte sazonal pura so tem correlaca o diferente de zero na defasagem 4. Entao o processo
misto tem autocorrelaco es diferentes de zero nas defasagens (obviando negativos) 1,3,4 e
5.
[Graficos]
(6.27)
(6.28)
Aqui temos uma parte sazonal pura e uma parte regular decrescentes como no AR(1). As
autocorrelaco s do AR(1) existem para todos os multiplos de 12, mas aquelas da parte regular so existem para a primeira defasagem, entao o processo misto tera autocorrelaco es
diferentes de zero nas defasagens 1, 11, 12, 13, 23, 24, 25, 35, 36, 37, . . ..
[Graficos]
46
Series
Temporais
(6.29)
(6.30)
(6.31)
(6.32)
entao,
6.3
do Modelo SARIMA
Construcao
47
Series
Temporais
(6.33)
const
1
2
1
2
3
Coeficiente
Erro Padrao
p-valor
0,0173252
0,303382
0,107197
0,739737
0,143955
0,281323
0,0410887
0,0526578
0,0537410
0,0538819
0,0653029
0,0526522
0,4217
5,7614
1,9947
13,7289
2,2044
5,3430
0,6733
0,0000
0,0461
0,0000
0,0275
0,0000
0,029805
0,009010
563,8958
1168,975
1,589325
1,145208
1141,792
1152,601
48
Series
Temporais
Real
Imaginaria
Modulo
Frequencia
AR
Raiz
Raiz
1
2
1, 9511
4, 7812
0, 0000
0, 0000
1, 9511
4, 7812
0, 0000
0, 5000
Raiz
Raiz
Raiz
1
2
3
1, 1981
1, 1981
1, 8845
0, 6714
0, 6714
0, 0000
1, 3734
1, 3734
1, 8845
0, 0813
0, 0813
0, 5000
MA (sazonal)
v1 efetivo e ajustado
160
140
ajustado
efetivo
v1
120
100
80
60
40
20
49
Captulo 7
Previsao
7.1
Introducao
(7.1)
7.2
em Processos Autoregressivos
Previsao
7.3
7.4
cionarios
Series
Temporais
0 = 1
j T +kj ,
(7.2)
j=0
(7.3)
j T +kj .
j=k
k1
X
j T +kj
(7.4)
j=0
O EQMP
v(k) = V ar[eT (k)] =
k1
X
j2
(7.5)
j=0
7.5
7.6
Seja {Yt } um processo estacionario com E(Yt ) = . Entao a previsao esta dada por
P
YT (k) = +
j=k j T +kj . Quando k os coeficientes j decaem exponencialmente a zero e e possivel demonstrar que YT (k) , onde esta convergencia e no
sentido de erro quadratico medio. De forma que, nos processos estacionarios, a
previsao converge para a media do processo.
Adicionalmente, quando k
v(k) = V ar[eT (k)] = 2
k1
X
j=0
j2 2
j2 = Y (0) = V ar(Y ).
(7.7)
j=0
51
Series
Temporais
Como v(k) V ar(Y ) entao a incerteza da previsao aumenta na medida que aumenta
o horizonte de previsao mas converge a um valor igual a` variabilidade da serie.
Ja quando o processo e nao-estacionario, a incerteza das previsoes nao converge, e
de fato aumenta na medida que aumenta o horizonte de previsao.
7.7
MP E = 100
1 X eT (k)
m
YT +k
(7.8)
k=1
MP E =
1X 2
eT (k)
m
(7.9)
k=1
1X
|eT (k)|
MP E =
m
(7.10)
k=1
(7.11)
k=1
52