Anda di halaman 1dari 55

Series

Temporais

MAURICIO ZEVALLOS
Universidade Estadual de Campinas
amadeus@ime.unicamp.br

Departmento de Estatstica, UNICAMP, Brasil

Copyright 2013


Sumario

1 Introducao

1.1 Series
Temporais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Caractersticas Empricas . . . . . . . . . . . . . . . . . . . . . . . . .

1
1
2

2 Modelos Simples de Tendencia


e Sazonalidade
. . . . . . . . . . . . . . . . . . . .
2.1 Introducao
. . . . . . . . . . . . .
2.2 Modelos de Regressao
2.3 Transformaco es . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
2.4 Suavizacao
2.5 Notas . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.

3
3
4
7
8
9

3 Processos Estacionarios
3.1 Definico es . . . . . . . . . . . . . . . . .

3.2 Inferencia
. . . . . . . . . . . . . . . . .
de Autocorrelacao
Parcial . . .
3.3 Funcao
3.4 Processos Lineares e Teorema de Wold

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

11
11
14
18
20

4 Modelos ARMA

4.1 Procesos de Medias


Moveis
. . . . . . . . . . . .
4.2 Processos Autoregresivos . . . . . . . . . . . . .
4.3 Processos ARMA . . . . . . . . . . . . . . . . . .

4.4 Estrutura de Dependencia


nos processos ARMA
4.5 Notas . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

25
25
28
32
34
34

5 Modelagem ARMA

5.1 Analise
Exploratoria
. . . . .
5.2 Identificacao
. . . . . .
5.3 Estimacao

5.4 Diagnostico
. . . . .
de Modelo .
5.5 Selecao
5.6 Aplicaco es . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

36
36
36
36
36
37
37

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

6 Modelos ARIMA e SARIMA


40
6.1 Modelos ARMA Integrados . . . . . . . . . . . . . . . . . . . . . . . . 40
6.2 Modelos SARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
do Modelo SARIMA . . . . . . . . . . . . . . . . . . . . . . 47
6.3 Construcao
ii


Series
Temporais

Mauricio Zevallos 2013

7 Previsao
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1 Introducao
em Processos Autoregressivos . . . . . . . . . . . .
7.2 Previsao
em Processos de Media Movel e ARMA . . . . . . .
7.3 Previsao
com amostra infinita em processos estacionarios

7.4 Previsao
.
em Processos ARIMA e SARIMA . . . . . . . . . . . .
7.5 Previsao
7.6 Comportamento a longo prazo . . . . . . . . . . . . . . . . .
7.7 Criterios para comparar modelos em termos de previsoes .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

50
50
50
50
50
51
51
52

iii

Captulo 1

Introducao
1.1

Series
Temporais

Informalmente, uma serie temporal e uma coleca o de observaco es que possuem


uma sequencia no tempo.
Notaca o: y1 , . . . , yn
Exemplo 1.1 Alguns exemplos de series temporais
Temperatura media diaria na cidade de Campinas
Retornos mensais do Ibovespa
SOI: Southern Oscillation Index
A caracterstica principal das series temporais e a dependencia entre as
observaco es. Portanto, na analise estatstica e necessario considerar a ordem na
qual os dados foram coletados. Como consequencia da dependencia podemos fazer
previsoes dos valores futuros a partir dos valores passados.
A abordagem consiste em considerar a serie temporal observada como uma
realizaca o de um processo estocastico.
Nesta disciplina estudaremos series coletadas em tempos igualmente espacados,
em segundos, minutos, dias, anos, etc.

1.1.1

Objetivos

Os principais objetivos na Analise de Series Temporais sao,


Analise e interpretaca o: encontrar um modelo para descrever a dependencia
temporal nos dados. Algumas vezes podemos interpretar o modelo.
1


Series
Temporais

Mauricio Zevallos 2013

Previsao: dada uma serie, prever um ou varios valores futuros da serie.


Estimaca o ou extraca o do sinal.

1.2
1.2.1

Caractersticas Empricas

Tendencia

Evoluca o a longo praco do nvel medio

Componente suave, nao oscilatoria


(intrinsicamente)
Pode ser linear, quadratica, nao linear, etc.

1.2.2

Sazonalidade

Flutuaco es cclicas relacionadas com o calendario.


Padrao regular anual. Por exemplo se temos dados trimestrais, o comportamento dos trimestres e similar em cada ano.
Padrao regular diario. Por exemplo se temos dados horarios e o comportamento e similar em cada dia.
Nao existe uma definica o precisa de sazonalidade. Uma elas e : efeito (desvio)
com relaca o a` tendencia.

1.2.3

Ciclos

Outro tipo de periodicidades.

Exemplos: ciclos economicos


(boom e recessoes cada 7 anos), periodicidade
de El Nino (cada ? anos) .

1.2.4

Valores aberrantes ou outliers

Observaco es atpicas fora do padrao da serie.


E muito importante sua deteca o, pois estes valores podem ter um efeito
importante na analise estatstica, inferencia e previsao.
Estas observaco es devem ser estudadas mas nao retiradas.

1.2.5

Mudanca Estrutural (de Regime)

Acontece quando a estrutura ou comportamento da serie muda de um periodo


a outro.

Captulo 2

Modelos Simples de

Tendencia
e Sazonalidade
2.1

Introducao

Seja y1 , . . . , yn uma serie temporal. O Modelo de Decomposica o Aditivo consiste em


escrever yt como a soma de tres componentes nao observaveis,
yt = Tt + St + Ct + t

(2.1)

onde Tt e a tendencia, St e a sazonalidade, Ct sao os ciclos e t sao as perturbaco es


ou ruido. Assume-se que t e m um processo com E(t ) = 0, V ar(t ) = 2 constante.
Essas perturbaco es podem ser independentes, mas em geral nas aplicaco es com
series temporais sao consideradas como um processo estacionario.
Outro modelo e o Modelo de Decomposica o Multiplicativo no qual,
yt = Tt St Ct t

(2.2)

Neste capitulo sera estudada a modelagem de serie temporais via modelos de


regressao. Para isto serao consideradas primeiro especificacoes deterministicas

simples como polinomios e funco es periodicas


como os harmonicos.
Posteriormente
discutiremos metodos nao parametricos de suavizaca o para estimar as componentes.
As componentes ( por exemplo tendencia e sazonalidade) sao, em geral, bastante
relacionadas. Como anota Pierce (1979),
1. A especificaca o de St depende da especificaca o de Tt
2. Metodos de estimaca o de St podem ser bastante afetados se nao levarmos em
conta a tendencia.
Portanto a estimaca o de uma componente afeta a estimaca o das outras.
3

Mauricio Zevallos 2013

Series
Temporais

Um dos objetivos principais na analise de Series Temporais e o Ajustamento Sazonal,


isto e retirar a sazonalidade da serie. Assim, nos modelos aditivos queremos
calcular
Yt? = Yt St ,

(2.3)

onde St e uma estimativa de St , e nos modelos multiplicativos interessa


Yt? = Yt / St ,

2.2

(2.4)

Modelos de Regressao

Inicialmente, no modelo (2.1) supomos que nao ha componente sazonal. Isto e ,


Yt = Tt + t

(2.5)

Uma forma simples de modelar a tendencia e a traves de polinomios,


Tt = 0 + 1 t + . . . + p t p

(2.6)

e um metodo de estimaca o e Quadrados Minimos. Como determinar p? (de forma


geral, como comparar modelos?)

1. Por tentativa e erro (uma forma exploratoria


e comprovando graficamente
que a tendencia foi retirada)

2. Testes de hipoteses
3. R2 ajustado, criterios AIC,BIC
Outras especificaco es alternativas sao as funco es nao lineares em t, como por exemplo
a exponencial. Nestas situaco es a estimaca o e realizada usando metodos numericos.
Exemplo 2.1 GNP USA
Agora, vamos supor que trabalhamos com o modelo que possui somente sazonalidade,
Yt = + St + t .

(2.7)

Supondo que temos dados trimestrais, uma forma simples de especificar a sazonalidade e
St = i

t i-esimo trimestre,

i = 1, 2, 3, 4

(2.8)

onde
1 + 2 + 3 + 4 = 0.

(2.9)

Mauricio Zevallos 2013

Series
Temporais

Desta forma a sazonalidade e o desvo com relaca o a` media. Para estimar os


coeficientes i , alguem poderia propor faze-lo via o modelo de regressao com
variaveis dummy,
yt = + 1 D1t + 2 D2t + 3 D3t + 4 D4t + t

(2.10)

onde Dit = 1 se t trimestre i e zero em outro caso e t e uma sequencia de


perturbaco es. Este e um caso particular de Y = X + , e nesse caso, o estimador de
quadrados minimos de e
= (X 0 X)1 X 0 Y .

(2.11)

Acontece que a matriz X 0 X e nao inversvel. Portanto e necessario introduzir


alguma restrica o. Para efeitos de manter a interpretaca o de sazonalidade, consideramos a restrica o (2.9).
Por exemplo considere 4 = (1 + 2 + 3 ). Neste caso, o modelo (2.10) pode ser
escrito como
yt = + 1 (D1t D4t ) + 2 (D2t D4t ) + 3 (D3t D4t ) + t

(2.12)

Entao via regressao obtemos as estimativas 1 , 2 , 3 e 4 e estimado como (1 +


2 + 3 ).
Quando a serie apresenta tendencia linear e sazonalidade, como por exemplo nas
vendas de cerveja, um modelo candidato e yt = Tt + St + t com
Tt = 0 + 1 t,

(2.13)

St = 1 (D1t D4t ) + 2 (D2t D4t ) + 3 (D3t D4t )

(2.14)

Desta forma mantemos a interpretaca o de sazonalidade como desvo em relaca o a`


tendencia.
Exemplo 2.2 Vendas de Cerveja

2.2.1

Regressao Harmonica

Serve para a modelagem de sazonalidades ou outro tipo de comportamentos


cclicos (periodicidades)
Seja St uma componente ciclica ou sazonal. A ideia basica da regressao

harmonica
e definir
St = A sin(2t + )
= a sin(2t) + b cos(2t)

(2.15)
(2.16)

onde A e a amplitude, e a fase, e a frequencia: ciclos por unidade de tempo


e P = 1/ e o ciclo

Mauricio Zevallos 2013

Series
Temporais

Exemplo 2.3 Vendas de cerveja. A serie de vendas trimestrais de cerveja apresenta um comportamento sazonal cada 4 trimestres. Portanto o ciclo e de 4
trimestres P = 4, e = 1/4 (un ciclo cada 4 trimestres). Segundo o discutido
anteriormente, um modelo plausvel e
yt = 0 + 1 t + 2 sin(2t) + 3 cos(2t) + t
Quando ha k periodicidades com frequencias: 1 , . . . , k
St =

k n
X

o
aj sin(2j t) + bj cos(2j t)

(2.17)

j=1

A serie de dados mensais de SOI (mudancas na pressao


Exemplo 2.4 El Nino.
do ar, relacionadas com temperatura na superficie do mar no oceano Pacifico)
apresenta comportamento cclico com duas periodicidades:
Ciclo sazonal anual: 1 = 1/12, P1 = 12
El Nino: esquentamento cada 6 anos, 2 = 1/72, P1 = 72
Entao um modelo candidato e
yt = 0 + 1 t + 2 sin(2t/12) + 3 cos(2t/12)

(2.18)

+ 4 sin(2t/72) + 5 cos(2t/72) + t .
Modelagem
Especificaca o: primeiro determinamos as frequencias j . Uma das ferramentas para fazer isto e o periodograma.
Estimaca o: os parametros j sao estimados por quadrados mnimos.

Quando as frequencias sao variaveis aleatorias


temos um problema de
otimizaca o nao-linear.

2.2.2

Acerca da significancia
dos coeficientes

a tendencia e sazonalidade sao estimadas via


Com dados de series temporais, apos
minimos quadrados, os resduos apresentam dependencia. Neste caso, embora os
estimadores sejam nao-viciados e consistentes, os erros padroes dos coeficientes
nao sao corretos. Em consequencia, a significancia dos coeficientes poderia ficar
comprometida. Por exemplo, poderiamos obter significancia quando a o ha e
viceversa. No Capitulo dos Modelos ARMA estudaremos como contornar este
problema.

Mauricio Zevallos 2013

Series
Temporais

Transformaco es

2.3

Sao uteis
para: (i) estabilizar a variabilidade e ou (ii) simetrizar a distribuica o.
1

Uma transformaca o frequentemente utilizada, por exemplo em Economia


e Financas (em indices), e a transformaca o logaritmica. Em particular, esta
permite tornar modelos multiplicativos em modelos aditivos. Com efeito,
Yt = Tt St Ct t
ln(Yt ) = ln(Tt ) + ln(St ) + ln(Ct ) + ln(t )

(2.19)
(2.20)

Note que transformaca o logaritmica somente pode ser aplicada a valores


positivos.
Considere a serie temporal y1 , . . . , yn e vamos supor que achamos razoavel
o modelo 2.19. Adicionalmente, vamos supor que as componentes sao esti) o valor ajustado
madas em 2.20, por exemplo via regressao. Seja xt = ln(Y
t
e et os resduos. Para obter a estimaca o da serie na escala original um estimador natural e exp(xt ) mas este e viesado. Assim, e conveniente fazer uma
correca o a esta estimativa, multiplicando-a por um fator c. Se supormos que
a distribuica o de ln(t ) e N (0, 2 ) entao t = exp(ln(t )) possui distribuica o
log-normal com valor esperado exp( 2 /2). Entao o fator de correca o e igual
a c = exp( 2 /2) onde e o desvo padrao dos resduos et . No entanto, nas
aplicaco es empiricas tem-se encontrado que a distribuica o dos resduos e asP
simetrica a` esquerda. Nesses casos podemos usar c = n1 ni=1 exp(et ). Quando
os valores ajustados sao muito proximos dos valores reais, o efeito do termo
de correca o pode ser minimo.
Uma famlia de transformaco es usualmente utilizada e a de Box-Cox. Assim,
seja Zt a serie transformada,
(
yt
se , 0
Zt =
ln(yt ) se = 0
Exemplos incluem = 0 para modelos multiplicativos e = 0.5 para dados
de contagem.

Na pratica, o coeficiente e encontrado seja de forma exploratoria,


ou minimizando uma funca o objetivo.
Exemplo 2.5 Vendas de passagens.
1 Tambem para tornar a serie estacionaria. O conceito de estacionariedade sera visto no proximo

capitulo.

Mauricio Zevallos 2013

Series
Temporais

2.4

Suavizacao

Em series temporais com tendencia e ou sazonalidade que mudam no tempo os


modelos polinomias para a tendencia poderiam nao capturar os comportamentos
locais. Uma vantagen dos metodos de suavizaca o e que sao mais flexveis para
capturar esses comportamentos. No entanto, uma desvantagen dos metodos de
suavizaca o descritos a seguir e que nao permitem fazer previsoes.
Sejam y1 , . . . , yn observaco es de uma serie temporal e assumimos que,
yt = mt + t

(2.21)

onde mt e o sinal e t e o ruido. A ideia da suavizaca o e que o sinal (a tendencia e ou


sazonalidade e ou ciclos) num instante t sera estimado usando-se as observaco es Ys
com s ao redor de t. Isto e numa janela ao redor de t.
Existem varios metodos de suavizaca o. Um dos mais utilizados e o metodo das
Medias Moveis. Neste metodo, o sinal no tempo t e estimado como a media ponderada das observaco es na vizinhanca. Assim,
m t =

k
X

cj yt+j ,

t = k + 1, . . . , n k

(2.22)

j=k

P
onde os pesos cj satisfazem kj=k cj = 1. Observe que perdemos k observaco es
tanto no incio quanto no final. Se supormos que cada observaca o tem igual peso
na suavizacao entao
k
1 X
m t =
yt+j ,
2k + 1

t = k + 1, . . . , n k

(2.23)

j=k

Como determinar k? Na pratica sao feitas suavizaco es para varios valores de k e


depois escolhemos aquele valor que produca a suavizaca o desejada (graficamente).
As vezes a natureza dos dados ajuda. Por exemplo, com dados trimestrais e
sazonalidade anual seria razoavel usar uma janela com 4 observaco es. Mas, nesse
caso qual seria o valor de k? Isto e , se por exemplo quisermos estimar m7 , usariamos
y5 , y6 , y7 , y8 ou y6 , y7 , y8 , y9 ? Uma forma de contornar este problema e considerar
k = 2 onde
m t = (0.5yt2 + yt1 + yt + yt+1 + 0.5yt+2 )/4 t = 3, . . . , n 2

2.4.1

(2.24)

Um Metodo
Simples de Decomposicao

Assuma o modelo de decomposica o com tendencia e sazonalidade


yt = Tt + St + t

(2.25)

Mauricio Zevallos 2013

Series
Temporais

Um metodo simples de decomposica o consiste no seguinte: vamos supor que


temos dados trimestrais com sazonalidade anual. Entao, a tendencia e estimada

a traves de medias moveis


como em (2.24). Para estimar a sazonalidade, definida
como (2.8), primeiro remova a tendencia da serie, at = yt Tt e depois calcule a
media correspondente a cada trimestre. Assim, para o trimestre I, bI e a media
de a1 , a5 , a9 , . . ., enquanto que para o trimestre II bII e a media de a2 , a6 , a10 , . . .,
etc. Para que a sazonalidade seja o desvio em torno da tendencia, calculamos
b = (bI + bII + bIII + bIV )/4 e consideramos i = bi b para i = 1, 2, 3, 4. Desta forma
a sazonalidade estimada e igual a St = i se t pertence ao trimestre i. Finalmente, a
componente irregular estimada e t = yt Tt St .
Quando o modelo e multiplicativo,
yt = Tt St t

(2.26)

o processo de estimaca o e similar ao realizado no modelo aditivo: a tendencia e


estimada da mesma forma, mas para estimar a sazonalidade consideramos at =
yt / Tt e a componente irregular estimada e t = yt /(Tt St ).
No R o comando decompose faz a decomposica o descrita.
Exemplo 2.6 Vendas de cerveja. A serie de vendas trimestrais de cerveja apresenta
um comportamento sazonal cada 4 trimestres.

2.5
2.5.1

Notas

Criterios
de Escolha de Modelos

Seja um modelo de regressao com k coeficientes com k2 = SQE/n o estimador de

maxima verossimilhanca de V ar(t ) = 2 , sendo n o numero


de dados.

Na comparaca o de modelos com diferente numero


de coeficientes podemos usar os
seguintes Criterios de Informaca o,
Akaike,
AIC = ln(k2 ) +

2k + n
n

BIC = ln(k2 ) +

k ln(n)
n

Schwarz,

Escolhemos o modelo com menor AIC e ou BIC. E prefervel usar o BIC. Lembre
que o modelo escolhido poderia nao ser adequado.

Mauricio Zevallos 2013

Series
Temporais

2.5.2

Outros metodos
de suavizacao

Medianas Moveis

Em vez de tomar medias moveis


podemos calcular medianas moveis.
Assim,
m t = mediana{ytk , ytk+1 , . . . , yt+k },

t = k + 1, . . . , n k

(2.27)

Comparado com o metodo das medias moveis,


o metodo das medianas moveis
e
conveniente quando queremos estimar o sinal na presenca de outliers.
Lowess
Este e o acronimo de locally weighted regression scatter plot smoothing. O procedimento para estimar o sinal no tempo ti , mti , e
1. Identifique os pontos vizinhos ou janela de pontos ao redor dos tempos i,
A(ti ) = {tik , . . . , ti1 , ti , ti+1 , . . . ti+k },
2. Calcule (ti ) = maxjA(ti ) |tj ti | e defina aj = |ti tj |/(ti ) para todo tj A(ti )
3. Calcule os pesos pj = (aj ) onde () e uma funca o de pesos. Escolhas usuais
para esta funca o sao,
(u) = (1 |u|3 )3 ,

|u| < 1,

(2.28)

2 2

|u| < 1,

(2.29)

(u) = (1 |u| ) ,

e zero em caso contrario (para ambas especificaco es).


4. A estimativa do sinal mti e ,
m ti = i + i ti

(2.30)

onde os coeficientes i e i sao estimados via Quadrados Minimos Ponderados


(QMP), isto e , temos que minimizar
X
pj (ytj i i tj )2 ,
(2.31)
jA(ti )

5. Repetimos este procedimento para i = 1, . . . , n


Assim, a estimativa do sinal em cada ponto e o ajuste de uma regressao linear de
pontos vizinhos os quais possuem pesos determinados pela funca o (). Note que
essa funca o e simetrica ao redor de zero e os valores diminuem na medida que se
afastam de zero. Em consequencia, as observaco es mais afastadas do tempo ti tem
influencia menor na estimativa do sinal mti .

10

Captulo 3

Processos Estacionarios
3.1

Definico es

Definica o 3.1 Um processo estocastico e uma familia de variaveis aleatorias {Yt ; t C}.
Se C = [0, ) o processo e de Tempo continuo,
Se C = {1, 2, . . . , } o processo e de Tempo discreto.
Definica o 3.2 Uma serie temporal e uma realizaca o de um processo estocastico, isto
e, corresponde a` ocorrencia de um dos possiveis resultados .

O processo estocastico mais simples e a sequencia de variaveis aleatorias


independentes identicamente distribuidas (IID) com valor esperado zero e variancia
constante 2 . Havendo independencia, este processo nao seria de interesse na
analise de series temporais, mas acontece que muitos dos processos utilisados na
pratica podem ser construidos a partir do ruido branco.
Exemplo 3.1 Paseio ao Acaso. Sejam 1 , 2 , . . . v.a. IID con esperanca cero e variancia
2 . O processo passeio ao acaso {Yt } e definido como
Yt =

t
X

(3.1)

i=1

= Yt1 + t

(3.2)

Definica o 3.3 A distribuica o conjunta (finita) do processo estocastico esta dada por:
Ft (y) = P (Yt1 y1 , . . . , Ytn yn ),

y = (y1 , . . . , yn )

(3.3)

onde t = (t1 , . . . , tn ). No caso que F seja Normal Multivariada dizemos que o processo e
Gaussiano.
11

Mauricio Zevallos 2013

Series
Temporais

Para analizar a dependencia utilizamos as covariancias


Definica o 3.4 Seja {Yt , t T} um processo estocastico tal que V ar(Yt ) < . Entao a
covariancia entre Yr e Ys esta definida como
Cov(Yr , Ys ) = E[(Yr E(Yr ))(Ys E(Ys ))],

r, s T

(3.4)

Exemplo 3.2 Paseio ao Acaso (cont.)


Nas aplicaco es, como poderiamos estimar a estrutura de dependencia, vamos supor
de correlaca o, com base em uma realizaca o do processo estocastico? Neste sentido,
e conveniente trabalhar com a seguinte classe de processos
Definica o 3.5 O processo {Yt } denomina-se estacionario (covariante estacionario
ou estacionario de segunda ordem) se
a) E(Yt ) e uma constante para todo t.
b) V ar(Yt ) e uma constante para todo t.
c) Cov(Yt , Yt+ ) e uma funca o somente de .
Exemplo 3.3 . Sejam Y1 , Y2 , Y3 , Y4 pertencentes a um processo estacionario. Entao,
Cov(Y1 , Y2 ) = Cov(Y2 , Y3 ) = Cov(Y3 , Y4 ) = (1)
Cov(Y1 , Y3 ) = Cov(Y2 , Y4 ) = (2)
Cov(Y1 , Y4 ) = (3)
Exemplo 3.4 Processo Singular. Seja Yt o processo definido como
Yt = 1 cos(t) + 2 sin(t)

(3.5)

onde [, ] e una constante e 1 , 2 sao variaveis aleatorias nao-correlacionadas


com esperanca zero e variancia um.
Como E(Yt ) = 0, V ar(Yt ) = 1 e Cov(Yr , Ys ) = cos[(r s)] entao {Yt } e um processo
estacionario.
Quando nao sao satisfeitas as condico es da Definica o 3.5 dizemos que o processo
e nao-estacionario. Um exemplo de processo nao estacionario e o Passeio ao
Acaso. Os modelos com tendencia discutidos no capitulo anterior sao exemplos

de processos nao estacionarios. Grande parte das series economicas


e de outras
a reas sao nao estacionarias. Nos capitulos X,Y serao discutidas metodologias para
a modelagem deste tipo de processos.
A partir de agora nos concentraremos no estudo dos processos estacionarios, os
quais estao caracterizados pela media e correlaco es (ou covariancias).

12

Mauricio Zevallos 2013

Series
Temporais

Definica o 3.6 Seja {Yt } um processo estacionario. Entao


a) () e denominada funca o de autocovariancia
b) () = ()/(0) e denominada funca o de autocorrelaca o, (FAC).
onde e a defasagem ou retardo.
Definica o 3.7 Ruido Branco. O processo {t } e dito Ruido Branco com esperanca
zero e variancia 2 se e somente se E(t ) = 0 e (0) = 2 e (k) = 0 para k , 0. Notaca o
t RB(0, 2 )
Definica o 3.8 Ruido Branco Estrito. Se o processo {t } e um ruido branco onde as
variaveis aleatorias sao mutuamente independentes entao e dito um Ruido Branco
Estrito. Adicionalmente, usualmente e considerado que as variaveis possuem a mesma
distribuica o. Neste texto consideramos um Ruido Branco Estrito como uma sequencia de
v.a. IID com valor esperado zero e variancia constante.
Exemplo 3.5 Cont. Exemplo 3.4. Neste caso, () = cos(). Vamos supor que
= /2, entao (k) = 0 para k impar, (2k) = (1)k para k par. A FAC e (desenho).
Exemplo 3.6 Processo MA(1). Seja o processo Yt = t + t1 onde {t } RB(0, 2 ).
Entao E(Yt ) = 0, (0) = 2 (1 + 2 ), (1) = /(1 + 2 ) e (k) = 0 para k 2.
Exemplo 3.7 Processo AR(1). Seja o processo Yt = Yt1 + t onde {t } RB(0, 2 ) e
|| < 1. Como sera demonstrado no proximo captulo, o processo {Yt } e estacionario com
E(Yt ) = 0, (0) = 2 /(1 2 ) e (k) = k para k 1.
As funco es de autocovariancia e de autocorrelaca o satisfazem as seguintes propriedades.
Proposica o 3.1 Seja Yt um processo estacionario, entao
a) (0) 0
b) | (h) | (0), para todo h. Entao | (h) | 1.
c) (h) = (h), para todo h. Entao (h) = (h).
d) (h) e uma funca o semidefinida positiva, isto e, para todo a = (a1 , . . . , an ) e para
todo y = (y1 , . . . , yn )
n X
n
X
ai aj (|i j|) 0
i=1 j=1

Demonstraca o. Partes (a) e (c) sao obvias. Parte (b) e uma consequencia da desigualdade de Cauchy-Schwarz. Para a Parte (d) note que 0 V ar(a> y) = a> V ar(y)a,
onde V ar(y) e uma matriz com elementos (|i j|).

13

Mauricio Zevallos 2013

Series
Temporais

3.2

Inferencia

Consideremos que os dados y1 , . . . , yn provem de um processo estacionario. Na


pratica, a media e as covariancias () tem que ser estimadas. Para fazer isto
uma alternativa e utilizar os estimadores de momentos.
Definica o 3.9 Seja {Yt } uma serie temporal. Entao
P
a) Y = ni=1 Yi /n e a media amostral.
P

a autocovariancia amostral
b) ck = nk
i=1 (Yi Y )(Yi+k Y )/n e
c) rk = ck /c0 e a autocorrelaca o amostral
O grafico de rk versus k se denomina correolograma ou grafico da funca o de
autocorrelaca o amostral. Note que nao podemos calcular a FAC amostral para
quaisquer defasagem. De fato, se temos n dados so dispomos de (n 1) pares
(Yi , Yi+1 ) e de um par (Yn , Yn1 ). Alem disso, com puocos pares as estimaco es nao
sao precissas. Portanto temos regras como: nao avaliar rk para k > n/3, ou segundo
Box-Jenkins
considerar k n/4 com pelo menos n = 50 observaco es, ou avaliar para

k n.
No R a funca o acf calcula a FAC de uma serie. Por defeito considera X defasagens.
Na analise e necessario que voce considere o numero de defasagens de acordo com
o tamanho da serie segundo as recomendaco es anteriores.
Exemplo 3.8 Em uma serie temporal com 84 observaco es sao calculadas as seguintes
autocorrelaco es:
O grafico da FAC e.
k
rk

1
-0.67

2
0.43

3
-0.24

4
0.09

5
0.04

6
-0.12

7
0.14

8
-0.09

9
0.04

10
0.09

As autocovariancias e autocorrelaco es amostrais podem ser calculadas para qualquer conjunto de dados y1 , . . . , yn , nao somente para observaco es provenientes de
procesos estacionarios. Mesmos que a FAC nao tenha interpretaca o para processos nao estacionarios, a FAC fornece informaca o muito valiosa para entender a
estrutura de dependencia da serie, por exemplo para identificar tendencia e ou
sazonalidade.
Exemplo 3.9

14

Mauricio Zevallos 2013

Series
Temporais

3.2.1

Propriedades dos estimadores

A seguir apresentamos algumas propriedades destos estimadores. Comecamos


pela media amostral
Proposica o 3.2 A media amostral Y satisfaz as seguientes propriedades:
a) E um estimador nao viciado de
b) Sua variancia e,
n1

V ar(Y ) =

(0) X 2(n k)
(k)
+
n
n2
k=1

n1
X

(0)
2(n k)

1 +
(k)

n
n

(3.6)

(3.7)

k=1

onde FIV = 1 +

Pn1 2(nk)
k=1

(k) e o Fator de Inflaca o da Variancia.

c) Se (n) 0 entao V ar(Y ) 0


Pk=
P
d) Se
ao nV ar(Y ) k=
k= |(k)| < ent
k= (k)
De (b) temos que se nao consideramos a dependencia a variancia da media nao e
estimada acuradamente.
Exemplo 3.10 Cont. Exemplo 3.6 Neste caso
FIV = 1 + 2

n1
n 1 + 2

Por exemplo se n = 100 e = 0.8 entao FIV = 1.966. Isto e, a variancia e quase 2 vezes
a variancia supondo independencia!
Se quisermos encontrar intervalos de confianca para podemos trabalhar com

a distribuica o assintotica
de Y . Sob determinadas condico es esta distribuica o e
normal, veja por exemplo Brockwell and Davis (1991).
Com respeito a` s propriedades de ck , sob determinadas condico es,
!
!
k
k
E(ck ) 1 (k) 1 V ar(Y ).
n
n

(3.8)

Portanto ck apresenta vies. Mas, se V ar(Y ) 0 quando n (o qual acontece


para varias classes de processos) e se k/n e pequeno entao o vies e pequeno. Pelo

contrario, fixo n, se k for muito proximo


de n entao o vies pode ser grande. Este e

15

Mauricio Zevallos 2013

Series
Temporais

um dos motivos pelos quais e aconselhavel calcular ck para valores de k n/4 (Wei
pp 19).
Um estimador alternativo para (k) e
nk

ck =

1 X
(Yi Y )(Yi+k Y ).
nk
i=1

Em geral, este estimador apresenta menor vies do que ck . No entanto, nem sempre e
semidefinido positivo, enquanto que ck sim. Por este motivo e sendo ck consistente,
preferimos ck .
Sob determinadas condico es, os estimadores rk sao consistentes. Em geral obter
a distribuica o de rk e muito dificil mesmo para modelos simples. Entao temos

que recurrir a resultados assintoticos.


Sob determinadas condico es a distribuica o

assintotica
do vetor (r1 , . . . , rs ) e normal multivariada, onde a matriz de covariancia
em geral nao e diagonal. Portanto, haveria correlaca o entre ri e rj e esta poderia ser
grande. Veja por exemplo Brockwell and Davis (1991) e Harvey (1990). No entanto,

ha um caso especial no qual as correlaco es sao assintoticamente


independentes.
Veja a seguinte proposica o.
Proposica o 3.3 Seja {yt } um ruido branco. Entao sob determinadas condico es,
(a) Para cada k especifico, rk AN (0, 1/n).
(b) O vetor (r1 , . . . , rs ) tem distribuica o assintotica normal.
(c) As autocorrelaco es (r1 , . . . , rs ) sao assintoticamente independentes.

3.2.2

Testes de Ruido Branco

Um problema importante na analise estatstica de dados e determinar si estes


apresentam dependencia. Se os dados fossem independentes, nao teria sentido
aplicar modelos de series temporais. A seguir apresentaremos algumas estrategias
para avaliar se os dados correspondem a um ruido branco. Estas servem para avaliar
ausencia de correlaca o mas nao necessariamente independencia. O resultado chave
e a Proposica o 3.3.

Grafico da FAC com limites + - 2/ n: limites de Bartlett

Na analise exploratoria,
um dos principais graficos e a FAC amostral. Da Proposica o
3.3, se os dados sao independentes, para uma defasagem fixa k, a distribuica o

assintotica
de
rk e normal, k AN (0, 1/n). Assim, os limites de confianca 95%
sao +, , 1.96 n. Desta forma, no grafico da FAC esperariamos que a maioria das
autocorrelaco es esteja dentro desses limites. Na pratica, no entanto, se os dados
sao ruido branco, espera-se que 1 em 20 autocorrelaciones esteja fora dos limites

16

Mauricio Zevallos 2013

Series
Temporais

No entanto, e importante enfatizar que, a rigor estamos considerando H0 : (k) = 0


para un k especifico. Portanto, na significancia, nao debemos esperar que 5%
das autocorrelaco es estejam fora dos limites. Se analizarmos 10 autocorrelaco es,
como estas sao independentes com distribuica o normal multivariada,
entao a
regiao de confianca para as 10 autocorrelaco es e o cubo com limites 2/ n. Assim,

considerando a hipotese
nula H0 : 1 = . . . = 10 = 0, a significancia seria igual ao
produto das 10 significancias obtidas.
Testes de Portmanteau
Pode acontecer que as autocorrelaciones estimadas sejam individualmente pequenas mas a soma destas nao ser pequena. Isto nao deveria ocorrer se os dados fossem
gerados por um ruido branco. Para docimar H0 : 1 = . . . = m = 0 conjuntamente,
Box e Pierce (197?) propuseram o seguinte teste:
Q(m) = n

m
X

rk2 .

(3.9)

k=1

Sob H0 a distribuica o assintotica


de Q e 2 (m).

Este resultado esta baseado novamente na Proposica o 3.3. Ja que sob H0 , nrk

AN (0, 1) para cada k e alem


disso as m autocorrelaco es sao assintoticamente
inPm
dependentes, entao k=1 nrk tem distribuica o chi-cuadrado com m graus de
liberdade.
2 n
Em pequenas amostras, tem sido encontrado que a distribuica o m
ao constitui
uma boa aproximaca o da distribuica o da estatstica de Box-Pierce Q(m). Por este
motivo Ljung e Box (1978) modificaram o teste (3.9) como,

Q(m) = n(n + 2)

m
X

rk2 /(n k).

(3.10)

k=1

que tem distribuica o assintotica


2 (m) sob H0 .

Como
especificar m?. Por um lado, m nao pode ser pequeno pois interessa avaliar
varias correlaco es. Por outro lado, a medida que m aumenta em relaca o ao tamanho
da amostra n, a qualidade da distribuica o aproximada deteriora-se. Entao temos
que tomar um valor de compromisso entre
significancia (m grande) e poder (m
pequeno). Um valor razoavel seria m = n, mas nas aplicaco es e conveniente
calcular a estatstica para varios valores de m.
Exemplo 3.11 A partir de uma serie temporal com 100 observaco es sao calculadas as
seguintes autocorrelaco es.
Nografico da FAC vemos que as autocorrelaco es 6 (quase) e 10 estao fora dos limites
2/ 100 = 0.2. Assim, nao teriamos evidencia contra a hipotese de nao-correlaca o.

17

Mauricio Zevallos 2013

Series
Temporais

k
rk
k
rk

1
0.06
11
0.10

2
-0.12
12
0.05

3
0.01
13
0.01

4
-0.10
14
-0.02

5
-0.12
15
-0.10

6
-0.19
16
-0.08

7
0.09
17
0.09

8
-0.07
18
-0.02

9
0.07
19
0.00

10
0.27
20
-0.01

Por outro lado, na seguinte tabela temos os resultados do teste de Portmanteau para
diversos valores de m.
m
4
8
12
16
20

Q(m)
2.94
9.84
20.08
22.12
23.18

Valor-P
0.43
0.72
0.93
0.86
0.72

Portanto, nao ha evidencia suficiente para rejeitar a hipotese de ruido branco.


(utilisado no R) e aquele no qual os valores-P da estatstica
Um grafico bastante util
de teste pormanteau sao graficados para cada valor de m. O comportamento ideal
seria que nao haja nenhum ponto abaixo da linha de 5%, mas, situaco es aceitaveis
(que suportam H0 ) sao aquelas onde a partir de determinado valor de m os pontos
estao alocados acima da reta de 5%.

3.3

de Autocorrelacao
Parcial
Funcao

A FACP e muito importante na simulaca o de processos estacionarios, na Teoria de


Previsao e na identificaca o de modelos.
Seja {Yt } um processo estacionario com valor esperado zero e covariancias
()
A Autocorrelaca o Parcial de ordem k, denotada por kk , esta definida como a
correlaca o entre Yt+k e Yt que nao e explicada por A = {Yt+1 , . . . , Yt+k1 }. Isto e ,
retirar a dependencia linear em A.
a correlaca o entre Yt+k e Yt apos
Em particular, para k = 1 temos que kk = (1)
kk como funca o de k e a Funcao de Autocorrelaca o Parcial (FACP)

3.3.1

Como calcular a FACP?

A dependencia linear e retirada via previsao

18

Mauricio Zevallos 2013

Series
Temporais

Seja Yt o melhor preditor linear no sentido de media quadratica baseado na


informaca o {Yt+1 , . . . , Yt+k1 },
Yt = 1 Yt+1 + . . . + k1 Yt+k1

(3.11)

Entao podemos mostrar que,


Yt+k = 1 Yt+k1 + . . . + k1 Yt+1

(3.12)

De acordo com a definica o,


kk = Corr(Yt Yt , Yt+k Yt+k ).

(3.13)

Relaca o entre FACP e FAC (Demonstraca o em B& D)

(0) (1) . . . (k 1)

(0) . . . (k 2)

..

(0)

k1

k2

..
.

kk

(1)

(2)
=

..
.

(k)

(3.14)

kk e obtido ao resolver o sistema anterior. Para isto existem varios metodos.


Um deles e a Regra de Cramer,


(0) (1) . . . (k 2) (1)

(0) . . . (k 3) (2)

..

.


(1)
(k)

kk =
(0) (1) . . . (k 2) (k 1)

(0) . . . (k 3) (k 2)

..

.

(1)
(0)

(3.15)

Note que a matriz no numerador e igual a` matriz do demoninador a menos

da ultima
coluna que e o vetor de correlaco es (do lado direito) de (3.15). Por
exemplo,


(1)
1
(1) (2)
22 =
(3.16)

(1)
1

(1)
1
Exemplo: no Ruido Branco, kk = 1 quando k = 0 e zero em outro caso. Isto
pode ser comprovado a partir de (3.13) onde Yt = Yt+k = 0 ou a partir de
(3.15).

19

Mauricio Zevallos 2013

Series
Temporais

A menos de processos simples, como o Ruido Branco, resolver o sistema (3.14)


mediante a regra de Cramer nao e computacionalmente conveniente. Para
contornar esse problema, Durbin(1960) propus o seguinte algoritmo iterativo
(chamado de Durbin-Levinson).
k+1,k+1 =
k+1,j

(k + 1)

Pk

Pk

j=1 kj (k + 1 j)
j=1 kj (j)

= k,j k+1,k+1 k,k+1j ,

k = 1, . . . ,

j = 1, . . . , k

(3.17)
(3.18)

Assim, as tres primeiras autocorrelaco es parciais sao calculadas como


11 = (1),
22 =
21
33

(2) 2 (1)

,
1 2 (1)
= 11 22 11
(3) 21 (2) 22 (1)
=
,
1 21 (1) 22 (2)

(3.19)
(3.20)
(3.21)
(3.22)

Exemplo: No AR(1) 11 = e kk = 0 para k > 1. Ver notas de aula.


Exemplo: MA(1). Aqui (k) = /(1 + 2 ) para |k| = 1 e zero em caso contrario.
Por induca o.
kk =

3.3.2

k (1 2 )
1 2(k+1)

(3.23)

Estimacao

Para estimar a FACP, estimamos primeiro as autocorrelaco es e depois calculamos as correlaco es parciais, seja resolvendo o sistema (3.15) ou mediante o
algoritmo de Durbin-Levinson.

e o seguinte,
Para testar a hipotese
de Ruido Branco um resultado util

n kk N (0, 1).
(3.24)

Entao, os Limitesde Confianca 95% assintoticos


para as autocorrelaco es
parciais sao , +2/ n

3.4

Processos Lineares e Teorema de Wold

Os processos lineares tem um rol muito importante na analise de series temporais.


Como veremos, pode ser mostrado que um processo estacionario e linear ou pode
ser transformado em linear retirando a componente deterministica. Este resultado
e o Teorema de Wold.

20

Mauricio Zevallos 2013

Series
Temporais

Definica o 3.10 Una processo {Yt } e dito Processo Linear se para todo t temos a
seguinte representaca o:
Yt =

(3.25)

j tj

j=

onde {t } e um ruido branco estricto, RB(0, 2 ), e {j } e uma sequencia de constantes


tais que

j2 < .

(3.26)

j=

Definica o 3.11 Um processo linear {Yt } e denominado MA() se j = 0 para j < 0,


isto e:
Yt =

(3.27)

j tj .

j=0

Observaca o 3.1 A condica o (3.26) permite garantir que a soma infinita (3.25) convirja
em media quadratica (Teorema de Riesz-Fisher). No lugar de (3.26) outra condica o
P
geralmente utilizada e
a o o processo converge quase
j= |j | < . Sob esta condic
seguramente.
Duas classes importantes de processos lineares sao os,
ARMA, os quais satisfazem

ARFIMA, os quais satisfazem

j= |j | <

2
j= j

< mas

j= |j | =

Uma forma conveniente de escrever processos lineares e utilisando o operador de


desagem B. Podemos realizar operaco es algebricas com este operador.
Definica o 3.12 O operador de defasagem B produz a seguinte transformaca o na
variavel aleatoria Yt ,
Bk Yt = Ytk .

(3.28)

E se c e uma constante entao Bc = c.


De (3.27)
Yt = 0 t + 1 t1 + 2 t2 + 3 t3 + . . .
0

= 0 B t + 1 B t + 2 B t + 3 B t + . . .
0

= (0 B + 1 B + 2 B + 3 B + . . .)t .

(3.29)
(3.30)
(3.31)

21

Mauricio Zevallos 2013

Series
Temporais

Portanto,
Yt = (B)t ,

onde (B) =

j B j

(3.32)

j=0

Assim, o polinomio (B) pode ser enxergado como um Filtro Linear, o qual, aplicado no processo de entrada {t } produz a saida {Yt }
Exemplo 3.12 Coeficientes j no AR(1) estacionario. Como (1 B)Yt = t entao
Yt = t /(1 B). Logo, ja que Yt = (0 B0 + 1 B1 + 2 B2 + 3 B3 + . . .)t entao,
1
= 0 B0 + 1 B1 + 2 B2 + 3 B3 + . . . ,
1 B
1 = (1 B)(0 B0 + 1 B1 + 2 B2 + 3 B3 + . . .).
Dois polinomios sao iguais se os respectivos coeficientes de Bk sao iguais para k = 0, 1, . . ..
Portanto
1 = 0

(3.33)

0 = 1 0 ,
0 = 2 1 ,

1 =

(3.34)
2

2 = ,

(3.35)

e por induca o podemos demonstrar que k = k .


Observaca o 3.2 O exemplo anterior ilustra um procedimento para obter a
representaca o MA() de um processo. Assim, seja Yt = A(B)t com A(B) = a0 + a1 B +
a2 B2 + . . .. De (3.32) obtemos A(B) = (B) entao os coeficientes j sao encontrados
resolvendo essa igualdade de polinomios.
O seguinte resultado estabelece que se aplicamos um filtro linear a um processo
estacionario entao o resultado e outro processo estacionario.
Teorema 3.1 Seja {Yt } um processo estacionario com esperanca zero e FACV y . Se
P
2
ao o processo
j= j < ent
Xt =

j Ytj

(3.36)

j=

e estacionario com esperanca zero e FACV


X () =

j k Y ( + k j)

(3.37)

j= k=

22

Mauricio Zevallos 2013

Series
Temporais

Portanto, se {Yt } e ruido branco,


X () = 2

(3.38)

j j+

j=

Demonstraca o. E(Xt ) = 0. e
Cov(Xt , Xt+ ) = Cov(

(3.39)

i j Cov(Yti , Yt+j ).

(3.40)

i=

j Yt+j )

i Yti ,

j=

i= j=

Ja que {Yt } e estacionario entao Cov(Yti , Yt+j ) = Y ( + i j), entao substituindo


esta expressao em (3.40) obtemos (3.37). Como X () nao depende de t entao {Xt } e
estacionario. Adicionalmente, note que Y ( + i j) = 2 para j = i + e e zero em
outro caso. Portanto, considerando isto em (3.37) obtemos (3.38).
A expressao (3.38) permite calcular as autocovariancias em processos lineares. Veja
o seguinte exemplo.
Exemplo 3.13 FAC do AR(1) estacionario. Seja yt = yt1 + t com || < 1 e
P
j j+ =
t RB(0, 2 ). Como j = j para j = 0, 1, . . . entao () = 2
j=0
P
P

2 j=0 2j . Ja que j=0 2j = 1/(12 ) para || < 1 obtemos () = 2 /(12 ).


De aqui, (0) = 2 /(1 2 ) e portanto () = para j = 0, 1, . . ..
O Teorema anterior nos diz que os processos lineares sao estacionarios sempre que
a condica o (3.26) seja satisfeita. O seguinte resultado nos diz como evolui a funca o
de autocovariancia.
Teorema 3.2 Seja {Yt } um processo linear onde (3.26) e satisfeita. Entao,
|Y ()| 0 quando .

(3.41)

Existe outra classe de processos estacionarios conhecidos como Harmonicos ou


Singulares que nao cumprem o Teorema anterior. Com efeito, o processo singular
discutido no Exemplo 3.4, Yt = 1 cos(t) + 2 sin(t), tem FAC (k) = 0 para k
impar, (2k) = (1)k para k par, ver Exemplo 3.5. Isto e , as autocorrelaco es nao
convergem para zero na medida que as defasagens aumentam. Adicionalmente,
note que {Yt } nao e linear pois os termos cos(t) e sin(t) dependem de t.
Definica o 3.13 Os processos Singulares estao definidos como
Yt =

j expij t j ,

tZ

(3.42)

j=

23

Mauricio Zevallos 2013

Series
Temporais

onde {j } e uma sequencia de constantes tais que


de numeros reais no intervalo (, ].

2
j= j

< e {j } e uma sequencia

E possivel demonstrar que os processos (3.42) sao estacionarios com FACV


Y () =

j2 expij j ,

(3.43)

j=

Portanto, |Y ()| 9 0 quando .


O seguinte resultado conhecido como Teorema de Wold ou Descomposica o de
Wold desempenha um rol muito importante na teoria de series temporais.
Teorema 3.3 Todo proceso estacionario {Yt } pode ser escrito como:
Yt = Ut + Vt ,

X
Ut =
j tj
Vt =

j=0

j expij t j

j=

onde {t }, {t } sao ruidos brancos com esperanca zero e variancia finita; as sequencias
P
P 2
2
de constantes {j }, {j }, {j } satisfazem
j=0 j < , j=0 j < , j (, ], e as
componentes linear (Ut ) e singular (Vt )sao ortogonais, isto e Cov(Ut , Vt ) = 0.

24

Captulo 4

Modelos ARMA
Uma clase importante de procesos estocasticos saoos Procesos Autoregresivos de
Medias Moviles ARMA, propostos por Box & Jenkins. Estes modelos sao bastante
utilizados na analise de series temporais de diversas a reas do conhecimento.
Denotaremos a um ruido branco estrito com esperanca 0 e variancia 2 como
RB(0, 2 ). Adicionalmente, B e o operador de defasagem.

4.1

Procesos de Medias
Moveis

Definica o 4.1 Um processo de medias moveis de primer ordem com esperanca , denotado como MA(1), e definido como,
yt = + t + t1 ,

t RB(0, 2 ).

(4.1)

Num exemplo anterior encontramos que as autocovariancias e autocorrelaco es sao,


2

(1 + 2 ) si k = 0

2
si k = 1
(k) =
(4.2)

0
elsewhere,

1
si k = 0

2 ) si k = 1
/(1
+

(k) =

0
elsewhere,

(4.3)

O resultado (4.3) permite fazer a seguinte interpretaca o: no processo MA(1) a


memoria e de somente um perodo.
Exemplo 4.1 Uma maneira de simular observaco es do processo MA(1) e a seguinte:
simulamos n + 1 observaco es de um ruido branco {t } e depois obtemos os valores yt para
t = 1, . . . , n de (4.1). Na Figura 4.1 sao mostrados dois processos MA(1) simulados a
partir da mesma sequencia de perturbaco es. O codigo R e,
25

Mauricio Zevallos 2013

Series
Temporais

>
>
>
>
>
>

eps = rnorm(201)
y = eps[2:201] + 0.8*eps[1:200]
z = eps[2:201] - 0.8*eps[1:200]
par(mfrow=c(2,1))
ts.plot(y,main="theta = 0.8")
ts.plot(z,main="theta = -0.8")

Quando = 0.8 temos correlaca o de ordem um positiva, de forma que valores grandes
(pequenos) conduzem a valores grandes (pequenos). Mas, se = 0.8 temos correlaca o
de ordem um negativa e, de forma que valores grandes (pequenos) conduzem a valores
pequenos (grandes). Isto e observado na Figura 4.1, na qual quando = 0.8 a serie e
mais aleatoria quando comparada com a serie com = 0.8.

-2 -1

theta = 0.8

50

100

150

200

150

200

Time

-2

theta = -0.8

50

100
Time

Figura 4.1: Simulaca o de um processo MA(1) com esperanca zero, 2 = 1 e valores de


iguais a 0.8 e -0.8.

Exemplo 4.2 No processo MA(1) mostrar que determina de maneira u nica (1) mas
nao o contrario.
Definica o 4.2 O processo de medias moveis de ordem q com esperanca , denotado
como MA(q), e definido como,
yt = + t + 1 t1 + . . . + q tq ,

t RB(0, 2 ).

(4.4)

26

Mauricio Zevallos 2013

Series
Temporais

Proposica o 4.1 O processo MA(q) e estacionario com autocovariancias


2

(1 + 12 + . . . + q2 ) si k = 0,

2 Pqk
(k) =

si k q

j=0 j j+k

0
outro caso

(4.5)

Neste caso podemos interpretar que a memoria


e de q passos.
Exemplo 4.3 Seja um processo MA(2) com 2 = 2, 1 = 0.7, 2 = 0.2. Entao a FAC e

0.37
si k = 1

0.13
si k = 2
(k) =
(4.6)

0
si k = 3, 4, . . .
Na Figura 2 e mostrada uma simulaca o deste processo.

Figura 4.2: Simulaca o de um processo MA(2) com esperanca zero, 2 = 1, 1 = 0.7,


2 = 0.2
Com ajuda do operador de defasagem podemos escrever o processo MA(q) como
yt =

q
X

k Bk t ,

k=0
q
X

= (

0 = 1,

k Bk )t .

(4.7)

(4.8)

k=0

= (B)t ,

(4.9)

onde (B) = 1 + 1 B + . . . + q Bq recebe o nome de Polinomio de Media Movel.1


1 Em alguns livros define-se o polinomio com coeficientes com sinal negativo

27

Mauricio Zevallos 2013

Series
Temporais

4.2

Processos Autoregresivos

Os modelos autoregresivos, denotados por AR, sao bastante utilizados na analise de


series temporais. Um dos motivos e sua semelhanca com os modelos de regressao.
Com efeito, se num modelo de regressao com variavel resposta yt consideramos

variaveis explanatorias
sendo defasagens desta, isto e , yt1 , yt2 , . . . entao temos um
modelo autoregressivo. Formalmente temos a seguinte definica o.
Definica o 4.3 O processo {yt } e denominado autoregresivo de ordem p, denotado
como AR(p), se
a) {yt } e estacionario.
b) {yt } satisfaz
yt = 1 yt1 + 2 yt2 + . . . + p ytp + t ,
(B)yt = t

(4.10)
(4.11)

onde (B) = 1 1 B . . . p Bp e o Polinomio Autoregressivo e t RB(0, 2 ).


Assim, o processo AR(p) supoe que seja estacionario, formalmente que exista uma
soluca o estacionaria em (4.10). Podemos demonstrar que isto acontece (e a soluca o

e unica)
se e somente se as razes do polinomio autoregressivo
(z) = 1 z 2 z2 . . . p zp
nao estao no circulo unitario. Isto e se as razes da equaca o (z) = 0 satisfazem
|z| , 1.
Adicionalmente, estamos interessados em processos que sejam Causais, isto e ,
processos que possam ser escritos como
Yt =

j tj ,

j=0

|j | <

(4.12)

j=0

De forma que a observaca o atual yt depende exclusivamente dos choques presente e


passados t , t1 , t2 , . . . mas nao dos choques futuros e portanto para K > 0

j tj , t+k
(4.13)
Cov(Yt , t+k ) = Cov

j=0

X
j=0

j Cov(tj , t+k )

(4.14)

j (k + j)

(4.15)

j=0

28

Mauricio Zevallos 2013

Series
Temporais

= 0,

(4.16)

pois {t } e ruido branco.


Pode-se demonstrar que um processo AR(p) e causal se e somente se as razes da
equaca o (z) = 0 satisfazem |z| > 1.
A seguir discutiremos em detalhe os processos AR(1) e AR(2).

4.2.1

AR(1)

O processo AR(1)
yt = yt1 + t

(4.17)

tem soluca o estacionaria se e somente se


1 z = 0 |z| = 1/|| , 1 || , 1,
e o processo e causal se || < 1. Neste caso, como demonstrado no capitulo anterior
P
j
Yt =
j=0 tj . Intuitivamente vemos isto assim
Yt = t1 + t = (yt2 + t1 ) + t = 2 yt2 + t1 + t
k
X
k+1
= Ytk1 +
i ti

(4.18)
(4.19)

i=0

como || < 1 entao o primeiro termo vai para zero2 quando k e entao obtemos
P
j
Yt =
j=0 tj .
Exemplo 4.4 Seja o processo AR(1) com = 0.7. Entao,
Yt = t + 0.7t1 + 0.49t2 + 0.343t3 + 0.2401t4 + . . .

(4.20)

e assim, o impacto dos choques tk no valor de Yt decresce a taxa exponencial na medida


que k aumenta.
Como demonstrado no capitulo anterior, o processo AR(1) causal tem esperanca
zero, variancia (0) = 2 /(1 2 ) e funca o de autocovariancia (k) = k (0). Uma
forma alternativa de encontrar a funca o de autocovariancia e utilisando repetidamente a estrategia de multiplicar adequadamente em (4.17) e aplicar esperanca.
Assim, seja || < 1
Se o processo e estacionario com esperanca entao em (4.17) obtemos E(Yt ) =
E(Yt1 ) + E(t ) e entao = . De forma que = 0 e em consequencia
(k) = E(Yt Ytk ).
2 Se tratando de variaveis aleatorias,

ha como definir isto formalmente

29

Mauricio Zevallos 2013

Series
Temporais

Yt (4.17). Entao E(Yt2 ) = E(Yt Yt1 ) + E(Yt t ), isto e (0) = (1) + E(Yt t ).
Mas, de t (4.17) e tomando esperanca, E(t Yt ) = E(t Yt1 ) + E(2 ). Sendo o
processo causal entao E(t Yt1 ) = 0 e assim E(Yt t ) = 2 . Consequentemente,
(0) = (1) + 2

(4.21)

Yt1 (4.17) e tomando esperanca,


(1) = (0)

(4.22)

De (4.21) e (4.23), {, 2 } sao determinados unicamente a partir de {(0), (1)}


e viceversa. Em particular,
(0) =

2
1 2

(4.23)

Para k 2, de Yt1 (4.17) e tomando esperanca,


(k) = (k 1).

(4.24)

Esta e uma equaca o em diferencas de ordem um cuja soluca o e obtida por


substituica o repetida considerando a condica o inicial (0). Com efeito, (2) =
(1) = 2 (0), (3) = (2) = 3 (0), etc. De forma que,
(k) = k (0),

k 1,

(4.25)

e portanto (k) = k .

Exemplo 4.5 Na Figura 4.3 sao mostradas duas series simuladas de processos AR(1).
Em (a) consideramos = 0.7 e em (c) consideramos = 0.7. Comentar acerca do
comportamento das series e das FAC amostrais.
Definica o 4.4 Dizemos que {Yt } e um processo AR(1) com esperanca se o processo
{Yt } e um processo AR(1).
Definica o 4.5 Dizemos que {Yt } e um processo AR(1) com drift se,
Yt = + Yt1 + t

(4.26)

onde e uma constante e || < 1.


O modelo (4.26) e estacionario e causal com esperanca
=

(4.27)

30

Mauricio Zevallos 2013

Series
Temporais

(b) FAC de (a)

0.4
-0.2

-3

0.0

-2

0.2

-1

ACF

0.6

0.8

1.0

(a) phi = 0.7

50

100

150

200

10

15

Time

Lag

(c) phi = -0.7

(d) FAC de (c)

20

ACF

0.0

0
-3

-0.5

-2

-1

0.5

1.0

50

100

150

200

Time

10

15

20

Lag

Figura 4.3: Simulaca o de processos AR(1) com 2 = 1 e = 0.7 em (a) e = 0.7


em (c). Adicionalmente em (b) e (d) sao mostradas as respectivas FAC
amostrais.

e a mesma estrutura de autocovariancia que o modelo AR(1). Note que,


k1
X

k
X

i ti

(4.28)

Yt =
+
i ti ,
1

(4.29)

Yt =

i=0

i=0

entao quando k ,

i=0

de forma que E(Yt ) = = /(1 ) e portanto {Yt } e AR(1) com esperanca (4.27).
Outra forma de encontrar a esperanca e tomando valor esperado em (4.26). Se o
processo e estacionario entao de E(Yt ) = + E(Yt1 ) + E(t ) obtemos = + e
de aqui igual a (4.27).

4.2.2

AR(2)

Seja o processo AR(2)


Yt = 1 Yt1 + 2 Yt2 + t

(4.30)

31

Mauricio Zevallos 2013

Series
Temporais

Exemplo 4.6 Considere o processo


Yt = 0.75Yt1 0.125Yt2 + t

(4.31)

Entao (z) = 1 0.75z + 0.125z2 . Logo (z) = 0 z2 6z + 8 = 0 de forma que


as razes sao z1 = 4 e z2 = 2. Como estas razes satisfazem |z| > 1 entao o processo e
estacionario e causal.

4.3

Processos ARMA

Box and Jenkins propuseram uma forma parcimoniosa de expressar um processo


estacionario causal Yt = (B)t definindo (B) como o quociente de dois polinomios.
Definica o 4.6 {Yt } e um processo ARMA(p, q) se {Yt } e estacionario e se para cada t
(B)Yt = (B)t

(4.32)

onde os polinomios autoregressivo e de media movel, (B) e (B), nao possuem fatores
comuns.
O processo {Yt } e um processo ARMA(p, q) com media se {Yt } e um processo ARMA.
Observaca o 4.1 Fatores comuns nos polinomios significa raizes comuns. Por exemplo
se (B) = (B) = 1 0.7B
Vemos que para que um processo seja ARMA, este precissa ter uma soluca o estacionaria. O seguinte resultado fornece as condico es para isso.
Proposica o 4.2 Existencia e Unicidade
A equaca o (4.32) possui uma soluca o estacionaria (que e unica) se e somente se as raizes
de (z) = 0, digamos , satisfazem || , 1
Exemplo 4.7 O processo Yt = 0.6Yt1 0.08Yt2 +t 0.2t1 e na verdade um processo
AR(1) Yt = 0.4Yt1 + t que e estacionario.
Estamos interessados em processos ARMA(p, q) causais, de forma que tenham
expansao MA(). As condico es sao as seguintes:
Proposica o 4.3 Causalidade
O processo ARMA(p, q) e causal se as raizes de (z) = 0, digamos , estao fora do circulo
unitario, i.e || > 1

32

Mauricio Zevallos 2013

Series
Temporais

Por outro lado, e importante, por exemplo em termos de previsao, que o processo
ARMA possa ser escrito na forma AR(),
t = 0 Yt + 1 Yt1 + 2 Yt2 + 3 Yt3 + . . . ,
= (B)Yt ,

(4.33)
(4.34)

onde
(B) = 0 + 1 B + 2 B2 + 3 B3 + . . . ,

|j | <

(4.35)

Neste caso o processo e chamado inversvel.


Proposica o 4.4 Inversibilidade
O processo ARMA(p, q) e inversivel se as raizes de (z) = 0, digamos , estao fora do
circulo unitario, i.e || > 1
Seja o processo ARMA (B)Yt = (B)t . Se o processo e causal podemos encontrar
os coeficientes j da representaca o MA() atraves da igualdade de polinomios
(B)
= (B)
(B)

(B) = (B)(B).

(4.36)

Se o processo e inversvel, para encontrar os coeficientes j da representaca o AR()


trabalhamos com
(B)
= (B)
(B)

(B) = (B)(B).

(4.37)

Note que os processos MA(q) sempre sao causais e os processo AR(p) sempre sao
inversveis.
Exemplo 4.8 Seja o processo ARMA(1,1)
Yt = 10 + 0.8Yt1 + t 0.5t1

(4.38)

Exemplo 4.9 O processo yt = t 0.5t1 pode ser escrito como


t =

0.5k ytk

(4.39)

k=0

isto e podemos aproximar este MA(1) pelo processo


Yt ' 0.5Yt1 + 0.25Yt2 + 0.125Yt3 + 0.0625Yt4 + t

(4.40)

Portanto, confrontados MA(1) com AR(4), pelo principio da parsimonia escolhemos


MA(1), mas em termos de explicaca o para o usuario preferimos AR(4).

33

Mauricio Zevallos 2013

Series
Temporais

4.4

Estrutura de Dependencia
nos processos ARMA

Para calcular as autocovariancias e a FAC nos processos ARMA podemos utilisar os


seguintes procedimentos
(a) Escrever o processo na forma MA() Yt =
ou

j=0 j tj

e usar o Teorema 3.1,

(b) Utilisar o metodo descrito anteriormente de (i) multiplicar convenientemente


e (ii) calcular a esperanca.
No seguinte exemplo e ilustrada a opcca o (b).
Exemplo 4.10 Exemplo 4.8 (cont). FAC
Teorema 4.1 FAC do ARMA. No processo ARMA(p,q) temos o seguinte comportamento em termos da FAC e FACP.

FAC
FACP

4.5

AR(p)
decaimento
exponencial
zero depois da
defasagem p

MA(q)
zero depois da
defasagem q
decaimento
exponencial

ARMA(p, q)
decaimento
exponencial
decaimento
exponencial

Notas

Proposica o 4.5 Equaca o em Diferencas de 2do grau


Sejam a e b constantes. As soluco es da equaca o em diferencas de 2do grau,
(k) = a(k 1) + b(k 2),

kl

dependem da natureza das raizes de bz2 + az 1 = 0. Sejam m1 e m2 estas raizes. Entao,


Se as raizes sao reais e diferentes
(k) = c1

1
m1

!k
+ c2

1
m2

!k

Se as raizes sao reais e iguais, m1 = m2 = m



(k) = (c1 + c2 k)

1
m

k

34

Mauricio Zevallos 2013

Series
Temporais

Se as raizes sao complexas, i, + i


 k
1
(k) = c1
cos(k + c2 )
r
q
2 + 2
r =
 
 

= arcCos
= arcSen
r
r
onde as constantes sao determinadas a partir das condico es inicias (l 1), (l 2)

35

Captulo 5

Modelagem ARMA

Na Construca o do Modelo ARMA os passos sao os seguintes: Analise Exploratoria,

Especificaca o, Estimaca o, Diagnostico


e Seleca o de Modelo.

5.1

Analise
Exploratoria

Fazer o grafico da serie, utilizar uma transformaca o para estabilizar a variancia e


avaliar se os dados apresentam dependencia.

5.2

Identificacao

A traves da FAC e FACP, determinar os valores de p e q. Usualmente sao preferidos


valores de p, q = 0, 1, 2, 3, 4.

5.3

Estimacao

Metodo de maxima verossimilhanca. Avaliar se as estimativas sao estatsticamente


significativas. Checar causalidade e invertibilidade. Cuidado com as raizes comuns.
Avaliar se ha overfitting

5.4

Diagnostico

A ferramenta basica e a Analise de Resduos. Seja et o t-esimo resduo e seja et


o t-esimo resduo padronizado. A ideia e que os residuos {et } devem imitar a` s
perturbaco es {t }. O principal aspecto a ser avaliado e a ausencia de correlaca o nos
resduos. Para isto podemos utilizar a FAC e o teste de Box-Ljung,
Q(m) = n(n + 2)

m
X
2 (i)
e

i=1

36

ni

(5.1)

Mauricio Zevallos 2013

Series
Temporais

Sob a hipotese
nula de ausencia de correlaca o, Q(m) mk
onde k = p +q =numero
de parametros i e j . Caso houver estrutura de correlaca o, postular outro modelo.
Outros aspectos que precissam ser avaliados sao: homocedasticidade dos residuos,
normalidade (quando for assumido distribuica o Gaussiana) e examinar se ha
valores atpicos (outliers1 ).

5.5

de Modelo
Selecao

Se tivermos varios modelos satisfatorios,


podemos escolher um deles utilizando os
criterios de informaca o:
Akaike : AIC = ln( 2 ) + (n + 2k)/n
: AICc = ln( 2 ) + (n + k)/(n + k 2)
2

Schwarz : BIC = ln( ) + ln(n)k/n

(5.2)
(5.3)
(5.4)

onde 2 e o estimador deverossimilhanca de 2 e k e o numero


de parametros.2
Preferimos aquele modelo com menor valor dos criterios. No entanto, tem se
mostrado que o criterio de Akaike tende a escolher o modelo de maior ordem.

5.6

Aplicaco es

Exemplo 5.1 Serie W7 de Wei: yearly number of lynx pelts sold by the Hudsons Bay
Company in Canada between 1857 and 1911.
E estimado um modelo ARMA(2,1) com media no logaritmo da serie. O resultado e
(1 1, 53B + 0, 91B2 )(ln(yt ) 9, 81) = (1 0, 60B)t
A saida do programa Gretl e a seguinte3 .
Modelo 1: ARMA, usando as observacoes 18571911 (T = 55)
Variavel dependente: l v1
Erros padrao baseados na Hessiana

const
1
2
1

Coeficiente

Erro Padrao

p-valor

9,81495
1,52577
0,913413
0,605412

0,0484385
0,0553305
0,0482659
0,107868

202,6271
27,5756
18,9246
5,6125

0,0000
0,0000
0,0000
0,0000

1 Isto pode ser feito utilizando testes de outliers ou de maneira informal identificando os residuos
padronizados com valores maiores (em modulo) a 3 ou 4
2 No R, usando o commando sarima, k = p + q + 1 quando a media e estimada.
3 Escolher opcao por defeito, isto e ML incluindo constante

37

Mauricio Zevallos 2013

Series
Temporais

Media var. dependente


Media de inovacoes

Log da verossimilhanAa
Criterio de Schwarz

9, 803051
0, 005865
19, 71207
59, 46081

D.P. var. dependente


D.P. das inovacoes
Criterio de Akaike
HannanQuinn

0, 881952
0, 336084
49, 42414
53, 30540

Na Figura 5.1 e mostrado o ajuste.

Ajuste serie ln(W7)


11,5
11

ajustado
efetivo

l_v1

10,5
10
9,5
9
8,5
8

1860 1870 1880 1890 1900 1910


Figura 5.1: Ajuste W7

Exemplo 5.2 Foi ajustado um modelo ARMA(2,1) na serie temporal serie1-rc. O


resultado do ajuste e o seguinte,

const
1
2
1

Coeficiente

Erro Padrao

p-valor

0,0242693
0,987388
0,109131
0,834819

0,0664434
0,172959
0,0612202
0,164471

0,3653
5,7088
1,7826
5,0758

0,7149
0,0000
0,0747
0,0000

Media var. dependente


Media de inovaco es
Log da verossimilhanca
Criterio de Schwarz

0,023617
0,000805
558,6512
1147,260

D.P. var. dependente


D.P. das inovaco es
Criterio de Akaike
HannanQuinn

0,992319
0,977897
1127,302
1135,206

38

Mauricio Zevallos 2013

Series
Temporais

Real

Imaginaria

Modulo

Frequencia

AR
Raiz
Raiz

1
2

1, 1620
7, 8858

0, 0000
0, 0000

1, 1620
7, 8858

0, 0000
0, 0000

Raiz

1, 1979

0, 0000

1, 1979

0, 0000

MA

Temos raizes muito proximas: 1, 1620 e 1, 1979; portanto, o modelo poderia ser simplificado. Fazer o ajuste do modelo AR(1) e compare os dois ajustes. Qual modelo escolheria?
Fazer a analise completa incluindo diagnostico e comparando os criterios de informacao.

39

Captulo 6

Modelos ARIMA e SARIMA


Os modelos ARMA estudados no capitulo anterior nao sao capazes de reproduzir
caracteristicas como tendencia e sazonalidade. Para fazer isto e necessario extender
os modelos anteriores. Especficamente estudaremos os modelos Sazonais Integrados ARMA, SARIMA. Estos consideram tanto a tendencia como a sazonalidade
como estocasticas.
Comecamos tratando as series com tendencia.

6.1 Modelos ARMA Integrados


6.1.1

Tendencia Estocastica

Lembrando o passeio ao acaso. Este processo esta definido como Yt = Yt1 + t para
t = 1, 2, . . . e consideremos que Y0 = c. Assim,
Yt = c + t1 + t2 + . . . + 1
e portanto E[Yt ] = c e V ar[Yt ] = (t 1) 2 . Isto e , trata-se de um processo nao
estacionario na variancia. Na Figura X mostramos uma serie simulada deste

processo com 2 = 1. Observamos que a trajetoria


e difcil de antecipar.
Considere agora o processo
Yt = Yt1 + (1 + B)t
= Yt1 + t ,

t MA(1)

(6.1)
(6.2)

Daqui, E(Yt ) = E(Yt1 ) e assumindo que Y0 = c, entao o processo e estacionario


em media. Isto e , nao ha tendencia genuina. No entanto, a perturbaca o t nao
e ruido branco e se tiver bastante correlaca o entao Yt tende a apresentar longos

periodos acima e longos periodos abaixo da media. Este fenomeno


e conhecido
como tendencia estocastica.

40

Mauricio Zevallos 2013

Series
Temporais

Note que podemos escrever os processos anteriores como, (1 B)Yt = t e (1 B)Yt =


(1 + B)t . Definindo Xt = (1 B)Yt temos que em ambos os casos os processos
{Xt } sao estacionarios. Em outras palavras, o operador (1 B) permite transformar
um processo nao estacionario em um estacionario. No jargao de series temporais
aplicar o operador (1 B) significa diferenciar a serie. A seguir apresentamos uma
famlia de processos que incorpora estas ideias.

6.1.2

ARIMA

Definica o 6.1 Seja d um inteiro nao negativo, entao {Yt } e um processo ARIMA(p, d, q)
se Xt = (1 B)d Yt e um processo ARMA causal.
Da definica o, {Yt } e ARIMA(p, d, q) se satisfaz a equaca o em diferencas,
(B)(1 B)d Yt = (B)t ,

t RB(0, 2 )

(6.3)

onde (B) e (B) sao os polinomios autoregressivos (de grau p) e de media movel
(de grau q), respectivamente. Para satisfazer a condica o de causalidade, as razes
de (z) = 0 estao fora do circulo unitario.
1. {Yt } e estacionario se e somente se d = 0
2. Seja c uma constante, ja que (1 B)(Yt c) = Yt Yt1 = (1 B)Yt entao se
d 1 podemos introduzir uma constante em (6.4) e o processo Yt continua
satisfazendo a equaca o em diferencas. Exeto quando d = 0 a media do
processo {Yt } nao e determinada pela equaca o (6.4).
3. d e conhecido como o grau de diferenciaca o e Xt = (1 B)d Yt = d Yt e o
processo diferenciado (na modelagem, se y1 , . . . , yn sao as observaco es entao
xt = (1 B)d yt e a serie diferenciada.
Exemplo 6.1 Considere os processos
ARIMA(1,1,0): (1 0.8B)(1 B)Yt = t
ARIMA(0,1,1): (1 B)Yt = (1 0.75B)t
ARIMA(1,1,1): (1 0.9B)(1 B)Yt = (1 0.5B)t
Foram simuladas tres trajetorias destes processos. Comentarios
As series apresentam tendencia estocastica e as series diferenciadas (com d = 1)
parecem estacionarias.
As autocorrelaco es amostrais sao grandes e decaem muito divagar.

41


Series
Temporais

Mauricio Zevallos 2013

Na FACP amostral, a primeira autocorrelaca o parcial e muito grande e o resto


proximo de zero.
Note que a rigor a FAC e a FACP nao estao definidas pois os processos sao naoestacionarios. No entanto, na modelagem, as FAC e FACP amostrais sao ferramentas importantes para a identificaca o. Neste sentido se observarmos as caractersticas
mencionadas, entao modelos candidatos sao os modelos ARIMA.

6.1.3

Modelagem ARIMA

Seja y1 , . . . , yn a serie de interesse, a qual supomos foi gerada pelo processo


ARIMA(p,d,q),
(B)(1 B)d Yt = + (B)t ,

t RB(0, 2 ),

(6.4)

onde e uma constante. Na modelagem podemos seguir o seguinte roteiro.


1. Examinar se a serie e estacionaria em termos de variancia. Se nao for, podemos utilisar as transformaco es de Box-Cox.
2. Se a serie nao for estacionaria em termos de media, diferenciar a serie ate
torna-la estacionaria. Isto e , escolher o valor de d tal que xt = d yt pareca
estacionaria. Nas aplicaco es valores tpicos sao d = 1 ou d = 2. Devemos ter
cuidado com a sobre-diferenciaca o, isto e , escolher um valor de d maior do que
o necessario. Consequencias de fazer isto sao aumentar a variabilidade da
serie e ou mascarar a dependencia na serie diferenciada.
3. Com base nas observaco es x1 , . . . , xnd (pois perdemos d observaco es por causa
da diferenciaca o) identificar um modelo ARMA. Isto e , determinar os valores
de p e q.
4. Uma vez determinada a ordem do modelo, estimar o modelo ARIMA(p,d,q) 1

e fazer o diagnostico.
Modelo estacionario ou nao estacionario? Na modelagem poderiamos ter como
candidatos um modelo ARMA e um modelo ARIMA. Qual escolher? Como sempre,
devemos considerar a natureza da serie analisada. Por exemplo, se as observaco es
correspondem a medidas de um processo controlado teria mais sentido ajustar um
modelo estacionario. Outro elemento a considerar e quais as consequencias em
termos de previsao. O comportamento a medio ou longo praco das previsoes dos
modelos ARMA e ARIMA e muito diferente.
Exemplo 6.2 Serie W5 de Wei: yearly cancer death rate (all forms, per 100000 population) of Pennsylvania between 1930 and 2000.
1 No Gretl, usar o metodo de estimaca
o por defeito

42

Mauricio Zevallos 2013

Series
Temporais

= 0, 333571 e
Estimando ARIMA(0,1,0) com constante obtemos: = 2, 05429, ep()
= 2, 790859
Exemplo 6.3 Serie W6 de Wei: yearly US tobacco production from 1871 to 1984
Seja yt a serie, estimamos ARIMA(0,1,1) com constante no ln(yt ) e obtemos: =
= 0, 00482235, = 0, 688905, ep()
= 0, 0686734 e = 0, 161523.
0, 0142574, ep()

Srie W6: observado vs ajustado


8
7,5

ajustado
efetivo

ln(y_t)

7
6,5
6
5,5
5

1880 1900 1920 1940 1960 1980

Figura 6.1: Ajuste W6

6.2

Modelos SARIMA

Ja sabemos como modelar series com tendencia estocastica. No entanto, muitas


series exibem comportamentos sazonais. A seguir discutiremos como modificar o
processo ARIMA para que capture sazonalidade.

6.2.1

Modelos Sazonais Puros

Comecamos discutindo o seguinte exemplo: interesa modelar a serie de dados composta pelas vendas trimestrais de sorvete. Usualmente observa-se que as maiores
vendas acontecem nos veroes e as menores vendas nos invernos. Adicionalmente,
observa-se que as vendas nos veroes estao correlacionadas e o mesmo acontece com

os invernos e nas outras estaco es. Isto e , observa-se um comportamento periodico

em tempos multiplos
de s = 4. Entao seria conveniente ter um modelo que explique

a serie nos tempos multiplos


de s.

43

Mauricio Zevallos 2013

Series
Temporais

Definica o 6.2 Os modelos Sazonais Autoregressivos de Media movel puros,


SARMA(P , Q)s estao definidos como
(Bs )(yt ) = (Bs )t ,
s

Ps

(6.6)

2s

Qs

(6.7)

(B ) = 1 1 B 2 B . . . P B ,
s

(6.5)

2s

(B ) = 1 + 1 B + 2 B + . . . + Q B .

Note que este processo e como um processo ARMA mas com operadores definidos

em multiplos
de s. Asim, o processo SARMA e causal somente quando as raizes
do polinomio (zs ) estao fora do crculo unitario e e inversvel somente quando as
raizes do polinomio (zs ) estao fora do crculo unitario.
Exemplo 6.4 O modelo SARMA(1,0)12 esta definido como
(1 1 B12 )yt = t ,

(6.8)

yt = 1 yt12 + t .

(6.9)

Supondo que as observaco es correspondem a vendas mensais, podemos interpretar que


as vendas deste mes dependem das vendas do mesmo mes no ano anterior. Note que este
modelo e causal se |1 | < 1 e e inversvel. Fazendo uma analogia com os procesos ARMA,
a FACov e
2

/(1 12 )
si k = 0

2 k
2
(k) =
(6.10)
1 /(1 1 ) se k = . . . , 24, 12, 12, 24, . . .

0
o.c,
Observe que nas defasagens que nao sao multiplos de 12 as autocovariancas sao zero.
Por outro lado, o processo SARMA(0,1)4 ,
yt = (1 + 1 B4 )t = t + 1 t4 ,
e inversvel se |1 | < 1 e e causal.

(k) =

(6.11)

A FACov e
2 (1 + 12 ) si k = 0
1 2
se |k| = 4
0
o.c,

(6.12)

A FAC dos processos SARMA(P , Q)s apresenta o mesmo comportamento qualitativo

que os procesos ARMA nos tempos multiplos


de s.
Exemplo 6.5 Encontrar as condico es de causalidade e inversivilidade do processo
SARMA(1,1)12 definido como
(1 1 B12 )yt = (1 + 1 B12 )t ,

(6.13)

yt = 1 yt12 + t + 1 t12

(6.14)

44

Mauricio Zevallos 2013

Series
Temporais

e calcule a FAC.
Suponhamos agora que a empresa que vende sorvetes tem conseguido sucesso
nas vendas e cada ano vende mais. Isto e , nao so as vendas de cada trimestre
estao correlacionadas; tambem as vendas nos veroes apresentam tendencia. Isto
significa que temos nao-estacionaridade sazonal. Para incorporar esta caracteristica
no modelo SARMA anterior, trabalhamos de maneira analoga ao realizado com os
modelos ARIMA.
Definica o 6.3 O operador de diferenca sazonal, D esta definido como
s D
D
s yt = (1 B ) yt ,

(6.15)

onde D asume valores inteiros: 1, 2, . . .


Definica o 6.4 O modelo SARIMA(P , D, Q)s esta definido como
(Bs )(1 Bs )D (yt ) = (Bs )t

(6.16)

Note que este processo e como ARIMA em periodos s.


Exemplo 6.6 O modelo SARIMA(0, 1, 1)4 esta definido como
(1 B4 )yt = (1 + 1 B4 )t ,

(6.17)

yt yt4 = t + 1 t4 ,

(6.18)

yt = yt4 + t + 1 t4 .

(6.19)

Note que yt yt4 e SARMA causal.

6.2.2

Modelos Sazonais Mistos

Estudemos agora vendas mensais de sorvetes. E logico


pensar que as vendas
de Janeiro nao so dependem das vendas nos Janeiros passados mas tambem das
vendas de Dezembro, Novembro, etc. Portanto temos que incorporar no modelo
as correlaco es mes a mes (periodo 1) e ano a ano (periodo s = 12). Una maneira
de fazer isto e combinar os modelos ARIMA con los modelos SARIMA puros
de forma multiplicativa. Definimos asim os Modelos Multiplicativos Sazonais
Autoregressivos Integrados de Medias Movel, SARIMA(p, d, q)(P , D, Q)s .
Definica o 6.5 Os modelos SARIMA(p, d, q)(P , D, Q)s estao definidos como
(Bs )(B)(1 Bs )D (1 B)d (yt ) = (Bs )(B)t ,

(6.20)

onde
(Bs ) = 1 1 Bs 2 B2s . . . P BP s ,

(6.21)

45

Mauricio Zevallos 2013

Series
Temporais

(Bs ) = 1 + 1 Bs + 2 B2s + . . . + Q BQs ,


2

(6.22)

(B) = 1 1 B 2 B . . . p B ,

(6.23)

(B) = 1 + 1 B + 2 B2 + . . . + q Bq .

(6.24)

A analise da dependencia nestes modelos realiza-se combinando a informaca o


da parte sazonal pura e a parte regular (de ARIMA). Vejamos isto nos seguintes
exemplos.
Exemplo 6.7 Seja o processo SARIMA(0, 0, 1)(0, 0, 1)4 ,
yt = (1 0.5B)(1 0.8B4 )t
= t 0.5t1 0.8t4 + 0.4t5

(6.25)
(6.26)

Asim, o presente esta relacionado com um tempo atras e quatro tempos atras. Mas, da
combinaca o destas tem que estar relacionada com tres e cinco tempos atras. Com efeito,
a parte regular MA(1) tem autocorrelaca o diferente de zero so na primeira defasagem. A
parte sazonal pura so tem correlaca o diferente de zero na defasagem 4. Entao o processo
misto tem autocorrelaco es diferentes de zero nas defasagens (obviando negativos) 1,3,4 e
5.

[Graficos]

Exemplo 6.8 Seja o proceso SARIMA(0, 0, 1)(1, 0, 0)12 ,


(1 0.6B12 )yt = (1 0.7B)t
yt = 0.6yt12 + t 0.7t1

(6.27)
(6.28)

Aqui temos uma parte sazonal pura e uma parte regular decrescentes como no AR(1). As
autocorrelaco s do AR(1) existem para todos os multiplos de 12, mas aquelas da parte regular so existem para a primeira defasagem, entao o processo misto tera autocorrelaco es
diferentes de zero nas defasagens 1, 11, 12, 13, 23, 24, 25, 35, 36, 37, . . ..

[Graficos]

Estes resultados podem ser comprovados calculando a FAC teorica


utilizando as
ferramentas expostas para os modelos ARMA.

46

Mauricio Zevallos 2013

Series
Temporais

Existe uma equivalencia entre os processos SARIMA nao integrados, SARMA


e os processos ARMA. Com efeito, podemos demonstrar que o processo
SARMA(p, q)(P , Q)s e un processo ARMA(p + sP , q + sQ)s com restrico es. Vejamos o
seguinte exemplo.
Exemplo 6.9 Seja o processo SARMA(1, 0)(1, 0)4 ,
(1 B)(1 B4 )yt = t .

(6.29)

Este processo pode ser escrito como


(1 B B4 + B5 )yt = t ,

(6.30)

isto e, como um processo ARMA(5,0) com as seguintes restrico es: 1 = , 2 = 3 = 0,


4 = , 5 = .
Entao surge a pergunta, porque nao utilisar modelos ARMA no lugar dos
SARMA? A respuesta e : por parsimonia e interpretabilidade. Os modelos SARMA
oferecem melhor interpretaca o e os modelos ARMA equivalentes poderiam ter de
masiadas restrico es. Isto ultimo
e um inconveniente do ponto de vista de estimaca o,
devido a que teriamos que fazer maximizaca o com restrico es para encontrar os
estimadores de maxima verossimilhanca.
Exemplo 6.10 Modelo AIRLINE. Nas aplicaco s, um modelo SARIMA bastante utilisado e o SARIMA(0, 1, 1)(0, 1, 1)12 , chamado de AIRLINE devido a sua aplicaca o inicial
em dados de passageiros de aviao. O modelo e
(1 B12 )(1 B)yt = (1 + B)(1 + B)t ,

(6.31)

yt = yt1 + yt12 yt13 + t + t1 + t12 + t13 .

(6.32)

entao,

6.3

do Modelo SARIMA
Construcao

As etapas na construca o do modelo SARIMA sao as seguintes: Fazer o grafico da


serie, transformar os dados (por exemplo quando a serie nao e estacionaria na variancia),
Identificaca o, Estimaca o, Diagnostico, Previsao, Comparaca o de modelos.
No estagio de identificaca o primeiro observamos se a serie apresenta tendencia e
ou sazonalidade. Isto pode ser feito com base no grafico da serie e dos graficos da
FAC e FACP. Assim determinamos o valor do periodo sazonal (s). Depois, utilisando
a FAC e FACP, na analise de la parte estacional, se observarmos que o decaimento

das autocorrelaco es nas defasagens multiplos


de s e muito divagar, entao pode
ser conveniente diferenciar sazonalmente. Na parte regular, se observarmos que
as autocorrelaco es decaem muito divagar entao pode ser conveniente diferenciar.

47

Mauricio Zevallos 2013

Series
Temporais

Outra evidencia de que e necessario diferenciar e se existe tendencia na serie. Na


pratica sao escolhidos valores de d, D iguais a 0,1 ou 2. A serie obtida logo de
diferenciar as partes sazonal e regular,
xt = (1 B)d (1 Bs )D ,

(6.33)

tem que lucir estacionaria.


Lembre que tem que ter cuidado com a
sobrediferenciaca o. Com base na serie xt , auxiliados pela FAC e FACP, determinamos os valores de p, P , q, Q. A determinaca o destes valores pode ser complicada,
de forma que na pratica temos que agir por ensaio e erro.
Uma vez determinada a ordem do modelo, a estimaca o e feita usualmente por

maxima verosimilhanca. A etapa de diagnostico


e realizada de acordo com o
discutido para modelos ARMA. Nesta etapa, lembre que o mais importante e
conseguir resduos que nao apresentem dependencia. Caso contrario, temos que
formular outro modelo.
Com respeito a` comparaca o de modelos, sao utilisados os criterios AIC, BIC, assim
como os indicadores relativos a previsao como MAPE, MAE, etc.
Exemplo 6.11 Serie mensal Federal Reserve Board Production Indexno periodo 1948-1978, analisada em Shumway and Stoffer. Ajustamos um modelo
SARIMA(2, 1, 0)(0, 1, 3)12 .
Modelo 1: ARIMA, usando as observaco es 1949:02-1978:12 (T = 359)
Variavel dependente: (1 L)(1 Ls )v1
Erros padrao baseados na Hessiana

const
1
2
1
2
3

Coeficiente

Erro Padrao

p-valor

0,0173252
0,303382
0,107197
0,739737
0,143955
0,281323

0,0410887
0,0526578
0,0537410
0,0538819
0,0653029
0,0526522

0,4217
5,7614
1,9947
13,7289
2,2044
5,3430

0,6733
0,0000
0,0461
0,0000
0,0275
0,0000

Media var. dependente


Media de inovacoes
Log da verossimilhanca
Criterio de Schwarz

0,029805
0,009010
563,8958
1168,975

D.P. var. dependente


D.P. das inovacoes
Criterio de Akaike
HannanQuinn

1,589325
1,145208
1141,792
1152,601

48

Mauricio Zevallos 2013

Series
Temporais

Real

Imaginaria

Modulo

Frequencia

AR
Raiz
Raiz

1
2

1, 9511
4, 7812

0, 0000
0, 0000

1, 9511
4, 7812

0, 0000
0, 5000

Raiz
Raiz
Raiz

1
2
3

1, 1981
1, 1981
1, 8845

0, 6714
0, 6714
0, 0000

1, 3734
1, 3734
1, 8845

0, 0813
0, 0813
0, 5000

MA (sazonal)

v1 efetivo e ajustado
160
140

ajustado
efetivo

v1

120
100
80
60
40
20

1950 1955 1960 1965 1970 1975

Figura 6.2: Ajuste Federal Reserve Board Production Index

49

Captulo 7

Previsao
7.1

Introducao

Seja {Yt } um processo estocastico. O problema de previsao e determinar um


valor para YT +k dada a informaca o FT , a qual pode ser definida como
(a) Passado Finito: FT = {Y1 , . . . , YT }
(b) Passado Infinito: FT = {YT , YT 1 , . . .}
Esta previsao e denotada por YT (k) onde k e o horizonte de previsao.
Na pratica temos que lidar com a situacao (a), no entanto podemos aproveitar
a teoria desenvolvida sob (b) para resolver o problema (a). Em ocasioes os
resultados obtidos sob (b) constituem boas aproximacoes para (a).
Para obter a previsao YT (k) e desejavel que o erro de previsao
eT (k) = YT +k YT (k),

(7.1)

seja o menor possvel em algum sentido. Se tratando de variaveis aleatorias,


o criterio mais utilizado neste problema e procurar a previsao que forneca o
menor Erro Quadratico Medio.

7.2

em Processos Autoregressivos
Previsao

7.3

em Processos de Media Movel e ARMA


Previsao

7.4

com amostra infinita em processos estaPrevisao

cionarios

Seja {Yt } um processo estacionario com E(Yt ) = 0 e funca o de autocovariancia


conhecida ().
50

Mauricio Zevallos 2013

Series
Temporais

Para calcular o Erro Quadratico Medio de Previsao (EQMP) supomos que o


processo Tt e causal
YT +k =

0 = 1

j T +kj ,

(7.2)

j=0

Aplicando o operador E(|YT , YT 1 , . . .) o qual minimiza o EQMP encontramos


YT (k) =

(7.3)

j T +kj .

j=k

Logo o erro de previsao e


eT (k) = YT +k YT (k) =

k1
X

j T +kj

(7.4)

j=0

O EQMP
v(k) = V ar[eT (k)] =

k1
X

j2

(7.5)

j=0

Supondo que o processo e Gaussiano, Intervalos de Confianca para Previsao


YT +k sao da forma,
p
YT (k) + z/2 v(k).
(7.6)
Quando o processo nao e normal podemos usar desigualdades tipo Tchebishev ou Bonferroni.

7.5

em Processos ARIMA e SARIMA


Previsao

7.6

Comportamento a longo prazo

Seja {Yt } um processo estacionario com E(Yt ) = . Entao a previsao esta dada por
P
YT (k) = +
j=k j T +kj . Quando k os coeficientes j decaem exponencialmente a zero e e possivel demonstrar que YT (k) , onde esta convergencia e no
sentido de erro quadratico medio. De forma que, nos processos estacionarios, a
previsao converge para a media do processo.
Adicionalmente, quando k
v(k) = V ar[eT (k)] = 2

k1
X
j=0

j2 2

j2 = Y (0) = V ar(Y ).

(7.7)

j=0

51

Mauricio Zevallos 2013

Series
Temporais

Como v(k) V ar(Y ) entao a incerteza da previsao aumenta na medida que aumenta
o horizonte de previsao mas converge a um valor igual a` variabilidade da serie.
Ja quando o processo e nao-estacionario, a incerteza das previsoes nao converge, e
de fato aumenta na medida que aumenta o horizonte de previsao.

7.7

Criterios para comparar modelos em termos de previsoes

Sejam YT (1), . . . , YT (m) as previsoes calculadas. Uma forma de avaliar a qualidade


do modelo ajustado em termos de previsao e comparar essas previsoes com os
valores observados YT +1 , . . . , YT +m . Para isto, quatro criterios sao
(a) Mean Percentage Error,
m

MP E = 100

1 X eT (k)
m
YT +k

(7.8)

k=1

(b) Mean Square Error,


m

MP E =

1X 2
eT (k)
m

(7.9)

k=1

(c) Mean Absolute Error,


m

1X
|eT (k)|
MP E =
m

(7.10)

k=1

(d) Mean Absolute Percentage Error,



m
1 X eT (k)


MP E = 100
m
YT +k

(7.11)

k=1

52

Anda mungkin juga menyukai