RIES TEMPORAIS
ANA
RICARDO S. EHLERS
Sum
ario
1 Introdu
c
ao
2 T
ecnicas Descritivas
2.1 Decomposicao Cl
assica .
2.2 Series com Tendencia . .
2.3 Series Sazonais . . . . .
2.4 Autocorrelacao . . . . .
2.4.1 O Correlograma
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Modelos Probabilsticos
3.1 Introducao . . . . . . . . . . . . .
3.2 Processos Estacion
arios . . . . . .
3.3 A Funcao de Autocorrelacao . . . .
3.4 Alguns Processos Estocasticos . . .
3.4.1 Sequencia Aleat
oria . . . .
3.4.2 Passeio Aleat
orio . . . . . .
3.4.3 Processos de Media M
oveis
3.4.4 Processos Autoregressivos .
3.4.5 Modelos Mistos ARMA . .
3.4.6 Modelos ARMA Integrados
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
12
12
14
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
20
21
22
22
22
23
24
26
31
32
4 Estima
c
ao
4.1 Autocovariancia e autocorrelacao . .
4.2 Ajustando Processos Autoregressivos
4.3 Ajustando Processos Medias M
oveis
4.4 Ajustando Processos ARMA . . . . .
4.5 Modelos Sazonais . . . . . . . . . . .
4.6 Adequacao do Modelo . . . . . . . .
4.6.1 An
alise dos Resduos . . . . .
4.6.2 Testes sobre os resduos . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
35
36
37
41
42
43
45
45
46
5 Previs
ao
5.1 Metodos Univariados de Previsao . . . . . . . . . . . . . . . . . . . . .
5.1.1 Alisamento Exponencial Simples . . . . . . . . . . . . . . . . .
54
54
54
SUMARIO
ii
5.2
5.3
5.4
5.5
5.6
6 Modelando a Vari
ancia
6.1 Introducao . . . . . . .
6.2 Modelos ARCH . . . . .
6.3 Modelos GARCH . . . .
6.3.1 Estimacao . . . .
6.3.2 Adequacao . . .
6.4 Volatilidade Estocastica
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
58
60
64
66
69
70
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
75
76
82
83
84
86
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
89
89
91
92
94
97
98
98
99
99
100
101
102
A Lista de Distribui
co
es
A.1 Distribuicao Normal . . . . . .
A.2 A Funcao Gama . . . . . . . .
A.3 Distribuicao Gama . . . . . . .
A.4 Distribuicao Wishart . . . . . .
A.5 Distribuicao Gama Inversa . . .
A.6 Distribuicao Wishart Invertida
A.7 Distribuicao Beta . . . . . . . .
A.8 Distribuicao de Dirichlet . . . .
A.9 Distribuicao t de Student . . .
A.10 Distribuicao F de Fisher . . . .
A.11 Distribuicao Binomial . . . . .
A.12 Distribuicao Multinomial . . .
A.13 Distribuicao de Poisson . . . .
A.14 Distribuicao Binomial Negativa
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
108
108
108
109
109
109
110
110
110
110
111
111
111
112
112
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
SUMARIO
References
iii
113
Captulo 1
Introduc
ao
Uma serie temporal e uma colecao de observacoes feitas sequencialmente ao longo do
tempo. A caracterstica mais importante deste tipo de dados e que as observacoes vizinhas s
ao dependentes e estamos interessados em analisar e modelar esta dependencia.
Enquanto em modelos de regressao por exemplo a ordem das observacoes e irrelevante
para a an
alise, em series temporais a ordem dos dados e crucial. Vale notar tambem
que o tempo pode ser substituido por outra variavel como espaco, profundidade, etc.
Como a maior parte dos procedimentos estatsticos foi desenvolvida para analisar
observacoes independentes o estudo de series temporais requer o uso de tecnicas especficas. Dados de series temporais surgem em varios campos do conhecimento como
Economia (precos di
arios de acoes, taxa mensal de desemprego, producao industrial),
Medicina (eletrocardiograma, eletroencefalograma), Epidemiologia (n
umero mensal
de novos casos de meningite), Meteorologia (precipitacao pluviometrica, temperatura
di
aria, velocidade do vento), etc.
Algumas caractersticas s
ao particulares a este tipo de dados, por exemplo,
Observac
oes correlacionadas s
ao mais difceis de analisar e requerem tecnicas
especficas.
Precisamos levar em conta a ordem temporal das observac
oes.
Fatores complicadores como presenca de tendencias e variac
ao sazonal ou cclica
podem ser difceis de estimar ou remover.
A selec
ao de modelos pode ser bastante complicada, e as ferramentas podem ser
de difcil interpretacao.
Terminologia
Uma serie temporal e dita ser contnua quando as observacoes s
ao feitas continuamente
no tempo. Definindo o conjunto T = {t : t1 < t < t2 } a serie temporal sera denotada
1
CAPITULO 1. INTRODUC
AO
por {X(t) : t T }. Uma serie temporal e dita ser discreta quando as observacoes
s
ao feitas em tempos especficos, geralmente equiespacados. Definindo o conjunto
T = {t1 , . . . , tn } a serie temporal sera denotada por {Xt : t T }. Por simplicidade
podemos fazer T = {1, 2, . . . , n}.
Note que estes termos nao se referem `a variavel observada X, esta pode assumir
valores discretos ou contnuos. Em muitas situacoes X pode ser discreta por definicao
(e.g. o n
umero de casos notificados de AIDS) porem para efeito de an
alise estatstica pode ser tratada como continua se os seus valores observados nao forem muito
pequenos.
Por outro lado, series temporais discretas podem surgir de varias formas. Series
contnuas podem ser discretizadas, i.e. seus valores s
ao registrados a certos intervalos
de tempo. Series de valores agregados ou acumulados em intervalos de tempo, por exemplo exportacoes medidas mensalmente ou quantidade de chuva medida diariamente.
Finalmente, algumas series s
ao inerentemente discretas, por exemplo dividendos pagos
por uma empresa aos seus acionistas em anos sucessivos.
Uma serie temporal tambem pode ser multivariada. Se k variaveis s
ao observadas
a cada tempo (por exemplo discreto) denota-se por {X1t , . . . , Xkt , t T }. Neste caso
varias series correlacionadas devem ser analisadas conjuntamente, ou seja em cada
tempo tem-se um vetor de observacoes.
Objetivos
Em algumas situacoes o objetivo pode ser fazer previsoes de valores futuros enquanto
em outras a estrutura da serie ou sua relacao com outras series pode ser o interesse
principal. De um modo geral, os principais objetivos em se estudar series temporais
podem ser os seguintes,
Descric
ao. Descrever propriedades da serie, e.g. o padrao de tendencia, existencia de variacao sazonal ou cclica, observacoes discrepantes (outliers), alteracoes
estruturais (e.g. mudancas no padr
ao da tendencia ou da sazonalidade), etc.
Explicac
ao. Usar a variacao em uma serie para explicar a variacao em outra
serie.
Predic
ao: predizer valores futuros com base em valores passados. Aqui assumese que o futuro envolve incerteza, ou seja as previsoes nao s
ao perfeitas. Porem
devemos tentar reduzir os erros de previsao.
Controle. Os valores da serie temporal medem a qualidade de um processo
de manufatura e o objetivo e o controle do processo. Um exemplo e o controle
estatstico de qualidade aonde as observacoes s
ao representadas em cartas de
controle. Este topico nao sera abordado nestas notas de aula.
Abordagens
Tecnicas Descritivas. Tecnicas gr
aficos, identificacao de padr
oes, etc.
Modelos Probabilsticos. Selec
ao, comparacao e adequacao de modelos, estimacao, predicao. Ferramenta basica e a funca
o de autocorrelaca
o.
An
alise espectral.
Metodos n
ao parametricos (alisamento ou suavizacao).
Outras Abordagens. Modelos de espaco de estados, modelos n
ao lineares, series
multivariadas, estudos longitudinais, processos de longa dependencia, modelos
para volatilidade, etc.
Sazonalidade
Muitas series temporais exibem um comportamento que tende a se repetir a cada s
perodos de tempo. Por exemplo, e natural esperar que as vendas mensais de brinquedos ter
ao um pico no mes de dezembro e talvez um pico secundario em outubro. Este
padr
ao possivelmente se repetira ao longo de varios anos. Vejamos alguns possveis
modelos sazonais,
1. Sazonalidade deterministica. Variaveis dummies (bin
arias). O coeficiente de
cada variavel dummy representa o fator sazonal do respectivo mes, trimestre,
etc.
2. Funcoes trigonometricas.
3. Sazonalidade estocastica:
(a) Variavel end
ogena com defasagem sazonal no modelo (modelos ARMA
peri
odicos),
(b) modelo ARMA sazonal.
Tipos de Sazonalidade
Aditiva. A serie apresenta flutuac
oes sazonais mais ou menos constantes nao
importando o nvel global da serie.
Multiplicativa. O tamanho das flutuac
oes sazonais varia dependendo do nvel
global da serie.
No exemplo dos brinquedos, suponha que o aumento esperado nas vendas nos
meses de dezembro e de 1 milh
ao de reais em relacao `a media anual. Entao as
previsoes para os meses de dezembro dos proximos anos deve somar a quantia de 1
milh
ao de reais `
a uma media anual para levar em conta esta flutuacao sazonal. Isto
e o que se chama de sazonalidade aditiva.
CAPITULO 1. INTRODUC
AO
Suponha agora que o aumento esperado nos meses de dezembro seja de 30%.
Entao o aumento esperado (em valor absoluto) de vendas em dezembro sera pequeno
ou grande dependendo da media anual de vendas ser baixa ou alta. Nas previsoes
para os proximos meses de dezembro deve-se multiplicar a media anual pelo fator 1,3.
Isto e o que se chama de sazonalidade multiplicativa.
Tend
encia
Globalmente, uma serie pode exibir tendencia de crescimento (ou decrescimento) com
varios possveis padr
oes.
Crescimento linear. Por exemplo, a cada ano o aumento esperado nas vendas
de um certo brinquedo e de 1 milh
ao de reais.
Crescimento exponencial. Por exemplo, a cada ano as vendas de um certo
brinquedo aumentam de um fator 1,3.
Crescimento amortecido. Por exemplo, as vendas de um certo brinquedo tem
uma aumento esperado de 70% sobre o ano anterior. Se o aumento esperado for
de 1 milh
ao de reais no primeiro ano, no segundo ano sera de 700 mil reais, no
terceiro ano sera de 490 mil reais e assim por diante.
Exemplos de S
eries Temporais
Como primeira ilustracao s
ao apresentadas na Figura 1.1 quatro series temporais
disponveis no pacote R. Nos eixos horizontais aparecem os anos de observacao e nos
eixos verticais os nomes das series (mesmos nomes do R). A Figura 1.1a mostra totais
mensais de passageiros em linhas aereas internacionais nos EUA entre 1949 e 1960.
Existe uma clara tendencia de crescimento bem como um padrao sazonal ao longo
dos anos. A Figura 1.1b mostra a serie com o n
umero anual de linces capturados em
armadilhas entre 1821 e 1934 no Canad
a. Existe um padr
ao cclico em torno de 10 ou
11 anos. A Figura 1.1c mostra a serie com as medicoes anuais de vazoes do Rio Nilo
em Ashwan entre 1871 e 1970. Parece haver alguma alteracao estrutural em torno do
ano de 1900. Finalmente a Figura 1.1d mostra a serie trimestral do consumo de g
as no
Reino Unido entre o primeiro trimestre de 1960 e o quarto trimestre de 1986. H
a uma
tendencia de crescimento porem a amplitude do padr
ao sazonal aumenta bastante a
partir de 1971.
lynx
5000
500
2000
300
100
AirPassengers
1950
1954
1958
1820
1000
200
600
UKgas
1000
600
Nile
1900
(b)
1400
(a)
1860
1880
1920
(c)
1960
1960
1970
1980
(d)
Figura 1.1: (a) Totais mensais de passageiros em linhas aereas internacionais nos EUA
entre 1949 e 1960, (b) n
umero anual de linces capturados em armadilhas entre 1821
e 1934 no Canad
a, (c) medicoes anuais de vazoes do Rio Nilo em Ashwan entre 1871
e 1970, (d) consumo de g
as no Reino Unido entre o primeiro trimestre de 1960 e o
quarto trimestre de 1986.
CAPITULO 1. INTRODUC
AO
Exerccios
1. Classifique as seguintes series temporais quanto ao tempo e quanto a variavel
observada.
(a) Registros de mare durante 1 dia.
(b) Medidas de temperatura em uma estacao meteorol
ogica.
(c) O ndice di
ario da bolsa de valores de Sao Paulo.
(d) A inflacao mensal medida pelo ndice de precos ao consumidor.
(e) Variacao di
aria de um determinado ndice financeiro, 1 para variacao positiva, -1 para variacao negativa ou zero se nao ocorreu variacao.
(f) N
umero mensal de novos casos de Dengue em uma determinada regi
ao.
2. De exemplos de series temporais continuas que poderiam ser discretizadas (e de
que forma).
Captulo 2
T
ecnicas Descritivas
Ao se analisar uma ou mais series temporais a representacao gr
afica dos dados sequencialmente ao longo do tempo e fundamental e pode revelar padr
oes de comportamento importantes. Tendencias de crescimento (ou decrescimento), padr
oes cclicos,
alteracoes estruturais, observacoes aberrantes, etc. s
ao muitas vezes facilmente identificados. Sendo assim, o gr
afico temporal deve ser sempre o primeiro passo e antecede
qualquer an
alise. Outras ferramentas serao descritas ao longo deste captulo.
2.1
Decomposic
ao Cl
assica
Muitas das propriedades observadas em uma serie temporal Xt podem ser captadas
assumindo-se a seguinte forma de decomposicao
Xt = Tt + Ct + Rt
onde Tt e uma componente de tendencia, Ct e uma componente cclica ou sazonal e
Rt e uma componente aleat
oria ou rudo (a parte nao explicada, que espera-se ser
puramente aleat
oria). A componente cclica se repete a cada intervalo fixo s, i.e.
= Ct2s = Cts = Ct = Ct+s = Ct+2s = . . . .
Assim, variacoes peri
odicas podem ser captadas por esta componente.
2.2
S
eries com Tend
encia
N
ao existe uma definicao precisa de tendencia e diferentes autores usam este termo de
diferentes formas. Podemos pensar em tendencia como uma mudanca de longo prazo
no nvel medio da serie. A dificuldade aqui e definir longo prazo.
A forma mais simples de tendencia e
Xt = + t + t
(2.1)
onde e s
ao constantes a serem estimadas e t denota um erro aleat
orio com media
zero. O nvel medio da serie no tempo t e dado por mt = + t que e algumas vezes
7
CAPITULO 2. TECNICAS
DESCRITIVAS
2.2. SERIES
COM TENDENCIA
1400
1000
600
800
Vazoes
1200
observado
tendencia grau 6
tendencia grau 3
1880
1900
1920
1940
1960
Figura 2.1: Medicoes anuais de vazoes do Rio Nilo em Ashwan entre 1871 e 1970 (pontos),
com polin
omios de graus 3 e 6 ajustados por minimos quadrados.
Regress
ao Local
A ideia aqui e estimar para cada t uma equacao de regressao polinomial diferente,
por exemplo
x
t =
(t) + (t)t.
Note que as estimativas de e dependem do tempo o que da o carater local das
retas de regressao.
O procedimento conhecido como loess e um procedimento iterativo que a cada
passo aplica a regressao local anterior, calcula os resduos xt x
t e aplica novamente
a regressao local dando peso menor `as observacoes com resduos maiores. Este procedimento se repete ate atingir convergencia.
Exemplo 2.2 : A Figura 2.2 apresenta os mesmos dados da Figura 2.1 sendo que as
curvas superimpostas foram obtidas usando regressao local com os comandos do R a
seguir.
CAPITULO 2. TECNICAS
DESCRITIVAS
1400
10
1000
600
800
Vazoes
1200
observado
tendencia f=1
tendencia f=0.25
1880
1900
1920
1940
1960
Figura 2.2: Medicoes anuais de vazoes do Rio Nilo em Ashwan entre 1871 e 1970 (pontos),
tendencia estimada via funcao lowess.
Filtragem
Outro procedimento para analisar series com tendencia e atraves de filtros lineares.
Um filtro linear converte uma serie {xt } em outra {yt } atraves da seguinte operacao
linear
s
X
yt =
aj xt+j
j=q
onde {aj } e um conjunto de pesos. Alem disso, como queremos estimar a media local
P
os pesos devem ser tais que sj=q aj = 1, garantindo assim que min{xt } < yt <
max{xt }. Neste caso a operacao e chamada media m
ovel.
Medias m
oveis s
ao em geral simetricas com s = q e ar = ar . Por exemplo, se
s = q = 2 temos que
yt = a2 xt2 + a1 xt1 + a0 xt + a1 xt+1 + a2 xt+2 .
O caso mais simples e quando todos os pesos aj tem o mesmo valor e devido `a restricao
de soma 1 segue que aj = 1/(2q +1), para j = q, . . . , q. Neste caso, o valor suavizado
2.2. SERIES
COM TENDENCIA
de xt e dado por
yt =
11
q
X
1
xt+j .
2q + 1
j=q
500
100
200
300
400
dados
Media Movel q=2
Media Movel q=5
600
Exemplo 2.3 : A Figura 2.3 apresenta a serie com os totais mensais de passageiros
de linhas aereas internacionais nos EUA, entre 1949 e 1960 (Box, Jenkins and Reinsel,
1976) juntamente com a tendencia estimada superimposta. Foram aplicados filtros
lineares com medias m
oveis aproximadamente trimestrais (q = 2) e medias m
oveis
aproximadamente anuais (q = 5).
1950
1952
1954
1956
1958
1960
Anos
Figura 2.3: Totais mensais de passageiros de linhas aereas internacionais nos EUA, com
a tendencia superimposta aplicando medias moveis aproximadamente trimestrais (q = 2) e
medias moveis aproximadamente anuais (q = 5).
CAPITULO 2. TECNICAS
DESCRITIVAS
12
X
j=0
(1 )j xtj
onde 0 < < 1. Note como, embora todas as observacoes passadas sejam usadas no
filtro, os pesos (1 )j decaem geometricamente com j. Quanto mais proximo de 1
estiver mais peso sera dado `as observacoes mais recentes e quanto mais proximo de
zero mais os pesos estarao distribuidos ao longo da serie. Por exemplo se = 0, 90 a
serie filtrada fica yt = 0, 9xt + 0, 09xt1 + 0, 009xt2 + . . . enquanto que para = 0, 1
temos que yt = 0, 1xt + 0, 09xt1 + 0, 081xt2 + . . . .
Este tipo de filtro pode ser utilizado para fazer previsoes. Especificamente a
previsao da serie original em t + 1 sera o valor filtrado yt (mais detalhes no Captulo
5).
Diferencia
c
ao
Um tipo especial de filtro, muito u
til para remover uma componente de tendencia
polinomial, consiste em diferenciar a serie ate que ela se torne estacion
aria (este conceito sera formalizado no Captulo 3). Para dados nao sazonais, a primeira diferenca e
em geral suficiente para induzir estacionariedade aproximada. A nova serie y2 , . . . , yn
e formada a partir da serie original x1 , . . . , xn como
yt = xt xt1 = xt .
Note que isto nada mais e do que um filtro (assimetrico) com coeficientes 1 e -1.
Diferenciacao de primeira ordem e a mais utilizada sendo que ocasionalmente uma
diferenciacao de segunda ordem pode ser requerida, i.e.
yt = 2 xt = (xt xt1 ) = xt 2xt1 + xt2 .
Alem disso, independente do seu uso para induzir estacionariedade, a diferenciacao pode ser muito u
til como ferramenta exploratoria. Observacoes discrepantes por
exemplo podem ter um efeito dramatico na serie diferenciada e uma representacao
gr
afica e em geral suficiente para identificar tais pontos.
2.3
S
eries Sazonais
Uma forma bastante simples de eliminar o efeito sazonal e simplesmente tomar medias
sazonais. Por exemplo, em dados mensais com sazonalidade anual, as medias anuais
estarao livres do efeito sazonal. Embora este procedimento esteja correto muitos dados
serao perdidos e ao inves disto pode-se recorrer mais uma vez `as medias m
oveis.
2.4
Autocorrelac
ao
Uma importante ferramenta para se identificar as propriedades de uma serie temporal consiste de uma serie de quantidades chamadas coeficientes de autocorrelaca
o
2.4. AUTOCORRELAC
AO
13
(2.2)
i=1
i=1
(xt x1 )(xt+1 x2 )
r1 = v
un1
n1
X
uX
t (xt x1 )2
(xt+1 x2 )2
t=1
(2.3)
t=1
n
X
e x2 =
t=1
t=2
xt /(n 1).
r1 =
n1
X
t=1
(xt x)(xt+1 x)
(n 1)
n
X
t=1
(2.4)
(xt x) /n
sendo que alguns autores ainda retiram o termo n/(n 1) que e proximo de 1 para
n nao muito pequeno. Esta u
ltima forma simplificada, sem o termo n/(n 1) sera
utilizada neste texto.
A equacao (2.4) pode ser generalizada para calcular a correlacao entre observacoes
defasadas de k perodos de tempo, i.e.
rk =
nk
X
t=1
(xt x)(xt+k x)
n
X
t=1
(xt x)
(2.5)
CAPITULO 2. TECNICAS
DESCRITIVAS
14
nk
X
t=1
Os coeficientes de autocorrelacao s
ao entao obtidos como rk = ck /c0 .
2.4.1
O Correlograma
Um gr
afico com os k primeiros coeficientes de autocorrelacao como funcao de k e
chamado de correlograma e pode ser uma ferramenta poderosa para identificar caractersticas da serie temporal. Porem isto requer uma interpretacao adequada do
correlograma, i.e. devemos associar certos padr
oes do correlograma como determinadas caractersticas de uma serie temporal. Esta nem sempre e uma tarefa simples
e a seguir s
ao dadas algumas indicacoes.
S
eries aleat
orias
A primeira quest
ao que podemos tentar responder atraves do correlograma e se uma
serie temporal e aleat
oria ou nao. Para uma serie completamente aleat
oria os valores
defasados s
ao nao correlacionados e portanto espera-se que rk 0, k = 1, 2, . . . .
Suponha que x1 , . . . , xn sejam variaveis aleat
orias independentes e identicamente
distribuidas com media arbitr
arias. Entao, pode-se mostrar que o coeficiente de autocorrelacao amostral rk e assintoticamente normalmente distribuido, com media e
variancia dados por
E(rk ) 1/n e
V ar(rk ) 1/n.
(ver Kendall, Stuart, & Ord 1983, Captulo 48). Portanto, limites de confianca apro
ximados de 95% s
ao dados por 1/n 1, 96/ n, que s
ao frequentemente ainda mais
0 1 2
15
observaes
2.4. AUTOCORRELAC
AO
20
40
60
80
100
1.0
0.4
0.2
autocorrelaoes
tempo
10
15
20
defasagem
Figura 2.4: (a) 100 observacoes simuladas independentes e identicamente distribuidas. (b)
20 primeiras autocorrelacoes amostrais.
Correlac
ao de curto-prazo
Uma serie temporal na qual uma observacao acima da media tende a ser seguida
por uma ou mais observacoes acima da media, similarmente para observacoes abaixo
da media, e dita ter correlacao de curto-prazo. Um correlograma desta serie devera
exibir um valor relativamente grande de r1 seguido por valores que tendem a ficar
sucessivamente menores. A partir de uma certa defasagem k os valores de rk tendem
a ser aproximadamente zero. Na Figura 2.5 temos 50 observacoes geradas de acordo
com o processo xt = 0, 7xt1 + t juntamente com o seu correlograma.
Correlac
ao negativa
Se os valores de uma serie temporal tendem a se alternar acima e abaixo de um valor
medio, o correlograma desta serie tambem tende a se alternar. O valor de r1 sera
negativo enquanto o valor de r2 sera positivo ja que as observacoes defasadas de 2
perodos tendem a estar do mesmo lado da media. Esta caracterstica esta ilustrada
na Figura 2.6 aonde temos 50 observacoes simuladas com autocorrelacoes negativas
juntamente com as 15 primeiras autocorrelacoes amostrais.
CAPITULO 2. TECNICAS
DESCRITIVAS
2
0
3
observacoes
16
10
20
30
40
50
1.0
0.4
0.2
autocorrelacoes
tempo
10
15
defasagem
S
eries n
ao estacion
arias
Para uma serie temporal com tendencia os valores de rk nao decairao para zero a
nao ser em defasagens grandes. Intuitivamente, isto ocorre porque uma observacao
de um lado da media tende a ser seguida por um grande n
umero de observacoes do
mesmo lado (devido `
a tendencia). Neste caso, pouca ou nenhuma informacao pode
ser extraida do correlograma ja que a tendencia dominar
a outras caractersticas. Na
verdade, como veremos em outros captulos a funcao de autocorrelacao s
o tem um
significado para series estacionarias, sendo assim qualquer tendencia deve ser removida
antes do calculo de {rk }.
A Figura 2.7 mostra uma serie temporal com 50 observacoes geradas segundo o
modelo xt = xt1 + t , juntamente com o seu correlograma. Note que a nao estacionariedade da serie fica evidenciada no correlograma ja que as autocorrelacoes amostrais
decaem muito lentamente.
Varia
c
ao sazonal
Um padr
ao sazonal e em geral facilmente identificado no correlograma. De fato, se
uma serie temporal contem flutuacoes sazonais o correlograma ir
a exibir oscilacoes na
17
observacoes
2.4. AUTOCORRELAC
AO
10
20
30
40
50
0.5
0.5
autocorrelacoes
tempo
10
15
defasagem
Figura 2.6: (a) 50 observacoes simuladas com autocorrelacoes negativas. (b) 15 primeiras
autocorrelacoes amostrais.
mesma frequencia. Por exemplo, com observacoes mensais r6 sera grande e negativo
enquanto r12 sera grande e positivo. Na verdade, se o padr
ao sazonal ja for evidente no
gr
afico da serie original o correlograma trar
a pouca ou nenhuma informacao adicional.
Observa
c
oes discrepantes
Se uma serie temporal contem uma ou mais observacoes discrepantes (outliers) o correlograma pode ser seriamente afetado. No caso de uma u
nica observacao discrepante
o gr
afico de xt contra xt+k ter
a pontos extremos o que pode viesar os coeficientes
de correlacao para zero. Com dois valores discrepantes o efeito pode ser ainda mais
devastador, alem de gerar uma correlacao esp
uria quando k e igual `a dist
ancia entre
os valores.
CAPITULO 2. TECNICAS
DESCRITIVAS
observacoes
18
10
20
30
40
50
0.5
0.5
autocorrelacoes
tempo
10
15
20
defasagem
Figura 2.7: (a) 50 observacoes simuladas segundo um passeio aleatorio. (b) 20 primeiras
autocorrelacoes amostrais.
2.4. AUTOCORRELAC
AO
19
Exerccios
1. Use o R para gerar uma serie temporal Yt = b0 + b1 t + t , t = 1, . . . , 100, com
b0 , b1 6= 0 e t normais e independentes com media e variancia 12 se t 70
mas variancia 22 6= 12 se t > 70. Usando diferentes valores de aplique o
alisamento exponencial e faca um gr
afico da serie com os valores suavizados.
Comente os resultados.
2. Para cada um dos processos abaixo gere 200 observacoes. Faca um gr
afico da
serie e do correlograma.
(a) Serie aleat
oria, observacoes iid da distribuicao N(0,1).
(b) Serie com tendencia estocastica, xt = xt1 + t , t N (0, (0, 1)2 )
Captulo 3
Modelos Probabilsticos
3.1
Introduc
ao
Neste captulo serao descritos varios modelos adequados para dados de series temporais. Tais modelos s
ao chamados de processos estoc
asticos.
Matematicamente um processo estocastico pode ser definido como uma colecao de
variaveis aleat
orias ordenadas no tempo e definidas em um conjunto de pontos T , que
pode ser contnuo ou discreto. Iremos denotar a variavel aleat
oria no tempo t por X(t)
no caso contnuo (usualmente < t < ), e por Xt no caso discreto (usualmente
t = 0, 1, 2, . . . ). O conjunto de possveis valores do processo e chamado de espaco
de estados que pode ser discreto (e.g. o n
umero de chamadas que chegam a uma
central telef
onica a cada 2 horas) ou contnuo (e.g. a temperatura do ar em uma
localidade observada em intervalos de 1 hora).
Em an
alise de series temporais a situacao e bem diferente da maioria dos problemas
estatsticos. Embora seja possvel variar o tamanho da serie observada, usualmente
sera impossvel fazer mais do que uma observacao em cada tempo. Assim, tem-se
apenas uma realizacao do processo estocastico e uma u
nica observacao da variavel
aleat
oria no tempo t denotada por x(t) no caso contnuo e xt , para t = 1, . . . , N no
caso discreto.
Uma maneira de descrever um processo estocastico e atraves da distribuicao
de probabilidade conjunta de X(t1 ), . . . , X(tk ) para qualquer conjunto de tempos
t1 , . . . , tk e qualquer valor de k. Esta e uma tarefa extremamente complicada e na
pratica costuma-se descrever um processo estocastico atraves das funcoes media, vari
ancia e autocovariancia. Estas funcoes s
ao definidas a seguir para o caso contnuo
sendo que definicoes similares se aplicam ao caso discreto.
media (t) = E[X(t)]
variancia 2 (t) = V ar[X(t)]
autocovariancia (t1 , t2 ) = E[X(t1 ) (t1 )][X(t2 ) (t2 )]
Note que a funcao de variancia e um caso especial da funcao de autocovariancia
quando t1 = t2 . Momentos de ordem mais alta do processo tambem ser definidos
20
3.2. PROCESSOS ESTACIONARIOS
21
mas s
ao raramente utilizados na pratica e as funcoes (t) e (t1 , t2 ) s
ao em geral
suficientes.
3.2
Processos Estacion
arios
Cov[X(t), X(t + )] = ( ).
Nenhuma outra suposicao e feita a respeito dos momentos de ordem mais alta.
Alem disso, fazendo = 0 segue que V ar[X(t)] = (0), ou seja a variancia do processo
22
assim como a media tambem e constante. Note tambem que tanto a media quanto a
variancia precisam ser finitos.
Esta definicao mais fraca de estacionariedade sera utilizada daqui em diante ja
que muitas propriedades dos processos estacionarios dependem apenas da estrutura
especificada pelo primeiro e segundo momentos. Uma classe importante de processos aonde isto se verifica e a classe de processos normais ou Gaussianos aonde a
distribuicao conjunta de X(t1 ), . . . , X(tk ) e normal multivariada para todo conjunto
t1 , . . . , tk . A distribuicao normal multivariada fica completamente caracterizada pelo
primeiro e segundo momentos, i.e. por (t) e (t1 , t2 ), assim estacionariedade fraca
implica em estacionariedade estrita para processos normais. Por outro lado, e ( )
podem nao descrever adequadamente processos que sejam muito n
ao-normais.
3.3
A Func
ao de Autocorrelac
ao
Foi visto na Secao 2.4 que os coeficientes de autocorrelacao amostral de uma serie
temporal observada s
ao uma ferramenta importante para descrever a serie. Analogamente, a funcao de autocorrelacao te
orica (fac) de um processo estocastico estacion
ario e uma ferramenta importante para assessar suas propriedades. A seguir
serao apresentadas propriedades gerais da funcao de autocorrelacao.
Se um processo estocastico estacionario X(t) tem media e variancia 2 entao
( ) = ( )/(0) = ( )/ 2
e portanto (0) = 1. As seguintes propriedades s
ao facilmente verificaveis.
1. A correlacao entre X(t) e X(t + ) e a mesma que entre X(t) e X(t ), ou
seja ( ) = ( ).
2. 1 < ( ) < 1.
3. Embora um processo estocastico tenha uma estrutura de autocovariancia u
nica
possvel encontrar varios processos com
o contrario nao e verdadeiro em geral. E
a mesma funcao de autocorrelacao, o que dificulta ainda mais a interpretacao
do correlograma.
3.4
3.4.1
Sequ
encia Aleat
oria
3.4. ALGUNS PROCESSOS ESTOCASTICOS
23
k = 1, 2, . . . .
3.4.2
Passeio Aleat
orio
t
X
E(j ) = t
j=1
V ar(Xt ) =
t
X
V ar(j ) = t2 .
j=1
tk
.
t
24
3.4.3
Processos de M
edia M
oveis
q
X
j E(tj ) = 0
j=1
V ar(Xt ) = V ar(t ) +
q
X
j=1
j2 V ar(tj ) = (1 + 12 + + q2 ) 2 .
0
k>q
qk
X
2
j j+k k = 0, . . . , q
=
(3.2)
j=0
(k)
k<0
1
k=0
qk
q
X
j2 k = 1, . . . , q
j j+k
(k) =
j=0
j=0
0
k>q
(k)
k < 0.
3.4. ALGUNS PROCESSOS ESTOCASTICOS
25
Note que a funcao tem um ponto de corte na defasagem q, i.e. (k) = 0 para k >
q. Esta e uma caracterstica especfica de processos medias m
oveis e sera u
til na
especificacao do valor de q na pratica (Box & Jenkins 1970, p. 170).
> MAacf <- function(q, beta, lag.max) {
+
sig2x = 1 + sum(beta^2)
+
rho = rep(0, lag.max)
+
for (k in 1:q) {
+
rho[k] = beta[k]
+
if (q - k > 0) {
+
for (j in 1:(q - k)) rho[k] = rho[k] + beta[j] *
+
beta[j + k]
+
}
+
rho[k] = rho[k]/sig2x
+
}
+
return(rho)
+ }
> round(MAacf(q = 2, beta = c(0.5, 0.3), lag.max = 6), 4)
[1] 0.4851 0.2239 0.0000 0.0000 0.0000 0.0000
Vamos analisar agora com mais detalhes o caso particular do processo MA(1). A
funcao de autocorrelacao fica
k=0
1
2
(k) =
(3.3)
1 /(1 + 1 ) k = 1
0
k > 1.
Substituindo em (3.3) nao e difcil verificar que estes dois processos diferentes tem
exatamente a mesma funcao de autocorrelacao. Assim, nao e possvel identificar um
processo MA(1) u
nico a partir da funcao de autocorrelacao. Por outro lado, podemos
fazer substituicoes sucessivas e reescrever estes dois processos colocando t em funcao
de Xt , Xt1 , . . . , i.e.
t = Xt Xt1 + 2 Xt2 3 Xt3 + . . .
1
1
1
t = Xt Xt1 + 2 Xt2 3 Xt3 + . . .
Se || < 1 a primeira serie converge e o modelo e dito ser inversvel mas a segunda nao
converge e o modelo e n
ao inversvel. Ou seja, a condicao de inversibilidade (neste
26
para todo j.
3.4.4
Processos Autoregressivos
(3.4)
(3.5)
Note que existe uma estrutura Markoviana no processo AR(1) no sentido de que, dado
Xt1 , Xt nao depende de Xt2 , Xt3 , . . . . Fazendo subtituicoes sucessivas em (3.5)
3.4. ALGUNS PROCESSOS ESTOCASTICOS
27
obtemos que
Xt = (Xt2 + t1 ) + t = 2 Xt2 + t1 + t
= 2 (Xt3 + t2 ) + t1 + t
= 3 Xt3 + 2 t2 + t1 + t
..
.
r
X
= r+1 Xtr1 +
j tj .
j=0
E[Xt
r
X
2
2
j tj ]2 = 2r+2 E(Xtr1
) = 2r+2 X
j=0
(3.6)
note como o efeito de t sobre Xt+k diminui a medida que k aumenta e por isso e
chamado efeito transit
orio.
Podemos tambem usar o operador de retardo reescrevendo a equacao (3.5) como
(1 B)Xt = t
ou equivalentemente
Xt =
1
t = (1 + B + 2 B 2 + . . . )t = t + t1 + 2 t2 + . . .
(1 B)
Escrevendo o processo AR(1) neste formato de MA infinito fica facil ver que a sua
media e variancia s
ao dados por
E(Xt ) = 0 e V ar(Xt ) = 2 (1 + 2 + 4 + . . . ) =
2
.
1 2
A funcao de autocovariancia pode ser obtida usando os resultados acima. Reescrevendo a equacao (3.6) como
Xt+k = t+k + + k1 t+1 + k t + k+1 t1 + k+2 t2 + . . .
pode-se verificar que, para qualquer k = 1, 2, . . . ,
Cov(t + t1 + 2 t2 + . . . , t+k + + k1 t+1 ) = 0.
28
Portanto,
2
2
= k X
= (k).
1 2
0.0
0.8
0.2
0.2
0.4
0.2
0.6
0.6
0.8
10
15
20
10
15
20
10
15
20
10
15
20
0.00
0.20
0.10
0.10
0.00
0.20
3.4. ALGUNS PROCESSOS ESTOCASTICOS
29
j2 < .
ou (B)Xt = t
2 0 B 2 2 1 B 3 2 2 B 4 . . .
..
.
p 0 B p p 1 B p+1 = 1 + 0B + 0B 2 + . . .
e agora agrupando em termos de B, B 2 , . . .
0 + (1 1 0 )B + (2 1 1 2 0 )B 2 + = 1 + 0B + 0B 2 + . . .
donde obtem-se os coeficientes MA recursivamente como
0 = 1
1 = 0 1
2 = 1 1 + 0 2
3 = 2 1 + 1 2 + 0 3
..
.
i
X
ij j .
i =
j=1
30
1 2
1 0
0 1
=
..
..
.
.
0 0
...
...
...
..
.
...
p1 p
0
0
0
0
..
..
.
.
1
0
e ut = (t , 0, . . . , 0) .
Para obter a funcao de autocorrelacao de um processo AR(p) e algebricamente
mais simples assumir a priori que o processo e estacionario com E(Xt ) = 0, V ar(Xt ) =
2 e Cov(X , X
X
cao (3.4) por Xtk , i.e
t
tk ) = (k). Neste caso, multiplicando a equa
Xt Xtk = 1 Xt1 Xtk + + p Xtp Xtk + t Xtk .
e tomando o valor esperado obtemos que
E(Xt Xtk ) = (k) = 1 E(Xt1 Xtk ) + + p E(Xtp Xtk )
= 1 (k 1) + + p (k p),
k > 0.
2 obtem-se que
Dividindo-se ambos os lados pela variancia constante X
(k) = 1 (k 1) + + p (k p),
k>0
k2
Autocorrela
c
oes Parciais
Para um processo AR(p), o u
ltimo coeficiente p mede o excesso de correlacao na
defasagem p que nao e levado em conta por um modelo AR(p 1). Este e chamado
de p-esimo coeficiente de autocorrelaca
o parcial. Assim, variando k = 1, 2, . . . temos
a chamada funca
o de autocorrelaca
o parcial (FACP).
Por outro lado, em um processo AR(p) nao existe correlacao direta entre Xt e
Xtp1 , Xtp2 , . . . e substituindo k = p + 1, p + 2, . . . nas equacoes de Yule-Walker
obtem-se que todos os coeficientes de correlacao parcial serao nulos para k > p. Por
exemplo, substituindo-se k = p + 1 segue que
(p + 1) = 1 (p) + + p (1) + p+1 .
O fato de que a facp e igual a zero para k > p e sugerido em Box and Jenkins (1970,
p. 170) como uma ferramenta para determinar a ordem p do processo autoregressivo
para series temporais observadas.
3.4. ALGUNS PROCESSOS ESTOCASTICOS
3.4.5
31
FAC
0
decaimento
decaimento
decaimento
0, k > 1
decaimento
exponencial
oscilatorio
para zero
a partir de q
FACP
0
0, k 2
idem
0, k > p
decaimento oscilatorio
decaimento a partir de p
32
3.4.6
(3.7)
Da equacao (3.7) acima pode-se notar que o modelo para Xt e claramente nao
estacionario ja que o polin
omio autoregressivo (B)(1 B)d tem exatamente d razes
sobre o crculo unit
ario, ou d razes unit
arias. Um processo que se torna estacionario
ap
os d diferencas e dito ser nao estacionario homogeneo, ou integrado de ordem d,
I(d).
Na pratica valores pequenos s
ao em geral especificados para d, sendo d = 1 o valor
mais frequentemente utilizado e excepcionalmente d = 2. Note tambem que o passeio
aleat
orio pode ser considerado um processo ARIMA(0,1,0).
Vale notar que para dados reais um modelo ARIMA (e de fato qualquer modelo)
e no m
aximo uma aproximacao para o verdadeiro processo gerador dos dados. Na
pratica pode ser bem difcil distinguir entre um processo estacionario com mem
oria
longa (e.g. AR(1) com 1) e um processo nao estacionario homogeneo. Existe
uma vasta literatura econometrica sobre testes de raz unit
aria (ver por exemplo
Hamilton 1994 e Bauwens, Lubrano, & Richard 1999). Mais recentemente, modelos
da classe ARFIMA (ou ARIMA fracion
arios) tem sido utilizados para analisar series
com mem
oria longa. Estes topicos nao serao abordados aqui e o leitor interessado
pode consultar por exemplo Brockwell & Davis (1991) alem das referencias acima.
3.4. ALGUNS PROCESSOS ESTOCASTICOS
33
Exerccios
Nos exerccios a seguir {t } e um processo discreto puramente aleat
orio com media
2
zero e variancia .
1. Encontre a fac do processo Xt = t + 0, 7t1 0, 2t2 .
2. Encontre a fac do processo Xt = 0, 7(Xt1 ) + t .
3. Encontre a fac do processo Xt = 31 Xt1 + 92 Xt2 + t .
4. Se Xt = + t + t1 mostre que a fac do processo nao depende de .
5. Reescreva cada um dos modelos abaixo em termos de operador de retardo B e
verifique se o modelo e estacionario e/ou inversvel:
(a) Xt = 0, 3Xt1 + t .
(b) Xt = t 1, 3 t1 + 0, 4 t2 .
(c) Xt = 0, 5Xt1 + t 1, 3 t1 + 0, 4 t2 .
(d) Xt = 0, 3 Xt1 + t 0, 6 t1
(e) Xt = Xt1 + t 1, 5t1
6. Mostre que o processo Xt = Xt1 + cXt2 + t e estacionario se 1 < c < 0 e
obtenha a fac para c = 3/16.
7. Mostre que o processo Xt = Xt1 + cXt2 cXt3 + t e nao estacionario para
qualquer valor de c.
8. Descreva como deve se comportar a funcao de autocorrelacao te
orica para os
seguintes processos,
(a) AR(1) estacionario, para = 0, 1, = 0, 75 e = 0, 99.
(b) Medias m
oveis de ordem q.
(c) Como deveriam ficar as funcoes de autocorrelacao e autocorrelacao parcial
amostrais que identificam os processos acima?
9. Descreva como deveriam se comportar as funcoes de autocorrelacao e autocorrelacao parcial amostrais para processos AR, MA e ARMA nao sazonais.
10. Para o modelo (1 B)(1 0, 2B)Xt = (1 0, 5B)t , identifique os valores de p,
q, e d e verifique se o processo e estacionario e inversvel.
11. Mostre que a funcao de autocovariancia de um processo AR(1) estacionario com
2
2 (Sugest
variancia X
e dada por k X
ao: use a expressao (3.2) com q )
12. Verifique se Xt =
Pt
j=1 t
e estacionario.
34
Captulo 4
Estima
c
ao
No captulo anterior foram estudados modelos probabilsticos que podem ser utilizados
para descrever dados de series temporais. Neste captulo sera discutido o problema
de ajustar um modelo aos dados observados. A inferencia sera baseada na funcao de
autocorrelacao.
Para um processo estacionario {Xt } (t = 1, . . . , n), a funcao de densidade de
probabilidade conjunta de X1 , . . . , Xn pode ser sempre fatorada como
p(x1 , . . . , xn ) = p(x1 )p(xn , . . . , x2 |x1 )
n
Y
t=p+1
n
Y
t=p+1
p(xt |xt1 , . . . , x1 , )
p(xt |xt1 , . . . , xp , ).
(4.1)
Au
ltima igualdade vem da estrutura Markoviana da componente autoregressiva. O
segundo termo em (4.1) e a densidade condicional conjunta de xp+1 , . . . , xn dados os
valores iniciais x1 , . . . , xp e define entao uma funcao de verossimilhanca condicional
enquanto p(x1 , . . . , xn |) define a funcao de verossimilhanca exata.
Se for atribuida uma distribuicao de probabilidades conjunta tambem para entao
pelo Teorema de Bayes e possvel obter sua distribuicao atualizada ap
os os dados serem
observados (distribuicao a posteriori),
p(|x) =
p(x|)p()
p(x|)p().
p(x)
35
CAPITULO 4. ESTIMAC
AO
36
4.1
Autocovari
ancia e autocorrelac
ao
nk
X
t=1
por 1, 96/ n. No caso geral, limites de 100(1-)% podem ser construidos como
ao.
q/2 / n sendo q/2 o percentil /2 da distribuicao normal padr
Interpretando o correlograma
No Captulo 2 foram vistos alguns exemplos de correlogramas associados a caractersticas de series temporais observadas. O correlograma e u
til tambem na identificacao
do tipo de modelo ARIMA que fornece a melhor representacao de uma serie observada.
Um correlograma como o da Figura 2.7 por exemplo, aonde os valores de rk decaem
para zero de forma relativamente lenta, indica nao estacionariedade e a serie precisa
ser diferenciada. Para series estacionarias o correlograma e comparado com as autocorrelacoes te
oricas de varios processos ARMA para auxiliar na identificacao daquele
mais apropriado. Por exemplo, se r1 e significativamente diferente de zero e todos os
valores subsequentes r2 , r3 , . . . s
ao proximos de zero entao um modelo MA(1) e indicado ja que sua funcao de autocorrelcao te
orica se comporta assim. Por outro lado, se
r1 , r2 , r3 , . . . parecem estar decaindo exponencialmente entao um modelo AR(1) pode
ser apropriado.
Vale notar entretando que a interpretacao de correlogramas e um dos aspectos
mais difceis da an
alise de series temporais. A funcao de autocorrelacao parcial e um
importante coadjuvante nesta etapa de identificacao se houver termos autoregressivos
no modelo ja que seus valores estimados tendem a ficar proximos de zero ap
os a
defasagem p.
Vimos no Captulo 3 que para um processo ARMA(p, q) estacionario a funcao
de autocorrelacao te
orica ter
a um decaimento exponencial ou oscilatorio ap
os a defasagem q enquanto que a funcao de autocorrelacao parcial te
orica ter
a o mesmo
comportamento ap
os a defasagem p. Mas na pratica esta distincao entre decaimentos
37
exponenciais e oscilatorios atraves das estimativas destas funcoes pode ser bastante
difcil.
4.2
n
X
t=p+1
r2 = 1 r1 + 2 + + p rp2
..
.
rp = 1 rp1 + 2 rp2 + + p
ou equivalentemente,
r1
r2
.=
.
.
rp
1
r1
..
.
r1
1
..
.
...
...
rp1 rp2 . . .
1
rp1
rp2 2
..
.
. ..
1
CAPITULO 4. ESTIMAC
AO
38
>
>
>
>
>
>
>
[1]
0.667 -0.738
0.285
Para estimacao por minimos quadrados basta escrever o AR(p) como um modelo
linear usual e resolver um sistema de equacoes lineares. Definindo-se
xp+1
xp . . .
x1
p+1
1
x2
xp+2
xp1 . . .
p+2
2
y=
..
.. X = ..
= .. = ..
.
.
.
.
.
xn
xn1 . . . xnp
n
p
(4.2)
p
X
j xtj , t = p + 1, . . . , n
j=1
n
X
1
e2t .
np
t=p+1
2 (y X) (y X)
2
2 (2 X y + X X)
=
2
2
(2X y + 2X X).
=
2
=
39
Lembrando que (y
= 0
= (X X)1 X y.
=
P
= nt=p+1 e2t segue que
X )
n
X
1
e2t
=
(n p) log(2 ) + 2
2 2
t=p+1
n
X
1
2
4
e2t
(n p)
=
2
(y
X )
2 ))
log(L(,
2
t=p+1
n
X
2 ))
log(L(,
2 = 1
e2t .
=
0
2 2
2
n
p
=
t=p+1
Exemplo 4.2 : Para um modelo AR(1) com erros normais a matriz X tem somente
uma coluna e nao e difcil verificar que
XX=
n
X
x2t1
e Xy=
n
X
xt xt1 .
t=2
t=2
2
P
(xt
xt1 )2 .
=
e =
n
2
n
1
t=2 xt1
t=2
Exemplo 4.3 : Novamente para o modelo AR(1) com erros normais o EMV incondicional e obtido maximizando-se da funcao de verossimilhanca exata. A expressao
(4.1) com p = 1 fica
p(x1 , . . . , xn |, 2 )
p(x1 |, 2 )
n
Y
t=2
p(xt |xt1 , , 2 ).
2
1 2
1/2
1 2 2
x
exp
22 1
)
(
n
1 X
2
2 (n1)/2
(xt xt1 )
( )
exp 2
2
t=2
!)
(
n
X
1
(xt xt1 )2
.
(1 2 )1/2 (2 )n/2 exp 2 (1 2 )x21 +
2
t=2
Maximizar esta expressao (ou seu logaritmo) em relacao a requer algum algoritmo
de otimizacao numerica (por exemplo metodos de Newton-Raphson). No R podemos
usar a funcao optim como no Exemplo 4.4.
CAPITULO 4. ESTIMAC
AO
40
Exemplo 4.4 : Foram gerados 200 valores de um processo AR(1) com par
ametros
2
= 0, 8 e = 1. Os comandos abaixo podem ser usados para obter as estimativas de
m
axima verossimilhanca (incondicional). Note que estamos maximizando o logaritmo
da verossimilhanca e verificando a condicao de estacionariedade.
> fun = function(theta, x) {
+
s2 = theta[1]
+
alpha = theta[2]
+
if (abs(alpha) >= 1)
+
return(-Inf)
+
n = length(x)
+
e = x[2:n] - alpha * x[1:(n - 1)]
+
Q = (1 - alpha^2) * x[1]^2 + sum(e^2)
+
return(-0.5 * (n * log(s2) - log(1 - alpha^2) + Q/s2))
+ }
>
>
>
+
>
e p(2 ) (2 )2 exp(1/2 )
41
e os comandos abaixo podem ser usados para obter a moda da distribuicao a posteriori
conjunta de 2 e .
>
+
+
+
+
>
>
+
>
prior = function(theta) {
s2 = theta[1]
alpha = theta[2]
return(-alpha^2/2 - 1/s2 - 2 * log(s2))
}
post = function(theta, x) fun(theta, x) + prior(theta)
out = optim(init, fn = post, method = "BFGS", control = list(fnscale = -1),
hessian = T, x = x)
out$par
4.3
Ajustando Processos M
edias M
oveis
e2 = x2 1 e1 = x2 1 x1 + 1
e3 = x3 1 e2 2 e1
..
.
CAPITULO 4. ESTIMAC
AO
42
n
Y
1 2
2 1/2
(2 )
exp 2 et
=
2
t=1
)
(
n
X
1
e2t .
(2 )n/2 exp 2
2
t=1
e os valores de et s
ao calculados como anteriormente. Portanto L(, , 2 ) e uma
funcao nao linear dos par
ametros.
Em termos praticos, se o procedimento de otimizacao utilizado levar muitas iteracoes para convergir ou mesmo nao convergir deve-se desconfiar das estimativas.
Neste caso as estimativas podem ser inst
aveis no sentido de que adicionando-se ou
removendo-se uma ou duas observacoes pode-se obter valores muito diferentes. Nesta
situacao pode ser computacionalmente mais vantajoso ajustar um modelo AR aos
dados mesmo que o modelo resultante tenha mais par
ametros do que o modelo MA
sugerido pela funcao de autocorrelacao.
4.4
43
aic = 293.13
Note como as estimativas dos coeficientes estao muito diferentes dos valores verdadeiros e os erros padr
oes estao enormes!
4.5
Modelos Sazonais
CAPITULO 4. ESTIMAC
AO
44
Box & Jenkins (1970) generalizaram o modelo ARIMA para lidar com sazonalidade
e definiram um modelo ARIMA sazonal multiplicativo, denominado SARIMA, dado
por
(B)(B s )Wt = (B)(B s )t
(4.3)
onde
(B) = (1 1 B p B p )
(B s ) = (1 s B s P B P s )
Wt = d D
s Xt
(B) = (1 + 1 B + + q B q )
(B s ) = (1 + s B s + + Q B Qs ).
Este modelo e chamado SARIMA multiplicativo de ordem (p, d, q)(P, D, Q)s e
parece extremamente complicado `a primeira vista mas na pratica os valores de d e
D em geral nao serao maiores do que 1 e um n
umero pequeno de coeficientes sera
suficiente. Por exemplo, com P = 1 temos que
(B s ) = (1 s B s )
o que significa simplesmente que Wt depende de Wts . A serie Wt e formada a partir
da serie original tomando-se diferencas simples para remover a tendencia e diferencas
sazonais para remover a sazonalidade.
Para fixar ideias considere o modelo SARIMA(1,0,0) (0, 1, 1)12 para dados mensais. Ou seja temos um termo autoregressivo e um termo media m
ovel sazonal modelando a primeira diferenca sazonal. O modelo pode ser escrito como
(1 B)(1 B 12 )Xt = (1 B 12 )t
e desenvolvendo os produtos obtemos que
Xt = Xt12 + (Xt1 Xt13 ) + t + t12 .
Assim, Xt depende de Xt1 , Xt12 e Xt13 alem do erro no tempo t 12.
Para finalizar, ao ajustar um modelo sazonal aos dados a primeira tarefa e especificar os valores de d e D que tornam a serie (aproximadamente) estacionaria e
remove a maior parte da sazonalidade. Como ja foi dito, estes valores raramente serao
maiores do que 1. Posteriormente os valores de p, P , q e Q devem ser especificados
com base nas funcoes de autocorrelacao e autocorrelacao parcial da serie diferenciada.
Os valores de P e Q s
ao especificados basicamente a partir de rk , k = s, 2s, . . . . Por
exemplo, para dados mensais se r12 e grande mas r24 e pequeno isto sugere que um
termo media m
ovel sazonal pode ser adequado.
Ap
os ter identificado, por tentativa, o que parece ser um modelo SARIMA razoavel
os par
ametros serao estimados por algum procedimento iterativo similar `aqueles propostos para modelos ARMA. Detalhes sobre as rotinas de estimacao destes modelos
nao serao abordados aqui e podem ser obtidos em Box & Jenkins (1970).
DO MODELO
4.6. ADEQUAC
AO
4.6
45
Adequac
ao do Modelo
Todos os modelos s
ao errados mas alguns s
ao u
teis (George Box)
Ap
os identificar a ordem e estimar eficientemente os par
ametros de um modelo e
necessario verificar sua adequacao antes de utiliza-lo por exemplo para fazer previsoes.
Pode-se fazer testes de sobreajustamento, que consistem em incluir par
ametros extras
no modelo e verificar sua significancia estatstica. No caso de modelos ARMA deve-se
incluir um par
ametro de cada vez para evitar o problema de cancelamento de razes
mencionado na Secao 4.4.
4.6.1
An
alise dos Resduos
Ap
os um modelo ter sido ajustado a uma serie temporal deve-se verificar se ele fornece
uma descricao adequada dos dados. Assim como em outros modelos estatsticos a ideia
e verificar o comportamento dos resduos onde
residuo = observacao - valor ajustado.
Para os modelos vistos aqui o valor ajustado e a previsao 1 passo a frente de modo
que o resduo fica definido como o erro de previsao 1 passo a frente. Por exemplo,
em um modelo AR(1) se
e a estimativa do coeficiente autoregressivo entao o valor
ajustado no tempo t e
xt1 e o resduo correspondente e et = xt
xt1 .
Se o modelo tiver um bom ajuste espera-se que os resduos se distribuam aleatoriamente em torno de zero com variancia aproximadamente constante e sejam nao
correlacionados. Se a variancia dos resduos for crescente uma transformacao logartmica nos dados pode ser apropriada. O fen
omeno de n
ao constancia na variancia
e denominado de volatilidade na literatura de series temporais e pode ser tratado
atraves de transformacoes nos dados (e.g. transformacoes de Box-Cox)1 .
Alem disso, em modelos de series temporais os resduos estao ordenados no tempo
particularmente
e e portanto natural trata-los tambem como uma serie temporal. E
importante que os resduos de um modelo estimado sejam serialmente (i.e. ao longo
do tempo) nao correlacionados. Evidencia de correlacao serial nos resduos e uma
indicacao de que uma ou mais caractersticas da serie nao foi adequadamente descrita
pelo modelo.
Consequentemente, duas maneiras obvias de verificar a adequacao do modelo consistem em representar graficamente os resduos e o seu correlograma. O gr
afico temporal poder
a revelar a presenca de dados discrepantes, efeitos de autocorrelacao ou
padr
oes cclicos enquanto que o correlograma permite uma an
alise mais detalhada da
estrutura de autocorrelacao indicando possveis termos faltantes no modelo.
Ou seja, assim como em outros modelos estatsticos, a ideia e que os resduos
poder
ao identificar caractersticas que nao foram adequadamente modeladas. Por exemplo, autocorrelacoes residuais significativas nas defasagens 1 ou 2, ou em defasagens
1
Uma tendencia mais recente no entanto consiste em tentar modelar simultaneamente a media e
a vari
ancia ao inves de usar transformac
oes.
CAPITULO 4. ESTIMAC
AO
46
4.6.2
m
X
rk2 .
k=1
Na pratica o n
umero m de autocorrelacoes amostrais e tipicamente escolhido entre
15 e 30. Se o modelo ajustado for apropriado entao Q ter
a distribuicao aproximadamente qui-quadrado com m p q graus de liberdade. Assim, valores grandes de Q
fornecem indicacao contra a hip
otese de que as autocorrelacoes s
ao todas nulas, em
favor da hip
otese de que ao menos uma delas e diferente de zero.
O teste de Box-Pierce nao tem bom desempenho em amostras pequenas ou moderadas no sentido de que a distribuicao se afasta da qui-quadrado. V
arios testes
alternativos foram sugeridos na literatura e o mais conhecido e o teste de Ljung-Box,
aonde a estatstica de teste e dada por
Q = n(n + 2)
m
X
k=1
rk2
.
nk
qui-quadrado
com
DO MODELO
4.6. ADEQUAC
AO
47
> y = log(AirPassengers)
> z = cbind(y, diff(y), diff(y, lag = 12))
> yl = c("No de passageiros", "Variacao mensal", "Variacao anual")
0.2
0.4 0.8
FAC
6.0
5.0
No de passageiros
1950
1954
1958
10
25
30
35
25
30
35
25
30
35
1.0
0.2
0.4
FAC
0.2
0.0
1950
1954
1958
10
15
20
defasagem
0.4
0.2
0.0
FAC
0.2
1.0
Anos
Variacao anual
20
defasagem
0.2
Variacao mensal
Anos
15
1950
1954
1958
Anos
10
15
20
defasagem
Figura 4.1:
Os gr
aficos anteriores indicam que precisamos tomar 1 diferenca simples mais 1
diferenca sazonal para tentar induzir estacionariedade aproximada.
> z = diff(diff(y), lag = 12)
> m = acf(z, lag.max = 36, plot = F)
> m$lag = m$lag * 12
Note que ha valores grandes nas defasagens 1, 3, 12 e 23 do u
ltimo gr
afico. Isto
pode ser uma indicacao de que termos MA sazonais e nao sazonais devem ser incluidos
CAPITULO 4. ESTIMAC
AO
48
0.15
0.00
0.15
1950
1952
1954
1956
1958
1960
0.2
0.4
ACF
0.8
Anos
10
15
20
25
30
35
Lag
Figura 4.2: Gr
afico da serie com 1 diferenca simples e 1 sazonal mais o correlograma
da serie diferenciada.
no modelo. Um modelo candidato para o logaritmo da serie e SARIMA(0,1,1)x(0,1,1)
e foi estimado usando os comandos abaixo.
> m = arima(y, order = c(0, 1, 1), seasonal = list(order = c(0,
+
1, 1)))
> m
Call:
arima(x = y, order = c(0, 1, 1), seasonal = list(order = c(0, 1, 1)))
Coefficients:
ma1
-0.4018
s.e.
0.0896
sma1
-0.5569
0.0731
DO MODELO
4.6. ADEQUAC
AO
sigma^2 estimated as 0.001348:
49
log likelihood = 244.7,
aic = -483.4
3 1
Standardized Residuals
1950
1952
1954
1956
1958
1960
Time
0.4 0.8
0.2
ACF
ACF of Residuals
0.0
0.5
1.0
1.5
Lag
0.8
0.4
0.0
p value
10
lag
CAPITULO 4. ESTIMAC
AO
50
[1]
[1]
[1]
[1]
[1]
[1]
[1]
0.3663101
0.4320234
0.4883209
0.539204
0.6328112
0.5096084
0.5502513
mj =
1X
(Xt X)j
n
t=1
m4
=p
K
m22
p
respectivamente. Sob a hip
otese de normalidade as variaveis aleat
orias n/6A e
p
3) s
n/24(K
ao independentes e tem distribuicao assintotica N (0, 1) e assim a
estatstica
3)2
nA2 n(K
+
6
24
tem distribuicao assintotica 2 com 2 graus de liberdade e pode ser usada para testar
a normalidade de X.
As outras verificacoes usuais sobre os residuos tambem devem ser feitas. Por
exemplo, um histograma com curva normal superposta, o gr
afico de probabilidades
normais e um teste de normalidade. Os comandos abaixo podem ser utilizados no R
para testar os residuos do Exemplo 4.7 e gerar a Figura 4.7.
> z = m$residuals
> d = seq(range(z)[1] - 3 * sd(z), range(z)[2] + 3 * sd(z), 0.001)
> a = shapiro.test(z)
DO MODELO
4.6. ADEQUAC
AO
>
>
>
>
>
>
>
51
8
4
0
Density
12
Histogram of z
0.10
0.05
0.00
0.05
0.10
0.05
Teste de ShapiroWilk
pvalor= 0.1674
0.10
Sample Quantiles
Normal QQ Plot
Theoretical Quantiles
Figura 4.4: Histograma com curva normal superposta e normal plot dos residuos no
Exemplo 7.
CAPITULO 4. ESTIMAC
AO
52
Exerccios
1. A partir de 100 observacoes do processo Xt = 1 Xt1 + 2 Xt2 + t foram
calculadas as seguintes autocorrelacoes amostrais r1 = 0.8, r2 = 0.5 e r3 = 0.4.
Obtenha estimativas para 1 e 2 .
2. Calcule as autocorrelacoes te
oricas de um processo MA(Q) puramente sazonal.
3. Faca um esboco do correlograma para uma serie com estrutura MA(Q) puramente sazonal, i.e. nao existe dependencia dentro de um perodo sazonal.
4. Para uma serie temporal observada foi identificado o modelo ARIMA(1,1,1).
(a) Escreva o modelo em termos do operador de retardo.
(b) Descreva como deve ter sido o comportamento das funcoes de autocorrelacao e autocorrelacao parcial da serie original e da serie diferenciada.
5. Escreva o modelo SARIMA(0, 0, 1) (1, 1, 0)12 em termos de operador de retardo.
6. Para uma serie mensal observada foi identificado e estimado o modelo
SARIMA(1,1,0)(0,1,0).
(a) Escreva o modelo em termos de operador de retardo.
(b) Descreva como deve ter sido o comportamento das funcoes de autocorrelacao e autocorrelacao parcial da serie original e da serie diferenciada.
(c) Como deve ser o comportamento esperado dos resduos em termos de suas
autocorrelacoes para que o modelo seja adequado?
(d) O que se deve fazer no caso de autocorrelacoes residuais significativas nas
defasagens 1, 8 e 12 ?
7. Para uma serie observada trimestralmente foi identificado e estimado o modelo
SARIMA(1,1,0)(2,1,1).
(a) Escreva o modelo em termos de operador de retardo.
(b) Descreva como deve ter sido o comportamento das funcoes de autocorrelacao e autocorrelacao parcial da serie original e da serie diferenciada.
(c) O que se deve fazer se a autocorrelacao residual na defasagem 4 for significativa ?
8. Explique como voce estimaria os coeficientes em um modelo ARMA(1,1) utilizando as duas primeiras autocorrelacoes amostrais?
9. Obtenha os estimadores de mnimos quadrados para os coeficientes em um modelo AR(2).
10. Escreva as equacoes de mnimos quadrados para o modelo AR(p). Como voce
estima a variancia dos erros?
DO MODELO
4.6. ADEQUAC
AO
53
Captulo 5
Previs
ao
Uma das formas de utilizacao de um modelo ajustado e para fazer previsoes de valores
futuros. Assim, se t e o perodo corrente estamos interessados em prever os valores
de Xt+1 , Xt+2 , . . . . A previsao de Xt+k , para k = 1, 2, . . . sera denotada por x
t (k) e e
definida como a esperanca condicional de Xt+k dados todos os valores passados, i.e.
x
t (k) = E(Xt+k |xt , xt1 , . . . ).
(5.1)
5.1
M
etodos Univariados de Previs
ao
Os metodos descritos nesta secao tem um forte apelo intuitivo, decompondo uma serie
temporal em componentes de facil interpretacao. Dados os recursos computacionais
disponveis atualmente eles tambem tem a vantagem de serem extremamente simples
de programar e sua utilizacao ter um custo computacional muito pequeno. Vamos
comecar com o caso mais simples, adequado para series localmente constantes.
5.1.1
Dada uma serie temporal x1 , . . . , xn , nao sazonal e sem tendencia sistematica, e razoavel tomar a estimativa de xn+1 como uma soma ponderada das observacoes passadas, i.e.
x
n (1) = a0 xn + a1 xn1 + . . .
54
5.1. METODOS
UNIVARIADOS DE PREVISAO
55
onde {aj } s
ao os pesos. Parece razo
avel tambem dar um peso maior `as observacoes
mais recentes do que `
as observacoes mais distantes no passado, i.e. a0 > a1 > . . . .
Neste procedimento s
ao adotados pesos que decaem geometricamente a uma taxa
constante dados por
aj = (1 )j , j = 0, 1, . . .
onde 0 < < 1 e chamada de constante de alisamento. Assim, a previsao 1 passo `a
frente em t = n fica
x
n (1) = xn + (1 )xn1 + (1 )2 xn2 + . . . .
(5.2)
(5.3)
i.e. uma media ponderada entre a observacao mais recente e a previsao 1 passo `a
frente anterior (no tempo t = n 1). A equacao (5.2) pode ainda ser reescrita na
forma de correca
o de erro. Definindo en = xn x
n1 (1) o erro de previsao 1 passo `a
frente no tempo n entao
x
n (1) = x
n1 (1) + en .
Ou seja, a previsao para t = n + 1 e igual `a previsao para t = n que foi feita em
t = n 1 mais uma proporcao do erro cometido. A previsao k-passos a frente e a
mesma, i.e x
n (k) = x
n (1), k = 2, 3, . . . .
Previs
oes Dentro da Amostra
Usando x
0 (1) = x1 como previsao inicial em t = 0 e definindo et = xt x
t1 (1) os
erros de previsao 1 passo `
a frente, a equacao (5.3) pode ser usada recursivamente para
obter as previsoes, i.e.
x
t (1) = xt + (1 )
xt1 (1),
t = 1, 2, . . .
t = 1, 2, . . .
Especifica
c
ao de
Vale notar que o valor de nao depende da escala em que as observacoes foram medidas, mas sim das propriedades da serie temporal. O valor de deve ser especificado de
modo a refletir a influencia das observacoes passadas nas previsoes. Valores pequenos
CAPITULO 5. PREVISAO
56
produzem previsoes que dependem de muitas observacoes passadas. Por outro lado,
valores proximos de 1 levam a previsoes que dependem das observacoes mais recentes
e no caso extremo = 1 a previsao e simplesmente a u
ltima observacao. O valor de
tambem pode ser estimado a partir dos dados e o criterio utilizado e a minimizacao
da soma de quadrados dos erros de previsao. Ou seja, dado um valor fixo de e
usando a equacao (5.3), calcule
x
0 (1) = x1 ,
x
1 (1) = x1 + (1 )
x0 (1),
x
2 (1) = x2 + (1 )
x1 (1),
..
.
e2 = x2 x
1 (1)
e3 = x3 x
2 (1)
x
n1 (1) = xn1 + (1 )
xn2 (1),
en = xn x
n1 (1)
Pn 2
e calcule
t=2 et . Repita o procedimento para valores de variando entre 0 e 1
(digamos com incrementos de 0,1) e selecione o valor que minimiza esta soma de
quadrados. Na pratica, o valor mnimo pode ocorrer muito proximo de um dos extremos do intervalo de variacao de . Isto pode ocorrer quando a soma de quadrados
varia muito pouco na regi
ao em torno do mnimo. Neste caso faz mais sentido utilizar
valores nao tao extremos.
Exemplo 5.1 : No banco de dados do R, a serie lh contem as quantidades de um
tipo de hormonio em amostras de sangue coletadas a cada 10 minutos de uma pessoa
do sexo feminino (Diggle 1990). Vamos aplicar o metodo de alisamento exponencial
simples `
a esta serie fazendo primeiro a selecao do valor de que minimiza a soma
dos quadrados dos erros de previsao 1 passo a frente. Na Figura 5.1 temos o gr
afico
desta soma de quadrados como funcao de e o gr
afico das previsoes 1 passo `a frente
juntamente com a serie observada.
O valor
otimo obtido foi = 0, 945 com a soma de erros quadrados igual a 11,86
e os seguintes comandos do R podem ser utilizados para a selecao de .
5.1. METODOS
UNIVARIADOS DE PREVISAO
+
+
+
+
+
+ }
12.0
13.5
>
>
>
>
57
0.2
0.4
0.6
0.8
1.0
2.5
1.5
Hormonio
3.5
10
20
30
40
Amostras
Figura 5.1: Soma dos quadrados dos erros de previsao 1 passo a frente em funcao de .
Valores observados (pontos) e previsoes 1 passo a frente (linhas) usando o valor otimo de .
Exemplo 5.2 : O procedimento do Exemplo 5.1 foi repetido para a serie de medidas
anuais de vazoes do Rio Nilo entre 1871 e 1970, tambem do banco de dados do R. Os
resultados estao na Figura 5.2.
CAPITULO 5. PREVISAO
58
2100000
2700000
>
>
>
>
0.2
0.4
0.6
0.8
1.0
80
100
800
1000
20
40
60
Figura 5.2: Soma dos quadrados dos erros de previsao 1 passo a frente em funcao de .
Valores observados (pontos) e previsoes 1 passo a frente (linhas) usando o valor otimo de
5.1.2
M
etodo de Holt-Winters
O procedimento de alisamento exponencial pode ser generalizado para series que contenham tendencia e variacao sazonal. Suponha por exemplo que as observacoes s
ao
mensais e sejam Lt , Tt e It o nvel, a tendencia e o ndice sazonal no tempo t. Assim,
Tt e o aumento ou reducao esperada por mes no nvel atual da serie.
Suponha que no tempo t os termos (L1 , T1 , I1 ), . . . , (Lt1 , Tt1 , It1 ) sejam conhecidos. Entao, ap
os observar xt os termos Lt , Tt e It s
ao atualizados via alisamento
exponencial. Se a variacao sazonal for multiplicativa, i.e. com amplitudes que tendem
a crescer ao longo do tempo, as equacoes de atualizacao na forma de recorrencia s
ao
5.1. METODOS
UNIVARIADOS DE PREVISAO
59
dadas por
Lt = (xt /It12 ) + (1 )(Lt1 + Tt1 )
Tt = (Lt Lt1 ) + (1 )Tt1
It = (xt /Lt ) + (1 )It12
e as previsoes k perodos `
a frente s
ao dadas por
x
t (k) = (Lt + kTt )It12+k ,
k = 1, 2, . . . .
e as previsoes k perodos `
a frente ficam
x
t (k) = Lt + kTt + It12+k ,
k = 1, 2, . . . .
e a previsao k passos `
a frente no tempo t e simplesmente Lt + kTt . Se a serie tambem
nao tem uma tendencia sistematica retorna-se `a equacao (5.3), ou seja
Lt = xt + (1 )Lt1
e Lt e a previsao 1 passo `
a frente (
xt (1)).
Exemplo 5.3 : A variavel UKLungDeaths contem os n
umeros mensais de mortes
por doencas do pulmao (bronquite, efisema e asma) no Reino Unido entre janeiro
de 1974 e dezembro de 1979. A variavel e composta por 3 series: ambos os sexos
(ldeaths), sexo feminino (fdeaths) e sexo masculino (mdeaths). Aqui sera utilizada a
funcao HoltWinters do R que faz o alisamento exponencial de Holt-Winters com a
CAPITULO 5. PREVISAO
60
2500
2000
1000
1500
Observed / Fitted
3000
3500
4000
HoltWinters filtering
1975
1976
1977
1978
1979
1980
1981
Time
Figura 5.3: Serie original, serie suavizada e previsoes para o ano de 1980 da serie ldeaths via
metodo de Holt-Winters.
5.2
Previs
ao em Modelos ARMA
EM MODELOS ARMA
5.2. PREVISAO
61
e obtida substituido valores futuros dos erros por zero, valores futuros da serie
Xn+1 , Xn+2 , . . . pela sua esperanca condicional, e valores passados de X e de pelos
seus valores observados.
Tomemos como exemplo o modelo SARIMA(1, 0, 0) (0, 1, 1)12 . A equacao do
modelo e dada por
(1 B)(1 B 12 )Xt = (1 + B 12 )t
ou equivalentemente
Xt = Xt12 + (Xt1 Xt13 ) + t + t12 .
Neste caso, as previsoes 1 e 2 passos `a frente ficam
x
n (1) = xn11 + (xn xn12 ) + n11
x
n (2) = xn10 + (
xn (1) xn11 ) + n10 .
Note como o valor futuro Xn+1 foi substitudo na segunda equacao pela sua esperanca
condicional x
n (1), i.e. a previsao feita em t = n para t = n + 1. Previsoes para
horizontes maiores podem ser obtidas recursivamente.
No caso de modelos autoregressivos AR(p) nao e difcil verificar como fica a funcao
de previsao.
x
t (1) = 1 xt + + p xtp+1
x
t (2) = 1 x
t (1) + + p xtp+2
..
.
x
t (p + 1) = 1 x
t (p) + + p x
t (1)
de modo que as previsoes para horizontes maiores do que p usam apenas as previsoes
anteriores. Para p = 1 por exemplo segue que
x
t (k) =
xt (k 1) = 2 x
t (k 2) = = k xt
Para modelos medias m
oveis MA(q) tambem nao e difcil verificar que a equacao
de previsao fica
x
t (1) = 1 t + + q tq+1
x
t (2) = 2 t + + q tq+2
..
.
x
t (q) = q t
x
t (q + j) = 0,
j = 1, 2, . . .
ou seja,
x
t (k) =
( P
q
i=k
0,
i t+ki , k = 1, . . . , q
k>q
CAPITULO 5. PREVISAO
62
Atualiza
c
ao das Previs
oes
interessante notar tambem como as previsoes podem ser atualizadas conforme novas
E
observacoes da serie forem obtidas. Suponha por exemplo que o valor xn+1 foi observado. Neste caso a previsao para t = n + 2 ficara condicionada em x1 , . . . , xn , xn+1
e pode ser facilmente atualizada para a nova origem n + 1. Para o modelo SARIMA
visto acima a previsao fica
x
n+1 (1) = E(Xn+2 |xn+1 , . . . , x1 )
(5.4)
Somando e subtraindo
xn (1) no lado direito de (5.4) obtemos que
x
n+1 (1) = xn10 + (
xn (1) xn11 ) + (xn+1 x
n (1)) + n10
= x
n (2) + (xn+1 x
n (1))
Previs
oes usando a forma MA
As previsoes tambem podem ser obtidas reescrevendo-se o modelo como um processo
medias m
oveis de ordem infinita. Neste caso temos que
Xn+k = n+k + 1 n+k1 + + k n + k+1 n1 + . . .
e fica claro que a previsao k passos `a frente e dada por
x
n (k) = k n + k+1 n1 + . . . .
(5.5)
Note que apenas os valores n , n1 , . . . foram utilizados ja que a esperanca dos valores
futuros e igual a zero. Esta forma e particularmente u
til para o calculo da variancia
do erro de previsao. Da equacao (5.5) obtemos que o erro de previsao k passos `
a
frente e dado por
xn+k x
n (k) = n+k + 1 n+k1 + + k1 n+1
e portanto a variancia do erro de previsao e dada por
2
V ar(et+k ) = (1 + 12 + + k1
)2 .
O ponto importante a se notar aqui e que, para 2 fixo, a variancia do erro de previsao
aumenta com o horizonte de previsao. Na pratica, isto significa ter mais confianca
em previsoes de curto prazo do que em previsoes de longo prazo.
Ate agora nao haviamos assumido nenhuma distribuicao de probabilidade para os
erros. Assumindo tambem que a sequencia {t } seja normalmente distribuida pode-se
EM MODELOS ARMA
5.2. PREVISAO
63
construir intervalos de confianca para Xt+k simetricos em torno das previsoes. Estes
s
ao chamados intervalos de previsao e s
ao dados por
v
u
k1
u
X
u
j2 2 .
x
t (k) z/2 t1 +
j=1
Transformac
oes
Em muitas aplicacoes a serie modelada e na verdade uma transformacao dos dados
originais, sendo a transformacao logaritmica a mais usual. Assim, tanto as previsoes
pontuais quanto os intervalos de previsao s
ao obtidos para a serie transformada e estes
valores precisam ser transformados novamente para a escala original. A abordagem
mais simples (e geralmente adotada) consiste simplesmente em tomar a transformacao
inversa, por exemplo se um modelo foi ajustado para a serie Xt = log Yt entao yn (k) =
exp(
xn (k)) e a previsao k passos a frente da serie original. No entanto deve-se ter em
mente que estas previsoes via transformacao inversa s
ao em geral viesadas. Felismente
os intervalos de previsao tem boas propriedades e por exemplo quanto se toma o antilogaritmo dos limites
p
x
n (k) z/2 var(en+k )
CAPITULO 5. PREVISAO
64
10000
9000
8000
7000
11000
> data(USAccDeaths)
> plot(USAccDeaths, xlab = "Anos", ylab = "Numero de mortes por acidente")
1973
1974
1975
1976
1977
1978
1979
Anos
Figura 5.4: Totais mensais de mortes por acidente nos Estados Unidos entre janeiro de 1973
e dezembro de 1978.
5.3
Performance Preditiva
65
1961 Jan
1961 Feb
1961 Mar
1961 Apr
1961 May
1961 Jun
1961 Jul
1961 Aug
1961 Sep
1961 Oct
1961 Nov
1961 Dec
previsao
6.11
6.05
6.17
6.20
6.23
6.37
6.51
6.50
6.32
6.21
6.06
6.17
li
6.04
5.97
6.08
6.09
6.12
6.25
6.38
6.37
6.18
6.06
5.91
6.00
ls
6.18
6.14
6.27
6.31
6.35
6.49
6.64
6.64
6.47
6.36
6.22
6.33
Tabela 5.1: Previsoes e limites inferior (li) e superior (ls) dos intervalos de previsao.
CAPITULO 5. PREVISAO
66
1961 Jan
1961 Feb
1961 Mar
1961 Apr
1961 May
1961 Jun
1961 Jul
1961 Aug
1961 Sep
1961 Oct
1961 Nov
1961 Dec
prev
450.42
425.72
479.01
492.40
509.05
583.34
670.01
667.08
558.19
497.21
429.87
477.24
li
418.53
390.81
435.08
443.00
453.98
516.02
588.18
581.40
483.18
427.59
367.37
405.40
ls
484.74
463.75
527.37
547.32
570.81
659.45
763.23
765.38
644.85
578.17
503.01
561.81
prev.li
31.89
34.91
43.93
49.41
55.07
67.33
81.83
85.68
75.01
69.62
62.50
71.84
ls.prev
34.32
38.03
48.36
54.92
61.75
76.11
93.22
98.30
86.66
80.96
73.14
84.57
Tabela 5.2: Previsoes e limites inferior (li) e superior (ls) e semi-amplitudes dos
intervalos de previsao.
as previsoes podem ser comparadas com os valores observados. Por exemplo, para uma
serie mensal observada ao longo de 5 anos poderia-se estimar o modelo identificado
usando os primeiros 4 anos e meio (54 observacoes) e fazer previsoes para os u
ltimos
6 meses.
5.4
Crit
erios de Informac
ao
2t .
5.4. CRITERIOS
DE INFORMAC
AO
67
Identificac
ao Revisitada
Vimos que as duas ferramentas basicas para identificacao de modelos da classe ARIMA
s
ao as autocorrelacoes e autocorrelacoes parciais amostrais. Esta etapa envolve algum grau de arbitrariedade por parte do pesquisador ao interpretar estas funcoes,
i.e. comparar subjetivamente seus valores amostrais com os correspondentes valores
te
oricos.
Uma abordagem alternativa consiste em usar os criterios de informacao de um
forma mais abrangente. Neste caso, um conjunto de possveis modelos competidores
e definido a priori e aquele que minimiza o AIC ou BIC e selecionado. Por exemplo,
modelos ARMA(p, q) podem ser estimados sequencialmente variando os valores de p
e q entre 0 e 3 digamos. Note que neste caso teremos 16 possveis modelos sendo
comparados e os criterios de informacao s
ao agora funcoes de p e q. Analogamente,
para modelos AR(p) podemos variar o valor de p, digamos entre 1 e 10.
Na pratica este procedimento pode ser aplicado de forma semi-autom
atica ja que
muitos pacotes estatsticos fornecem estes valores. Porem ap
os um modelo ser selecionado a an
alise residual ainda deve ser feita antes de se passar `a etapa das previsoes.
Outro problema de ordem pratica e que pode haver dois ou mais modelos com AIC
e/ou BIC muito similares de modo que nao seja trivial discriminar entre eles. Nestas
situacoes Burnham & Anderson (1998), Secao 4.2, sugerem o uso de pesos que s
ao
obtidos subtraindo-se o valor associado com o melhor modelo. Os pesos relativos ao
AIC s
ao dados por
wk exp(AIC(k)/2)
CAPITULO 5. PREVISAO
68
p = 1, . . . , pmax
1
2
3
4
5
p
1
2
3
4
5
AIC
-242.3913
-333.0988
-332.7283
-335.6596
-335.8881
pesos AIC
0.0000
0.1057
0.0878
0.3802
0.4263
BIC
-234.9189
-321.8902
-317.7835
-316.9786
-313.4709
pesos BIC
0.0000
0.8137
0.1044
0.0698
0.0121
Tabela 5.3: Criterios de informacao AIC e BIC e respectivos pesos para modelos
AR(p) ajustados a serie Lynx.
y = log10(lynx)
x = y - mean(y)
p = 1:15
n = length(x)
crit = matrix(0, nrow = length(p), ncol = 5)
colnames(crit) = c("p", "AIC", "pesos AIC", "BIC", "pesos BIC")
crit[, 1] = p
for (k in p) {
ar = arima(x, order = c(k, 0, 0), include.mean = F)
5.5. PREVISOES
USANDO TODOS OS MODELOS
+
+
+
>
>
>
>
69
crit[k, 2] = n * log(ar$sigma2) + 2 * (k + 1)
crit[k, 4] = n * log(ar$sigma2) + (k + 1) + (k + 1) * log(n)
}
aicp =
bicp =
crit[,
crit[,
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
p
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
AIC
-242.3913
-333.0988
-332.7283
-335.6596
-335.8881
-334.4484
-338.8427
-338.8505
-338.3849
-341.8678
-354.5690
-354.7117
-353.0609
-351.0895
-349.2335
pesos AIC
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0001
0.0001
0.0006
0.3581
0.3846
0.1685
0.0629
0.0249
BIC
-234.9189
-321.8902
-317.7835
-316.9786
-313.4709
-308.2950
-308.9531
-305.2247
-301.0229
-300.7696
-309.7346
-306.1411
-300.7541
-295.0465
-289.4543
pesos BIC
0.0000
0.8100
0.1039
0.0695
0.0120
0.0009
0.0013
0.0002
0.0000
0.0000
0.0019
0.0003
0.0000
0.0000
0.0000
Tabela 5.4: Criterios de informacao AIC e BIC e respectivos pesos para modelos
AR(p) ajustados a serie Lynx.
5.5
Previs
oes Usando Todos os Modelos
Suponha que existem k modelos candidatos denotados por M1 , M2 , . . . , Mk e desejase fazer a previsao de Xn+h . Tratando tanto Xn+h quanto Mi como variaveis
aleat
orias entao pelas regras de esperanca condicional segue que
x
n (h) = E(Xn+h |x) =
k
X
i=1
CAPITULO 5. PREVISAO
70
Ou seja, podemos escrever a previsao pontual como uma mistura discreta de previsoes
pontuais sob cada modelo considerado.
A mesma l
ogica se aplica a qualquer funcao de Xn+h , em particular
2
E(Xn+h
|x) =
k
X
i=1
2
E(Xn+h
|x, Mi )P (Mi |x).
que pode ser usado para quantificar a incerteza sobre Xn+h , i.e.
2
|x) [E(Xn+h |x)]2
V ar(Xn+h |x) = E(Xn+h
k
X
i=1
k
X
i=1
2
E(Xn+h
|x, Mi )P (Mi |x) [E(Xn+h |x)]2
5.6
pX
max
i=1
Previs
ao Bayesiana
BAYESIANA
5.6. PREVISAO
10000
11000
12000
9000
**
8000
**
*
7000
6000
>
+
+
>
>
>
>
>
71
1973
1974
1975
1976
1977
1978
1979
1980
Anos
Figura 5.5: Previsoes para 1979 com observacoes do primeiro semestre incluidas.
CAPITULO 5. PREVISAO
4000
3000
0
1000
2000
lynx
5000
6000
7000
72
1820
1840
1860
1880
1900
1920
Time
Figura 5.6: Totais anuais de linces canadenses capturados em armadilhas entre 1821 e 1934.
BAYESIANA
5.6. PREVISAO
73
Exerccios
1. No alisamento exponencial simples descreva a papel do par
ametro .
2. No metodo de Holt-Winters descreva o papel dos par
ametros , e .
3. Explique em que situacoes seriam usados os metodos de Holt-Winters aditivo
ou multiplicativo.
4. Seja o modelo MA(1), Xt = t + t1 .
(a) Obtenha a previsao 1 passo `a frente em t = n e mostre que as previsoes k
passos `
a frente para k = 2, 3, . . . s
ao iguais a zero.
(b) Mostre que a variancia do erro de previsao k passos `a frente e dada por 2
para k = 1 e (1 + 2 )2 para k = 2, 3, . . . .
5. Seja o modelo Xt = 90 + t + 0, 8t1 + 0, 5t1 .
(a) Obtenha as previsoes k passos `a frente em t = n.
(b) Obtenha a variancia do erro de previsao k passos `a frente.
6. Seja o modelo AR(1), Xt = Xt1 + t .
(a) Mostre que a previsao k passos `a frente feita em t = n e dada por k xn .
(b) Mostre que a variancia do erro de previsao k passos `a frente e dada por
2 (1 2k )/(1 2 ).
7. Para o modelo SARIMA(0, 0, 1)(1, 1, 0)12 obtenha as previsoes no tempo t = n
para ate 12 perodos `
a frente em termos das observacoes e residuos ate o tempo
t = n.
8. Seja o modelo (1 B)(1 0, 2B)Xt = (1 0, 5B)t .
(a) Obtenha as previsoes 1 e 2 passos `a frente.
(b) Mostre que as previsoes 3 ou mais passos `a frente s
ao dadas pela equacao
recursiva x
n (k) = 1, 2
xn (k 1) 0, 2
xn (k 2).
(c) Obtenha a variancia dos erros de previsao 1, 2 e 3 passos `a frente.
(d) Obtenha a previsao x
n (2) e o erro padr
ao do erro de previsao sabendo que
2
n = 1, xn = 4, xn1 = 3 e = 2.
9. Seja o modelo ARIMA(1,0,1) para uma serie Xt com media zero.
(a) Reescreva o modelo na forma de choques aleat
orios, i.e.
Xt = t + 1 t1 + 2 t2 + . . .
obtendo uma expressao geral para os coeficientes j .
(b) Escreva a expressao da variancia do erro de previsao et (k) = xt+k x
t (k).
CAPITULO 5. PREVISAO
74
Captulo 6
Modelando a Vari
ancia
6.1
Introduc
ao
Nos modelos vistos ate aqui a variancia dos erros foi assumida constante ao longo
do tempo, i.e. V ar(t ) = E(2t ) = 2 . Muitas series temporais no entanto exibem
perodos de grande volatilidade seguidos de perodos de relativa tranquilidade. Nestes
casos, a suposicao de variancia constante (homocedasticidade) pode nao ser apropriada. Na verdade, embora a variancia incondicional dos erros ainda possa ser assumida
constante, sua variancia condicional pode estar mudando ao longo do tempo.
Alem disso, em muitas situacoes praticas tem-se interesse em prever a variancia
condicional da serie alem da serie propriamente dita. Por exemplo, no mercado de
acoes o interesse e nao apenas prever a taxa de retorno mas tambem a sua variancia
ao longo de um certo perodo. Esta variancia condicional e tambem chamada de
volatilidade. Algumas referencias para este captulo s
ao Taylor (1986), Franses (1998),
e Tsay (2002).
Exemplo 6.1 : Na Figura 6.1 os gr
aficos da esquerda apresentam as taxas de c
ambio di
arias da Libra Esterlina, Dolar Canadense, Marco Alemao e Iene Japones, em
relacao ao Dolar Americano, enquanto nos gr
aficos da direita estao os logaritmos
das taxas de variacao (retornos di
arios). O perodo amostral vai de janeiro de 1991
a dezembro de 1998. Uma caracterstica comum nestes retornos e que embora as
medias parecam ser aproximadamente constantes as variancias mudam ao longo do
tempo. Na Figura 6.2 estao os histogramas com uma curva normal superimposta para
os mesmos dados (retornos). Pode-se notar que muitos valores aparecem nas caudas
das distribuicoes. Finalmente, na Figura 6.3 temos as autocorrelacoes amostrais dos
retornos e dos retornos ao quadrado. Note como existe bastante aucorrelacao entre os
retornos ao quadrado. Todas estas caractersticas s
ao em geral verificadas em series
reais de retornos e devem ser levadas em conta pelo modelo.
A ideia aqui e tentar modelar simultaneamente a media e a variancia de uma serie
temporal. Para fixar ideias, suponha que um modelo AR(1), Xt = Xt1 + t foi
75
500
1000
1500
2000
0.00
0.015
0.03
0.000
0.02 0.015
0.00
0.03
0.00
0.04
0.70
0.60
0.50
1.4
1.2
1.8
1.6
1.4
140
120
100
80
0
0.02
76
500
1000
1500
2000
6.2
Modelos ARCH
77
Dolar Canadense
20
50
40
100
60
150
80
Libra Esterlina
0.03
0.01
0.01
0.03
0.015
0.010
Iene Japones
20
20
40
40
60
60
Marco Alemao
0.000
0.03
0.01
0.01
0.03
0.06
0.02
0.02
(6.2)
CAPITULO 6. MODELANDO A VARIANCIA
78
Libra Esterlina^2
0.05
0.04
Libra Esterlina
10
15
20
25
30
15
20
25
30
Dolar Canadense^2
0.05
0.04
Dolar Canadense
10
10
15
20
25
30
15
20
25
30
Marco Alemao^2
0.05
0.06
Marco Alemao
10
10
15
20
25
30
15
20
25
30
Iene Japones^2
0.05
0.00
Iene Japones
10
10
15
20
25
30
10
15
20
25
30
c
.
1
Alem disso,
Cov(t , t+k ) = E(t t+k ) = E[E(t t+k )|t+k1 , . . . , t1 ]
q
= E[t E(vt+k c + 2t+k1 )] = 0, para k > 0.
79
de uma distribuicao N (0, 1). A sequencia {t } foi construida usando a equacao (6.1)
com c = 1 e = 0, 8. Note como a sequencia {t } continua tendo media zero mas
parece ter tido um aumento de volatilidade em alguns perodos. Em um modelo
AR(1), a forma como esta estrutura nos erros afeta a serie original depende do valor
do par
ametro autoregressivo e duas possveis situacoes s
ao mostradas nos gr
aficos
inferiores da figura. Na Figura 6.5 temos o histograma dos valores {t } gerados, com
uma curva normal superimposta, alem do gr
afico de probabilidades normais (QQplot normal). Note como ha um excesso de valores nas caudas ocorrendo com uma
frequencia maior do que seria esperado na distribuicao normal.
(t) = v(t) 1 + 0.8(t 1)2
10
5
0
5
10
processo aleatrio
50
100
150
200
100
150
200
10
10
50
50
100
150
200
50
100
150
200
CAPITULO 6. MODELANDO A VARIANCIA
0.10
0.00
densidades
80
10
5
0
5
quantis amostrais
QQ plot Normal
quantis teoricos
81
c2 (1 + )
.
(1 )(1 2 )
c2 (1 + )
(1 )2
1 2
=
, para 2 < 1
(1 )(1 2 )
c2
1 2
que e sempre maior do que . Ou seja, qualquer que seja a distribuicao de vt o coeficiente de curtose sera maior do que a curtose de vt (desde que > 0 e > 1). Em
particular, processos ARCH(1) tem caudas mais pesadas do que a distribuicao normal e s
ao portanto adequados para modelar series temporais com esta caracterstica.
Series de retornos, como as do Exemplo 6.1, frequentemente apresentam caudas mais
pesados do que a normal devido ao excesso de curtose.
Previs
oes da Volatilidade
2
= E(hn+k1 |In )E(vn+k1
|In )
n (k 1)
= E(hn+k1 |In ) = h
O Modelo ARCH(p)
Estas ideias podem ser generalizadas para processos mais gerais ARCH(p) em que a
variancia condicional depende dos quadrados de p erros passados, i.e.
q
t = vt c + 1 2t1 + + p 2tp
(6.3)
CAPITULO 6. MODELANDO A VARIANCIA
82
Identificac
ao
A caracterstica chave dos modelos ARCH e que a variancia condicional dos erros t se
comporta como um processo autoregressivo. Portanto deve-se esperar que os resduos
de um modelo ARMA ajustado a uma serie temporal observada tambem sigam este
padr
ao caracterstico. Em particular, se o modelo ajustado for adequado entao a FAC
e a FACP dos resduos devem indicar um processo puramente aleat
orio, no entanto
2
se a FAC dos quadrados dos resduos, t , tiver um decaimento caracterstico de uma
autoregressao isto e uma indicacao de que um modelo ARCH pode ser apropriado. A
ordem p do modelo pode ser identificada atraves da FACP dos quadrados dos resduos.
Previs
oes da Volatilidade
Suponha que uma serie temporal Xt segue um processo ARCH (p). As previsoes da
volatilidade, k passos `
a frente, no tempo t = n s
ao obtidas como,
n (k) = E(hn+k |In ) = c +
h
p
X
i=j
2
j E(Xn+kj
|In ).
2
2
Para k j segue que E(Xn+kj
|In ) = Xn+kj
e para k > j temos que
2
2
E(Xn+kj
|In ) = E(hn+kj vn+kj
|In )
2
|In )
= E(hn+kj |In )E(vn+kj
n (k j)
= E(hn+kj |In ) = h
6.3
Modelos GARCH
Uma generalizacao natural dos modelos ARCH consiste em assumir que a variancia
condicional se comporta como um processo ARMA, i.e. depende tambem de seus
p
X
i=1
i 2ti
q
X
j htj
j=1
83
Embora a primeira vista pareca um modelo mais complexo, sua vantagem sobre
os modelos ARCH e basicamente a parcimonia. Assim como um modelo ARMA pode
ser mais parcimonioso no sentido de apresentar menos par
ametros a serem estimados
do que modelos AR ou MA, um modelo GARCH pode ser usado para descrever a
volatilidade com menos par
ametros do que modelos ARCH.
Em termos de identificacao dos valores de p e q as ferramentas basicas s
ao mais
uma vez a FAC e a FACP dos quadrados dos resduos. Assim, se o modelo ajustado
for adequado a FAC e a FACP dos resduos devem indicar um processo puramente
aleat
orio, no entanto quando estas funcoes s
ao aplicadas aos quadrados dos resduos
elas devem indicar um processo ARMA(p, q). A identificacao pode nao ser muito facil
em algumas aplicacoes embora na maioria dos casos um modelo GARCH(1,1) seja
suficiente. Na pratica recomenda-se tambem tentar outros modelos de ordem baixa
como GARCH(1,2) e GARCH(2,1).
As previsoes da volatilidade em modelos GARCH s
ao obtidas de forma similar
a de um modelo ARMA. Por exemplo, ap
os estimar os par
ametros de um modelo
GARCH(1,1) e assumindo-se que 0 = h0 = 0 pode-se construir as sequencias 1 , . . . , t
e h1 , . . . , ht e a previsao 1 passo `a frente da volatilidade fica
t2 (1) = c + 2t + ht .
6.3.1
Estima
c
ao
n
Y
t=p+1
n
Y
t=p+1
1/2
(2ht )
x2
exp t
2ht
Em geral o n
umero de observacoes sera grande o suficiente para que o termo
p(x1 , . . . , xp |) possa ser desprezado. Por exemplo, para um modelo ARCH(1) a
funcao log-verossimilhanca fica
0.5
n
X
log(2) + log(c + x2t1 ) + x2t /(c + x2t1 ) .
t=2
CAPITULO 6. MODELANDO A VARIANCIA
84
6.3.2
Adequa
c
ao
5000
1993
1994
1995
1996
1997
1998
1992
1993
1994
1995
1996
1997
1998
0.00
1992
0.10
retornos
2000
DAX
85
library(tseries)
data(EuStockMarkets)
x = EuStockMarkets
dax = diff(log(x))[, "DAX"]
m = garch(dax, trace = F)
summary(m)$coef
Estimate
Std. Error
t value
Pr(>|t|)
a0 4.639289e-06 7.559834e-07 6.136760 8.422159e-10
a1 6.832875e-02 1.125067e-02 6.073307 1.253022e-09
b1 8.890666e-01 1.652019e-02 53.816990 0.000000e+00
> summary(m)$j.b.test
Jarque Bera Test
data: Residuals
X-squared = 12946.60, df = 2, p-value < 2.2e-16
> summary(m)$l.b.test
Box-Ljung test
data: Squared.Residuals
X-squared = 0.1357, df = 1, p-value = 0.7126
Assim, o modelo ajustado obtido foi
p
Yt = vt ht , vt N (0, 1)
2
ht = 0.00005 + 0.068Yt1
+ 0.889ht1
sendo todos os coeficientes significativos. O teste de Ljung-Box aplicado nos quadrados dos residuos indicou aleatoriedade (p-valor = 0,71), no entanto o teste de normalidade de Jarque-Bera aplicado aos residuos rejeitou a hip
otese nula (p-valor<0,001).
Assim a hip
otese de normalidade condicional parece estar sendo violada.
Na Figura 6.7 estao os histogramas, gr
aficos de probabilidades normais dos retornos e resduos do modelo GARCH(1,1) estimado, alem dos correlogramas dos
quadrados dos retornos e resduos.
Um fato estilizado presente em series temporais financeiras e que o mercado tem
baixa volatilidade quando esta em alta e alta volatilidade quando esta em baixa.
Tal assimetria nao e levada em conta pelos modelos GARCH e para contornar esta
limitacao outros modelos foram propostos na literatura. Por exemplo, no modelo
EGARCH (ou GARCH exponencial) modela-se o logaritmo da volatilidade como,
t1
2
2
+ t1 + t1
log(t ) = c +
.
t1
t1
CAPITULO 6. MODELANDO A VARIANCIA
86
Residuos
0.0
0 10
0.2
30
DAX
0.10
0.05
0.00
0.05
10
Residuos
0.10
0.00
0.10
DAX
25
30
Residuos^2
0.0
10
0.4
0.8
residuos
1992
1994
1996
1998
10
15
20
Time
6.4
Volatilidade Estoc
astica
As formulas para modelar t2 vistas ate agora foram todas determinsticas, i.e. sem
uma componente de erro aleat
orio. No entanto, pode ser mais razoavel assumir que a
variancia condicional varia estocasticamente ao longo do tempo ao inves de deterministicamente, especialmente se existem mudancas abruptas na volatilidade (e.g. como
resultado de greves, guerras, etc.).
Assim, uma alternativa aos modelos ARCH ou GARCH consiste em assumir que
segue um processo estocastico. Geralmente modela-se o logaritmo de t2 . Em sua
forma mais simples um modelo de volatilidade estocastica (VE) e dado por
t2
ht = c + ht1 + t , t N (0, 2 )
6.4. VOLATILIDADE ESTOCASTICA
87
Propriedades
1. E(Xt ) = E(vt eht /2 ) = E(eht /2 )E(vt ) = 0, ja que ht e vt s
ao independentes.
2. V ar(Xt ) = E(Xt2 ) = E(eht vt2 ) = E(eht )E(vt2 ) = E(eht ). Mas, como estamos
assumindo que ht e estacionaria segue que,
e V ar(ht ) = 2 = 2 /(1 2 )
E(ht ) = = c/(1 )
ht
V ar(e ) = (e
2 /2
= V ar(Xt )
1)e2+
2 /2
)2
= e2+ (1 + e 1) = e2+2 .
3 e2+2
2
= 2+2 = 3e
e
2
que e sempre maior do que 3 pois e > 1. Um resultado mais geral e que
2
= E(vt4 )e ou seja a curtose induzida por este modelo e sempre maior do que
a curtose de vt .
CAPITULO 6. MODELANDO A VARIANCIA
88
Exerccios
1. Um modelo ARIMA foi identificado e estimado para uma serie temporal observada mas ha indicacao de que a variancia condicional deve ser modelada por
um processo GARCH(1,1). Explique como se chegou a esta conclusao.
2. Refaca o exemplo da Figura 6.4 e estime um modelo AR(1) para a serie Xt . Verifique se existe estrutura autoregressiva nos quadrados dos resduos e identifique
um modelo ARCH para os erros.
3. Obtenha as previsoes 1, 2 e 3 passos a frente para um modelo GARCH(1,2).
4. Descreva duas vantagens de modelos EGARCH sobre modelos GARCH.
Captulo 7
7.1
Introduc
ao
(7.1)
CAPITULO 7. MODELOS LINEARES DINAMICOS
90
t |Dt1
Priori
Yt |Dt1
Previsao
t |Dt
Posteriori
t N (0, Vt )
e os par
ametros se relacionam em perodos sucessivos atraves da
equacao do sistema t = Gt1 + t ,
t N (0, Wt )
onde as sequencias t e t s
ao independentes, mutuamente independentes e ambas
s
ao independentes da informacao inicial 0 |D0 N (m0 , C0 ). A matriz G descreve a
evolucao (determinstica) dos par
ametros. Modelos nesta classe serao analisados nas
proximas secoes.
91
7.2
Modelos Polinomiais
t N (0, Vt )
t N (0, Wt ).
t |t1 N (t1 , Wt )
e a informacao inicial e 0 |D0 N (m0 , C0 ). Vamos assumir por enquanto que as vari
ancias Vt e Wt s
ao conhecidas. Este modelo pode ser pensado como uma aproximacao
a
de Taylor de 1 ordem para uma funcao suave do tempo (t) de modo que
(t + t) = (t) + termos de ordem mais alta
e o modelo descreve os termos de ordem mais alta simplesmente como rudos de media
zero. Como saber entao se este modelo e adequado a uma particular aplicacao?
No tempo t, o valor esperado da serie k perodos a frente condicional ao nvel
atual e
k
X
E(Yt+k |t ) = E(t+k |t ) = E(t +
t+i |t ) = t
i=1
k > 0.
CAPITULO 7. MODELOS LINEARES DINAMICOS
92
7.2.1
An
alise Sequencial e Previs
oes
93
agora variando no tempo. A variancia a posteriori tambem pode ser reescrita como
funcao do coeficiente adaptativo como
Ct = Rt A2t Qt < Rt .
Podemos utilizar as equacoes das observacoes e de evolucao para obter a distribuicao preditiva k passos a frente. Fazendo substituicoes sucessivas obtemos que
t+k = t +
k
X
t+j
j=1
Yt+k = t +
k
X
t+j + t+k
j=1
k
X
Wt+j + Vt+k
j=1
CAPITULO 7. MODELOS LINEARES DINAMICOS
94
longo do tempo especificando um valor grande para W e depois reestimar com pouca
variacao temporal (W bem pequeno). Usaremos a variancia amostral da serie como
estimativa de V . Como informacao inicial usaremos uma estimativa do nivel igual
a 1000 mas com uma grande incerteza associada. O gr
afico da serie com os nveis
superimpostos aparece na Figura 7.2.
7.2.2
Vari
ancias de Evoluc
ao e das Observa
c
oes
ou Rt = (1 + ) Ct1
com = 0.05. Por outro lado, informacao e em geral medida em termos de precis
ao
(o inverso da variancia) e podemos escrever
Precisao(t |Dt1 ) = (1 + )1 Precisao(t1 |Dt1 )
1
ou Rt1 = (1 + )1 Ct1
.
= Ct1 .
95
t N (0, V ),
t = t1 + t ,
t N (0, V Wt ),
0 |V, D0 N (m0 , V C0 )
n0 n0 S0
1
,
V |D0 Gama
2
2
ou n0 S0 V 1 2n0
sendo que m0 , C0 , n0 e S0 serao especificados. Surgiu assim mais um item na informacao inicial com
n0 /2
1
E(V 1 |D0 ) =
=
n0 S0 /2
S0
e S0 e a estimativa pontual a priori da variancia V . Com esta definicao pode-se
mostrar que a distribuicao inicial marginal de 0 e
0 |D0 tn0 (m0 , C0 )
com C0 = S0 C0 .
Se a distribuicao a posteriori (incondicional) do nvel em t 1 e
t1 |Dt1 tnt1 (mt1 , Ct1 )
entao pode-se mostrar que as distribuicoes a priori, preditiva e a posteriori no tempo
t s
ao dadas por
t |Dt1 tnt1 (mt1 , Rt )
onde os par
ametros atualizados s
ao
Qt = Rt + St1
mt = mt1 + At et
Ct = (St /St1 )(Rt A2t Qt )
nt = nt1 + 1
CAPITULO 7. MODELOS LINEARES DINAMICOS
96
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+ }
C[1] = C0
m[1] = m0
S[1] = S0
n[1] = n0
for (i in 2:N) {
n[i] = n[i - 1] + 1
R[i] = C[i - 1]/delta
f[i] = m[i - 1]
Q[i] = R[i] + S[i - 1]
A[i] = R[i]/Q[i]
e[i] = Y[i] - f[i]
S[i] = S[i - 1] + (S[i - 1]/n[i]) * (e[i]^2/Q[i] - 1)
m[i] = m[i - 1] + A[i] * e[i]
C[i] = A[i] * S[i]
}
return(list(m = m, C = C, R = R, f = f, Q = Q, n = n, S = S,
e = e))
Exemplo 7.3 : Novamente vamos examinar a serie de vazoes do rio Nilo, agora
usando diferentes fatores de desconto na funcao mld1.
> res1 = mld1(y, delta = 0.98, m0 = 1000, C0 = 100, n0 = 1, S0 = 0.01)
> res2 = mld1(y, delta = 0.7, m0 = 1000, C0 = 100, n0 = 1, S0 = 0.01)
Os gr
aficos na Figura 7.3 mostram a serie original, as estimativas do nivel obtidas
7.3
97
Considere agora que a descricao local mais apropriada e uma tendencia polinomial
de 2a ordem. Um modelo um pouco mais elaborado e entao obtido criando-se um
par
ametro extra para descrever o crescimento do nvel do processo observado. A
equacao das observacoes fica inalterada, i.e.
yt = t + t ,
t N (0, Vt )
98
7.4
Modelos Sazonais
Um comportamento peri
odico ou cclico pode ser encontrado em varias series tem
porais. E importante que se consiga descrever o padr
ao sazonal da serie atraves de
quantidades que possam ser estimadas incluindo-se assim este padr
ao na funcao previs
ao. Nos modelos aqui analisados define-se um componente sazonal descrevendo
desvios sazonais em torno de um nvel dessazonalizado ou tendencia.
7.4.1
t N (0, Vt )
t = t1 + t
tr = t1,r+1 + t,r ,
t,p1 = t1,0 + t,p1
r = 0, , p 2
P
e o perodo sazonal da serie. Por exemplo,
com a restricao p1
r=0 tr = 0, t e onde p
p = 12 para uma serie com observacoes mensais e p = 4 para observacoes trimestrais.
Para fixar ideias, considere uma serie trimestral e suponha que t 1 e o segundo
trimestre de um determinado ano. Entao o vetor de par
ametros consiste de 4 efeitos
sazonais, um para cada trimestre,
t1 =
t0
t1
t2
t3
trim.
trim.
trim.
trim.
2
3
4
1
trim. 3
t0
trim. 4
t1
t =
=
.
t2 trim. 1
t3
trim. 2
DE FOURIER
7.5. REPRESENTAC
AO
7.4.2
99
t N (0, Vt )
t = t1 + t1 + t
t = t1 + t
tr = t1,r+1 + t,r ,
t,p1 = t1,0 + t,p1
com a restricao
forma
Pp1
r=0
r = 0, , p 2
com
p1
X
htj = 0
j=0
7.5
Representac
ao de Fourier
p/2
X
j,t + t ,
j=1
t N (0, Vt )
t = t1 + t1 + t ,
t = t1 + t ,
"
#"
# "
#
j,t
j,t1
wj,t
cos 2j/p sin 2j/p
+
, j = 1, . . . , p/2 1
=
j,t1
wj,t
sin 2j/p cos 2j/p
j,t
p/2
X
j=1
Sjk =
p/2
X
j=1
.
onde at,j e at,j s
ao as estimativas pontuais de coeficientes de Fourier t,j e t,j
Como no captulo anterior, as variancias dos erros de evolucao s
ao especificadas
indiretamente atraves de um fator de desconto. A estrategia recomendada em (Pole,
West, & Harrison 1994) e West & Harrison (1997) consiste em especificar um fator de
CAPITULO 7. MODELOS LINEARES DINAMICOS
100
desconto para cada componente do modelo. No modelo com uma tendencia polinomial
mais um componente sazonal teremos entao 2 fatores de desconto.
Em geral, o fator de desconto do componente sazonal e maior do que o da tendencia. Neste sentido estamos assumindo que o padr
ao sazonal da serie, embora possa
estar sujeito a alteracoes, e mais estavel do que a sua tendencia.
7.6
Ilustrac
ao
Componente
Nvel
Crescimento
Efeito sazonal 1
Efeito sazonal 2
Efeito sazonal 3
Efeito sazonal 4
D.P. das observacoes
A performance preditiva do modelo foi investigada para fatores de desconto variando nos intervalos (0.9,1.0) para a tendencia e (0.6,1.0) para os fatores sazonais.
Estes intervalos estao coerentes com a ideia de que espera-se um padr
ao sazonal mais
estavel do que a tendencia. Entretanto os valores encontrados ap
os esta busca foram
0.90 para a tendencia e 0.80 para os fatores sazonais. Uma ideia intuitiva e a alteracao
no padr
ao sazonal ocorrida em 1978 deve ter contribuido para este resultado atpico.
Os 2 gr
aficos a seguir apresentam as previsoes pontuais (1 passo a frente) juntamente com intervalos de 90% de probabilidade e os valores observados da serie. O
primeiro gr
afico refere-se ao modelo estatico (ambos os fatores de desconto iguais a 1).
Note que a mudanca no padr
ao sazonal ocorre muito lentamente no modelo estatico e
7.7. MODELOS DE REGRESSAO
101
EQM
3.11
4.23
DAM
1.34
1.64
LLIK
-71.1
-77.6
ente melhorando a performance preditiva. Este fato pode ser notado por inspecao
visual e e confirmado pelos indicadores na Tabela 7.2.
A explicacao intuitiva para este fato, lembrando da definicao de fator de desconto,
e que no modelo din
amico um peso maior e dado para as observacoes mais recentes
ao fazer previsoes. Com isto a alteracao no padr
ao sazonal e incorporada mais rapidamente do que no modelo estatico. As previsoes de vendas para o quarto trimestre
de 1982 e para 1983 tambem levar
ao em conta os diferentes padr
oes sazonais do final
da serie.
7.7
Modelos de Regress
ao
t N (0, Vt )
t N (0, Wt ).
p
X
it Xit + t
i=1
de modo que o modelo pode ser visto como uma superposicao de p regressoes simples
pela origem.
Todas as distribuicoes envolvidas s
ao an
alogas aos casos anteriores e as equacoes
dadas na Secao 2.3 podem ser utilizadas para obter os momentos das distribuicoes a
CAPITULO 7. MODELOS LINEARES DINAMICOS
102
k
X
t+j
j=1
de modo que
at+k = mt
Rt+k = Ct +
k
X
Wt+j .
j=1
7.8
Monitoramento
103
7.8. MONITORAMENTO
p(yt |Dt1 )
,
pA (yt |Dt1 )
= Ht Ht1 (k 1) =
k1
Y
Htj .
j=0
2Qt
104
105
7.8. MONITORAMENTO
>
>
>
>
+
+
+
w = c(0.05, 0.5, 5)
g = list(col = 1:2, xlab = "tempo", ylab = "y")
par(mfrow = c(2, 2))
for (i in w) {
ts.plot(mld.sim(100, 1, i, 25), gpars = g, main = paste("V/W=",
1/i))
}
24
22
20
20
40
60
80
100
tempo
20 22 24 26 28
V/W= 2
26
V/W= 20
20
40
60
80
100
tempo
20
30
40
V/W= 0.2
20
40
60
80
100
tempo
Figura 7.1: 100 valores simulados do modelo polinomial de 1a ordem com (a) V /W = 20,
(b) V /W = 2, (c) V /W = 0, 2.
CAPITULO 7. MODELOS LINEARES DINAMICOS
106
1400
y = Nile
n = length(y)
res = mld(y, V = rep(var(y), n), W = rep(50, n), m0 = 1000, C0 = 1000)
plot(y, xlab = "Anos", ylab = "Medi
co
~es", type = "p")
lines(res$m, col = 2)
lines(res$m - 2 * sqrt(res$C), col = 2, lty = 1)
lines(res$m + 2 * sqrt(res$C), col = 2, lty = 1)
res = mld(y, V = rep(var(y), n), W = rep(0.05, n), m0 = 1000,
C0 = 1000)
lines(res$m, col = 4)
legend(1940, 1350, c("obs", "W=50", "W=.05"), col = c(1, 2, 4),
bty = "n")
800
1000
1200
obs
W=50
W=.05
600
Medies
>
>
>
>
>
>
>
>
+
>
>
+
1880
1900
1920
Anos
Figura 7.2:
1940
1960
107
7.8. MONITORAMENTO
1000
600
600
1000
1400
Desconto 0.70
1400
Desconto 0.98
1880
1920
1960
1880
Time
1920
1960
Time
1400
1000
obs
desconto=.98
desconto=.70
600
600
1000
1400
Serie original
1880
1920
1960
Figura 7.3:
1880
1920
1960
Ap
endice A
Lista de Distribui
c
oes
Neste apendice s
ao listadas as distribuicoes de probabilidade utilizadas no texto para
facilidade de referencia. Sao apresentadas suas funcoes de (densidade) de probabilidade alem da media e variancia. Uma revisao exaustiva de distribuicoes de probabilidades pode ser encontrada em Johnson et al. (1994), Johnson et al. (1995) e Johnson
et al. (1992).
A.1
Distribuic
ao Normal
< x < ,
A.2
A Func
ao Gama
() =
x1 ex dx.
Propriedades,
Usando integrac
ao por partes pode-se mostrar que,
( + 1) = (), > 0.
108
GAMA
A.3. DISTRIBUIC
AO
109
(1) = 1.
(1/2) =
p
().
(n + 1) = n!
A.3
1
1
3
3 1
n+
= n
n
...
2
2
2
22
Distribuic
ao Gama
1 x
x
e
,
()
x > 0,
para , > 0.
E(X) = /
e V (X) = / 2 .
A.4
Distribuic
ao Wishart
A.5
Distribuic
ao Gama Inversa
(+1) /x
x
e
,
()
denotando-se
x > 0,
para , > 0.
E(X) =
,
1
para > 1 e
V (X) =
2
,
( 1)2 ( 2)
para > 2.
N
ao e difcil verificar que esta e a distribuicao de 1/X quando X Ga(, ).
APENDICE
A. LISTA DE DISTRIBUIC
OES
110
A.6
Distribuic
ao Wishart Invertida
A.7
Distribuic
ao Beta
( + ) 1
x
(1 x)1 ,
()()
0 < x < 1,
para , > 0.
E(X) =
A.8
e V (X) =
( +
)2 (
+ + 1)
Distribuic
ao de Dirichlet
O vetor aleat
orio X = (X1 , . . . , Xk ) tem distribuicao de Dirichlet com par
ametros
1 , . . . , k , denotada por Dk (1 , . . . , k ) se sua funcao de densidade conjunta e dada
por
k
X
(0 )
k 1
1 1
xi = 1,
p(x|1 , . . . , k ) =
x
. . . xk
,
(1 ), . . . , (k ) 1
i=1
para 1 , . . . , k > 0 e 0 =
E(Xi ) =
i
,
0
Pk
i=1 i .
V (Xi ) =
(0 i )i
,
02 (0 + 1)
e Cov(Xi , Xj ) =
i j
2
0 (0 +
1)
A.9
Distribuic
ao t de Student
+
,
p(x|, , ) =
2
(/2)
2
x R,
F DE FISHER
A.10. DISTRIBUIC
AO
111
para > 1 e
V (X) = 2
,
2
para > 2.
A.10
Distribuic
ao F de Fisher
2 x
(2 + 1 x)(1 +2 )/2
(1 /2)(2 /2) 1
A.11
2
,
2 2
para 2 > 2
e V (X) =
222 (1 + 2 2)
,
1 (2 4)(2 2)2
para 2 > 4.
Distribuic
ao Binomial
e V (X) = np(1 p)
A.12
Distribuic
ao Multinomial
O vetor aleat
orio X = (X1 , . . . , Xk ) tem distribuicao multinomial com par
ametros n
e probabilidades 1 , . . . , k , denotada por Mk (n, 1 , . . . , k ) se sua funcao de probabilidade conjunta e dada por
p(x|1 , . . . , k ) =
n!
x1 , . . . , kxk ,
x1 !, . . . , xk ! 1
xi = 0, . . . , n,
k
X
xi = n,
i=1
P
para 0 < i < 1 e ki=1 i = 1. Note que a distribuicao binomial e um caso especial
da multinomial quando k = 2. Alem disso, a distribuicao marginal de cada Xi e
binomial com par
ametros n e i e
E(Xi ) = ni ,
V (Xi ) = ni (1 i ),
e Cov(Xi , Xj ) = ni j .
APENDICE
A. LISTA DE DISTRIBUIC
OES
112
A.13
Distribuic
ao de Poisson
x e
,
x!
x = 0, 1, . . .
para > 0.
E(X) = V (X) = .
A.14
Distribuic
ao Binomial Negativa
Um caso particular e quando r = 1 e neste caso diz-se que X tem distribuicao geometrica com par
ametro p.
Refer
encias
Bauwens, L., Lubrano, M. & Richard, J. (1999). Bayesian Inference in Dynamic
Econometric Models. Oxford University Press.
Box, G. E. P. & Jenkins, G. M. (1970). Time Series Analysis, Forecasting and
Control. Holden-Day, San Francisco, California.
Box, G. E. P., Jenkins, G. M. & Reinsel, G. C. (1994). Time Series Analysis:
Forecasting and Control (Third ed.). Englewood Cliffs NJ: Prentice-Hall.
Brockwell, P. & Davis, R. (1991). Time Series: Theory and Methods (2nd ed.).
New York: Springer-Verlag.
Burnham, K. P. & Anderson, D. R. (1998). Model Selection and Inference: A
Practical Information-Theoretic Approach. Springer: New York.
Diggle, P. (1990). Time Series: A Biostatistical Introduction. Oxford University
Press: New York.
Engle, R. F. (1982). Autoregressive conditional heteroscedasticity with estimates
of the variance of United Kingdom inflation. Econometrica 50, 9871007.
Franses, P. H. (1998). Time Series Models for Business and Economic Forecasting.
Cambridge University Press.
Hamilton, J. D. (1994). Time Series Analysis. Princeton University Press.
Johnson, N. L., Kotz, S. & Balakrishnan, N. (1994). Continuous Univariate Distributions (2nd ed.), Volume 1. John Wiley, New York.
Johnson, N. L., Kotz, S. & Balakrishnan, N. (1995). Continuous Univariate Distributions (2nd ed.), Volume 2. John Wiley, New York.
Johnson, N. L., Kotz, S. & Kemp, A. W. (1992). Univariate Discrete Distributions
(2nd ed.). John Wiley, New York.
Kendall, M. G., Stuart, A. & Ord, J. K. (1983). Advanced theory of statistics (4th
ed.), Volume 3. Griffin: London.
Pole, A., West, M. & Harrison, J. (1994). Applied Bayesian Forecasting and Time
Series Analysis. Texts in Statistical Sciences. Chapman & Hall.
Priestley, M. B. (1981). Spectral Analysis and Time Series. London: Academic
Press.
Taylor, S. (1986). Modelling Financial Time Series. Wiley.
113
114
References.