Anda di halaman 1dari 105

Elementos de Estatstica

Computacional Usando Plataformas


de Software Livre/Gratuito
Publicaes Matemticas

Elementos de Estatstica
Computacional Usando Plataformas
de Software Livre/Gratuito
2a impresso

Alejandro C. Frery
UFAL

Francisco Cribari-Neto
UFPE

impa
Copyright 2011 by Alejandro C. Frery e Francisco Cribari-Neto

Impresso no Brasil / Printed in Brazil


Capa: Noni Geiger / Srgio R. Vaz

Publicaes Matemticas
Introduo Topologia Diferencial Elon Lages Lima
Criptografia, Nmeros Primos e Algoritmos Manoel Lemos
Introduo Economia Dinmica e Mercados Incompletos Alosio Arajo
Conjuntos de Cantor, Dinmica e Aritmtica Carlos Gustavo Moreira
Geometria Hiperblica Joo Lucas Marques Barbosa
Introduo Economia Matemtica Alosio Arajo
Superfcies Mnimas Manfredo Perdigo do Carmo
The Index Formula for Dirac Operators: an Introduction Levi Lopes de Lima
Introduction to Symplectic and Hamiltonian Geometry Ana Cannas da Silva
Primos de Mersenne (e outros primos muito grandes) Carlos Gustavo T. A. Moreira e
Nicolau Saldanha
The Contact Process on Graphs Mrcia Salzano
Canonical Metrics on Compact almost Complex Manifolds Santiago R. Simanca
Introduction to Toric Varieties Jean-Paul Brasselet
Birational Geometry of Foliations Marco Brunella
Introduo Teoria das Probabilidades Pedro J. Fernandez
Teoria dos Corpos Otto Endler
Introduo Dinmica de Aplicaes do Tipo Twist Clodoaldo G. Ragazzo, Mrio J.
Dias Carneiro e Salvador Addas Zanata
Elementos de Estatstica Computacional usando Plataformas de Software Livre/Gratuito
Alejandro C. Frery e Francisco Cribari-Neto
Uma Introduo a Solues de Viscosidade para Equaes de Hamilton-Jacobi Helena J.
Nussenzveig Lopes, Milton C. Lopes Filho
Elements of Analytic Hypoellipticity Nicholas Hanges
Mtodos Clssicos em Teoria do Potencial Augusto Ponce
Variedades Diferenciveis Elon Lages Lima
O Mtodo do Referencial Mvel Manfredo do Carmo
A Student's Guide to Symplectic Spaces, Grassmannians and Maslov Index Paolo
Piccione e Daniel Victor Tausk
Mtodos Topolgicos en el Anlisis no Lineal Pablo Amster
Tpicos em Combinatria Contempornea Carlos G. Moreira e Yoshiharu Kohayakawa
Uma Iniciao aos Sistemas Dinmicos Estocsticos Paulo Ruffino
Compressive Sensing Adriana Schulz, Eduardo A.B.. da Silva e Luiz Velho
O Teorema de Poncelet Marcos Sebastiani
Clculo Tensorial Elon Lages Lima
Aspectos Ergdicos da Teoria dos Nmeros Alexander Arbieto, Carlos Matheus e C. G.
Moreira
A Survey on Hiperbolicity of Projective Hypersurfaces Simone Diverio e Erwan
Rousseau
Algebraic Stacks and Moduli of Vector Bundles Frank Neumann

IMPA - ddic@impa.br - http://www.impa.br - ISBN: 978-85-244- 0232-6


Agradecimentos

Alejandro C. Frery agradece o apoio dado pela Fundacao de Am-


paro a Pesquisa do Estado de Alagoas (FAPEAL), atraves do projeto
PRONEX 2003.002, para participar do XXV Coloquio Brasileiro de
Matematica. Os autores agradecem ao CNPq pelo apoio parcial a pre-
paracao deste texto atraves dos projetos 300989/97-0, 620026/2003-0,
55.2076/02-3 e 307577/2003-1.

94
Sumario

1 Introducao 3

2 Estatstica Descritiva Uni- e Multivariada 5


2.1 Introducao ao R . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Primeiros passos . . . . . . . . . . . . . . . . . 6
2.1.2 Bibliotecas . . . . . . . . . . . . . . . . . . . . 8
2.1.3 Leitura e Importacao de Dados . . . . . . . . . 8
2.2 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Amostras Univariadas . . . . . . . . . . . . . . . . . . 11
2.4 Amostras Multivariadas . . . . . . . . . . . . . . . . . 15

3 Metodo de Substituicao 21
3.1 Introducao a Plataforma Ox . . . . . . . . . . . . . . . 21
3.2 Modelos Estatsticos Parametricos . . . . . . . . . . . 25
3.3 O Problema de Inferencia . . . . . . . . . . . . . . . . 29
3.4 Metodo de Substituicao . . . . . . . . . . . . . . . . . 30
3.5 Sistemas de Equacoes nao Lineares . . . . . . . . . . . 31

4 Metodo de Maxima Verossimilhanca 35


4.1 O Conceito de Verossimilhanca . . . . . . . . . . . . . 36
4.2 Algoritmos para Otimizacao . . . . . . . . . . . . . . . 38

5 Otimizacao Nao-linear 41
5.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2 O Problema de Interesse . . . . . . . . . . . . . . . . . 42
5.3 Metodos Gradiente . . . . . . . . . . . . . . . . . . . . 42

1
2 SUMARIO

5.3.1 Steepest Ascent . . . . . . . . . . . . . . . . . . 44


5.3.2 Newton-Raphson . . . . . . . . . . . . . . . . . 44
5.3.3 BHHH . . . . . . . . . . . . . . . . . . . . . . . 45
5.3.4 Escore de Fisher . . . . . . . . . . . . . . . . . 45
5.3.5 Quasi-Newton . . . . . . . . . . . . . . . . . . . 46
5.4 Problemas Combinatorios e Simulated Annealing . . . 47
5.5 Implementacao Computacional . . . . . . . . . . . . . 51
5.6 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . 51

6 Series Temporais 57
6.1 Modelos de Previsao . . . . . . . . . . . . . . . . . . . 57
6.2 Aplicacao: ICMS . . . . . . . . . . . . . . . . . . . . . 62

7 Monte Carlo 78
7.1 Geradores Uniformes . . . . . . . . . . . . . . . . . . . 80
7.2 Geracao por Transformacao . . . . . . . . . . . . . . . 83
7.3 Metodo de Aceitacao-Rejeicao . . . . . . . . . . . . . . 87
7.4 Metodo de Composicao . . . . . . . . . . . . . . . . . 91
7.5 Experiencias Monte Carlo . . . . . . . . . . . . . . . . 92
Captulo 1

Introducao

O proposito destas notas e introduzir o leitor ao uso de duas


plataformas computacionais apropriadas para computacao cientfica,
notadamente para simulacao estocastica, analise estatstica de dados
e producao de graficos. Essas plataformas sao de grande valia para
o trabalho cotidiano de estatsticos, matematicos aplicados, fsicos,
qumicos, engenheiros, economistas e profissionais de areas afins. Elas
devem ser vistas como complementares e nao como substitutas, dado
que cada uma tem vantagens relativas bem definidas. Diferentemente
de outras plataformas muito disseminadas (ver a referencia [36] para
um exemplo ilustre), tanto R quanto Ox sao numericamente confiaveis
e, portanto, recomendaveis ate para aplicacoes consideradas crticas.
A linguagem de programacao Ox, a primeira das plataformas abor-
dadas, e uma linguagem matricial de programacao com orientacao a
objetos que foi desenvolvida por Jurgen Doornik (Nuffield College,
University of Oxford); ver http://www.doornik.com. Sua sintaxe
e similar a da linguagem C, como sera ilustrado atraves de exem-
plo. Ela contem uma ampla lista de implementacoes numericas de
grande utilidade e e distribuda gratuitamente para uso academico,
havendo uma versao comercial para uso nao-academico. Uma de suas
vantagens mais marcantes e a sua eficiencia. Programas bem escri-
tos em Ox as vezes chegam a ser competitivos, em termos de tempo
de execucao, com programas escritos em linguagens de mais baixo
nvel, como, e.g., C e FORTRAN. A principal utilidade da linguagem

3
4 [CAP. 1: INTRODUCAO

Ox, em nosso entender, reside em utilizacoes computacionalmente in-


tensivas, como, e.g., simulacoes de Monte Carlo. Essas simulacoes
sao de grande valia na avaliacao do desempenho de procedimentos
estatsticos de estimacao e teste em amostras de tamanho tpico. Em
particular, sao uteis para avaliacoes de robustez e da qualidade de
aproximacoes, notadamente aproximacoes assintoticas.
A plataforma R, por sua vez, e um ambiente para analise de da-
dos, programacao e graficos; ver http://www.r-project.org. Ela
e distribuda gratuitamente mesmo para uso nao-academico e seu
codigo fonte encontra-se disponvel para inspecao e alteracao, se de-
sejavel. Ela e semelhante a plataforma comercial S-PLUS (http:
//www.insightful.com/splus), ambas sendo baseadas na lingua-
gem S de programacao, que foi desenvolvida por John Chambers e
colaboradores. Sua maior utilidade, a nosso ver, reside na analise de
dados e na producao de graficos com qualidade de publicacao. Uma
outra virtude de R e que, por ser uma plataforma muito utilizada
no meio academico, existe uma grande variedade de pacotes desen-
volvidos para as mais diversas aplicacoes; o repositorio oficial destes
pacotes, bem como do software, e http://www.cran.org.
Uma diferenca entre as duas plataformas consideradas reside em
suas formas de distribuicao. Ox e distribuda gratuitamente apenas
para uso academico, e seu codigo fonte nao se encontrando publica-
mente disponvel. Por outro lado, R e software livre.
Software livre e um conceito importante no mundo da com-
putacao. Quando o software e livre, seu codigo fonte esta univer-
salmente disponvel e pode ser livremente alterado para adapta-lo
a necessidades especficas. Assim sendo, o software livre e de fato
gratuito, porem nao se deve usar esta denominacao para referir-se a
plataformas computacionais sem custo.
O software gratuito (freeware) pode ser usado sem necessidade
de compra ou pagamento, porem nao oferece necessariamente acesso
ao codigo fonte, por isso nao pode ser alterado nem ter tal codigo
estudado; unicamente pode-se utiliza-lo tal como foi disponibilizado.
Fica, assim, estabelecida a diferenca entre software livre e software
gratuito.
As plataformas R e Ox, utilizadas no presente texto, sao, respec-
tivamente, software livre e gratuito so para fins academicos, como
mencionado acima.
Captulo 2

Estatstica Descritiva
Uni- e Multivariada

2.1 Introducao ao R
R e uma linguagem e um ambiente para computacao estatstica e
para preparacao de graficos de alta qualidade. E um projeto GNU
similar a linguagem e ambiente S-PLUS e, ainda que haja diferencas
significativas entre eles, grande parte do codigo desenvolvido para um
funciona no outro.
R oferece uma grande variedade de tecnicas estatsticas (modelos
lineares e nao-lineares, testes estatsticos classicos, modelos de series
temporais, classificacao e agrupamento, entre outros) e graficas, e e
altamente extensvel.
R e uma colecao integrada de facilidades de software para mani-
pulacao de dados, realizacao de calculos e preparacao de graficos, que
inclui
tratamento efetivo de dados e facilidades de armazenamento;
operadores para calculos em matrizes multidimensionais;
ferramentas de diversos nveis para analises de dados;
facilidades graficas para analise de dados;

5
6 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

uma linguagem de programacao bem definida, simples e eficaz


que inclui expressoes condicionais, lacos, funcoes recursivas de-
finidas pelo usuario e recursos de entrada e sada.

Antes de comecar a usar R, recordemos que estao disponveis em


http://www.r-project.org, tanto o codigo fonte para compilacao
como os executaveis ja compilados para diversos sistemas operaci-
onais. Nesse stio encontram-se tambem disponveis textos e tuto-
riais. Como leituras subsequentes a este curso recomendamos os li-
vros [16, 32, 48, 49, 50] e os artigos [14, 40]. A versao que utilizaremos
para o desenvolvimento destas notas e a 2.0.1 para Linux, disponibi-
lizada em novembro de 2004.
Uma vez que o programa esteja instalado e em execucao, para sair
do ambiente e necessario fornecer o comando q(); o sistema de ajuda
em HTML e ativado com o comando help.start(). Se desejarmos
indicar o navegador a ser utilizado (que devera ter capacidade para
processar Java), por exemplo Mozilla, poderemos faze-lo da seguinte
forma:

> help.start(browser="mozilla")

2.1.1 Primeiros passos


R pode ser usado como uma calculadora de grande capacidade. Vamos
a seguinte sessao
1 $ R
2 > 2
3 [1] 2
4 > 2+2
5 [1] 4
6 > sqrt (2)
7 [1] 1.414214
8 > exp ( sqrt (2))
9 [1] 4.11325
10 > sin ( exp ( sqrt (2)))
11 [1] -0.8258217
12 > sinh ( exp ( sqrt (2)))
13 [1] 30.56439
[SEC. 2.1: INTRODUCAO AO R 7

14 > sinh ( exp ( sqrt (2 - 1 i *2)))


15 [1] -20.96102 -6.575177 i
16 > q ()
17 Save workspace image ? [ y / n / c ]: n

Iniciamos uma sessao (em Linux) chamando, a partir de qual-


quer caminho, o sistema R (linha 1). Entre as linhas 1 e 2, teremos
uma sada com informacoes da versao do R, sua data de lancamento
e outros dados (aqui omitidos). A linha 2 passa ao R uma entrada
constante e R a imprime (linha 3); a sada de dados numericos e pre-
cedida por defecto pelo indicador da linha, neste caso [1], ja que
R supoe que pode haver mais de uma linha de dados. Na linha 4
pedimos ao R que calcule 2 + 2, e o resultado e impresso na linha 5.
Nas linhas 6, 8, 10 e 12 solicitamos a realizacao de outros calculos,
e seus respectivos resultados sao exibidos nas linhas 7,
9, 11 e 13. R
trabalha com numeros complexos; a unidade complexa 1 e deno-
tada na entrada por 1i, e as linhas 14 e 15 mostram uma operacao
com complexos e seu resultado, respectivamente. Ao terminar uma
sessao (linha 16) R nos perguntara se desejamos guardar as variaveis
e funcoes definidas (linha 17) para uso futuro; se assim o fizermos,
salvaremos tambem os comandos que foram emitidos na sessao. Se
desejamos exportar os comandos para um arquivo de texto, podemos
faze-lo com savehistory(file = "arquivo.txt"), para depois re-
cupera-los com loadhistory(file = "arquivo.txt").
Para ter uma ideia da capacidade grafica do R podemos usar os
seguintes comandos, que ativarao as demonstracoes includas na dis-
tribuicao basica:
1 > demo ( " graphics " )
2 > demo ( " image " )
3 > demo ( " persp " )
4 > demo ( " recursion " )

A linha 1 ativa a demonstracao de algumas capacidades graficas do R,


incluindo o uso de cores. A linha 2 ativa a demonstracao dos recursos
de uso de imagens para visualizacao de dados multidimensionais. A
linha 3 mostra alguns recursos do R para visualizacao de funcoes mul-
tidimensionais em perspectiva. A linha 4 mostra como R implementa
um metodo adaptativo para calcular integrais numericas.
8 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

2.1.2 Bibliotecas
O sistema R utiliza diversas bibliotecas de funcoes e conjuntos de da-
dos adicionais, que sao carregadas com a auxlio da funcao library(),
tal como mostrado a seguir.

> library(cluster)

Essa funcao carrega bibliotecas ja instaladas localmente. O comando

> install.packages()

abre interfaces para instalar novas bibliotecas; mais sobre esse assunto
na pagina 13 deste texto.
No site http://cran.r-project.org estao disponveis as bibli-
otecas oficiais.

2.1.3 Leitura e Importacao de Dados


Com a instalacao completa do R ficam disponveis varios conjuntos
de dados, e para le-los basta utilizar a funcao data():

> data(iris)

Dados podem ser importados dados no sistema a partir de varias


fontes, como arquivos ASCII (extensao txt ou csv), bancos de dados
e planilhas. Dois tipos de importacao bastante utilizados sao as de
arquivos de tipo txt e csv. Para importar arquivos ASCII, R oferece
duas funcoes interessantes: read.table() e read.csv (ver exemplo
a seguir).

> read.table("dados.txt")
> read.csv("dados.csv", sep=";")

2.2 Definicoes
Quando trabalhamos com uma amostra de dados, ela nada mais e
que uma realizacao (idealmente representativa) de uma populacao de
interesse. E conveniente, para nao dizer imprescindvel, ter uma ideia
de como se comportam os dados da amostra antes de fazer qualquer
[SEC. 2.2: DEFINICOES 9

tipo de inferencia sobre a populacao. A estatstica nos da mecanismos


para formular conjecturas sobre a populacao utilizando como base de
inferencia a amostra, por isso esta ultima deve ser muito bem descrita.
Para facilitar a exposicao posterior apresentaremos a seguir algu-
mas definicoes e notacoes, fazendo referencia exclusivamente a quan-
tidades amostrais. Estas quantidades sao os pilares da analise es-
tatstica de dados, em suas modalidades quantitativa (resumos nu-
mericos), qualitativa (descricoes textuais) e grafica.
Uma referencia importante para este tema e o texto [31], que
trata o problema especfico de dados multivariados. Quando se trata
de analise grafica, os livros de Edward Tufte [43, 44, 45, 46] sao uma
referencia importante para a preparacao de graficos, diagramas e fi-
guras de qualidade.
Consideremos uma amostra de valores reais y = (y1 , . . . , yn ). Um
dos elementos graficos mais importantes para descrever uma amostra
e o histograma. Denotando y1:n e yn:n os valores mnimo e maximo
da amostra y, definamos um intervalo que inclui estes dois valores
I [y1:n , yn:n ], e seja I = {I0 , . . . , Ik } uma particao de I. Seja xm
o ponto central de cada intervalo Im , 0 m k. O histograma e a
funcao que a cada xm associa o valor H(y, m) = #{1 i n : yi
Im }, isto e, o numero de observacoes da amostra que estao dentro
do intervalo Im . O histograma de proporcoes consiste em dividir os
valores H(y, m) pelo tamanho da amostra, isto e, e a funcao que a
cada xm associa o valor h(y, m) = H(y, m)/n. A escolha da particao
I tem enorme efeito na qualidade do grafico.
Denotaremos por y1:n y2:n yn1:n yn:n os elementos
do vetor y ordenados em forma nao-decrescente.
Segundo [8], uma analise quantitativa elementar deve conter, pelo
menos, as seguintes quantidades tabuladas e analisadas:

Descricao geral:

Tamanho da amostra n
Valores mnimo y1:n e maximo yn:n

Medidas de tendencia central:


Pn
Media amostral y = n1 i=1 yi
10 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

Mediana amostral q1/2 (y) = y(n+1)/2:n se n e mpar ou


q1/2 (y) = (yn/2:n + yn/2+1:n )/2 caso contrario
Moda: as abscissas xt onde h(y, t) h(y, v) para todo
v 6= t; em caso de haver uma unica moda, enfatiza-la
Medidas de dispersao:
Pn 2
Variancia amostral s2 (y) = n1 i=1 (yi y) ; a distin-
1 1
cao entre o uso de n ou de (n 1) e irrelevante para
tamanhos de amostra razoaveis (por exemplo, superiores
a trinta)

Desvio padrao amostral s(y) = s2
Pn
Desvio medio absoluto n1 i=1 |yi y|
Desvio
mediano absoluto mad(y) = q1/2 (z), onde z =
(yi q1/2 (y))1in
Distancia interquartil IQR(y) = k(y[3n/4:n] y[n/4:n] ), onde
os colchetes denotam o inteiro mais proximo e a constante
k se ajusta para cada situacao
E conveniente notar que as quatro ultimas medidas estao na
mesma escala dos dados, sendo que a primeira esta em escala
quadratica.
Estatsticas de ordem superior:
Pn 3
Assimetria amostral 1 = n1 i=1 (yi y) /s3
(Excesso de) Curtose amostral ou coeficiente de curtose
Pn 4
amostral 2 = n1 i=1 (yi y) /s4 3

Analogamente ao histograma, podemos visualizar o grafico stem-


and-leaf (vastago e folha?, caule e folha?). Expressemos os valores
do vetor de observacoes y na forma de e dgitos decimais d1 d2 . . . de ;
por exemplo, se e = 4, ao valor 4, 53 se agregara um zero a esquerda
e trabalharemos com 4, 530. Escrevamos duas colunas: a primeira
tem os e 1 primeiros dgitos das entradas (sem repeticoes) e na
segunda uma entrada com o dgito restante por cada valor que tenha
os primeiros e 1 dgitos. Um exemplo deste recurso e mostrado na
pagina 15.
[SEC. 2.3: AMOSTRAS UNIVARIADAS 11

Uma forma de representacao grafica interessante e que pode com-


plementar a informacao revelada pelo histograma e o Boxplot, ou
Box-and-whisker plot. Dada a amostra y, o Boxplot mostra uma
caixa do tamanho da distancia interquartil y[3n/4:n] y[n/4:n] , com
uma barra interna na posicao da mediana. Sao identificadas as ob-
servacoes potencialmente surpreendentes (outliers), sao desenhadas
como pontos isolados e sao removidas da amostra. Uma vez retira-
dos os outliers, sao agregados segmentos denotando os valores mnimo
e maximo restantes. O Boxplot e particularmente util para comparar
varias amostras em um mesmo grafico. Exemplos deste recurso sao
mostrados nas Figuras 2.1 e 2.2.

2.3 Amostras Univariadas


A plataforma R oferece diversas funcoes para o calculo de estatsticas
descritivas, como a media, a mediana, estatsticas de ordem, medidas
de dispersao, assimetria e curtose. Para ilustrar o uso destas funcoes
sera utilizado o conjunto de dados iris, disponvel no R. Este con-
junto de dados consiste em 151 linhas com seis colunas cada uma.
A primeira linha, de tipo texto, descreve o conteudo de cada coluna.
As cinco primeiras colunas correspondem a medidas realizadas sobre
flores, e a ultima, que e de tipo texto, categoriza em uma de tres
especies cada flor medida.
A primeira coluna esta rotulada Sepal.Length; para ver os va-
lores basta emitir o seguinte comando:
> iris$Sepal.Length
[1] 5.1 4.9 4.7 4.6 5.0 5.4 4.6 5.0 4.4 4.9 5.4 4.8
[13] 4.8 4.3 5.8 5.7 5.4 5.1 5.7 5.1 5.4 5.1 4.6 5.1
[25] 4.8 5.0 5.0 5.2 5.2 4.7 4.8 5.4 5.2 5.5 4.9 5.0
[37] 5.5 4.9 4.4 5.1 5.0 4.5 4.4 5.0 5.1 4.8 5.1 4.6
[49] 5.3 5.0 7.0 6.4 6.9 5.5 6.5 5.7 6.3 4.9 6.6 5.2
[61] 5.0 5.9 6.0 6.1 5.6 6.7 5.6 5.8 6.2 5.6 5.9 6.1
[73] 6.3 6.1 6.4 6.6 6.8 6.7 6.0 5.7 5.5 5.5 5.8 6.0
[85] 5.4 6.0 6.7 6.3 5.6 5.5 5.5 6.1 5.8 5.0 5.6 5.7
[97] 5.7 6.2 5.1 5.7 6.3 5.8 7.1 6.3 6.5 7.6 4.9 7.3
[109] 6.7 7.2 6.5 6.4 6.8 5.7 5.8 6.4 6.5 7.7 7.7 6.0
[121] 6.9 5.6 7.7 6.3 6.7 7.2 6.2 6.1 6.4 7.2 7.4 7.9
12 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

[133] 6.4 6.3 6.1 7.7 6.3 6.4 6.0 6.9 6.7 6.9 5.8 6.8
[145] 6.7 6.7 6.3 6.5 6.2 5.9

Se queremos ter acesso as variaveis diretamente, sem necessidade de


fazer referencia ao conjunto de dados (iris), podemos colocar as
variaveis na lista de objetos definidos com o comando

> attach(iris)

Para calcular a media amostral da variavel Sepal.Length basta


fazer

> mean(Sepal.Length)
[1] 5.843333

A mediana amostral e obtida com

> median(Sepal.Length)
[1] 5.8

Para calcular os quartis fazemos

> quantile(Sepal.Length)
0% 25% 50% 75% 100%
4.3 5.1 5.8 6.4 7.9

A funcao quantile() admite como argumento opcional um vetor


de valores no intervalo [0, 1], retornando os percentis da amostra nes-
ses pontos. Se, por exemplo, queremos calcular os decis deveramos
entrar quantile(iris$Sepal.Length, v), onde v e o vetor que con-
tem os valores (i/10)1i9 . Podemos faze-lo manualmente, ou utilizar
uma funcao do R para gerar este vetor auxiliar.

> quantile(Sepal.Length, seq(.1,.9,.1))


10% 20% 30% 40% 50% 60% 70% 80% 90%
4.80 5.00 5.27 5.60 5.80 6.10 6.30 6.52 6.90

Ja que usaremos este vetor varias vezes, e conveniente guarda-lo


em uma variavel de nome mais curto e manejavel com o comando

> l_s <- Sepal.Length


[SEC. 2.3: AMOSTRAS UNIVARIADAS 13

As ultimas versoes do R admitem = como comando de atri-


buicao, em vez do mais exotico (porem mais utilizado, ate agora)
<-.
R tambem oferece funcoes para calcular medidas de dispersao
como variancia, desvio padrao e desvio medio absoluto, tal como e
mostrado a seguir.
> var(l_s)
[1] 0.6856935
> sd(l_s)
[1] 0.8280661
> mad(l_s)
[1] 1.03782
O maximo, o mnimo e o tamanho da amostra podem ser obtidos
com
> max(l_s)
[1] 7.9
> min(l_s)
[1] 4.3
> length(l_s)
[1] 150
Para calcular estatsticas de ordem superior, como assimetria e
curtose, e necessario carregar o pacote e1071, que prove as funcoes
skewness() e kurtosis().
1 > install . packages ( " e1071 " )
2 > library ( e1071 )
3 > skewness ( l_s )
4 [1] 0.3086407
5 > kurtosis ( l_s )
6 [1] -0.6058125
A linha 1 e necessaria para baixar uma biblioteca que nao esta dis-
ponvel localmente. R usara a conexao a Internet para obte-la. Se o
comando e dado para uma biblioteca ja instalada, R verificara se ha
uma versao mais atual e, se houver, a instalara.
R permite construir graficos com facilidade. Por exemplo, para
construir um boxplot e necessario apenas emitir o comando
14 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

> boxplot(l_s, horizontal=T)

Seu resultado e mostrado na Figura 2.1.

4.5 5.0 5.5 6.0 6.5 7.0 7.5 8.0

Figura 2.1: Boxplot dos dados Sepal.Length.

De fato, para gerar o arquivo que armazena o grafico mostrado na


Figura 2.1 e necessario ativar o dispositivo de sada, fazer o grafico e
desativar o dispositivo. A sequencia de instrucoes e

> postscript("box_plot.eps")
> boxplot(l_s, horizontal=T)
> dev.off()

Tal como comentamos anteriormente, o Boxplot e particularmente


util para realizar uma comparacao visual rapida entre varias amos-
tras. Para isso, basta emitir o comando com os nomes das amostras
separadas por comas; em nosso caso

boxplot(Sepal.Length, Sepal.Width, Petal.Length,


Petal.Width, horizontal=T, names=names(iris)[1:4])

que nos da como resultado o grafico mostrado na Figura 2.2.


Outro grafico importante e o histograma, cuja versao mais simples
pode ser construda com o seguinte comando:
[SEC. 2.4: AMOSTRAS MULTIVARIADAS 15

> hist(Petal.Length, main="", freq=FALSE,


xlab="Largura de Petalas", ylab="Proporc~
oes")

e seu resultado pode ser visto na Figura 2.3. R oferece uma grande
variedade de parametros para controlar o aspecto com que os histo-
gramas em particular, e todos os graficos em geral, sao produzidos e
exibidos.
O diagrama stem-and-leaf e obtido a partir do comando

> stem(Petal.Length)

The decimal point is at the |

1 | 012233333334444444444444
1 | 55555555555556666666777799
2 |
2 |
3 | 033
3 | 55678999
4 | 000001112222334444
4 | 5555555566677777888899999
5 | 000011111111223344
5 | 55566666677788899
6 | 0011134
6 | 6779

2.4 Amostras Multivariadas


R trata com facilidade dados multivariados, isto e, onde para cada
indivduo temos um vetor de observacoes. A notacao que utilizare-
mos para denotar um conjunto de n vetores k-dimensionais e y =
(y1 , . . . , yn ), com yi Rk . Este tipo de dados aparece naturalmente
em estudos onde se mede mais de um atributo para cada indivduo
como, por exemplo, em antropometria onde se registram o peso, a
estatura, a idade e diversas medidas corporais de cada pessoa. Este
tipo de analise esta recebendo atualmente muita atencao, ja que e
um passo importante na cadeia de operacoes conhecida como KDD
Knowledge Discovery in Databases.
16 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

Petal.Width
Petal.Length
Sepal.Width
Sepal.Length

0 2 4 6 8

Figura 2.2: Boxplots das quatro variaveis.


0.5
0.4
0.3
Proporciones

0.2
0.1
0.0

1 2 3 4 5 6 7

Largo de Ptalos

Figura 2.3: Histograma dos comprimentos de sepalas.


[SEC. 2.4: AMOSTRAS MULTIVARIADAS 17

Para obter uma visao geral de um conjunto de dados deste tipo


podemos emitir o seguinte comando
> summary(iris)
Sepal.Length Sepal.Width Petal.Length
Min. :4.300 Min. :2.000 Min. :1.000
1st Qu.:5.100 1st Qu.:2.800 1st Qu.:1.600
Median :5.800 Median :3.000 Median :4.350
Mean :5.843 Mean :3.057 Mean :3.758
3rd Qu.:6.400 3rd Qu.:3.300 3rd Qu.:5.100
Max. :7.900 Max. :4.400 Max. :6.900
Petal.Width Species
Min. :0.100 setosa :50
1st Qu.:0.300 versicolor:50
Median :1.300 virginica :50
Mean :1.199
3rd Qu.:1.800
Max. :2.500
A matriz de covariancia descreve relacoes entre variaveis, assim
como sua variancia:
> var(iris[1:150, 1:4])
Sepal.Length Sepal.Width Petal.Length
Sepal.Length 0.68569351 -0.04243400 1.2743154
Sepal.Width -0.04243400 0.18997942 -0.3296564
Petal.Length 1.27431544 -0.32965638 3.1162779
Petal.Width 0.51627069 -0.12163937 1.2956094
Petal.Width
Sepal.Length 0.5162707
Sepal.Width -0.1216394
Petal.Length 1.2956094
Petal.Width 0.5810063
Nota-se que eliminamos a ultima coluna, que nao contem valores reais
mas rotulos. Analogamente, e possvel obter a matriz de correlacoes:
> cor(iris[1:150, 1:4])
Sepal.Length Sepal.Width Petal.Length
Sepal.Length 1.0000000 -0.1175698 0.8717538
18 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

Sepal.Width -0.1175698 1.0000000 -0.4284401


Petal.Length 0.8717538 -0.4284401 1.0000000
Petal.Width 0.8179411 -0.3661259 0.9628654
Petal.Width
Sepal.Length 0.8179411
Sepal.Width -0.3661259
Petal.Length 0.9628654
Petal.Width 1.0000000

Um grafico muito interessante para se ver simultaneamente o com-


portamento de todos os pares de variaveis de um conjunto multivari-
ado e o diagrama de pares, que e obtido com

> pairs(iris)

e e mostrado na Figura 2.4

2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5

7.5
6.5
Sepal.Length

5.5
4.5
4.0

Sepal.Width
3.0
2.0

7
6
5

Petal.Length
4
3
2
1
2.5
1.5

Petal.Width
0.5

3.0
2.5

Species
2.0
1.5
1.0

4.5 5.5 6.5 7.5 1 2 3 4 5 6 7 1.0 1.5 2.0 2.5 3.0

Figura 2.4: Diagrama de pares para os dados iris.


[SEC. 2.4: AMOSTRAS MULTIVARIADAS 19

Nota-se que a coluna de especies foi transformada em uma en-


trada numerica, e que nao e muito interessante visualiza-la como se
contivesse dados. Podemos aproveita-la para rotular os pontos com
cores diferentes, fazendo
> pairs(iris[1:4], pch=21,
bg = c("red", "green", "blue")[unclass(Species)])
O resultado e mostrado na Figura 2.5. A funcao unclass transforma
classes em atributos numericos, que por sua vez sao utilizados como
ndices para as cores.

2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5

7.5
6.5
Sepal.Length

5.5
4.5
4.0
3.5

Sepal.Width
3.0
2.5
2.0

7
6
5
Petal.Length

4
3
2
1
2.5
2.0
1.5

Petal.Width
1.0
0.5

4.5 5.0 5.5 6.0 6.5 7.0 7.5 8.0 1 2 3 4 5 6 7

Figura 2.5: Diagrama de pares rotulados com cores.

A funcao stars() tambem e muito utilizada:


> stars(iris, nrow=13, key.loc=c(23,0))
O resultado e mostrado na Figura 2.6.
As variacoes possveis para estes graficos sao, tambem, muitas.
20 [CAP. 2: ESTATISTICA DESCRITIVA UNI- E MULTIVARIADA

1 2 3 4 5 6 7 8 9 10 11 12

13 14 15 16 17 18 19 20 21 22 23 24

25 26 27 28 29 30 31 32 33 34 35 36

37 38 39 40 41 42 43 44 45 46 47 48

49 50 51 52 53 54 55 56 57 58 59 60

61 62 63 64 65 66 67 68 69 70 71 72

73 74 75 76 77 78 79 80 81 82 83 84

85 86 87 88 89 90 91 92 93 94 95 96

97 98 99 100 101 102 103 104 105 106 107 108

109 110 111 112 113 114 115 116 117 118 119 120

121 122 123 124 125 126 127 128 129 130 131 132

133 134 135 136 137 138 139 140 141 142 143 144

145 146 147 148 149 150 Sepal.Width


Petal.Length Sepal.Length
Petal.Width

Figura 2.6: Diagrama de estrelas a partir do conjunto de dados iris.


Captulo 3

Inferencia pelo Metodo


de Substituicao e
Solucao de Sistemas de
Equacoes nao Lineares

3.1 Introducao a Plataforma Ox


Ox e uma linguagem de programacao matricial orientada a objetos
que, utilizando uma sintaxe muito parecida com as de C e de C++,
oferece uma enorme gama de recursos matematicos e estatsticos.
Para a preparacao deste curso utilizou-se a versao 3.40 para Linux
(para mais detalhes ver [15, 20]).
Do ponto de vista da precisao numerica, Ox e uma das mais
confiaveis plataformas para computacao cientfica. A versao que
nao oferece interface grafica esta disponvel gratuitamente para uso
academico e de pesquisa. Ox esta organizado em um nucleo basico e
em bibliotecas adicionais. E possvel chamar funcoes de Ox a partir de
programas externos, bem como ter acesso a executaveis compilados
externamente ao Ox.
Um primeiro programa em Ox poderia ser o seguinte:

21
22 [CAP. 3: METODO DE SUBSTITUICAO

#include <oxstd.h> // include Ox standard library header


main() // function main is the starting point
{
decl m1, m2; // declare two variables, m1 and m2
m1 = unit(3);// assign to m1 a 3 x 3 identity matrix
m1[0][0] = 2; // set top-left element to 2
m2 = <0,0,0;1,1,1>; //m2 is a 2 x 3 matrix, the first
// row consists of zeros, the
// second of ones
print("two matrices", m1, m2); // print the matrices
}
Ao executa-lo, teremos como sada
frery@frery$ oxl primero

Ox version 3.40 (Linux) (C) J.A. Doornik, 1994-2004


two matrices
2.0000 0.0000 0.0000
0.0000 1.0000 0.0000
0.0000 0.0000 1.0000

0.0000 0.0000 0.0000


1.0000 1.0000 1.0000
A fim de ilustrar a similaridade de sintaxes entre C e Ox, veremos
a seguir o exemplo apresentado em [15], onde sao comparados progra-
mas com o mesmo proposito (gerar uma tabela de equivalencia entre
graus Celsius e Fahrenheit). Esta similaridade de sintaxes e, de fato,
uma vantagem da linguagem Ox; conhecimento de C auxilia sobre-
maneira no aprendizado de Ox e, para aqueles que nao tem domnio
de C, o aprendizado de Ox conduz a uma familiaridade inicial com a
linguagem C.
Primeiramente, o codigo C:
1 /* * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *
2 * PROGRAM : celsius . c
3 *
4 * USAGE : To generate a conversion table of
5 * temperatures ( from Fahrenheit to Cel
[SEC. 3.1: INTRODUCAO A PLATAFORMA OX 23

6 * sius ). Based on an example in the


7 * Kernighan & Ritchie s book .
8 *
9 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * */
10

11 # include < stdio .h >


12

13 int main ( void )


14 {
15 int fahr ;
16

17 printf ( " \ nConversion table ( F to C )\ n \ n " );


18 printf ( " \ t %3 s %5 s \ n " , " F " , " C " );
19

20 /* Loop over temperatures */


21 for ( fahr = 0; fahr <= 300; fahr += 20)
22 {
23 printf ( " \ t %3 d %6.1 f \ n " , fahr , 5.0*( fahr
24 -32)/9.0 );
25 }
26

27 printf ( " \ n " );


28

29 return 0;
30 }
e a sua sada depois de compilado em ambiente Linux usando o com-
pilador gcc:
1 Conversion table ( F to C )
2

3 F C
4 0 -17.8
5 20 -6.7
6 40 4.4
7 60 15.6
8 80 26.7
9 100 37.8
10 120 48.9
24 [CAP. 3: METODO DE SUBSTITUICAO

11 140 60.0
12 160 71.1
13 180 82.2
14 200 93.3
15 220 104.4
16 240 115.6
17 260 126.7
18 280 137.8
19 300 148.9
A seguir o codigo equivalente em Ox
1 /* * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *
2 * PROGRAM : celsius . ox
3 *
4 * USAGE : To generate a conversion table of
5 * temperatures ( from Fahrenheit to Cel
6 * sius ). Based on an example in the
7 * Kernighan & Ritchie s book .
8 * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * */
9

10 # include < oxstd .h >


11

12 main ()
13 {
14 decl fahr ;
15

16 print ( " \ nConversion table ( F to C )\ n \ n " );


17 print ( " \ t F C \ n " );
18

19 // Loop over temperatures


20 for ( fahr = 0; fahr <= 300; fahr += 20)
21 {
22 print ( " \ t " , " %3 d " , fahr );
23 print ( " " , " %6.1 f " , 5.0*( fahr -32)
24 /9.0 , " \ n " );
25 }
26

27 print ( " \ n " );


[SEC. 3.2: MODELOS ESTATISTICOS PARAMETRICOS 25

28 }

e a sua sada
1 Ox version 3.40 ( Linux ) ( C ) J . A . Doornik , 1994 -
2 2004
3

4 Conversion table ( F to C )
5

6 F C
7 0 -17.8
8 20 -6.7
9 40 4.4
10 60 15.6
11 80 26.7
12 100 37.8
13 120 48.9
14 140 60.0
15 160 71.1
16 180 82.2
17 200 93.3
18 220 104.4
19 240 115.6
20 260 126.7
21 280 137.8
22 300 148.9

Nos documentos de ajuda includos com as diversas distribuicoes


do Ox existe uma grande variedade de exemplos, assim como na de-
talhada documentacao que acompanha esta plataforma.

3.2 Modelos Estatsticos Parametricos


Os modelos estatsticos sao referenciais teoricos que sao utilizados
para descrever fenomenos. Os fenomenos naturais sao, em sua maio-
ria, excessivamente complexos para que possamos extrair informacao
util a partir de sua observacao direta. Os modelos sao simplificacoes
desta realidade que, ao perder detalhes e buscar um certo grau de
26 [CAP. 3: METODO DE SUBSTITUICAO

generalizacao, aspiram a ajudar-nos a formular leis de certa validade.


Neste trabalho trataremos exclusivamente de modelos estatsticos.
Um modelo estatstico parametrico e uma famlia de distribuicoes
de probabilidade indexadas (determinadas) por um vetor p dimensi-
onal sobre o qual so sabemos que pertence a um conjunto Rp .
Os dados nos servirao para termos uma ideia do valor parametro .
A literatura e vasta em modelos estatsticos, mais ou menos ade-
quados para certas situacoes. Referencias importantes para este tema
sao os textos [26, 27, 28]. Mencionaremos a seguir somente uns pou-
cos modelos que aparecem frequentemente em aplicacoes.
A variavel aleatoria nao trivial mais simples e a que pode adotar
so dois valores: 1, com probabilidade 0 p 1, e 0 com probabi-
lidade 1 p. Dizemos que esta variavel aleatoria tem distribuicao
Bernoulli com probabilidade p de exito. Para este e outros conceitos
de probabilidade, recomendamos o texto [25].
A distribuicao da soma de m variaveis aleatorias independentes e
identicamente distribudas, cada uma com distribuicao Bernoulli com
probabilidade p de exito, e uma variavel aleatoria que pode adotar
n + 1 valores, 0 k n, cada um com probabilidade
k
nk
Pr(Y = k) = (1 p)nk , (3.1)
p

onde nk = n!/(k!(n k)!). Diremos que a variavel aleatoria Y obe-
dece distribuicao binomial com parametros n e p.
A media e a variancia de uma variavel aleatoria com distribuicao
binomial com parametros n e p sao, respectivamente, np e np(1 p).
E imediato que uma variavel aleatoria com distribuicao binomial com
parametros n = 1 e p segue distribuicao Bernoulli com probabilidade
de exito p.
Consideremos uma situacao onde um bom modelo para as ob-
servacoes e a distribuicao binomial. Suponhamos que a probabilidade
p de exito individual seja muito pequena, com a qual a probabilidade
de observar qualquer evento distinto de zero sera, tambem, muito pe-
quena. Para compensar esta situacao, suponhamos que sejam realiza-
das muitas observacoes (repeticoes) independentes, isto e, que n seja
grande. E possvel provar, usando somente ferramentas analticas,
[SEC. 3.2: MODELOS ESTATISTICOS PARAMETRICOS 27

que
n k k
lim Pr(Y = k) = lim p (1 p)nk = e .
p0 p0 k k!
n n
np np

Esta lei de probabilidade e denominada distribuicao de Poisson com


parametro > 0. Uma variavel aleatoria que obedece a distribuicao
de Poisson com parametro tem media e variancia iguais a .
As distribuicoes mencionadas ate agora sao discretas, isto e, os
valores que as variaveis aleatorias cuja distribuicao esta caracterizada
por elas sao finitos ou, como maximo, contaveis (numeraveis). A
seguir veremos distribuicoes contnuas, onde esses valores nao sao
contaveis.
A distribuicao uniforme sobre o intervalo (a, b) e aquela que a
cada intervalo (b, c) (a, b) atribui probabilidade
cb
Pr(Y (b, c)) = .
ba
Para o caso particular a = 0 tem-se que a esperanca de uma variavel
aleatoria com esta distribuicao e b/2 e sua variancia e b/12.
Uma variavel aleatoria Y com distribuicao normal ou gaussiana
de media R e variancia 2 > 0 tem sua distribuicao caracterizada
pela densidade

1 (y )2
f (y; , ) = exp . (3.2)
2 2 2

Denota-se Y N (, 2 ). Na plataforma R temos esta densidade


disponvel atraves da funcao dnorm, so que parametrizada pelo desvio
padrao .
A variavel aleatoria Y segue uma lei gama com parametros , >
0 se sua densidade e dada por
1
f (y; , ) = y 1 exp(y/)IR+ (y), (3.3)
()
onde IA denota a funcao indicadora do conjunto A. Esta situacao
denota-se Y (, ). Esta densidade esta disponvel na plataforma
R atraves da funcao dgamma. A esperanca de uma variavel aleatoria
com esta distribuicao e , sua variacia sendo 2 .
28 [CAP. 3: METODO DE SUBSTITUICAO

A variavel aleatoria Y segue uma lei triangular com parametro


> 0 se a sua densidade e dada por


0 se y <

1 (1 + 1 y) se y < 0
f (y; ) = (3.4)

1 (1 1 y) se 0y

0 se y > .

A sua funcao de distribuicao acumulada e dada por




0 se y <

(+y)2
22 se y < 0
F (y; ) = (3.5)


1
1 y(y2) se 0y

2 2
1 se y > .

A inversa da funcao de distribuicao acumulada e dada por


(
F 1
(u; ) = p2u 1 se 0 < u 1/2
(3.6)
1 2 (1 u) se 1/2 < u 1

A variavel aleatoria Y segue uma lei de Weibull-Gnedenko com


parametros 6= 0 e > 0 se a sua densidade e dada por

f (y; , ) = || y 1 exp(y )IR+ (y). (3.7)

Esta situacao e denotada Y W(, ).


A variavel aleatoria Y segue uma lei Erlang com parametro N
se a sua densidade e dada por

1 1 y
f (y; ) = y e IR+ (y). (3.8)
()

E possvel ver que a sua funcao de distribuicao acumulada e


X
y yi
F (y; ) = 1 e 1+ . (3.9)
i!
1i1
[SEC. 3.3: O PROBLEMA DE INFERENCIA 29

3.3 O Problema de Inferencia


A tarefa de fazer inferencia consiste em, dado um conjunto de n
observacoes reais y = (y1 , . . . , yn ) e aceitando que elas sao even-
tos de variaveis aleatorias cuja distribuicao e conhecida a menos do
parametro , estimar o valor deste parametro.
Na literatura estatstica existem diversos metodos para cumprir
com esta tarefa, cada um com vantagens e desvantagens. Os textos [2,
4] sao referencias de excelente nvel para este problema.
Uma estatstica Tn Tn (Y1 , . . . , Yn ) e qualquer funcao das va-
riaveis aleatorias Y1 , . . . , Yn que descrevem os dados. Diremos que
uma estatstica utilizada para estimativa de um parametro desconhe-
cido e um estimador de , e neste trabalho denotaremos estima-
dores por b (se houvesse necessidade de trabalhar com mais de um
estimador simultaneamente, utilizaramos notacoes do tipo , e ,
etc.). Um estimador e sempre uma variavel aleatoria, visto que e
uma funcao das variaveis aleatorias Y1 , . . . , Yn . Quando Y1 , . . . , Yn
sao independentes e oriundas da mesma distribuicao dizemos que as
observacoes sao independentes e identicamente distribudas (i.i.d.).
Uma estimativa, por outro lado, nao e uma variavel aleatoria ja que
e o resultado de calcular um estimador em uma amostra observada
y1 , . . . , yn .
Diversos estimadores podem ser comparados atraves de certas ca-
ractersticas de interesse. Uma propriedade importante e a de ser nao
viesado; um estimador b e nao viesado para se E() b = para todos
os valores de no espaco parametrico . Em outras palavras, o esti-
mador se iguala em media ao parametro desconhecido que desejamos
estimar. O vies de um estimador e definido, por outro lado, como a
diferenca entre seu valor esperado e o parametro desconhecido. Esta
propriedade pode ser estudada no limite dizendo que um estimador
e assintoticamente nao-viesado se

lim E(bn ) = , ,
n

onde o subscrito n deixa explcita a dependencia do estimador no


tamanho da amostra.
Uma segunda propriedade importante de estimadores pontuais e
a consistencia. Um estimador bn do parametro e consistente se bn
30 [CAP. 3: METODO DE SUBSTITUICAO

Pr
converge em probabilidade para , denotada bn , isto e, se para
todo > 0 vale que
lim Pr(|bn | > ) = 0,
n

ou, equivalentemente, vale que


lim Pr(|bn | ) = 1.
n

E importante reforcar que estimadores nao viesados nao sao ne-


cessariamente estimadores consistentes para, com isso, enfatizar que
a qualidade de um estimador pode ser medida de diversas maneiras
e que estas nao sao necessariamente coincidentes.

3.4 Metodo de Substituicao


O metodo de substituicao consiste em resolver sistemas de equacoes
formadas, por um lado, por esperancas de funcoes da variavel aleato-
ria que modela os dados (estas funcoes devem depender de forma in-
teressante do parametro desconhecido) e, por outro lado, das versoes
amostrais destas funcoes. Para se ter estimadores bem determina-
dos devem ser formadas tantas equacoes independentes entre si como
parametros desconhecidos.
Este metodo apoia-se na lei dos grandes numeros que diz que, sob
certas condicoes,
1 X Pr
(Yi ) E [(Y )],
n
1in

onde Y, Y1 , . . . , Yn e uma sequencia de variaveis aleatorias i.i.d. e e


uma funcao mensuravel. Se o parametro desconhecido tem a forma
= (1 , . . . , p ), entao o metodo de substituicao consiste em estimar
atraves de b = (b1 , . . . , bp ), que e a solucao do sistema

1 X

1 (yi ) = E [1 (Y )],

n

1in
.. .. (3.10)
. .

1 X

p (yi ) = E [p (Y )].

n
1in
[SEC. 3.5: SISTEMAS DE EQUACOES NAO LINEARES 31

Uma referencia importante para esta tecnica e o livro [33].


Ainda que o metodo de substituicao (tambem conhecido como
metodo de analogia) seja geral em sua formulacao, sua versao mais
popular e baseada nos momentos amostrais. Quando o lado direito
das equacoes do sistema dado em (3.10) sao momentos, o metodo e
conhecido como metodo de momentos.
Tomemos como exemplo a distribuicao gama, caracterizada pela
densidade apresentada na equacao (3.3). Sua esperanca e e seu
segundo momento e 2 (1 + ). O sistema de equacoes que podemos
formar com esta informacao e

1 X

xi bb = 0,
n
1in
X (3.11)
1
x2

b b2 (1 +
b ) = 0,

n i
1in

que requer resolver um sistema de equacoes nao-lineares. Esta e a


situacao geral de estimativa pelo metodo de substituicao, formulado
na equacao (3.10); veremos a seguir como resolve-lo na plataforma
Ox.

3.5 Solucao Algortmica de Sistemas de


Equacoes Nao-lineares
O codigo fonte a seguir tem como propositos:

1. gerar uma amostra de tamanho t amostra de eventos de va-


riaveis aleatorias i.i.d. que seguem a distribuicao gama com
parametros = p a e = p b;
\
2. calcular (, ) = (b b o estimador de (, ) baseado no pri-
, ),
meiro e segundo momentos amostrais;

3. exibir o resultado na sada padrao.

1 # include < oxstd .h >


2 # include < oxprob .h > // rotinas de p r o b a b i l i d a d e
3 # import < solvenle > // r e s o l u c a o de s i ste ma s de e q u a c o e s
32 [CAP. 3: METODO DE SUBSTITUICAO

4 // nao - lin e ares


5
6 decl g_m1 , g_m2 ; // declara as v a r i a v e i s que a r m a z e n a r a o
7 // os m o me n tos de primera e segunda ordem
8 // v a r i a v e i s globais para que sejam vistas pelas funcoes
9 // a re s o lv er
10
11 si st_ec_ gama1 2 ( const avF , const vX ) {
12 decl alfa , beta ;
13
14 alfa = fabs ( vX [0]);
15 beta = fabs ( vX [1]);
16
17 avF [0] = ( g_m1 - alfa * beta | g_m2 - alfa
18 * ( beta .^ 2.) * (1. + alfa ));
19
20 return 1;
21 }
22
23 main () //
24 {
25 decl t_amostra = 10000; // declara e atribui valor ao
26 // tamanho da amostra
27 decl p_a = 10. , p_b = .01; // declara e atribui valores
28 // aos p a r a m e t r o s v e r d a d e i r o s
29 decl v_amostra ; // declara o vetor que a r m a z e n a r a a
30 // amostra gerada
31 decl v_solucao = <1;1 >;
32
33 ranseed ( " LE " );
34 ranseed ({2 ,11 ,111 ,1111});
35
36 v_amostra = rangamma ( t_amostra , 1 , p_a , 1. / p_b );
37 // gera eventos
38 // cuidado com a p a r a m e t r i z a c a o de Ox
39 // a r m a z e n a m e n d o e p r o c e s s a m e n t o por filas pode ser
40 // mais rapido
41 // dados a r m a z e n a d o s numa coluna
42
43 g_m1 = meanc ( v_amostra ); // media das colunas
44 g_m2 = meanc ( v_amostra .^ 2.); // media do q u adr ad o das
45 // colunas
46
47 SolveNLE ( sist_ec_gama12 , & v_solucao );
48 println ( " Solucao = " , fabs ( v_solucao ));
49 }

Alguns pontos a serem comentados deste programa sao:


[SEC. 3.5: SISTEMAS DE EQUACOES NAO LINEARES 33

l. 25-31 Ox exige que toda variavel a ser utilizada seja declarada;


note que nao se diz o tipo, ja que o mesmo e dinamico e depende
das atribuicoes feitas a cada variavel.

l. 36 A funcao rangamma gera um vetor de t_amostra linhas e 1


coluna de eventos de variaveis aleatorias i.i.d. com distribuicao
gamma e parametros = p a e = 1/p b. Como esta, existem
funcoes que geram eventos de variaveis aleatorias de diversas
distribuicoes interessantes (beta, binomial, Cauchy, gaussiana
inversa generalizada etc.); todas elas tem prefixo ran e um
sufixo que lembra a lei.

l. 43-44 Um dos pontos fortes do Ox e sua orientacao a matrizes. Um


exemplo disto e a funcao meanc, que admite como argumento
uma matriz de m linhas e n colunas, e retorna um vetor de
dimensao n onde cada elemento e a media dos m elementos
de cada coluna da matriz de entrada. Note que na linha 44
passamos como entrada da funcao meanc o vetor formado pelo
quadrado de cada elemento do vetor v_amostra.

l. 47 E o nucleo central do programa. Chamamos a funcao SolveNLE


com dois argumentos obrigatorios: a funcao que implementa o
sistema de equacoes que queremos resolver (sist_ec_gama12)
e o endereco (por isso o uso de &) de um vetor que, na entrada,
tem a solucao inicial e, na sada, tera a solucao. Imprimimos
a sada na linha 48; note que tomamos o valor absoluto dos
valores obtidos.

l. 11-21 Aqui declaramos a funcao que implementa o sistema de e-


quacoes que queremos resolver (dado em (3.11)). A funcao
sist_ec_gama12 (sistema de equacoes para a estimativa dos
parametros da distribuicao gamma pelo metodo de substituicao
utilizando os momentos de ordem 1 y 2) sera avaliada nos va-
lores do vetor vX e seu resultado (vetorial) sera armazenado no
vetor avF.

l. 14-15 Impomos a restricao de utilizar so valores positivos ao cal-


cular o valor absoluto dos argumentos e ao considerar o valor
absoluto da solucao encontrada (linha 48).
34 [CAP. 3: METODO DE SUBSTITUICAO

l. 17 Atribumos um vetor com o resultado de avaliar cada equacao


do sistema dado em (3.11) a avF[0]. Note como formamos
um vetor atraves da concatenacao em coluna (operador |) dos
valores.
l. 20 A funcao deve retornar 1 quando for possvel fazer a resolucao
sem nenhum problema; outros valores sinalizam outras situa-
coes.

l. 33-34 Instrucoes opcionais com as quais se indica qual gerador de


numeros pseudo-aleatorios devera ser empregado (neste caso
escolhemos o gerador de LEcuyer) e sua semente (que para
este gerador e um vetor de dimensao 4).

A sada deste programa e


Ox version 3.40 (Linux) (C) J.A. Doornik, 1994-2004
Soluc~
ao =
9.8731
0.010129

que, usando a notacao ja definida, significa (b b


, )() = (9.87, 0.01).
E importante notar que este resultado so e valido para a amostra
que utilizamos. Ao alterar a semente, o tamanho da amostra ou o
valor de algum parametro teremos outra estimativa para (, ); a
particularidade do caso esta manifestada ao usar (), indicando que
e um unico evento. Nao podemos afirmar nada sobre (b b em geral;
, )
para isso deveramos repetir muitas vezes a experiencia numerica para
chegar a algum tipo de conclusao. Esse e o o assunto do Captulo 7.
A funcao SolveNLE admite varios parametros e entradas, sendo
uma das opcoes mais importantes o uso do jacobiano do sistema de
equacoes que se deseja resolver. Informar o jacobiano tem o efeito
(usualmente) positivo de acelerar a convergencia, ao custo (sempre)
de requerer mais operacoes. Quando o jacobiano nao esta disponvel
de forma analtica e possvel utilizar a funcao NumJacobian, que o
calcula de forma numerica.
Captulo 4

Inferencia pelo Metodo


de Maxima
Verossimilhanca e
Otimizacao

No captulo anterior vimos uma tecnica de estimacao de aplicabili-


dade universal. Nem sempre se conhecem as propriedades exatas dos
estimadores calculados pelo metodo de substituicao, o que estimula
a busca por outros metodos de estimacao. Neste captulo veremos a
tecnica de inferencia baseada no conceito de verossimilhanca e algo-
ritmos que a implementam. Veremos que, em geral, estimadores de
maxima verossimilhanca podem ser calculados atraves da solucao de
um problema de otimizacao; em alguns casos este problema pode ser
transformado em um problema de solucao de sistemas de equacoes,
tal como visto no Captulo 3.

Ainda que este conceito possa ser aplicado a qualquer modelo


estatstico parametrico, por razoes de espaco limitaremos a discussao
a analise de observacoes que sao eventos de variaveis aleatorias i.i.d.

35
36 [CAP. 4: METODO DE MAXIMA VEROSSIMILHANCA

4.1 O Conceito de Verossimilhanca


Dizemos que b e um estimador de maxima verossimilhanca para o
parametro sob a amostra y = (y1 , . . . , yn ) se

b = arg max L(; y), (4.1)


onde L e a verossimilhanca dos dados y. Para dados provenientes de


variaveis aleatorias i.i.d., temos que
Y
L(; y) = f (; yi ),
1in

onde f (; yi ) = fY (yi ; ) e fY (yi ; ) e a densidade da variavel a-


leatoria indexada pelo parametro . Em outras palavras, a veros-
similhanca e a funcao de densidade de probabilidade, so que com o
argumento y fixo (visto que foi observado), e variando o parametro.
Desta forma, a verossimilhanca nao e um produto de densidades.
Um estimador de maxima verossimilhanca maximiza a verossimi-
lhanca conjunta (equacao (4.1)), isto e, e um valor do parametro que
faz com que a amostra observada seja a mais verossmil. Na maioria
das aplicacoes nao interessa o valor que a funcao de verossimilhanca
adota; so estamos interessados em argumentos que a maximizam.
Para o problema de estimativa dos parametros de uma distribu-
icao gama que vnhamos tratando, dada a amostra y = (y1 , . . . , yn )
um estimador de maxima verossimilhanca b = (, \ ) para o parame-
2
tro = (, ) e qualquer ponto de R+ que satisfaca

Y 1
\
(, ) = arg max 2 y 1 exp(yi /)
(,)R+ () i
1in
Y
= arg max 2 ( ()n yi1 exp(yi /). (4.2)
(,)R+
1in

Ja que todos os termos da equacao (4.2) sao positivos, podemos


trabalhar com o logaritmo; fazendo isto temos que a equacao (4.2)
[SEC. 4.1: O CONCEITO DE VEROSSIMILHANCA 37

reduz-se a
X
\
(, ) = arg max 2 n ln n ln () + ( 1) ln yi
(,)R+
1in

1 X
yi . (4.3)

1in

A equacao (4.3) e conhecida como equacao de log-verossimilhanca,


e costuma ser mais simples de resolver que a equacao de verossimi-
lhanca. Podemos simplificar ainda um pouco mais o problema ao
notar que existem termos na equacao (4.3) que nao dependem de
nem de e, por isso, podemos descarta-los. Assim sendo, nosso
problema final e encontrar

\
(, ) = arg max `(; y) = arg max 2 n ln n ln ()
b
(,)R+
X
1 X
+ ln yi yi . (4.4)

1in 1in

Esta ultima equacao costuma ser chamada de equacao de log-verossimi-


lhanca reduzida. Pode constatar-se facilmente que nao se pode re-
solve-la de forma explcita e, por isso, para encontrar um estimador
de maxima verossimilhanca tem-se que utilizar rotinas de otimizacao.
Este sera o tema da secao 4.2.
Alternativamente, e possvel tratar o problema resolvendo o sis-
tema de equacoes formado pelo gradiente da equacao de log-veros-
similhanca reduzida, isto e, tomar b como sendo algum valor que
satisfaca
b y) = 0
`(;
que, em nosso caso, reduz-se a

1 X

ln yi ln b (b
) = 0
n
1in
1 X

yi b = 0,
nb 1in

onde () = 0 ()/() e a funcao digama. Uma vez formulado


desta maneira, o problema do calculo de estimadores pelo metodo
38 [CAP. 4: METODO DE MAXIMA VEROSSIMILHANCA

de maxima verossimilhanca pode ser resolvido de maneira analoga a


apresentada no Captulo 3.

4.2 Algoritmos para Otimizacao


A maximizacao direta da funcao de verossimilhanca ou da funcao de
log-verossimilhanca reduzida pode ser facilmente realizada no Ox, ja
que a plataforma oferece rotinas para isso.
Comecemos por escrever log-verossimilhanca, a partir de (4.3), de
forma mais tratavel:
1 X 11 X
`(, ; y) = ln ln () + ln yi yi . (4.5)
n n
1in 1in

1
Pn
O termo n i=1 yi foi calculado no programa principal P
e armaze-
n
nado na variavel global g_m1. Calcularemos o termo n1 i=1 ln yi
com o comando
g_logm1 = meanc(log(v_amostra));
e armazenaremos o resultado na variavel global g_logm1.
O codigo que implementa a funcao dada na equacao (4.5) e o
seguinte:
1 fu n c_ v e r o s s g a m m a ( const vP , const adFunc , const avScore ,
2 const amHessian ) {
3
4 decl alfa , beta ;
5
6 alfa = fabs ( vP [0]);
7 beta = fabs ( vP [1]);
8
9 adFunc [0] = - alfa * log ( beta ) - loggamma ( alfa ) +
10 alfa * g_logm1 - g_m1 / beta ;
11
12 return 1;
13 }

e a chamada a funcao que a maximiza e


1 ir = MaxBFGS ( func_verossgamma , & v_solucao , & dFunc , 0 , 1);
2 println ( " Estimador maxver por c~a otimizao = " ,
3 fabs ( v_solucao ));
4 println ( " Convergencia : " , M a x Co n v e r ge n c e M sg ( ir ));
[SEC. 4.2: ALGORITMOS PARA OTIMIZACAO 39

Na linha 1 atribumos a variavel ir o resultado da chamada a


funcao de otimizacao MaxBFGS. Esse resultado nos informa o tipo de
convergencia obtido pelo algoritmo, e para sabe-lo utilizamos a cha-
mada a funcao MaxConvergenceMsg, tal como mostrado na linha 4.
Nem sempre diferentes algoritmos convergem para a mesma solu-
cao. Em alguns casos que podem ser considerados patologicos, dife-
rentes algoritmos (ou o mesmo algoritmo com diferentes ajustes ou
valores iniciais) podem levar a solucoes muito diferentes, tal como se
discute em [21].
Para concluir este captulo comentaremos o resultado de calcu-
lar os estimadores obtidos pelo metodo de momentos e pelo metodo
de maxima verossimilhanca implementado por otimizacao para uma
amostra de tamanho 10000 e (, ) = (10, 1/10). Utilizando uma
certa semente para o gerador escolhido, os resultados foram, respec-
tivamente, (b M O = 10.131, bM O = 0.099) e (b
M V = 10.059, bM V =
0.100). O que podemos afirmar sobre estes estimadores? Nada! Estes
resultados sao amostras de tamanho unitario de variaveis aleatorias,
e qualquer comparacao medianamente justa devera basear-se nao em
uma amostra deste tipo e sim em alguma propriedade mais geral.
Ja que nao conhecemos tais propriedades gerais, e ja que elas sao
difceis de derivar em geral, veremos no proximo captulo como ter
uma ideia aproximada sobre elas utilizando tecnicas computacionais
de simulacao.
O R, atraves do pacote MASS, prove uma funcao que permite reali-
zar a estimacao por maxima verosimilhanca dos parametros de varios
modelos de uso frequente na estatstica: a funcao fitdistr. As dis-
tribuicoes implementadas na versao utilizada na epoca da preparacao
destas notas sao beta, Cauchy, 2 , exponencial, F, gama, log-normal,
logstica, binomial negativa, gaussiana, t, uniforme e Weibull. A se-
guir mostramos o codigo que implementa a simulacao de uma amostra
de tamanho 100 da distribuicao beta com parametros 4 e 2 (linha 3),
que estima estes parametros (linhas 4 e 5) usando como valores inici-
ais 2 e 4, respectivamente. A partir da linha 13 o codigo implementa
a visualizacao simultanea das densidades verdadeira e estimada, mos-
tradas na Figura 4.1.

1 > # estimacao por maxima verossimilhanca


2 > library ( MASS )
40 [CAP. 4: METODO DE MAXIMA VEROSSIMILHANCA

3 > random <- rbeta (100 , shape1 =4 , shape2 =2)


4 > a = fitdistr ( random , dbeta , start = list ( shape1
5 + =2 , shape2 =4))
6 > a
7 shape1 shape2
8 4.5502955 2.2374403
9 (0.6405170) (0.2977327)
10 > a = unlist ( a )
11 > z = seq ( from = 0.01 , to = 0.99 , length
12 + = 200)
13 > plot (z , dbeta (z , shape1 =4 , shape2 =2) ,
14 + xlab = " " , ylab = " " , type = " l " , ylim = c (0 ,2.5) ,
15 + xlim = c (0.01 ,0.95))
16 > lines (z , dbeta (z , shape1 = a [1] , shape2 = a [2]) ,
17 + type = " l " , lty =2)
2.5
2.0
1.5
1.0
0.5
0.0

0.0 0.2 0.4 0.6 0.8 1.0

Figura 4.1: Densidades teorica e estimada (linhas contnua e trace-


jada, respectivamente)
Captulo 5

Otimizacao Nao-linear

5.1 Introducao
Em muitas situacoes praticas e comum precisarmos minimizar ou ma-
ximizar funcoes. Um exemplo de grande importancia e a obtencao
de estimativas de maxima verossimilhanca em modelos estatsticos e
econometricos; em muitos casos de interesse o estimador de maxima
verossimilhanca nao possui forma fechada e as estimativas devem
ser obtidas a partir da maximizacao numerica da funcao de veros-
similhanca ou da funcao de log-verossimilhanca, ou seja, precisamos
construir esta funcao com base no modelo postulado e depois maxi-
miza-la numericamente a fim de encontrar as estimativas de maxima
verossimilhanca dos parametros que definem o modelo. Um outro
exemplo envolve o problema de mnimos quadrados, onde o interesse
reside na minimizacao da soma dos quadrados de um conjunto de er-
ros, por exemplo, na estimacao de modelos nao-lineares de regressao
pelo metodo de mnimos quadrados nao-lineares.
O presente captulo apresenta um conjunto de ferramentas que sao
uteis na tarefa de encontrar mnimos e maximos de funcoes. Nao nos
preocuparemos inicialmente com a existencia de mais de um mnimo
ou maximo; a tecnica de simulated annealing, apresentada mais adi-
ante, sera util na localizacao de mnimos e maximos globais.
Ao longo do captulo trataremos da maximizacao de funcoes; para
minimizar uma funcao utilizando os metodos descritos a seguir basta

41
42 [CAP. 5: OTIMIZACAO NAO-LINEAR

multiplica-la por 1 e proceder a sua maximizacao. Para maiores


detalhes sobre os metodos apresentados neste captulo, ver [38].

5.2 O Problema de Interesse


Suponha que o nosso interesse reside na maximizacao de uma deter-
minada funcao, digamos : R, onde e um subespaco de Rp .
Suponha inicialmente que a funcao de interesse e quadratica, ou seja,
suponha que pode ser escrita como

1
() = + 0 + 0 ,
2
onde e um dado escalar, e um vetor de dimensao p 1 e e
uma matriz positiva-definida de ordem p p. A condicao de primeira
ordem para a maximizacao de e dada por = 0, resultando
assim na solucao
= 1 ,

com a condicao de que e positiva-definida garantindo que 1


existe. Este e um problema de otimizacao linear que resulta numa
solucao que possui forma fechada. Os problemas encontrados com
maior frequencia, contudo, sao aqueles onde a condicao de primeira
ordem,
()
= 0,

constitui um sistema de equacoes nao-lineares que nao apresenta
solucao em forma fechada. Os metodos apresentados abaixo bus-
cam encontrar o maximo da funcao atraves do uso de algoritmos
iterativos.

5.3 Metodos Gradiente


O nosso objetivo, como mencionado acima, e o de localizar o ponto de
maximo da funcao ; para tanto, utilizaremos um esquema iterativo.
Iniciando em 0 , na iteracao t se o valor otimo de nao houver sido
[SEC. 5.3: METODOS GRADIENTE 43

alcancado, calcule o vetor direcional t (p1) e o tamanho do passo


t ; o proximo valor de no esquema iterativo e dado por

t+1 = t + t t .

Convem notar que para dados t e t , um processo secundario de


otimizacao deve ser empregado para que seja localizado o tamanho
de passo (t ) mais apropriado; este processo auxiliar de otimizacao
e usualmente conhecido como procura em linha. Seja f o vetor de
derivadas parciais de . O problema de procura em linha pode ser
descrito da seguinte forma: busca-se t tal que

(t + t t )
= f (t + t t )0 t = 0.
t

E importante ressaltar, todavia, que a introducao de buscas em li-


nha em algoritmos de otimizacao nao-linear tipicamente torna estes
algoritmos muito intensivos e custosos do ponto de vista computacio-
nal. Muitas implementacoes substituem o mecanismo de procura em
linha por um conjunto de regras ad hoc menos custosas computacio-
nalmente.
A classe mais utilizada de algoritmos iterativos e conhecida como
classe de metodos gradiente. Aqui,

t = Mt ft ,

onde Mt e uma matriz positiva-definida e ft e o gradiente de , ambos


na iteracao t. Segundo esta notacao, ft = ft (t ) = (t )/t .
Para entender sua motivacao, considere uma expansao de Taylor de
(t + t t ) em torno de t = 0:

(t + t t ) (t ) + t f (t )0 t .

Seja (t + t t ) = t+1 . Assim, temos que

t+1 t t ft0 t .

Se t = Mt ft , como na classe de metodos gradiente, entao

t+1 t t ft0 Mt ft .
44 [CAP. 5: OTIMIZACAO NAO-LINEAR

Suponha que ft e diferente de zero e que t e suficientemente pequeno.


Temos assim que se () nao se encontra no maximo, podemos sem-
pre encontrar um tamanho de passo tal que uma iteracao adicional
conduzira a um incremento no valor da funcao. Isto e verdade por-
que Mt e positiva-definida e, como nao estamos no ponto de maximo,
o gradiente da funcao a ser maximizada e diferente de zero, o que
implica ft0 Mt ft > 0.

5.3.1 Steepest Ascent


O algoritmo mais simples e o da subida mais inclinada, tambem co-
nhecido como algoritmo de steepest ascent. A ideia por tras deste
algoritmo e usar
Mt = I,
ou seja toma-se a matriz Mt , considerada positiva-definida acima,
como sendo a matriz identidade de ordem p em todos os passos do
esquema iterativo, o que resulta em t = ft . Este algoritmo tende a
ser pouco utilizado em aplicacoes praticas, pois tipicamente apresenta
convergencia lenta.

5.3.2 Newton-Raphson
O metodo de Newton ou de Newton-Raphson pode ser descrito pela
seguinte equacao de atualizacao:

t+1 = t Ht1 ft ,

onde
2 ()
H = H() = ,
0
i.e., H e a matriz hessiana. Neste metodo, temos, portanto, Mt =
Ht1 e t = 1 para todo t.
Para entender a motivacao por tras deste metodo, considere uma
expansao em serie de Taylor da condicao de primeira ordem em torno
de um ponto arbitrario, digamos 0 :

()
f (0 ) + H(0 )( 0 ).

[SEC. 5.3: METODOS GRADIENTE 45

Resolvendo para e colocando = t+1 e 0 = t , obtemos o es-


quema iterativo de Newton-Raphson dado acima.
A forma mais usual do algoritmo inclui um mecanismo de procura
em linha e o esquema iterativo e dado por
t+1 = t t Ht1 ft ,
onde t e como descrito anteriormente.
O metodo de Newton-Raphson funciona bem em muitas situacoes,
mas pode apresentar desempenho ruim em alguns casos. Em particu-
lar, se a funcao nao for aproximadamente quadratica ou se a estima-
tiva corrente se encontrar muito distante do ponto otimo, pode haver
problemas de convergencia. Em particular, em pontos distantes do
ponto maximizador de , a matriz de segundas derivadas pode nao
ser negativa-definida, o que violaria a suposicao de que Mt e positiva-
definida no esquema iterativo geral.

5.3.3 BHHH
O metodo BHHH foi proposto por [1] e e semelhante ao metodo de
Newton-Raphson. A unica diferenca reside no fato de que se usa a
matriz ft ft0 (conhecida como outer product of the gradient) ao inves
de Ht no esquema iterativo. Ou seja, usamos
(t ) (t )
H = H () =
t t0
ao inves de
2 (t )
H = H() =
t t0
no esquema iterativo de Newton. Note que aqui nao precisamos cal-
cular a matriz de segundas derivadas. Este metodo e muito usado
em varias aplicacoes econonometricas; por exemplo, em [5] sugere-se
o uso deste algoritmo para estimacao de modelos GARCH (modelos
de heteroscedasticidade condicional auto-regressiva generalizada).

5.3.4 Escore de Fisher


O metodo escore de Fisher (Fishers scoring) tambem e semelhante ao
metodo de Newton-Raphson. A diferenca e que no esquema iterativo
46 [CAP. 5: OTIMIZACAO NAO-LINEAR

usamos o valor esperado da matriz de segundas derivadas ao inves da


matriz de segundas derivadas (H) em si. Ou seja, usamos
2
(t )
K = K() = E
t t0
ao inves de
2 (t )
H = H() = .
t t0
Note que se , a funcao a ser maximizada, for uma funcao de log-
verossimilhanca, entao K e a matriz de informacao de Fisher
e, por-
1
tanto, M = [E{H()}] e a variancia assintotica de n vezes o
estimador de maxima verossimilhanca de . Este metodo e muito
utilizado, por exemplo, para estimacao de modelos lineares generali-
zados; ver, e.g., [35].

5.3.5 Quasi-Newton
Ha uma classe de algoritmos muito eficientes que elimina a neces-
sidade do calculo de segundas derivadas e tipicamente apresenta bom
desempenho: a classe de algoritmos quasi-Newton, tambem conhecida
como classe de metodos de metricas variaveis. Nesta classe, usa-se a
seguinte sequencia de matrizes:
Mt+1 = Mt + Nt ,
onde Nt e uma matriz positiva-definida. Note que se M0 , a ma-
triz inicial da sequencia, for positiva-definida, entao todas as demais
matrizes da sequuencia tambem o serao. A ideia basica e construir
iterativamente uma boa aproximacao para {H()}1 , ou seja, usar
uma sequencia de matrizes Mt tal que limt Mt = H 1 . A ideia
central do metodo remonta a um artigo que Davidon escreveu no fi-
nal da decada de 1950 [17]; este artigo, contudo, nao foi aceito para
publicacao a epoca, e sua publicacao so veio a se dar em 1991, mais
de trinta anos mais tarde [18]. Hoje ha diferentes algoritmos que
pertencem a esta classe. Por exemplo, o algoritmo DFP (Davidon,
Fletcher e Powell) usa
t t0 Mt t t0 Mt
Mt+1 = Mt + 0 + ,
t t t0 Mt t
[SEC. 5.4: PROBLEMAS COMBINATORIOS E SIMULATED ANNEALING 47

onde t = t+1 t e t = f (t+1 ) f (t ).


O algoritmo quasi-Newton mais utilizado e o BFGS (Broyden,
Fletcher, Goldfarb e Shanno). Aqui, subtramos o seguinte termo do
esquema de atualizacao DFP: at bt b0t , onde at = t0 Mt t e
t Mt t
bt = 0 .
t0 t t Mt t
Ou seja, no algoritmo BFGS temos

t 0 Mt t t0 Mt t Mt t
Mt+1 = Mt + 0 t + t0 Mt t 0
t t t0 Mt t t0 t t Mt t
0
t Mt t
0 .
t0 t t Mt t
Note que nos algoritmos DFP e BFGS a matriz Mt e sempre positiva-
definida, desde que se inicie a sequencia de atualizacao em uma matriz
que possua esta propriedade. Assim, supera-se uma limitacao do
metodo Newton-Raphson, pois neste metodo a matriz Mt = Ht1
pode nao ser positiva-definida se estivermos longe do ponto otimo.
Elimina-se tambem a necessidade do calculo de segundas derivadas,
da inversao da matriz hessiana e da avaliacao desta matriz em cada
iteracao do processo otimizador.
O algoritmo BFGS tem geralmente desempenho melhor que a
versao DFP, sendo assim mais utilizado em aplicacoes praticas. Para
uma implementacao em C do algoritmo BFGS, ver [39].
A terminologia quasi -Newton se deve ao fato de que nos nao usa-
mos a matriz hessiana, mas usamos uma aproximacao para ela cons-
truda de forma iterativa. Nao se deve subentender que este metodo
e inferior ao metodo de Newton-Raphson por nao utilizar a matriz
hessiana; de fato, em muitas situacoes praticas ele tem desempenho
superior ao metodo de Newton-Raphson.

5.4 Problemas Combinatorios e Simula-


ted Annealing
A tecnica de simulated annealing e um pontos altos da pesquisa em
otimizacao e simulacao estocastica dos anos 80 e 90. Esta tecnica e
48 [CAP. 5: OTIMIZACAO NAO-LINEAR

inspirada em um processo fsico para gerar cristais de alta pureza,


isto e, muito regulares, conhecida como recozido; da a (imperdoavel)
traducao recozido simulado.
O princpio do recozido e fundir o cristal, a alta temperatura, para
depois ir esfriando-o muito devagar. Ao fazer este esfriamento, pelo
menos em princpio, as moleculas irao se acomodar da forma mais
regular possvel, ja que quanto mais regular a estrutura menor sera
a energia total do sistema.
A analogia consiste em considerar um problema atraves das suas
solucoes possveis, cada uma delas associada a um custo e a um con-
junto de outras solucoes viaveis. Comecando em uma solucao ar-
bitraria x0 , o algoritmo escolhe uma solucao candidata na vizinhanca
e computa o seu custo. Caso o custo da candidata seja inferior ao
custo de x0 , ela e escolhida como nova solucao e se prossegue. Caso
o custo da solucao candidata seja maior do que o custo de x0 , ela
ainda tem alguma chance de ser aceita. Essa chance depende de um
parametro chamado temperatura, que controla a evolucao do algo-
ritmo.
Tal como originalmente formulado, este algoritmo e absoluta-
mente geral. O problema particular sendo tratado, isto e, o domnio
de aplicacao, ira ditar formas mais ou menos eficientes de implementa-
lo. Esta implementacao consiste, essencialmente, da especificacao de
1. a vizinhanca de cada solucao viavel
2. a forma em que sera escolhida uma solucao na vizinhanca
3. a probabilidade com que solucoes piores (de maior custo) do
que a atual serao aceitas
4. a regra ou regras de iteracao e de parada do algoritmo.
Existem varias provas da convergencia do algoritmo de simulated
annealing para o conjunto dos mnimos globais da funcao de custo,
contudo todas elas requerem um numero infinito de iteracoes. Ha
algumas pesquisas recentes que fornecem resultados para um numero
finito de iteracoes, que e a situacao real que sempre deveramos con-
siderar. Somente enunciaremos o resultado assintotico.
Embora esta tecnica possa ser aplicada em princpio a absoluta-
mente qualquer problema discreto, ela e mais atraente para problemas
[SEC. 5.4: PROBLEMAS COMBINATORIOS E SIMULATED ANNEALING 49

combinatorios. Estes problemas sao os mais complexos de serem re-


solvidos do ponto de vista computacional. A tecnica tambem pode ser
empregada em problemas de otimizacao contnua [3]. Uma referencia
muito boa para o assunto e o artigo da revista Science de [29].
Um problema de otimizacao combinatoria pode ser formalizado
como um par (R, C), onde R e o conjunto (finito ou enumeravel) das
configuracoes ou solucoes viaveis, e C e uma funcao de custo que a
cada elemento em R associa um valor real, isto e, C : R R. O custo
e tipicamente, mas nao necessariamente, nao negativo. A funcao C e
definida de tal forma que quanto menor, melhor a solucao. Com estes
ingredientes, o problema consiste em achar a(s) configuracao(coes)
nas quais o custo alcanca o menor valor, isto e, achar

= arg min C().


R

O algoritmo de simulated annealing requer a definicao de uma


vizinhanca de configuracoes, isto e, para cada elemento R deve
existir = {t R \ {} : t t }. Este conjunto de
vizinhancas deve ser tal que para todo par de configuracoes (0 , L )
de vizinhancas 0 e L existe pelo menos uma sequencia de confi-
guracoes (1 , . . . , L1 ) cujas vizinhancas (1 , . . . , L1 ) tem a pro-
priedade i i+i 6= para todo 0 i L 1. Em outras palavras,
comecando em qualquer configuracao 0 e possvel chegar em qualquer
outra configuracao L transitando pelas vizinhancas. Esta condicao
e necessaria para garantir que uma certa cadeia de Markov definida
em R seja irredutvel. Na literatura fsica, e comum encontrar esta
condicao descrita como o ponto otimo e alcancavel (reachable) a
partir de qualquer configuracao inicial.
Evidentemente, e possvel definir um conjunto de vizinhancas que
satisfaz esta condicao fazendo = {R \ {}} para todo R, mas
esta escolha e pouco conveniente.
Outro ingrediente fundamental do algoritmo e a sua dinamica,
isto e, o conjunto de regras segundo o qual o procedimento se rege.
Comecando de uma configuracao inicial (0) R uma configuracao
sera escolhida na vizinhanca de (0), digamos . Esta configuracao
sera chamada candidata. A candidata sera aceita como a nova confi-
guracao, isto e (1) = , se C() < C((0)); em outras palavras, toda
vez que a candidata diminuir o custo ela sera aceita. Caso esta seja a
50 [CAP. 5: OTIMIZACAO NAO-LINEAR

unica especificacao do algoritmo, ele ira se deter no primeiro mnimo


local que alcancar, o que nao e desejavel.
Para fugir dos mnimos locais deve ser fornecida uma regra de es-
cape. Uma regra que garante a convergencia ao conjunto de mnimos
globais , conhecida como relaxacao estocastica de Metropolis, e
dada por
n1 o
Pr((i) = | C() C((i i))) = exp C((i i)) C() ,
Ti
onde o parametro Ti > 0 e chamado temperatura no instante i. Em
palavras, uma configuracao pior do que a atual (i 1) sera aceita
com uma certa probabilidade que depende inversamente da diferenca
de custos. Quanto maior a temperatura maior a chance de serem
aceitas configuracoes ruins. Para garantir a convergencia do algo-
ritmo ao conjunto e necessario que a sequencia de temperaturas
obedeca a uma certa regra, sempre com Ti Ti+1 , isto e, as tempe-
raturas deverao ser nao-crescentes.
O principal resultado pode ser enunciado como sob certas con-
dicoes impostas sobre a sequencia de temperaturas (Ti )i1 vale que
Pr((i) ) 1 quando i para qualquer (0) R obedecendo
a dinamica acima especificada.
Existem varias provas deste resultado, sendo possvel classifica-las
segundo varios criterios. O criterio mais famoso e o que se baseia na
homogeneidade ou heterogeneidade da cadeia de Markov que define
a dinamica. O algoritmo acima esta definido sobre uma cadeia ho-
mogenea se a temperatura fica fixa durante um certo tempo, para
depois diminuir e ficar fixa novamente durante outro certo tempo e
assim por diante; caso contrario a cadeia e dita ser heterogenea. Para
que haja convergencia ao conjunto com cadeias homogeneas e ne-
cessario que em cada temperatura o algoritmo siga cadeias de com-
primento infinito, e que a temperatura diminua. Quando a cadeia e
nao homogenea, e imprescindvel que a diminuicao da temperatura
seja da forma Ti = k/ ln(i). A constante k depende do problema
sendo tratado.
A prova e geral, mas como implementar cadeias de Markov de
comprimento infinito? Esta tarefa nao e possvel em geral, e devem
ser empregadas versoes finitas onde a convergencia ao conjunto nao
esta garantida. Mesmo assim, o poder deste algoritmo e inegavel.
[SEC. 5.5: IMPLEMENTACAO COMPUTACIONAL 51

5.5 Implementacao Computacional


Na plataforma Ox, o metodo BFGS se encontra implementado atraves
da funcao MaxBFGS. A implementacao permite a escolha entre pri-
meiras derivadas analticas (fornecidas pelo usuario) e primeiras de-
rivadas numericas (calculadas pela plataforma). A funcao nativa
MaxNewton implementa os metodos BHHH, escore de Fisher, Newton-
Raphson e da subida mais inclinada, permitindo ao usuario escolher
entre segundas derivadas analticas ou numericas. Codigo para es-
timacao via simulated annealing em Ox foi desenvolvido por Char-
les Bos (MaxSA); ver o codigo fonte em http://www.tinbergen.nl/
~cbos/software/maxsa.html.
Na plataforma R, pode-se usar a funcao optim para realizar oti-
mizacao nao-linear. Entre outros metodos, estao disponveis para
utilizacao em optim: BFGS, Newton-Raphson e simulated annealing.
Ha tambem a opcao de se usar BFGS com restriccoes de caixa, onde
e possvel especificar limites inferior e/ou superior para os elementos
do vetor (ver [12]). Convem notar que optim realiza minimizacao
de funcoes, contrariamente as funcoes disponveis na plataforma Ox;
para maximizar funcoes, use a opcao fnscale=-1.

5.6 Exemplos
Seja Y1 , . . . , Yn uma amostra aleatoria de uma distribuicao tm , onde
m denota o numero de graus de liberdade da distribuicao t de Student.
Suponha que desejamos, para uma amostra gerada aleatoriamente
com n = 50, estimar m por maxima verossimilhanca. Isto e feito no
programa abaixo, escrito usando a linguagem Ox.
1 /* PROGRAMA : t . ox */
2

3 # include < oxstd .h >


4 # include < oxprob .h >
5 # import < maximize >
6

7 const decl N = 50;


8 static decl s_vx ;
9
52 [CAP. 5: OTIMIZACAO NAO-LINEAR

10 fLogLik ( const vP , const adFunc , const avScore ,


11 const amHess )
12 {
13 decl vone = ones (1 , N );
14 adFunc [0] = double ( N * loggamma (( vP [0]
15 +1)/2) - ( N /2)* log ( vP [0])
16 - N * loggamma ( vP [0]/2)
17 - (( vP [0]+1)/2)*( vone * log (1
18 + ( s_vx .^ 2)/ vP [0])) );
19

20 if ( isnan ( adFunc [0]) ||


21 isdotinf ( adFunc [0]) )
22 return 0;
23

24 else
25 return 1; // 1 indica successo
26 }
27

28 main ()
29 {
30 decl vp , dfunc , dm , ir ;
31

32 ranseed ( " GM " );


33

34 vp = 2.0;
35 dm = 3.0;
36 s_vx = rant (N ,1 , dm );
37

38 ir = MaxBFGS ( fLogLik , & vp , & dfunc ,


39 0 , TRUE );
40

41 print ( " \ nCONVERGENCIA : " ,


42 Ma xConvergence Msg ( ir ) );
43

44 print ( " \ nLog - vessom . maximizada : " ,


45 " %7.3 f " , dfunc );
46 print ( " \ nValor verdadeiro de m : " ,
47 " %6.3 f " , dm );
[SEC. 5.6: EXEMPLOS 53

48 print ( " \ nEMV de m : " ,


49 " %6.3 f " , double ( vp ));
50 print ( " \ nTamanho amostral : " ,
51 " %6 d " , N );
52 print ( " \ n " );
53

54 }

Este programa fornece a seguinte sada, quando executado usado


a versao 3.30 da linguagem Ox:
1 Ox version 3.30 ( Linux ) ( C ) J . A . Doornik , 1994 -
2 2003
3

4 CONVERGENCIA : Strong convergence


5 Log - vessom . maximizada : -72.813
6 Valor verdadeiro de m : 3.000
7 EMV de m : 1.566
8 Tamanho amostral : 50

Notamos que o valor verdadeiro do parametro m e 3 e que a es-


timativa de maxima verossimilhanca obtida e 1.566. E importante
notar ainda que: (i) a estimacao foi realizada utilizando o metodo
BFGS (quasi-Newton); (ii) foi utilizada primeira derivada numerica;
(iii) e necessario fornecer um valor inicial para o parametro em es-
timacao; o chute inicial usado foi 2; (iv) houve convergencia forte,
o que significa que dois testes diferentes de convergencia indicaram
que se atingiu o valor otimo.
Os possveis retornos das funcoes MaxBFGS e MaxNewton sao os
seguintes: MAX CONV (convergencia forte), MAX WEAK CONV (convergen-
cia fraca), MAX MAXIT (nao houve convergencia, maximo numero de
iteracoes alcancado), MAX LINE FAIL (nao houve convergencia, falha
no mecanismo de busca em linha), MAX FUNC FAIL (falha na avaliacao
da funcao), MAX NOCONV (nao houve convergencia).
Neste exemplo, notamos que a estimativa de maxima verossimi-
lhanca (1.566) encontra-se distante do valor verdadeiro do parametro
(3). Isto nao se deve ao funcionamento do metodo de otimizacao nao-
linear, mas sim ao fato do estimador de maxima verossimilhanca de m
ser muito viesado em amostras finitas. Para n = 500 e 10000 obtemos,
54 [CAP. 5: OTIMIZACAO NAO-LINEAR

respectivamente, as seguintes estimativas para m: 2.143 e 2.907. Ou


seja, e necessario considerar tamanhos amostrais muito grandes para
que se obtenham estimativas razoavelmente precisas. Um estimador
de m corrigido por vies foi obtido e apresentado em [47].
Suponha agora que se deseja encontrar o mnimo global da funcao
3 2 7
f (x, y) = x2 + 2y 2 cos(3x) cos(4y) + .
10 5 10
Note que esta funcao possui varios mnimos locais. Nos usaremos
simulated annealing em R (versao 1.7.0) para minimizar f (x, y). O
primeiro passo e construir o grafico da funcao. O codigo
1 myfunction < - function (x , y )
2 {
3 return ( x ^2+2* y ^2 -(3/10)* cos (3* pi * x ) -(2/5)*
4 cos (4* pi * y )+(7/10))
5 }
6 x <- y <- seq ( -2 ,2 , length =100)
7 z <- outer (x ,y , myfunction )
8 persp (x ,y , z )
produz a Figura 5.1 (pagina 55).
O proximo passo e escrever a funcao a ser minimizada em uma
forma apropriada para o processo de otimizacao a ser realizado:
1 fn <- function ( x )
2 {
3 x1 <- x [1]
4 x2 <- x [2]
5 x1 ^2+2* x2 ^2 -(3/10)* cos (3* pi * x1 ) -(2/5)*
6 cos (4* pi * x2 )+7/10
7 }
Sabemos que o mnimo de f ocorre no ponto (0, 0), onde f (0, 0) =
0. De incio, tentemos usar um metodo tradicional de otimizacao,
digamos BFGS, iniciando o esquema iterativo em (0.5, 0.5):

optim(c(0.5,0.5), fn, method="BFGS")

o que resulta em:


[SEC. 5.6: EXEMPLOS 55

Figura 5.1: Grafico de f (x, y) vs. x e y.

1 $par
2 [1] 0.6186103 0.4695268
3

4 $value
5 [1] 0.8828092
6

7 $counts
8 function gradient
9 13 6
10

11 $convergence
12 [1] 0
13

14 $message
15 NULL
56 [CAP. 5: OTIMIZACAO NAO-LINEAR

Ou seja, convergimos para um mnimo local onde o valor da funcao


e aproximadamente igual a 0.88. Usemos, agora, simulated annealing:
optim(c(0.5,0.5), fn, method="SANN")
Obtemos, com isto:
1 $par
2 [1] -0.0002175535 -0.0031842382
3

4 $value
5 [1] 0.0003411431
6

7 $counts
8 function gradient
9 10000 NA
10

11 $convergence
12 [1] 0
13

14 $message
15 NULL
Assim, o ponto otimo obtido e (0.0002175535, 0.0031842382),
o valor da funcao neste ponto sendo 0.0003411431; nao ficamos, por-
tanto, presos em um mnimo local. Note que, em ambos os casos, o va-
lor de convergence foi 0, indicando que houve convergencia (quando
nao ha convergencia, optim retorna 1). Mas somente no segundo caso
esta convergencia se deu para o mnimo global.
Captulo 6

Modelos de Series
Temporais

6.1 Modelos de Previsao


Modelos de series temporais sao uteis quando o interesse recai na
modelagem e na previsao de dados coletados ao longo do tempo. En-
focaremos a seguir duas estrategias distintas de geracao de previsoes
de valores futuros, a saber: algoritmos de alisamento exponencial e
modelos ARIMA (e extensoes). Para maiores detalhes sobre as es-
trategias de previsao descritas a seguir, ver [6, 7, 37].
De incio, consideremos os algoritmos de alisamento exponencial,
que sao de natureza ad hoc, mas que tendem a ter bom desempe-
nho em muitas situacoes praticas. Os tres principais algoritmos sao:
simples, Holt e HoltWinters. Eles se destinam, respectivamente, a
modelagem de series que possuem apenas nvel, que possuem nvel e
tendencia, e que possuem nvel, tendencia e sazonalidade.
O algoritmo de alisamente exponencial simples e apropriado para
series que nao apresentam tendencia nem sazonalidade. O nvel a-
tual da serie {Nt } e estimado atraves de uma media ponderada das
observacoes anteriores, com os pesos descrescendo exponencialmente
a medida que regredimos no tempo. A expressao do nvel atual e
Nt = (1 )Nt1 + yt , t N, (6.1)

57
58 [CAP. 6: SERIES TEMPORAIS

onde Nt1 = yt1 + (1 )yt2 + , com 0 < < 1.


E necessario selecionar um valor para . Uma forma razoavel
de escolher o valor de e atraves de inspecao visual, ou seja, se a
serie evolui de forma suave faz sentido usar um valor alto para , ao
passo que se a serie evolui de forma erratica faz sentido atribuir peso
pequeno a ultima observacao.
Uma estrategia mais objetiva e escolher o valor de que minimiza
a soma dos quadrados dos erros de previsao um passo a frente,
n
X
S = e2t ,
t=3

onde

et = yt Nt1 e Nt1 = ybt1 (1), t = 3, 4, . . . , n. (6.2)

Aqui ybt1 (1) denota a previsao de yt no instante t 1.


Os algoritmos de alisamento exponencial podem ser vistos como
um sistema de aprendizado. A partir das equacoes (6.1) e (6.2) temos
que
Nt = Nt1 + et ,
ou seja, a estimativa do nvel num instante e a soma da estimativa
anterior e de um multiplo do erro de previsao. Se et = 0, a ultima
previsao foi perfeita, entao nao ha razao para que seja alterada. To-
davia, se a ultima previsao subestimou ou superestimou o valor da
serie, entao e aplicada uma correcao quando da previsao da proxima
observacao.
O alisamento exponencial de Holt e um algoritmo que permite
obter estimativas do nvel e da tendencia da serie, sendo, assim, util
para utilizacao com series que apresentam comportamentos locais de
acrescimo ou decrescimo. Nao e necessario que a serie possua uma
tendencia global; o comportamento de tendencia pode ser local, sendo
requerido apenas que suas mudancas sejam imprevisveis. A forma
de recorrencia do algoritmo e dada por

Nt = yt + (1 )(Nt1 + Tt1 ), 0 < < 1,

com
Tt = (Nt Nt1 ) + (1 )Tt1 , 0 < < 1,
[SEC. 6.1: MODELOS DE PREVISAO 59

onde Nt e Tt sao estimativas do nvel e da tendencia, respectivamente,


no instante t e e sao constantes de suavizacao.
A previsao de yt+h feita no instante t e

ybt (h) = Nt + hTt , h = 1, 2, . . . .

A escolha objetiva dos valores de e pode ser feita atraves da


minimizacao da soma dos quadrados dos erros de previsao um passo
a frente.
Este algoritmo tambem possui uma forma de correcao dos erros,
a saber:

Nt = Nt1 + Tt1 + et , 0 < < 1,


Tt = Tt1 + et , 0 < < 1.

Essa representacao do algoritmo revela que ele possui um meca-


nismo de auto-aprendizado a partir dos erros de previsao cometidos.
Quando a previsao anterior e perfeita (et = 0), as estimativas previas
do nvel e da tendencia sao mantidas. Quando, por outro lado, ha
um erro de previsao, estas componentes sao ajustadas por multiplos
desse erro.
O algoritmo de alisamento exponencial de HoltWinters tem como
objetivo principal permitir a incorporacao de padroes sazonais ao
algoritmo de Holt. Ele se baseia em tres equacoes que utilizam cons-
tantes de alisamento diferentes, cada uma correspondendo a uma das
componentes do padrao da serie: nvel, tendencia e sazonalidade. A
introducao do comportamento sazonal pode ser feita de duas formas
distintas, a saber: aditivamente ou multiplicativamente. A seguir
denotaremos o perodo de sazonalidade da serie por s.
Considere de incio a forma multiplicativa. A forma de recorrencia
do algoritmo e dada por
yt
Nt = + (1 )(Nt1 + Tt1 ), 0 < < 1,
Fts
Tt = (Nt Nt1 ) + (1 )Tt1 , 0 < < 1,
yt
Ft = + (1 )Fts , 0 < < 1.
Nt
60 [CAP. 6: SERIES TEMPORAIS

As previsoes dos valores futuros da serie sao obtidas das seguintes


expressoes:

ybt (h) = (Nt + hTt )Ft+hs , h = 1, 2, . . . , s,


ybt (h) = (Nt + hTt )Ft+h2s , h = s + 1, s + 2, . . . , 2s,
.. ..
. .

Neste caso, a forma de correcao dos erros e


et
Nt = Nt1 + Tt1 + , 0 < < 1,
Fts
et
Tt = Tt1 + , 0 < < 1,
Fts
et
Ft = Fts + (1 ) , 0 < < 1.
Nt
O procedimento anterior pode ser modificado para tratar com
situacoes onde o fator sazonal e aditivo. As equacoes de atualizacao,
no algoritmo aditivo, sao

Nt = (yt Fts ) + (1 )(Nt1 + Tt1 ), 0 < < 1,


Tt = (Nt Nt1 ) + (1 )Tt1 , 0 < < 1,
Ft = (yt Nt ) + (1 )Fts , 0 < < 1.

Os valores futuros sao previstos a partir das equacoes a seguir:

ybt (h) = Nt + hTt + Ft+hs , h = 1, 2, . . . , s,


ybt (h) = Nt + hTt + Ft+h2s , h = s + 1, s + 2, . . . , 2s,
.. ..
. .

O mecanismo de correcao dos erros passa a ser

Nt = Nt1 + Tt1 + et , 0 < < 1,


Tt = Tt1 + et , 0 < < 1,
Ft = Fts + (1 )et , 0 < < 1.

Os algoritmos de alisamento exponencial descritos acima possuem


a vantagem de serem de simples implementacao e de baixo custo
[SEC. 6.1: MODELOS DE PREVISAO 61

computacional. Todavia, eles nao possuem embasamento estatstico


e nao permitem a incorporacao de variaveis explicativas no processo
de geracao de previsoes.
Uma estrategia alternativa e a modelagem de BoxJenkins. Essa
modelagem utiliza a classe de modelos ARIMA e extensoes. Consi-
dere, de incio, o processo ARMA(p, q), definido como

yt = c + 1 yt1 + . . . + p ytp + ut + 1 ut1 + . . . + q utq ,

onde ut e rudo branco, ou seja, ut RB(0, 2 ), os s e os s sao


os parametros auto-regressivos e de medias moveis, respectivamente.
Podemos escrever ainda

(B)yt = c + (B)ut ,

onde (B) e (B) sao os polinomios AR e MA usuais, i.e.,

(B) = 1 1 B p B p ,
(B) = 1 + 1 B + + p B p .

Aqui, B e o operador de defasagens, i.e., Byt = yt1 , B 2 yt = yt2 ,


etc.
Suponha que yt processo e integrado de ordem d, ou seja, yt e
nao-estacionario, mas 4d yt = (1 B)d yt e estacionario, onde 4 e o
operador de diferencas. Podemos modelar a serie como seguindo um
processo ARIMA(p, d, q), definido como

(B)[(1 B)d yt ] = (B)ut ,

em que e a media de 4d yt .
A classe de modelos ARIMA pode ser ampliada para lidar com
series sazonais. Muitas vezes nao e possvel transformar yt de forma
a remover a sazonalidade, ou seja, a propria sazonalidade pode apre-
sentar um padrao dinamico. Isto significa que ha necessidade de se
considerar uma sazonalidade estocastica e ajustar a serie original um
modelo ARIMA sazonal (SARIMA). Seja yt a serie de interesse e seja
s o perodo de sazonalidade, como antes. Sejam

(B s ) = 1 1 B s P B sP
62 [CAP. 6: SERIES TEMPORAIS

o operador autorregressivo sazonal de ordem P ,

(B s ) = 1 1 B s Q B sQ ,

o operador de medias moveis sazonal de ordem Q, e 4D s D


s = (1B ) ,
D indicando o numero de diferencas sazonais. A classe de modelos
sazonais multiplicativos SARIMA(p, d, q) (P, D, Q) e dada por

(1 1 B p B p )(1 1 B s P B sP )[(1 B)d


(1 B s )D yt ] = (1 1 B p B p )(1 1 B s
P B sP )ut ,

onde ut RB(0, 2 ), ou ainda

(B)(B s )[(1 B)d (1 B s )D yt ] = (B)(B s )ut .

Um caso particular muito importante e o modelo airline. Box


e Jenkins usaram este modelo para modelar o logaritmo do numero
mensal de passageiros em companhias aereas. Depois, este modelo se
mostrou util na modelagem de outras series. Trata-se de um modelo
SARIMA(0, 1, 1) (0, 1, 1), ou seja,

(1 B)(1 B s )yt = + (1 + 1 B)(1 + s1 B s )ut .

6.2 Aplicacao: Modelagem da Arrecada-


cao do ICMS no Brasil
Nosso objetivo e modelar o comportamento dinamico da arrecadacao
do ICMS (Imposto sobre Operacoes Relativas a Circulacao de Mer-
cadorias e sobre Prestacoes de Servicos de Transporte Interestadual e
Intermunicipal e de Comunicacao) total e prever seu valor em dezem-
bro de 2004 utilizando dados relativos ao perodo de julho de 1994 a
novembro de 2004. O valor observado em dezembro de 2004, a precos
de novembro do mesmo ano, foi R$ 11,741,730,000, ou seja, aproxima-
damente R$ 11.7 bilhoes. Os dados foram obtidos do banco de dados
do IPEA (http://wwww.ipeadata.gov.br), encontram-se expressos
em milhares de reais e sua fonte e o Ministerio da Fazenda/Cotepe.
[SEC. 6.2: APLICACAO: ICMS 63

A modelagem sera realizada utilizando o R. Os dados encontram-se


reunidos em um arquivo texto (ASCII) chamado icms.dat.
Apos a inicializacao do R, deve-se ler os dados. Ao faze-lo, criare-
mos um objeto no ambiente R chamado icms onde serao armazenadas
as observacoes.
1 > icms = scan ( " icms . dat " )
2 > icms . ts = ts ( icms , start = c (1994 ,7) ,
3 + frequency =12)
O objeto icms.ts contem os dados formatados como uma serie
temporal que inicia em julho de 1994 e e observada mensalmente
(frequency = 12). Inicialmente, desejamos visualizar os dados gra-
ficamente e calcular algumas medidas descritivas (media, mediana,
desvio-padrao, etc.).
1 > plot ( icms . ts )
2 > mean ( icms . ts )
3 [1] 6689545
4 > median ( icms . ts )
5 [1] 5962868
6 > sqrt ( var ( icms . ts ))
7 [1] 2447499
8 > fivenum ( icms . ts )
9 [1] 2459901 4853711 5962868 8405321
10 [5] 12150937
Os cinco numeros retornados pela funcao fivenum sao mnimo, pri-
meiro quartil, mediana, terceiro quartil e maximo. Notamos que a
arrecadacao media do ICMS no perodo (julho de 1994 a novembro
de 2004) foi de R$ 6.7 bilhoes, com desvio-padrao de R$ 2.5 bilhoes;
a arrecadacao mediana foi de R$ 6 bilhoes.
Em seguida, devemos analisar as funcoes de autocorrelacao amos-
tral e de autocorrelacao parcial amostral, tanto da serie em nvel
quanto de sua primeira diferenca.
1 > acf ( icms . ts )
2 > pacf ( icms . ts )
3 > acf ( diff ( icms . ts ))
4 > acf ( diff ( icms . ts ))
64 [CAP. 6: SERIES TEMPORAIS

Nao encontramos indcios de sazonalidade, o que nao esta de


acordo com nossa expectativa, ja que arrecadacoes tributarias ten-
dem a apresentar comportamentos sazonais.
Os dados com que estamos, ate o momento, trabalhando encon-
tram-se a precos correntes, ou seja, nao se encontram ajustados por
movimentos inflacionarios. A fim de expressar os dados a precos
constantes de novembro de 2004, leremos dados relativos ao Indice de
Precos ao Consumidor (IPC) e utilizaremos este ndice para realizar
o deflacionamento desejado:
1 > ipc = scan ( " ipc . dat " )
2 > ipc = ipc /100
3 > ipc = ipc / ipc [ length ( ipc )]
4 > icms . r = icms . ts / ipc
Em seguida, examinamos visualmente tanto a serie em nvel quan-
to seu logaritmo (natural):
1 > icms . r . log = log ( icms . r )
2 > plot ( icms .r , xlab = " tempo " , ylab = " ICMS real " )
3 > plot ( icms . r . log , xlab = " tempo " ,
4 + ylab = " log ( ICMS real ) " )
Trabalharemos com o logaritmo dos dados, a fim de reduzir flu-
tuacoes; as previsoes geradas serao posteriormente exponenciadas
para se obter previsoes na escala original. Algumas estatsticas des-
critivas sobre a arrecadacao real do ICMS:
1 > mean ( icms . r )
2 [1] 9475308
3 > sqrt ( var ( icms . r ))
4 [1] 1300045
5 > fivenum ( icms . r )
6 [1] 6759850 8321933 9206320 10550639
7 [5] 12227921
8 > mean ( diff ( log ( icms . r )))
9 [1] 0.003958339
10 > sqrt ( var ( diff ( log ( icms . r ))))
11 [1] 0.05326186
12 > median ( diff ( log ( icms . r )))
13 [1] 0.004188365
[SEC. 6.2: APLICACAO: ICMS 65

16.3
16.2
16.1
log(ICMS real)

16.0
15.9
15.8

1996 1998 2000 2002 2004

tempo

Figura 6.1: Evolucao temporal do logaritmo do ICMS real no Brasil

14 > min ( diff ( log ( icms . r )))


15 [1] -0.172175
16 > max ( diff ( log ( icms . r )))
17 [1] 0.2078939
Notamos que a taxa media de crescimento da arrecadacao, entre
meses consecutivos, foi de 0.4%. A arrecadacao media (em valores de
novembro de 2004) foi de R$ 9.5 bilhoes, com desvio-padrao de R$
1.3 bilhao.
A seguir, analisamos as funcoes amostrais de autocorrelacao e
autocorrelacao amostral:
1 > acf ( icms . r . log , lag . max =36)
2 > pacf ( icms . r . log , lag . max =36)
3 > acf ( diff ( icms . r . log ) , lag . max =36)
4 > pacf ( diff ( icms . r . log ) , lag . max =36)
Notamos que: (i) a serie parece ser integrada de primeira ordem,
sendo, assim, nao-estacionaria; (ii) ha sazonalidade, que e revelada
66 [CAP. 6: SERIES TEMPORAIS

pelos picos de correlacao (1, 2 e 3 no correlograma correspondem a


12, 24 e 36 defasagens, respectivamente).
Inicialmente preveremos o valor da arrecadacao total do ICMS em
dezembro de 2004 atraves do algoritmo de alisamento exponencial de
HoltWinters (aditivo):

1 > hw . fit .1 = HoltWinters ( icms . r . log )


2 > hw . fit .1
3 Holt - Winters exponential smoothing without
4 trend and with additive seasonal component .
5

6 Call :
7 HoltWinters ( x = icms . r . log )
8

9 Smoothing parameters :
10 alpha : 0.7537135
11 beta : 0
12 gamma : 0.6929771
13

14 Coefficients :
15 [ ,1]
16 a 16.2371339403
17 s1 0.0454481744
18 s2 0.0403461047
19 s3 -0.0361265360
20 s4 -0.0305452153
21 s5 0.0181958453
22 s6 0.0098216101
23 s7 0.0233084999
24 s8 0.0060877359
25 s9 0.0027844363
26 s10 -0.0026977290
27 s11 -0.0009882357
28 s12 -0.0122171962
29 >
30 > plot . ts ( icms . r . log , xlim = c (1994.1 , 2006.12) ,
31 + xlab = " tempo " , ylab = " log ( ICMS ) " )
32 > p1 = predict ( hw . fit .1 , 12)
[SEC. 6.2: APLICACAO: ICMS 67

33 > lines ( p1 , lty =2 , lwd =1.2)


34 > lines ( hw . fit .1 $fitted [ , 1] , lty =3 , lwd =1.2)
35 > p1
36 Jan Feb Mar Apr
37 2004
38 2005 16.27748 16.20101 16.20659 16.25533
39 May Jun Jul Aug
40 2004
41 2005 16.24696 16.26044 16.24322 16.23992
42 Sep Oct Nov Dec
43 2004 16.28258
44 2005 16.23444 16.23615 16.22492
45

46 > exp ( p1 )
47 Jan Feb Mar Apr
48 2004
49 2005 11727887 10864459 10925267 11470967
50 May Jun Jul Aug
51 2004
52 2005 11375307 11529764 11332913 11295538
53 Sep Oct Nov Dec
54 2004 11787876
55 2005 11233784 11253004 11127352
A previsao obtida e, assim, de R$ 11.8 bilhoes (mais exatamente,
R$ 11,787,876,000). O erro de previsao, definido como a diferenca
entre o valor previsto e o observado, foi de cerca de R$ 46 milhoes,
representando um erro relativo de 0.4%.
Passaremos, a seguir, a modelagem de BoxJenkins. De incio,
ajustamos o modelo airline e obtemos a previsao para dezembro de
2004:
1 > ajuste .1 = arima ( icms . r . log , order = c (0 ,1 ,1) ,
2 + seasonal = list ( order = c (0 ,1 ,1)))
3 > ajuste .1
4

5 Call :
6 arima ( x = icms . r . log , order = c (0 , 1 , 1) ,
7 seasonal = list ( order = c (0 , 1 , 1)))
68 [CAP. 6: SERIES TEMPORAIS

16.3
16.2
16.1
log(ICMS real)

16.0
15.9
15.8

1994 1996 1998 2000 2002 2004 2006

tempo

Figura 6.2: Previsao por HoltWinters (valores reais em linha


contnua, ajuste dentro da amostra em linha pontilhada e previsoes
futuras em linha tracejada)

9 Coefficients :
10 ma1 sma1
11 -0.3697 -0.9999
12 s.e. 0.1011 0.1976
13

14 sigma ^2 estimated as 0.001672: log likelihood


15 = 185.05 , aic = -364.1
16

17

18 > predict ( ajuste .1 , 12) $pred


19 Jan Feb Mar Apr
20 2004
21 2005 16.26969 16.17890 16.19783 16.23826
22 May Jun Jul Aug
[SEC. 6.2: APLICACAO: ICMS 69

23 2004
24 2005 16.22898 16.24306 16.23452 16.26204
25 Sep Oct Nov Dec
26 2004 16.29664
27 2005 16.28552 16.29615 16.29322
28 > p2 = exp ( predict ( ajuste .1 , 12) $pred )
29 > p2
30 Jan Feb Mar Apr
31 2004
32 2005 11636862 10626909 10830022 11276822
33 May Jun Jul Aug
34 2004
35 2005 11172610 11331107 11234723 11548189
36 Sep Oct Nov Dec
37 2004 11954760
38 2005 11822535 11948929 11913966
39

40 > plot . ts ( icms . r . log , xlim = c (1994.1 , 2006.12) ,


41 + xlab = " tempo " , ylab = " log ( ICMS ) " )
42 > lines ( icms . r . log - ajuste .1 $resid , col = " red " )
43 > lines ( log ( p2 ) , lty =2 , col = " blue " )
Nossa previsao e, assim, de R$ 11,954,760; o erro relativo, neste
caso, e de 1.8%.
Nosso proximo objetivo e a selecao do modelo SARIMA(p, d, q)
(P, D, Q) via minimizacao do Criterio de Informacao de Akaike (AIC).
Para tanto, escrevemos a seguinte funcao, que encontra o modelo
otimo para dados valores de d, P, D, Q. Como sabemos que a serie e
integrada de primeira ordem, utilizaremos d = 1. O nome da funcao
e selecao.de.modelos (algum outro nome mais informativo poderia
ser usado):
1 > # funcao para selecao de modelos (P ,D , Q
2 fixos )
3 > selecao . de . modelos <- function ( serie =
4 + icms . r . log , p . max =3 , q . max =3 , d =1 , P =0 , D =1 ,
5 + Q =1)
6 + {
7 +
70 [CAP. 6: SERIES TEMPORAIS

8 + # matriz para armazenar os resultados


9 + M <- matrix (0 , p . max +1 , q . max +1)
10 +
11 + if ( P == 0 && Q == 0)
12 + {
13 + for ( i in 0: p . max )
14 + {
15 + for ( j in 0: q . max )
16 + {
17 + if ( i == 0 && j == 0) M [1 ,1] <- NA
18 + else
19 + M [ i +1 , j +1] <- arima ( serie ,
20 + order = c (i ,d , j ) , seasonal =
21 + list ( order = c (P ,D , Q ))) $aic
22 + }
23 + }
24 + }
25 + else
26 + {
27 + for ( i in 0: p . max )
28 + {
29 + for ( j in 0: q . max )
30 + {
31 + M [ i +1 , j +1] <- arima ( serie , order =
32 + c (i ,d , j ) , seasonal = list ( order =
33 + c (P ,D , Q ))) $aic
34 + }
35 + }
36 + }
37 +
38 + return ( M )
39 +
40 + }
Vejamos como utilizar esta funcao. Utilizando os valores default
para d, P, D, Q e variando p e q de zero a 3, temos:
1 > M = selecao . de . modelos ( icms . r . log )
2 > M
[SEC. 6.2: APLICACAO: ICMS 71

3 [ ,1] [ ,2] [ ,3] [ ,4]


4 [1 ,] -355.0234 -364.1028 -362.1555 -361.9951
5 [2 ,] -362.2293 -362.1274 -360.4484 -361.1197
6 [3 ,] -363.3592 -361.4697 -361.1453 -361.4283
7 [4 ,] -361.5934 -360.7235 -362.2949 -358.2407
8 >
9 > which ( M == min ( M ) , arr . ind = TRUE )
10 row col
11 [1 ,] 1 2
A minimizacao do AIC nos sugere, assim, o seguinte modelo:
SARIMA(0, 1, 1) (0, 1, 1), ou seja, o modelo airline.
Para Q = 0 (mantendo inalteradas as demais quantidades), temos:
1 > M = selecao . de . modelos ( icms . r . log , Q =0)
2 > M
3 [ ,1] [ ,2] [ ,3] [ ,4]
4 [1 ,] NA -330.8475 -329.1365 -328.2120
5 [2 ,] -325.6842 -329.0308 -333.6179 -331.8163
6 [3 ,] -330.3921 -328.4218 -331.7940 -329.8270
7 [4 ,] -328.4193 -326.4164 -329.8642 -332.5980
8 > which ( M == min (M , na . rm = TRUE ) , arr . ind
9 + = TRUE )
10 row col
11 [1 ,] 2 3
Aqui, o criterio recomenda o uso do modelo SARIMA(1, 1, 2)
(0, 1, 0).
Trabalhemos com o segundo modelo:
1 > ajuste .2 = arima ( icms . r . log , order = c (1 ,1 ,2) ,
2 seasonal = list ( order = c (0 ,1 ,0)))
3 > ajuste .2
4

5 Call :
6 arima ( x = icms . r . log , order = c (1 , 1 , 2) ,
7 seasonal = list ( order = c (0 , 1 , 0)))
8

9 Coefficients :
10 ar1 ma1 ma2
72 [CAP. 6: SERIES TEMPORAIS

11 -0.8355 0.4881 -0.5119


12 s.e. 0.0608 0.1031 0.0993
13

14 sigma ^2 estimated as 0.002709: log


15 likelihood = 170.81 , aic = -333.62
16 > p3 = exp ( predict ( ajuste .2 , 6) $pred )
17 > p3
18 Jan Feb Mar Apr
19 2004
20 2005 12895173 10922312 11269007 11788037
21 May Jun Jul Aug
22 2004
23 2005 11820197
24 Sep Oct Nov Dec
25 2004 12628327
26 2005
A previsao e R$ 12,628,327,000; o erro relativo correspondente e
7.6%. Todavia, esse modelo nao parece adequado, pois os resduos
associados aparentam ter comportamento sazonal. Isso pode ser visto
atraves do segundo grafico do painel de tres graficos de diagnostico
gerado por
1 > tsdiag ( ajuste .2)
A seguir, tentamos encontrar o melhor modelo, por minimizacao
do AIC, correspondente a P = Q = 1. O modelo selecionado foi
SARIMA(0, 1, 1)(1, 1, 1), mas nao passou na analise de diagnostico,
uma vez que os resduos demonstraram ter comportamento sazonal.
Para P = 1, D = 1, Q = 0, temos
1 > M = selecao . de . modelos ( icms . r . log , P =1 , D =1 ,
2 + Q =0)
3 Warning message :
4 NaNs produced in : log ( x )
5 > M
6 [ ,1] [ ,2] [ ,3] [ ,4]
7 [1 ,] -338.8450 -350.2087 -348.2097 -346.9554
8 [2 ,] -347.6846 -348.2093 -348.8278 -348.6142
9 [3 ,] -349.1787 -347.2332 -346.8745 -346.6370
[SEC. 6.2: APLICACAO: ICMS 73

10 [4 ,] -347.2437 -348.6473 -348.7300 -344.8170


11 > which ( M == min ( M ) , arr . ind = TRUE )
12 row col
13 [1 ,] 1 2
14 > ajuste .5 = arima ( icms . r . log , order = c (0 ,1 ,1) ,
15 + seasonal = list ( order = c (1 ,1 ,0)))
16 > tsdiag ( ajuste .5)
17 > p6 = exp ( predict ( ajuste .5 , 6) $pred )
18 > p6
19 Jan Feb Mar Apr
20 2004
21 2005 11684818 10728629 10561029 10885926
22 May Jun Jul Aug
23 2004
24 2005 10711180
25 Sep Oct Nov Dec
26 2004 11823303
27 2005

A previsao obtida e de R$ 11,823,303,000 a qual corresponde erro


relativo de 0.7%. A inspecao visual dos graficos de diagnostico nao
sugere a rejeicao do modelo.
Foi tambem escolhido, via minimizacao do AIC, o modelo SARI-
MA(1, 1, 2)(0, 1, 0), mas a analise de diagnostico forneceu evidencia
contra ele.
Assim, temos dois modelos SARIMA, como resultado da analise,
a saber: SARIMA(0, 1, 1) (0, 1, 1) (airline) e SARIMA(0, 1, 1)
(1, 1, 0). Os respectivos erros relativos de previsao sao 1.8% e 0.7%.
O grafico da serie juntamente com os valores ajustados do modelo
SARIMA(0, 1, 1) (1, 1, 0) pode ser produzido da seguinte forma:
1 > plot . ts ( icms . r . log , xlim = c (1994.1 , 2006.12) ,
2 + xlab = " tempo " , ylab = " log ( ICMS ) " )
3 > lines ( icms . r . log - ajuste .5 $resid , col = " red " )
4 > lines ( log ( p6 ) , lty =2 , col = " blue " )

Rob Hyndman (da Monash University, Australia) desenvolveu


uma colecao de funcoes para o R uteis para previsoes, e as agru-
pou no pacote forecast, que se encontra disponvel em http://
74 [CAP. 6: SERIES TEMPORAIS

www-personal.buseco.monash.edu.au/~hyndman/Rlibrary. Par-
ticularmente util e a funcao best.arima, que seleciona o melhor mo-
delo arima variando nao apenas p e q, mas tambem P e Q (d e D
devem ser especificados pelo usuario). Esta funcao se encontra dispo-
nibilizada em http://www.de.ufpe.br/~cribari/arima.R. Antes
de utilizar a funcao, e necessario importa-la no R:
1 > source ( " arima . R " )
Usemos esta funcao com d = 1 e D = 1:
1 > best . arima ( icms . r . log , d =1 , D =1)
2 Series : icms . r . log
3 ARIMA (0 ,1 ,1)(0 ,1 ,1)[12] model
4

5 Coefficients :
6 ma1 sma1
7 -0.3697 -0.9999
8 s.e. 0.1011 0.1976
9

10 sigma ^2 estimated as 0.001672: log likelihood


11 = 185.05 , aic = -364.1
Notamos que o modelo selecionado e o airline, que ja foi conside-
rado. Usemos, agora, d = 1 e D = 0:
1 > best . arima ( icms . r . log , d =1 , D =0)
2 Series : icms . r . log
3 ARIMA (1 ,1 ,2)(1 ,0 ,1)[12] model
4

5 Coefficients :
6 ar1 ma1 ma2 sar1 sma1
7 -0.8864 0.5913 -0.3889 0.9987 -0.9584
8 s.e. 0.0592 0.1051 0.1008 0.0063 0.0987
9

10 sigma ^2 estimated as 0.001671: log likelihood


11 = 210.33 , aic = -408.66
12

13 > fit = arima ( icms . r . log , order = c (1 ,1 ,2) ,


14 + seasonal = list ( order = c (1 ,0 ,1)))
15 > exp ( predict ( fit , 12) $pred )
[SEC. 6.2: APLICACAO: ICMS 75

16 Jan Feb Mar Apr


17 2004
18 2005 11700500 10593339 10964530 11171090
19 May Jun Jul Aug
20 2004
21 2005 11250186 11236349 11284519 11445117
22 Sep Oct Nov Dec
23 2004 11702370
24 2005 11786081 11802897 11851785
O modelo selecionado foi SARIMA(1, 1, 2) (1, 0, 2) e a previsao
para dezembro de 2005 foi R$ 11,702,370,000, com erro absoluto
de R$ 39, 360, 000 e erro relativo de 0.3%. Esse modelo nao
e descartado por uma analise de diagnostico realizada a partir de
tsdiag(fit).

Standardized Residuals
4
3
2
1
1 0
3

1996 1998 2000 2002 2004

Time

ACF of Residuals
1.0
0.6
ACF

0.2
0.2

0.0 0.5 1.0 1.5

Lag

p values for LjungBox statistic


0.0 0.2 0.4 0.6 0.8 1.0
p value

2 4 6 8 10

lag

Figura 6.3: Graficos de diagnostico do modelo SARIMA ajustado

Uma outra funcao util da colecao de funcoes de R. Hyndman e


fitted.Arima, que retorna previsoes um passo a frente para a serie
em uso. Por exemplo:
76 [CAP. 6: SERIES TEMPORAIS

1 > plot ( icms . r . log , xlab = " tempo " ,


2 + ylab = " log ( ICMS real ) " )
3 > lines ( fitted . Arima ( fit ) , lty =3 , lwd =1.2)
produz um grafico contendo o logaritmo natural da serie (linha preta)
e o conjunto de previsoes um passo a frente do modelo R em uso.
16.3
16.2
16.1
log(ICMS real)

16.0
15.9
15.8

1996 1998 2000 2002 2004

tempo

Figura 6.4: Dados e previsoes SARIMA um passo a frente (linha


contnua e linha pontilhada, respectivamente)

Nosso proximo objetivo e a decomposicao da serie observada em


componentes nao-observaveis; estas componentes sao: tendencia, sa-
zonalidade e irregular. Ou seja, enxergamos nossa serie como a soma
dessas componentes nao-observaveis e desejamos estima-las. Para
tanto, podemos usar a decomposicao STL, que se encontra imple-
mentada no R atraves da funcao stl; para detalhes,
1 > help ( stl )
2 > # ou
3 > ? stl
Podemos realizar a decomposicao STL da seguinte forma:
[SEC. 6.2: APLICACAO: ICMS 77

16.2
data
16.0
15.8

0.06
seasonal

0.02
0.02
0.06
16.2
trend
16.1
16.0

0.05
remainder

0.05
0.15
1996 1998 2000 2002 2004

time

Figura 6.5: Decomposicao STL

1 > icms . r . stl = stl ( icms . r . log , " periodic " )


2 > plot ( icms . r . stl )
Notamos, por exemplo, que ha acentuado crescimento da arreca-
dacao real do ICMS a partir de 1999. Para extrair a componente
tendencia do resultado produzido pela decomposicao,
1 > tendencia = icms . r . stl$time . series [ , " trend " ]
Captulo 7

Simulacao Estocastica e
Ensaios Monte Carlo

Simulacao Estocastica e uma denominacao generica para um con-


junto de teorias, tecnicas e procedimentos que utilizam recursos de
computacao digital para resolver problemas quantitativos atraves do
uso de fenomenos que se mostram como estocasticos para um ob-
servador casual. Simulacao estocastica tem muitas aplicacoes, entre
as quais figuram a comparacao de procedimentos estatsticos, a re-
solucao de integrais, o estudo e a implementacao de jogos.
Para varios autores a simulacao estocastica e ao mesmo tempo
uma ciencia e uma arte (ver, por exemplo, [9]). O lado artstico refere-
se a busca de caminhos mais adequados para chegar ao resultado
desejado com maxima qualidade e mnimo custo. Nesse texto foi
dito que, por princpio, nenhum problema deve ser resolvido por
simulacao estocastica; a tecnica e extremamente poderosa, porem,
por definicao, imprecisa. Por ser de grande generalidade deve ser
reservada aqueles problemas para os quais a busca de uma solucao
exata demandaria tempo e/ou recursos inaceitavelmente caros.

Definicao 1 (O problema geral). Seja Y : Rk um vetor


aleatorio k-dimensional e : Rk Rr uma funcao mensuravel.
R Cal-
cular = E((Y )), isto e, resolver a integral = (y)f (y)dy
Rr

78
79

que, frequentemente, nao tem forma analtica fechada e para a qual


os metodos numericos disponveis sao pouco confiaveis ou instaveis.

Uma solucao simples (que pode ser melhorada) e por Monte Carlo
Pn
Forca Bruta, que consiste em aproximar por = n1 i=1 (yi ),
onde (y1 , . . . , yn ) sao amostras independentes da variavel aleatoria
Y.
A geracao de eventos de variaveis aleatorias i.i.d. com distribuicao
uniforme em (0, 1) e essencial para construir eventos de variaveis
aleatorias com outras distribuicoes e/ou outras estruturas de de-
pendencia. Veremos, por este motivo, tecnicas de geracao destes
eventos. Nosso objetivo e, entao, poder trabalhar com (u1 , . . . , un )
observacoes do vetor aleatorio (U1 , . . . , Un ) que satisfaca as seguintes
propriedades:

1. Pr(Ui1 ui1 , . . . , Uik uik ) = Pr(U1 u1 ) Pr(Ui1


uik ) para todo k 2 e todo 1 i1 < < ik n, isto e, as
varieveis aletorias de qualquer subsequencia sao independentes
(independencia coletiva);

2. Para cada 1 i N e para cada ui R vale que Pr(Ui


ui ) = ui I(0,1) (ui ) + I[1,) (ui ), isto e, cada uma das variaveis
aleatorias segue uma lei uniforme no intervalo (0, 1).

Pode-se questionar se faz sentido usar um dispositivo eminente-


mente determinstico como um computador digital para obter eventos
de variaveis aleatorias. Isto nao seria uma contradicao intrnseca?
O incio da simulacao estocastica demandava o uso de dispositivos
realmente aleatorios, como contadores Geiger. Logo foram publica-
das tabelas de numeros obtidos em condicoes bastante controladas
de aleatoriedade, porem a demanda crescente de mais e mais valores
para experiencias mais e mais complexas logo fez com que estas alter-
nativas deixassem de ser praticas, levando a necessidade de construir
algoritmos com este proposito.
Novamente, todo algoritmo e intrnsecamente determinstico. A
solucao e construir algoritmos que produzam sequencias de numeros
que, vistos por um observador que nao conhece a sequencia de ins-
trucoes, parecam satisfazer as propriedades 1 e 2. Este observador
dispoe, em princpio, de um tempo limitado para encontrar evidencia
80 [CAP. 7: MONTE CARLO

que lhe permita rejeitar a sequencia gerada por nao ter as proprieda-
des desejadas. Estas sequencias sao chamadas pseudo-aleatorias.
As duas propriedades basicas de um algoritmo f : Rk R capaz
de gerar sequencias pseudo-aleatorias sao
1. A funcao ui = f (ui1 , . . . , uik ) deve ser de custo computacio-
nal relativamente baixo.
2. Deve ser difcil conhecer ui1 dado so o conhecimento dos an-
tecedentes (ui , ui2 , . . . , uik ).
Outras propriedades desejaveis para um gerador deste tipo de sequen-
cias sao a repetibilidade, a portabilidade e a rapidez. A referencia
fundamental para este tema e o livro [30].
Basta gerar numeros inteiros nao-negativos e divid-los pelo ma-
ximo valor possvel da sequencia. Quanto maior for este divisor,
melhor sera a aproximacao a numeros reais no intervalo [0, 1]. O
custo computacional de realizar aritmetica inteira e menor que o de
faze-lo em ponto flutuante, e os resultados sao mais previsveis e
menos dependentes da maquina e do sistema operacional.
Veremos a seguir alguns algoritmos basicos para a geracao de
sequencias pseudo-aleatorias uniformes.

7.1 Geradores Uniformes


Um dos primeiros algoritmos para a geracao de sequencias pseudo-
aleatorias uniformes foi proposto por von Neumann em 1952 para
aplicacoes de computacao a problemas de fsica nuclear. O metodo,
tambem conhecido como mid-square, consiste nas seguintes instrucoes:
1. Definir um numero u0 de quatro dgitos decimais e atribuir
i = 0.
2. Calcular u2i e, eventualmente, agregar zeros a esquerda para
que o valor calculado possa ser escrito como u2i = d7 d6 d0 ,
onde cada dj e um inteiro entre 0 e 9.
3. Fazer ui+1 = d5 d4 d3 d2 .
4. Atribuir i i + 1 e continuar no passo (2).
[SEC. 7.1: GERADORES UNIFORMES 81

Ainda que muitas das sequencias geradas por este algoritmo sejam in-
teressantes e exibam boas propriedades, nem sempre e possvel garan-
tir o bom comportamento a longo prazo das mesmas. Como exemplo,
verifique quais sequencias sao geradas a partir de u0 = 0, u0 = 2100
e u0 = 3792.
Uma classe interessante de geradores, conhecida como congru-
enciais lineares, e definida pela recursao ui = (aui1 + c) mod M ,
para i 1, onde u0 recebe o nome de semente, M de modulo, a de
multiplicador e c de incremento. Se o incremento e nulo trata-se de
um gerador misto, caso contrario de um gerador multiplicativo. Como
exerccio sugerimos implementar um gerador deste tipo e verificar as
sequencias geradas com M = 64, semente arbitraria e

a = 29, c = 17,

a = 9, c = 1,

a = 13, c = 0,

a = 11, c = 0.

Os principais resultados sobre estes geradores estao nos textos [30,


41]. A literatura e rica em tecnicas de melhoria destes algoritmos
(ver, por exemplo, as sugestoes dadas por [9, 22, 30]), porem existem
outras classes de geradores com propriedades mais interessantes.
Um usuario cuidadoso de plataformas computacionais que utiliza
simulacao estocastica deveria verificar a qualidade dos geradores dis-
ponveis atraves de, por exemplo,

1. Avaliacao qualitativa: graficos para avaliar a aderencia a distri-


buicao uniforme, dependencia sequencial e ausencia de vazios
no espaco.

2. Testes de aderencia gerais: 2 , Kolmogorov-Smirnov etc.

3. Testes de aderencia especficos: serial, do intervalo, poquer, do


maximo etc.

4. Testes de independencia: de permutacoes, de dependencia line-


ar (ver [9]).
82 [CAP. 7: MONTE CARLO

5. Testes consistentes: de vazios no espaco, stringent tests (ver [34]


e as referencias ali citadas).

Algumas empresas de desenvolvimento de software deveriam se-


guir pelo menos uma destas sugestoes, ja que, como se mostra em [36],
as versoes 97, 2000 e XP da popular planilha Excel falham na geracao
de sequencias pseudo-aleatorias. Segundo estes autores, os algorit-
mos utilizados nao estao documentados e sao de qualidade duvidosa.
Outra plataforma que nao oferece grandes garantias no que se diz res-
peito a seu generador de numeros pseudo-aleatorios e IDL (ver [10]).
Uma referencia extremamente completa para este tema e o stio
Web [23].
A plataforma Ox v. 3.40, oferece tres geradores de eventos unifor-
mes. O usuario escolhe o gerador desejado com a funcao ranseed,
fornecendo-lhe como argumento uma das seguintes possibilidades:

"PM" Modified Park and Miller (perodo aproximado 232 ).

"GM" George Marsaglia (perodo aproximado 260 ).

"LE" Pierre LEcuyer (perodo aproximado 2113 ).

A mesma funcao ranseed permite informar a semente e recuperar a


semente depois de ter feito funcionar o gerador.
A plataforma R v. 2.0.1, oferece seis geradores de eventos unifor-
mes:

Wichmann-Hill De perodo aproximado 7 1012 .

Marsaglia-Multicarry De perodo aproximadamente igual a 260 ,


passa em testes rigorosos.

Super-Duper De perodo aproximado 5 1018 , nao passa em alguns


testes rigorosos.

Mersenne-Twister De perodo 219937 1 e boa distribuicao em


espacos de dimensoes inferiores a 623.

Knuth-TAOCP Este gerador e definido pela relacao uj = (uj100


uj37 ) mod 230 e seu perodo e de aproximadamente 2129 .
[SEC. 7.2: GERACAO POR TRANSFORMACAO 83

Knuth-TAOCP-2002 Uma versao atualizada e melhorada do an-


terior.
O usuario tem como setima alternativa a possibilidade de fornecer
um gerador proprio. Para detalhes ver [24].
Alguns dos fatores mais importantes para escolher o gerador mais
adequado para cada aplicacao sao:
O numero de eventos que iremos necessitar para a experiencia,
que sempre devera ser muito menor que o perodo do gerador.
A rapidez do gerador, que nao devera comprometer os prazos
de entrega dos resultados.
A possvel estrutura de correlacao das sequencias, que nao de-
vera comprometer a qualidade dos resultados.
Suponhamos que dispomos de bons geradores de sequencias pseu-
doaleatorias. Na proxima secao veremos um resultado muito impor-
tante para simulacao estocastica.

7.2 Geracao por Transformacao


E comum precisarmos de eventos provenientes de variaveis aleatorias
que obedecem outras distribuicoes, alem da uniforme. Veremos um
resultado de validade universal, que utiliza variaveis aleatorias com
distribuicao uniforme em (0, 1) para construir variaveis aleatorias com
qualquer distribuicao. Outras tecnicas podem ser vistas nos tex-
tos [19, 42].
Seja F : R [0, 1] a funcao de distribuicao acumulada de uma
variavel aleatoria contnua e F 1 sua inversa. Se U e uma variavel
aleatoria que obedece uma lei uniforme em (0, 1), entao a variavel
aleatoria resultante da transformacao V = F 1 (U ) segue a lei carac-
terizada pela funcao F . Caso se trate de variaveis aleatorias discretas,
necessitamos definir a inversa de outra forma. Neste caso, substi-
tuindo F 1 por F (t) = inf{x R : t F (x)} o resultado segue
sendo valido. Temos, assim, os seguintes resultados importantes.
Teorema 1 (Inversao Caso Geral). Sejam F : R [0, 1] a
funcao de distribuicao acumulada de uma variavel aleatoria e F a
84 [CAP. 7: MONTE CARLO

sua inversa generalizada, dada por F (t) = inf{x R : t F (x)}.


Se U e uma variavel aleatoria que segue uma lei uniforme no inter-
valo (0, 1) entao F e a funcao de distribuicao acumulada da variavel
aleatoria resultante da transformacao V = F (U ).
Lema 1. Quando a variavel aleatoria de interesse e contnua vale
que F (t) = F 1 (t) para todo t R.
A aplicabilidade deste resultado geral restringe-se somente a dis-
ponibilidade de boas implementacoes de F 1 ou de F . Dois casos
celebres para os quais nao ha formas explcitas simples sao as distri-
buicoes gaussiana e gama.
Problema 1. Deseja-se obter ocorrencias de variaveis aleatorias
uniformes no intervalo proprio (a, b), isto e, quando a < b.
Solucao 1. A distribuicao da variavel aleatoria V U(a,b) e carac-
terizada pela funcao de distribuicao acumulada F (t) = (t a)(b
a)1 I(a,b) (t) + I[b,) (t). Assim sendo, V = (b a)U + a tera a dis-
tribuicao desejada quando U U(0,1) .
Problema 2. Proponha um metodo para gerar ocorrencias de varia-
veis aleatorias triangulares, cuja distribuicao esta caracterizada pela
densidade dada na equacao (3.4) na pagina 28.
Solucao 2. A equacao (3.5) fornece a funcao de distribuicao acu-
mulada destas variaveis aleatorias, enquanto a equacao (3.6), na
pagina 28, nos da a inversa desta funcao. Com esta ultima equacao, e
munidos de um bom gerador de uniformes, o problema esta resolvido.
Problema 3. Gerar observacoes de variaveis aleatorias que seguem a
lei de Weibull-Gnedenko, caracterizada pela densidade dada na equa-
cao (3.7), pagina 28.
Solucao 3. Verifique que a funcao de distribuicao acumulada des-

tas variaveis aleatorias e, para > 0, F (t) = (1 et )IR+ (t) e,
1/
portanto, basta retornarmos os valores 1 ln(1 u) , onde u
e obtido usando um bom gerador de ocorrencias uniformes.
Na questao anterior, precisamos calcular 1 u? Se U segue uma
lei uniforme em (0, 1), qual e a lei que segue a variavel aleatoria 1U ?
Quais as consequencias computacionais desta constatacao?
[SEC. 7.2: GERACAO POR TRANSFORMACAO 85

Embora o metodo seja geral, e frequente encontrar situacoes como


a da distribuicao de Erlang. Verifique quao complicado e inverter a
funcao de distribuicao acumulada desta lei, dada na equacao (3.9),
pagina 28. Em casos como este e necessario fazer a inversao utilizando
ferramentas numericas ou tentar fazer uma expansao da inversa da
funcao de distribuicao acumulada.
Quando a variavel aleatoria desejada e discreta devemos utilizar a
inversa generalizada definida no Teorema 1. Graficamente e facil, mas
computacionalmente pode ser complicado. Vejamos alguns exemplos
antes de discutir formas de implementar esta tecnica.
Exemplo 1. Deseja-se gerar ocorrencias de variaveis aleatorias que
seguem uma lei Bernoulli com probabilidade p de sucesso. Sabemos
que a funcao de distribuicao acumulada desta lei e dada por

0 se t<0
F (t) = 1 p se 0 t < 1

1 se t t.

Analisando graficamente esta funcao, podemos concluir que a trans-


formacao procurada e Y = F (U ), onde

0 se 0 u 1 p
F (u) =
1 se 1 p u 1.

De posse deste exemplo podemos propor o seguinte


Algoritmo 2. Geracao de ocorrencias Bernoulli com probabilidade
de ocorrencia p: gerar u ocorrencia de uma U U(0,1) ; se u 1 p
retornar 0, caso contrario retornar 1.
E imediata a generalizacao para qualquer vetor de probabilidade
p = (p1 , p2 , . . .), desde que se disponha explicitamente de tal vetor.
Temos, assim, a seguinte proposta:
Algoritmo 3. O metodo de geracao de ocorrencias de variaveis
aleatorias discretas pelo metodo de busca sequencial consiste em, dis-
pondo do vetor de probabilidades p = (p0 , p2 , . . . , pn ), executar os
seguintes passos:
1. Atribuir y = 0, s = p0 e gerar u ocorrencia de U U(0,1)
86 [CAP. 7: MONTE CARLO

2. Enquanto u > s fazer

(a) y y + 1
(b) s s + px

3. Retornar y

Ha tres grandes problemas com este algoritmo. O primeiro e que


a soma acumulada na variavel s pode acumular grandes erros de ar-
redondamento. O segundo e que a avaliacao das probabilidades py a
partir das suas expressoes analticas pode ser muito cara computaci-
onalmente e/ou sujeita a grandes imprecisoes numericas. O terceiro
e que o numero de avaliacoes ate podermos retornar o valor y, i.e., o
tempo ate sair do laco 2, pode ser muito grande. Por estas razoes,
em [19] sugere-se sempre procurar alternativas mais eficientes, e dei-
xar este metodo geral como ultimo recurso a ser empregado.
Veremos a seguir exemplos onde o computo das probabilidades
pode ser realizado de forma mais eficiente.

Exemplo 2. Uma situacao muito frequente e a de se desejar obter


ocorrencias da variavel aleatoria Y com distribuicao uniforme nos
inteiros entre 0 e n 1, isto e, Pr(Y = k) = n1 para todo k
{0, . . . , n 1}. Ao inves de fazermos uma busca, basta gerar u da
distribuicao uniforme em (0, 1) e retornar y = [nu]. A distribuicao
de Y e denotada por U{0,...,n1} .

Exemplo 3. Geracao de ocorrencias binomiais com parametros n


e p. Sabemos gerar Bernoullis, e uma binomial e a soma de n
Bernoullis independentes; o problema, portanto, nao oferece gran-
des desafios, mas o algoritmo baseado nessa tecnica e pouco efici-
ente. Mais interessante e procurar aplicar a tecnica de inversao
diretamente e, para isso, precisamos calcular o vetor de probabili-
dades p = (p0 , p2 , . . . , pn ) associado aos valores (0, 1, . . . , n). Lem-
brando que a distribuicao binomial e caracterizada pela equacao (3.1)
(pagina 26), a tarefa e simples. Todavia, podemos fazer melhor do
que reavaliar essa expressao da equacao para cada k {0, 1, . . . , n},
com todos os possveis erros de arredondamento. Basta constatar que
existe uma recursao util que comeca em p0 = Pr(Y = 0) = (1 p)n
[SEC. 7.3: METODO DE ACEITACAO-REJEICAO 87

e que prossegue com


n1 p
pj+1 = ,
j+1 1p

que e numericamente mais estavel.

Exemplo 4. Geracao de ocorrencias Poisson de parametro . Basta


constatar que neste caso Pr(Y = k) = e k /k!. Podemos, entao,
escrever pj+1 = pj /(j + 1).

Para que o procedimento baseado em regras recursivas seja efici-


ente e necessario que os valores calculados sejam armazenados entre
chamadas da rotina. A linguagem C oferece o recurso de variaveis
estaticas, que sao preservadas apos a chamada a uma funcao. Ainda
nesta linguagem, e util o uso de dimensionamento dinamico de veto-
res ja que, por exemplo no caso da lei Poisson, nao sabemos a priori
o maior valor a ser observado na geracao e, com isso, tambem nao e
possvel prever o tamanho vetor de probabilides que sera necessario.

7.3 Metodo de Aceitacao-Rejeicao


Em muitas situacoes nao se dispoe da funcao de distribuicao acumu-
lada da distribuicao alvo em forma tratavel como, por exemplo, ao
lidar com a distribuicao gaussiana. Em outras situacoes a sua inversa
nao e tratavel. Um metodo muito geral para lidar com estes casos e
o que se baseia na aceitacao e rejeicao. Suponhamos que queremos
gerar eventos da distribuicao contnua caracterizada pela densidade
f ; este metodo requer dois ingredientes:

1. um bom gerador de ocorrencias uniformes

2. um gerador de ocorrencias da distribuicao contnua D, escolhida


de tal maneira que existe uma constante M tal que a densidade
g que caracteriza a distribuicao D satisfaz f (x) M g(x) para
todo x real.

Teorema 4. O seguinte algoritmo produz observacoes de uma variavel


aleatoria cuja distribuicao e caracterizada pela densidade f :
88 [CAP. 7: MONTE CARLO

Algoritmo 5 (Algoritmo de Aceitacao-Rejeicao). Executar


1. Gerar y = Y () ocorrencia da variavel aleatoria com distri-
buicao D.
2. Gerar u = U () ocorrencia da variavel aleatoria com distri-
buicao U (0, 1).
3. Se u f (y)/(M g(y)) retornar y, caso contrario voltar ao
incio.
Demonstracao. A observacao y retornada pelo algoritmo de aceitacao-
rejeicao, tem distribuicao dada por

f (Y )
f (y) Pr Y t, U M g(Y )
Pr(Z t) = Pr X t | U = ;
M g(y) Pr U f (Y )
M g(Y )

escrevendo esta probabilidade em forma de integrais temos


R t R f (v)/(M g(v)) Rt
du g(y)dy 1
0 M f (y)dy
Pr(Z t) = R R f (v)/(M g(v)) = 1 R =
0
du g(y)dy M f (y)dy
Z t
f (y)dy.

Exemplo 5. Gaussiana a partir de Cauchy: lembrando que a densi-


dade Cauchy padrao e dada por
1
g(x) =
(1 + x2 )

e que e imediato gerar ocorrencias desta lei pelo metodo de inversao,


basta verificar que a razao da densidade gaussiana padrao para g e
dada por r

(1 + x2 ) exp{x2 /2},
2
cujo grafico e mostrado na Figura 7.1.
[SEC. 7.3: METODO DE ACEITACAO-REJEICAO 89

Figura 7.1: Razao das densidades Cauchy padrao e gaussiana padrao.

p
Esta razao e, portanto, maximizada
p em x = 1, onde vale 2/e.
Assim sendo, temos que f (x) 2/eg (x), e o algoritmo fica es-
pecificado. Contudo, como gerar as ocorrencias Cauchy? Verifique
que a funcao de distribuicao acumulada da Cauchy padrao e dada por
F (t) = (2 arctan t + )/(2) e, portanto, se U segue uma lei uniforme
em (0, 1) teremos que X = tan((U 1/2)) seguira uma lei Cauchy
padrao. A Tabela 7.1, onde T denota True, isto e, condicao ve-
rificada, e F o contrario, mostra a execucao passo a passo deste
algoritmo.

Exemplo 6. Como ja sabemos gerar ocorrencias de variaveis alea-


torias com distribuicao exponencial, podemos gerar ocorrencias de
variaveis aleatorias com distribuicao de Laplace padrao, cuja den-
sidade e dada por g(x) = exp( |x|)/2. Esta densidade sera util
para gerar ocorrencias
p de variaveis aleatorias gaussianas padrao, pois
como f (x)/g(x) 2/(e) o algoritmo fica especificado.
[CAP. 7: MONTE CARLO

Tabela 7.1: Ilustracao do metodo de geracao de gaussianas atraves de ocorrencias Cauchy.


U X = tan((U 1/2)) f (X)/(M g(X)) V V f (X)/(M g(X)) Y
0.002829 112.494 0.00000000 0.825308 F
0.134913 0.076306 0.82675011 0.386090 T 0.076306
0.041035 0.389111 0.87997152 0.583836 T 0.389111
0.940134 0.822105 0.98535727 0.544890 T 0.822105
0.411034 1.011870 0.99992938 0.968074 T 1.011870
0.484675 1.637850 0.79388186 0.808003 F
0.169943 0.033904 0.82483407 0.007725 T 0.033904
0.325046 0.574104 0.92953568 0.628396 T 0.574104
0.269194 0.360159 0.87280824 0.455025 T 0.360159
0.552381 2.868500 0.12430593 0.859248 F
90
[SEC. 7.4: METODO DE COMPOSICAO 91

Uma consideracao computacional relevante e o numero de vezes


que a ocorrencia Y () sera descartada. E facil ver que o numero
medio de tentativas ate uma aceitacao e dado por M 1 e, portanto,
quanto menor esta quantidade mais interessante o algoritmo. Mas
esta nao e a unica consideracao, ja que tambem devera ser levado em
conta o custo de gerar cada observacao da distribuicao caracterizada
pela densidade g. De fato, e possvel provar a seguinte proposicao:
Proposicao 6. O numero de tentativas ate a aceitacao de uma ocor-
rencia de g do metodo de aceitacao-rejeicao segue uma lei geometrica
com media M , isto e,

Pr(C = k) = (1 p)k1 p,

com p = M 1 . Incidentalmente, a variancia deste numero de ensaios


e (1 p)p2 .

7.4 Metodo de Composicao


O metodo de composicao e util por si so, e tambem em conjuncao
com os metodos vistos nas secoes anteriores. A tecnica pode ser
empregada para gerar ocorrencias de distribuicoes cuja densidade e
da forma X
f (x) = pi fi (x),
i

onde p = (p1 , p2 , . . .) e um vetor de probabilidades e (f1 , f2 , . . .) sao


densidades. Para gerar uma ocorrencia de X deve-se, primeiro, esco-
lher um ndice (inteiro) segundo as probabilidades p, por exemplo o
ndice j. Feito isto, gera-se uma ocorrencia da distribuicao caracteri-
zada pela densidade fj .
Uma das mais importantes aplicacoes deste metodo e para estudos
de robustez. E interessante, em geral, verificar o comportamento de
estimadores perante amostras contaminadas. Existem varios tipos de
contaminacao, mas a decorrente da aparicao de observacoes espurias
e um dos mais perigosos. Imagine a situacao de haver derivado o esti-
mador para ser aplicado a amostras independentes e identicamente
distribudas segundo uma lei D. Qual sera o comportamento deste
estimador se parte da amostra vier da distribuicao D0 diferente de
92 [CAP. 7: MONTE CARLO

D? Fixando ideias, e ilustrando com o caso gaussiano, um modelo


bastante empregado e aquele em que a variavel aleatoria de interesse
obedece uma lei N (1 , 12 ) com probabilidade p e uma lei N (2 , 22 )
com probabilidade 1 p (suponha os que parametros das duas densi-
dades sao distintos). A densidade de uma variavel aleatoria com esta
distribuicao e dada por

p (x 1 )2 1p (x 2 )2
f (x) = p exp + p exp .
212 212 222 222
(7.1)
A despeito da dificuldade de lidar diretamente com a densidade dada
na equacao (7.1), a geracao de ocorrencias desta lei e imediata dis-
pondo de um gerador de gaussianas e de um gerador de Bernoul-
lis, atraves da tecnica de composicao. E conveniente notar que o
tipo de contaminacao que pode assim ser gerado e muito geral, nao
restringindo-se as leis mostradas nem a um unico contaminante (ver,
por exemplo, o trabalho [11]).

7.5 Experiencias Monte Carlo


A experiencia Monte Carlo mais simples que podemos montar para
resolver o problema de comparar a qualidade dos estimadores propos-
tos para os parametros da distribuicao gama e a ja definida Monte
Carlo Forca Bruta.
Para isso, basta simular uma certa quantidade grande de even-
tos, digamos n_rep por replicacoes, como os que mostramos nos
captulos anteriores e registrar cada um dos estimadores. Fazendo
isso poderemos calcular a media, a variancia e outras quantidades
sobre os n_rep eventos disponveis; estamos ainda muito longe de ter
os eventos infinitos necessarios para poder calcular esperancas, mas
uma escolha criteriosa do numero de replicacoes pode dar-nos uma
ideia muito boa do comportamento das variaveis aleatorias que nos
interessam.
Porem, ao fazer somente o que prescrevemos, estaremos com-
parando o comportamento dos estimadores em um unico ponto do
espaco parametrico . Para que o estudo seja completo deveramos,
em princpio, varrer todo este conjunto. Por nao ser possvel, por-
que por exemplo e um contnuo, podemos selecionar alguns pontos
[SEC. 7.5: EXPERIENCIAS MONTE CARLO 93

interessantes e supor que o comportamento dos estimadores pode ser


completamente inferido a partir deles.
Outro fator que deve ser modificado para dar uma boa seme-
lhanca ao comportamento de estimadores e o tamanho das amostras
consideradas. Quanto mais fatores facamos intervir mais completo
sera nosso estudo, mas pagaremos por isso em tempo de computacao.
O trabalho [8] faz uma serie de sugestoes a respeito de como mon-
tar este tipo de experiencias, bem sobre formas eficazes de mostrar
os resultados. Sugerimos consultar o artigo [13] para um exemplo de
aplicacao.
Referencias
Bibliograficas

[1] E. B. Berndt, B. Hall, R. Hall, J. Hausman. Estimation and


inference in nonlinear structural models. Annals of Economic
and Social Measurement, 3/4:653665, 1974.
[2] P. J. Bickel, K. A. Doksum. Mathematical Statistics: Basic Ideas
and Selected Topics, vol. 1. Prentice-Hall, NJ, 2 ed., 2001.
[3] I. O. Bohachevsky, M. E. Johnson, M. L. Stein. Generalized
simulated annealing for function optimization. Technometrics,
28(3):209217, 1986.
[4] H. Bolfarine, M. C. Sandoval. Introducao a Inferencia Es-
tatstica. Colecao Matematica Aplicada. Sociedade Brasileira de
Matematica, Rio de Janeiro, 2001.
[5] T. Bollerslev. Generalized autoregressive conditional heteroske-
dasticity. Journal of Econometrics, 31:307327, 1986.
[6] G. E. P. Box, G. M. Jenkins, G. C. Reinsel. Time Series Analysis:
Forecasting and Control, 3. ed. Englewood Cliffs, Prentice, 1994.
[7] P. J. Brockwell, R. A Davis. Introduction to Time Series and
Forecasting, 2 ed. New York, Springer-Verlag, 2002.
[8] O. H. Bustos, A. C. Frery. Reporting Monte Carlo results in
statistics: suggestions and an example. Revista de la Sociedad
Chilena de Estadstica, 9(2):4695, 1992.

95
96 REFERENCIAS BIBLIOGRAFICAS

[9] O. H. Bustos, A. C. Frery. Simulacao estocastica: teoria e al-


goritmos (versao completa). Monografias de Matematica, 49.
CNPq/IMPA, Rio de Janeiro, RJ, 1992.
[10] O. H. Bustos, A. C. Frery. Statistical functions and procedures
in IDL 5.6 and 6.0. Computational Statistics and Data Analysis,
in press.
[11] O. H. Bustos, M. M. Lucini, A. C. Frery. M-estimators of rough-
ness and scale for GA0-modelled SAR imagery. EURASIP Jour-
nal on Applied Signal Processing, 2002(1):105114, 2002.
[12] R. H. Byrd, P. Lu, J. Nocedal, C. Zhu. A limited memory al-
gorithm for bound constraints optimization. SIAM Journal on
Scientific Computing, 16:11901208, 1995.
[13] F. Cribari-Neto, A. C. Frery, M. F. Silva. Improved estimation of
clutter properties in speckled imagery. Computational Statistics
and Data Analysis, 40(4):801824, 2002.
[14] F. Cribari-Neto, S. G. Zarkos. R: yet another econometric
programming environment. Journal of Applied Econometrics,
14:319329, 1999.
[15] F. Cribari-Neto, S. G. Zarkos. Econometric and statistical com-
puting using Ox. Computational Economics, 21:277295, 2003.
[16] P. Dalgaard. Introductory Statistics with R. Statistics and Com-
puting. Springer, New York, 2002.
[17] W. C. Davidon. Variable metric method for minimization. Tech-
nical Report ANL-5990 (revised), Argonne National Laboratory,
1959.
[18] W. C. Davidon. Variable metric method for minimization. SIAM
Journal on Optimization, 1:117, 1991.
[19] L. Devroye. Non-Uniform Random Variate Generation.
Springer-Verlag, New York, 1986.
[20] J. A. Doornik. Object-Oriented Matrix Programming Using Ox.
Timberlake Consultants Press & Oxford, London, 3 ed., 2002.
REFERENCIAS BIBLIOGRAFICAS 97

[21] A. C. Frery, F. Cribari-Neto, M. O. Souza. Analysis of mi-


nute features in speckled imagery with maximum likelihood
estimation. EURASIP Journal on Applied Signal Processing,
2004(2004):24762491, 2004.
[22] J. E. Gentle. Random Number Generation and Monte Carlo
Methods. Statistics and Computing. Springer, New York, 2000.
[23] P. Hellekalek, G. Wesp, J.-W. Kim. Random number generators:
The pLab project home page, 2003.
http://random.mat.sbg.ac.at
[24] K. Hornik. Frequently asked questions on R, 2002.
http://www.r-project.org
[25] B. James. Probabilidade: um Curso em Nvel Intermediario. Pro-
jeto Euclides. Instituto de Matematica Pura e Aplicada, Rio de
Janeiro, 1981.
[26] N. L. Johnson, S. Kotz, N. Balakrishnan. Continuous Univariate
Distributions. John Wiley & Sons, New York, 2 ed., 1994.
[27] N. L. Johnson, S. Kotz, N. Balakrishnan. Continuous Univariate
Distributions, vol. 2. John Wiley & Sons, New York, 2 ed., 1995.
[28] N. L. Johnson, S. Kotz, A. W. Kemp. Univariate Discrete Dis-
tributions. John Wiley & Sons, New York, 2 ed., 1993.
[29] S. Kirkpatrick, C. D. Gelatt, M. P. Vechhi. Optimization by
simulated annealing. Science, 220:671680, 1983.
[30] D. E. Knuth. The Art of Computer Programming, vol. 2 (Semi-
numerical Algorithms). Addison-Wesley, 3 ed., 1997.
[31] W. J. Krzanowski. Recent Advances in Descriptive Multivariate
Analysis. Claredon Press, Oxford, 1995.
[32] J. Maindonald, J. Braun. Data Analysis and Graphics with R:
an Example-based Approach. Cambridge, Cambridge, 2003.
[33] C. F. Manski. Analog Estimation Methods in Econometrics.
Chapman & Hall, New York, 1988.
http://elsa.berkeley.edu/books/analog.html
98 REFERENCIAS BIBLIOGRAFICAS

[34] G. Marsaglia, W. W. Tsang. Some difficult-to-pass tests of ran-


domness. Journal of Statistical Software, 7(3):18, 2002.

[35] P. McCullagh, J. A. Nelder. Generalized Linear Models. Chap-


mann and Hall, New York, 2 ed., 1989.

[36] B. D. McCullough, B. Wilson. On the accuracy of statistical pro-


cedures in Microsoft Excel 2000 and Excel XP. Computational
Statistics and Data Analysis, 40(4):713721, 2002.

[37] P. A. Morettin, C. M. C. Toloi. Analise de Series Temporais.


Editora Edgar Blucher, Sao Paulo, 2004.

[38] J. Nocedal, S. J. Wright. Numerical Optimization. Springer-


Verlag, New York, 1999.

[39] W. H. Press, B. P. Flannery, S. A. Teulosky, W. T. Vetterling.


Numerical Recipes in C: The Art of Scientific Computing. Cam-
bridge University, 2 ed., 1992.

[40] J. Racine, R. Hyndman. Using R to teach econometrics. Journal


of Applied Econometrics, 17:175189, 2002.

[41] B. D. Ripley. Stochastic Simulation. Wiley, New York, 1987.

[42] C. P. Robert, G. Casella. Monte Carlo Statistical Methods. Sprin-


ger Texts in Statistics. Springer, New York, 2000.

[43] E. R. Tufte. Envisioning Information. Graphics Press, 1990.

[44] E. R. Tufte. Visual & Statistical Thinking: Displays of Evidence


for Decision Making. Graphics Press, 1997.

[45] E. R. Tufte. Visual Explanations: Images and Quantities, Evi-


dence and Narrative. Graphic Press, 1997.

[46] E. R. Tufte. The Visual Display of Quantitative Information.


Graphics Press, 2 ed., 2001.

[47] K. L. P. Vasconcellos, S. G. Silva. Corrected estimates for student


t regression models with unknown degrees of freedom. Journal
of Statistical Computation and Simulation, 2005. In press.
REFERENCIAS BIBLIOGRAFICAS 99

[48] W. N. Venables, B. D. Ripley. S Programming. Springer-Verlag,


New York, 2000.
[49] W. N. Venables, B. D. Ripley. Modern Applied Statistics with S.
Springer, New York, 4 ed., 2002.
[50] W. N. Venables, D. M. Smith. An Introduction to R. Network
Theory Limited, UK, 2001.

Anda mungkin juga menyukai