Anda di halaman 1dari 60

SUMRIO

1 Inferncia Estatstica 1
1.1 Conceitos Bsicos em Inferncia . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Estudo Inferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Amostragem e Inferncia . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Distribuio Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.4 Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4.1 Mtodo da Funo Distribuio . . . . . . . . . . . . . . . . . . . 5
1.2.4.2 Mtodo do Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4.3 Mtodo da Funo Geradora de Momentos . . . . . . . . . . . . . 5
1.2.5 Momentos Amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Desigualdade de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Lei Fraca dos Grandes Nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Distribuies Amostrais 8
2.1 Desigualdade de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Lei dos Grandes Nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Mtodos de Estimao 16
3.1 Estimao Pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.1.1 Mtodo da Mxima Verossimilhana . . . . . . . . . . . . . . . . . . . . 17
3.1.1.1 Mtodo da Mxima Verossimilhana -caso multiparamtrico . . . 19
3.2 Mtodo dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Mtodo dos Mmimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 24
4 Propriedades dos Estimadores 26
4.1 Consistncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Ecincia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2.1 Estatstica Suciente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5 Estimao Intervalar 37
5.1 Quantidade Pivotal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.1.1 Mtodo da Quantidade Pivotal . . . . . . . . . . . . . . . . . . . . . . . 39
5.1.2 Intervalos para Populaes Normais - uma amostra . . . . . . . . . . . . 40
5.1.3 Intervalos para Populaes Normais - duas amostra . . . . . . . . . . . . 42
6 Teste de hiptese 47
6.1 Teoria da Deciso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Teste de Hiptese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.2.1 Testando hipteses simples . . . . . . . . . . . . . . . . . . . . . . . . . 55
1
INFERNCIA ESTATSTICA
Latim: INFERENTIA. Ato de inferir (tirar por concluso). Admite-se uma proposio como
verdadeira, que no seja conhecida diretamente, atravs da relao dela com outras proposies
j sabidamente verdadeiras.
Inferncia estatstica o processo pelo qual pode-se tirar concluses acerca de um conjunto
maior (a populao) usando informao de um conjunto menor (a amostra). O objetivo prin-
cipal da Inferncia estatstica, estimar os parmetros populacionais (mdia, varincia etc),
deduzidos a partir da estatstica amostral correspondente.
Os procedimentos mais usuais para inferir algo sobre estes parmetros so:
Estimao pontual - o objetivo encontrar os valores do parmetro desconhecido.
Estimao por intervalos- o objetivo encontrar um intervalo que contenha o parmetro
de interesse com uma probabilidade especicada.
Testes de hipteses- o objetivo criar conjecturas sobre os valores possveis do parmetro
e vericar se, estas conjecturas, so muito ou pouco provveis (isto , testar as hipteses).
Denio 1.1 (Inferncia Estatstica): Seja X uma varivel aleatria com funo de den-
sidade de probabilidade (ou de probabilidade) que abreviamos por f.d.p (f.p) e denotamos por
f (x|), em que um parmetro desconhecido. Chamamos de inferncia estatstica o pro-
blema que consiste em especicar um ou mais valores de , baseado em um conjunto de valores
de X
1.1 CONCEITOS BSICOS EM INFERNCIA
Denio 1.2 (Populao): O conjunto de valores de um caracterstica (observvel) asso-
ciada a uma coleo de indivduos ou objetos de interesse dito populao.
Denio 1.3 (Amostra Aleatria): Uma sequncia X
1
, ..., X
n
de n variveis aleatrias in-
dependentes e identicamente distribudas (i.i.d.) com funo de densidade (f.d.p.) ou, no caso
discreto, funo de probabilidade (f.p.) f (x|) dita ser uma amostra aleatria de tamanho n
Inferncia Estatstica 2
da distribuo de X. Nesse caso, temos,
f (x
1
, ..., x
n
|) = f (x
1
|)... f (x
n
|) =
n

i=1
f (x
i
|)
Denio 1.4 (Espao Parmetrico): O conjunto em que toma valores denominado
espao paramtrico.
Exemplo 1.1: Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X N(,
2
).
Assim,
={(,
2
)| < <,
2
> 0}
Denio 1.5 (Estatstica): Qualquer funo da amostra que no depende de parmetros
desconhecidos denominada uma estatstica.
Denio 1.6 (Estimador): Qualquer estatstica que assuma valores em um estimador
para .
Exemplo 1.2: Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x|). A funes abaixo so estatsticas:
i) X
(1)
= min(X
1
, ..., X
n
)
ii) X
(n)
= max(X
1
, ..., X
n
)
iii) X =

n
i=1
x
i
n
1.2 ESTUDO INFERENCIAL
Para estudar alguma caracterstica da populao o ideal seria estudar cada indivduo da
populao. Entretanto entrar em contato com toda a populao seria caro e demorado. A
amostragem torna-se uma boa alternativa para estudar alguma caracterstica da populao. Os
mtodos inferncias so baseado em amostras aleatrias.
Denio 1.7 (Pesquisa Estatstica): qualquer informao retirada de uma populao ou
amostra, podendo ser atravs de Censo ou Amostragem
Denio 1.8 (Censo): Censo atividade de inspecionar (observar) todos os elementos de
uma populao, objetivando conhecer, com certeza suas caractersticas;
Denio 1.9 (Amostragem): Amostragem o processo de obter informaes dos "n"elementos
amostrais, no qual deve seguir um mtodo criterioso e adequado (tipos de amostragem).
Inferncia Estatstica 3
Fases do Estudo Inferencial:
Populao
//

Amostra

Parmetros
Populacionais
Estatsticas
da Amostra
Inferncia
oo
1.2.1 Amostragem
A amostragem naturalmente usada em nossa vida diria. Exemplos:
Para vericar o tempero de um alimento em preparao, podemos provar (observar) uma
pequena poro.
Como o mdico detecta as condies de um paciente atravs de um exame de sangue.
Amostragem o processo de seleo de uma amostra, que possibilita o estudo das caracte-
rsticas da populao. Os objetivos principais de amostragem so fornecer dados que permitam
fazer inferncias para uma populao com base na anlise de uma amostra. Em se tratando de
amostra, a preocupao central que ela seja representativa. Para obter informaes atravs de
um levantamento amostral, temos imediatamente dois problemas:
Denir cuidadosamente a populao de interesse
Selecionar a caracterstica que iremos pesquisar.
Amostragem no-probabilsticas:
Critrio de escolha denido pelo investigador
No permitem a inferncia populacional (no-representativas)
No permitem a comprovao de hipteses
Amostragem probabilsticas:
Cada unidade amostral tem probabilidade igual de ser selecionada (base da amostra alea-
tria)
Permitem a inferncia populacional (representatividade populacional)
Amostragem no-probabilsticas:
Amostra de convenincia
Amostra intencional
Amostragem probabilsticas:
Inferncia Estatstica 4
Amostra aleatria simples
Amostra sistemtica
Amostra estraticada
Amostra por conglomerados
1.2.2 Amostragem e Inferncia
De uma dada populao pode-se retirar muitas amostras:
Amostra 1, Amostra 2,..., Amostra n
Entretanto quase sempre recolhido s uma amostra para estudar uma caracterstica X da
populao. Em uma amostra pode-se obter n observaes x
1
, x
2
, .., x
n
. Assim as observaes
x
1
, x
2
, .., x
n
so realizaes de n variveis aleatria X
1
, X
2
, ..., X
n
que so "cpias"da varivel X.
Antes do processo de amostragem ser realizado temos n variveis aleatrias X
1
, X
2
, ..., X
n
.
Depois de efetuado a amostragem temos um conjunto de dados que constituem a amostra ob-
servada x
1
, x
2
, .., x
n
. Assim temos que as variveis aleatrias X
1
, X
2
, ..., X
n
so identicamente
distribudas e possuem a mesma distribuio de probalidade da caracterstica X em estudo da
populao.
1.2.3 Distribuio Amostral
Denio 1.10 (Distribuio amostral): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x|) e seja T = T(X
1
, ..., X
n
) uma estatstica. A distribuio
de probabilidade de T denominada distribuio amostral
Em geral, temos interesse em saber a distribuio amostral de um estimador. Isto , dado
que

= T(X
1
, ..., X
n
) uma varivel aleatria temos interesse em saber o comportamento deste
estimador para a populao de todas as possveis amostras aleatrias de um dado tamanho n.
A distribuio amostral de uma estatstica T = T(X
1
, ..., X
n
) pode ser denida a partir da
distribuio conjunta da amostra. Sendo X
1
, X
2
, ..., X
n
uma amostra aleatria de uma populao
com funo densidade de probabilidade ou funo de probabilidade f (x
1
, x
2
, ..., x
n
|), a funo
de distribuio acumulada de T, denotada por G(t|), denida:
Para o caso contnuo
G(t|) = P(T t) =
_
...
_
n

i=1
f (x
i
|)dx
i
Para o caso discreto
G(t|) = P(T t) =

i=1
f (x
i
|)
Inferncia Estatstica 5
1.2.4 Funes de Variveis Aleatrias
Dada uma varivel aleatria contnua X com f.d.p. ou f.p. f (x|) e seja T = T(X
1
, ..., X
n
)
uma funo de X
i
, tambm uma varivel aleatria. A denio da varivel T como funo
de X conhecida coma transformao de uma varivel aleatria. A palavra "transformao"
utilizada porque quando uma nova varivel aleatria T especicada como uma funo de uma
dada varivel aleatria X, ento a funo de distribuio F(x) ca transformada na funo de
distribuio da nova varivel T.
Assim, quando temos T = T(X
1
, ..., X
n
interessante conhecer a funo de distribuio e
f.d.p. ou f.p. da varivel aleatria T.
1.2.4.1 Mtodo da Funo Distribuio
Seja X uma varivel aleatria, com funo de distribuio F
X
(x). Qualquer funo Y =g(X)
tambm uma varivel aleatria.
F
Y
(y) = P(Y y) = P(g(X) y)
Exemplo 1.3: Se X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X independente e
indenticamente distribuda, com funo de densidade de probabilidade dada por:
f (x|) = e
x
, x > 0
Considerando a estatstica T = mim{X
1
, ..., X
n
}, temos que T exp(n)
1.2.4.2 Mtodo do Jacobiano
1.2.4.3 Mtodo da Funo Geradora de Momentos
1.2.5 Momentos Amostrais
Denio 1.11 (Momentos Amostrais): Seja X
1
, ..., X
n
uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x|). Ento:
O k-simo momento amostral denido por:
M

k
=
n

i=1
X
k
i
n
O k-simo momento amostral centrado em torno de X
n
denido por
M
k
=
n

i=1
(X
i
X
n
)
k
n
Inferncia Estatstica 6
em que X
n
o primeiro momento amostral.
Teorema 1.1: Seja X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x|). Ento o valor esperado esperado do k-simo momento amostral igual ao k-simo
momento populacional.
E[M

k
] =

k
e tambm a varincia do k-simo momento amostral dada por
V[M

k
] =
E[X
2k
] (E[X
k
])
2
n
=

2k
(

k
)
2
n
Denio 1.12 (Mdia Amostral): Seja X
1
, ..., X
n
uma amostra aleatria da varivel alea-
tria X, com f.d.p. ou f.p. f (x|), ento
X
n
=
n

i=1
X
i
n
denido como mdia amostral
Denio 1.13 (Varincia Amostral): Seja X
1
, ..., X
n
uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x|), ento
S
2
n
=
n

i=1
(X
i
X
n
)
2
n1
para n > 1
denido como varincia amostral
Teorema 1.2: Seja X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x|), com mdia e varincia
2
ento
E[X
n
] = Var[X
n
] =

2
n
Teorema 1.3: Seja X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x|), com mdia e varincia
2
ento
E[S
2
n
] =
2
Var[S
2
n
] =
1
n
_

n3
n1

4
_
Inferncia Estatstica 7
1.3 DESIGUALDADE DE CHEBYSHEV
Teorema 1.4 (Desigualdade de Chebyshev): Seja X uma varivel aleatria com E[X] =
e varincia nita. Ento, para > 0
P(|X | )
V(X)

2
ou P(|X | < ) 1
V(X)

2
1.4 LEI FRACA DOS GRANDES NMEROS
Teorema 1.5 (Lei Fraca dos Grandes Nmeros): Seja X
1
, ..., X
n
uma amostra aleatria da
varivel aleatria X, com f.d.p. ou f.p. f (x|), com mdia e varincia
2
e seja X
n
a mdia
amostral ento para cada > 0
lim
n
P
_
|X
n
| <
_
= 1
isto X
n
converge em probabilidade para
1.5 TEOREMA DO LIMITE CENTRAL
Teorema 1.6 (Teorema do Limite Central): Seja X
1
, ..., X
n
uma amostra aleatria da va-
rivel aleatria X, com f.d.p. ou f.p. f (x|), com mdia e varincia
2
e seja X
n
a mdia
amostral, considere:
Z
n
=
X
n
E[X
n
]
_
var[X
n
]
=
X
n

n
Ento a distribuio de Z
n
aproxima-se da normal padro quando n
2
DISTRIBUIES AMOSTRAIS
Denio 2.1 (Distribuio amostral): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x|) e seja T = T(X
1
, ..., X
n
) uma estatstica. A distribuio
de probabilidade de T denominada distribuio amostral
Em geral, temos interesse em saber a distribuio amostral de um estimador. Isto , dado
que

= T(X
1
, ..., X
n
) uma varivel aleatria temos interesse em saber o comportamento deste
estimador para a populao de todas as possveis amostras aleatrias de um dado tamanho n.
Teorema 2.1 (Distribuio da mdia amostral de uma populao normal): Seja X
1
, X
2
, ..., X
n
uma amostra aleatria de tamanho n de uma populao normal com mdia e varincia
2
e
seja X
n
a mdia amostral. Ento, X
n
tem distribuio normal com mdia e varincia
2
/n.
Demonstrao. Seja a funo geradora de momentos de X
n
M
X
n
(t) = E
_
e
tX
n
_
= E
_
_
e
t
n

i=1
X
i
n
_
_
= E
_
n

i=1
e
t
X
i
n
_
=
n

i=1
E
_
e
t
X
i
n
_
=
n

i=1
M
X
_
t
n
_
Como cada X
i
N(,
2
) e a funo geradora de momento da normal dada por
M
x
(t) = e
t+

2
t
2
2
Temos que
M
X
n
(t) =
n

i=1
e

t
n
+

2
t
2
n
2
2
=
_
e

t
n
+

2
t
2
2n
2
=
_
n
= e
t+

2
t
2
2n
Assim X
n
N(,
2
/n)
Teorema 2.2: Seja X
1
, X
2
, ..., X
n
uma amostra aleatria de tamanho n de uma populao
normal com mdia e varincia
2
e seja X
n
a mdia amostral e S
2
a varincia amostral.
Ento X
n
e S
2
so independentes.
Distribuies Amostrais 9
Teorema 2.3 (Distribuio Qui-quadrado): Seja X
1
, X
2
, ..., X
n
variveis aleatrias indepen-
dente com distribuio normal e com mdia
i
e varincia
2
i
. Ento,
U =
n

i=1
_
X
i

i
_
2
tem uma distribuio qui-quadrado com n graus de liberdade.
Demonstrao. Seja Z
i
=
X
i

i
, ento Z
i
N(0, 1), logo
U =
n

i=1
Z
2
i
Seja a funo geradora de momentos de X
n
M
U
(t) = E
_
e
tU

= E
_
e
t
n

i=1
Z
2
i
_
= E
_
n

i=1
e
tZ
2
i
_
=
n

i=1
E
_
e
tZ
2
i
_
Mas
E
_
e
tZ
2
_
=

e
tz
2 1

2
e

1
2
z
2
dz =

2
e

1
2
(12t)z
2
dz = 2

_
0
1

2
e

1
2
(12t)z
2
dz
Fazendo a substituio
u = (12t)
z
2
2
z =
_
2u
12t
du = (12t)zdz dz =
du
_
2u(12t)
Assim,
E
_
e
tZ
2
_
=
1
_
(12t)
1

_
0
u

1
2
e
u
du
=
1
_
(12t)
1

_
1
2
_
=
1
_
(12t)
1

=
1
_
(12t)
Desta forma
M
U
(t) =
n

i=1
E
_
e
tZ
2
i
_
=
n

i=1
1
_
(12t)
=
_
1
_
(12t)
_
n
=
_
1
(12t)
_n
2
AssimU tem uma distribuio qui-quadrado com n graus de liberdade.
Distribuies Amostrais 10
Corolrio 2.1 (Distribuio Qui-quadrado): Seja X
1
, X
2
, ..., X
n
uma amostra aleatria de
tamanho n de uma populao normal com mdia e varincia
2
e seja S
2
a varincia amos-
tral. Ento,
U =
(n1)S
2

2
tem uma distribuio qui-quadrado com n1 graus de liberdade.
Demonstrao.
U =
(n1)S
2

2
=
(n1)
n

i=1
(X
i
X
n
)
2
n1

2
=
n

i=1
(X
i
X
n
)
2

2
=
n

i=1
(X
i
)
2
n(X
n
)
2

2
=
n

i=1
_
X
i

_
2

_
X
n

n
_
2
=
n

i=1
Z
2
i
Z
2
Assim temos:
n

i=1
Z
2
i

2
n
Z
2

2
1
Desta forma a U a diferena de variveis aleatrias com distribuio qui-quadrado. Desta
forma U
n1
Distribuio de S
2
S
2
uma funo linear de U, assim a densidade de S
2
pode ser obtida da densidade de U
f
S
2(y) =
_
n1
2
2
_n1
2
1

_
n1
2
y
n3
2
e

(n1)y
2
2
I
(0,)
(y)
e, com isso, S
2
tem mdia
2
e varincia
4
/(n1).
Teorema 2.4 (Distribuio t-student): Seja Z um varivel aleatria com distribuio nor-
mal com mdia 0 e varincia 1 e U uma varivel aleatria com distribuio Qui-quadrado com
Distribuies Amostrais 11
k graus de liberdade, e se Z e U so independentes. Ento:
t =
Z
_
U/k
tem distribuio t de Student com k graus de liberdade.
Demonstrao. A distribuio conjunta de Z e U dada por:
f
Z,U
(z, u) =
1

2
e

1
2
z
2 1
2
k
2

_
k
2
_
u
k
2
1
e

u
2
=
1

2
1
2
k
2

_
k
2
_
u
k
2
1
e

1
2
(u+z
2
)
I
[0,)
(u)I
(,)
(z)
Seja t =
z

u/k
e w = u. Ento:
z =t
_
w
k
w = u
Desta forma temos:
J =

z
t
z
w
u
t
u
w

_
w
k
1
2
t

wk
0 1

=
_
w
k
Ento:
f
T,W
(t, w) =
_
w
k
1

2
1
2
k
2

_
k
2
_
w
k
2
1
e

1
2
(w+t
2 w
k
)
=
1

k
1
2
k+1
2
1

_
k
2
_w
k+1
2
1
e

1
2
_
1+
t
2
k
_
w
I
[0,)
(w)I
(,)
(t)
f
T
(t) =
1

k
1
2
k+1
2
1

_
k
2
_
_

0
w
k+1
2
1
e

1
2
_
1+
t
2
k
_
w
dw
Fazendo a substituio
x =
1
2
_
1+
t
2
k
_
w w =
2x
_
1+
t
2
k
_
dx =
1
2
_
1+
t
2
k
_
dw dw =
2dx
_
1+
t
2
k
_
Distribuies Amostrais 12
Assim
f
T
(t) =
1

k
1
2
k+1
2
1

_
k
2
_
_

0
_
_
2x
_
1+
t
2
k
_
_
_
k+1
2
1
e
x
2dx
_
1+
t
2
k
_
=
1

k
1

_
k
2
_
_
1+
t
2
k
_

k+1
2
_

0
x

k+1
2
1
e
x
dx
=

_
k+1
2
_

k
_
k
2
_
_
1+
t
2
k
_

k+1
2
Logo t T
k
Corolrio 2.2 (Distribuio t-student): Seja X
1
, X
2
, ..., X
n
uma amostra aleatria de tama-
nho n de uma populao normal com mdia e varincia
2
e seja X
n
a mdia amostral e S
2
a varincia amostral, ento
t =
X
S/

n
tem distribuio t de Student com n1 graus de liberdade.
Demonstrao. Se X
i
N(,
2
) ento X
n
N(,
2
/n). Assim,
Z =
X
/

n
N(0, 1) U =
(n1)S
2

2

2
n1
Ento
t =
Z
_
U/n1
=
X
/

n
_
(n1)S
2

2
/n1
=
X
/

n
_
S
2

2
=
X
/

n
S

=
X
S/

n
Assim
t =
X
S/

n
t
n1
Teorema 2.5 (Distribuio F de Snedecor): Seja U e V variveis aleatrias independentes
com distribuio Qui-quadrado com m e n graus de liberdade, respectivamente. Ento:
X =
U/m
V/n
Distribuies Amostrais 13
tem distribuio F de Snedecor com m graus de liberdade no numerador e n graus de liberdade
no denominador.
Demonstrao. A distribuio conjunta de U e V dada por:
f
U,V
(u, v) =
1
2
m
2

_
m
2
_ u
m
2
1
e

u
2
1
2
n
2

_
n
2
_ v
n
2
1
e

v
2
=
1
2
m+n
2

_
m
2
_

_
n
2
_ u
m
2
1
v
n
2
1
e

u+v
2
I
[0,)
(u)I
[0,)
(v)
Seja
X =
U/m
V/n
U =
mXY
n
Y = V
Desta forma temos:
J =

u
x
u
y
v
x
v
y

my
n
mx
n
0 1

=
my
n
Ento:
f
X,Y
(x, y) =
my
n
1
2
m+n
2

_
m
2
_

_
n
2
_
_
mxy
n
_m
2
1
y
n
2
1
e

1
2
(
mxy
n
+y)
=
m
n
1
2
m+n
2

_
m
2
_

_
n
2
_
_
mx
n
_m
2
1
y
m+n
2
1
e

1
2
(
mx
n
+1)y
I
[0,)
(x)I
[0,)
(y)
f
X
(x) =
1
2
m+n
2

_
m
2
_

_
n
2
_
_
m
n
_m
2
x
m
2
1
_

0
y
m+n
2
1
e

1
2
(
mx
n
+1)y
dy
Fazendo a substituio
w =
1
2
_
mx
n
+1
_
y y =
2w
_
mx
n
+1
_
dw =
1
2
_
mx
n
+1
_
dy dy =
2dw
_
mx
n
+1
_
Assim
f
X
(x) =
1
2
m+n
2

_
m
2
_

_
n
2
_
_
m
n
_m
2
x
m
2
1
_

0
_
2w
_
mx
n
+1
_
_m+n
2
1
e
w
2dw
_
mx
n
+1
_
=
1

_
m
2
_

_
n
2
_
_
m
n
_m
2 x
m
2
1
_
m
n
x +1
_m+n
2
_

0
w
m+n
2
1
e
w
dw
=

_
m+n
2
_

_
m
2
_

_
n
2
_
_
m
n
_m
2 x
m
2
1
_
m
n
x +1
_m+n
2
I
[0,)
(x)
Distribuies Amostrais 14
Logo X F
m,n
Corolrio 2.3 (Distribuio F de Snedecor): Sejam X
1
, X
2
, ..., X
m
e Y
1
,Y
2
, ...,Y
n
amostras
aleatrias de tamanho m e n provenientes de populao normais com mdia
X
e
y
e vari-
ncia
2
e sejam X
n
e Y
n
as mdias amostrais e S
2
X
e S
2
Y
as varincia amostrais de X e Y,
respectivamente, ento
F =
S
2
X
S
2
Y
tem distribuio F com m1 e n1 graus de liberdade.
Demonstrao. Seja
U =
(m1)S
2
X

2

2
m1
V =
(n1)S
2
Y

2

2
n1
Ento
X =
U/(m1)
V/(n1)
=
(m1)S
2
X

2
m1
(n1)S
2
Y

2
n1
=
S
2
X

2
S
2
Y

2
=
S
2
X
S
2
Y
Logo F F
m1,n1
Teorema 2.6 (Distribuio F de Snedecor): Seja X um varivel aleatria com distribuio
F com m e n graus de liberdade, ento
Y =
1
X
tem distribuio Y com n e m graus de liberdade.
2.1 DESIGUALDADE DE CHEBYSHEV
Teorema 2.7 (Desigualdade de Chebyshev): Seja X uma varivel aleatria com E[X] =
e varincia nita. Ento, para > 0
P(|X | )
V(X)

2
ou P(|X | < ) 1
V(X)

2
2.2 LEI DOS GRANDES NMEROS
Muitas inferncias so vlidos quando o tamanho da amostra grande. Deste modo,
importante o estudo das distribuies de variveis aleatrias denidas para amostras grandes.
Introduziremos noo de convergncia para sequncias de variveis aleatrias e apresentaremos
a lei dos grandes nmeros e o teorema do limite central.
Distribuies Amostrais 15
Teorema 2.8 (Lei Fraca dos Grandes Nmeros): Seja X
1
, ..., X
n
uma amostra aleatria da
varivel aleatria X, com f.d.p. ou f.p. f (x|), com mdia e varincia
2
e seja X
n
a mdia
amostral ento para cada > 0
lim
n
P
_
|X
n
| <
_
= 1
isto X
n
converge em probabilidade para
2.3 TEOREMA DO LIMITE CENTRAL
Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X variveis aleatrias indepen-
dentes com a mesma distribuio, que se admite ter varincia nita (quase todas as distribuies
com interesse prtico tm varincia nita, pelo que esta condio no particularmente restri-
tiva).
Teorema 2.9 (Teorema do Limite Central): Seja X
1
, ..., X
n
uma amostra aleatria da va-
rivel aleatria X, com f.d.p. ou f.p. f (x|), com mdia e varincia
2
e seja X
n
a mdia
amostral, considere:
Z
n
=
X
n
E[X
n
]
_
var[X
n
]
=
X
n

n
Ento a distribuio de Z
n
aproxima-se da normal padro quando n
3
MTODOS DE ESTIMAO
Estimao o processo que consiste em utilizar dados amostrais para estimar valores para
os parmetros populacionais desconhecidos. Assumindo que uma caracterstica dos elementos
numa populao pode ser representada por uma varivel aleatria X cuja funo de densidade
ou probabilidade f (x|), , temos que:
um parmetro com valores desconhecidos. f (x|) tem uma forma conhecida, exceto
pelo parmetro Como , sendo o espao paramtrico, temos uma familia de densida-
des, sendo cada valor de correspondente a um membro da familia.
Considerando x
1
, ..., x
n
valores de uma amostra aleatria X
1
, ..., X
n
da varivel aleatria X,
com f.d.p. ou f.p. f (x|) O objetivo a partir dos dados observados estimar um valor parmetro
.
As estatsticas amostrais so utilizadas como estimativas de um parmetro pode ser feita
por duas maneiras
Estimao pontual - consiste na estimativa um nica valor para o parmetro
Estimao intervalar - consiste na estimativa que especica um intervalo de valores pos-
sveis, no qual se admite que esteja o parmetro .
Denio 3.1 (Estimao Pontual): Uma estimativa pontual de um parmetro desconhe-
cido um valor obtido a partir da amostra (atravs de uma estatstica) que se destina a
fornecer valores aproximados do parmetro.
Denio 3.2 (Estimador): Um estimador

uma estatstica (i.e. funo da amostra) que
fornece estimativas pontuais.
3.1 ESTIMAO PONTUAL
Seja uma amostra aleatoria X
1
, ..., X
n
com f.d.p. ou f.p. f (x|) O problema denir uma
estatstica T = T(X
1
, ..., X
n
) de tal modo que, aps observarmos X
1
= x
1
, ..., X
n
= x
n
, T =
T(X
1
, ..., X
n
) seja uma boa estimativa pontual de Para denir a estatstica T = T(X
1
, ..., X
n
),
utilizado mtodos de estimao, sendo os principais:
Mtodo da Mxima Verossimilhana
Mtodos de Estimao 17
Mtodo dos momentos
Mtodo dos Mnimos Quadrados.
3.1.1 Mtodo da Mxima Verossimilhana
Denio 3.3 (Funo de Verossimilhana): Se uma amostra aleatria X
1
, ..., X
n
so vari-
veis aleatrias independentes e identicamente distrudas (i.i.d) com f.d.p. ouf.p.) f (x|), sua
funo de verossimilhana dada por:
L(; x) = f (x
1
, ..., x
n
|) = f (x
1
|)... f (x
n
|) =
n

i=1
f (x
i
|)
Denio 3.4 (Funo de Log-Verossimilhana): O logaritmo natural da funo de veros-
similhana denominado funo de log-verossimilhana e denotado por
l(; x) = lnL(; x)
A funo de densidade (ou de probabilidade) funo da varivel aleatria X, assumindo
que o parmetro conhecido.
Distribuio Poisson
f (x|) = e


x
x!
, x = 0, 1, 2, 3, ..., 0
Distribuio Normal
f (x|,
2
) =
1

2
2
e

(x)
2
2
2
, < x <
A funo de densidade se torna uma funo de verossimilhana quando os valores da vari-
vel X so conhecidos e o valor de parmetro desconhecido
os valores da varivel X so conhecidos, a funo passa a depender do valor do parmetro
desconhecido
Distribuio Poisson - considerando X = 10
L(|X = 10) = e


10
10!
Distribuio Normal - considerando X = 2, 5
L(,
2
|X = 2, 5) =
1

2
2
e

(2,5)
2
2
2
A funo de densidade se torna uma funo de verossimilhana quando os valores da vari-
vel X so conhecidose o valor de parmetro desconhecido
Mtodos de Estimao 18
Denio 3.5 (Funo Escore): A funo escore, denotada por U(), denida como a
primeira derivada da funo de log-verossimilhana em relao
U() =
l(; x)

Denio 3.6 (Funo de Informao): A funo de informao, denotada por I(), de-
nida como menos a segunda derivada da funo de log-verossimilhana em relao
I() =

2
l(; x)

2
Denio 3.7 (Estimador de Mxima Verossimilhana): O estimador de mxima verossi-
milhana de o valor

que maximiza a funo de verossimilhana L(; x)
O valor de que maximiza a funo de verossimilhana L(; x), tambm maximiza l(; x),
assimpode-se utilizar a funo de log-verossimilhana. Como encontrar o estimador de mxima
verossimilhana
1. Encontrar a funo de verossimilhana L(; x) e log-verossimilhana l(; x);
2. Encontrar a funo Escore U() e iguala-la a zero para obter o estimador
3. Encontrar a funo de informao e vericar se o estimador ponto de mximo.
Exemplo 3.1 (Bernoulli): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X
Bernoulli(). Obter o estimador de mxima verossimilhana para .
Funo de probabilidade
f (x) =
x
(1)
1x
, x = 0, 1 = ; 0 < < 1
Funo de verossimilhana e log-verossimilhana
L(; x) =

n
i=1
x
i
(1)
n
n
i=1
x
i
l(; x) =
n

i=1
x
i
ln +
_
n
n

i=1
x
i
_
ln(1)
Funo escore
U() =
l(; x)

=
n

i=1
x
i


n
n

i=1
x
i
1
Mtodos de Estimao 19
Igualando a funo escore a zero e resolvendo em relao , temos
n

i=1
x
i


n
n

i=1
x
i
1

= 0

=
n

i=1
x
i
n
Funo de Informao
I() =

2
l(; x)

2
=
n

i=1
x
i

2
+
n
n

i=1
x
i
(1)
2
> 0
Assim, o estimador de maxima verossimilhana dador por:

=
n

i=1
x
i
n
Exemplo 3.2 (Uniforme continua): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel ale-
atria X Uni f orme
_

1
2
, +
1
2

. Obter o estimador de mxima verossimilhana para .


Funo de probabilidade
f (x) =
1
ba
I
[a,b]
(x), a x b
Funo de verossimilhana
L(; x) =
n

i=1
I
[
1
2
,+
1
2
]
(x
i
) =
n

i=1
I
[x
(n)

1
2
,x
(1)
+
1
2
]
()
Como a funo de verossimilhana constante no intervalo de
_
x
(n)

1
2
, x
(1)
+
1
2

, qualquer
ponto desse intervalo um estimado de maxima verossimilhana para
Assim, o estimador de maxima verossimilhana dador por:

= x
(n)

1
2

= x
(1)
+
1
2

=
x
(n)
+x
(1)
2
3.1.1.1 Mtodo da Mxima Verossimilhana -caso multiparamtrico
Denio 3.8 (Vetor Escore): O vetor escore, denotada por U(), denida como as de-
rivadas parciais de primeira ordem da funo de log-verossimilhana em relao a cada
i
U() =
_
l(; x)

1
, ...,
l(; x)

k
_
Mtodos de Estimao 20
Denio 3.9 (Matrix de Informao de Fisher): A matrix de informao, denotada por
I(), denida como menos das derivadas parciais de segunda ordem da funo de log-
verossimilhana em relao a cada
i
I() =
_

2
l(;x)

2
1
...

2
l(;x)

k
.
.
.
.
.
.
.
.
.

2
l(;x)

1
...

2
l(;x)

2
k
_

_
Seja = (
1
,
2
, ...,
k
) um vetor de parmetros de dimenso k. O estimador de mxima
verossimilhana de
1
,
2
, ...,
k
) so obtidos como solues das equaes:
L(; x)

i
= 0
Na obteno do estimador de mxima verossimilhana duas vericaes so importantes
i) vericar se a soluo esta em no espao paramtrico
ii) vericar se a soluo mximo local de l(; x)
Para vericar a condio ii, suciente que U() = 0 e que a matriz de informao de sher
I() seja positiva denida
Uma matriz A =
_

_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_

_
positiva denida se as submatrizes A
1
, A
2
, A
3
, ...A
n
tm determinantes forem positivos.
Sendo: A
1
= [a
11
], A
2
=
_
a
11
a
12
a
21
a
22
_
, A
3
=
_

_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_

_
,..., A
n
= A
Exemplo 3.3 (Normal): Vetor Escore
U(,
2
) =
_
l(,
2
;x)

l(,
2
;x)

2
_
=
_

_
1

2
n

i=1
(x
i
)

n
2
2
+
1
2(
2
)
2
n

i=1
(x
i
)
2
_

_
Igualando o vetor score a zero e resolvendo em relao e
2
, temos
1

2
n

i=1
(x
i
) = 0 =
n

i=1
x
i
n
= X

n
2
2
+
1
2(
2
)
2
n

i=1
(x
i
)
2
= 0
2
=
n

i=1
(x
i
X)
2
n
Mtodos de Estimao 21
Matriz de Informao
I(,
2
) =
_
_

2
l(,
2
;x)

2

2
l(,
2
;x)

2

2
l(,
2
;x)

2
l(,
2
;x)
(
2
)
2
_
_
=
_

_
n

2
n

i=1
(x
i
)
(
2
)
2
n

i=1
(x
i
)
(
2
)
2

n
2(
2
)
2
+
n

i=1
(x
i
)
2
(
2
)
3
_

_
|A
1
| =
n

2
> 0 |A
2
| =
(n1)
n

i=1
(x
i
)
2
(
2
)
4

n
2
2(
2
)
3
> 0
Assim, o estimador de maxima verossimilhana dador por:
=
n

i=1
x
i
n
= X

2
=
n

i=1
(x
i
X)
2
n
Teorema 3.1 (Princpio da invarincia): SejamX
1
, ..., X
n
uma amostra aleatria da varivel
aleatria X com funo de densidade (ou de probabilidade) f (x|). Se

um estimador de
mxima verossimilhana de , ento g(

) um estimador de mxima verossimilhana de g().
Demonstrao. Seja g(.) uma funao 1:1, ou seja g(.) inversvel, de modo que =g
1
(g()).
Seja L(|x) uma funo de verossimilhana. Assim
L(|x) = L
_
g
1
(g())|x
_
de modo que

maximiza os dois lados da equao. Logo

= g
1
_

g()
_
Portanto

g() = g(

)
ou seja, o estimador de mxima verossimilhana de g()

Exemplo 3.4: Sejam X


1
, ..., X
n
uma amostra aleatria da varivel aleatria X N(,
2
),
ento o estimador
2
=
2
=
n

i=1
(x
i
X)
2
n
. Assim, o estimador do desvio padro =

dado por =

_
n

i=1
(x
i
X)
2
n
Mtodos de Estimao 22
3.2 MTODO DOS MOMENTOS
Denio 3.10 (Momentos Populacionais): Se X uma varivel aleatria, o r-simo mo-
mento de X denido como, denotado por
r
, denido como

r
= E[X
r
]
Denio 3.11 (Momentos Amostrais): Seja X
1
, ..., X
n
uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x|). Ento o r-simo momento amostral, denotado por m
r
,
denido por:
m
r
=
n

i=1
X
r
i
n
Denio 3.12 (Estimador pelo Mtodo dos Momentos): O estimador pelo mtodo dos
momento de o valor

se ele for soluo das equaes

r
= m
r
, r = 1, 2, 3, ..., k
Exemplo 3.5 (Bernoulli): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X
Bernoulli(). Obter o estimador pelo mtodo dos momentos para .
Funo de probabilidade
f (x|) =
x
(1)
1x
, x = 0, 1 = ; 0 < < 1
Momentos populacionais
E[X] =
1
=
Assim,
u
1
= m
1


=
n

i=1
X
i
n
Exemplo 3.6 (Normal): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X
N(,
2
). Obter o estimador pelo mtodo dos momentos para e
2
.
Funo de densidade
f (x|,
2
) =
1

2
2
e

(x)
2
2
2
, x R, R,
2
> 0
Mtodos de Estimao 23
Momentos populacionais
E[X] =
1
=
V(X) =
2
E[X
2
] (E[X])
2
=
2
E[X
2
] =
2
+(E[X])
2

2
+
2

2
=
2
+
2
1
Assim,

1
= m
1
=
n

i=1
X
i
n
= X

2
= m
2

2
+
2
1
=

n
i=1
X
2
i
n

2
=
n

i=1
(X
i
X)
2
n
Mtodo dos Momentos
Exemplo 3.7 (Gama): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X
Gama(, r). Obter o estimador pelo mtodo dos momentos para e r.
Funo de densidade
f (x|, r) =

(r)
(x)
r1
e
x
x 0, > 0, r > 0
Momentos populacionais
E[X] =
r


1
=
r

V(X) =
r

2
E[X
2
] (E[X])
2
=
r

2
E[X
2
] =
r

2
+(E[X])
2
=
r

2
+
_
r

_
2

2
=
r

2
+
_
r

_
2
Assim,
Mtodos de Estimao 24

1
= m
1

=
n

i=1
X
i
n
r

= X r = X

2
= m
2

2
+
_
r

_
2
=
n

i=1
X
2
i
n

=
X
n

i=1
(x
i
X)
2
n
r =
X
2
n

i=1
(x
i
X)
2
n
3.3 MTODO DOS MMIMOS QUADRADOS
SejamY
1
, ...,Y
n
uma amostra aleatria tal que:
E(Y
i
|) = g() e V(Y
i
|) =
2
Neste caso a mdia de cada Y
i
uma funo do parmetro e a varincia constante. Uma forma
equivalente
Y
i
= g() +e
i
Sendo e
i
uma varivel aleatria denominada erro para cada observao
e
i
=Y
i
g()
Assim
E(e
i
) = 0 e V(e
i
) =
2
Denio 3.13 (Soma de Quadrados de Erros): A soma de quadrado de erros, denotada
por SQE(), denida pela expresso abaixo
SQE() =
n

i=1
(X
i
g())
2
Denio 3.14 (Estimador de Mnimos Quadrados): O estimador de mnimos quadrados
de o valor

se ele for soluo da equao
SQE()

= 0
Exemplo 3.8 (Regresso Linear): Sejam X
1
, ..., X
n
e Y
1
, ...,Y
n
amostras aleatrias e sabe-
se que os valores de Y so afetados linearmente pelos valores da X. Assim o modelo linear
Mtodos de Estimao 25
especicado dado por:
Y
i
=
1
+
2
X
i
+e
i
Determinar os estimadores de mnimos quadrados dos parmetros
1
e
1
, com base em n
observaes (Y
i
, X
i
).
O erros das observaes so dados por:
e
i
=Y
i

2
X
i
Assim a soma de quadrado dada por:
SQE(
1
,
2
) =
n

i=1
(Y
i

2
X
i
)
2
Fazendo as derivas em relao a
1
e
2
, temos:
SQE(
1
,
2
)

1
= 2
n

i=1
(Y
i

2
X
i
)
SQE(
1
,
2
)

2
= 2
n

i=1
X
i
(Y
i

2
X
i
)
Resolvendo as equaes em relao a
1
e
2
, temos:

1
=Y

2
X

2
=
n

i=1
X
i
Y
i
nXY
n

i=1
X
2
i
nX
2
4
PROPRIEDADES DOS ESTIMADORES
Existem vriose estimadores para um certo parmetro. Assim surge as seguintes perguntas:
O que um bom estimador?
Como escolher entre os vrias estimadores existentes?
Quais sero os critrios usados para comparar estimadores e caracterizar os bons estima-
dores?
As principais qualidades de um estimador devem ser:
Ausncia de vcio (estimador no-viciado);
Consistncia (estimador consistente);
Ecincia (estimador de varincia mnima);
Sucincia (estimador suciente).
Denio 4.1 (Estimador no-viesado): Um estimador

dito no-viesado (viciado) para
se E[

] = , para todo
Denio 4.2 (Vis ou Vicio): O vis de um estimador

, denotado por B(

), denido
como
E[B(

) =

]
.
Denio 4.3 (Estimador assintoticamente no-viesado): Um estimador

dito ser assin-
toticamente no-viesado (viciado) se lim
n
B(

) = 0, para todo
Denio 4.4 (Erro Quadrtico Mdio (EQM)): O erro quadrtico mdio de um estimador

dado por:
EQM[

] = E
_
(

)
2

Propriedades dos Estimadores 27


O EQM medida de da qualidade do estimador, sendo uma composio da varincia e vis
do estimador.
EQM[

] =V(

) +
_
B(

)

2
Para estimador no-viesados o EQM coincide com a varincia do estimador
EQM[

] =V(

)
O Erro quadrtico mdio comumente empregado para comparar dois estimadores

1
e

2
.

1
ser o melhor estimador se

2
EQM[

1
] EQM[

2
]
Exemplo 4.1 (Normal): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X
N(,
2
). Temos que o estimador de maxima verossimilhana de e
2
so dados por:
=
n

i=1
x
i
n
= X
2
=
n

i=1
(x
i
X)
2
n
Para o estimador de mu temos que
E
_
X

= E
_

_
n

i=1
X
i
n
_

_
=
V
_
X

=
1
n
2
n

i=1
V[X
i
] =

2
n
Assim, X um estimador no-viesado para
Com relao ao estimador da varincia temos que:
E
_

2

= E
_

_
n

i=1
(X
i
X)
2
n
_

_
=
1
n
2
E
_
n

i=1
(X
i
X)
2
_
=
1
n
2
E
_
n

i=1
(X
i
)
2
n(X )
2
_
=
=
1
n
2
_
n

i=1
E
_
(X
i
)
2

nE
_
(X )
2

_
=
1
n
2
_
n

i=1
V(X
i
) nV(X)
_
=
1
n
2
_
n
2
n

2
n
_
=
n1
n

2
Propriedades dos Estimadores 28
Assim
2
um estimador viesado para
2
, sendo o vis dado por:
B(
2
) =
n1
n

2

2
=

2
n
Fazendo lim
n
B(
2
) = 0, vericamos que
2
assintoticamente no-viesado
A varincia do estimador
2
dada por
V[
2
] = V
_

_
n

i=1
(X
i
X)
2
n
_

_
=V
_

_
(n1)
(n1)

2
n

i=1
(X
i
X)
2
n
_

_
=

4
n
2
V
_
(n1)S
2

2
_
Como
(n1)S
2

2

2
n1
Ento
=

4
n
2
V
_
(n1)S
2

2
_
=

4
n
2
2(n1)
=
2(n1)
n
2

4
Assim o EQM dado por:
EQM[
2
] =
2(n1)
n
2

4
+
_

2
n
_
2
=
2n1
n
2

4
Para obter um estimador no viesado para
2
que seja funo de
2
, temos
g(
2
) =
n
n1

2
Assim
E
_
n
n1

2
_
=
n
n1
E
_

2

=
2
g(
2
) um estimador no-viesado para
2
, sendo que:
g(
2
) =
n
n1

2
=
n

i=1
(X
i
X)
2
n1
= S
2
Propriedades dos Estimadores 29
Desta forma S
2
um estimador no-viesado para
2
e sua varincia dada por:
V[S
2
] = V
_
(n1)
(n1)

2
S
2
_
=

4
(n1)
2
V
_
(n1)S
2

2
_
=

4
(n1)
2
2(n1) =
2
4
n1
4.1 CONSISTNCIA
Denio 4.5 (Estimador Consistente): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel
aleatria X que depende do parmetro . Um estimador

=

(X
1
, ..., X
n
) dito consistente
para o parmetro se
lim
n
P
_
|

= 0
Para vericar essa propriedade em geral utiliza-se a desigualdade de Chebychev.
Consistncia no implica em no-vis assinttico.
As condies gerais para a consistncia de um estimador

so:
lim
n
E[

] = lim
n
V[

] = 0
Exemplo 4.2 (Normal): Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X
N(,
2
). Considerando X e S
2
estimadores para e
2
,vericar a consistncia dos estimado-
res
Pela desigualdade de Chebychev, temos que:
P
_
|X |


V(X)

2
=

2
n
2
lim
n
P
_
|X |

lim
n

2
n
2
= 0
Assim X consistente para
Para S
2
pela desigualdade de Chebychev, temos que:
P
_
|S
2

2
|


V(S
2
)

2
=
2
4
(n1)
2
lim
n
P
_
|S
2

2
|

lim
n
2
4
(n1)
2
= 0
Assim S
2
consistente para
2
Propriedades dos Estimadores 30
4.2 EFICINCIA
Denio 4.6 (Informao de Fisher): O informao de Fisher, denotado por I
F
(), de-
nida a como :
I
F
() = E
_
_
l(; x)

_
2
_
Propriedade da funo escore e da Informao de Fisher
A mdia da funo escore 0,
E [U()] = 0
A informao de Fisher de igual a varincia da funo escore
V [U()] = E
_
(U())
2

= E
_
_
l(; x)

_
2
_
= I
F
()
Se a verossimilhana duas vezes diferencivel ento a informao de Fisher tambm
pode ser obtida como
I
F
() = E
_
_
l(; x)

_
2
_
= E
_

2
l(; x)

2
_
Teorema 4.1 (Desigualdade Informao ou Desigualdade de Cramr-Rao): SejamX
1
, ..., X
n
uma amostra aleatria da varivel aleatria X e

um estimador no-viesado de . Sob con-
dies de regularidade
V[

]
1
I
F
()
Demonstrao. Considerando X
1
, ..., X
n
variveis aleatrias contnuas com funo de verosimi-
lhana L(|X) e funo de log-verosimillhana l(|X).
Seja a funo escore U(), denida por:
U() =
l(|X)

=
lnL(|X)

=
1
L(|X)
L(|X)

U() =
1
L(|X)
L(|X)

L(|X)

= U()L(|X)

um estimador no-viesado de , ento E[



] = . Assim
E[

] =

L(|X)dx
1
. . . dx
n
=
Propriedades dos Estimadores 31
Fazendo a derivada a esperaa temos:
E[

]

L(|X)dx
1
. . . dx
n
=

L(|X)

dx
1
. . . dx
n
= 1
=

U()L(|X)dx
1
. . . dx
n
= 1
= E[

U()] = 1
Mas como
E[U()] = 0
V[U()] = I
F
()
Temos que:
Cov(

,U()) = E[

U()] E[

]E[U()]
Cov(

,U()) = E[

U()] = 1
Assim, vericando a correlao entre

e U(), temos que

2
(

,U()) 1

2
(

,U()) =
Cov(

,U())
V(

)V(U())
=
1
V(

)I
F
()
1
V(

)I
F
()
1
V(

)
1
I
F
()
A parte direita de desigualdade denominada cota inferior de Cramer-Rao e expressa uma
cota inferior para a varincia de um estimador no-viesado.
Propriedades dos Estimadores 32
Denio 4.7 (Ecincia): A ecincia de um estimador

, no viesado para o parmetro
dada pelo quociente
e(

) =
LI()
V[

]
sendo
LI() =
1
I
F
()
Denio 4.8 (Estimador Eciente): Um estimador

dito eciente se for no viesado e
sua varincia atingir o limite inferior da desigualdede de Cramer-Rao para todos os possveis
valores de .
Se V[

] = LI() ento e(

) = 1
Denio 4.9 (Estimador No-Viesado de Varincia Uniformemente Mnima (ENVVUM)):
Sejam X
1
, ..., X
n
uma amostra aleatria da distribuio da varivel aleatria X com funo de
densidade (ou de probabilidade) f (x|). Um estimador T =t(X
1
, ..., X
n
) de g() dito ser um
estimador no-viesado de varincia uniformemente mnima de g() se, somente se,
i) E[T] = g(), isto um estimador no-viesado para g(), e
ii) V[T] V[U] para qualquer outro estimador U no-viesado de g()
Se varincia de um estimador atingir o limite inferior da desigualdade de Cramer-Rao,
ento o estimador um ENVVUM.
Exemplo 4.3: SejamX
1
, ..., X
n
uma amostra aleatria da varivel aleatria X Bernoulli(),
e seja

=
n

i
x
i
n
um estimador para .
A Varincia do estimador
V[

] =
l(; x)

=
n

i=1
x
i


n
n

i=1
x
i
1
Funo escore
U() =
l(; x)

=
n

i=1
x
i


n
n

i=1
x
i
1
Funo de Informao
I() =

2
l(; x)

2
=
n

i=1
x
i

2
+
n
n

i=1
x
i
(1)
2
Propriedades dos Estimadores 33
Informao de Fisher
I
F
I() = E[I()) =
_

_
n

i
x
i

2
+
n
n

i=1
x
i
(1)
2
_

_
=
n
(1)
Assim temos que

eciente e ENVVUM :
V[

] =
1
I
F
I()
4.2.1 Estatstica Suciente
Denio 4.10 (Princpio da Sucincia): Seja X uma varivel aleatria e seja T(.) uma
estatstica obtida como funo dos valores amostrais de X, assim,
T(X
1
, ..., X
n
) suciente para , ento qualquer inferncia sobre depender apenas da
amostra X
1
, ..., X
n
somente atravs de T(X
1
, ..., X
n
).
Isto dadas duas realizaes amostrais distintas X
1
, ..., X
n
e X

1
, ..., X

n
, tais que
T(X
1
, ..., X
n
) = T(X

1
, ..., X

n
)
ento as inferncias sobre so as mesmas, independente de observamos X
1
, ..., X
n
ou
X

1
, ..., X

n
.
Denio 4.11 (Estatstica suciente): Dizemos que a estatstica T(X
1
, ..., X
n
) suciente
para , quando a distribuio condicional de X
1
, ..., X
n
dado T for independente de
Exemplo 4.4: SejamX
1
, ..., X
n
uma amostra aleatria da varivel aleatria X Bernoulli().
Vericar se T =
n

i=1
X
i
suciente para
f (X
1
, ..., X
n
= x
n
|T =t) =
P[X
1
= x
1
, ..., X
n
= x
n
, T =t]
P[T =t]
=
P[X
1
= x
1
, ..., X
n
= x
n
]
_
n
t
_

t
(1)
nt
=

t
(1)
nt
_
n
t
_

t
(1)
nt
=
1
_
n
t
_
Assim, T =
n

i=1
X
i
suciente para
Propriedades dos Estimadores 34
Exemplo 4.5: Sejam X
1
, X
2
, X
3
uma amostra aleatria de tamanho 3 da varivel aleatria
X Bernoulli(). Vericar se T =
n

i=1
X
1
X
2
+X
3
suciente para
As probabilidades condicionais podem ser calculadas da seguinte forma:
f (X
1
= 0, X
2
= 0, X
3
= 0|T = 0) =
P[X
1
= 0, X
2
= 0, X
3
= 0, T = 0]
P[T = 0]
=
p(1p)
3
(1p)
3
+2(1p)
2
p
Sendo
P[T = 0] = P[X
1
= 0X
2
= 0, X
3
= 0] +P[X
1
= 0, X
2
= 1, X
3
= 0] +
+P[X
1
= 1, X
2
= 0, X
3
= 0]
Assim
(X
1
, X
2
, X
3
) T f (X
1
, X
2
, X
3
|T)
(0, 0, 0) 0
1p
1+ p
(0, 0, 1) 1
1p
1+2p
(0, 1, 0) 0
p
1+ p
(1, 0, 0) 0
p
1+ p
(0, 1, 1) 1
p
1+2p
(1, 0, 1) 1
p
1+2p
(1, 1, 0) 1
p
1+2p
(1, 1, 1) 2 1
Como a distribuio de depende conclui-se que T no uma estatstica suciente para
Teorema 4.2 (Critrio da Fatorao): Sejam X
1
, ..., X
n
uma amostra aleatria da distribui-
o da varivel aleatria X com funo de densidade (ou de probabilidade) f (x|), em que e a
funo de verosimilhana L(|x). Temos, ento, que a estatstica T = T(X
1
, ..., X
n
) suciente
para , se e somente se pudermos escrever
L(|x) = h(x
1
, ..., x
n
)g

(T(x
1
, ..., x
n
))
em que h(x
1
, ..., x
n
) uma funo que s depende de x
1
, ..., x
n
e g

(T(x
1
, ..., x
n
)) uma funo
que depende de e de x
1
, ..., x
n
somente atravs da funo t. As funes h e g so funes
no-negativas.
Propriedades dos Estimadores 35
Demonstrao. Suponha que T = T(X
1
, ..., X
n
) uma estatstica suciente para .
Seja
g

(T(x
1
, ..., x
n
)) = P

[T =t]
h(x) = P[X = x|t =t]
Como T suciente temos que h(x) no depende de
Considerando:
L(|X) = P

[X = x] = f (X|)
P

[X = x] = P

[T =t]P[X = x|t =t]


L(|X) = g

(T(x
1
, ..., x
n
))h(x)
Exemplo 4.6: Sejam X
1
, ..., X
n
ma amostra aleatria da varivel aleatria X Poisson().
Temos que
L(|x) = e
n
n

i=1

x
i
x
i
!
=
n

i=1
1
x
i
!
e
n

i=1
n
x
i
Tomando
h(x
1
, ..., x
n
) =
n

i=1
1
x
i
!
e g

(T(x
1
, ..., x
n
)) = e
n

i=1
n
x
i
Temos, pelo critrio da fatorao, temos que T =
n

i=1
X
i
suciente para .
Teorema 4.3 (Critrio da Fatorao - caso multiparamtrico): SejamX
1
, ..., X
n
uma amostra
aleatria da distribuio da varivel aleatria X com funo de densidade (ou de probabili-
dade) f (x|), em que pode ser um vertor, e a funo de verosimilhana L(|x). Seja as
estatstica T
i
=t
i
(X
1
, ..., X
n
), com i = 1, 2, ..., r. Ento a estatstica T= (T
1
, T2, ...T
r
) conjun-
tamente suciente para , se e somente se pudermos escrever
L(|x) = h(x
1
, ..., x
n
)g

(T
1
(x), ..., T
r
(x))
em que h(x
1
, ..., x
n
) uma funo que s depende de x
1
, ..., x
n
e g

(T
1
(x), ..., T
r
(x) uma funo
que depende de e de x
1
, ..., x
n
somente atravs das funes t
1
, ..., t
n
. As funes h e g so
funes no-negativas.
Exemplo 4.7: Sejam X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X N(,
2
).
Temos, ento que = (,
2
). Nesta caso, a funo de verossimilhana pode ser escrita como:
Propriedades dos Estimadores 36
L(,
2
; x) =
_
1
2
2
_n
2
e

1
2
2
n

i=1
(x
i
)
2
=
_
1
2
_n
2
1

n
2
e

1
2
2
n

i=1
x
2
i
+

2
n

i=1
x
2
i
n

2
com < < e
2
> 0
Sendo
h(x
1
, ..., x
n
) =
_
1
2
_n
2
g

(t
1
(x), t
2
(x)) = e

1
2
2
n

i=1
x
2
i
+

2
n

i=1
x
2
i
n

2
Assim, pelos critrio da fatorao temos que a estatstica T = (
n
i=1
X
i
,
n
i=1
X
2
i
) conjun-
tamente suciente para = (,
2
).
5
ESTIMAO INTERVALAR
A Inferncia Estatstica tem como objetivo obter informaes para uma populao a partir
do conhecimento de uma amostra. Uma caracterstica dos elementos numa populao pode ser
representada por uma varivel aleatria X cuja funo de densidade ou probabilidade f (x|).
A partir de uma amostra aleatria X
1
, ..., X
n
da varivel aleatria X, possvel obter estimativas
pontuais para o parmetros . A estimao pontual tem a restrio de no apresentar a mag-
nitude do erro cometido ao atribuirmos ao parmetros a estimativa observada. Na estimao
importante que se d alguma informao sobre a possvel variabilidade do estimador. Assim,
razovel estabelecermos um intervalo que contenha, com uma certa conana, o verdadeiro
valor do parmetro desconhecido. Um intervalo de conana (IC) um intervalo estimado de
um parmetro de interesse de uma populao. Intervalos de conana so usados para indicar a
conabilidade de uma estimativa.
Denio 5.1 (Intervalo de Conana): Sejam X
1
, ..., X
n
um amostra aleatria com funo
de densidade ou de probabilidade f (x|). Sejam T
1
= T
1
(X
1
, ..., X
n
) e T
2
= T
2
(X
1
, ..., X
n
) duas
estatsticas, tal que T
1
T
2
e P(T
1
g() T
2
) = 1 , em que 1 no depende de .
Ento,
O intervalo aleatrio [T
1
, T
2
] chamado um intervalo de 100(1)% de conana para
g().
T
1
e T
2
so chamados, respectivamente, de limite inferior e superior de conana para
g().
1 chamado de nvel de conana.
Denio 5.2 (Intervalo de Conana Unilateral): Sejam X
1
, ..., X
n
um amostra aleatria
com funo de densidade ou de probabilidade f (x|).
Seja T
1
= T
1
(X
1
, ..., X
n
) uma estatstica, tal que P(g() T
1
) = 1. Ento, T
1
cha-
mado de limite unilateral inferior de conana para g().
Seja T
2
= T
2
(X
1
, ..., X
n
) uma estatstica, tal que P(g() T
1
) = 1. Ento, T
2
cha-
mado de limite unilateral superior de conana para g().
Estimao Intervalar 38
Exemplo 5.1: Sejam X
1
, ..., X
n
um amostra aleatria de X N(, 9). Considere
Seja T
1
= T
1
(X
1
, ..., X
n
) = X
6

n
e T
2
= T
2
(X
1
, ..., X
n
) = X +
6

n
Ento [T
1
, T
2
] consititue um intervalo de conana
P
_
X
6

n
X +
6

n
_
= P
_
2
X
3

n
2
_
=(2) (2) = 0, 97720, 0228 = 0, 9544
Considerando uma amostra n = 16 e X = 18, temos T
1
= 16, 5 e T
2
= 19, 5
Assimcom95, 44%de conana o verdadeiro valor do parmetro est no intervalo [16, 5; 19, 5]
5.1 QUANTIDADE PIVOTAL
Denio 5.3 (Quantidade Pivotal): Sejam X
1
, ..., X
n
um amostra aleatria com funo de
densidade ou de probabilidade f (x|). Seja Q = q(X
1
, ..., X
n
; ), isto , Q um funo de
X
1
, ..., X
n
e . Se a distribuio de Q no depende de , ento Q uma quantidade pivotal.
Uma quantidade pivotal geralmente conter explicitamente os parmetros e as estatsticas.
A distribuio de probabilidade da quantidade pivotal tem que ser conhecida.
Exemplo 5.2: Sejam X
1
, ..., X
n
um amostra aleatria de X N(, 9). Considere
Seja Q
1
= X , ento Q
1
uma quantidade pivotal com distribuio N(0,
9
n
)
Seja Q
2
=
X
3

n
, ento Q
2
uma quantidade pivotal com distribuio N(0, 1)
Seja Q
3
=
X

, ento Q
3
no uma quantidade pivotal pois sua distribuio depende de ,
Q
3
N
_
0,
9

2
n
_
Denio 5.4 (Familia de locao e escala): Seja f
0
uma classe funes de densidade de
probabilidade. Ento:
A classe de modelos da forma f (x|) = f
0
(x ) chamado de familia de locao, em
que um parmetro de locao
A classe de modelos da forma f (x|) =
1

f
0
_
x

_
chamado de familia de escala, em que
um parmetro de escala
A classe de modelos da forma f (x|
1
,
2
) =
1

2
f
0
_
(x
1
)

2
_
chamado de familia de loca-
o e escala.
Estimao Intervalar 39
Quantidade pivotal para familia de locao e escala
Se f (x|) um modelo de locao ento Q =

um quantidade pivotal para
Se f (x|) um modelo de escala ento Q =

um quantidade pivotal para


Se f (x|
1
,
2
) um modelo de locao e escala ento Q =

2
um quantidade pivotal
para
1
5.1.1 Mtodo da Quantidade Pivotal
Se Q=q(X
1
, ..., X
n
; ) uma quantidade pivotal com funo de densidade de probabilidade,
ento:
Para cada = 1 xado, possvel encontrar q
1
e q
2
na distribuio de Q tal que
P(q
1
Q q
2
) =
sendo a distribuio de Q independente de , ento q
1
e q
2
tambm no dependem de
Se para cada possvel amostra existirem T
1
= T
1
(X
1
, ..., X
n
) e T
2
= T
2
(X
1
, ..., X
n
), tais que:
q
1
Q q
2
se e somente se T
1
T
2
ento [T
1
, T
2
] um intervalo de 100(1)% de conana para .
O procedimento geral para construo de intervalos de conana para um parmetro a
partir de um quantidade pivotal dado por:
1. Obter um quantidade pivotal Q
2. A partir da distribuio de Q, encontra os valores de q
1
e q
2
tais que
P(q
1
Q q
2
) = 1
3. Pivotar (inverter) a desigualde de forma a obter os valore de T
1
e T
2
P(q
1
Q q
2
) = [P(T
1
T
2
) = 1
Exemplo 5.3: Sejam X
1
, ..., X
n
um amostra aleatria da distribuio exp(). Construir um
intervalo de conana para
Primeiro vamos encontrar uma quantidade pivotal para . Considere

=
1
X
. Assim
Como =
1

um parmetro de escala temos: Q = X =



n
n

i=1
X
i
Estimao Intervalar 40
Como X exp(), ento
n

i=1
X
i
Gama(n, ). Assim Q Gamma(n, n)
Utilizando a quantidade pivotal Q = X, temos
P
_
q
1
X q
2
_
= 1
P
_
q
1
X

q
2
X
_
= 1
Os valores q
1
e q
2
so innitos, assim, estes valores devem ser obtidos de forma a ter
comprimento mnimo. Uma forma de se obter como quantis da distribuio gama de forma
que:
P[X q
1
] = P[X q
2
]
Assim
5.1.2 Intervalos para Populaes Normais - uma amostra
Os intervalos de conana para os parmetros da distribuio normal podem se obtidos a
partir das distribuies amostrais.
Sejam X
1
, ..., X
n
um amostra aleatria da distribuio N(,
2
) e seja X
n
a mdia amostral
e S
2
a varincia amostral, temos que:
z =
X
/

n
N(0, 1)
t =
X
S/

n
t
n1
U =
(n1)S
2

2

2
n1
Sejam X
1
, ..., X
n
um amostra aleatria da distribuio N(,
2
). Assumindo
2
conhecido
temos um quantidade pivotal para dados por:
Q(X; ) =
X
/

n
N(0, 1)
Estimao Intervalar 41
Assim
P
_
q
1

X
/

n
q
2
_
= 1
P
_
X q
2

n
X q
1

n
_
= 1
Como a distribuio N(0, 1) simtrica, o intervalo de menor comprimento q
1
= z
2
e
q
2
= z
2
Desta forma
P
_
X z
2

n
X +z
2

n
_
= 1
Sejam X
1
, ..., X
n
um amostra aleatria da distribuio N(,
2
). Sendo
2
desconhecido
temos um quantidade pivotal para dados por:
Q(X; ) =
X
S/

n
t
n1
Assim
P
_
q
1

X
S/

n
q
2
_
= 1
P
_
X q
2
S

n
X q
1
S

n
_
= 1
Como a distribuio t simtrica, o intervalo de menor comprimento q
1
= t
n1,

2
e q
2
=
t
n1,

2
Desta forma
P
_
X t
n1,

2
S

n
X +t
n1,

2
S

n
_
= 1
Estimao Intervalar 42
Sejam X
1
, ..., X
n
um amostra aleatria da distribuio N(,
2
). Sendo desconhecido
temos um quantidade pivotal para
2
dados por:
Q(X;
2
) =
(n1)S
2

2

2
n1
Assim
P
_
q
1

(n1)S
2

2
q
2
_
= 1
P
_
(n1)S
2
q
2

(n1)S
2
q
1
_
= 1
Considerando o intervalo simtrico temos que q
1
=
2
n1,

2
e q
2
=
2
n1,1

2
. Desta forma
P
_
(n1)S
2

2
n1,1

(n1)S
2

2
n1,

2
_
= 1
5.1.3 Intervalos para Populaes Normais - duas amostra
Sejam X
1
, ..., X
n
e Y
1
, ...,Y
m
duas amostras aleatrias independentes com X
i
N(
1
,
2
) e
Y
i
N(
2
,
2
). Seja X
n
e Y
m
as mdias amostrais e S
2
X
e S
2
Y
as varincias amostrais.
Seja D = X
n
Y
m
uma combinao linear de variveis aleatrias normais independentes,
temos que:
D tem distribuio N
_

2
,
_
1
n
+
1
m
__
z =
(X
n
Y
m
) (
1

2
)

_
1
n
+
1
m
tem distribuio N(0, 1)
Temos que
(n1)S
2
X

2

2
n1
(m1)S
2
Y

2

2
m1
Estimao Intervalar 43
Assim
U =
(n1)S
2
X
+(m1)S
2
Y

2

2
n+m2
Temos que
T =
(X
n
Y
m
)(
1

2
)

_
1
n
+
1
m

(n1)S
2
X
+(m1)S
2
Y

2
1
n+m2
t
n+m2
=
1

(X
n
Y
m
)(
1

2
)
_
1
n
+
1
m
1

_
(n1)S
2
X
+(m1)S
2
Y
n+m2
=
(X
n
Y
m
) (
1

2
)
_
1
n
+
1
m
1
_
(n1)S
2
X
+(m1)S
2
Y
n+m2
Assim
T =
(X
n
Y
m
) (
1

2
)
S
p
_
_
1
n
+
1
m
_
t
n+m2
Sendo:
S
p
=

(n1)S
2
X
+(m1)S
2
Y
n+m2
Sejam X
1
, ..., X
n
e Y
1
, ...,Y
m
duas amostras aleatrias independentes com X
i
N(
1
,
2
) e
Y
i
N(
2
,
2
). Sendo
2
conhecido temos um quantidade pivotal para D =
1

2
dados por:
Q(X; D) =
(X
n
Y
m
) (
1

2
)

_
1
n
+
1
m
Assim
P
_
_
q
1

(X
n
Y
m
) (
1

2
)

_
1
n
+
1
m
q
2
_
_
= 1
P
_
(X
n
Y
m
) z
2

_
1
n
+
1
m

1

2
(X
n
Y
m
) +z
2

_
1
n
+
1
m
_
= 1
Sejam X
1
, ..., X
n
e Y
1
, ...,Y
m
duas amostras aleatrias independentes com X
i
N(
1
,
2
) e
Y
i
N(
2
,
2
). Sendo
2
desconhecido temos um quantidade pivotal para D =
1

2
dados
Estimao Intervalar 44
por:
Q(X; D) =
(X
n
Y
m
) (
1

2
)
_
_
1
n
+
1
m
_
S
2
p
t
n+m2
Sendo S
p
=

(n1)S
2
X
+(m1)S
2
Y
n+m2
Assim
P
_
_
q
1

(X
n
Y
m
) (
1

2
)
_
_
1
n
+
1
m
_
S
2
p
q
2
_
_
= 1
P
_
(X
n
Y
m
) t
n+m2,

2
S
p

_
1
n
+
1
m
_

1

2
(X
n
Y
m
) +t
n+m2,

2
S
p

_
1
n
+
1
m
_
_
= 1
Sejam X
1
, ..., X
n
e Y
1
, ...,Y
m
duas amostras aleatrias independentes com X
i
N(
1
,
2
1
) e
Y
i
N(
2
,
2
2
). Seja X
n
e Y
m
as mdias amostrais e S
2
X
e S
2
Y
as varincias amostrais.
Seja D = X
n
Y
m
uma combinao linear de variveis aleatrias normais independentes,
temos que:
D tem distribuio N
_

2
,

2
1
n
+

2
2
m
_
z =
(X
n
Y
m
) (
1

2
)
_

2
1
n
+

2
2
m
tem distribuio N(0, 1)
Pela formula de aproximao de Satterthwaite temos que:
U =

_
S
2
X
n
+
S
2
Y
m
_

2
1
n
+

2
2
m

2

=
_
S
2
X
n
+
S
2
Y
m
_
2
_
S
2
X
n
_
2
n1
+
_
S
2
Y
m
_
2
m1
Assim
T =
Z
_
U

=
(X
n
Y
m
)(
1

2
)
_

2
1
n
+

2
2
m

_
S
2
X
n
+
S
2
Y
m
_

2
1
n
+

2
2
m

T =
(X
n
Y
m
) (
1

2
)
_
S
2
X
n
+
S
2
Y
m
t

Estimao Intervalar 45
Seja R =

2
1

2
2
a razo entre as varincias, temos que:

2
1
=
(n1)S
2
X

2
1

2
n1

2
2
=
(m1)S
2
Y

2
2

2
m1
F =

2
1
n1

2
2
m1
=
S
2
X

2
2
S
2
Y

2
1
F
(n1;m1)
Sejam X
1
, ..., X
n
e Y
1
, ...,Y
m
duas amostras aleatrias independentes com X
i
N(
1
,
2
1
) e
Y
i
N(
2
,
2
2
). Sendo
2
1
e
2
2
desconhecido temos um quantidade pivotal para D =
1

2
dados por:
Q(X; D) =
(X
n
Y
m
) (
1

2
)
_
S
2
X
n
+
S
2
Y
m
t

sendo =
_
S
2
X
n
+
S
2
Y
m
_
2
_
S
2
X
n
_
2
n1
+
_
S
2
Y
m
_
2
m1
Assim
P
_
_
q
1

(X
n
Y
m
) (
1

2
)
_
S
2
X
n
+
S
2
Y
m
q
2
_
_
= 1
P
_
(X
n
Y
m
) t
,

2
_
S
2
X
n
+
S
2
Y
m
_

1

2
(X
n
Y
m
) +t
,

2
_
S
2
X
n
+
S
2
Y
m
__
= 1
Sejam X
1
, ..., X
n
e Y
1
, ...,Y
m
duas amostras aleatrias independentes com X
i
N(
1
,
2
1
) e
Y
i
N(
2
,
2
2
). S
2
X
e S
2
Y
as varincias amostrais. Temos um quantidade pivotal para R =

2
1

2
2
dado por:
Q(X|R) =
S
2
X

2
2
S
2
Y

2
1
F
(n1;m1)
Assim
P
_
q
1

S
2
X

2
2
S
2
Y

2
1
q
2
_
= 1
P
_
1
q
2
S
2
X
S
2
Y


2
1

2
2

1
q
1
S
2
X
S
2
Y
_
= 1
Considerando um intervalo simtrico
P[X q
1
] = P[X q
2
] =

2
Estimao Intervalar 46
Teremos
q
1
= F
(n1;m1);

2
q
2
= F
(n1;m1);1

2
Assim
P
_
1
F
(n1;m1);1

2
S
2
X
S
2
Y


2
1

2
2

1
F
(n1;m1);

2
S
2
X
S
2
Y
_
= 1
Sejam(X
1
,Y
1
), ..., (X
n
,Y
n
) uma amostra aleatria comdistribuio normal bivariada
1
,
2
,
2
1
,
2
2
e =
Cov(X,Y)

2
1

2
2
. Seja D
i
= X
i
Y
i
, i = 1, ..., n em que D
i
iid com distribuio N(
1

2
,
2
1
+

2
2
2
1

2
), assim
D tem distribuio N
_

2
,

2
1
+
2
2
2
1

2
n
_
Considerando a estimao
D
=
1

2
com a estimao de uma mdia populacional
com varincia desconhecida, temos:
P
_
Dt
n1,

2
S
D

n
D+t
n1,

2
S
D

n
_
= 1
sendo D =
n

i1
D
i
n
S
D
=

_
n

i1
(D
i
D)
2
n1
6
TESTE DE HIPTESE
6.1 TEORIA DA DECISO
Teoria da deciso, como o nome diz, trata do problema de tomada de decises. A Teoria da
deciso estatstica se preocupa em tomada de decises na presena de conhecimento estatstico
que tenta controlar algumas das incertezas envolvidas no problema de deciso. A tomada de
deciso sob incerteza baseia-se em teoria da probabilidade. A maioria das situaes de tomada
de decises ocorre em situao de incerteza porque baseada nos dados de uma amostra pro-
veniente de uma populao. Assim, possvel a partir do uso de informaes de amostras fazer
inferncias sobre as quantidades desconhecidas (parmetros).
Os elementos bsicos de um problema de deciso so:
Espao de estados da natureza - representado pelo espao paramtrico
Espao dos resultados possveis de um experimento
Espao de possveis aes - considera-se um conjunto A de possveis aes (decises),
onde uma delas deve ser selecionada. Em problemas de estimao de parmetros temos
que A=
Funo de deciso - uma funo d : A.
Denio 6.1 (Funo Perda): A funo perda da ao a para o estado da natureza
dada por (, a), denida em A, satisfaz as seguintes propriedades:
a) (, a) 0, para todo e a A
b) (, a) = 0, quando a =
A funo perda representa a perda sofrida pela escolha da ao a A quando o estado da
natureza . As funes perdas mais comumente empregadas so:
Funo perda quadrtrica - (, a) = ( a)
2
Funo perda absoluta - (, a) =| a|
Teste de hiptese 48
Denio 6.2 (Funo Risco): A funo risco ou perda esperada correspondente ao pro-
cedimento (funo de deciso) d dada por:
R(, a) = E[l(, a)] =
_

(, a) f (x|)d
ou ainda como
R(, a) = E[l(, a)] =

x
(, a) f (x|)
Exemplo 6.1: Suponha que uma moeda apresenta cara com probabilidade igual a
1
3
ou
2
3
, ou seja, =
_
1
3
,
2
3
_
ento adequado tomar como espao das aes A=
_
1
3
,
2
3
_
.
Para obter informao sobre , o estatstico faz um lanamento da moeda e observa a va-
rivel aleatria X que denota o nmero de caras obtidas no lanamento. O espao amostral
associado ao experimento , portanto, = {0, 1}. Sendo 0 se coroa e 1 se cara. Nesse caso,
podemos denir ento quatro funes de deciso, d
1
, d
2
, d
3
e d
4
, que so dadas por
d
1
(0) =
1
3
, d
2
(0) =
1
3
, d
3
(0) =
2
3
, d
4
(0) =
2
3
d
1
(1) =
2
3
, d
2
(1) =
1
3
, d
3
(1) =
2
3
, d
4
(1) =
1
3
Considerando a funo perda (, a) =| a|. Temos a funo risco
R(, d) = (, d(0))P

[X = 0] +(, d(1)P

[X = 1]
Assim, temos os riscos
d =
1
3
=
2
3
d
1
1
9
1
9
d
2
0
1
3
d
3
1
3
0
d
4
2
9
2
9
Comparando os riscos
R(, d
1
) < R(, d
4
) para =
1
3
e =
2
3
R(, d
2
) < R(, d
1
) para =
1
3
e R(, d
1
) < R(, d
2
) para =
2
3
R(, d
1
) < R(, d
3
) para =
1
3
e R(, d
3
) < R(, d
1
) para =
2
3
Denio 6.3 (Princpio Minimax): Dizemos que o procedimento d
0
um procedimentos
minimax numa clase D de procedimentos, se
sup

R(, d
0
) = inf
dD
sup

R(, d)
Teste de hiptese 49
O princpio minimax compara o mximo dos riscos dos procedimentos, sendo o melhor o
que tiver o menor mximo.
Exemplo 6.2: No exemplo da moeda temos:
d =
1
3
=
2
3
maxR(, d)
d
1
1
9
1
9
1
9
d
2
0
1
3
1
3
d
3
1
3
0
1
3
d
4
2
9
2
9
2
9
Assim, o procedimento d
1
tem o menor risco mximo, nesse caso o procedimento mini-
max.
Exemplo 6.3: Seja X uma nica observao de uma varivel aleatria X com distribuio
de Poisson com parmetro . Considerando A = = (0, ), = {0, 1, 2, ...} , a classe das
funes de deciso D ={d; d(X) = cX}, onde c uma constante, e funo de perda dada por
(, a) =
( a)
2

Assim
R(, d) = E[(, d(X))] = E
_
( a)
2

_
= c
2
+(c 1)
2
Assim, a funo risco uma funo linear em :
Quando c = 1 temos que R(, d) = 1 para todo
Quando c > 1 temos que R(, d) quando
Desta forma o procedimento minimax quando c = 1
D ={d; d(X) = X}
6.2 TESTE DE HIPTESE
Na teoria de deciso estatstica, os testes de hipteses assumem uma importncia funda-
mental, j que estes permitem tomar decises sobre uma ou mais populaes baseando-se no
conhecimento de informaes da amostra. O teste de hiptese o procedimento que nos levar
a rejeitar ou no uma hiptese a partir das evidncias obtidas nos resultados amostrais.
Denio 6.4 (Hiptese Estatstica): Chamamos de hiptese estatstica qualquer armao
acerca da distribuio de probabilidades de uma ou mais variveis aleatrias
A formulao de suposies ou de conjeturas acerca das populaes so denominadas de
Hipteses Estatsticas. Essas suposies, que podem ser ou no verdadeiras, que podem ser:
Teste de hiptese 50
HIPTESE NULA - aquela Hiptese Estatstica, prexada, formulada sobre o parme-
tro populacional estudado, e sempre uma armativa. representada por H
0
.
HIPTESE ALTERNATIVA - So quaisquer hipteses que diram da Hiptese Nula.
Pode ser representada por H
1
ou H
a
Seja X
1
, ..., X
n
uma amostra aleatria da varivel aleatria X, com f.d.p. ou f.p. f (x|),
em que um parmetro desconhecido, denido em um espao paramtrico . Assim, as
hipteses podem ser denidas como
H
0
:
0
H
1
:
1
em que
0

1
= e
0

1
= 0. H
0
geralmente aquela que revela a informao que
detemos no momento em que se decide realizar o teste estatstico
As hipteses podem ser:
Simples - quando identica um valor exato para o parmetro
H
0
: =
0
H
1
: =
1
Composta - quando quando identica um conjunto de possibilidades para o domnio do
parmetro
H
0
: =
0
H
1
: =
0
H
0
: =
0
H
1
: >
0
H
0
: =
0
H
1
: <
0
H
0
:
0
H
1
: <
0
H
0
:
0
H
1
: >
0
Denio 6.5 (Teste de hiptese): Chamamos de teste de uma hiptese estatstica a funo
de deciso d : {a
0
, a
1
}, em que a
0
corresponde ao de considerar a hiptese H
0
como
verdadeira e a
1
corresponde ao de considerar a hiptese H
1
como verdadeira.
Um teste especicado particionando-se o espao amostral em dois subconjuntos.
A
0
={(x
1
, ..., x
n
) , d(x
1
, ..., x
n
) = a
0
}
A
1
={(x
1
, ..., x
n
) , d(x
1
, ..., x
n
) = a
1
}
A
0
A
1
= e A
0
A
1
= 0
Teste de hiptese 51
A
0
um subconjunto que contm os valores de X para os quais H
0
ser aceita, assim
denominado regio de aceitao. A
1
um subconjunto que contm os valores de X para os
quais H
1
ser rejeitada, assim denominado regio de rejeio ou regio crtica.
Geralmente, um teste de hiptese especicado em termos de uma funo da amostra
W(X
1
, ..., X
n
), denominada "estatstica de teste". A estatstica de teste obtida sobre o pres-
suposto de que H
0
verdadeira. Assim, sua distribuio tem que ser conhecida com base nesse
pressuposto. A partir da estatstica de teste possvel determinar a deciso a tomar, rejeitar ou
no H
0
. Assim, a estatstica de teste a funo de deciso do teste de hiptese.
Exemplo 6.4: Uma caixa contm duas moedas. Uma apresenta cara com probabilidade
p = 0, 5 (equilibrada) e a outra apresenta cara com probabilidade p = 0, 6. Uma moeda
escolhida aleatoriamente e lanada trs vezes.
Suponhamos que as hipteses de interesse so
H
0
: p = 0, 5
H
1
: p = 0, 6
Seja X
i
a varivel de Bernoulli que assume o valor 1 se ocorre cara no isimo lanamento
e 0 caso contrrio, i = 1, 2, 3. Considere a estatstica de teste W(X
1
, ..., X
3
) =
3

i=1
X
i
Assim,
(X
1
, X
2
, X
3
) X
1
+X
2
+X
3
(0, 0, 0) 0
(0, 0, 1) 1
(0, 1, 0) 1
(1, 0, 0) 1
(0, 1, 1) 2
(1, 0, 1) 2
(1, 1, 0) 2
(1, 1, 1) 3
Podemos considerar,
A
0
={(x
1
, ..., x
n
), x
1
+x
2
+x
3
< 2}
A
1
={(x
1
, ..., x
n
), x
1
+x
2
+x
3
2}
Sendo A
0
A
1
= e A
0
A
1
=.
Em um teste de hiptese
H
0
: A
0
H
1
: A
1
pode-se cometer um erro ao tomar uma deciso
Erros possveis de se cometer no processo de tomada de deciso
Teste de hiptese 52
Decises possveis Estados possveis
Ho verdadeira Ho falsa
Aceitao de Ho Deciso correta Erro do tipo II
Rejeio de Ho Erro do tipo I Deciso correta
Considerando as duas hipteses
H
0
: A
0
H
1
: A
1
Considerando a funo perda
_
(, d) = 0 se a deciso for correta
(, d) = 1 se a deciso for errada
Assim o risco ser:
R(, d(A
0
)) = E[(, d(A
0
))]
= 0.P[X A
0
| A
0
] +1.P[X A
1
| A
0
]
= P[X A
1
| A
0
] = = P[ Rejeitar H
0
|H
0
Verdadeira]
R(, d(A
1
)) = E[(, d(A
1
))]
= 0.P[X A
1
| A
1
] +1.P[X A
0
| A
1
]
= P[X A
0
| A
1
] = = P[Aceitar H
0
|H
0
Falsa]
Os riscos e so as probabilidades de se cometer os erros tipos I e II, respectivamente
Denio 6.6 (Funo Poder): A funo poder de um teste de hiptese com regio crtica
A
1
dada por
() = P[X A
1
| A
1
] = 1
em que a probabilidade de se cometer o erro tipo II
A funo poder por de descrita com a funo que associa a cada valor de a probabilidade
de rejeitar H
0
Exemplo 6.5: Seja X um varivel aleatria com distribuio binomial(5, ). Suponhamos
que as hipteses de interesse so
H
0
: 0, 5
H
1
: > 0, 5
Considerando as regras de deciso
d
1
: Rejeitar H
0
se, e somente se, todos os sucessos forem observados
Teste de hiptese 53
Figura 6.1: funo poder
d
2
: Rejeitar H
0
se, os sucessos forem iguais a 3, 4 ou 5.
Assim, temos
d
1
:
1
() = P[X A
1
| > 0, 5] = P[X = 5] =
5
d
2
:
2
() = P[X A
1
| > 0, 5] = P[X = 3, 4, ou 5]
= 6
5
15
4
+10
3
As probabilidades e no so complementares.
Em geral tenta-se minimizar a probabilidade
Assim, mais usual xar a probabilidade e escolher um teste que minimize tambm a
probabilidade
Denio 6.7 (Tamanho do teste): Seja um teste da hiptese, com H
0
: A
0
H
1
:
A
1
, e funo poder (), o tamanho do teste denido como
sup
A
0
() =
Denio 6.8 (Nvel do teste): Seja um teste da hiptese, com H
0
: A
0
H
1
: A
1
,
e funo poder (), o nvel do teste denido como
sup
A
0
()
Teste de hiptese 54
Exemplo 6.6: Sejam X
1
, ..., X
n
um amostra aleatria da distribuio N(, 25). Suponhamos
que as hipteses de interesse so
H
0
: 17
H
1
: > 17
Considerando a regra de deciso d: Rejeitar H
0
se X > 17+
5

n
Assim, a funo poder dada por:
() = P(X > 17+
5

n
| > 17)
= 1
_
17+
5

n
_
O tamanho do teste dado por:
sup
A
0
() = sup
17
_
1
_
17+
5

n
__
=
_
1
_
17+
5

n
17
5

n
__
= 1(1) = 0, 159
Como em geral o interesse em valores muito pequenos de , xando um valor para esta
probabilidade, teremos xado a mxima probabilidade de se cometer o erro tipo I. Fixando
um valor de possvel construir uma regra de deciso, e desta ser estabelecido o nvel de
signicncia do teste.
Exemplo 6.7: Um fornecedor garante que apenas 10% de sua produo apresenta defeito.
Para testar esta armao selecionado ao acaso 10 itens de um lote e contamos o nmero de
defeituosos. Seja X
i
a varivel de Bernoulli que assume o valor 1 se o item for defeituoso no
isimo e 0 caso contrrio, i = 1, 2, ..., 10. Considerando a estatstica W(X
1
, ..., X
10
) =
10

i=1
X
i
,
Teste de hiptese 55
temos que W tem distribuio binomial(10, ). Suponhamos que as hipteses de interesse so
H
0
: = 0, 10
H
1
: < 0, 10
Considerando = 0, 025, a partir desse valor vamos estabelecer a nossa regra de deciso.
Calculando a probabilidade para diferentes regies crticas,
P(W 1| = 0, 10) = 0, 6513
P(W 2| = 0, 10) = 0, 2639
P(W 3| = 0, 10) = 0, 0701
P(W 4| = 0, 10) = 0, 0127
Portanto, devemos rejeitar H
0
se o numero de itens defeituosos for maior ou igual a 4, nesse
caso quando a probabilidade inferior a .
A escolha do nvel de signicncia do teste completamente arbitrria e a a deciso de
aceitar ou rejeitar H
0
claramente depende desta escolha. Um enfoque alternativo consiste em
calcular uma quantidade chamada valor-p.
Denio 6.9 (valor-p): Seja W uma estatstica de teste e w o valor dessa estatstica obtido
a partir da amostra, ento um valor-p a probabilidade dada por:
P(W > w|
0
)
Se o valor-p for grande ento ele fornece envidncia de que H
0
verdadeira. Se o valor-p
for pequeno indica que evidncia nos dados contra H
0
. Assim, a idia comparar o valor-p com
, se valor p < deve-se rejeitar H
0
.
6.2.1 Testando hipteses simples
Sejam X
1
, ..., X
n
um amostra aleatria proveniente de uma funo de densidade ou de pro-
babilidade f (x|
0
) ou f (x|
1
), e queremos testar
H
0
: =
0
H
1
: =
1
Teste de hiptese 56
Neste caso o espao paramtrico = (
0
,
1
) contmapenas dois pontos. As probabilidades
dos dois tipo de erro so dadas por
= P(Rejeitar H
0
| =
0
)
= P(Aceitar H
0
| =
1
)
O objetivo obter um teste de hiptese que minimize e . Na prtica impossvel encon-
trar um teste que minimize e simultaneamente mas pode-se construir testes que minimizam
combinaes lineares destas probabilidades. Assim, para constantes positivas a e b queremos
encontrar um teste para o qual a() +b() seja mnima.
Denio 6.10 (Teste de razo de verossimilhana (TRV)): Sejam X
1
, ..., X
n
um amostra
aleatria proveniente de uma funo de densidade ou de probabilidade f (x|
0
) ou f (x|
1
).
Um teste H
0
: =
0
H
1
: =
1
denido com um teste de razo de verossimilhana,
denido por:
Se k Rejeita H
0
Se > k Aceita H
0
Em que
= (x
1
, ...x
n
) =
n

i=1
f (x
i
|
0
)
n

i=1
f (x
i
|
1
)
=
L(
0
|x)
L(
1
|x)
e k uma constante no negativa
Denio 6.11 (Teste Mais Poderoso (TMP)): Sejam X
1
, ..., X
n
um amostra aleatria pro-
veniente de uma funo de densidade ou de probabilidade f (x|
0
) ou f (x|
1
). Um teste de
H
0
: =
0
H
1
: =
1
denido como sendo um teste mais poderoso de tamanho , se e
somente se:
i)

(
0
) =
ii)

(
1
)

(
1
) para algum outro teste

em que

(
0
)
Teorema 6.1 (Lema de Neyman-Pearson): [<+-| alert@+>]
Seja X
1
, ..., X
n
um amostra aleatria proveniente de uma funo de densidade ou de pro-
babilidade f (x|
0
) ou f (x|
1
), e seja um teste de razo de verossimilhana em que
H
0
: =
0
H
1
: =
1
, assim
Se k (x
1
, ..., x
n
) A
1
Se > k (x
1
, ..., x
n
) A
0
Teste de hiptese 57
em que A
0
A
1
=
Ento o teste correspondente regio crtica A
1
um teste mais poderoso de tamanho
.
Exemplo 6.8: SejamX
1
, ..., X
n
umamostra aleatria comdistribuio exponencial(). Pretende-
se testar
H
0
: =
0
H
1
: =
1
Sendo
1
>
0
estabelecendo um TRV temos que:
=
L(
0
|x)
L(
1
|x)
=
n

i=1

0
e

0
x
i
n

i=1

1
e

1
x
i
=
_

1
_
n
e
n

i=1
x
i
(
1

0
)
< k
_

1
_
n
e
n

i=1
x
i
(
1

0
)
k
Assim,
e
n

i=1
x
i
(
1

0
)
k
_

0
_
n
n

i=1
x
i
(
1

0
) ln
_
k
_

0
_
n
_
n

i=1
x
i
< k
1
k
1
=
ln
_
k
_

0
_
n
_
(
1

0
)
Desta forma uma regra de deciso pode ser: Rejeita H
0
se
n

i=1
x
i
k
1
Como se X exp() e Y =
n

i=1
X
i
Gama(n, )
= P
_
n

i=1
x
i
k
1
| =
0
_
= F
y
(k
1
|n,
0
)
Supondo a seguinte hiptese
H
0
: = 1 H
1
: = 2
e = 0, 05 e n = 5, temos k
1
= 1, 9701, isso implica que deve-se rejeitar H
0
se
n

i=1
x
i
<
1, 9701, ou se < 229, 4961
Teste de hiptese 58
Exemplo 6.9: SejamX
1
, ..., X
n
umamostra aleatria comdistribuio bernoulli (). Pretende-
se testar
H
0
: =
0
H
1
: =
1
Sendo
0
<
1
estabelecendo um TRV temos que:
=
L(
0
|x)
L(
1
|x)
=
(
0
)
n

i=1
x
i
(1
0
)
(n
n

i=1
x
i
)
(
1
)
n

i=1
x
i
(1
1
)
(n
n

i=1
x
i
)
k
_

0
(1
1
)

1
(1
0
)
_
n

i=1
x
i
_
1
0
1
1
_
n
k
Assim
n

i=1
x
i
k
1
k
1
=
ln
_
k
_
1
1
1
0
_
n
_
ln
__

0
(1
1
)

1
(1
0
)
__
Como se X bernoulli() e Y =
n

i=1
X
i
Bin(n, )
= P
_
n

i=1
x
i
k
1
| =
0
_
= 1F
y
(k

1
|n,
0
)
Supondo a seguinte hiptese
H
0
: =
1
4
H
1
: =
3
4
= 0, 05 e n = 10 no h nenhuma regio crtica A
1
e constante k da forma dada no Lema de
Neyman Pearson
Teste de hiptese 59
k
1
F(k
1
) 1F(k

1
)
0 0,056314 1,000000
1 0,244025 0,943686
2 0,525593 0,755975
3 0,775875 0,474407
4 0,921873 0,224125
5 0,980272 0,078127
6 0,996494 0,019728
7 0,999584 0,003506
8 0,999970 0,000416
9 0,999999 0,000030
10 1,000000 0,000001
Considerando 0, 05, pode-se trabalhar com k
1
= 6, isso implica que deve-se rejeitar H
0
se
n

i=1
x
i
6

Anda mungkin juga menyukai