Anda di halaman 1dari 60

SUMRIO

1 Inferncia Estatstica 1
1.1 Conceitos Bsicos em Inferncia . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Estudo Inferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Amostragem e Inferncia . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Distribuio Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.4 Funes de Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4.1 Mtodo da Funo Distribuio . . . . . . . . . . . . . . . . . . . 5
1.2.4.2 Mtodo do Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4.3 Mtodo da Funo Geradora de Momentos . . . . . . . . . . . . . 5
1.2.5 Momentos Amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Desigualdade de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Lei Fraca dos Grandes Nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Distribuies Amostrais 8
2.1 Desigualdade de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Lei dos Grandes Nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Mtodos de Estimao 16
3.1 Estimao Pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.1.1 Mtodo da Mxima Verossimilhana . . . . . . . . . . . . . . . . . . . . 17
3.1.1.1 Mtodo da Mxima Verossimilhana -caso multiparamtrico . . . 19
3.2 Mtodo dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Mtodo dos Mmimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 24

4 Propriedades dos Estimadores 26


4.1 Consistncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Eficincia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2.1 Estatstica Suficiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5 Estimao Intervalar 37
5.1 Quantidade Pivotal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.1.1 Mtodo da Quantidade Pivotal . . . . . . . . . . . . . . . . . . . . . . . 39
5.1.2 Intervalos para Populaes Normais - uma amostra . . . . . . . . . . . . 40
5.1.3 Intervalos para Populaes Normais - duas amostra . . . . . . . . . . . . 42

6 Teste de hiptese 47
6.1 Teoria da Deciso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Teste de Hiptese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.2.1 Testando hipteses simples . . . . . . . . . . . . . . . . . . . . . . . . . 55
1

INFERNCIA ESTATSTICA

Latim: INFERENTIA. Ato de inferir (tirar por concluso). Admite-se uma proposio como
verdadeira, que no seja conhecida diretamente, atravs da relao dela com outras proposies
j sabidamente verdadeiras.
Inferncia estatstica o processo pelo qual pode-se tirar concluses acerca de um conjunto
maior (a populao) usando informao de um conjunto menor (a amostra). O objetivo prin-
cipal da Inferncia estatstica, estimar os parmetros populacionais (mdia, varincia etc),
deduzidos a partir da estatstica amostral correspondente.
Os procedimentos mais usuais para inferir algo sobre estes parmetros so:

Estimao pontual - o objetivo encontrar os valores do parmetro desconhecido.

Estimao por intervalos- o objetivo encontrar um intervalo que contenha o parmetro


de interesse com uma probabilidade especificada.

Testes de hipteses- o objetivo criar conjecturas sobre os valores possveis do parmetro


e verificar se, estas conjecturas, so muito ou pouco provveis (isto , testar as hipteses).

Definio 1.1 (Inferncia Estatstica): Seja X uma varivel aleatria com funo de den-
sidade de probabilidade (ou de probabilidade) que abreviamos por f.d.p (f.p) e denotamos por
f (x| ), em que um parmetro desconhecido. Chamamos de inferncia estatstica o pro-
blema que consiste em especificar um ou mais valores de , baseado em um conjunto de valores
de X

1.1 CONCEITOS BSICOS EM INFERNCIA

Definio 1.2 (Populao): O conjunto de valores de um caracterstica (observvel) asso-


ciada a uma coleo de indivduos ou objetos de interesse dito populao.

Definio 1.3 (Amostra Aleatria): Uma sequncia X1 , ..., Xn de n variveis aleatrias in-
dependentes e identicamente distribudas (i.i.d.) com funo de densidade (f.d.p.) ou, no caso
discreto, funo de probabilidade (f.p.) f (x| ) dita ser uma amostra aleatria de tamanho n
Inferncia Estatstica 2

da distribuo de X. Nesse caso, temos,


n
f (x1 , ..., xn | ) = f (x1 | )... f (xn | ) = f (xi | )
i=1

Definio 1.4 (Espao Parmetrico): O conjunto em que toma valores denominado


espao paramtrico.

Exemplo 1.1: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X N(, 2 ).
Assim,
= {(, 2 )| < < , 2 > 0}

Definio 1.5 (Estatstica): Qualquer funo da amostra que no depende de parmetros


desconhecidos denominada uma estatstica.

Definio 1.6 (Estimador): Qualquer estatstica que assuma valores em um estimador


para .

Exemplo 1.2: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ). A funes abaixo so estatsticas:

i) X(1) = min(X1 , ..., Xn )

ii) X(n) = max(X1 , ..., Xn )

ni=1 xi
iii) X =
n

1.2 ESTUDO INFERENCIAL

Para estudar alguma caracterstica da populao o ideal seria estudar cada indivduo da
populao. Entretanto entrar em contato com toda a populao seria caro e demorado. A
amostragem torna-se uma boa alternativa para estudar alguma caracterstica da populao. Os
mtodos inferncias so baseado em amostras aleatrias.

Definio 1.7 (Pesquisa Estatstica): qualquer informao retirada de uma populao ou


amostra, podendo ser atravs de Censo ou Amostragem

Definio 1.8 (Censo): Censo atividade de inspecionar (observar) todos os elementos de


uma populao, objetivando conhecer, com certeza suas caractersticas;

Definio 1.9 (Amostragem): Amostragem o processo de obter informaes dos "n"elementos


amostrais, no qual deve seguir um mtodo criterioso e adequado (tipos de amostragem).
Inferncia Estatstica 3

Fases do Estudo Inferencial:

Populao / Amostra

 
Parmetros o Estatsticas
Populacionais Inferncia da Amostra

1.2.1 Amostragem
A amostragem naturalmente usada em nossa vida diria. Exemplos:

Para verificar o tempero de um alimento em preparao, podemos provar (observar) uma


pequena poro.

Como o mdico detecta as condies de um paciente atravs de um exame de sangue.

Amostragem o processo de seleo de uma amostra, que possibilita o estudo das caracte-
rsticas da populao. Os objetivos principais de amostragem so fornecer dados que permitam
fazer inferncias para uma populao com base na anlise de uma amostra. Em se tratando de
amostra, a preocupao central que ela seja representativa. Para obter informaes atravs de
um levantamento amostral, temos imediatamente dois problemas:

Definir cuidadosamente a populao de interesse

Selecionar a caracterstica que iremos pesquisar.

Amostragem no-probabilsticas:

Critrio de escolha definido pelo investigador

No permitem a inferncia populacional (no-representativas)

No permitem a comprovao de hipteses

Amostragem probabilsticas:

Cada unidade amostral tem probabilidade igual de ser selecionada (base da amostra alea-
tria)

Permitem a inferncia populacional (representatividade populacional)

Amostragem no-probabilsticas:

Amostra de convenincia

Amostra intencional

Amostragem probabilsticas:
Inferncia Estatstica 4

Amostra aleatria simples

Amostra sistemtica

Amostra estratificada

Amostra por conglomerados

1.2.2 Amostragem e Inferncia


De uma dada populao pode-se retirar muitas amostras:

Amostra 1, Amostra 2,..., Amostra n

Entretanto quase sempre recolhido s uma amostra para estudar uma caracterstica X da
populao. Em uma amostra pode-se obter n observaes x1 , x2 , .., xn . Assim as observaes
x1 , x2 , .., xn so realizaes de n variveis aleatria X1 , X2 , ..., Xn que so "cpias"da varivel X.
Antes do processo de amostragem ser realizado temos n variveis aleatrias X1 , X2 , ..., Xn .
Depois de efetuado a amostragem temos um conjunto de dados que constituem a amostra ob-
servada x1 , x2 , .., xn . Assim temos que as variveis aleatrias X1 , X2 , ..., Xn so identicamente
distribudas e possuem a mesma distribuio de probalidade da caracterstica X em estudo da
populao.

1.2.3 Distribuio Amostral


Definio 1.10 (Distribuio amostral): Sejam X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ) e seja T = T (X1 , ..., Xn ) uma estatstica. A distribuio
de probabilidade de T denominada distribuio amostral

Em geral, temos interesse em saber a distribuio amostral de um estimador. Isto , dado


que = T (X1 , ..., Xn ) uma varivel aleatria temos interesse em saber o comportamento deste
estimador para a populao de todas as possveis amostras aleatrias de um dado tamanho n.
A distribuio amostral de uma estatstica T = T (X1 , ..., Xn ) pode ser definida a partir da
distribuio conjunta da amostra. Sendo X1 , X2 , ..., Xn uma amostra aleatria de uma populao
com funo densidade de probabilidade ou funo de probabilidade f (x1 , x2 , ..., xn | ), a funo
de distribuio acumulada de T , denotada por G(t| ), definida:

Para o caso contnuo


Z Z n
G(t| ) = P(T t) = ... f (xi| )dxi
i=1

Para o caso discreto


n
G(t| ) = P(T t) = f (xi | )
i=1
Inferncia Estatstica 5

1.2.4 Funes de Variveis Aleatrias


Dada uma varivel aleatria contnua X com f.d.p. ou f.p. f (x| ) e seja T = T (X1 , ..., Xn )
uma funo de Xi , tambm uma varivel aleatria. A definio da varivel T como funo
de X conhecida coma transformao de uma varivel aleatria. A palavra "transformao"
utilizada porque quando uma nova varivel aleatria T especificada como uma funo de uma
dada varivel aleatria X, ento a funo de distribuio F(x) fica transformada na funo de
distribuio da nova varivel T .
Assim, quando temos T = T (X1 , ..., Xn interessante conhecer a funo de distribuio e
f.d.p. ou f.p. da varivel aleatria T .

1.2.4.1 Mtodo da Funo Distribuio

Seja X uma varivel aleatria, com funo de distribuio FX (x). Qualquer funo Y = g(X)
tambm uma varivel aleatria.

FY (y) = P(Y y) = P(g(X) y)

Exemplo 1.3: Se X1 , ..., Xn uma amostra aleatria da varivel aleatria X independente e


indenticamente distribuda, com funo de densidade de probabilidade dada por:

f (x| ) = e x , x > 0

Considerando a estatstica T = mim{X1 , ..., Xn }, temos que T exp(n )

1.2.4.2 Mtodo do Jacobiano

1.2.4.3 Mtodo da Funo Geradora de Momentos

1.2.5 Momentos Amostrais


Definio 1.11 (Momentos Amostrais): Seja X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ). Ento:

O k-simo momento amostral definido por:


n
Xik
i=1
Mk0 =
n

O k-simo momento amostral centrado em torno de Xn definido por


n
(Xi Xn )k
i=1
Mk =
n
Inferncia Estatstica 6

em que Xn o primeiro momento amostral.

Teorema 1.1: Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ). Ento o valor esperado esperado do k-simo momento amostral igual ao k-simo
momento populacional.
E[Mk0 ] = k0

e tambm a varincia do k-simo momento amostral dada por


0 ( 0 )2
E[X 2k ] (E[X k ])2 2k
V [Mk0 ] = = k
n n
Definio 1.12 (Mdia Amostral): Seja X1 , ..., Xn uma amostra aleatria da varivel alea-
tria X, com f.d.p. ou f.p. f (x| ), ento
n
Xi
i=1
Xn =
n
definido como mdia amostral

Definio 1.13 (Varincia Amostral): Seja X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ), ento
n
(Xi Xn)2
i=1
Sn2 = para n > 1
n1
definido como varincia amostral

Teorema 1.2: Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ), com mdia e varincia 2 ento

2
E[Xn ] = Var[Xn ] =
n
Teorema 1.3: Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou
f.p. f (x| ), com mdia e varincia 2 ento
 
1 n3 4
E[Sn2 ] = 2 Var[Sn2 ] = 4
n n1
Inferncia Estatstica 7

1.3 DESIGUALDADE DE CHEBYSHEV

Teorema 1.4 (Desigualdade de Chebyshev): Seja X uma varivel aleatria com E[X] =
e varincia finita. Ento, para > 0

V (X) V (X)
P(|X | ) ou P(|X | < ) 1
2 2

1.4 LEI FRACA DOS GRANDES NMEROS

Teorema 1.5 (Lei Fraca dos Grandes Nmeros): Seja X1 , ..., Xn uma amostra aleatria da
varivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral ento para cada > 0

lim P |X n | < = 1
n

isto X n converge em probabilidade para

1.5 TEOREMA DO LIMITE CENTRAL

Teorema 1.6 (Teorema do Limite Central): Seja X1 , ..., Xn uma amostra aleatria da va-
rivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral, considere:
X n E[X n ] X n
Zn = p =
var[X n ] / n
Ento a distribuio de Zn aproxima-se da normal padro quando n
2

DISTRIBUIES AMOSTRAIS

Definio 2.1 (Distribuio amostral): Sejam X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ) e seja T = T (X1 , ..., Xn ) uma estatstica. A distribuio
de probabilidade de T denominada distribuio amostral

Em geral, temos interesse em saber a distribuio amostral de um estimador. Isto , dado


que = T (X1 , ..., Xn ) uma varivel aleatria temos interesse em saber o comportamento deste
estimador para a populao de todas as possveis amostras aleatrias de um dado tamanho n.

Teorema 2.1 (Distribuio da mdia amostral de uma populao normal): Seja X1 , X2 , ..., Xn
uma amostra aleatria de tamanho n de uma populao normal com mdia e varincia 2 e
seja X n a mdia amostral. Ento, X n tem distribuio normal com mdia e varincia 2 /n.

Demonstrao. Seja a funo geradora de momentos de X n


n " #
Xi n n n t 
h i i=1 Xi h Xi i
MX n (t) = E etX n = E et n = E et n = E et n = MX
i=1 i=1 i=1 n

Como cada Xi N(, 2 ) e a funo geradora de momento da normal dada por

2t 2
Mx (t) = et+ 2

Temos que
n 22
 22
n
nt + 2t nt + t2 2t 2
MX n (t) = e n 2 = e 2n = = et+ 2n
i=1

Assim X n N(, 2 /n)

Teorema 2.2: Seja X1 , X2 , ..., Xn uma amostra aleatria de tamanho n de uma populao
normal com mdia e varincia 2 e seja X n a mdia amostral e S2 a varincia amostral.
Ento X n e S2 so independentes.
Distribuies Amostrais 9

Teorema 2.3 (Distribuio Qui-quadrado): Seja X1 , X2 , ..., Xn variveis aleatrias indepen-


dente com distribuio normal e com mdia i e varincia i2 . Ento,

n  2
Xi i
U=
i=1 i

tem uma distribuio qui-quadrado com n graus de liberdade.


Xi i
Demonstrao. Seja Zi = , ento Zi N(0, 1), logo
i
n
U = Zi2
i=1

Seja a funo geradora de momentos de X n


" n # " #
t Zi2 n n h 2i
 tU  2
MU (t) = E e = E e i=1 = E etZi = E etZi
i=1 i=1

Mas
Z Z Z
tz2 1 1 1 (12t)z2 1
h 2i
21 z2 1 2
E etZ
= e e dz = e 2 dz = 2 e 2 (12t)z dz
2 2 2
0

Fazendo a substituio
r
z2 2u
u = (1 2t) z =
2 1 2t
du
du = (1 2t)zdz dz = p
2u(1 2t)

Assim,

Z
h 2i 1 1 1
E etZ
= p u 2 eu du
(1 2t)
0
1
 
1 1 1 1 1
= p =p =p
(1 2t) 2 (1 2t) (1 2t)

Desta forma
!n n
n n 
h 2i
tZi 1 1 1 2
MU (t) = E e =p = p =
i=1 i=1 (1 2t) (1 2t) (1 2t)

Assim U tem uma distribuio qui-quadrado com n graus de liberdade.


Distribuies Amostrais 10

Corolrio 2.1 (Distribuio Qui-quadrado): Seja X1 , X2 , ..., Xn uma amostra aleatria de


tamanho n de uma populao normal com mdia e varincia 2 e seja S2 a varincia amos-
tral. Ento,
(n 1)S2
U=
2
tem uma distribuio qui-quadrado com n 1 graus de liberdade.

Demonstrao.
n n
(Xi Xn )2
i=1 (Xi X n )2
(n 1)S2 (n 1) n1 i=1
U = = =
2 2 2
n
(Xi )2 n(X n )2
i=1
=
2
2 !2
n 
Xi Xn
=

i=1 n
n
= Zi2 Z 2
i=1

Assim temos:

n
Zi2 n2
i=1
Z 2 12

Desta forma a U a diferena de variveis aleatrias com distribuio qui-quadrado. Desta


forma U n1

Distribuio de S2
S2 uma funo linear de U, assim a densidade de S2 pode ser obtida da densidade de U
  n1
n1 2 1 n3 (n1)y
fS2 (y) =  n1 y 2 e 2 2 I(0,) (y)
2 2 2

e, com isso, S2 tem mdia 2 e varincia 4 /(n 1).

Teorema 2.4 (Distribuio t-student): Seja Z um varivel aleatria com distribuio nor-
mal com mdia 0 e varincia 1 e U uma varivel aleatria com distribuio Qui-quadrado com
Distribuies Amostrais 11

k graus de liberdade, e se Z e U so independentes. Ento:

Z
t=p
U/k

tem distribuio t de Student com k graus de liberdade.

Demonstrao. A distribuio conjunta de Z e U dada por:

1 1 2 1 k u
fZ,U (z, u) = e 2 z k u 2 1 e 2
2 2 2k

2
1 1 k 1 2
= k u 2 1 e 2 (u+z ) I[0,) (u)I(,) (z)
2 2 2 2k


Seja t = z e w = u. Ento:
u/k

r
w
z=t w=u
k

Desta forma temos: p


z z w 1 t r

w = k 2 wk w
J = tu =

u k
t w
0 1
Ento:
r
w 1 1 k
1 1 (w+t 2 wk )
fT,W (t, w) = k w2 e 2
k 2 2 2 k
2
2
 
1 1 1 k+1 1 1+ tk w
= 2 1 e 2 I[0,) (w)I(,) (t)
k+1
k 2 2 2k
w
2
 
1 1 1
Z
k+1
1 12 1+ tk w
fT (t) = k+1 w 2 e dw
k 2 2 2k 0


Fazendo a substituio

t2
 
1 2x
x = 1+ ww=  
2 k 1+ kt2

t2
 
1 2dx
dx = 1+ dw dw =  
2 k 1+ t
2
k
Distribuies Amostrais 12

Assim
k+1 1
2
1 1 1 2x 2dx
Z
fT (t) = k+1
  ex  
k 2 2 2k

t2 2
0 1+ k 1 + tk
 k+1
t2
 2 Z
1 1 k+1
= k
 1+ x 2 1 ex dx
k 2 k 0
k+1
 2
k+1

t2

2
=  1+
k 2k k

Logo t Tk

Corolrio 2.2 (Distribuio t-student): Seja X1 , X2 , ..., Xn uma amostra aleatria de tama-
nho n de uma populao normal com mdia e varincia 2 e seja X n a mdia amostral e S2
a varincia amostral, ento
X
t=
S/ n
tem distribuio t de Student com n 1 graus de liberdade.

Demonstrao. Se Xi N(, 2 ) ento X n N(, 2 /n). Assim,

X (n 1)S2 2
Z= N(0, 1) U = n1
/ n 2
Ento

X X
Z / n / n
t = p =q = q
U/n 1 (n1)S2
/n 1 S2
2 2
X

/ n X
= S
=

S/ n

Assim
X
t= tn1
S/ n

Teorema 2.5 (Distribuio F de Snedecor): Seja U e V variveis aleatrias independentes


com distribuio Qui-quadrado com m e n graus de liberdade, respectivamente. Ento:

U/m
X=
V /n
Distribuies Amostrais 13

tem distribuio F de Snedecor com m graus de liberdade no numerador e n graus de liberdade


no denominador.

Demonstrao. A distribuio conjunta de U e V dada por:

1 m u 1 n v
fU,V (u, v) = m m
 u 2 1 e 2 nn
 v 2 1 e 2
2 2
2 2 2
2

1 m n u+v
= m+n m
 n
 u 2 1 v 2 1 e 2 I[0,) (u)I[0,) (v)
2 2 2 2

Seja

U/m mXY
X = U =
V /n n
Y = V

Desta forma temos:


u u my mx
my
J = xv y n n =
=

v

0

n
x y 1
Ento:
my 1  mxy  m 1 n 1 mxy
2 1 e 2 ( n +y)
2
fX,Y (x, y) = m+n y
n 2 2 m n n
 
2 2
m 1  mx  m 1 m+n 1 mx
2 1 e 2 ( n +1)y I
2
= m+n y [0,) (x)I[0,) (y)
n2 2 m n n
 
2 2
1  m  m m Z m+n 1 mx
y 2 1 e 2 ( n +1)y dy
2
fX (x) = m+n m
 n x 2 1
2 2 2 2 n 0

Fazendo a substituio

1  mx  2w
w = + 1 y y = mx 
2 n n +1
1  mx  2dw
dw = + 1 dy dy = mx 
2 n n + 1

Assim
! m+n 1
mm 2
1 2w 2dw
Z
2 m
fX (x) = x 2 1 ew
m+n mx mx
 
m n n
 
2 2 2 2
0 n + 1 n +1
m
2 1
1 mm x
Z
m+n
2
= w 2 1 ew dw
m

2 n

n m
 m+n
2 0
2 n x+1
m+n m
x 2 1
 mm
2
= m
2 n
  m+n I[0,) (x)
2 2
n m
x + 1 2
n
Distribuies Amostrais 14

Logo X Fm,n

Corolrio 2.3 (Distribuio F de Snedecor): Sejam X1 , X2 , ..., Xm e Y1 ,Y2 , ...,Yn amostras


aleatrias de tamanho m e n provenientes de populao normais com mdia X e y e vari-
ncia 2 e sejam X n e Y n as mdias amostrais e SX2 e SY2 as varincia amostrais de X e Y ,
respectivamente, ento
S2
F = X2
SY
tem distribuio F com m 1 e n 1 graus de liberdade.

Demonstrao. Seja

(m 1)SX2 2 (n 1)SY2 2
U= m1 V = n1
2 2
Ento 2
(m1)SX
2 SX2
U/(m 1)
m1 2 SX2
X= = = =
V /(n 1) (n1)SY2 SY2 SY2
2 2
n1
Logo F Fm1,n1

Teorema 2.6 (Distribuio F de Snedecor): Seja X um varivel aleatria com distribuio


F com m e n graus de liberdade, ento
1
Y=
X
tem distribuio Y com n e m graus de liberdade.

2.1 DESIGUALDADE DE CHEBYSHEV

Teorema 2.7 (Desigualdade de Chebyshev): Seja X uma varivel aleatria com E[X] =
e varincia finita. Ento, para > 0

V (X) V (X)
P(|X | ) ou P(|X | < ) 1
2 2

2.2 LEI DOS GRANDES NMEROS

Muitas inferncias so vlidos quando o tamanho da amostra grande. Deste modo,


importante o estudo das distribuies de variveis aleatrias definidas para amostras grandes.
Introduziremos noo de convergncia para sequncias de variveis aleatrias e apresentaremos
a lei dos grandes nmeros e o teorema do limite central.
Distribuies Amostrais 15

Teorema 2.8 (Lei Fraca dos Grandes Nmeros): Seja X1 , ..., Xn uma amostra aleatria da
varivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral ento para cada > 0

lim P |X n | < = 1
n

isto X n converge em probabilidade para

2.3 TEOREMA DO LIMITE CENTRAL

Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X variveis aleatrias indepen-
dentes com a mesma distribuio, que se admite ter varincia finita (quase todas as distribuies
com interesse prtico tm varincia finita, pelo que esta condio no particularmente restri-
tiva).

Teorema 2.9 (Teorema do Limite Central): Seja X1 , ..., Xn uma amostra aleatria da va-
rivel aleatria X, com f.d.p. ou f.p. f (x| ), com mdia e varincia 2 e seja X n a mdia
amostral, considere:
X n E[X n ] X n
Zn = p =
var[X n ] / n
Ento a distribuio de Zn aproxima-se da normal padro quando n
3

MTODOS DE ESTIMAO

Estimao o processo que consiste em utilizar dados amostrais para estimar valores para
os parmetros populacionais desconhecidos. Assumindo que uma caracterstica dos elementos
numa populao pode ser representada por uma varivel aleatria X cuja funo de densidade
ou probabilidade f (x| ), , temos que:
um parmetro com valores desconhecidos. f (x| ) tem uma forma conhecida, exceto
pelo parmetro Como , sendo o espao paramtrico, temos uma familia de densida-
des, sendo cada valor de correspondente a um membro da familia.
Considerando x1 , ..., xn valores de uma amostra aleatria X1 , ..., Xn da varivel aleatria X,
com f.d.p. ou f.p. f (x| ) O objetivo a partir dos dados observados estimar um valor parmetro
.
As estatsticas amostrais so utilizadas como estimativas de um parmetro pode ser feita
por duas maneiras

Estimao pontual - consiste na estimativa um nica valor para o parmetro

Estimao intervalar - consiste na estimativa que especifica um intervalo de valores pos-


sveis, no qual se admite que esteja o parmetro .

Definio 3.1 (Estimao Pontual): Uma estimativa pontual de um parmetro desconhe-


cido um valor obtido a partir da amostra (atravs de uma estatstica) que se destina a
fornecer valores aproximados do parmetro.

Definio 3.2 (Estimador): Um estimador uma estatstica (i.e. funo da amostra) que
fornece estimativas pontuais.

3.1 ESTIMAO PONTUAL

Seja uma amostra aleatoria X1 , ..., Xn com f.d.p. ou f.p. f (x| ) O problema definir uma
estatstica T = T (X1 , ..., Xn ) de tal modo que, aps observarmos X1 = x1 , ..., Xn = xn , T =
T (X1 , ..., Xn ) seja uma boa estimativa pontual de Para definir a estatstica T = T (X1 , ..., Xn ),
utilizado mtodos de estimao, sendo os principais:

Mtodo da Mxima Verossimilhana


Mtodos de Estimao 17

Mtodo dos momentos

Mtodo dos Mnimos Quadrados.

3.1.1 Mtodo da Mxima Verossimilhana


Definio 3.3 (Funo de Verossimilhana): Se uma amostra aleatria X1 , ..., Xn so vari-
veis aleatrias independentes e identicamente distrudas (i.i.d) com f.d.p. ouf.p.) f (x| ), sua
funo de verossimilhana dada por:
n
L( ; x) = f (x1 , ..., xn | ) = f (x1 | )... f (xn | ) = f (xi | )
i=1

Definio 3.4 (Funo de Log-Verossimilhana): O logaritmo natural da funo de veros-


similhana denominado funo de log-verossimilhana e denotado por

l( ; x) = lnL( ; x)

A funo de densidade (ou de probabilidade) funo da varivel aleatria X, assumindo


que o parmetro conhecido.
Distribuio Poisson

x
f (x| ) = e , x = 0, 1, 2, 3, ..., 0
x!
Distribuio Normal

1 (x)2

f (x|, 2 ) = e 2 2 , < x <
2 2

A funo de densidade se torna uma funo de verossimilhana quando os valores da vari-


vel X so conhecidos e o valor de parmetro desconhecido
os valores da varivel X so conhecidos, a funo passa a depender do valor do parmetro
desconhecido
Distribuio Poisson - considerando X = 10

10
L( |X = 10) = e
10!
Distribuio Normal - considerando X = 2, 5

1 (2,5)2

L(, 2 |X = 2, 5) = e 2 2
2 2

A funo de densidade se torna uma funo de verossimilhana quando os valores da vari-


vel X so conhecidose o valor de parmetro desconhecido
Mtodos de Estimao 18

Definio 3.5 (Funo Escore): A funo escore, denotada por U( ), definida como a
primeira derivada da funo de log-verossimilhana em relao

l( ; x)
U( ) =

Definio 3.6 (Funo de Informao): A funo de informao, denotada por I( ), de-


finida como menos a segunda derivada da funo de log-verossimilhana em relao

2 l( ; x)
I( ) =
2
Definio 3.7 (Estimador de Mxima Verossimilhana): O estimador de mxima verossi-
milhana de o valor que maximiza a funo de verossimilhana L( ; x)

O valor de que maximiza a funo de verossimilhana L( ; x), tambm maximiza l( ; x),


assim pode-se utilizar a funo de log-verossimilhana. Como encontrar o estimador de mxima
verossimilhana

1. Encontrar a funo de verossimilhana L( ; x) e log-verossimilhana l( ; x);

2. Encontrar a funo Escore U( ) e iguala-la a zero para obter o estimador

3. Encontrar a funo de informao e verificar se o estimador ponto de mximo.

Exemplo 3.1 (Bernoulli): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
Bernoulli( ). Obter o estimador de mxima verossimilhana para .
Funo de probabilidade

f (x) = x (1 )1x , x = 0, 1 = ; 0 < < 1

Funo de verossimilhana e log-verossimilhana

n n
L( ; x) = i=1 xi (1 )ni=1 xi
!
n n
l( ; x) = xiln + n xi ln(1 )
i=1 i=1

Funo escore
n n
xi n xi
l( ; x) i=1 i=1
U( ) = =
1
Mtodos de Estimao 19

Igualando a funo escore a zero e resolvendo em relao , temos


n n n
xi n xi xi
i=1 i=1 i=1
= 0 =
1 n

Funo de Informao
n n
xi n xi
2 l( ; x) i=1 i=1
I( ) = = 2 + >0
2 (1 )2

Assim, o estimador de maxima verossimilhana dador por:


n
xi
i=1
=
n
Exemplo 3.2 (Uniforme continua): Sejam X1 , ..., Xn uma amostra aleatria da varivel ale-
atria X Uni f orme 21 , + 12 . Obter o estimador de mxima verossimilhana para .
 

Funo de probabilidade

1
f (x) = I (x), a x b
b a [a,b]
Funo de verossimilhana
n n
L( ; x) = I[ 12 , + 12 ](xi) = I[x(n) 12 ,x(1)+ 21 ]( )
i=1 i=1

Como a funo de verossimilhana constante no intervalo de x(n) 12 , x(1) + 12 , qualquer


 

ponto desse intervalo um estimado de maxima verossimilhana para


Assim, o estimador de maxima verossimilhana dador por:

1
= x(n)
2
1
= x(1) +
2
x(n) + x(1)
=
2

3.1.1.1 Mtodo da Mxima Verossimilhana -caso multiparamtrico

Definio 3.8 (Vetor Escore): O vetor escore, denotada por U( ), definida como as de-
rivadas parciais de primeira ordem da funo de log-verossimilhana em relao a cada i
 
l( ; x) l( ; x)
U( ) = , ...,
1 k
Mtodos de Estimao 20

Definio 3.9 (Matrix de Informao de Fisher): A matrix de informao, denotada por


I( ), definida como menos das derivadas parciais de segunda ordem da funo de log-
verossimilhana em relao a cada i
2 l( ;x) 2 ;x)
... l(

2
1 1 k
I( ) = .. .. ..

. . .

2 ;x) 2 l( ;x)
l(
... k2
k 1

Seja = (1 , 2 , ..., k ) um vetor de parmetros de dimenso k. O estimador de mxima


verossimilhana de 1 , 2 , ..., k ) so obtidos como solues das equaes:

L( ; x)
=0
i

Na obteno do estimador de mxima verossimilhana duas verificaes so importantes

i) verificar se a soluo esta em no espao paramtrico

ii) verificar se a soluo mximo local de l( ; x)

Para verificar a condio ii, suficiente que U( ) = 0 e que a matriz de informao de fisher
I( ) seja positiva definida

a11 a12 ... a1n
a21 a22 ... a2n

Uma matriz A = .. .. . . positiva definida se as submatrizes A1 , A2 , A3 , ...An
..
. . . .
an1 an2 ... ann
tm determinantes forem positivos.
" # a11 a12 a13
a11 a12
Sendo: A1 = [a11 ], A2 = , A3 = a21 a22 a23 ,..., An = A

a21 a22
a31 a32 a33
Exemplo 3.3 (Normal): Vetor Escore
n
1
" l(, 2 ;x) # 2 (xi )
i=1
U(, 2 ) = =

l(, 2 ;x)

n
2 2n 2 + 2(12 )2 (xi )2
i=1

n
Igualando o vetor score a zero e resolvendo em relao 2
1 n
xi e , temos
i=1
(xi ) = 0 =
2 i=1 n
=X
n

n 1 n (xi X)2
i=1
+ (xi )2 = 0 2 =
2 2 2( 2 )2 i=1 n
Mtodos de Estimao 21

Matriz de Informao
n
(xi )
n i=1
2 l(, 2 ;x) 2 l(, 2 ;x)

2 ( 2 )2
2 2
I(, 2 ) = 2 l(,

2 ;x) 2 l(, 2 ;x)
=



2 ( 2 )2
n n
2
(xi ) (x )

i
i=1
( 2 )2
2(n2 )2 + i=1 ( 2 )3

n
(n1) (xi )2 2
i=1
|A1 | = n2 > 0 |A2 | = ( 2 )4
2(n 2 )3 > 0
Assim, o estimador de maxima verossimilhana dador por:
n
xi
i=1
= =X
n
n
(xi X)2
i=1
2 =
n
Teorema 3.1 (Princpio da invarincia): SejamX1 , ..., Xn uma amostra aleatria da varivel
aleatria X com funo de densidade (ou de probabilidade) f (x| ). Se um estimador de
mxima verossimilhana de , ento g( ) um estimador de mxima verossimilhana de g( ).

Demonstrao. Seja g(.) uma funao 1:1, ou seja g(.) inversvel, de modo que = g1 (g( )).
Seja L( |x) uma funo de verossimilhana. Assim

L( |x) = L g1 (g( )) |x


de modo que maximiza os dois lados da equao. Logo


 
= g1 g(
d)

Portanto
d) = g( )
g(

ou seja, o estimador de mxima verossimilhana de g( )

Exemplo 3.4: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X N(, 2 ),
n
(xi X)2
i=1
ento o estimador 2 = 2 = n . Assim, o estimador do desvio padro = 2
v
u n
u (x X)2
t i
dado por = i=1 n
Mtodos de Estimao 22

3.2 MTODO DOS MOMENTOS

Definio 3.10 (Momentos Populacionais): Se X uma varivel aleatria, o r-simo mo-


mento de X definido como, denotado por r , definido como

r = E[X r ]

Definio 3.11 (Momentos Amostrais): Seja X1 , ..., Xn uma amostra aleatria da varivel
aleatria X, com f.d.p. ou f.p. f (x| ). Ento o r-simo momento amostral, denotado por mr ,
definido por:
n
Xir
i=1
mr =
n
Definio 3.12 (Estimador pelo Mtodo dos Momentos): O estimador pelo mtodo dos
momento de o valor se ele for soluo das equaes

r = mr , r = 1, 2, 3, ..., k

Exemplo 3.5 (Bernoulli): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
Bernoulli( ). Obter o estimador pelo mtodo dos momentos para .
Funo de probabilidade

f (x| ) = x (1 )1x , x = 0, 1 = ; 0 < < 1

Momentos populacionais
E[X] = 1 =

Assim,
n
Xi
i=1
u1 = m1 =
n
Exemplo 3.6 (Normal): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
N(, 2 ). Obter o estimador pelo mtodo dos momentos para e 2 .
Funo de densidade

1 (x)2
2
f (x|, ) = e 2 2 , x R, R, 2 > 0
2 2
Mtodos de Estimao 23

Momentos populacionais

E[X] = 1 =
V (X) = 2 E[X 2 ] (E[X])2 = 2
E[X 2 ] = 2 + (E[X])2 2 + 2
2 = 2 + 12

Assim,
n
Xi
i=1
1 = m1 = =X
n
ni=1 Xi2
2 = m2 2 + 12 =
n
n
(Xi X)2
i=1
2 =
n
Mtodo dos Momentos
Exemplo 3.7 (Gama): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
Gama( , r). Obter o estimador pelo mtodo dos momentos para e r.
Funo de densidade

f (x| , r) = ( x)r1 e x x 0, > 0, r > 0
(r)

Momentos populacionais
r r
E[X] = 1 =

r r
V (X) = 2
E[X 2 ] (E[X])2 = 2

r r  r 2
E[X 2 ] = + (E[X])2 = 2 +
2
r  r 2
2 = +
2
Assim,
Mtodos de Estimao 24

r
Xi
i=1
1 = m1 =
n
r
= X r = X

n

r
 2
r
Xi2
i=1
2 = m2 + =
2 n
2
X X
= n r = n
2
(xi X) (xi X)2
i=1 i=1
n
n

3.3 MTODO DOS MMIMOS QUADRADOS

Sejam Y1 , ...,Yn uma amostra aleatria tal que:


E(Yi | ) = g( ) e V (Yi | ) = 2

Neste caso a mdia de cada Yi uma funo do parmetro e a varincia constante. Uma forma
equivalente
Yi = g( ) + ei

Sendo ei uma varivel aleatria denominada erro para cada observao


ei = Yi g( )

Assim
E(ei ) = 0 e V (ei ) = 2

Definio 3.13 (Soma de Quadrados de Erros): A soma de quadrado de erros, denotada


por SQE( ), definida pela expresso abaixo
n
SQE( ) = (Xi g( ))2
i=1

Definio 3.14 (Estimador de Mnimos Quadrados): O estimador de mnimos quadrados


de o valor se ele for soluo da equao

SQE( )
=0

Exemplo 3.8 (Regresso Linear): Sejam X1 , ..., Xn e Y1 , ...,Yn amostras aleatrias e sabe-
se que os valores de Y so afetados linearmente pelos valores da X. Assim o modelo linear
Mtodos de Estimao 25

especificado dado por:


Yi = 1 + 2 Xi + ei

Determinar os estimadores de mnimos quadrados dos parmetros 1 e 1 , com base em n


observaes (Yi , Xi ).
O erros das observaes so dados por:
ei = Yi 1 2 Xi

Assim a soma de quadrado dada por:


n
SQE(1 , 2 ) = (Yi 1 2 Xi )2
i=1

Fazendo as derivas em relao a 1 e 2 , temos:


n
SQE(1 , 2 )
= 2 (Yi 1 2 Xi )
1 i=1
n
SQE(1 , 2 )
= 2 Xi (Yi 1 2 Xi )
2 i=1

Resolvendo as equaes em relao a 1 e 2 , temos:


1 = Y 2 X
n
XiYi nXY
i=1
2 = n
2
Xi2 nX
i=1
4

PROPRIEDADES DOS ESTIMADORES

Existem vriose estimadores para um certo parmetro. Assim surge as seguintes perguntas:

O que um bom estimador?

Como escolher entre os vrias estimadores existentes?

Quais sero os critrios usados para comparar estimadores e caracterizar os bons estima-
dores?

As principais qualidades de um estimador devem ser:

Ausncia de vcio (estimador no-viciado);

Consistncia (estimador consistente);

Eficincia (estimador de varincia mnima);

Suficincia (estimador suficiente).

Definio 4.1 (Estimador no-viesado): Um estimador dito no-viesado (viciado) para


se E[ ] = , para todo

Definio 4.2 (Vis ou Vicio): O vis de um estimador , denotado por B( ), definido


como
E[B( ) = ]

Definio 4.3 (Estimador assintoticamente no-viesado): Um estimador dito ser assin-


toticamente no-viesado (viciado) se lim B( ) = 0, para todo
n

Definio 4.4 (Erro Quadrtico Mdio (EQM)): O erro quadrtico mdio de um estimador
dado por:
EQM[ ] = E ( )2
 
Propriedades dos Estimadores 27

O EQM medida de da qualidade do estimador, sendo uma composio da varincia e vis


do estimador.
 2
EQM[ ] = V ( ) + B( )

Para estimador no-viesados o EQM coincide com a varincia do estimador

EQM[ ] = V ( )

O Erro quadrtico mdio comumente empregado para comparar dois estimadores 1 e 2 .


1 ser o melhor estimador se 2

EQM[1 ] EQM[2 ]

Exemplo 4.1 (Normal): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
N(, 2 ). Temos que o estimador de maxima verossimilhana de e 2 so dados por:
n n
xi (xi X)2
i=1 i=1
= =X 2 =
n n
Para o estimador de mu temos que
n

  Xi
i=1
E X = E
=
n

  1 n 2
V X = V [Xi ] =
n2 i=1 n

Assim, X um estimador no-viesado para


Com relao ao estimador da varincia temos que:
n

(X X)2
i
i=1
E 2 = E
 

n

" # " #
n n
1 1
= 2E
n (Xi X)2 = 2E
n (Xi )2 n(X )2 =
i=1 i=1
! !
n n
1 1
E (Xi )2 nE (X )2 = n2
   
= 2
n V (Xi) nV (X)
i=1 i=1
2
 
1 2 n1 2
= 2 n n =
n n n
Propriedades dos Estimadores 28

Assim 2 um estimador viesado para 2 , sendo o vis dado por:

n1 2 2
B( 2 ) = 2 =
n n

Fazendo lim B( 2 ) = 0, verificamos que 2 assintoticamente no-viesado


n
A varincia do estimador 2 dada por
n n

(Xi X)2 2 (Xi X)2
= V (n 1) i=1
2
i=1
V [ ] = V

(n 1) 2

n n

4 (n 1)S2
 
= V
n2 2

Como
(n 1)S2 2
2
n1

Ento

4 (n 1)S2
 
= V
n2 2
4
= 2(n 1)
n2
2(n 1) 4
=
n2
Assim o EQM dado por:
2
2

2 2(n 1) 4 2n 1 4
EQM[ ] = 2
+ =
n n n2

Para obter um estimador no viesado para 2 que seja funo de 2 , temos


n
g( 2 ) = 2
n1
Assim  
n 2 n
E 2 = 2
 
E =
n1 n1
g( 2 ) um estimador no-viesado para 2 , sendo que:
n
(Xi X)2
n i=1
g( 2 ) = 2 = = S2
n1 n1
Propriedades dos Estimadores 29

Desta forma S2 um estimador no-viesado para 2 e sua varincia dada por:

(n 1) 2 2 4 (n 1)S2
   
2
V [S ] = V S = V
(n 1) 2 (n 1)2 2
4 2 4
= 2(n 1) =
(n 1)2 n1

4.1 CONSISTNCIA

Definio 4.5 (Estimador Consistente): Sejam X1 , ..., Xn uma amostra aleatria da varivel
aleatria X que depende do parmetro . Um estimador = (X1 , ..., Xn ) dito consistente
para o parmetro se
 
lim P | | = 0
n

Para verificar essa propriedade em geral utiliza-se a desigualdade de Chebychev.


Consistncia no implica em no-vis assinttico.
As condies gerais para a consistncia de um estimador so:

lim E[ ] = lim V [ ] = 0
n n

Exemplo 4.2 (Normal): Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X
N(, 2 ). Considerando X e S2 estimadores para e 2 ,verificar a consistncia dos estimado-
res
Pela desigualdade de Chebychev, temos que:

  V (X) 2
P |X | =
2 n 2
  2
lim P |X | lim 2 = 0
n n n

Assim X consistente para


Para S2 pela desigualdade de Chebychev, temos que:

V (S2 ) 2 4
P |S2 2 |
 
=
2 (n 1) 2
2 4
lim P |S2 2 | lim
 
=0
n n (n 1) 2

Assim S2 consistente para 2


Propriedades dos Estimadores 30

4.2 EFICINCIA

Definio 4.6 (Informao de Fisher): O informao de Fisher, denotado por IF ( ), de-


finida a como : "  #
l( ; x) 2
IF ( ) = E

Propriedade da funo escore e da Informao de Fisher

A mdia da funo escore 0,


E [U( )] = 0

A informao de Fisher de igual a varincia da funo escore


" 2 #
l( ; x)
V [U( )] = E (U( ))2 = E
 
= IF ( )

Se a verossimilhana duas vezes diferencivel ento a informao de Fisher tambm


pode ser obtida como
" 2 #  2 
l( ; x) l( ; x)
IF ( ) = E =E
2

Teorema 4.1 (Desigualdade Informao ou Desigualdade de Cramr-Rao): Sejam X1 , ..., Xn


uma amostra aleatria da varivel aleatria X e um estimador no-viesado de . Sob con-
dies de regularidade
1
V [ ]
IF ( )
Demonstrao. Considerando X1 , ..., Xn variveis aleatrias contnuas com funo de verosimi-
lhana L( |X) e funo de log-verosimillhana l( |X).
Seja a funo escore U( ), definida por:

l( |X) lnL( |X) 1 L( |X)


U( ) = = =
L( |X)
1 L( |X)
U( ) =
L( |X)
L( |X)
= U( )L( |X)

um estimador no-viesado de , ento E[ ] = . Assim

Z Z
E[ ] = L( |X)dx1 . . . dxn =

Propriedades dos Estimadores 31

Fazendo a derivada a esperaa temos:

Z Z
E[ ]
= L( |X)dx1 . . . dxn =


Z Z
L( |X)
= dx1 . . . dxn = 1


Z Z
= U( )L( |X)dx1 . . . dxn = 1

= E[U( )] = 1

Mas como

E[U( )] = 0
V [U( )] = IF ( )

Temos que:

Cov( ,U( )) = E[U( )] E[ ]E[U( )]


Cov( ,U( )) = E[U( )] = 1

Assim, verificando a correlao entre e U( ), temos que

2 ( ,U( )) 1
Cov( ,U( ))
2 ( ,U( )) =
V ( )V (U( ))
1
=
V ( )IF ( )
1
1
V ( )IF ( )
1
V ( )
IF ( )

A parte direita de desigualdade denominada cota inferior de Cramer-Rao e expressa uma


cota inferior para a varincia de um estimador no-viesado.
Propriedades dos Estimadores 32

Definio 4.7 (Eficincia): A eficincia de um estimador , no viesado para o parmetro


dada pelo quociente
LI( )
e( ) =
V [ ]
sendo 1
LI( ) =
IF ( )

Definio 4.8 (Estimador Eficiente): Um estimador dito eficiente se for no viesado e


sua varincia atingir o limite inferior da desigualdede de Cramer-Rao para todos os possveis
valores de .

Se V [ ] = LI( ) ento e( ) = 1

Definio 4.9 (Estimador No-Viesado de Varincia Uniformemente Mnima (ENVVUM)):


Sejam X1 , ..., Xn uma amostra aleatria da distribuio da varivel aleatria X com funo de
densidade (ou de probabilidade) f (x| ). Um estimador T = t(X1 , ..., Xn ) de g( ) dito ser um
estimador no-viesado de varincia uniformemente mnima de g( ) se, somente se,

i) E[T ] = g( ), isto um estimador no-viesado para g( ), e

ii) V [T ] V [U] para qualquer outro estimador U no-viesado de g( )

Se varincia de um estimador atingir o limite inferior da desigualdade de Cramer-Rao,


ento o estimador um ENVVUM.

Exemplo 4.3: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X Bernoulli( ),
n
xi
i
e seja = n um estimador para .

A Varincia do estimador
n n
xi n xi
l( ; x) i=1 i=1
V [ ] = =
1

Funo escore
n n
xi n xi
l( ; x) i=1 i=1
U( ) = =
1
Funo de Informao
n n
xi n xi
2 l( ; x) i=1 i=1
I( ) = = +
2 2 (1 )2
Propriedades dos Estimadores 33

Informao de Fisher
n
n
i xi n i=1
xi
n
IF I( ) = E[I( )) = 2 +

2
=
(1 ) (1 )

Assim temos que eficiente e ENVVUM :

1
V [ ] =
IF I( )

4.2.1 Estatstica Suficiente


Definio 4.10 (Princpio da Suficincia): Seja X uma varivel aleatria e seja T (.) uma
estatstica obtida como funo dos valores amostrais de X, assim,

T (X1 , ..., Xn ) suficiente para , ento qualquer inferncia sobre depender apenas da
amostra X1 , ..., Xn somente atravs de T (X1 , ..., Xn ).

Isto dadas duas realizaes amostrais distintas X1 , ..., Xn e X10 , ..., Xn0 , tais que

T (X1 , ..., Xn ) = T (X10 , ..., Xn0 )

ento as inferncias sobre so as mesmas, independente de observamos X1 , ..., Xn ou


X10 , ..., Xn0 .

Definio 4.11 (Estatstica suficiente): Dizemos que a estatstica T (X1 , ..., Xn ) suficiente
para , quando a distribuio condicional de X1 , ..., Xn dado T for independente de

Exemplo 4.4: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X Bernoulli( ).
n
Verificar se T = Xi suficiente para
i=1

P[X1 = x1 , ..., Xn = xn , T = t]
f (X1 , ..., Xn = xn |T = t) =
P[T = t]
P[X1 = x1 , ..., Xn = xn ]
= n t nt
t (1 )
t (1 )nt
= n t nt
t (1 )
1
= n
t

n
Assim, T = Xi suficiente para
i=1
Propriedades dos Estimadores 34

Exemplo 4.5: Sejam X1 , X2 , X3 uma amostra aleatria de tamanho 3 da varivel aleatria


n
X Bernoulli( ). Verificar se T = X1 X2 + X3 suficiente para
i=1
As probabilidades condicionais podem ser calculadas da seguinte forma:

P[X1 = 0, X2 = 0, X3 = 0, T = 0]
f (X1 = 0, X2 = 0, X3 = 0|T = 0) =
P[T = 0]
p(1 p)3
=
(1 p)3 + 2(1 p)2 p

Sendo

P[T = 0] = P[X1 = 0X2 = 0, X3 = 0] + P[X1 = 0, X2 = 1, X3 = 0] +


+P[X1 = 1, X2 = 0, X3 = 0]

Assim
(X1 , X2 , X3 ) T f (X1 , X2 , X3 |T )
1 p
(0, 0, 0) 0
1+ p
1 p
(0, 0, 1) 1
1 + 2p
p
(0, 1, 0) 0
1+ p
p
(1, 0, 0) 0
1+ p
p
(0, 1, 1) 1
1 + 2p
p
(1, 0, 1) 1
1 + 2p
p
(1, 1, 0) 1
1 + 2p
(1, 1, 1) 2 1

Como a distribuio de depende conclui-se que T no uma estatstica suficiente para

Teorema 4.2 (Critrio da Fatorao): Sejam X1 , ..., Xn uma amostra aleatria da distribui-
o da varivel aleatria X com funo de densidade (ou de probabilidade) f (x| ), em que e a
funo de verosimilhana L( |x). Temos, ento, que a estatstica T = T (X1 , ..., Xn ) suficiente
para , se e somente se pudermos escrever

L( |x) = h(x1 , ..., xn )g (T (x1 , ..., xn ))

em que h(x1 , ..., xn ) uma funo que s depende de x1 , ..., xn e g (T (x1 , ..., xn )) uma funo
que depende de e de x1 , ..., xn somente atravs da funo t. As funes h e g so funes
no-negativas.
Propriedades dos Estimadores 35

Demonstrao. Suponha que T = T (X1 , ..., Xn ) uma estatstica suficiente para .


Seja

g (T (x1 , ..., xn )) = P [T = t]
h(x) = P[X = x|t = t]

Como T suficiente temos que h(x) no depende de


Considerando:

L( |X) = P [X = x] = f (X| )
P [X = x] = P [T = t]P[X = x|t = t]
L( |X) = g (T (x1 , ..., xn ))h(x)

Exemplo 4.6: Sejam X1 , ..., Xn ma amostra aleatria da varivel aleatria X Poisson( ).


Temos que
n n
xi 1 n
L( |x) = en = en i=1 xi
i=1 xi ! i=1 xi !

Tomando

n
1 nx
h(x1 , ..., xn ) = e g (T (x1 , ..., xn )) = en i=1 i

i=1 xi !

n
Temos, pelo critrio da fatorao, temos que T = Xi suficiente para .
i=1

Teorema 4.3 (Critrio da Fatorao - caso multiparamtrico): Sejam X1 , ..., Xn uma amostra
aleatria da distribuio da varivel aleatria X com funo de densidade (ou de probabili-
dade) f (x| ), em que pode ser um vertor, e a funo de verosimilhana L( |x). Seja as
estatstica Ti = ti (X1 , ..., Xn ), com i = 1, 2, ..., r. Ento a estatstica T = (T1 , T 2, ...Tr ) conjun-
tamente suficiente para , se e somente se pudermos escrever

L( |x) = h(x1 , ..., xn )g (T1 (x), ..., Tr (x))

em que h(x1 , ..., xn ) uma funo que s depende de x1 , ..., xn e g (T1 (x), ..., Tr (x) uma funo
que depende de e de x1 , ..., xn somente atravs das funes t1 , ...,tn . As funes h e g so
funes no-negativas.

Exemplo 4.7: Sejam X1 , ..., Xn uma amostra aleatria da varivel aleatria X N(, 2 ).
Temos, ento que = (, 2 ). Nesta caso, a funo de verossimilhana pode ser escrita como:
Propriedades dos Estimadores 36

n n
2 1 (x )2

2 1 2 2 i=1 i
L(, ; x) = e
2 2
 n n n 2
1 2 1 21 2 xi2 + 2 xi2 n 2
= n e
i=1 i=1
2 2
com < < e 2 > 0

Sendo
 n 1 n 2 n 2 2
1 2 x + x n 2
2 2 i=1 i 2 i=1 i
h(x1 , ..., xn ) = g (t1 (x),t2 (x)) = e
2

Assim, pelos critrio da fatorao temos que a estatstica T = (ni=1 Xi , ni=1 Xi2 ) conjun-
tamente suficiente para = (, 2 ).
5

ESTIMAO INTERVALAR

A Inferncia Estatstica tem como objetivo obter informaes para uma populao a partir
do conhecimento de uma amostra. Uma caracterstica dos elementos numa populao pode ser
representada por uma varivel aleatria X cuja funo de densidade ou probabilidade f (x| ).
A partir de uma amostra aleatria X1 , ..., Xn da varivel aleatria X, possvel obter estimativas
pontuais para o parmetros . A estimao pontual tem a restrio de no apresentar a mag-
nitude do erro cometido ao atribuirmos ao parmetros a estimativa observada. Na estimao
importante que se d alguma informao sobre a possvel variabilidade do estimador. Assim,
razovel estabelecermos um intervalo que contenha, com uma certa confiana, o verdadeiro
valor do parmetro desconhecido. Um intervalo de confiana (IC) um intervalo estimado de
um parmetro de interesse de uma populao. Intervalos de confiana so usados para indicar a
confiabilidade de uma estimativa.

Definio 5.1 (Intervalo de Confiana): Sejam X1 , ..., Xn um amostra aleatria com funo
de densidade ou de probabilidade f (x| ). Sejam T1 = T1 (X1 , ..., Xn ) e T2 = T2 (X1 , ..., Xn ) duas
estatsticas, tal que T1 T2 e P (T1 g( ) T2 ) = 1 , em que 1 no depende de .
Ento,

O intervalo aleatrio [T1 , T2 ] chamado um intervalo de 100(1 )% de confiana para


g( ).

T1 e T2 so chamados, respectivamente, de limite inferior e superior de confiana para


g( ).

1 chamado de nvel de confiana.

Definio 5.2 (Intervalo de Confiana Unilateral): Sejam X1 , ..., Xn um amostra aleatria


com funo de densidade ou de probabilidade f (x| ).

Seja T1 = T1 (X1 , ..., Xn ) uma estatstica, tal que P (g( ) T1 ) = 1 . Ento, T1 cha-
mado de limite unilateral inferior de confiana para g( ).

Seja T2 = T2 (X1 , ..., Xn ) uma estatstica, tal que P (g( ) T1 ) = 1 . Ento, T2 cha-
mado de limite unilateral superior de confiana para g( ).
Estimao Intervalar 38

Exemplo 5.1: Sejam X1 , ..., Xn um amostra aleatria de X N( , 9). Considere

Seja T1 = T1 (X1 , ..., Xn ) = X 6n e T2 = T2 (X1 , ..., Xn ) = X + 6n

Ento [T1 , T2 ] consititue um intervalo de confiana


  !
6 6 X
P X X+ = P 2 3 2
n n
n
= (2) (2) = 0, 9772 0, 0228 = 0, 9544

Considerando uma amostra n = 16 e X = 18, temos T1 = 16, 5 e T2 = 19, 5

Assim com 95, 44% de confiana o verdadeiro valor do parmetro est no intervalo [16, 5; 19, 5]

5.1 QUANTIDADE PIVOTAL

Definio 5.3 (Quantidade Pivotal): Sejam X1 , ..., Xn um amostra aleatria com funo de
densidade ou de probabilidade f (x| ). Seja Q = q(X1 , ..., Xn ; ), isto , Q um funo de
X1 , ..., Xn e . Se a distribuio de Q no depende de , ento Q uma quantidade pivotal.

Uma quantidade pivotal geralmente conter explicitamente os parmetros e as estatsticas.


A distribuio de probabilidade da quantidade pivotal tem que ser conhecida.
Exemplo 5.2: Sejam X1 , ..., Xn um amostra aleatria de X N( , 9). Considere

Seja Q1 = X , ento Q1 uma quantidade pivotal com distribuio N(0, 9n )

X
Seja Q2 = , ento Q2 uma quantidade pivotal com distribuio N(0, 1)
3
n

X
Seja Q3 = , ento Q3 no uma quantidade pivotal pois sua distribuio depende de ,
 
Q3 N 0, 92 n

Definio 5.4 (Familia de locao e escala): Seja f0 uma classe funes de densidade de
probabilidade. Ento:

A classe de modelos da forma f (x| ) = f0 (x ) chamado de familia de locao, em


que um parmetro de locao

A classe de modelos da forma f (x| ) = 1 f0 x chamado de familia de escala, em que




um parmetro de escala
 
A classe de modelos da forma f (x|1 , 2 ) = 12 f0 (x
2
1)
chamado de familia de loca-
o e escala.
Estimao Intervalar 39

Quantidade pivotal para familia de locao e escala

Se f (x| ) um modelo de locao ento Q = um quantidade pivotal para



Se f (x| ) um modelo de escala ento Q = um quantidade pivotal para
1 1
Se f (x|1 , 2 ) um modelo de locao e escala ento Q = 2
um quantidade pivotal
para 1

5.1.1 Mtodo da Quantidade Pivotal


Se Q = q(X1 , ..., Xn ; ) uma quantidade pivotal com funo de densidade de probabilidade,
ento:

Para cada = 1 fixado, possvel encontrar q1 e q2 na distribuio de Q tal que

P (q1 Q q2 ) =

sendo a distribuio de Q independente de , ento q1 e q2 tambm no dependem de

Se para cada possvel amostra existirem T1 = T1 (X1 , ..., Xn ) e T2 = T2 (X1 , ..., Xn ), tais que:

q1 Q q2 se e somente se T1 T2

ento [T1 , T2 ] um intervalo de 100(1 )% de confiana para .

O procedimento geral para construo de intervalos de confiana para um parmetro a


partir de um quantidade pivotal dado por:

1. Obter um quantidade pivotal Q

2. A partir da distribuio de Q, encontra os valores de q1 e q2 tais que

P (q1 Q q2 ) = 1

3. Pivotar (inverter) a desigualde de forma a obter os valore de T1 e T2

P (q1 Q q2 ) = [P (T1 T2 ) = 1

Exemplo 5.3: Sejam X1 , ..., Xn um amostra aleatria da distribuio exp( ). Construir um


intervalo de confiana para
Primeiro vamos encontrar uma quantidade pivotal para . Considere = X1 . Assim
n
1
Como = um parmetro de escala temos: Q = X = n Xi
i=1
Estimao Intervalar 40

n
Como X exp( ), ento Xi Gama(n, ). Assim Q Gamma(n, n)
i=1

Utilizando a quantidade pivotal Q = X, temos



P q1 X q2 = 1
q q2 
1
P = 1
X X
Os valores q1 e q2 so infinitos, assim, estes valores devem ser obtidos de forma a ter
comprimento mnimo. Uma forma de se obter como quantis da distribuio gama de forma
que:
P[X q1 ] = P[X q2 ]

Assim

5.1.2 Intervalos para Populaes Normais - uma amostra


Os intervalos de confiana para os parmetros da distribuio normal podem se obtidos a
partir das distribuies amostrais.
Sejam X1 , ..., Xn um amostra aleatria da distribuio N(, 2 ) e seja X n a mdia amostral
e S2 a varincia amostral, temos que:

X
z = N(0, 1)
/ n
X
t = tn1
S/ n
(n 1)S2 2
U = n1
2

Sejam X1 , ..., Xn um amostra aleatria da distribuio N(, 2 ). Assumindo 2 conhecido


temos um quantidade pivotal para dados por:

X
Q(X; ) = N(0, 1)
/ n
Estimao Intervalar 41

Assim
 
X
P q1 q2 = 1
/ n
 

P X q2 X q1 = 1
n n

Como a distribuio N(0, 1) simtrica, o intervalo de menor comprimento q1 = z 2 e


q2 = z 2
Desta forma  

P X z 2 X + z 2 = 1
n n
Sejam X1 , ..., Xn um amostra aleatria da distribuio N(, 2 ). Sendo 2 desconhecido
temos um quantidade pivotal para dados por:

X
Q(X; ) = tn1
S/ n

Assim
 
X
P q1 q2 = 1
S/ n
 
S S
P X q2 X q1 = 1
n n

Como a distribuio t simtrica, o intervalo de menor comprimento q1 = tn1, 2 e q2 =


tn1, 2
Desta forma  
S S
P X tn1, 2 X + tn1, 2 = 1
n n
Estimao Intervalar 42

Sejam X1 , ..., Xn um amostra aleatria da distribuio N(, 2 ). Sendo desconhecido


temos um quantidade pivotal para 2 dados por:

(n 1)S2
Q(X; 2 ) = 2
n1
2
Assim

(n 1)S2
 
P q1 q2 = 1
2
(n 1)S2 (n 1)S2
 
2
P = 1
q2 q1

2
Considerando o intervalo simtrico temos que q1 = n1, 2
e q2 = . Desta forma
2 n1,1 2

!
(n 1)S2 2 (n 1)S2
P 2
2
= 1
n1,1 n1,
2 2

5.1.3 Intervalos para Populaes Normais - duas amostra


Sejam X1 , ..., Xn e Y1 , ...,Ym duas amostras aleatrias independentes com Xi N(1 , 2 ) e
Yi N(2 , 2 ). Seja X n e Y m as mdias amostrais e SX2 e SY2 as varincias amostrais.
Seja D = X n Y m uma combinao linear de variveis aleatrias normais independentes,
temos que:
  
1 1
D tem distribuio N 1 2 , +
n m

(X n Y m ) (1 2 )
z= q tem distribuio N(0, 1)
1n + m1

Temos que
(n 1)SX2 2 (m 1)SY2 2
n1 m1
2 2
Estimao Intervalar 43

Assim
(n 1)SX2 + (m 1)SY2 2
U= 2
n+m2

Temos que

(X n Y q
m )(1 2 )
1 1
n+m
T = s tn+m2
2 +(m1)S2
(n1)SX Y
12
n+m2
1 (X n Yq
m )(1 2 )
1 1
n+m
= q
1 (n1)SX2 +(m1)SY2
n+m2
(X n Y m ) (1 2 ) 1
= q q
1 1 (n1)SX2 +(m1)SY2
n+m n+m2

Assim
(X n Y m ) (1 2 )
T= q tn+m2
1 1

Sp n+m

Sendo: s
(n 1)SX2 + (m 1)SY2
Sp =
n+m2
Sejam X1 , ..., Xn e Y1 , ...,Ym duas amostras aleatrias independentes com Xi N(1 , 2 ) e
Yi N(2 , 2 ). Sendo 2 conhecido temos um quantidade pivotal para D = 1 2 dados por:

(X n Y m ) (1 2 )
Q(X; D) = q
1n + m1

Assim

(X n Y m ) (1 2 )
P q1 q q2 = 1
1 1
n+m
r r !
1 1 1 1
P (X n Y m ) z 2 + 1 2 (X n Y m ) + z 2 + = 1
n m n m

Sejam X1 , ..., Xn e Y1 , ...,Ym duas amostras aleatrias independentes com Xi N(1 , 2 ) e


Yi N(2 , 2 ). Sendo 2 desconhecido temos um quantidade pivotal para D = 1 2 dados
Estimao Intervalar 44

por:

(X n Y m ) (1 2 )
Q(X; D) = q tn+m2
1 1

+ S 2
n m p
s
(n 1)SX2 + (m 1)SY2
Sendo Sp =
n+m2

Assim

(X n Y m ) (1 2 )
P q 1 q q2 = 1
1 1

2
n + m Sp
s  s !
1 1 1 1
P (X n Y m ) tn+m2, 2 S p + 1 2 (X n Y m ) + tn+m2, 2 S p + = 1
n m n m

Sejam X1 , ..., Xn e Y1 , ...,Ym duas amostras aleatrias independentes com Xi N(1 , 12 ) e


Yi N(2 , 22 ). Seja X n e Y m as mdias amostrais e SX2 e SY2 as varincias amostrais.
Seja D = X n Y m uma combinao linear de variveis aleatrias normais independentes,
temos que:
12 22
 
D tem distribuio N 1 2 , +
n m
(X n Y m ) (1 2 )
z= q tem distribuio N(0, 1)
12 22
n + m

Pela formula de aproximao de Satterthwaite temos que:

SX2 SY2 SX2 SY2 2


   
n + m n + m
U= 2 =
12 22
 2 2  2 2
SX SY
n + m n m
n1 + m1

Assim
(X n Y
rm )(1 2 )
12 22
Z n + m
T = q = v
2 S2
!
U u SX Y
n + m
u
u
12 22
t
n + m

(X n Y m ) (1 2 )
T = q t
SX2 SY2
n + m
Estimao Intervalar 45

12
Seja R = 22
a razo entre as varincias, temos que:

(n 1)SX2 (m 1)SY2
12 = 2
n1 22 = 2
m1
12 22
12
n1 SX2 22
F= = F(n1;m1)
22 SY2 12
m1

Sejam X1 , ..., Xn e Y1 , ...,Ym duas amostras aleatrias independentes com Xi N(1 , 12 ) e


Yi N(2 , 22 ). Sendo 12 e 22 desconhecido temos um quantidade pivotal para D = 1 2
dados por:

(X n Y m ) (1 2 )
Q(X; D) = q t
SX2 SY2
n + m
SY2 2
 2 
SX
n + m
sendo =  2 2  2 2
SX SY
n m
n1 + m1

Assim

(X n Y m ) (1 2 )
P q 1 q q2 = 1
SX2 SY2
n + m
 2
SX SY2
 2
SX SY2
  
P (X n Y m ) t, 2 + 1 2 (X n Y m ) + t, 2 + = 1
n m n m

Sejam X1 , ..., Xn e Y1 , ...,Ym duas amostras aleatrias independentes com Xi N(1 , 12 ) e


12
Yi N(2 , 22 ). SX2 e SY2 as varincias amostrais. Temos um quantidade pivotal para R = 22
dado por:
S2 2
Q(X|R) = X2 22 F(n1;m1)
SY 1
Assim

SX2 22
 
P q1 2 2 q2 = 1
SY 1
2 12 1 SX2
 
1 SX
P 2 = 1
q2 SY2 2 q1 SY2

Considerando um intervalo simtrico



P[X q1 ] = P[X q2 ] =
2
Estimao Intervalar 46

Teremos
q1 = F(n1;m1); 2 q2 = F(n1;m1);1 2

Assim !
1 SX2 12 1 SX2
P = 1
F(n1;m1);1 2 SY2 22 F(n1;m1); 2 SY2

Sejam (X1 ,Y1 ), ..., (Xn ,Yn ) uma amostra aleatria com distribuio normal bivariada 1 , 2 , 12 , 22
)
e = Cov(X,Y
2 2
. Seja Di = Xi Yi , i = 1, ..., n em que Di iid com distribuio N(1 2 , 12 +
1 2
22 21 2 ), assim

2 + 22 21 2
 
D tem distribuio N 1 2 , 1
n
Considerando a estimao D = 1 2 com a estimao de uma mdia populacional
com varincia desconhecida, temos:
 
SD SD
P D tn1, 2 D + tn1, 2 = 1
n n
v
n u n
Di u (Di D)2
u
i1 t i1
sendo D = SD =
n n1
6

TESTE DE HIPTESE

6.1 TEORIA DA DECISO

Teoria da deciso, como o nome diz, trata do problema de tomada de decises. A Teoria da
deciso estatstica se preocupa em tomada de decises na presena de conhecimento estatstico
que tenta controlar algumas das incertezas envolvidas no problema de deciso. A tomada de
deciso sob incerteza baseia-se em teoria da probabilidade. A maioria das situaes de tomada
de decises ocorre em situao de incerteza porque baseada nos dados de uma amostra pro-
veniente de uma populao. Assim, possvel a partir do uso de informaes de amostras fazer
inferncias sobre as quantidades desconhecidas (parmetros).
Os elementos bsicos de um problema de deciso so:

Espao de estados da natureza - representado pelo espao paramtrico

Espao dos resultados possveis de um experimento

Espao de possveis aes - considera-se um conjunto A de possveis aes (decises),


onde uma delas deve ser selecionada. Em problemas de estimao de parmetros temos
que A =

Funo de deciso - uma funo d : A.

Definio 6.1 (Funo Perda): A funo perda da ao a para o estado da natureza


dada por `( , a), definida em A, satisfaz as seguintes propriedades:

a) `( , a) 0, para todo e a A

b) `( , a) = 0, quando a =

A funo perda representa a perda sofrida pela escolha da ao a A quando o estado da


natureza . As funes perdas mais comumente empregadas so:

Funo perda quadrtrica - `( , a) = ( a)2

Funo perda absoluta - `( , a) = | a|


Teste de hiptese 48

Definio 6.2 (Funo Risco): A funo risco ou perda esperada correspondente ao pro-
cedimento (funo de deciso) d dada por:
Z
R( , a) = E[l( , a)] = `( , a) f (x| )d

ou ainda como
R( , a) = E[l( , a)] = `( , a) f (x| )
x

Exemplo 6.1: Suponha que uma moeda apresenta cara com probabilidade igual a 13 ou
2
1 2
3 , ou seja, = 3 , 3

ento adequado tomar como espao das aes A = 31 , 23 .




Para obter informao sobre , o estatstico faz um lanamento da moeda e observa a va-
rivel aleatria X que denota o nmero de caras obtidas no lanamento. O espao amostral
associado ao experimento , portanto, = {0, 1}. Sendo 0 se coroa e 1 se cara. Nesse caso,
podemos definir ento quatro funes de deciso, d1 , d2 , d3 e d4 , que so dadas por

1 1 2 2
d1 (0) = , d2 (0) = , d3 (0) = , d4 (0) =
3 3 3 3
2 1 2 1
d1 (1) = , d2 (1) = , d3 (1) = , d4 (1) =
3 3 3 3

Considerando a funo perda `( , a) = | a|. Temos a funo risco

R( , d) = `( , d(0))P [X = 0] + `( , d(1)P [X = 1]

Assim, temos os riscos


1 2
d = 3 = 3
1 1
d1 9 9
1
d2 0 3
1
d3 3 0
2 2
d4 9 9
Comparando os riscos
1 2
R( , d1 ) < R( , d4 ) para = 3 e = 3
1 2
R( , d2 ) < R( , d1 ) para = 3 e R( , d1 ) < R( , d2 ) para = 3
1 2
R( , d1 ) < R( , d3 ) para = 3 e R( , d3 ) < R( , d1 ) para = 3

Definio 6.3 (Princpio Minimax): Dizemos que o procedimento d0 um procedimentos


minimax numa clase D de procedimentos, se

sup R( , d0 ) = inf sup R( , d)


dD
Teste de hiptese 49

O princpio minimax compara o mximo dos riscos dos procedimentos, sendo o melhor o
que tiver o menor mximo.
Exemplo 6.2: No exemplo da moeda temos:
1 2
d = 3 = 3 maxR( , d)
1 1 1
d1 9 9 9
1 1
d2 0 3 3
1 1
d3 3 0 3
2 2 2
d4 9 9 9

Assim, o procedimento d1 tem o menor risco mximo, nesse caso o procedimento mini-
max.
Exemplo 6.3: Seja X uma nica observao de uma varivel aleatria X com distribuio
de Poisson com parmetro . Considerando A = = (0, ), = {0, 1, 2, ...} , a classe das
funes de deciso D = {d; d(X) = cX}, onde c uma constante, e funo de perda dada por

( a)2
`( , a) =

Assim
( a)2
 
R( , d) = E[`( , d(X))] = E = c2 + (c 1)2

Assim, a funo risco uma funo linear em :

Quando c = 1 temos que R( , d) = 1 para todo

Quando c > 1 temos que R( , d) quando

Desta forma o procedimento minimax quando c = 1

D = {d; d(X) = X}

6.2 TESTE DE HIPTESE

Na teoria de deciso estatstica, os testes de hipteses assumem uma importncia funda-


mental, j que estes permitem tomar decises sobre uma ou mais populaes baseando-se no
conhecimento de informaes da amostra. O teste de hiptese o procedimento que nos levar
a rejeitar ou no uma hiptese a partir das evidncias obtidas nos resultados amostrais.

Definio 6.4 (Hiptese Estatstica): Chamamos de hiptese estatstica qualquer afirmao


acerca da distribuio de probabilidades de uma ou mais variveis aleatrias

A formulao de suposies ou de conjeturas acerca das populaes so denominadas de


Hipteses Estatsticas. Essas suposies, que podem ser ou no verdadeiras, que podem ser:
Teste de hiptese 50

HIPTESE NULA - aquela Hiptese Estatstica, prefixada, formulada sobre o parme-


tro populacional estudado, e sempre uma afirmativa. representada por H0 .

HIPTESE ALTERNATIVA - So quaisquer hipteses que difiram da Hiptese Nula.


Pode ser representada por H1 ou Ha

Seja X1 , ..., Xn uma amostra aleatria da varivel aleatria X, com f.d.p. ou f.p. f (x| ),
em que um parmetro desconhecido, definido em um espao paramtrico . Assim, as
hipteses podem ser definidas como

H0 : 0
H1 : 1

em que 0 1 = e 0 1 = 0. H0 geralmente aquela que revela a informao que


detemos no momento em que se decide realizar o teste estatstico
As hipteses podem ser:

Simples - quando identifica um valor exato para o parmetro

H0 : = 0 H1 : = 1

Composta - quando quando identifica um conjunto de possibilidades para o domnio do


parmetro

H0 : = 0 H1 : 6= 0
H0 : = 0 H1 : > 0
H0 : = 0 H1 : < 0
H0 : 0 H1 : < 0
H0 : 0 H1 : > 0

Definio 6.5 (Teste de hiptese): Chamamos de teste de uma hiptese estatstica a funo
de deciso d : {a0 , a1 }, em que a0 corresponde ao de considerar a hiptese H0 como
verdadeira e a1 corresponde ao de considerar a hiptese H1 como verdadeira.

Um teste especificado particionando-se o espao amostral em dois subconjuntos.

A0 = {(x1 , ..., xn ) , d(x1 , ..., xn ) = a0 }


A1 = {(x1 , ..., xn ) , d(x1 , ..., xn ) = a1 }

A0 A1 = e A0 A1 = 0
Teste de hiptese 51

A0 um subconjunto que contm os valores de X para os quais H0 ser aceita, assim


denominado regio de aceitao. A1 um subconjunto que contm os valores de X para os
quais H1 ser rejeitada, assim denominado regio de rejeio ou regio crtica.
Geralmente, um teste de hiptese especificado em termos de uma funo da amostra
W (X1 , ..., Xn ), denominada "estatstica de teste". A estatstica de teste obtida sobre o pres-
suposto de que H0 verdadeira. Assim, sua distribuio tem que ser conhecida com base nesse
pressuposto. A partir da estatstica de teste possvel determinar a deciso a tomar, rejeitar ou
no H0 . Assim, a estatstica de teste a funo de deciso do teste de hiptese.
Exemplo 6.4: Uma caixa contm duas moedas. Uma apresenta cara com probabilidade
p = 0, 5 (equilibrada) e a outra apresenta cara com probabilidade p = 0, 6. Uma moeda
escolhida aleatoriamente e lanada trs vezes.
Suponhamos que as hipteses de interesse so

H0 : p = 0, 5
H1 : p = 0, 6

Seja Xi a varivel de Bernoulli que assume o valor 1 se ocorre cara no isimo lanamento
3
e 0 caso contrrio, i = 1, 2, 3. Considere a estatstica de teste W (X1 , ..., X3 ) = Xi
i=1
Assim,
(X1 , X2 , X3 ) X1 + X2 + X3
(0, 0, 0) 0
(0, 0, 1) 1
(0, 1, 0) 1
(1, 0, 0) 1
(0, 1, 1) 2
(1, 0, 1) 2
(1, 1, 0) 2
(1, 1, 1) 3
Podemos considerar,

A0 = {(x1 , ..., xn ), x1 + x2 + x3 < 2}


A1 = {(x1 , ..., xn ), x1 + x2 + x3 2}

Sendo A0 A1 = e A0 A1 = .
Em um teste de hiptese
H0 : A0 H1 : A1

pode-se cometer um erro ao tomar uma deciso


Erros possveis de se cometer no processo de tomada de deciso
Teste de hiptese 52

Decises possveis Estados possveis


Ho verdadeira Ho falsa
Aceitao de Ho Deciso correta Erro do tipo II
Rejeio de Ho Erro do tipo I Deciso correta

Considerando as duas hipteses

H0 : A0 H1 : A1

Considerando a funo perda


(
`( , d) = 0 se a deciso for correta
`( , d) = 1 se a deciso for errada

Assim o risco ser:

R( , d(A0 )) = E[`( , d(A0 ))]


= 0.P[X A0 | A0 ] + 1.P[X A1 | A0 ]
= P[X A1 | A0 ] = = P[ Rejeitar H0 |H0 Verdadeira]
R( , d(A1 )) = E[`( , d(A1 ))]
= 0.P[X A1 | A1 ] + 1.P[X A0 | A1 ]
= P[X A0 | A1 ] = = P[Aceitar H0 |H0 Falsa]

Os riscos e so as probabilidades de se cometer os erros tipos I e II, respectivamente

Definio 6.6 (Funo Poder): A funo poder de um teste de hiptese com regio crtica
A1 dada por
( ) = P[X A1 | A1 ] = 1

em que a probabilidade de se cometer o erro tipo II

A funo poder por de descrita com a funo que associa a cada valor de a probabilidade
de rejeitar H0
Exemplo 6.5: Seja X um varivel aleatria com distribuio binomial(5, ). Suponhamos
que as hipteses de interesse so

H0 : 0, 5
H1 : > 0, 5

Considerando as regras de deciso

d1 : Rejeitar H0 se, e somente se, todos os sucessos forem observados


Teste de hiptese 53

Figura 6.1: funo poder

d2 : Rejeitar H0 se, os sucessos forem iguais a 3, 4 ou 5.

Assim, temos

d1 : 1 ( ) = P[X A1 | > 0, 5] = P[X = 5] = 5


d2 : 2 ( ) = P[X A1 | > 0, 5] = P[X = 3, 4, ou 5]
= 6 5 15 4 + 10 3

As probabilidades e no so complementares.
Em geral tenta-se minimizar a probabilidade
Assim, mais usual fixar a probabilidade e escolher um teste que minimize tambm a
probabilidade

Definio 6.7 (Tamanho do teste): Seja um teste da hiptese, com H0 : A0 H1 :


A1 , e funo poder ( ), o tamanho do teste definido como

sup ( ) =
A0

Definio 6.8 (Nvel do teste): Seja um teste da hiptese, com H0 : A0 H1 : A1 ,


e funo poder ( ), o nvel do teste definido como

sup ( )
A0
Teste de hiptese 54

Exemplo 6.6: Sejam X1 , ..., Xn um amostra aleatria da distribuio N(, 25). Suponhamos
que as hipteses de interesse so

H0 : 17
H1 : > 17

Considerando a regra de deciso d: Rejeitar H0 se X > 17 + 5n


Assim, a funo poder dada por:

5
( ) = P(X > 17 + | > 17)
n
5 !
17 + n
= 1 5
n

O tamanho do teste dado por:

17 + 5n
" !#
sup ( ) = sup 1
A0 17 5
n
17 + 5n 17
" !#
= 1 = 1 (1) = 0, 159
5
n

Como em geral o interesse em valores muito pequenos de , fixando um valor para esta
probabilidade, teremos fixado a mxima probabilidade de se cometer o erro tipo I. Fixando
um valor de possvel construir uma regra de deciso, e desta ser estabelecido o nvel de
significncia do teste.
Exemplo 6.7: Um fornecedor garante que apenas 10% de sua produo apresenta defeito.
Para testar esta afirmao selecionado ao acaso 10 itens de um lote e contamos o nmero de
defeituosos. Seja Xi a varivel de Bernoulli que assume o valor 1 se o item for defeituoso no
10
isimo e 0 caso contrrio, i = 1, 2, ..., 10. Considerando a estatstica W (X1 , ..., X10 ) = Xi ,
i=1
Teste de hiptese 55

temos que W tem distribuio binomial(10, ). Suponhamos que as hipteses de interesse so

H0 : = 0, 10
H1 : < 0, 10

Considerando = 0, 025, a partir desse valor vamos estabelecer a nossa regra de deciso.
Calculando a probabilidade para diferentes regies crticas,

P(W 1| = 0, 10) = 0, 6513


P(W 2| = 0, 10) = 0, 2639
P(W 3| = 0, 10) = 0, 0701
P(W 4| = 0, 10) = 0, 0127

Portanto, devemos rejeitar H0 se o numero de itens defeituosos for maior ou igual a 4, nesse
caso quando a probabilidade inferior a .
A escolha do nvel de significncia do teste completamente arbitrria e a a deciso de
aceitar ou rejeitar H0 claramente depende desta escolha. Um enfoque alternativo consiste em
calcular uma quantidade chamada valor-p.

Definio 6.9 (valor-p): Seja W uma estatstica de teste e w o valor dessa estatstica obtido
a partir da amostra, ento um valor-p a probabilidade dada por:

P(W > w| 0 )

Se o valor-p for grande ento ele fornece envidncia de que H0 verdadeira. Se o valor-p
for pequeno indica que evidncia nos dados contra H0 . Assim, a idia comparar o valor-p com
, se valor p < deve-se rejeitar H0 .

6.2.1 Testando hipteses simples


Sejam X1 , ..., Xn um amostra aleatria proveniente de uma funo de densidade ou de pro-
babilidade f (x|0 ) ou f (x|1 ), e queremos testar

H0 : = 0 H1 : = 1
Teste de hiptese 56

Neste caso o espao paramtrico = (0 , 1 ) contm apenas dois pontos. As probabilidades


dos dois tipo de erro so dadas por

= P(Rejeitar H0 | = 0 )
= P(Aceitar H0 | = 1 )

O objetivo obter um teste de hiptese que minimize e . Na prtica impossvel encon-


trar um teste que minimize e simultaneamente mas pode-se construir testes que minimizam
combinaes lineares destas probabilidades. Assim, para constantes positivas a e b queremos
encontrar um teste para o qual a() + b () seja mnima.

Definio 6.10 (Teste de razo de verossimilhana (TRV)): Sejam X1 , ..., Xn um amostra


aleatria proveniente de uma funo de densidade ou de probabilidade f (x|0 ) ou f (x|1 ).
Um teste H0 : = 0 H1 : = 1 definido com um teste de razo de verossimilhana,
definido por:

Se k Rejeita H0
Se > k Aceita H0
n
Em que f (xi |0 )
i=1 L(0 |x)
= (x1 , ...xn ) = n =
L(1 |x)
f (xi |1 )
i=1

e k uma constante no negativa

Definio 6.11 (Teste Mais Poderoso (TMP)): Sejam X1 , ..., Xn um amostra aleatria pro-
veniente de uma funo de densidade ou de probabilidade f (x|0 ) ou f (x|1 ). Um teste de
H0 : = 0 H1 : = 1 definido como sendo um teste mais poderoso de tamanho , se e
somente se:

i) (0 ) =

ii) (1 ) (1 ) para algum outro teste em que (0 )

Teorema 6.1 (Lema de Neyman-Pearson): [<+-| alert@+>]

Seja X1 , ..., Xn um amostra aleatria proveniente de uma funo de densidade ou de pro-


babilidade f (x|0 ) ou f (x|1 ), e seja um teste de razo de verossimilhana em que
H0 : = 0 H1 : = 1 , assim

Se k (x1 , ..., xn ) A1
Se > k (x1 , ..., xn ) A0
Teste de hiptese 57

em que A0 A1 =

Ento o teste correspondente regio crtica A1 um teste mais poderoso de tamanho


.

Exemplo 6.8: Sejam X1 , ..., Xn um amostra aleatria com distribuio exponencial( ). Pretende-
se testar
H0 : = 0 H1 : = 1

Sendo 1 > 0 estabelecendo um TRV temos que:


n
0 e0 xi  n n
L(0 |x) i=1 0 xi (1 0 )
= = n = ei=1
L(1 |x) 1
1 e1 xi
i=1
 n n
0 xi (1 0 )
< k ei=1 k
1

Assim,
n n 
xi (1 0 )
1
ei=1 k
0
n   n 
1
xi(1 0) ln k 0
i=1
n
xi < k1
i=1
h  n i
ln k 10
k1 =
(1 0 )
n
Desta forma uma regra de deciso pode ser: Rejeita H0 se xi k1
i=1
n
Como se X exp( ) e Y = Xi Gama(n, )
i=1
!
n
= P xi k1| = 0 = Fy (k1 |n, 0 )
i=1

Supondo a seguinte hiptese

H0 : = 1 H1 : = 2
n
e = 0, 05 e n = 5, temos k1 = 1, 9701, isso implica que deve-se rejeitar H0 se xi <
i=1
1, 9701, ou se < 229, 4961
Teste de hiptese 58

Exemplo 6.9: Sejam X1 , ..., Xn um amostra aleatria com distribuio bernoulli ( ). Pretende-
se testar
H0 : = 0 H1 : = 1

Sendo 0 < 1 estabelecendo um TRV temos que:


n n
xi (n xi )
L(0 |x) (0 )i=1 (1 0 ) i=1
= = n n
L(1 |x) xi (n xi )
(1 )i=1 (1 1 ) i=1
 n xi 
1 0 n
 
0 (1 1 ) i=1
k k
1 (1 0 ) 1 1

Assim
n
xi k1
i=1
h  n i
ln k 1 1
10
k1 = h i
ln 0 (1 1)
(1 )
1 0

n
Como se X bernoulli( ) e Y = Xi Bin(n, )
i=1
!
n
= P xi k1| = 0 = 1 Fy (k1 |n, 0 )
i=1

Supondo a seguinte hiptese

1 3
H0 : = H1 : =
4 4
= 0, 05 e n = 10 no h nenhuma regio crtica A1 e constante k da forma dada no Lema de
Neyman Pearson
Teste de hiptese 59

k1 F(k1 ) 1 F(k1 )
0 0,056314 1,000000
1 0,244025 0,943686
2 0,525593 0,755975
3 0,775875 0,474407
4 0,921873 0,224125
5 0,980272 0,078127
6 0,996494 0,019728
7 0,999584 0,003506
8 0,999970 0,000416
9 0,999999 0,000030
10 1,000000 0,000001

Considerando 0, 05, pode-se trabalhar com k1 = 6, isso implica que deve-se rejeitar H0
n
se xi 6
i=1