Anda di halaman 1dari 152

Diktat Kuliah

STATISTIKA MATEMATIKA

Adi Setiawan

Universitas Kristen Satya Wacana


Salatiga
2006

i
Contents

1 Pendahuluan 1
1.1 Sifat Kecukupan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sifat Kelengkapan . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Sifat Ketakbiasan...................................................................................11
1.4 Keluarga Eksponensial..........................................................................13

2 Estimasi Titik 19
2.1 Metode yang digunakan bila tersedia statistik cukup yang lengkap 21
2.2 Metode yang digunakan bila tidak tersedia statistik cukup lengkap 22
2.3 Kriteria Pemilihan Estimator : Prinsip MLE.......................................28
2.4 Estimator Momen..................................................................................31
2.5 Kriteria Pemilihan Estimator : Pendekatan Teori Keputusan.............33
2.6 Sifat-sifat Optimal secara Asimptotik dari Estimator.........................40

3 Pengujian Hipotesis 46
3.1 Konsep Umum dari Pengujian Hipotesis Neyman-Pearson................46
3.2 Pengujian Hipotesis Sederhana Melawan Alternatif Sederhana..........49
3.3 Uji UMP untuk Pengujian Hipotesis Komposit...................................58
3.4 Uji UMPU untuk Pengujian Hipotesis Komposit.................................70
3.5 Pengujian Parameter dari Distribusi Normal.......................................73
3.5.1 Uji Tentang Variansi..................................................................73
3.5.2 Uji Tentang mean......................................................................75
3.6 Perbandingan Parameter Dua Distribusi Normal................................77
3.6.1 Perbandingan Variansi Dua Densitas Normal...........................77
3.6.2 Perbandingan Mean Dua Densitas Normal..............................79
3.7 Uji Likelihood Ratio.............................................................................80

4 Daerah Kepercayaan 91
4.1 Interval Kepercayaan.............................................................................91
4.2 Interval Kepercayaan Bila Muncul Parameter Nuisans.......................98
4.3 Interval Kepercayaan dan Interval Kepercayaan Pendekatan...............101
4.4 Hubungan antara Uji Hipotesis dan Interval Kepercayaan..................102
Chapter 1
Pendahuluan
Dalam bab ini terlebih dahulu akan dibahas tentang ruang parameter (pa-
rameter space), statistik cukup (sufficient statistics), sifat kelengkapan (com-
pleteness), sifat ketakbiasan (unbiasedness) dan keluarga eksponensial (ex-
ponential family).

1.1 Sifat Kecukupan


Misalkan X suatu variable random dengan fungsi kepadatan
probabilitas f (x, θ) diketahui tetapi tergantung pada suatu vektor
konstan berdimensi r yaitu θ = (θ1, θ2, . . . , θr)t yang dinamakan
parameter. Ruang parame- ter Ω adalah himpunan semua nilai yang

mungkin dari θ. Dalam hal ini Ω Rr dengan r 1. Misalkan X1, X2, . . . ,
Xn sampel random ukuran n dari f (x; θ) yaitu n variabel random yang
saling bebas dan masing-masing mempunyai fungsi kepadatan
probabilitas f (x; θ). Masalah mendasar dalam statistika adalah membuat
inferensi tentang parameter θ seperti melakukan estimasi θ, menguji
hipotesis tentang θ dan lain lain. Dalam melakukan hal di atas , konsep
tentang kecukupan memainkan peranan penting dalam mem- bimbing
kita untuk meringkas data tetapi tanpa kehilangan informasi yang dibawa
dalam data tentang parameter θ. Di samping sifat kecukupan juga
akan dibahas tentang konsep kelengkapan (completeness), sifat
ketakbiasan
(unbiasedness) dan sifat ketakbiasan variansi minimum (minimum variance
unbiasedness).
Misalkan Tj : Rn ›→ R untuk j = 1, 2, . . . , m dan Tj tidak tergantung
pada θ atau sebarang kuantitas yang tidak diketahui. Vektor

T = (T1, . . . , Tm)

1
dinamakan statistik dimensi m, dengan T1 = T1(X1, X2, . . . , Xn),
T2 = T2(X1, X2, . . . , Xn),
dan Tm = Tm(X1, X2, . . . , Xn). Sebelum didefinisikan sifat kecukupan, ter-
lebih dahulu diberikan contoh-contoh berikut ini.

Contoh 1.1

Misalkan variabel random X berdistribusi seragam pada (α, β). Bila


diambil θ1 = α, θ2 = β maka diperoleh θ = (θ1, θ2)t sehingga ruang
parameternya{ adalah| Ω = ∈ (θ1, θ2)t ≤θ1, }θ2 R2, θ1 θ2 dan fungsi kepadatan
probabilitas dari variabel random X adalah
1
f (x; θ) = (1.1.1)
θ2 −
θ1
untuk θ1 < x < θ2. Jika α diketahui dan β = θ maka ruang parameternya
adalah Ω = (α, ∞) dan fungsi kepadatan probabilitas daria variable
random X adalah
1
f (x; θ) (1.1.2)
= θ−α
untuk θ1 < x < θ2 atau
1
f (x; θ) = IA(x) (1.1.3)
θ−α
dengan A = (α, θ) dan IA(x) = 1 untuk x ∈ A and IA(x) = 0 untuk x A
merupakan fungsi indikator.
Jika β diketahui dan α = θ maka ruang parameternya Ω = (−∞ , β)
dan fungsi kepadatan probabilitas dari variable random X adalah
1
f (x; θ) (1.1.4)
= β−
untuk θ < x < β atau θ

1
f (x; θ) = IA(x) (1.1.5)
β−θ
dengan A = (θ,
β).

Contoh 1.2

Misalkan variabel random X berdistribusi N(µ, σ2).


Bila dipilih θ1 = µ, θ2 = σ2 maka θ = (θ1, θ2)t sehingga
Ω = {θ1, θ2)t ∈ R2|θ1 ∈ R, θ2 > 0}
dan fungsi kepadatan probabilitas dari variabel random X adalah
1 Σ
f (x; θ) = exp Σ
√ (x −
2πθ 2 − (1.1.6)
θ 1) 2
2θ2

Jika diketahui dan dipilih µ = θ maka Ω = R dan fungsi kepadatan proba-


bilitas dari variabel random X adalah
1 Σ
Σ
f (x; θ) = √ exp (x −
(1.1.7)
2πσ2 θ)2
− 2σ2

sedangkan jika µ diketahui dan dipilih σ2 = θ maka Ω = {θ ∈ R |θ > 0}dan


fungsi kepadatan probabilitas dari variabel random X adalah
Σ Σ
1 (x − µ)2
f (x; θ) = √ − . (1.1.8)
2
exp 2πθ θ

Contoh 1.3

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi identik


(independent and identically distribution) yaitu Binom(1, θ). Hal itu berarti
fungsi probabilitas dari Xi adalah

f (xi ; θ) = θxi (1 − θ)1−xi IA (xi ) (1.1.9)


Σn
untuk i = 1, 2, . . . , n, A = {0, 1} dan θ ∈ Ω = (0, 1). Misalkan T i=
=
1
Xi .
Karena Xi berdistribusi Binom(1, θ) maka T berdistribusi Binom(n, θ) se-
hingga fungsi probabilitas dari T adalah
.
f (t; θ) = Σ θt(1 −
T (t) (1.1.10)
n θ)1−tIB

{ 1, . . . , n}.
dengan B = 0,
Misalkan dianggap bahwa percobaan Binomial telah dilakukan dan
nilai pengamatan dari Xi adalah xi untuk i = 1, 2, . . . , n. Masalah yang
dihadapi adalah bagaimana membuat inferensi tentang θ berdasarkan
pada xi untuk i = 1, 2, . . . , n. Apabila kita memberi tanda 1 untuk
’sukses’ maka akan muncul pertanyaan tentang : dapatkah dilakukan
inferensi tentang θ bila diketahui banyaknya sukses yang terjadi. Bila
banyaknya sukses yang terjadi
adalah t atau T = t untuk t = 0, 1, 2, . . . , n maka akan ditentukan berapa
.
probabilitas setiap satu kemungkinan dari
n
t

Σ cara yang berbeda untuk


terjadinya t ’sukses’.

P (X1 P (X1 = x1, . . . , Xn = xn)


= x1, . . . , = |T = t) =
Xn xn P (T = t)
. P (X1=x1,...,Xn=xn)
= P (T =t) jika x1 + x2 + . . . + xn = t
0 jika yang lain.

Hal ini berarti


θx1 (1θ)1−x1 . . . θxn (1 θ)1−xn
P (X1 = x1, . . . , Xn = xn|T = t) = −. Σ
nt t
P n
θ (1P −
1−tn
θ) i=
= .i=1n xΣ
i
(1 − θ)n−1 xi
θt(1 − θ)1−t
t
1
= . Σ
n
t

jika x1 + x2 + . . . + xn = t dan bernilai 0 untuk yang lain, sehingga


untuk semua x1, x2, . . . , xn dengan xi = 0 atau 1 untuk i = 1, 2, . . . , n
Σ
dan untuk
n
i= xi = t berlaku sifat
1
1
P (X1 = x1, . . . , Xn = xn|T = t) = . Σ
n
t

tidak bergantung pada θ. Oleh karena itu total banyaknya sukses t menye-
diakan semua informasi tentang θ.
Contoh 1.3 memotivasi definisi statistik cukup berikut ini.

Definisi 1.1

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas f (x, θ) dan

θ = (θ1, θ2, . . . , θr)t ∈ Ω ⊆ Rr.

Misalkan T = (T1, T2, . . . , Tm)t dengan

Tj = Tj (X1 , X2 , . . . , Xn )
untuk j = 1, 2, . . . , m statistik. Statistik T dinamakan statistik cukup
dimensi-m untuk keluarga F = {f (x; θ)|θ ∈ Ω} atau untuk parameter θ
jika distribusi bersyarat (X1, X2, . . . , Xn)t diberikan T = t tidak bergantung
pada θ untuk semua nilai t.
Dengan menggunakan teorema berikut ini, identifikasi statistik cukup
dengan mudah dapat dilakukan.

Teorema 1.1 (Teorema Faktorisasi Fisher-Neyman)

Misalkan variabel random saling bebas dan berdistribusi identik dengan


, θr)t Ω Rr.
fungsi kepadatan probabilitas f (x; θ) dan θ = (θ1, θ2, . . . ∈
Statistik dimensi-m

T = (T1(X1, X2, . . . , Xn), T2(X1, X2, . . . , Xn), . . . , Tm(X1, X2, . . . , Xn))t

merupakan statistik cukup untuk θ jika dan hanya jika fungsi kepadatan
probabilitas bersama dari dapat difaktorkan sebagai

f (x1, x2, . . . , xn) = g[x1, x2, . . . , xn; θ]h(x1, x2, . . . , xn)

dengan g tergantung pada θ hanya melalui T dan h tidak tergantung pada θ.

Akibat 1.1

Misalkan φ : Rm ›→Rm fungsi terukur dan tidak tergantung pada θ serta


fungsi korespondensi satu-satu sehingga φ−1 ada. Jika statistik cukup
untuk θ maka φ(T) juga merupakan statistik cukup untuk θ dan juga
merupakan statistik cukup untuk ψ(θ) dengan φ : Rr ›→ Rr merupakan
fungsi terukur dan korespondensi satu-satu.

Contoh 1.4

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dari U (θ1, θ2). Fungsi kepadatan probabilitas dari Xi adalah
1
f (xi; θ) =
θ 2 − θ1
untuk θ1 < x < θ2. Bila x = (x1, x2, . . . , xn)t dan θ = (θ1, θ2)t maka fungsi
kepadatan probabilitas bersamanya adalah
Y 1
f (x , x , . . . ; θ) = n
I (x ),
,x
1 2 (θ1,θ2) i
n
i=1 θ2 −
θ1
1
f (x1, x2, . . . , xn; θ)
= (θ2 1 n θ1 < X(1) < X(n) < θ2,
−1 θ )
f (x1, x2, . . . , xn; θ) (θ2 1 n
I[θ ,∞)(X(1))I(−∞,θ )(X(n)),
−1 θ )
1 2

=
(θ2 g1(X(1), θ)g2(X(n), θ),
1 n
f (x1, x2, . . . , xn; θ) −θ)
=

dengan g1(X(1), θ) = I[θ1,∞)(X(1)) dan g2(X(n), θ) = I[θ1 ,∞)(X(1))I(−∞,θ2)(X(n)).


Akibatnya dengan menggunakan Teorema Faktorisasi Fisher-Neyman diper-
oleh (X(1), X(n)) merupakan statistik cukup untuk θ. Khususnya jika θ1 = α
diketahui dan θ2 = θ maka X(1) merupakan statistik cukup untuk θ. Dengan
cara yang sama jika θ2 = β diketahui dan maka X(n) merupakan statistik cukup
untuk θ.

Contoh 1.5

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dari N(µ, σ2). Bila x = (x1, x2, . . . , xn)t, µ = θ1, σ2 = θ2 dan θ =
(θ1, θ2)t maka fungsi kepadatan probabilitas dari Xi adalah
1
f (xi; θ) = exp Σ
√ (xi − θ1)2 Σ
2πθ 2 − 2θ2

sehingga fungsi kepadatan probabilitas bersamanya adalah


1 Σ n Σ
f (xi; θ) = √ exp 2
( 2πθ )n Σ 1 (xi − θ1) .
2 2θ2−i=1

Tetapi, karena
n
Σ n
Σ Σ Σn
(xi − θ1) 2
(xi − x¯) + (x¯ − θ1 )]2
(xi − x¯)2 + n(x¯ −
i= i= i= 2
1= 1 = 1 θ1 )
maka fungsi kepadatan probabilitasnya menjadi
1 Σ n

f (xi; θ) = √ exp Σ 1 (xi −


2
− n (x¯ − θ1 ) Σ
( 2πθ )n x¯)

− 2

2 2 2
i=1
Σn
sehingga (X¯ , i= (Xi − X¯ )2 )t merupakan statistik cukup untuk θ. Pada sisi
1
lain fungsi kepadatan probabilitasnya dapat dinyatakan sebagai
1 . Σ .
f (xi; θ) = √ exp − nθ 1 2Σ.
2
θ1 Σn n
( 2πθ )n 2θ exp θ Σ
i
12θ2
2 2
2
i= x −i=1 xi
1
Σn
Hal itu berarti, jika θ2 = σ2 diketahui dan θ1 = θ maka i= Xi merupakan
statistik cukup untuk θ. Di samping itu, jika θ1 = µ diketahui
1 dan θ2 = θ
Σn
2
maka i= X i merupakan statistik cukup untuk θ. Demikian juga, 2dengan
menggunakan
1 Akibat Teorema Faktorisasi Fisher-Neyman (X¯ , S )t meru-
Σn
pakan statistik cukup untuk θ. Jika θ1 = µ diketahui maka 1n i=(xi − µ)2
merupakan statistik cukup untuk θ2 = 1
θ.Pada contoh-contoh di atas, dimensi dari statistik cukup sama dengan
dimensi parameternya. Jika X1, X2, . . . , Xn variabel random saling bebas
dan berdistribusi identik dari distribusi Cauchy dengan parameter θ = (µ,
σ2) dan fungsi kepadatan probabilitas
1 σ
f (x; µ, σ2) =
π σ2 + (x − µ)2
untuk −∞ < x < ∞ maka tidak ada statistik cukup yang dimensinya lebih
kecil dari statistik cukup (X1, X2, . . . , Xn) . t
Jika m adalah bilangan bulat terkecil sehingga T = (T1, T2, . . . , Tm)t
dengan Tj = Tj (X1 , X2, . . . , Xn ) untuk j = 1, 2, . . . , m merupakan
statis- tik cukup untuk θ = θ1, . . . , θr)t maka T dinamakan statistik
cukup minimal untuk θ.

1.2 Sifat Kelengkapan


Misalkan X vektor random berdimensi k dengan fungsi kepadatan
probabil- itas f (x; θ) dan θ ∈ Ω ⊆ Rr. Misalkan g : Rk ›→ R fungsi
terukur sehingga g(X) merupakan variabel random. Dianggap bahwa
Eθ[g(X)] ada untuk se- mua θ ∈ Ω dan F = {f (x; θ)|θ ∈ Ω}.

Definisi 1.2

Keluarga F dikatakan lengkap (complete) jika untuk setiap g,

Eθ[g(X)] = 0

untuk semua θ ∈ Ω menyebabkan bahwa g(X) = 0 kecuali mungkin pada N


sehingga Pθ[X ∈ N] = 0 untuk semua θ ∈ Ω.
Contoh 1.6 Σ θx(1 − θ)n−xIA(x), θ ∈ (0, 1)} dengan
n
Misalkan F = {f (x; θ)|f (x; θ) = .
x
A = {0, 1, 2, . . . , n}.
Karena n . Σ
Σ n
Σ n
g(x) x ρx
E[g(X)] = g(x)θx(1 − θ)n−x = (1 − x=0

i=θ)n
1
θ
dengan ρ =
maka E[g(X)] = 0 untuk semua θ ∈ (0, 1) akan ekuivalen
dengan 1−θ x
n . Σρ = 0
n x
Σx g(x)
=0
untuk setiap ρ ∈ (0, ∞ ). Akibatnya untuk lebih dari n nilai-nilai dari ρ
berlaku untuk x = 0, 1, 2, . . . , n yang ekuivalen dengan
. x
g(x)
n Σ=0

untuk x = 0, 1, 2, . . . , n. Hal itu berarti bahwa keluarga distribusi binomial


F merupakan keluarga yang lengkap.

Contoh 1.7

Misalkan
e−θxθ
F = {f (x; θ)|f (x; θ) IA(x), θ ∈ (0, ∞)}
= x!
dengan A = {0, 1, 2, 3, . . .}. Karena
Σ∞
x
Σ∞
g(x) x
−θ
E[g(X)] = =0
g(x) e −θ θ =0
=e x!
x! x=0

dengan θ (0, θ) maka g(x) = 0 untuk . hal ini ekuivalen dengan g(x) = 0

untuk x = 0, 1, 2, . . . , n. Akibatnya keluarga distribusi Poisson F merupakan
keluarga yang lengkap.

Contoh 1.8

Misalkan
1
F = {f (x; θ)|f (x; θ) = I[α,θ] (x), θ ∈ (0, ∞)}.
θ−α

Karena E[g(X)] = 0 untuk semua θ = (α, ∞) maka aθ g(x)dx = 0 untuk
semua θ > α sehingga g(x) = 0 kecuali mungkin untuk himpunan N se-
hingga P [X∈N] untuk semua θ Ω dengan X adalah variabel random
yang mempunyai fungsi kepadatan probabilitas f (x; θ. Hal yang sama
juga benar jika f (x; θ) adalah U (θ, β).

Contoh 1.9

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi N(µ,


σ2). Jika σ diketahui dan µ = θ maka keluarga distribusi normal
Σ Σ
1 (x − θ)2
F = {f (x; θ)|f (x; θ) = √ − ,θ∈
2σ2
exp 2πσ 2 R}
merupakan keluarga yang lengkap. Sedangkan jika µ diketahui dan σ2 = θ
maka keluarga distribusi normal
Σ Σ
1 (x − µ)2
F = {f (x; θ)|f (x; θ) = √ exp − , θ ∈ (0, ∞)}
2πθ 2θ

tidak lengkap. Karena g(x) = x − µ maka

E[g(X)] = E[X − µ] = 0

untuk semua θ∈(0, )∞sedangkan g(x) = 0 berlaku hanya untuk x = µ.


Akhirnya, jika µ dan σ2 tidak diketahui maka dapat ditunjukkan bahwa
keluarga distribusi normal

2 2 1 Σ
(x − µ)2 Σ
F = {f (x; µ, )|f (x; µ, ) = √ − 2σ2 , µ ∈ R, σ ∈ (0,
σ σ exp 2πσ 2 ∞)}
lengkap atau statistik cukup juga merupakan statistik cukup untuk (µ, σ2)
yang lengkap.

Teorema 1.2

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas f (x; θ) dengan θ ∈ Ω
⊆ Rr dan

T = (T1, T2, . . . , Tm)t


dengan Tj = Tj (X1, X2 , . . . , Xn ) untuk j = 1, 2, . . . , m adalah statistik
cukup untuk θ. Misalkan V = (V1 , V2 , . . . , Vm )t dengan Vj = Vj (X1 , X2,
. . . , Xn )
untuk j = 1, 2, . . . , m sebarang statistik lain yang tidak tergantung pada T.
Misalkan g(x; θ) fungsi kepadatan probabilitas dari T dan dianggap bahwa
himpunan S sehingga g(x; θ) positif adalah sama untuk semua θ Ω. Dis-

tribusi dari V tidak tergantung pada θ.

Teorema 1.3 (Teorema Basu)

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas f (x; θ) dengan ∈ θ Ω Rr
dan T = (T1 , T2 , . . . , Tm )t dengan Tj = Tj (X1 , X2, . . . , Xn ) untuk j = 1, 2,
. . . , m adalah statistik cukup untuk θ. Misalkan g(x; θ) fungsi kepadatan
probabili- tas dari T dan G = {g(x; θ)|θ ∈ Ω} lengkap. Misalkan V =
(V1, V2, . . . , Vm)t
dengan Vj = Vj (X1 , X2, . . . , Xn ) untuk j = 1, 2, . . . , m adalah statistik lain.
Jika distribusi dari tidak tergantung pada θ maka V dan T saling bebas.

Contoh 1.10
2
Misalkan X 1, . . . , Xn variabel random saling bebas dan berdistribusi N(µ, σ )
2 ¯
dengan σ diketahui. Statistik X merupakan statistik cukup untuk µ dan
(Xi −X¯
S2 = Pni=
1 suatu statistik. Perhatikan bahwa
)2
n

n n
Σ Σ
(Xi − X¯ ) = 2
[(Xi − µ) + (µ − X¯ ))2
i=1 i=1
n
Σ n
Σ
(Xi − X¯ )2 = [(Xi − µ)2 + (µ − X¯ )2 + 2(µ − X¯ )(Xi − µ)]
i=1 i=1
n n n
Σ Σ Σ
(Xi − X¯ )2 = (Xi − µ) + n(µ − X¯ )2 + 2(µ − X¯ )
2
(Xi − µ)
i=1 i=1 i=1
n n
Σ Σ
(Xi − X¯ )2 = (Xi − µ)2 + n(µ − X¯ )2 + 2(µ − X¯ )n(X¯ − µ)
i=1 i=1
n
Σ n
Σ
(Xi − X¯ )2 = (Xi − µ)2 + n(µ − X¯ )2 − 2n(µ − X¯ )n(µ − X¯ )
i=1 i=1
Σn Σn

(Xi − X¯ )2 = (Xi − µ)2 − n(µ − X¯ )2


i=1 i=1
n
Σ n
Σ
(Xi − X¯ )2 = (Xi − µ)2 − n(X¯ − µ)2 .
i=1 i=1
2

Karena Xi − µ ∼ N(0, σ ) untuk j = 1, 2, . . . , n dan X¯ ∼ N(µ,


2
n
σ
) sehingga
berakibat maka distribusi dari S 2 tidak bergantung pada µ. Dengan meng-
gunakan Teorema Basu diperoleh bahwa dan S2 saling bebas.

1.3 Sifat Ketakbiasan


Definisi 1.3

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas f (x; θ) dengan∈θ Ω R dan T
= (T1 , . . . , Tm)t dengan Tj = Tj (X1 , X2, . . . , Xn ) untuk j = 1, 2, . . . ,
m adalah statistik cukup untuk θ. Statistik U adalah statistik tak bias
untuk θ jika Eθ[U ] = θ untuk setiap θ ∈ Ω.

Teorema 1.4 (Teorema Rao-Blackwell)

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas f (x; θ) dengan θ ∈ Ω ⊆
R dan

T = (T1, . . . , Tm)t
dengan Tj = Tj (X1 , X2 , . . . , Xn ) untuk j = 1, 2, . . . , m adalah statistik
cukup untuk θ. Misalkan U (X1, X2, . . . , Xn) statistik tak bias untuk θ
yang bukan fungsi dari T saja. Jika φ(t) = Eθ[U |T = t] maka

1. variabel random φ(T) merupakan fungsi statistik cukup T.


2. φ(T) merupakan statistik tak bias untuk θ.
3. Varθ(φ(T)) < Varθ(U ) dengan θ ∈ Ω asalkan Eθ[U 2] < ∞.

Teorema berikut ini menyatakan sifat ketunggalan dari statistik cukup.

Teorema 1.5 (Teorema Ketunggalan Lehman-Scheffe)

Misalkan X1, X2, . . . , Xn variabel random dengan fungsi kepadatan proba-


bilitas f (x; θ) dengan θ Ω∈R dan⊆ F = f (x; θ) θ{Ω . Misalkan
| ∈ T} = (T1, . . .
t
, Tm) dengan Tj = Tj(X1, X2, . . . , Xn) untuk j = 1, 2, . . . , m adalah
statistik cukup untuk θ dan g(x; θ) adalah fungsi kepadatan proba- bilitasnya.
Misalkan G = {g(x; θ)|θ ∈ Ω} lengkap. Jika U = U (T ) statistik
cukup tak bias untuk θ dan Eθ[U 2] ∞ < untuk semua θ Ω maka U adalah
statistik tak bias untuk θ dengan variansi terkecil dalam kelas yang mengan-
dung semua statistik tak bias untuk θ.

Definisi 1.4

Statistik tak bias untuk θ yang mempunyai variansi minimum dalam ke-
las semua statistik tak bias dari θ dinamakan UMVU (uniformly minimum
variance unbiased ).
Terminologi ”uniformly” diperoleh dari fakta bahwa variansi minimum
untuk semua θ ∈ Ω.

Contoh 1.11
Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi iden-
Σn
tik dengan distribusi Binom(1, θ) dengan θ ∈ (0, 1). Statistik T = i= Xi
1
merupakan statistik cukup untuk θ dan juga lengkap. Karena X¯ =n T meru-
pakan statistik tak bias untuk θ maka statistik merupakan statistik tak

bias dengan variansi minimum untuk θ.

Contoh 1.12

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi iden-
tik dengan distribusi N(µ, σ2). Jika σ diketahui dan µ = θ maka
n
Σ
T= Xi
i=1

statistik cukup untuk θ demikian juga T merupakan statistik yang lengkap.


Akibatnya = T/n merupakan statistik tak bias untuk θ dengan variansi
X ¯
minimum untuk θ karena X¯ merupakan statistik tak bias untuk θ.Jika
Σn
µ = 0 dan σ2 = θ maka T = i= Xi2 statistik cukup untuk θ. Karena T
1
juga merupakan statistik yang lengkap dan S 2 = T/n merupakan statistik
tak bias untuk θ dan S 2 merupakan statistik tak bias dengan variansi
mini- mum untuk θ.

Contoh 1.13

Misalkan X1, X2, X3 variabel random saling bebas dan berdistribusi identik
dengan fungsi kepadatan probabilitas
f (x; λ) = λ exp Σ − λxΣ
untuk x > 0. Misalkan θ = 1/λ sehingga fungsi kepadatan probabilitas dari
X menjadi
1 1
f (x; λ) = exp Σ − xΣ.
θ θ
2
Diperoleh E[Xi] = θ dan Var(Xi) = θ untuk i = 1, 2, 3. Hal itu berarti
bahwa X1 merupakan statistik tak bias untuk θ dengan variansi θ 2. Demikian
juga T = X1 + X2 + X3 merupakan statistik cukup untuk θ dan juga meru-
pakan statistik yang lengkap. Karena X1 bukan merupakan fungsi dari T
maka X1 bukan statistik tak bias dengan variansi minimum untuk θ. Oleh
karen itu dipilih statistik yang merupakan fungsi dari T dan juga merupakan
statistik tak bias untuk θ yaitu T /3 dengan sifat E[T /3] = θ. Dalam hal ini
Var(T/3) = θ2/3 lebih kecil dari θ2 dengan θ ∈ (0, ∞).

1.4 Keluarga Eksponensial


Keluarga fungsi kepadatan probabilitas yang tergantung pada paremeter θ
dan berbentuk
f (x; θ) = C(θ) exp[Q(θ)T (x)]h(x)
dengan x ∈ R, θ ∈ Ω(⊆ R) dan C(θ) > 0 serta h(x) > 0 untuk x ∈ S
dinamakan keluarga eksponensial. Jika variabel random saling bebas dan
berdistribusi identik dengan f (x; θ) dengan∈θ Ω R maka fungsi kepa-
datan probabilitas dari X sebagai

f (x; θ) = C(θ) exp[Q(θ)T (x)]h(x).

Contoh 1.14
x
Misalkan f (x; θ) = .
(x) dengan A = {0, 1, 2, . . . , n}.
Σ θx(1 − θ)n−xIA
Fungsi probabilitas tersebut dapat dinyatakan sebagai
θ
f (x; θ) = (1 − θ)n exp[log( )] . (x)
A
n
ΣI
1−θ x
sehingga distribusi Binomial merupakan anggota keluarga eksponensial den-
n
gan c(θ) = (1 − θ)n, Q(θ) = log( θ ), T (x) = x, h(x) = . Σ I (x).
A
1− x
θ
Contoh 1.15

Misalkan variabel random X berdistribusi N(µ, σ2). Jika σ diketahui dan


µ = θ maka fungsi kepadatan probabilitas dari X adalah
Σ Σθ Σ
1 θ2 1 2Σ
f (x; θ) = √ Σ
exp 2πσ − σ
exp Σ
exp −
x x 2σ2
σ2
dengan θ ∈ R sehingga distribusi tersebut merupakan anggota keluarga ek-
sponesial dengan
1 Σ x2 Σ
Σ θ2 Σ θ
c(θ) = √ exp − .
2πσ − 2 , Q(θ) = 2 , T (x) = x, h(x) =
x σ exp σ
2
Jika µ diketahui dan σ2 = θ maka fungsi kepadatan probabilitas dari 2σX
adalah
1 1
f (x; θ) = √ exp Σ − (x − µ)2Σ
2π 2
θ θ
dengan θ ∈ (0, ∞ ) sehingga distribusi tersebut merupakan anggota keluarga
eksponensial dengan
1 1
c(θ) = , Q(θ) = , T (x) = (x − µ)2, h(x) = 1.
2π 2
θ θ
Jika ruang parameter dari keluarga fungsi kepadatan eksponensial 1 pa-
rameter mengandung interval non degenerate maka keluarga tersebut lengkap.

Teorema 1.6

Misalkan X variabel random dengan fungsi kepadatan probabilitas f (x; θ)


dengan θ ∈ Ω ⊆ R seperti tersebut di atas. Keluarga

G = {g(x; θ)|θ ∈ Ω}

dengan adalah fungsi kepadatan probabilitas dari T (X) maka G lengkap


asalkan Ω mengandung interval non degenerate.

Teorema 1.7

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas merupakan anggota keluarga
ekspo- nensial 1 parameter.
1. Statistik T ∗ = i= T (Xi) merupakan statistik cukup untuk θ.
Σn 1
2. Fungsi kepadatan probabilitas dari T ∗ selalu berbentuk

g(t; θ) = [c(θ)]n exp ΣQ(θ)tΣh∗(t)

dengan h(t) tidak bergantung terhadap θ asalkan T ∗ variabel random


diskrit.

3. Jika variabel random kontinu maka fungsi kepadatan probabilitasnya


dapat dinyatakan sebagai

g(t; θ) = [c(θ)]n exp ΣQ(θ)tΣh∗(t).

Teorema berikut ini menyatakan sifat kelengkapan dari suatu keluarga


distribusi.

Teorema 1.8

Keluarga G = {g(x; θ)| θ ∈Ω lengkap


} asalkan Ω mengandung interval non
degenerate.
Dalam hal ini G = {g(x; θ) |θ ∈ Ω}dengan g(x; θ) adalah keluarga fungsi
kepadatan probabilitas dari statistik cukup T ∗.

Teorema 1.9

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas merupakan anggota keluarga
ek- sponensial dan T ∗ seperti didefinisikan pada Teorema 1.7.1. Jika V
sebarang statistik yang lain, V saling bebas jika dan hanya jika distribusi
dari V dan T ∗ tidak tergantung pada θ.

Contoh 1.16

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi kepa-
datan N(µ, σ2) yang merupakan anggota keluarga eksponensial dalam θ = µ.
Statistik
Σn
X¯ = 1 Xi
n
i=1
merupakan statistik cukup untuk θ sedangkan
Σ
2
S = n ¯ 2
i=1(Xi − X )
n
merupakan statistik lain yang tidak tergantung pada θ maka dengan meng-
gunakan Teorema 1.9 diperoleh bahwa x¯ dan S 2 saling bebas.

Generalisasi dari Keluarga Eksponensial

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan X = (X1, . . . , Xn)t.
Fungsi kepadatan probabilitas bersama dari merupakan anggota keluarga ek-
sponensial r parameter jika mempunyai bentuk
1
Σ n
f (x; θ) = c(θ) Σ Qi(θ)Ti(x)
exp i=
Σh(x)

dengan x = (x1, x2, . . . , xn)t untuk j = 1, 2, . . . , k dan k ≥ 1,

θ = (θ1, θ2, . . . , θr)t ∈ Ω ⊆ Rr,

C(θ) > 0, θ ∈ Ω dan h(x) > 0 untuk x ∈ S himpunan nilai positif dari
f (x; θ) yang saling bebas terhadap θ.

Contoh 1.17

Misalkan variabel random X berdistribusi N(θ1, θ2). Fungsi kepadatan prob-


abilitas dari X dapat dinyatakan sebagai
1
f (x; θ1, θ2) = exp 2 Σ exp θ1 1 x2Σ.
√ θ1 x
− x −
2πθ 2 Σ − Σ
2
2θ2 2θ2
θ

Hal ini berarti keluarga distribusi normal merupakan anggota keluarga dis-
tribusi eksponensial dengan
Σ Σ
1 exp θ2 , Q (θ) = θ1 1

c(θ) = −
1 1
θ2 , Q 2 (θ) = 2,
2πθ 2 2θ
dan 2θ2

T1(x) = x, T2(x) = −x, h(x) = 1.

Dalam hal ini θ = (θ1, θ2).


Brief History of Fisher
R. A. Fisher (1890-1962). Statistician and geneticist. MacTutor Refer-
ences. SC, LP.
Fisher was the most influential statistician of the C20. Like Pearson,
Fisher, studied mathematics at Cambridge University. He first made an
impact when he derived the exact distribution of the correlation coefficient
(see Fishers z-transformation). Although the correlation coefficient was a
cornerstone of Pearsonian biometry, Fisher worked to synthesise biometry
and Mendelian genetics; for Fishers many disagreements with Pearson, see
Pearson in A Guide to R. A. Fisher. In 1919 Fisher joined Rothamsted
Experimental Station and made it the world centre for statistical research.
His subsequent more prestigious appointments in genetics at UCL and Cam-
bridge proved less satisfying. The estimation theory Fisher developed from
1920 emphasised maximum likelihood and was founded on likelihood and
information. He rejected Bayesian methods as based on the unacceptable
principle of indifference. I n the 1930s Fisher developed a conditional infer-
ence approach to estimation based on the concept of ancillarity. His most
widely read work Statistical Methods for Research Workers (1925 + later
editions) was largely concerned with tests of significance: see Student’s t
distribution, chi square, z and z-distribution and p-value. The book also
publicised the analysis of variance and redefined regression. The Design of
Experiments (1935 + later editions) put that subject at the heart of statis-
tics (see randomization, replication blocking). The fiducial argument, which
Fisher produced in 1930, generated much controversy and did not survive the
death of its creator. Fisher created many terms in everyday use, e.g. statistic
and sampling distribution and so there are many references to his work on
the Words pages. See Symbols in Statistics for his contributions to notation.
Fisher influenced statisticians mainly through his writingsee the experience
of Bose and Youden. Among those who worked with him at Rothamsted
were Irwin Wishart, Yates (colleagues) and Hotelling (voluntary worker)
MGP. In London and Cambridge Fisher was not in a Statistics department
and Rao was his only PhD student in Statistics. For more information see A
Guide to
R. A. Fisher. See Hald (1998, ch. 28 Fishers Theory of Estimation 1912-1935
and his Immediate Precursors).
Brief History of Kolmogorov
Andrei Nikolaevich Kolmogorov (1903-87) Mathematician. MacTutor
References. MGP. LP.
Kolmogorov was one of the most important of C20 mathematicians and
although he wrote a lot of probability it was only a small part of his total
output. Like Khinchin, he was a student of Luzin at Moscow State Univer-
sity. In 1924 Kolmogorov started working with Khinchin and they produced
results on the law of the iterated logarithm and the strong law of large num-
bers. Kolmogorovs most famous contribution to probability was the Grund-
begriffe der Wahrscheinlichkeitsrechnung (1933), (English translation) which
presented an axiomatic foundation. This made possible a rigorous treatment
of stochastic processes. His 1931 paper Analytical methods in probability
theory laid the foundations for the theory of markov processes; this paper
contains the Chapman-Kolmogorov equations. In 1941 Kolmogorov devel-
oped a theory of prediction for random processes, parallel to that developed
by Wiener. In the 60s Kolmogorov returned to von Misess theory of proba-
bility and developed it in the direction of a theory of algorithmic complex-
ity; this work was continued by the Swedish mathematician P. Martin-Lf.
In statistics he contributed the Kolmogorov-Smirnov test. From 1938 Kol-
mogorov was associated with the Steklov Mathematical Institute. He had
many students, among them Gnedenko and Dynkin. See also Symbols in
Probability Life & Work. See von Plato (ch. 7) Kolmogorovs measure the-
oretic probabilities. See also Vovk & Shafer Kolmogorovs Contributions to
the Foundations of Probability and The Origins and Legacy of Kolmogorovs
Grundbegriffethe published version of the latter (Statistical Science (2006)
Number 1, 70-98) is different again.
Chapter 2
Estimasi Titik
Misalkan X variabel random dengan fungsi kepadatan probabilitas f (x;
θ) dengan∈θ Ω Rr. Jika θ diketahui maka semua probabilitas yang di-
inginkan dapat dihitung. Akan tetapi biasanya θ tidak diketahui sehingga
memunculkan masalah bagaimana mengestimasi parameter θ atau suatu
fungsi dari θ yaitu g(θ) dengan g fungsi real dan terukur.

Definisi 2.1

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas f (x; θ). Sebarang statistik

U = U (X1, X2, . . . , Xn)

yang digunakan untuk menaksir kuantitas yang tidak diketahui


dinamakan estimator dari g(θ). Nilai dari U (x1, x2, . . . , xn) untuk nilai-
nilai pengamatan x1, x2, . . . , xn dinamakan estimasi dari g(θ).

Definisi 2.2

Misalkan g fungsi real dan terukur. Estimator U = U (X1, X2, . . . , Xn)


dina- makan estimator tak bias (unbiased estimator ) dari g(θ) jika

E[U = U (X1, X2, . . . , Xn)] = g(θ)

untuk semua θ ∈Ω. Fungsi g dikatakan tertaksir (estimable) jika g(θ) mem-
punyai estimator tak bias.
Definisi tentang ketakbiasan mengelompokkan statistik-statistik ke dalam
suatu kelas estimator tak bias. Jika U = U (X1, X2, . . . , Xn) estimator tak
bias untuk g(θ) maka harga harapan dari U sama dengan g(θ). Meskipun
kriteria ketakbiasan sudah mengkhususkan diri pada kelas estimator yang
memenuhi sifat tertentu tetapi kelas ini masih terlalu besar. Untuk itu perlu
dipilih dari dua estimator tak bias yaitu yang mempunyai variansi yang lebih
kecil.
Dasar pemikiran yang digunakan adalah bahwa variansi atau simpangan
baku memberikan ukuran konsentrasi di sekitar mean. Jika

U = U (X1, . . . , Xn)

estimator tak bias untuk g(θ) maka dengan menggunakan pertidaksamaan


Chebisev diperoleh

Pθ[|U − g(θ)| ≤ ε] ≥ 1 Var(U


)
− .
ε
Oleh karena itu, Var(U ) yang kecil akan memperbesar batas bawah proba-
bilitas konsentrasi U di sekitar g(θ).

Definisi 2.3

Misalkan g tertaksir. Suatu estimator

U = U (X1, X2, . . . , Xn)

dikatakan estimator UMV U untuk g(θ) jika U tak bias dan mempunyai
variansi minimum diantara kelas semua estimator tak bias dari g(θ)
dengan θ ∈ Ω. Jika U = U (X1, X2, . . . , Xn) adalah sebarang estimator
tak bias dari
g(θ) maka
Varθ(U1) ≥ Varθ(U )
untuk semua θ ∈ Ω.
Dalam banyak kasus, estimator UMVU ada. Untuk memperolehnya ter-
dapat 2 metode yaitu metode pertama yang digunakan bila tersedia statistik
cukup yang lengkap dan metode kedua yang digunakan bila tidak tersedia
statistik cukup yang lengkap. Pada metode kedua, terlebih dahulu diten-
tukan batas bawah semua estimator dan kemudian memilih suatu estimator
yang mempunyai variansi sama dengan batas bawah tersebut.
2.1 Metode yang digunakan bila tersedia
statis- tik cukup yang lengkap
Misalkan
T = (T1, T2, . . . , Tr)t
dengan Tj = Tj (X1 , X2, . . . , Xn ) untuk j = 1, 2, . . . , r adalah statistik
cukup untuk θ dan U = U (X1, X2, . . . , Xn) estimator tak bias dari g(θ)
dengan g
fungsi real. Misalkan φ(T) = E[U |T]. Estimator merupakan estimator tak
bias dari g(θ) dan Var(φ) ≤ Var(U ) untuk semua θ ∈ Ω dengan kesamaan
dipenuhi bila U merupakan fungsi dari T.
Jika tersedia statistik cukup maka Teorema Rao-Blackwell mengatakan
bahwa pencarian estimator UMVU untuk g(θ) cukup dibatasi pada kelas
esti-
mator tak bias yang hanya tergantung pada T. Jika T lengkap maka dengan
menggunakan Teorema Lehman-Scheffe, estimator tak bias φ(T) adalah esti-
mator unik yang mempunyai variansi minimum seragam dalam kelas semua
estimator tak bias. Metode ini tidak hanya menjamin keberadaan estimator
tetapi juga menghasilkannya.

Teorema 2.1

Misalkan g fungsi terukur dan real. Misalkan terdapat estimator tak bias
U = U (X1, X2, . . . , Xn) dari g(θ) dengan variansi berhingga. Jika
T = (T1, T2, . . . , Tr)t
dengan Tj = Tj (X1 , X2 , . . . , Xn ) untuk j = 1, 2, . . . , r adalah statistik
cukup untuk θ, lengkap dan φ(T)| = E[U T] maka estimator UMVU
untuk g(θ) dan tunggal.

Contoh 2.1

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


Bi- nom(1, θ) dan akan ditentukan estimator UMVU dari variansi X.
Karena X berdistribusi maka variansi dari X adalah Var(X) = g(θ) = θ(1
− θ). Jika Σ
n
U= − X¯ )2
i=1 (Xi
n−1
maka Eθ[U ] = g(θ). Hal itu berarti U merupakan estimator tak bias untuk
g(θ). Lebih jauh,
Σ Σ n
¯ 2 (Xi2 − X)¯

= X −
i=1 i=1
Karena Xi = 0 atau 1 maka Xi2 = Xi sehingga
Σi=1 =
n n . 1 n X Σ2.
2 ¯
Xi − nX Σi= Xi − n i
1 n i=1
Σn Σ
Jika T = i= Xi maka
1 diperoleh
Σn . 1 Σn Σ2 T2
Σ n
n n
X2 −
i nX
¯ Xi − Xi= = T − ,
1
i= i=n i
1 = 1

sehingga U = 1 .T − Tn 2 Σ. Karena T merupakan statistik lengkap dan juga


n−1
merupakan statistik cukup untuk θ maka dengan mengingat Teorema 2.1, U
merupakan estimator UMVU untuk g(θ) = θ(1 − θ).

Contoh 2.2

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi N(µ, σ2)
dengan µ dan σ2 tidak diketahui. Akan ditentukan estimator UMVU untuk µ
Σn
dan σ 2. Misalkan θ = (µ, σ 2)t , g1(θ) = µ dan g1 (θ) = σ 2 . Jika X¯ = i= Xi
dan i=X2 merupakan statistik yang lengkap. Jika U i
= 1 1
1 dan
Σn ¯
n X
S 2 = Σ1 (Xi
n − X¯ )2
i=1

maka (X¯ , S 2) merupakan statistik yang lengkap. Jika U1 = X¯ dan U2 =


nS 2 maka E[U1 ] = µ dan E[nS 2/σ 2 ] = n − 1 sehingga E[nS 2 /(n − 1)]σ 2.
Hal itu berarti U1 estimator tak bias untuk µ dan U2 merupakan estimator
tak bias untuk σ2. Karena U1 dan U2 hanya tergantung pada statistik
cukup yang lengkap maka (X¯ , S 2)t merupakan estimator UMVU untuk
(µ, σ 2).

2.2 Metode yang digunakan bila tidak terse-


dia statistik cukup lengkap
Misalkan Ω ⊆ R, g fungsi real dan terdeferensialkan untuk semua θ ∈ ω.
Untuk menggunakan metode ini diperlukan syarat-syarat berikut ini :
1. f (x; θ) positif pada himpunan S yang tidak bergantung pada θ ∈ Ω.

2. Ω interval terbuka dalam R.


3. ∂f (x; θ)/∂θ ada untuk semua θ ∈ Ω dan semua x ∈ S.
∫ ∫
4. S. . . S f (x1; θ) . . . f (xn; θ)dx1 . . . dxn atau
Σ Σ
... f (x1; θ) . . . f (xn; θ)
S S

dapat dideferensialkan di bawah tanda integral atau tanda sigma.

5. I(θ) = E[∂f (x; θ)/∂θ]2 positif untuk semua θ ∈ Ω.


∫ ∫
6. S . . . S u(x1, . . . , xn)f (x1; θ) . . . f (xn; θ)dx1 . . . dxn atau
Σ Σ
... u(x1, . . . , xn)f (x1; θ) . . . f (xn; θ)
S S

dapat dideferensialkan di bawah tanda integral atau tanda sigma den-


gan sebarang statistik tak bias untuk θ.

Teorema berikut ini memberikan sifat tentang batas bawah dari variansi
suatu statistik.

Teorema 2.2 (Cramer-Rao Inequality)

Misalkan X1, . . . , Xn variabel random saling-bebas dan berdistribusi


iden- tik dengan fungsi kepadatan serta dianggap syarat-syarat tersebut
dipenuhi.
Untuk sebarang estimator tak bias U = U (X1, . . . , Xn) dari g(θ) berlaku
[g J (θ)]2
Var(U ) ≥ nI(θ)

dengan θ ∈ Ω dan g J (θ) = dg(θ)/dθ.

Definisi 2.4

I(θ) = E[∂f (x; θ)/∂θ]2 dinamakan informasi Fisher sedangkan nI(θ) adalah
informasi yang terkandung dalam sampel X1, . . . , Xn.

Contoh 2.3

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi Binom(1,


θ) dengan∈θ (0, 1). Fungsi probabilitas dari variabel random X yang berdis-
tribusi Binom(1, θ) adalah

f (x; θ) = θx(1 − θ)1−x


atau ln f (x; θ) = x ln θ + (1 − x) ln θ sehingga

∂ ln f (x; θ) 1 1−x
= − .
∂θ 1−θ
Akibatnya θ
∂ ln f (x; θ) 1 1 2
. Σ2 = x2 + (1 − x)2 − x(1 − x).
∂ θ2 (1 − θ(1 −
θ 2
Karena E[X ] = θ dan E[(1 − X) 2
2
θ) ] = 1 − θ serta θ)
E[X(1 X)] = 0 maka
informasi Fisher I(θ) adalah −
∂ ln f (x; θ) 1 1 2
E. Σ2 = E[X2] + E[(1 − X)2] − E[X(1 − X)]
∂θ θ2 (1 − θ) 2
θ(1 − θ)
1 1
= 2
θ+ 2
(1 − θ)
θ
1 1(1 − θ)
= +
θ 1−θ
1
= .
θ(1 − θ)
Hal itu berarti batas bawah Cramer-Rao untuk g(θ) adalah
[g J (θ)]2
CRLB =
nI(θ)
1
= 1
n θ(1−θ)
θ(1 − θ)
= n .

Karena merupakan estimator tak bias θ dan variasinya adalah



θ(1 − θ)
V (X¯ ) = n

yaitu sama dengan batas bawah Cramer Rao maka X¯ merupakan estimator
UMVU untuk θ.

Contoh 2.4

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi Poisson(θ)


dengan θ > 0. Fungsi probabilitas dari variabel random X yang berdistribusi
adalah
f (x; θ) = e−θθx
x!
atau ln f (x; θ) = −θ + x ln θ − ln(x!) sehingga
∂ ln f (x; θ) x
= −1 +
∂θ θ
dan . ∂ ln f (x; θ) Σ2 1 2
= 1 + x2 − x.
∂ θ2 θ
θ
Karena E[X] = θ dan E[X2] = θ(1 + θ) maka
∂ ln f (x; θ) 1 2
EΣ. Σ2Σ = E[1] + E[X 2 ] − E[X]
∂θ θ2 θ
1 2
= 1 + 2 θ(1 + θ) − θ
θ1 θ
= 1 + (1 + θ) − 2
θ 1
= −1 + + 1
1 θ
= .
θ
Hal itu berarti batas bawah Cramer-Rao untuk θ sama dengan
[g J (θ)]2 1 θ
CRLB = = 1 = .
nI(θ) n n
θ

Karena merupakan estimator tak bias untuk θ dan variansinya adalah



Var(X¯ ) =n yaitu sama dengan batas bawah CRLB maka merupakan
θ

estimator UMVU untuk θ.

Contoh 2.5

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi N(µ, σ2)
dengan µ ∈ R dan σ2 > 0.

Kasus 1

Misalkan bahwa σ2 diketahui dan µ = θ. Fungsi kepadatan probabilitas


X yang berdistribusi N(θ, σ2) adalah
1 Σ f (x; θ) =
√ exp (x − θ)2
Σ
2πσ2
2σ2

atau
2
1
ln f (x; θ) = . √ − (x − θ) .
2σ2
ln 2
Akibatnya Σ 2πσ
∂ ln f (x; θ) 1 (x − θ)
∂θ =σ σ
atau
. ∂ ln f (x; θ) 1 (x − θ)2
2 = 2 σ2
Σ σ .
∂θ
Karena X berdistribusi N(θ, σ2) maka (X−θ) berdistribusi N(0, 1) sehingga
σ
berdistribusi chi-kuadrat dengan derajat bebas 1. Akibatnya E[(X−θ)2σ]2 = 1.
Hal itu berarti
. ∂ ln f (x; θ) 1 . (X − θ)2 1
2
EΣ = 2 2 = 2
∂θ Eσ Σ σ σ

sehingga batas bawah Cramer-Rao untuk g(θ) adalah


σ2
g J (θ) 1
CRLB = = = .
nI(θ) nσ12 n
Karena merupakan estimator tak bias untuk g(θ) = θ dan variansinya
X ¯
adalah Var(X¯ ) =n σ2 yaitu sama dengan batas bawah Cramer-Rao maka X¯
merupakan estimator UMVU untuk θ.

Kasus 2

Misalkan bahwa µ diketahui dan σ2 = θ. Fungsi kepadatan probabilitas


X yang berdistribusi N(µ, θ) adalah
1 Σ
(x −
f (x; θ) = √ exp Σ
2πθ µ)2
− 2θ
(x−µ)
sehingga ln f (x; θ) = 1
ln(2π) − 1 ln θ − 2 . Akibatnya
2 2

∂ ln f (x; θ)
2θ 1 (x − µ)2
=− +
∂θ 2θ 2θ2
dan
. ∂ ln f (x; . Σ
− 1 + 1 (x − µ) + 1 x − µ 4
2
= √ .
θ) Σ2 4θ2 θ 4θ2
θ
∂ 2θ2
θ
Karena variabel random X berdistribusi N(µ, σ2) maka X−µ√ berdistribusi
θ
N(0, 1) sehingga
Σ(X−µ) Σ berdistribusi chi-kuadrat
Σ(X−µ) Σ dengan derajat bebas 1. Akibat-
nya E θ
2 = 1 dan Var
θ
2 =2
sehingga EΣ. Σ.(X − µ)2 Σ2Σ
−µ
x√ = E
Σ4Σ θ
θ Σ(X − µ)2 Σ . Σ(X − µ)2 ΣΣ2
= Var + E
θ θ
= 2 + 1 = 3.
Oleh karena itu
Σ. ∂ ln f (x; θ) Σ2Σ 1 1 Σ(x − µ)2 1 Σ. x − µ Σ4Σ
Σ
E
∂θ =− E[1] + E + E √
4θ2 2θ2 4θ2 θ
sehingga
Σ. ∂ ln f (x; θ) Σ2Σ 1 1 3
E ∂θ = 4θ2− +2
2θ 4θ2
1
= .
2θ2
Karena batas bawah Cramer-Rao untuk g(θ) adalah
[g J(θ)]2 1 2θ2
CRLB = = = .
nI(θ) n 1 2θ2 n
Karena variabel random Xi berdistribusi N(µ, θ) untuk i = 1, 2, . . . , n maka
X i− µ
θ
berdistribusi N(0, 1) sehingga berdistribusi chi-kuadrat dengan derajat
bebas 1. Dengan mengingat θ saling bebas untuk i = 1, 2, . . . , n maka
Σ
X

i µ

n (Xi −µ)2
i=1 θ
berdistribusi chi-kuadrat dengan derajat bebas n. Akibatnya

Σ
n
Σ Σ
(X − Σ n (X −
E = n, VarΣ = 2n
Σ i= i µ)2 i=
i
µ)2
1
θ 1 θ
sehingga
i=
1 n
Σn (Xi −µ)2
θ
estimator tak bias untuk θ dan variansinya 2θ2 sama
dengan CRLB. Hal itu berarti merupakan estimator UMVU untuk θ.

Kasus 3

Bila µ dan σ2 tidak diketahui maka µ = θ1 dan σ2 = θ2 sehingga estimator


UMVU untuk θ1 adalah X¯ dan estimator UMVU untuk θ2 adalah
n
ˆ = 1 Σ
θ2 − 1 (X n i − X¯ )2 .
i=1
Σn . X − ¯
Σ
Karena i= √i X
θ2 berdistribusi chi-kuadrat dengan derajat bebas n − 1
1
maka variansi dari θˆ2 adalah 2θ2/(n − 1). Hal itu berarti estimator UMVU
untuk θ2 mempunyai variansi lebih besar dari batas bawah Cramer-Rao.
Estimator UMVU untuk g(θ) dinamakan estimator efisien untuk g(θ).
Jika u estimator UMVU untuk θ dan U ∗ sebarang estimator tak bias untuk
g(θ) maka kuantitas mengukur efisiensi relatif U ∗ terhadap u. Jelas bahwa
efisiensi relatif mempunyai nilai dalam interval (0, 1].

2.3 Kriteria Pemilihan Estimator : Prinsip


MLE
Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi
iden- tik dengan fungsi kepadatan probabilitas f (x; θ), θ ∈ Ω ⊆ Rr dan
anggap bahwa fungsi kepadatan probabilitas bersamanya dinyatakan dengan
f (x1; θ)f (x2; θ) . . . f (xn; θ).
Bila fungsi kepadatan probabilitas bersama ini, variabel x dipandang sebagai
konstanta dan merupakan fungsi dari θ maka dinamakan fungsi likelihood
(likelihood function) dan dinotasikan dengan
L(θ|x1, x2, . . . , xn).

Definisi 2.5

Estimasi θ = θ(x1, x2, . . . , xn) dinamakan MLE (maximum likelihood esti-


mator ) dari θ jika
L(θ|x1 , x2, . . . , xn ) = max{L(θ|x1 , x2 , . . . , xn )}
dan θ = θ(x1, x2, . . . , xn) dinamakan MLE untuk θ.
Karena fungsi y = ln x, x > 0 merupakan fungsi naik tajam maka un-
tuk memaksimumkan L(θ|x1, x2, . . . , xn) terhadap θ cukup dengan memak-
simumkan
ln L(θ|x1, x2, . . . , xn).
Contoh 2.6

Misalkan X1, . . . , Xn variabel random saling-bebas dan berdistribusi


Poisson(θ). Fungsi probabilitas dari Xi adalah
−θ x
f (xi; θ) = e θ
i

xi!
sehingga fungsi likelihoodnya adalah

L(θ|x , x , . . . , n n1
x 1 2 ) = exp[−nθ]θ P xi Q i= xi! .
1

Logaritma naturalis dari fungsi likelihoodnya adalah

l(θ) = ln L(θ|x1, x2, . . . , xn) = − . n . n xi


xi!Σ − nθ
ln Y Σ Σ ln θ.
i= + i=
1 1

Oleh karena itu ∂ l = −n + nX¯ 1 = 0 dan diperoleh θˆ = X¯ . Sedangkan


∂ θ
∂2 = −nx¯
∂ l
θ2
1
< θ0 untuk semua θ > 0 sehingga berlaku juga untuk θ = θˆ.
θ

Contoh 2.7

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi N(µ, σ2)
dengan parameter θ = (µ, σ2)t. Fungsi likelihoodnya adalah
.√ 1 exp n (x − µ)2 Σ
i
L(θ|x1, x2, . . . , xn) 2 .
Σ 12

= Σ 2πσ −i=
1
sehingga √ n
1
−n ln(2π) − n ln( σ ) −
L(θ|x , x , . . . , x ) = Σ 2
− µ)2 .
(x
1 2 n i
2σ2 i=1
Akibatnya n

Σ ln L 2 n
= − µ) = (X¯ − µ)
(X
∂µ 2σ2 i=1
i
σ2
dan n
∂ ln L n1 Σ 2
=− 2 + 4 (X i − µ) = 0
∂σ2 2σ 2σ = i
1
sehingga diperoleh µˆ = Σn
¯ 2
i= (Xi − X ) . Jika σ diketahui
2 1 2
dan σ =
X¯ n
1
dan µ = θ maka µˆ =Σx¯ adalah MLE untuk µ sedangkan jika µ diketahui
= θ maka σˆ =n 1 i= (Xi − X¯ )2 adalah MLE untuk σ 2 .
dan
2 n
σ
1

Contoh 2.8

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi U (α, β).
29
Fungsi kepadatan probabilitas dari U (α, β) adalah
1
f (x; θ) =
β−α

29
untuk α < x < β dengan θ = (α, β)t ∈ Ω. Fungsi likelihoodnya adalah
n
Y
L(θ|x1, x2, . . . , xn) = f (xi;
θ)
i=1
= Y
n
1 untukα < xi < β
β−α
i=1
1
= I[α,∞)(X(1))I(−∞,β](X(1)).
(β − α)n
Fungsi likelihoodnya akan mencapai maksimum jika − β α minimum yaitu
ˆ
jika αˆ = X(1) dan β = X(n) . Jadi MLE untuk α dan β masing-masing
adalah αˆ = X(1) dan βˆ = X(n) . Khususnya, jika − α = θ c dan β = θ + c
dengan c
positif dan c diketahui maka fungsi likelihoodnya adalah
1
L(θ|x1, x2, . . . , xn) =I[θ−c,∞)(X(1))I(−∞,θ+c](X(1)).
(2c)n
1
Fungsi likelihood dimaksimumkan dan nilai maksimumnya adalah (2c)
untuk
sebarang θ sehingga θ − c ≤ X(1) dan θ + c ≥ X(n) yaitu ekuivalen n
dengan

X(n) − c ≤ θ ≤ X(1) + c.

Hal itu berarti bahwa sebarang statistik yang terletak antara X(n) c −
dan X(1)
1
+ c merupakan MLE untuk θ. Sebagai contoh 2[X(1) + X(n)] merupakan
MLE untuk θ. Jika β diketahui dan α = θ maka θˆ = X(1) merupakan MLE
untuk θ sedangkan jika α diketahui dan β = θ maka θˆ = X(n) merupakan
MLE untuk θ.

Teorema 2.3

Misalkan X1, . . . , Xn variabel random saling bebas dengan fungsi


kepadatan probabilitas f (x; θ) dan T = (T1 , . . . , Tr )t dengan Tj =
Tj (X1 , . . . , Xn ) un- tuk j = 1, 2, . . . , r merupakan statistik cukup untuk
θ = (θ1, . . . , θr)t. Jika θˆ = (θˆ1 , . . . , θˆr ) adalah MLE yang tunggal
untuk θ dan θˆ merupakan fungsi dari T .

Teorema 2.4

Misalkan X1, . . . , Xn variabel random saling bebas dengan fungsi


(x; θ)⊆dan θ Ω Rr. Jika φ didefinisikan pada Ω ke
kepadatan probabilitas f ∈
Ω R yang merupakan fungsi korespondensi satu-satu dan θˆ adalah
∗ m

MLE untuk θ 30
maka φ(θ) merupakan MLE untuk φ(θ). Hal itu berarti MLE invariant di
bawah transformasi satu-satu.

Contoh 2.9

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi N(µ, σ2)
dengan parameter θ = (µ, σ 2)t . Berdasarkan Contoh 2.7, merupaka n MLE

untuk σ2. Misalkan didefinisikan φ : Ω ›→ Ω∗ dengan φ(θ) = θ dan
Ω = Ω∗ = { R ∈ R |σ ≥ 0} yang merupakan fungsi korespondensi satu-satu.
Dengan menggunakan Teorema 2. 4, diperoleh bahwa
‚. 1
n n
,Σi=1 (Xi − X¯ )2

merupakan MLE untuk σ.

2.4 Estimator Momen


Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi
identik dengan f (x; θ) dan untuk bilangan positif r dianggap bahwa
E[X r ] = mr berhingga. Dengan menggunakan metode ini mr akan
diestimasi
P dengan
momen sampel yaitu n r
i= xi
1 . Bila sistem persamaan
n n
1Σ k
x = m k (θ1, θ2, . . . , θr )
n i= i
1
dengan k = 1, 2, . . . , r dapat diselesaikan maka akan menghasilkan
estimator untuk θj dengan j = 1, 2, . . . , r.

Contoh 2.10

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi N(µ, σ2)
dengan µ dan σ2 tidak diketahui. Dengan menggunakan metode momen
diperoleh sistem persamaan
Σi=1
n
Xi n = E[X] = µ,
n
Σi=1Xi2
n = E[X 2 ] = Var(X) + (E[X])2 = σ2 + µ2,
sehingga menghasilkan estimator momen µˆ = X¯ dan σ 2 =n 1 i= (Xi − X¯ )2 .
Σn 1
Contoh 2.11

Misalkan X1, . . . , Xn variabel random saling bebas dan berdistribusi U (α, β)


dengan α dan β tidak diketahui. Dengan metode momen diperoleh sistem
persamaan

Σi=1
n
Xi α+β
= X¯ = E[X] ,
Σn n 2 = 2
i= X i
(α − β)2 (α + β)2
1 + ,
12 4
n = X¯2 = E[X 2 ] = Var(X) + (E[X])2
=
sehingga diperoleh

α + β = 2X¯
2 . 2
.X Σ2 = (α − β) = β√ α
X¯2 ¯ 12 Σ 12


atau
α + β = 2X¯

−α + β = S 12.
Akibatnya estimator momen untuk α dan β berturut-turut adalah
√ √
αˆ = X¯ − 12 12
S, βˆ = X ¯ S.
2 + 2

Terlihat bahwa estimator momen dari α dan β bukan merupakan fungsi dari
statistik cukup dari α dan β. Hal ini merupakan salah satu kekurangan
dari metode momen. Kekurangan lain dari metode ini adalah bahwa metode
ini tidak dapat digunakan bila momennya tidak ada seperti pada distribusi
Cauchy.
2.5 Kriteria Pemilihan Estimator :
Pendekatan Teori Keputusan
Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi
iden- tik dengan fungsi kepadatan probabilitas ∈f (x; θ), θ Ω R dan
diinginkan untuk mengestimasi θ.

Definisi 2.6

Fungsi keputusan δ adalah fungsi terukur yang didefinisikan dari Rn ke R.


Nilai δ(x1, x2, . . . , xn) dari δ pada dinamakan keputusan (decision).

Definisi 2.7

Untuk mengestimasi θ berdasarkan X1, X2, . . . , xn dan menggunakan kepu-


tusan δ. Fungsi kerugian (loss function) adalah fungsi non negatif dari θ dan
δ(x1, x2, . . . , xn) yang menyatakan kerugian yang diakibatkan bila mengesti-
masi θ dengan δ(x1, x2, . . . , xn).
Fungsi kerugian yang biasa digunakan adalah

L[θ; δ(x1, x2, . . . , xn)] = |θ − δ(x1, x2, . . . , xn)|

atau secara umum

L[θ; δ(x1, x2, . . . , xn)] = |θ − δ(x1, x2, . . . , xn)|k

untuk k > 0 atau L[θ; δ(x1, x2, . . . , xn)] fungsi konveks dari θ. Bentuk fungsi
kerugian yang biasa digunakan adalah

L[θ; δ(x1, x2, . . . , xn)] = (θ − δ(x1, x2, . . . , xn))2.

Definisi 2.8

Fungsi resiko (risk function) yang bersesuaian dengan L[θ; δ] dan dinotasikan
dengan R[θ; δ] didefinisikan sebagai

R[θ; δ] = E[L(θ; δ(x1, x2, . . . , xn))].

Hal itu berarti bahwa resiko dari fungsi keputusan yang diberikan adalah
rata-rata atau harapan jika fungsi keputusan tersebut digunakan.
Dua keputusan δ dan δ∗ dikatakan ekuivalen bila
R[θ; δ] = E[L(θ; δ(x1, x2, . . . , xn))] = E[L(θ; δ∗(x1, x2, . . . , xn))] = R[θ; δ∗].
Dalam konteks estimasi titik, keputusan δ(x1, x2, . . . , xn) dinamakan
estimasi dari θ dan kebaikannya ditentukan berdasarkan resiko R[θ, δ].

Definisi 2.9

Estimator δ dari θ dikatakan admisible jika tidak ada estimator lain δ∗ dari
δ sehingga untuk semua R[θ; δ∗] ≤ R[θ; δ] untuk semua θ ∈ Ω.

Definisi 2.10

Kelas dari estimator D dikatakan essentially complete jika untuk sebarang


estimator δ∗ dari θ tidak dalam D sehingga R[θ; δ] ≤ R[θ; δ∗] untuk semua
θ ∈ Ω.
Hal itu berarti bahwa pencarian estimator dengan sifat-sifat optimal
membatasi perhatian kita pada kelas yang essentially complete dari
estimator- estimator admisible. Apabila hal ini dikerjakan, maka muncul
pertanyaan
: yang manakah dari kelas ini yang dapat dipilih sebagai suatu estimator
dari θ. Untuk itu dipilih estimator δ sehingga untuk sebarang estimator
lain δ∗ dalam kelas dari semua θ∈ Ω. Sayangnya estimator yang demikian
tidak ada kecuali untuk kasus-kasus yang sederhana. Akan tetapi, jika kita
membatasi hanya pada kelas estimator tak bias dengan variansi berhingga
dan mengambil fungsi kerugian kuadrat maka R[θ; δ] menjadi variansi dari
δ∗(x1, x2, . . . , xn). Kriteria pemilihan di atas bersesuaian dengan pencarian
estimator UMVU.
Estimator yang meminimumkan hal-hal buruk yang terjadi pada kita
yaitu meminimumkan resiko maksimum atas θ. Jika estimator yang mem-
punyai sifat tersebut ada maka dinamakan estimator minimaks (minimax
estimator ). Untuk mencari estimator minimaks ini masih dibatasi pada ke-
las estimator yang essentially complete.

Definisi 2.11

Dalam kelas D yaitu semua estimator yang mempunyai sifat R[θ; δ]


berhingga untuk∈semua θ Ω, estimator δ dikatakan minimaks (minimax ) jika
untuk sebarang estimator δ∗ yang lain berlaku sifat

sup{R[θ; δ]; θ ∈ Ω} ≤ sup{R[θ; δ∗]; θ ∈ Ω}.

Misalkan Ω ⊆ R dan θ adalah variabel random dengan fungsi kepadatan


probabilitas yaitu fungsi kepadatan probabilitas prior
∫ Σ
R(δ) = E[R(θ; δ)] = R[θ; δ]λ(θ)dθ atau R[θ; δ]λ(θ).

Hal itu berarti bahwa R(δ) adalah resiko rata-rata dari seluruh ruang pa-
rameter Ω bila digunakan estimator δ.
Misalkan D2 adalah kelas semua estimator sehingga R(δ) berhingga un-
tuk suatu prior λ pada Ω yang diketahui.

Definisi 2.12

Dalam kelas D2, estimator δ dikatakan estimator Bayes (dalam teori kepu-
tusan dan berkaitan dengan fungsi kepadatan probabilitas prior λ pada Ω)
jika R(δ) ≤ R(δ∗) untuk semua estimator δ∗ yang lain.

Penentuan Estimator Bayes

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi kepa-
datan probabilitas f (x, θ), θ ∈ Ω ⊆ R. Dalam hal ini digunakan fungsi keru-
gian kuadrat. Misalkan θ variabel random dengan fungsi kepadatan prior λ.
Akan ditentukan δ sehingga menjadi estimator Bayes dari θ dalam arti teori
keputusan.

Teorema 2.5

Estimasi Bayes dari θ yang bersesuaian dengan fungsi kepadatan probabilitas


λ pada Ω sehingga

θf (x1; θ)f (x2; θ)λ(θ)f (xn; θ) . . . dθ

dan ∫
f (x1; θ)f (x2; θ)λ(θ)f (xn; θ) . . . dθ

berhingga untuk setiap (x1x2, . . . , xn)t diberikan oleh

θf (x1; θ)f (x2; θ)λ(θ)f (xn; θ) . . . dθ
δ(x1x 2, . . . , ) = ∫Ω
x n

f (x1 ; θ)f (x2 ; θ)λ(θ)f n ; θ) . . .
(x dθ
asalkan λ
kontinu.
Jika nilai pengamatan dari Xi adalah xi untuk i = 1, 2, . . . , n maka
akan ditentukan fungsi kepadatan probabilitas bersyarat dari θ bila
diberikan
X1 = x1, X2 = x2, . . . , Xn = xn merupakan fungsi kepadatan posterior dari
θ. Fungsi kepadatan posterior dari θ adalah

f (x 1 ; θ )f ( x 2 ; θ ) . . . f f (x ; θ )λ (θ )
(h(θ θ) =
xn;| x) =
h(x) h(x)
f (x1; θ)f (x2; θ) . . . f (xn; θ)λ(θ)
= h(x)
dengan
∫ ∫
h(x) = f (x; θ)λ(θ)dθ = f (x1; θ)f (x2; θ) . . . f (xn; θ)λ(θ)dθ
Ω Ω

untuk λ kontinu.
Estimator Bayes untuk θ yaitu δ(x1x2, . . . , xn) adalah harapan dari θ
berkaitan dengan fungsi kepadatan probabilitas posteriornya. estimator Bayes
yang lain dari θ adalah median dari h(θ|x) atau modus dari h(θ|x) jika ada.

Contoh 2.12

Misalkan variabel random saling bebas dari distribusi Binom(1, θ)



dengan θ Ω = (0, 1). Fungsi kepadatan probabilitas priornya dipilih
berdistribusi Beta(α, β) dengan parameter α dan β yaitu
Γ(α + β )
λ(θ) = θα−1(1 − θ)β−1
Γ(α)Γ(β)

untuk θ ∈ (0, 1). Akibatnya



I1 = f (x1; θ)f (x2; θ) . . . f (xn; θ)λdθ

Γ(α + β ) ∫ 1
= θP xi (1 − xi θ
α−1
(1 − θ)β−1dθ
θ)n−P
Γ(α)Γ(β) 0
Γ(α + β ) ∫ 1
= P
P
x +α−1 x −1
θ)β+n− (1 −
θ i
dθ i

Γ(α)Γ(β) 0 Σ
Γ(α + β) Γ(α +
i= xi)Γ(β + n − xi)
n 1 Σ
n
= i=
1
Γ(α)Γ(β) Γ(α + β + n)
dan

I1 = θf (x1; θ)f (x2; θ) . . . f (xn; θ)λdθ

Γ(α + β ) ∫ 1
= θθP xi (1 − xi α−1
θ (1 − θ)β−1dθ
θ)n−P
Γ(α)Γ(β) 0
Γ(α + β ) ∫ 1
= P
P
x +α+1−1 x −1
θ i
(1 − dθ i

θ)β+n−
Γ(α)Γ(β) 0
Γ(α + β) Γ(α +
i= xi + 1)Γ(β + n − xi )
n Σ 1 Σn .
= i=
1
Γ(α)Γ(β) Γ(α + β + n + 1)
Diperoleh estimator Bayes adalah

δ(x1x 2, . . . , n ) = ∫Ω θf (x1; θ)f (x2; θ)λ(θ)f (xn; θ) . . . dθ
x f (x ;1 θ)f (x 2; θ)λ(θ)f ;nθ) . . .

(x Σ dθ
=
Σn Γ(α + β + n)Γ(α + ni= x1) i +
Γ(α + β + n)Γ(α + 1 i= x )
1 i

Σn Σn i= xi)
Γ(α + β + n) .α + i= x i Σ Γ(α + 1
=n
Σ 1
(α + β + n)Γ(α + β + n)Γ(α + i1=xi)
Σ xi
= αα++βni=1 +n .
Bila α = β = 1 maka distribusi priornya merupakan distribusi seragam
pada (0,1) sehingga diperoleh estimator Bayes
Σ n
1 + i=1 xi
δ(x1x2, . . . , xn) .
2+n
=

Penentuan estimator Minimaks

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi


kepa- datan probabilitas f (x; ∈ θ), θ Ω R dan λ fungsi kepadatan
probabili- tas prior pada Ω. Fungsi kepadatan probabilitas posterior dari
θ diberikan X = (X1, X2, . . . , Xn)t = (x1, x2, . . . , xn)t dinyatakan dengan
f (x1; θ)f (x2; θ) . . . f (xn; θ )
h(θ x)| = h(x) .
Telah diperoleh bahwa estimator Bayes dari θ dalam arti teori keputusan
diberikan dengan ∫
δ(x1, x2, . . . , xn) = θh(θ|x)dθ

asalkan λ kontinu.

Teorema 2.6

Misalkan terdapat fungsi kepadatan probabilitas λ pada Ω sehingga untuk


estimasi Bayes δ yang didefinisikan dengan

θf (x1; θ)f (x2; θ)λ(θ)f (xn; θ) . . . dθ
δ(x1x 2, . . . , n ) = ∫Ω
x fΩ (x ;1 θ)f (x 2; θ)λ(θ)f ;nθ) . . .
(x dθ
dan resiko R[θ; δ] tidak tergantung pada θ. Estimator δ(x1x2, . . . , xn)
meru- pakan estimator minimaks.

Contoh 2.12

Misalkan X1, . . . , Xn variabel random saling bebas dari distribusi Binom(1,


θ) dengan θ ∈ Ω = (0, 1). Fungsi ke padatan probabilitas priornya dipilih

tribusi Beta(α, β). Jika X =
berdis- i= Xi maka X berdistribusi Binom(n,
1 θ)
sehingga E[X] = nθ dan Var(X) = nθ(1 − θ) serta

E[X2] = Var(X) + (E[X])2 = nθ(1 − θ) + (nθ)2 = nθ(1 − θ + nθ).

Bila Σ
α + i=1
n α+X
δ(x1x2, . . . , xn) Xi =
=
α+β+n α+β+n
digunakan untuk mengestimasi θ maka akan mempunyai resiko
X+α
R[θ, δ] = EΣθ − Σ
n+α+
EΣ (n + α + ββ)θ − (X + α) 2
= n+α+β
Σ
(n + α + β)2θ2 − 2(n + α + β)θE[X + α] + E[X + α]2
= (n + α + β)2
(n2 + 2nα + 2nβ + (α + β)2)θ2 − 2(n + α + β)θ(nθ + α) + E[X2] + 2αE[X] + α2
= (n + α + β)2
(α + β)2θ2 − nθ2 − 2θα2 − 2θαβ + nθ − nθ2 + n2θ2 + α2
= (n + α + β)2
(α + β)2θ2 − nθ2 − 2θα2 − 2θαβ + nθ + α2
= (n + α + β)2
[(α + β)2 − n]θ2 − [2α2 + 2αβ − n]θ + α2
= (n + α + β)2.

Bila α = β = 2 n dan misalkan δ∗ hasil estimasi dari θ maka (α+β)2−n = 0
1
dan 2α2 + 2αβ − n = 0 sehingga

α2 (1/4)n 1

R(θ, δ ) = = √ = √ .
(n + α + β)2 (n + n)2 4(1 + n)2
Karena R(θ, δ∗) tidak tergantung pada
√ θΣ maka √
2 nX¯ + 1
1 n
n+ xi
√ √
δ∗(x1x2, . . . , xn) =
2
= 2( n + 1)
n + i=1
n
merupakan estimator minimaks.

Contoh 2.13

Misalkan X1, X2, . . . , Xn variabel random saling bebas dari distribusi


N(µ, σ2) dengan σ 2 diketahui dan µ = θ. Estimator x¯ merupakan
estimator UMVU untuk θ tetapi juga merupakan estimator minimaks dan
estimator yang ad- misible.

Contoh 2.14

Misalkan X1, X2, . . . , Xn variabel random saling bebas dari distribusi


N(0, σ2) dengan σ2 tidak diketahui. Misalkan σ2 = θ. Estimator UMVU
untuk θ adalah
1Σ n
U = X2
n i= i
1
dan variansinya adalah 2θ2 yaitu R(θ; U ) = 2θ2 .
n n
Misalkan estimatornya adalah δ = αU . Resiko yang terjadi jika digu-
nakan δ untuk mengestimasi θ adalah

R(θ; δ) = E[αU − θ]2


= E[α(U − θ) + (α − 1)θ]2
= α2E[U − θ]2 + 2α(α − 1)θE(u − θ) + E[(α − 1)2θ2].
Karena U estimator tak bias untuk θ maka E[U ] = θ sehingga E(U − θ) = 0
dan akibatnya E[U − θ]2 = E[U − E(U )]2 = Var(U ) = 2θ2 . Hal itu berarti
n
θ
R(θ, δ) = 2α2 + 0 + (α 1)2θ2

n
2
= θ (2α2 + − 2αn + n)
n 2

θ2
= [(n + 2)α 2 − 2nα + n].
n
n 2θ
Nilai α = n+2 akan meminimumkan resiko dan resikonya sama dengann+2 2

yang lebih kecil dari 2 untuk semua θ. Akibatnya U tidak admisible yaitu
n
resikonya bukan yang terkecil.

2.6 Sifat-sifat Optimal secara Asimptotik


dari Estimator
Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi iden-
tik dengan fungsi kepadatan probabilitas f (x; θ), θ ∈ Ω ⊆ R.

Definisi 2.12

Barisan estimator dari θ, {Vn} = {Vn(X1, X2, . . . , Xm)} dikatakan konsis-


ten dalam probabilitas (konsisten lemah) jika

Vn → θ

untuk n → ∞ dan untuk semua θ ∈ Ω. Demikian juga barisan estimator


dari θ, dikatakan konsiten hampir pasti (konsisten kuat) jika

Vn → θ

untuk n → ∞ dan untuk semua θ ∈ Ω.

Teorema 2.7

Jika E[Vn] dan Var(Vn) untuk n → ∞ maka Vn → θ.

Definisi 2.13

Barisan estimator dari θ, yang sudah dinormalkan dikatakan normal secara


asimptotik ke N(0, σ2(θ)) jika

n(Vn − θ) →d X

untuk n → ∞ dan untuk semua θ ∈ Ω dengan X berdistribusi normal


N(0, σ 2(θ)) (di bawah Pθ).

Sifat

Jika n(Vn − θ) → N(0, σ2(θ) untuk n → ∞ maka Vn → θ untuk n → ∞.
Definisi 2.14

Barisan estimator θ, dikatakan BAN (best asimptotically normal ) jika

1. estimator tersebut normal secara asimptotik.

2. variansi σ2(θ) dari distribusi normal limitnya terkecil untuk semua θ ∈


Ω dalam kelas semua barisan estimator yang memenuhi (1).

Barisan estimator BAN juga dinamakan efisien secara asimptotik.

Teorema 2.8

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi


kepa- datan probabilitas f (x; θ) ∈dengan θ Ω R. Jika syarat-syarat 1
sampai 6 pada pasal 2.2 dipenuhi, maka persamaan likelihood

∂ ln L(θ|x1, x2, . . . , xn) = 0
∗ θ
mempunyai akar θn = θ∗ (X1 , X2, . . . , Xn ) untuk setiap n, sehingga barisan

{θn } dari estimator adalah BAN dan variansi dari distribusi normal limitnya
sama dengan invers informasi Fishernya yaitu
Σ ∂ ln f (x;
I(θ) = Eθ ∂θ
θ) Σ2
dengan X mempunyai distribusi di atas.

Contoh 2.15
Misalkan X1, . . . , Xn variabel random saling bebas berdistribusi Binom(1, θ).
MLE dari θ adalah Σn Xi dan dinotasikan
1 X¯n . Dengan
X ¯ =
n i= dengan
menggunakan Hukum Bilangan1Besar Kuat (Strong Law of Large Number -
SLLN ) dan Hukum Bilangan Besar Lemah (Weak Law of Large Number -
WLLN ) diperoleh
n(X¯n − θ) → N(0, I −1 (θ))

dengan I(θ) = 1 . Akibatnya dengan menggunakan Teorema Limit Pusat
θ(1−θ)
(Central Limit Theorema) diperoleh bahwa

n(X¯n − θ)

θ(1 − θ)
berdistribusi N(0, 1) secara asimptotik.

Contoh 2.16
Misalkan X1, . . . , Xn variabel random saling bebas berdistribusi Poisson(θ).
MLE dari θ adalah Σ ¯
1n n i= Xi dan dinotasikan dengan X n . Den-
X ¯ = 1

gan menggunakan Hukum Bilangan Besar Kuat dan Hukum Bilangan Besar
Lemah, X¯ mempunyai sifat √ konsisten kuat dan konsisten lemah serta den-
gan Teorema Limit Pusat, n(X¯− n θ) berdistribusi normal secara asimptotik

dengan variansi sama dengan I−1(θ) = θ.

Contoh 2.17

Misalkan X1, . . . , Xn variabel random saling bebas dengan distribusi N(µ,


σ2) dengan µ tidak diketahui sedangkan σ2 diketahui. MLE untuk µ
adalah
X¯n . Jika σ 2 tidak diketahui dan µ diketahui maka MLE untuk σ 2 adalah
1 Σn √
¯
I (µ) = σ . Limit variansi dari n(X n −µ) yang berdistribusi normal adalah
−1 1 (Xi2 −µ) . Variansi dari
n i= 2

n i=
1

√n Σ 1 Σ Σ
n
(Xi − µ)2 −
yang berdistribusi normal adalah Iσ−12 (σ2) = 2σ2.

Definisi 2.15

Misalkan X1, . . . , Xn variabel random saling bebas dengan fungsi kepadatan


probabilitas f (x; θ) dengan θ ∈ Ω ⊆ R. Dua barisan estimator
{Un} = {U (X1, . . . , Xn}
dan {Un} = {U (X1, . . . , Xn} dikatakan ekuivalen secara asimptotik jika un-
tuk setiap θ ∈ Ω berlaku sifat

n(Un − Vn) → 0.

Contoh 2.18

Misalkan X1, . . . , Xn variabel random saling bebas berdistribusi Binom(1, θ).


Estimator UMVU untuk θ adalah
n

n i
n
U = X¯ 1Σ
n = X¯ = X.
=1
Estimator ini juga merupakan MLE. Akan tetapi estimator Bayes untuk θ
dengan fungsi kepadatan probabilitas prior Beta(α, β) adalah
Σ
n
α +i=1 Xi
n+α+β
dan estimator minimaksnya adalah
n
Σn
√2 + i= Xi
Wn √1 .
= n
+ n
Dengan menggunakan Teorema Limit Pusat

n(Un − θ) → Z

dengan Z ∼ N(0, θ(1 − θ)). Dapat juga ditunjukkan bahwa



n(Un − Vn) → 0.
Brief History of Rao
C. R. Rao (b. 1920) Statistician. ASA MGP.
Rao is the most distinguished member of the Indian statistical school
founded by P. C. Mahalanobis and centred on the Indian Statistical Insti-
tute and the journal Sankhya. Raos first statistics teacher at the University
of Calcutta was R. C. Bose. In 1941 Rao went to the ISI on a one-year
training programme, beginning an association that would last for over 30
years. (Other ISI notables were S. N. Roy in the generation before Rao and
D. Basu one of Raos students.) Mahalanobis was a friend of Fisher and much
of the early research at ISI was closely related to Fishers work. Rao was sent
to Cambridge to work as PhD student with Fisher, although his main task
seems to have been to look after Fishers laboratory animals! In a remarkable
paper written before he went to Cambridge, Information and the accuracy
attainable in the estimation of statistical parameters, Bull. Calcutta Math.
Soc. (1945) 37, 81-91 Rao published the results now known as the Cramr-
Rao inequality and the Rao-Blackwell theorem. A very influential
contribution from his Cambridge period was the score test (or Lagrange
multiplier test), which he proposed in 1948. Rao was influenced by Fisher
but he was perhaps as influenced as much by others, including Neyman. Rao
has been a pro- lific contributor to many branches of statistics as well as to
the branches of mathematics associated with statistics. He has written 14
books and around 350 papers. Rao has been a very international statistician.
He worked with the Soviet mathematicians A. M. Kagan and Yu. V. Linnik
(LP) and since 1979 he has worked in the United States, first at the
University of Pittsburgh and then at Pennsylvania State University. He was
elected to the UK Royal Society in 1967 and he received the US National
Medal of Science in 2002. See ET Interview: C. R. Rao and ISI interview.
For a general account of Statistics in India, see B. L. S. Prakasha Raos About
Statistics as a Discipline in India.
Brief History of Neyman
Jerzy Neyman (1894-1981) Statistician. MacTutor References. NAS
ASA MGP. SC, LP.
Neyman was educated in the tradition of Russian probability theory
and had a strong interest in pure mathematics. His probability teacher at
Kharkov University was S. N. Bernstein. Like many, Neyman went into
statistics to get a job, finding one at the National Institute for Agriculture
in Warsaw. He appeared on the British statistical scene in 1925 when he
went on a fellowship to Pearsons laboratory. He began to collaborate with
Pearsons son Egon Pearson and they developed an approach to hypothesis
testing, which became the standard classical approach. Their first work was
on the likelihood ratio test (1928) but from 1933 they presented a general
theory of testing, featuring such characteristic concepts as size, power, Type
I error, critical region and, of course, the Neyman-Pearson lemma. More
of a solo project was estimation, in particular, the theory of confidence in-
tervals. In Poland Neyman worked on agricultural experiments and he also
contributed to sample survey theory (see stratified sampling and Neyman al-
location). At first Neyman had good relations with Fisher but their relations
began to deteriorate in 1935; see Neyman in A Guide to R. A. Fisher. From
the late 1930s Neyman emphasised his commitment to the classical
approach to statistical inference. Neyman had moved from Poland to Egon
Pearsons department at UCL in 1934 but in 1938 he moved to the University
of Cal- ifornia, Berkeley. There he built a very strong group which included
such notable figures as David Blackwell, J. L. Hodges, Erich Lehmann,
Lucien Le Cam (memorial) and Henry Scheff.
Chapter 3
Pengujian Hipotesis
Dalam seluruh bab ini X1, X2, . . . , Xn adalah variabel random saling bebas
dan berdistribusi identik yang didefinisikan pada ruang probabilitas (S, F, P
), θ ∈ Ω ⊆ Rr dan mempunyai fungsi kepadatan probabilitas f (x; θ).

3.1 Konsep Umum dari Pengujian Hipotesis


Neyman-Pearson
Berikut ini diberikan definisi tentang hipotesis yang mendasari bab ini.

Definisi 3.1

Suatu pernyataan berkenaan dengan parameter θ seperti θ ∈ ω ⊆ Ω di-


namakan hipotesis (statistik) tentang θ dan biasanya dinotasikan dengan H
atau H0. Demikian juga pernyataan bahwa θ ∈ ωc dengan ωc = Ω−ω adalah
hipotesis (statistik) tentang θ yang dinamakan alternatif dari H atau ditulis
dengan A atau Ha. Hal itu berarti H(H0) : θ ωc. ∈
Seringkali hipotesis berasal dari klaim bahwa produk baru, teknik baru
dan sebagainya lebih effisien dari yang telah ada. dalam konteks ini H
atau H0 adalah suatu pernyataan yang meniadakan klaim ini dan dinamakan
hipotesis nul (null hypothesis).
Jika ω mengandung hanya satu titik yaitu ω ={ θ0} maka H dinamakan
hipotesis sederhana (simple hypothesis) dan jika mengandung lebih dari satu
titik maka dinamakan hipotesis komposit (composite hypothesis). Hal yang
sama juga berlaku untuk alternatif. Bila hipotesis dibuat maka akan muncul
masalah bagaimana menguji hipotesis berdasarkan pada nilai-nilai penga-
matan.
Definisi 3.2

Uji random atau statistik (fungsi uji atau test function) untuk pengujian
hipotesis H melawan alternatif A adalah fungsi terukur φ yang
didefinisikan pada Rn ke [0, 1] dan mempunyai interpretasi berikut ini.
Jika (x1, x2, . . . , xn)t adalah nilai pengamatan dari (X1, X2, . . . , Xn)t dan

φ(x1, x2, . . . , xn) = y

maka hal ini dapat digambarkan sebagai suatu koin, yang mempunyai prob-
abilitas untuk mendapatkan ’muka’ sebesar y, dilempar satu kali dan bila
memperoleh ’muka’ maka H akan ditolak dan bila memperoleh ’belakang’
maka H akan diterima. Dalam kasus khusus, y dapat bernilai 0 atau 1 un-
tuk semua (x1, x2, . . . , xn)t sehingga uji dinamakan uji yang tidak random
(non randomized test). Hal itu berarti uji non random berbentuk
.
φ(x1, x2, . . . , xn) 1 jika (x1, x2, . . . , xn)t ∈
= 0 jika (x , x , . . . , )t ∈ Bc
B x
1 2 n
Dalam hal ini, himpunan Borel B Rn dinamakan daerah kritik (daerah
penolakan - rejection region) dan B c ⊆
dinamakan daerah penerimaan (accep-
tance region). Dalam pengujian hipotesis, kita dapat menghilangkan salah
satu dari 2 jenis kesalahan berikut yaitu kesalahan yang terjadi karena H
ditolak padahal H benar yaitu parameter yang tidak diketahui θ terletak
dalam ω atau kesalahan yang terjadi karena menerima H padahal H salah.

Definisi 3.3

Misalkan β(θ) = Pθ[MenolakH] sehingga

1 − β(θ) = Pθ[MenerimaH]

dengan θ ∈ Ω. Hal itu berarti bahwa β(θ) dengan θ ∈ ω adalah probabilitas


untuk menolak H di bawah anggapan H benar.
Untuk θ ∈ ω, β(θ) adalah probabilitas kesalahan tipe I. Besaran
1 − β(θ)

dengan θ ∈ωc adalah probabilitas menerima H yang dihitung di bawah


anggapan H salah. Jadi untuk θ∈ ωc, 1 β(θ) menyatakan probabilitas
kesalahan tipe II.
Jelas bahwa, α merupakan batas atas terkecil dari probabilitas kesalahan
tipe I. Diinginkan untuk membuat α sekecil mungkin (lebih disukai 0) dan
pada saat yang sama membuat kuasanya sebesar mungkin (lebih disukai
1). Tentu saja, memaksimumkan kuasa ekuivalen dengan memaksimumkan
probabilitas kesalahan tipe II. sayangnya, dengan ukuran sampel yang tetap,
hal ini tidak dapat dilakukan. hal yang dapat dilakukan adalah memilih
ukuran tertentu untuk tingkat keberartian yang diperlukan (biasanya diambil
0,005; 0,001; 0,05 atau 0,1) dan mencari uji yang memaksimumkan kuasa.
Dengan anggapan bahwa kerugian potensial berkenaan dengan keputusan
yang salah, pembuat keputusan merupaka seorang yang konservatif yang
menyokong hipotesis nol sebagai kebenaran dan jika tidak demikian maka
haruslah ada fakta-fakta dari data bahwa hal tersebut salah. Dalam hal ini,
dia percaya bahwa akibat kesalahan penolakan hipotesis nol akan jauh lebih
buruk dari pada kesalahan yang diakibatkan oleh menerimanya.
Sebagai contoh, perusahaan obat menganggap bahwa pasar obat pro-
duk baru untuk menyembuhkan penyakit dibandingkan obat yang telah ada
mempunyai tingkat penyembuhan sebesar 60%. Berdasarkan pada percobaan
terbatas, divisi penelitian mengklaim bahwa obat baru lebih efektif. Jika
obat tersebut gagal lebih efektif atau mempunyai efek samping yang mem-
bahayakan, maka akan kehilangan pelanggan yang disebabkan oleh kekunoan
produk akan lebih kecil pengaruhnya dibandingkan dengan kegagalan yang
diakibatkan oleh ketidak-efektifan obat yang baru. Untuk itu, jika keputusan
dibuat berdasarkan pada sejumlah percobaan klinis maka hipotesis nol se-
harusnya adalah bahwa tingkat penyembuhan tidak lebih dari 60% melawan
alternatif bahwa tingkat penyembuhannya lebih dari 60%.
Perlu dicatat bahwa dalam uji non random dengan daerah kritik B diper-
oleh

β(θ) = Pθ[(x1, x2, . . . , xn)t ∈ B]


= 1.Pθ[(x1, x2, . . . , xn)t ∈ B] + 0.Pθ[(x1, x2, . . . , xn)t ∈ Bc]
= Eθ[φ(x1, x2, . . . , xn)].

Hal yang sama juga dapat dikerjakan untuk uji non random. Jadi

βφ(θ) = β(θ) = Eθ[φ(x1, x2, . . . , xn)], θ ∈ Ω.

Definisi 3.4

Uji tingkat α yang memaksimumkan kuasa uji diantara semua uji tingkat
α dikatakan uji paling kuasa seragam (uniformly most powerful - UMP ).
Jadi φ adalah uji UMP tingkat α jika
1. sup[βφ(θ)|θ ∈ ω] = α.

2. βφ(θ) ≥ βφ∗ (θ), θ ∈ ωc untuk sebarang uji yang memenuhi (1).


Jika ωc hanya terdiri dari satu titik maka UMP hanya dinamakan uji paling
kuasa (most powerful - MP ).

3.2 Pengujian Hipotesis Sederhana Melawan


Alternatif Sederhana
Dalam kasus ini, ruang parameter hanya terdiri dari 2 titik yang dapat dit-
uliskan sebagai θ0 dan θ1 yaitu

Ω = {θ0, θ1}.

Misalkan fθ0 dan fθ1 fungsi kepadatan probabilitas yang diketahui.


Misalkan dituliskan f0 = f (x; θ0), dan X1, X2, . . . , Xn variabel random
saling bebas dengan fungsi kepadatan probabilitas f (x; θ), θ ∈ Ω.
Akan dilakukan pengujian hipotesis H : θ ∈ ω = {θ0} melawan alternatif
A : θ ∈ ω = {θ1} pada level α. Dengan kata lain akan diuji hipotesis
bahwa populasi berdistribusi f0 melawan f1.

Teorema 3.1

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi kepa-
datan probabilitas f (x; θ), θ ∈ Ω = {θ0, θ1}. Akan diuji hipotesis H : θ ∈ θ0
melawan alternatif A : θ = θ1 pada level α(0 < α < 1). Misalkan
f (x1; θ1)f (x2; θ1) . . . f (x2; θ1)
R(z; θ0 , θ
1
) =f (x ; θ )f (x ; θ ) . . . f (x ; θ )
1 0 2 0 2 0

dan φ uji yang didefinisikan sehingga

1 jika R(z; θ0, θ1) >


φ(x1, x2, . . . , xn) c γ jika R(z; θ0, θ1) = (3.2.1)
=  c

0 jika R(z; θ0, θ1) <
c

dengan γ konstan (0 ≤ γ ≤ 1) dan c ditentukan sehingga

Eθ0 [φ(x1, x2, . . . , xn]α. (3.2.2)

Untuk menguji hipotesis H melawan A pada tingkat α digunakan uji seperti


(3.2.1) dan (3.2.2) merupakan uji UMP.
Akibat 3.1

Jika φ didefinisikan seperti (3.2.1) dan (3.2.2) maka βφ(θ) ≥ α. Dalam


contoh-contoh berikut, Ω = θ0, θ{1 dan}akan diuji hipotesis sederhana
melawan alternatif sederhana dengan tingkat keberartian α.

Contoh 3.1

Misalkan X1, X2, . . . , Xn sampel random dari populasi yang berdistribusi


Binom(1, θ). Berdasarkan sampel tersebut akan diuji hipotesis H : θ = θ0
melawan alternatif A : θ = θ1 pada level α dengan anggapan θ0 < θ1.
Diper- oleh
f (x1; θ1)f (x2; θ1) . . . f (x2; θ1)
R(z; θ0 , θ1 ) = f (x ; θ )f (x ; θ ) . . . f (x ; θ )
1 0 2 0 2 0
θ (1 − θ )
x1
1x1 θ (1 − θ1) − . . . 1θxnxn(1 − θ1)1−x−n
1
1−x1
1
x2 1−x2
= θ (1 − θ ) 1−x1 x2
θ (1 − θ0)1 x2 . . . θ (1 − θ0)1 xn
0
0 0
. Σ ni= xi . 0 Σn−Pi=n x
P 1
1− i

= 1
θ1
θ1
sehingga θ0 1−
θ0

ln
ΣR(z; θ , θ ) = . .n − X Σ ln . 1 − θ1 Σ
n
X ln θ1 +Σ .
Σ n
θ
0 1 i i
1 − θ0
i=1 i=1
0
Karena θ0 < θ1 maka R(z; θ0, θ1) > c ekuivalen dengan

ln R(z; θ0, θ1) > ln c


Σi=1
n . θ1 Σ . Σni= . Σ
Xi +n − 1 XiΣ ln 1 − θ1 > ln c
θ0
ln 1 − θ0
Σ θ1 1 − θ1 1 − θ1
Xi Σ ln . Σ − ln . ΣΣ > ln c − n ln .
i=1 θ0 1 − θ0 1 − θ0
Σ Σ Σ .
n
.
θ1 (1 − θ0 ) 1 −1 θ
Xi ln > ln c − n
ΣΣ Σ
ln
θ (1 − θ ) 1−
i=1 0 1 . Σ− θ 0
1−θ1
Σn ln c n ln 1 − 0

θ i=
1 Xi > Σ ln
. 1ΣΣ 0
(1−θ1))
θ0(1−θ
n
Σ
Xi > c0
i=1

dengan

ln c − n ln .1 θ1 Σ
1−θ
c0 . Σ .0

θ1 (1−θ0 )
= ln
θ0(1−θ1)

Hal itu berarti uji MP dinyatakan


 sebagai
 1 jika Xi > c0
Σ Σn
γ jika
φ(z) = X
i=1
n
Σi=1 i = c0
n
0 jika i= Xi < c0
1
dengan c0 dan γ ditentukan sehingga
Σ Σn Σ Σ Σn Σ
Eθ0 [φ(z)] = Pθ0 + Xi = =
Xi > γPθ0 i= c0 α
c0 1
i=
1
Σn
dan i= Xi ∼ Binom(n, θi) untuk i = 0, 1.
1
Sebagai gambaran, misalkan akan diuji hipotesis H : θ = 0, 5 melawan
A : θ = 0, 75 dengan α = 0, 05 dan n = 25. Dalam hal ini, c0 dan γ
ditentukan sehingga
n n
Σ Σ
Pθ0 ( Xi > c0) + γPθ0 ( Xi = c0) = 0, 05
i=1 i=1
n n
Σ Σ
1 − Pθ0 ( Xi ≤ c0 ) + γPθ0 ( Xi = c0 ) = 0, 05
i= i=
1 1
n n
Σ Σ
1 − 0, 05 = Pθ0 ( Xi ≤ c0 ) + γPθ0 ( X i = c0 )
i=1 i=1
n n
Σ Σ
0, 95 = Pθ0 ( Xi ≤ c0 ) + γPθ0 ( Xi = c0 ).
i= i=
Σn 1 1 Σn
Karena γ ≥
sehingga 0 dan P0θ (
haruslah i= Xi = c0) ≥ 0 maka γPθ0 ( i= Xi = c 0 ) ≥ 0
1 1
n
Σ
Pθ0 ( Xi ≤ c0) ≥ 0, 95.
i=1
Σn
Untuk itu dipilih c0 sehingga P0θ ( i= Xi ≤ c0) ≥ 0, 95 tetapi paling dekat
1
dengan 0, 95. Berdasarkan Tabel kumulatif distribusi Binom(25, 0, 5) diper-
Σn
oleh bahwa c0 = 17 sehingga P0θ ( i= Xi ≤ c0) dan berlaku
1
n n n
Σ Σ Σ
Pθ0 ( i= Xi = c0 ) = Pθ0 ( i= Xi ≤ 17) − Pθ0 ( i= Xi ≤ 16)
1 1 1
= 0, 9784 − 0, 9461 = 0, 0323.

Akibatnya
n n
Σ Σ
0, 95 = Pθ0 ( Xi ≤ 17) − γPθ0 ( Xi = 17)
i=1 i=1
= 0, 9784 − γ0, 0323

diperoleh γ = 0, 8792. Oleh


 karena itu uji UMP menjadi
 1 jika Xi > 17
Σn
Σ0, 8792 jika
φ(z) = X Xi <
 i= 17.= 17
i

n
0 jika n
i=
Σi=1
1
Kuasa dari uji tersebut adalah
Σn Σn
Σn P ( X ≤ 17) + γP ( Xi ≤ 17)
dengan θ=0,75 i θ=0,75

i=
Contoh 3.2 Xi ∼ Binom(25,
i=1
75). 0, i=1
1
Misalkan X1, . . . , Xn sampel random dari populasi yang berdistribusi Poisson(θ).
Berdasarkan sampel tersebut akan diuji hipotesis H : θ = θ0 melawan alter-
natif A : θ = θ1 pada level α dengan anggapan θ0 < θ1. Diperoleh
f (x1; θ1)f (x2; θ1) . . . f (x2; θ1)
R(z; θ0 , θ
1
) = f (x ; θ )f (x ; θ ) . . . f (x ; θ )
x1 1− 0x − 2 0 2 0
θ e θ1 θ 2 e θ1 θxn e−θ1
1
x1! x2!
1
. . . 1x !
= x x
θ0 1 e−θ0 θ0 2 e−θ0. . θ0xn e−θ0
n

x1! x2!
. xn !
n
θ0 i=1
xi exp − θ0)
= θ1
−n(θ1
sehingga Σ
n θ0
ln R(z; θ , θ ) = ln . Σ − n(θ − θ ).
θ
1 0 1 1 0
i=1
Karena R(z; θ1, θ0) > c maka ln R(z; θ1, θ0) > ln c sehingga
n
Σ .θ Σ
0
xi − n(θ1 − θ0) > ln c
i= ln θ1
1 . θ
Σn 0 − n(θ − θ ) > ln c + n(θ −θ )
x ln Σ
θ
i 1 1 0 1 0
i=1
.θ Σ
Σ n x ln 0
> ln[c exp(n(θ1 −
θ1
i=
i
θ0))].
1θ1
Karena θ0 < θ1 maka 1 <

θ0
sehingga ln θθ1 > 0. Akibatnya
0

Σn ln[c exp(n(θ1 − θ0))]


i=
xi ln . 0 Σ
1 > θ θ1
Σn
atau xi > c0 dengan c0 = . Σ
ln[c exp(n(θ −θ ))]1 . Uji UMP didefinisikan seba-
i= θ 0
1 0
ln θ
gai  1

 1 X i > c0
Σ
γjika
Σjika n
X
φ(z) = i=1
n
Σi=1 i = c0
0 jika d engan c0 dan γ ditentukan
n
sehingga . Σ i= X i < c0 .
P 1
Σn
Eθ0 (φ(z)) = Pθ0 xi > c0) + . Σn Σ
( i=γPθ0
1 xi = =
i= c0 α
1
Σn
dan i= Xi ∼ Poisson(nθi) untuk i = 0, 1.
1
Sebagai gambaran, misalkan akan diuji hipotesis H : θ = 0, 3 melawan
A : θ = 0, 4 dengan α = 0, 05 dan n = 20. Diperoleh
n n
Σ Σ
Eθ0 (φ(z)) = Pθ0 ( xi > c0 ) + γPθ0 ( xi = c0 ) = 0, 05
i=1 i=1

sehingga
n n
Σ Σ
1 − Pθ0 ( xi ≤ c0 ) + γPθ0 ( xi = c0 ) = 0, 05
i=1 i=1
n n
Σ Σ
1 − 0, 05 = Pθ0 ( xi ≤ c0 ) − γPθ0 ( x i = c0 )
i=
1n i=1
n
Σ Σ
0, 95 = Pθ0 ( xi ≤ c0 ) − γPθ0 ( xi = c0).
i= i=
Σn1 1
Σn xi = c0) ≥ 0.
Karena γ ≥ 0 dan P0θ ( i= xi = c0) ≥ 0 maka Pθ 0( i=
Untuk itu dipilih c0 sehingga
1 1

n
Σ
Pθ0 ( xi = c0) ≥ 0, 95
i=1

tetapi paling dekat dengan 0, 95. Berdasarkan Tabel Kumulatif distribusi


Poisson dengan mean 20(0, 3) = 6 diperoleh c0 = 10 sehingga
n
Σ
P ( xi ≤ 10)
i=1

dan
n n n
Σ Σ Σ
P( xi = 10) = P ( xi ≤ 10) − P ( xi ≤ 9)
i= i= i=
1 1 1
= 0, 9574 − 0, 9161 = 0, 0413.

Oleh karena itu γ ditentukan sehingga 0, 9574 − 0, 0413 atau γ = 0, 1791.


Uji UMP menjadi

 1 jika i=1 Xi > 10
Σ0, 1791 Σjika Σni=1 = 10
 n n
i
0i= i <
X
φ(z) 1 10.
= jika
X
Kuasa ujinya adalah
n n
Σ Σ
Pθ=0,4 ( xi > 10) + 0, 1791Pθ=0,4( xi = 10) = 0, 2013.
i= i=
1 1

Contoh 3.3
Misalkan X1, . . . , Xn sampel random dari populasi yang berdistribusi
N(θ, 1). Berdasarkan sampel tersebut akan diuji hipotesis H : θ = θ0
melawan alter- natif A : θ = θ1 pada level α dengan anggapan θ0 < θ1.
Diperoleh

f (x1; θ1)f (x2; θ1) . . . f (x2; θ1)


R(z; θ0 , θ1 ) = f (x1 ; θ0 )f (x2 ; 0θ ) . . . 2
f (x
0 ; θ )
. (x −θ ) . Σ
1 (x −θ ) exp . 2 1 2 Σ . . .
2
(xn −θ1 )2
√2 exp 2
2
2
1
2 2 exp 2
Σπ π
√1 π
√ √1exp √ exp ... n 0


= . 2 Σ . 2
Σ0 . Σ
21 2 (x −θ )2
0
2 1 (x −θ
2 )2 21
exp (x −θ
2)
2

π
1
Σ n π π
exp . − (xi − θ1)2Σ
2 i=
1 Σn 2Σ
= . 1
exp − i=1(xi − θ 0)
2
Σ
= exp . 1 [(xi − θ0)2 − (xi −
Σn θ 1 )2 ]
2
i=
1 Σn
sehingga ln R(z; θ1, θ0) = 1 [(xi − θ0)2 − (xi − θ1)2] atau
2 i=
1 Σ
1
n + θ2 − (x2 − + θ2)]
ln(R(z; θ , θ ) = [x − 2θ
2
2θ x
x 1 0 i 0 i 0 1 i 1
2 i=1 i
1 n
= Σ[−2(θ − θ ) + θ2 − θ 2 ]
x
2 0 1 i 0 1
i=1
n

= (θ 1 0
Σ i 1 0 1
−θ ) + n(θ2 − θ2).

x
i=
1
2

Hal itu berarti R(z; θ1, θ0) > c akan ekuivalen dengan ln R(z; θ1, θ0) > ln c
yaitu
Σ 1
n
(θ − θ ) x+ n(θ2 − θ2) > ln c
1 0 i 0 1
i=1 2
Σ
n
1
(θ − θ ) > ln c + n(θ2 − θ2)
x
1 0
0 1
i 2
i=1
Σn
(θ − θ ) > ln 1 −θ ) +θ)
x n(θc + (θ
1 0 1 0 1 0
i 2
i=1
n
ln c Σ 1
xi > + 1−θ ) +θ)
n(θ θ1 − 2 0
(θ 1 0
i=
1
θ 0

1 . ln c n(θ1 + θ0 ) Σ
x¯ > + .
n θ1 − 2
+θ )
Berarti X¯ > c0 dengan c0 = 1 . ln c + n(θ1 θ00 Σ. Uji UMP adalah
n .θ −θ 2
1 jika X¯ > c0
1 0

φ(z) = 0 yang lain

dengan c0 ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (X¯ > c0 ) = α

dan X¯ ∼ N(θin, 1 ) untuk i = 0, 1.


−1 melawan A : θ = 1 dengan
Sebagai gambaran, akan diuji hipotesis θ =
α = 0, 001 dan n = 9. Diperoleh

Pθ=−1 (X¯ > c0 ) = Pθ=−1 [3(X¯ − (−1)) > 3(c0 − (−1))]


= Pθ=−1 [3(X¯ − (−1)) > 3(c0 − (−1))]
= Pθ=−1 [3(X¯ + 1) > 3(c0 + 1)]
= Pθ=−1[N(0, 1) > 3(c0 + 1)]
sehingga c0 = 0, 03. Oleh karena itu uji UMP adalah
.
1 jika X¯ > 0, 03
φ(z) = 0 yang lain

Kuasa ujinya adalah


Pθ=1 (X¯ > 0, 03) = Pθ=1 (3(X¯ − 1) > 3(0, 03 − 1))
= Pθ=1(N(0, 1) > −2, 91) = 0, 9932.
Contoh 3.4

Misalkan X1, . . . , Xn sampel random dari populasi yang berdistribusi


N(0, θ). Berdasarkan sampel tersebut akan diuji hipotesis H : θ = θ0
melawan alter- natif A : θ = θ1 pada level α dengan anggapan θ0 < θ1.
Diperoleh
f (x1; θ1)f (x2; θ1) . . . f (x2; θ1)
R(z; θ0 , θ1 ) = f (x ; θ )f (x ; θ ) . . . f (x ; θ )
1 0 22 0 2 02
1 x 1 x 1 x2
√ exp[− 1
]√ exp[− 2
]...√ exp[− n ]
2πθ1 2θ21 2πθ
1 1 2θ21 2πθ
1 1 2θ21
= √
1 x

x

x
2πθ0
exp[− 2θ0 ] 2πθ0 exp[− 2θ2 0]
1
... 2πθ0
exp[− n2θ]
Σn 0

= . Σn/2 exp . . − 1 Σi= xi2Σ


θθ0 Σ 2θ11 n
1 2
12
n/
exp −
θ0 0 i=1
n
= . exp Σ 2θ . 1 xi 1 Σ xi2 Σ
θ1 −
− 2θ1 2θ 0Σ i=1
.
θ0 Σ.
θ0 − Σ Σ 2
n
= n/2 exp xi .
Σ θ1
θ1 Σ i=1
2θ1θ0
Akibatnya
Σn
ln R(z; θ1 , θ0 )
θ−
1 θ 0
2 i
1 . θ0 Σ
2θ x ln 2 θ
= 0 1 i=
+ 1
θ 1
sehingga R(z; θ1, θ0) > c dan mengakibatkan ln R(z; θ1, θ0) > ln c yaitu
. Σ
θ1 − θ0 Σ 2 1
n
θ0
x ln >
2 ln
2θ0θ1 i= i θ1 c
1+
θ− Σ
1 θ 0
n
. 0Σ
x2i > ln c 1 ln θ
2θ0θ1 2 θ1
i= −
θ−1
θΣ 0
1n
1 . θ1 Σ
2
x > ln c ln
2θ0θ1 i= i + 2 θ0
θ− Σ1n 2
1 θ 0 . . θ1 Σ
xi > ln c
2θ0θ1 i=
θ0
n 1
Σ 2θ0 θ1 1 θ1 −
i
=x
2 > i ln c .
1
θ0
. .θ Σ
θ0
Σn 2θ0 θ1
Berarti x2 > c0 dengan c0 = ln .c.θ1 Σ. Uji UMP menjadi
i=1 i θ1−θ0 θ0

n
. 2
i=1 x i > c0
φ(z)
0 yang lain
= Σ
1 jika
dengan c0 ditentukan sehingga

. n x2 > c0Σ = α
Eθ0 [φ(z)] = Pθ0
Σ
i= i
1
Σn
dan θ1 i= X 2i ∼ χ2n untuk i = 0, 1.
1
Sebagai gambaran, akan diuji hipotesis H : θ = 4 melawan A : θ = 16
dengan α = 0, 01 dan n = 20. Akan ditentukan c0 sehingga
2
. n x > c 0Σ
Pθ0 Σ i = 0, 01
i=
1
yaitu

P θ0 . n 2 .1 n 2 1 Σ
x > c0Σ = x
Σ 4 c0 = 0, 01.
i= P θ0 >i 4
1
i Σ i=
1

Berdasarkan Tabel distribusi chi-kuadrat dengan derajat bebas 20 diperoleh


c0/4 = 37, 566 atau c0 = 150, 264. Akibatnya, uji UMP menjadi
.
n 2
φ(z) = i=1 x i > 150, 264
0 yang lain
Σ
1 jika
dan kuasa ujinya adalah
Σ
Σ Σn Σ 1 n 150, 264Σ
2 i
Σ
Pθ=16 x264> 150, = Pθ=16 2 i
i= 16 i= x > 16
1 = 0, 977. 1

3.3 Uji UMP untuk Pengujian Hipotesis


Kom- posit
Sebagian besar masalah praktis, paling sedikit salah satu merupakan hipote-
sis komposit. Misalkan variabel random saling bebas dengan fungsi kepa-
datan probabilitas f (x; θ), θ ∈ Ω ⊆ R,
g(z; θ) = f (x1; θ)f (x2; θ) . . . f (xn; θ)
dengan z = (x1, x2, . . . , xn)t dan Z = (X1, X2, . . . , Xn)t.

Definisi 3.5

Keluarga {g(x; θ)|θ ∈ Ω} dikatakan mempunyai sifat MLR (monoton


like- lihood ratio) dalam V jika himpunan z sehingga g(z; θ) > 0 tidak
tergantung pada θ dan terdapat fungsi terukur V yang didefinisikan dari
Rn ke R, se- hingga bila θ, θJ ∈ Ω dengan θ < θ J maka berlaku sifat :

1. g(x; θ) dan g(x; θJ) berbeda.

2. g(x; θJ)/g(x; θJ) fungsi naik dari V (z).

Keluarga terpenting dari fungsi kepadatan probabilitas yang mempunyai sifat


MLR adalah keluarga eksponensial 1 parameter.

Proposisi 3.1

Misalkan keluarga eksponensial

f (x; θ) = C(θ) exp[Q(θ)T (x)]h(x)

dengan C(θ) > 0 untuk semua θ ∈ Ω ⊆ R dan himpunan positif dari h


tidak tergantung pada θ. Jika Q fungsi naik maka keluarga
Σn {g(x; θ)|θ ∈ Ω}
mempunyai sifat MLR dalam V dengan V (z) = i=
dinyatakan dengan 1 T (Xi) dan g(x; θ)

g(z; θ) = f (x1; θ)f (x2; θ) . . . f (xn; θ).

Jika Q fungsi turun maka keluarga {g(x; θ)|θ ∈ Ω} mempunyai sifat


MLR dalam V J = −V .

Teorema 3.2

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi kepa-
datan probabilitas f (x; θ), θ ∈Ω mempunyai sifat MLR dalam V dengan
g(x; θ) didefinisikan sebagai

g(z; θ) = f (x1; θ)f (x2; θ) . . . f (xn; θ).

Misalkan θ0 ∈ Ω dan ω = {θ ∈ Ω|θ ≤ θ0}. Untuk pengujian hipotesis


komposit H : θ ∈ ω melawan alternatif pada tingkat keberartian α maka
terdapat uji yang merupakan uji UMP dalam kelas semua uji yang
mempun- yai tingkat keberartian lebih kecil atau sama dengan α. Dalam
kasus LR (likelihood ratio) dalam V (z), uji yang digunakan adalah

 1 jika
φ(z) = γ jika V (z) = c
 V (z) > c
0 jika V (z) < c

dengan c dan γ ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (V (z) > c) + γPθ0 (V (z) = c) = α.

Jika LR turun dalam V (z) maka ujinya digunakan



 1 jika
φ(z) = γ jika V (z) = c
 V (z) < c
0 jika V (z) > c

dengan c dan γ ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (V (z) < c) + γPθ0 (V (z) = c) = α.

Akibat 3.2

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi kepa-
datan probabilitas dapat dinyatakan sebagai

f (x; θ) = C(θ) exp[Q(θ)T (x)]h(x)

dengan Q fungsi naik/turun tajam. Untuk pengujian hipotesis

H : θ ∈ ω = {θ ∈ Ω|θ ≤ θ0}

melawan alternatif A : θ∈ωc. Dengan tingkat keberartian α maka uji UMP


dalam kelas semua uji tingkat lebih kecil atau sama dengan α. Jika Q naik
maka digunakan uji
1 jika V (z) >
φ(z) = c γ jika V (z) =
c

0 jika V (z) < c
dengan c dan γ ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (V (z) > c) + γPθ0 (V (z) = c) = α.


Sebaliknya, jika Q turun maka digunakan uji

 1 jika
φ(z) = γ jika V (z) = c
 V (z) < c
0 jika V (z) > c

dengan c dan γ ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (V (z) < c) + γPθ0 (V (z) = c) = α.

Demikian juga, untuk menguji hipotesis H : θ ∈ ω = {θ ∈ Ω|θ ≥ θ0}


melawan alternatif A : θ ∈ ωc pada tingkat keberartian α, terdapat uji yang
bersifat UMP di dalam kelas semua uji dari tingkat ≤ α. Jika Q turun maka
digunakan uji 
1 jika V (z) >
φ(z) =  c γ jika V (z) =
c

0 jika V (z) < c
dengan c dan γ ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (V (z) > c) + γPθ0 (V (z) = c) = α.

Sebaliknya, jika Q naik digunakan uji



 1 jika
φ(z) = γ jika V (z) = c
 V (z) < c
0 jika V (z) > c

dengan c dan γ ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (V (z) < c) + γPθ0 (V (z) = c) = α.

Masalah penting lain adalah menguji

H : θ ∈ ω = {θ ∈ Ω|θ ≤ θ1 atau θ ≥ θ2}

melawan A : θ ∈ ωc dengan θ1, θ2 ∈ Ω dan θ1 < θ2. Pendeknya, θ dapat


menyatakan dosis obat dan θ1, θ2 adalah batas θ yang diperbolehkan. Jika
θ ≤ θ1 dosis yang diberikan tidak membahayakan namun tidak bermanfaat
sedangkan jika θ ≥ θ2 dosis yang membahayakan. Jadi hipotesis tersebut
menyatakan bahwa obat dapat membahayakan atau tidak bermanfaat dan
diinginkan untuk menguji hipotesis tersebut. Jika distribusi anggapan den-
gan ukuran yang sesuai dianggap berbentuk eksponensial maka uji UMP
ada.
Teorema 3.3

Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi


kepa- datan probabilitas f (x; θ) dapat dinyatakan sebagai

f (x; θ) = C(θ) exp[Q(θ)T (x)]h(x)

dengan Q fungsi monoton tajam dan θ ∈ Ω ⊆ R. Misalkan

ω = {θ ∈ Ω|θ ≤ θ1 atau θ ≥ θ 2}
dengan θ1, θ2 ∈ Ω dan θ1 < θ2. Uji hipotesis H : θ ∈ ω melawan alternatif
c
A : θ ∈ ω adalah uji UMP φ. Jika Q fungsi naik maka φ dinyatakan dengan

 1 jika c1 <
φ(z) =  γ i jika V (z) = ci(i = 1, 2)danc1 < c2
V (z) < c2
0 yang lain

dengan c1, c2 dan γ1, γ2 ditentukan sehingga

Eθ1 [φ(z)] = Pθ1 (c1 < V (z) < c2) + γ1Pθ1 (V (z) = c1) + γ2Pθ1 (V (z) = c2) = α

dan

Eθ2 [φ(z)] = Pθ2 (c1 < V (z) < c2) + γ1Pθ2 (V (z) = c1) + γ2Pθ2 (V (z) = c2) = α
Σn
dengan V (z) = i= T (Xi).
Sebaliknya, jika Q1fungsi naik maka φ dinyatakan dengan

 1 jika V (z) <
φ(z) = γi jika V (z) = ci(i = 1, 2)danc1 < c2

c1 atauV (z) > c2
0 yang lain

dengan c1, c2 dan γ1, γ2 ditentukan sehingga


Eθ1 [φ(z)] = Pθ1 (V (z) < c1atauV (z) > c2) + γ1Pθ1 (V (z) = c1) + γ2Pθ1 (V (z) = c2) = α

dan
Eθ2 [φ(z)] = Pθ2 (V (z) < c1atauV (z) > c2) + γ1Pθ2 (V (z) = c1) + γ2Pθ2 (V (z) = c2) = α
Σn
dengan V (z) = i= T (Xi). Dapat ditunjukkan bahwa fungsi β(θ) = E[φ(z)]
dengan θ ∈ Ω merupakan
1 fungsi naik untuk θ ≤ θ0 dan turun untuk θ ≥ θ0
dengan θ1 < θ0 < θ2
Contoh 3.5

Misalkan X1, . . . , Xn sampel random saling bebas dari distribusi


Binom(1, ∈ θ) dengan θ Ω = (0, 1). Fungsi probabilitas dari X yang
berdistribusi Binom(n, θ) adalah
f (x; θ) = θn(1 − θ)n−xIA(x)
dengan A = {0, 1, 2, . . . , n . Fungsi probabilitas tersebut dapat
}
dinyatakan sebagai
θ
f (x; θ) = (1 − θ)n−x exp Σ ln . ΣΣI (x)
A
sehingga distribusi Binomial merupakan anggota 1 −keluarga eksponensial den-
gan θ
θ
c(θ) = (1 . θ)n, Σ−Q(θ) = ln , T (x) = x, h(x) = I
1−θ A (x).
θ
Karena Q(θ) = ln . Σ merupakan fungsi naik dan V (z) = Xi maka
Σn
1−θ i=1
uji UMP untuk hipotesis H : θ ≤ θ0 melawan A : θ > θ0 adalah
 Σn
 1 jika
n
Xi > c
φ(z) γ jika X i =
= Σ c
0 jikai=1
i=1 Xi <
 Σn ci=1
dengan c dan γ ditentukan sehingga

n n
Σ Σ
Eθ0 [φ(z)] = Pθ0 ( Xi > c) + γPθ0 ( Xi = c) = α

dan i=1 i=1


Σn
i= Xi ∼ Binom(n,
1
θ).
dengan α = gambaran,
Sebagai 0, 01 dan nakan diuji
= 25. hipotesis
Dalam H c: dan
hal ini θ γ0.5 melawan sehingga
ditentukan A : θ > 0.5

Pθ=0,5 . n . n
Xi > + Xi = = 0, 05.
Σ Σ
i= γPθ=0,5 i=
1 cΣ 1 cΣ

Berdasarkan Tabel distribusi Binomial diperoleh c = 18 dan γ = 27/143.


Kuasa uji pada θ = 0, 75 adalah
β 0 , 75) = Pθ=0,75
n .Xi n .Xi
Σ> + Σ= = 0,
i=1 cΣ γPθ=0,75 i=1 cΣ 5923.
Untuk pengujian hipotesis H : θ ≤ θ1 atau θ ≥ θ2 melawan alternatif A :
θ1 < θ < θ2 digunakan
 uji UMP φ yang dinyatakan dengan
 1 jika Xi < c2
Σn
c1 <
i=1 Xi i 1 2
φ(z)  i Σ n=
= γ0 jika
yang lain i=1 c (i = 1, 2) dan c < c

dengan c1, c2 dan γ1, γ2 ditentukan sehingga


Eθ1 [φ(z)] = Pθ1 (c1 < V (z) < c2) + γ1Pθ1 (V (z) = c1) + γ2Pθ1 (V (z) = c2) = α

dan

Eθ2 [φ(z)] = Pθ2 (c1 < V (z) < c2) + γ1Pθ2 (V (z) = c1) + γ2Pθ2 (V (z) = c2) = α
Σn
dengan V (z) = i= T (Xi).
1
Sebagai gambaran, akan diuji hipotesis H : 0, 25 ≤ θ atau θ ≥ 0, 75
melawan A : 0, 25 < θ < 0, 75 dengan α = 0, 05 dan n = 25. Untuk c1 =
10 dan c2 = 15 diperoleh

416γ1 + 2γ2 = 205, 2γ1 + 416γ2 = 205

atau γ1 = γ2 = 42435/86426
 = 0, 4901. Uji UMP menjadi
 1 jika
Σn Xi < 15
10 <
i=1 Xi = 10 atau i= i
φ(z) i
Σ n
1

= γ jika
i=1 = 15
Σn

0 yang lain X
Kuasa dari uji pada θ = 0, 5 adalah
Σi=1
xin < 5Σ . n xi = 10Σ
βφ(0, 5) = Pθ=0,5 + 0, 4901Pθ=0,5 Σ
1 i=
.10 < 1
.
+ 0, 4901Pθ=0,5 Σn
xi = 15Σ
= 0, 6711. i=
1

Contoh 3.6
Misalkan X1, . . . , Xn sampel random saling bebas dari distribusi
Poisson(θ) dengan θ ∈ Ω = (0, ∞). Fungsi probabilitas dari X yang
berdistribusi Poisson(θ) adalah
f (x; θ) = θxe−θ
x!
untuk x = 0, 1, 2, . . . . Fungsi probabilititas tersebut dapat dinyatakan
seba- gai
x ln θ −θ
f (x; θ) = e e
x!
1
= e−θex ln θ x!
Σn
sehingga Q(θ) = ln θ dan V (z) = i= Xi. Karena Q(θ) merupakan fungsi
naik maka uji UMP untuk hipotesis H1≤ θ0 melawan A : θ > θ0 adalah
 Σn
 1 jika Xi > c
Σi=1
n
φ(z) γ jika Σi=1 Xi =
n
= 0i= c i <
1 c
dengan c dan γ ditentukan sehingga jika
n n
Σ X Σ
Eθ0 [φ(z)] = Pθ0 ( Xi > c) + γPθ0 ( Xi = c) = α

dan i=1 i=1


Σn Xi ∼
i=
1
Poisson(nθ).
Sebagai gambaran, akan diuji hipotesis H : θ ≤ 0, 5 melawan A : θ > 0, 5
dengan n = 10 dan α = 0, 05. Berdasarkan Tabel distribusi Poisson dengan
mean nθ0 = 10(0, 5) = 5 diperoleh c = 9 dan γ = 182/363 = 0, 5014. Kuasa
dari uji pada saat θ = 1 adalah
. n Xi > . n Xi > 9Σ
β(1) = Pθ=1 Σ 9Σ + 0, 5014Pθ=1 Σ
i= i=
1 . 1

= 1 − Pθ=1 Σn
Xi ≤ 9Σ
i=
1 . .
n n
Σ
Xi ≤ 9Σ Σ Xi ≤ 8ΣΣ
+ 0, 5014 − Pθ=1
i=1 i=
ΣPθ=1 1

= 0, 6048.

Contoh 3.7

Misalkan X1, . . . , Xn sampel random saling bebas dari distribusi N(θ, σ2)

Σ
dengan θ ∈ Ω = R. Fungsi probabilitas dari X yang berdistribusi N(θ, σ2)
adalah
1 (x − θ)2
f (x; θ) = √ 2σ2
exp 2πσ2
untuk x ∈ R. Fungsi probabilitas tersebut dapat dinyatakan sebagai
1 Σ 2
x − 2θx + θ2)2
f (x; θ) = √ 2σ2
exp 2πσ2 Σ
atau
. − θ2 Σ . θ Σ 1 . 2 Σ
f (x; θ) = 2 exp − x
exp 2σ √ exp 2σ2
Σ σ 2 2
2πσ Q(θ) = θ/σ2 fungsi naik
sehingga Q(θ) = θ/σ2 dan V (z) =
n xXi. Karena
i=
maka untuk menguji hipotesis H : θ ≤1 θ0 melawan A : θ > θ0 adalah
.
1 jika ¯
φ(z) = 0 jika X
>c

<c
dengan c ditentukan sehingga

Eθ0 [φ(z)] = Pθ0 (X¯ > c) = α

dan X¯ ∼ N(θ, σ 2/n). Kuasa ujinya adalah

βφ (θ) = P (X¯ > c) = 1 − Pθ (X¯ ≤ c)


Σ X¯ − θ c−θΣ

σ √
= 1−P
√ n −σ/
Σ n(c − θ) Σ /
=1−Φ . n
σ
Sebagai gambaran, berdasarkan sampel X1, X2, . . . , X25 dari distribusi
N(θ, 4) akan diuji hipotesis H : θ ≤ 20 melawan A : θ > 20 adalah
.
1 jika ¯
φ(z) = 0 jika X
>c

<c
dengan c ditentukan sehingga
Eθ0 [φ(z)] = P (X¯ > c) = 1 − Pθ=20 (X¯
≤ c) c − 20 Σ
Σ ¯
X − √20− √
= 1 − P σ/ n σ/ n
. c −Σ−20
= 1 Φ = 0, 05
2/5
dan X¯ ∼ N(20, 4/25) di bawah anggapan H benar. Kuasa uji untuk θ =
21 adalah
20, 66 − 21
βφ (21) = 1 − Φ. Σ = 1 − Φ(−0, 85) = 1 − 0, 1977 = 0, 8023.
2/
5
Untuk menguji hipotesis H : θ ≤ θ1 atau θ θ2 melawan A : θ1 < θ < θ2
digunakan uji UMP φ yang dinyatakan dengan
.
1 jika c1 < X¯ < c2
φ(z) = 0 yang lain

dengan c1 dan c2 ditentukan sehingga

Eθ1 [φ(z)] = Pθ1 (c1 < X¯ < c2) = α

dan
Eθ2 [φ(z)] = Pθ2 (c1 < X¯ < c2 ) = α.
Kuasa ujinya adalah
√ √
. n(c2 − θ) Σ . n(c1 − θ) Σ
β (θ)
φ =Φ σ −Φ σ .

Sebagai gambaran, berdasarkan pada sampel X1, X2, . . . , X25 ∼ N(θ, 4)


akan diuji hipotesis H : θ ≤ −1 atau θ ≥ 1 melawan A : −1 < θ < 1 dengan
α = 0, 05. Uji UMP adalah
.
1 jika c1 < X¯ < c2
φ(z) = 0 yang lain
dengan c1 dan c2 ditentukan sehingga

Eθ1 [φ(z)] = Pθ1 (c1 < X¯ < c2 ) = 0, 05

dan
Eθ2 [φ(z)] = Pθ2 (c1 < X¯ < c2 ) = 0, 05.
Berdasarkan Tabel distribusi normal baku diperoleh c1 = −0, 344 dan c2 =
0, 344. Kuasa uji pada θ = 0 adalah
√ √
. Σ . Σ
25(0, 344 − 0) 25(−0, 344 − 0)
βφ(0) = Φ √ − √ = 0,
4 Φ 4 61.

Contoh 3.8

Misalkan X1, . . . , Xn sampel random saling bebas dari distribusi N(µ, θ)


den- gan θ ∈ Ω = (0, ∞). Fungsi kepadatan probabilitas dari X yang
berdistribusi N(µ, θ) adalah
1 Σ Σ −
f (x; θ) = √ exp
2πθ
(x − µ)2

untuk x ∈ R. Fungsi probabilitas tersebut dapat dinyatakan sebagai
1 1
f (x; θ) = √ exp Σ − (x − µ)2Σ
2πθ 2θ
sehingga Q(θ) = 1/(2θ) dan V (z) =
i= (xi − µ) . karena Q(θ) = −1/(2θ)
2
Σn
1

fungsi
adalahnaik maka untuk menguji
. hipotesis H : θ 2θ0 melawan A : θ > θ0
i= (Xi − µ) > c
n
φ(z) = 1
0 yang lain
Σ
dengan c ditentukan sehingga 1 jika
. n (Xi − µ)2Σ = α
Eθ0 [φ(z)] = Pθ0
Σ
i=
Σn 1
dan 1 (Xi − µ)2 ∼ χ2 . Kuasa uji dari uji ini adalah
θ i=1 n

. (Xi − µ)2 >


n . n (Xi − µ)2 ≤ cΣ
βφ(θ) = P Σ cΣ =1−P Σ
i= i=
1 1 Σ
=1− P. n c
1
(Xi − µ)2 <
θ i= θ
Σ1
c
= 1 − P .χ2n < Σ.
θ
Sebagai gambaran, berdasarkan sampel X1, X2, . . . , X25 dari distribusi
N(µ, θ) dengan µ diketahui, dan akan diuji hipotesis H : θ ≤ 4 melawan
A : θ > 4 adalah
.
1 jika (Xi − µ)2 > c
φ(z) = Σi=
n 2
Σn 0 jika 1 i= (Xi − ≤
1 µ) c
dengan c ditentukan sehingga


. n − µ) 2> cΣ = P n µ)2 Σ
i=1(Xi
Eθ=4 [φ(z)] = Σ (X = 0, 05
4
P i= i
1 n −c >
dan 4
Σ
(1/4) (Xi − µ)2 ∼ χ25
2

i=1
di bawah anggapan H benar. Berdasarkan Tabel distribusi chi-kuadrat den-

25
12
gan derajat bebas 25 diperoleh bahwa c/4 = 37, 652 atau c = 150, 608. Kuasa
ujinya untuk θ = 12 adalah
150, 608Σ
β(θ) = 1 − P .χ225 < =1−P < 30, 1216) = 1 − 0, 02 = 0, 98.

(χ2
Pada sisi lain, untuk menguji hipotesis H : θ ≤ θ1 atau θ ≥ θ2 melawan
A : θ1 < θ < θ2 digunakan uji UMP φ yang dinyatakan dengan
.
1 jika c1 < i= (Xi − µ)2 < c2
φ(z) Σ 1
= n

0 yang lain

dengan c1 dan c2 ditentukan sehingga


Σi=1 < c2 Σ = α
(Xn i
Eθ1 [φ(z)] = Pθ1 −
. c1 < µ)2
dan

Eθ2 [φ(z)] = Pθ2 n


.c1 < (Xi − µ)2 < c2Σ = α.
Σi=1
Kuasa ujinya adalah
c2 c1
β (θ) = P .χ2 < Σ − P .χ2 < Σ.
φ n n
θ θ
Sebagai gambaran, berdasarkan sampel X1, X2, . . . , X25 ∼ N(µ, θ) akan
diuji hipotesis H : θ ≤1 atau θ 3 melawan A : 1 < θ < 3 dengan α = 0, 01.
Uji UMP adalah
.
1 jika c1 < i= (Xi − µ)2 < c2
φ(z) Σ 1
= n

0 yang lain

dengan c1 dan c2 ditentukan sehingga


c2 c1
P .χ2 < Σ − P .χ2 < Σ = 0, 01
25 25
1 1
dan
c2 c1
P .χ225 < Σ − P .χ225< Σ = 0, 01.
3 3
Dengan metode coba-coba (trial and error ) dapat ditentukan c1 dan c2 dari
tabel distribusi chi-kuadrat dengan derajat bebas 25.
3.4 Uji UMPU untuk Pengujian Hipotesis
Kom- posit
Dalam Teorema 3.3, untuk pengujian H : ω = { θ ∈ Ω atau θ ≥ θ2}
melawan A : θ ∈ ωc uji UMP ada. Tidak mengherankan bahwa dengan
merubah H dan A mengakibatkan uji UMP tidak ada.
Di bawah anggapan Teorema 3.2, untuk menguji hipotesis H : θ = θ0
melawan A : θ > θ0 dan H : θ = θ0 melawan A : θ ƒ= θ0 uji UMP tidak
ada. Karena uji yang diberikan pada (3.2.1) dan (3.2.2) merupakan uji UMP
untuk θ > θ0 tetapi lebih buruk dari uji trivial φ(z) = α untuk θ < θ0.
Dengan cara yang sama uji yang diberikan oleh (3.2.1) dan (3.2.2) dengan
tanda ketidak-samaan dibalik merupakan uji UMP untuk θ < θ0 tetapi lebih
buruk dari uji trivial φ(z) = α untuk θ > θ0. Jadi, tidak ada uji tunggal
yang merupakan uji UMP untuk semua θ ƒ= θ0. Untuk itu perlu diatasi pada
kelas uji yang lebih kecil.

Definisi 3.6

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan berdistribusi


iden- tik dengan fungsi kepadatan probabilitas f (x; θ), θ ∈ Ω dan ω ⊂ Ω
⊆ Rr . Untuk pengujian H : θ ∈ ω melawan alternatif A : θ ∈ ωc pada
tingkat α, suatu uji yang didasarkan pada X1, X − 2, . . . , Xn dikatakan
tak bias jika

Eθ[φ(X1, X2, . . . , Xn)] ≥ α

untuk semua θ ∈ ω dan

Eθ[φ(X1, X2, . . . , Xn)] ≤ α

untuk semua θ ∈ ωc. Suatu uji tak bias bila probabilitas kesalahan tipe I
paling banyak α dan kuasa dari uji paling sedikit α.

Definisi 3.7

Suatu uji dikatakan uji UMPU (uniformly most powerfull unbiased ) jika uji
tersebut UMP dalam kelas semua uji yang tidak bias.
Catatan : Uji UMP selalu UMPU. Uji UMP tak bias karena UMP paling
sedikit mempunyai kuasa yang sama dengan α. Uji UMP merupakan uji
UMPU karena uji UMP merupakan UMP dalam kelas yang meliputi kelas
uji tak bias.
Teorema 3.4

Misalkan X1, X2, . . . , Xn variabel random saling bebas dan fungsi kepadatan
probabilitasnya dinyatakan dengan
f (x; θ) = C(θ) exp[Q(θ)T (x)]h(x)

dengan θ ∈ Ω ⊂ R. Misalkan

ω = {θ ∈ Ω; θ1 ≤ θ ≤ θ2}
dengan θ0 , θ1 , θ2 ∈ Ω dan ω J = {θ0 } dengan θ1 < θ2 .
Untuk menguji hipotesis H : θ∈ ω melawan alternatif A : θ c ω
dan hipotesis H∈ : θ ω J melawan alternatif AJ : θ ω Jc pada level α
terdapat uji UMP yang diberikan oleh

 1 jika V (z) <
φ(z) =  γi jika V (z) = ci(i = 1, 2) dan c1 < c2
c1atauV (z) > c2
0 yang lain
dengan c1, c2 dan γ1, γ2 ditentukan dengan Eθ1 [φ(z)] = α dan Eθ2 [φ(z)] = α
untuk H dan Eθ0 [φ(z)] = α dan Eθ0 [V (z)φ(z)] = αEθ0 [V (z)] untuk H J.
Dapat ditunjukkan bahwa βφ(θ) = Eθ[φ(z)] dengan θ ∈ ω turun θ ≤ θ0
dan naik untuk θ ≥ θ0 untuk suatu θ1 < θ0 < θ2.

Contoh 3.9

Misalkan X1, X2, . . . , Xn variabel random saling bebas dari N(µ, σ)


dengan σ2 diketahui dan θ = µ. Akan diuji hipotesis H : θ = θ0 melawan
ƒ
A : θ = θ0. Fungsi kepadatan probabilitas N(θ, σ2) adalah
1 Σ 2Σ
f (x; θ) = √ exp (x − 2θ)
2πσ2 2σ

untuk x ∈ R. Fungsi probabilitas tersebut dapat dinyatakan sebagai
1 Σ (x2 − 2xθ + θ2)Σ
f (x; θ) = √ exp 2σ2
2πσ 2
atau

. − θ2 Σ . θ Σ 1 Σ x2 Σ
f (x; θ) = 2 exp −
2σ √
exp Σn σ2 exp 2σ2
2πσ 2
sehingga Q(θ) = θ dan V (z) = 1 x
nX¯
2 i= Xi = σ2 . Oleh karena itu uji UMPU
adalah σ
1
. 1 jika 2
σ
φ(z) =
¯
nX < c1 atau > c2
σ2
0 yang lain nX¯
dengan c1 dan c2 ditentukan sehingga Eθ0 [φ(z)]α dan

Eθ0 [V (z)φ(z)] = αEθ0 [V (z)].

Uji tersebut akan ekuivalen dengan uji


. n(X¯ −θ0 ) √
1 jika √ <1 n(X¯ −θ0 )
φ(z) σ atau > cJ
J
= c
σ2 2
0 yang lain

dengan cJ1 √
= σ√c1
− dan cJ1 = σ√c2 nθ0
nθ0 − .
n σ n σ
n(X¯ −θ )
Pada sisi lain, di bawah H, berlaku sifat √ σ 0
∼ N(0, 1). Karena
N(0, 1) simetri maka c 1 = −c 2 = −c (yaitu c > 0) sehingga menjadi
J J


n(X¯ − θ0 )
<−
σ
c
atau √
n(X¯ − θ )
0
>c
σ
yang ekuivalen dengan

. n(X¯ − θ ) Σ2
0 2
σ ∼ χ1

di bawah H benar. Akibatnya uji UMPU menjadi


n(X¯ −θ0 )
. 1 jika .√ Σ2 > c
φ(z) 0 yang lain
σ
=
dengan c ditentukan sehingga P (χ1 2 > c) = α.
3.5 Pengujian Parameter dari Distribusi
Nor- mal
Dalam pasal ini, X1, X2, . . . , Xn merupakan variabel random saling bebas
dari distribusi n(µ, σ2) dengan µ dan σ2 tidak diketahui. parameter yang
menjadi perhatian adalah 1 parameter sedangkan yang lain sebagai parame-
ter pengganggu (nuisance parameter ).

3.5.1 Uji Tentang Variansi


Proposisi 3.2


Untuk menguji hipotesis H : σ σ0 melawan A : σ > σ0 digunakan uji UMP
. n ¯ 2
φ(z) = i= (Xi − X ) > c
1
0 yang lain
Σ
1 .χ
dengan c ditentukan oleh P jika
2
> c
Σ = α. Bila hipotesisnya adalah
n−1 σ2
H : σ ≥ σ0 melawan A : σ ≤ σ0 maka digunakan uji
J J

.
n ¯ 2
φ(z) = i=1(Xi − X ) < c
0 yang lain
Σ 2
dengan c ditentukan oleh P 1.χ jika < c Σ = α.
) 2 i −X
(X ¯ berdis-
Kuasa uji dapat ditentukan dengan
n−1 σ2 kenyataan bahwai= 1
Pn σ2
tribusi chi-kuadrat dengan derajat bebas n − 1 bila σ diberikan.

Contoh 3.10

Misalkan X1, X2, . . . , X25 merupakan variabel random saling bebas dari dis-
tribusi N(µ, σ 2) dengan µ dan σ2 tidak diketahui. Untuk menguji hipotesis
H : σ ≤ 3 melawan A : σ > 3 digunakan uji UMP
.
n ¯ 2
φ(z) = i=1(Xi − X ) > c
0 yang lain
Σ
1 jika
dengan c ditentukan oleh P (χ2 > c/9) = 0, 05. Berdasarkan Tabel dis-
24
tribusi chi-kuadrat dengan derajat bebas 24 diperoleh c/9 = 36, 415 atau
c = 327, 735. Kuasa uji pada σ = 5 adalah

P (χ2 > 327, 735/25) = P 24 > 13, 1094) = 0, 962.


24
(χ2
uji
Bila hipotesisnya adalah H J : σ ≥ 3 melawan AJ : σ < 3 maka digunakan
n
φ(z) =
. i= (Xi − X¯ )2 < c
1
0 yang lain
Σ P (χ2
dengan c ditentukan sehingga
1 jika 24 < c/9) = 0, 05. Berdasarkan Tabel
distribusi chi-kuadrat dengan derajat bebas 24 diperoleh c/9 = 13, 848 atau
c = 124, 632. Kuasa uji pada σ = 2 adalah

P (χ2 < 124, 632/4) = P 24 < 31, 158) = 0, 8384.


24
(χ2

Proposisi 3.3

Untuk menguji hipotesis H : σ ≤ σ1 atau σ ≥ σ2 melawan A : σ1 < σ < σ2


digunakan uji UMPU
.
n ¯ 2
φ(z) = i=1 (Xi − X ) < c2
Σ
0 yang lain 1

dengan c1 dan c2 ditentukan


jika oleh c <1
P( < χ2 c2
c1 < )=α
n−1
σ12
σ12
dan c2
c1 2
P(2 <χ ) = α.
σ2 σ22
<
n−1

Bila digunakan untuk menguji hipotesis H : σ1 ≤ σ ≤ σ2 melawan A : σ < σ1


atau σ > σ2 digunakan uji UMPU
.
n (Xi − X¯ ) < c1 atau
2
¯ 2
φ(z) i=1 i= (Xi − X ) > c2
0 yang lain Σn 1
= Σ
1 jika
P ( < χ2 c2
c1 n−1 < 2 ) = α
σ1
2
dan σ1
c2
c1 2
2 < χ <
P(2 n−1
σ
2
) = α.
2 σ
Contoh 3.11

Misalkan X1, X2, . . . , X25 merupakan variabel random saling bebas dari dis-
tribusi N(µ, σ 2) dengan µ dan σ2 tidak diketahui. Untuk menguji hipotesis
H : σ ≤ 2 atau σ ≥ 3 melawan A : 2 < σ < 3 digunakan uji UMPU
. Σn
1 jika < c1 < ¯ 2
i= (Xi − X ) < c2
φ(z) 1
= 0 yang lain
dengan c1 dan c2 ditentukan berdasarkan metode trial and error oleh
c1 c2 c1 c2
P( < χ2 < )=P > )−P > ) = 0, 05
(χ2 (χ2
n−1 n−1 n−1
4 4 4 4
dan
c1 c c c
P ( < n−1 < 2 ) = P n−1 > 1 ) − P n−1 > 2 ) = 0, 05.
9 9 9
χ2 9 (χ2 (χ2

Proposisi 3.4

Untuk menguji hipotesis H : σ = σ0 melawan A : σ ƒ= σ0 digunakan uji


UMPU
. Σn Σn
1 jika < i= (Xi − X¯ )2 < c1 atau ¯ 2
i= (Xi − X ) > c2
φ(z) 1 1
= 0 yang lain ∫
dengan c1 dan c2 ditentukan oleh c /σ g(t)dt dengan g adalah fungsi kepa-
2
2 0
c1/σ20
2
datan probabilitas dari χ .
n−1
Uji dengan menggunakan luas ekor sama yang biasa digunakan bukanlah
merupakan uji UMPU tetapi merupakan pendekatan dari uji UMPU untuk
n → ∞.

3.5.2 Uji Tentang mean


Proposisi berikut ini banyak digunakan dalam menentukan uji mean pada
suatu populasi.

Proposisi 3.5

Untuk menguji hipotesis H : µ ≤ µ0 melawan A : µ > µ0 digunakan uji


UMPU .
1 jika t(z) > c
φ(z) =
0 yang lain
dengan c ditentukan oleh P (tn−1 >
√c) = α dan
n(X¯ − µ0)
t(z) = . 1 Σ .
m
i=1 (Xi − X
¯
n−1
2
Untuk menguji hipotesis H : µ ≥ µ0) melawan AJ : µ < µ0 digunakan
J

uji UMPU .
1 jika t(z) < c
φ(z) = 0 yang lain
dengan c ditentukan oleh P (tn−1 < c) = α.

Contoh 3.12

Misalkan X1, X2, . . . , X25 merupakan variabel random saling bebas dari
dis- tribusi N(µ, σ2) dengan µ dan σ2 tidak diketahui. Untuk menguji
hipotesis H : µ ≤ µ0 melawan A : µ > µ0 dengan α = 0, 05 digunakan uji
UMPU .
1 jika t(z) > 1, 7109
φ(z) = 0 yang lain
dan untuk menguji hipotesis H : µ ≥ µ0 melawan A : µ < µ0 dengan
α = 0, 05 digunakan UMPU
.
1 jika t(z) < −1, 7109
φ(z) = 0 yang lain.

Proposisi 3.6

Untuk menguji hipotesis H : µ = µ0 melawan A : µ = µƒ0 digunakan uji


UMPU
.
1 jika t(z) < c atau t(z) > c (dengan c > 0)
φ(z) = 0 yang lain

dengan c ditentukan oleh P (tn−1 > c) = α/2.

Proposisi 3.7

Misalkan X1, X2, . . . , X25 merupakan variabel random saling bebas dari dis-
tribusi N(µ, σ2) dengan µ dan σ2 tidak diketahui. Untuk menguji hipotesis
H : µ = µ0 melawan A : µ ƒ= µ0 dengan α = 0, 05 digunakan uji UMPU
.
1 jika t(z) < −2, 0639 atau t(z) > 2, 0639(dengan c > 0)
φ(z) =
0 yang lain.
Untuk menentukan kuasa uji dari uji tersebut digunakan uji−t non central.
3.6 Perbandingan Parameter Dua Distribusi
Normal
Diketahui X1, . . . , Xm variabel random saling bebas dari distribusi N(µ1, σ12)
2
dan Y1, . . . , Yn variabel random saling bebas dari distribusi N(µ 2 2 , σ ).
Diang- gap dua sampel tersebut saling bebas dan semua parameter tidak
diketahui. Misalkan µ = µ1 − µ22 dan 2 τ = σ2/σ2. Akan diuji hipotesis
tentang µ dan
τ . Bila salah satu parameter yang diamati merupakan parameter sedangkan
yang lain sebagai parameter pengganggu. Misalkan Z = (X1, . . . , Xm)t dan
W = (Y1, . . . , Yn)t, z = (x1, . . . , xm)t dan w = (y1, . . . , yn)t.

3.6.1 Perbandingan Variansi Dua Densitas Normal


Proposisi berikut ini digunakan untuk pengujian perbandingan variansi an-
tara dua populasi.

Proposisi 3.8

Untuk menguji H : τ ≤ τ0 melawan A : τ > τ0 digunakan uji UMPU


. 1 jika Pn (Yi −Y¯ )2
i=
Pm
1
(Xi −X¯ )2
>c
φ(z) = i=
1
0 yang lain

dengan c ditentukan sehingga P (Fn−1,m−1 > c0) = α dan c0 = (m−1)c .


(n−1)τ0
Sedangkan untuk menguji, H J
UMPU : τ ≥ τ0 melawan A : τ < τ0 digunakan uji
. 1 jika Pn (Yi −Y¯ )2
i=
Pm
1
(Xi −X¯ )2
<c
φ(z) = i=
1
0 yang lain
dengan c ditentukan sehingga P (Fn−1,m−1 > c0) = α. Kuasa ujinya dapat
ditentukan dengan kenyataan bahwa
Σn
1
2 (Y − Y¯ )2 /(n − 1m−1 (Y − Y¯ )2
σ 1 i=
1 1)
Σ n
i=
1
2 i ii
σ2 i=
1 =
Σ Σ
X¯ )2 /(m − 1) (X − X¯ )2
m (X − i
1 nm−1
τ i=
1
berdistribusi F dengan derajat bebas n − 1 dan m − 1 bila τ diberikan.

Contoh 3.13
Diketahui X1, . . . , X21 variabel random saling bebas dari distribusi N(µ1, σ21)
dan Y1, . . . , Y25 variabel random saling bebas dari distribusi N(µ2, σ22). Di-
anggap dua sampel tersebut saling bebas dan semua parameter tidak dike-
tahui. Untuk menguji H : τ 2≤melawan A : τ > 2 dengan α = 0, 05
digunakan uji UMPU
. 1 jika Pn (Yi −Y¯ )2
i=
Pm
1
(Xi −X¯ )2
>c
φ(z) = i=
1
0 yang lain

dengan c ditentukan sehingga P (F20,24 > c0) = 0, 05 dan


(21 − 1)c
c0= = 5c/12.
(24 − 1)2

Berdasarkan tabel distribusi F20,24 diperoleh c0 = 2, 0267 dan akibatnya c


= 4, 864. Untuk menguji H : τ ≥ 2 melawan A : τ < 2 dengan α = 0, 05
digunakan uji UMPU
. 1 jika Pn (Yi −Y¯ )2
i=
Pm
1
(Xi −X¯ )2
<c
φ(z) = i=
1
0 yang lain

dengan c ditentukan sehingga P (F20,24 < c0) = 0, 05 dan


(21 − 1)c
c0= = 5c/12
(24 − 1)2

atau P (F20,24 < (5c)/12) = P (F24,20 > 12/(5c)) = 0, 05.


Misalkan
1 Σni=1 ¯ 2
Σ
τ0
(Yi −
ΣY ) .
V (z, w) =
− X¯ )2 +τ − Y¯ )2
m n
i=1 (X 0 i=1(
i 1 Yi

Proposisi 3.9

Untuk menguji H : τ = τ0 melawan A : τ ƒ= τ0 digunakan uji UMPU


.
1 jika V (z, w) < c1 atau V (z, w) > c2
φ(z, w) = 0 yang lain

dengan c1 dan c2 ditentukan sehingga

P (c1 < Beta((m−1)/2, (n−1)/2 < c2) = P (c1 < Beta((m−1)/2, (n−1)/2 <
c2).
3.6.2 Perbandingan Mean Dua Densitas Normal
Misalkan
t(z, w) = .Σ Y¯ − X¯
m Σn
¯ ¯ 2
i=1 (Xi − X ) + j=1 (Yj − Y )
2

dan dianggap σ2 = σ2 = σ2.


1 1

Proposisi 3.10

Untuk menguji H : µ ≤ 0 melawan A : µ > 0 digunakan uji UMPU


.
1 jika t(z, w) > c
φ(z, w) = 0 yang lain
.
dengan c ditentukan oleh P m+n−2 > c0) = α dengan = c m+n−2 . Untuk
(t c0 1m
+n 1

menguji H J : µ ≥ 0 melawan AJ : µ < 0 digunakan uji UMPU


.
1 jika t(z, w) < c
φ(z, w) = 0 yang lain
.
dengan c ditentukan oleh P m+n−2 < c0) = α dengan c0 = c m+n−2 .
(t 1+
1mn

Contoh 3.14

Diketahui X1, . . . , X15 variabel random saling bebas dari distribusi N(µ1, σ12)
dan Y1, . . . , X10 variabel random saling bebas dari distribusi N(µ2, σ22). Di-
anggap dua sampel tersebut saling bebas dan semua parameter tidak dike-
tahui. Untuk menguji H : µ ≤ 0 melawan A : µ > 0 dengan α = 0, 05
digunakan uji UMPU
.
1 jika t(z, w) > c
φ(z, w) = 0 yang lain
.

15+10 2
dengan c ditentukan oleh P 15+10−2 > c0) = 0, 05 dan c0 1= atau
+1
(t
c
√ . 150 23 √ 15 10

c0 = 10+15 atau 0 = 23(6). Berdasarkan tabel distribusi t diperoleh


c c c
c 23(6) = 1, 7139 atau c = 0, 1459. Sedangkan, untuk menguji H : µ ≥ 0
melawan A : µ < 0 dengan α = 0, 05 digunakan uji UMPU
.
1 jika t(z, w) < c
φ(z, w) =
0 yang lain
.
15+10 −2
dengan c ditentukan oleh P 15+10−2 < c0) = 0, 05 dan c0 1= 1 atau
+
(t
c
√ . 150 23 √ 15 10

c0 = 10+15 atau 0 = 23(6). Berdasarkan tabel distribusi t diperoleh


c c c
c 23(6) = −1, 7139 atau c = −0,
1459.
Proposisi 3.11

Untuk menguji H : µ = 0 melawan A : µ ƒ= 0 digunakan uji UMPU


.
1 jika t(z, w) < c atau t(z, w) > c(denganc > 0)
φ(z, w) = 0 yang lain

dengan c ditentukan oleh P (tm+n−2 > c0) = α/2.

Contoh 3.15

Diketahui X1, . . . , X15 variabel random saling bebas dari distribusi N(µ1, σ12)
dan Y1, . . . , X10 variabel random saling bebas dari distribusi N(µ2, σ22). Di-
anggap dua sampel tersebut saling bebas dan semua parameter tidak dike-
tahui. Untuk menguji H : µ = 0 melawan A : µ =ƒ 0 dengan α = 0, 05
digunakan uji UMPU
.
1 jika t(z, w) < −c atau t(z, w) > c
φ(z, w) = 0 yang lain
.

15+10 2
dengan c ditentukan oleh P (t 15+10−2 > c0) = 0, 025 dan c0 1=+1
. 23 √ 15 10

atau 0 = 10+15 atau 0 = c


23(6). Berdasarkan tabel distribusi t diper-
c √c 150 c c
oleh c 23(6) = 2, 0687 atau c = 0, 1762. Kuasa ujinya dapat ditentukan
berdasarkan distribusi t non central.

3.7 Uji Likelihood Ratio


Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi kepa-
datan probabilitas f (x; θ), θ ∈ Ω ⊂ Rr dan ω ⊆ Ω. Misalkan

L(ω) = f (x1; θ)f (x2; θ) . . . f (xn; θ)

dengan θ ∈ ω dan

L(ωc) = f (x1; θ)f (x2; θ) . . . f (xn; θ)


dengan θ ∈ ωc. Bila ω dan ωc terdiri dari satu titik maka L(ω) dan L(ωc)
dapat ditentukan dan untuk menguji H : θ ∈ ω melawan A : θ ∈ ωc, uji MP
menolak bila nisbah kemungkinannya (likelihood ratio-LR)

L(ω)/L(ωc)

lebih besar. Akan tetapi bila ω dan ωc mengandung lebih dari satu titik
maka L(ω) dan L(ωc) tidak dapat ditentukan oleh H dan A dan metodee
pada pasal-pasal terdahulu tidak dapat digunakan.
Misalkan

L(ωˆ) = max{L(θ)|θ ∈ ω}, L(ωˆ c ) = max{L(θ)|θ ∈ ω c }

dan
L(Ωˆ ) = max{L(θ)|θ ∈ Ω}.
Hipotesis H ditolak jika L(ωˆ)/L(Ωˆ ) terlalu kecil yaitu lebih kecil dari
atau sama dengan c dan c ditentukan dari ukuran ujinya. Lemma
Fundamen- tal Neyman-Pearson merupakan kejadian khusus dari uji LR.
Jika kuanti-
tas L(ωˆ) dan L(Ωˆ ) hampir sama nilainya maka data cenderung mendukung
hipotesis bahwa yang sebenarnya terletak dalam ω yang dinyatakan dalam
H. Jika tidak demikian data cenderung mendiskreditkan H. Notasi yang
digunakan adalah
L(ωˆ)
λ= .
L(Ωˆ
Di bawah H benar, statistik − ln λ mempunyai distribusi asmptotik yang
diketahui. Hipotesis H ditolak jika

−2 ln λ > c

dengan c ditentukan berdasarkan pada α.

Teorema 3.5

Misalkan X1, . . . , Xn variabel random saling bebas dengan fungsi


kepadatan probabilitas dengan Ω Rr dan ω Ω berdimensi m.
∈f (x; θ), θ Ω ⊆
Nilai- nilai positif dari fungsi kepadatan
⊆ probabilitas tidak bergantung
pada θ. Di bawah syarat-syarat 1-6 pada pasal 2.2, distribusi asimptotik
dari −2 ln λ
adalah χ2
r−m asalkan θ ∈ ω yaitu jika n → ∞ berlaku sifat

P (−2 ln λ ≤ x) → G(x)

dengan x ≥ 0 untuk semua θ ∈ ω dan G adalah fungsi distribusi dari χ2 .


r−
m
Contoh 3.16

Diketahui X1, . . . , Xn variabel random saling bebas dari distribusi N(µ, σ2).

Kasus 1 (σ diketahui)

Akan diuji hipotesis H : µ ∈ ω = {µ0} dengan Ω = R. Karena MLE


dari µ adalah µˆ Ω = X¯ maka
Σ Σn Σ
L(Ωˆ ) = − 1 ¯
2σ2 (Xi − X )2
exp i=
1
dan
Σ n
L(Ωˆ ) = exp Σ 2σ2 (Xi − µ0)2Σ.
1

i=1

Dalam hal ini lebih mudah ditentukan distribusi dari −2 ln λ dari pada λ.
Diperoleh n
−2 ln λ = (X¯ − µ )2
0
σ2
sehingga uji LR ekuivalen dengan
. n ¯ 2
1 jika σ2 (X −µ ) >
φ(z) =
0 yang lain
c0
dengan c ditentukan sehingga P (χ1 2 > c) = α.

Kasus 2 (σ tidak diketahui)

Akan diuji hipotesis H : µ ∈ ω = {µ0} dengan Ω = R. Karena


n
Σ
σΩ = (Xi − X¯ )2
ˆ2 i=1

dan n
Σ
σˆω2 = (Xi − µ0 )2
i=1 Ω Ω

maka ) i=
n 1
Σ
ˆ = 1 exp √ 1 =
(Xi − ¯ e−n/2
L(Ω) 2
n
√ Σ (2π )n
)n X) √
(2πσˆ
σˆ (2πσˆ
Σ 1

dan
Σ Ω
1 1
Σn
Σ
2 1 −n/2
ω √
√ n (2πσˆω ) i=
1 = √ e
L(ωˆ) = exp (Xi − ω
(2πσˆ )n
)n µ0)

(2πσˆ
sehingga
.
σˆΩ n
λ = σˆω
Σ
atau Σn (X − X¯ )2
2/n i= i
1
λ = Σn
i=1 (X − µ )
2

Karena i .
0
Σ
n Σ
n .
Σ2
(Xi − µ0) =
2 ¯ ¯
(Xi − X ) + (X − µ0 )
i= i=
1 1
.(Xi − X¯ )2 + 2(Xi − X¯ )(X¯ − µ0 ) + (X¯ − µ0 )2 Σ
= Σni=
1
n Σni=
Σ n
= .(Xi − X¯ )2 + 2(X¯ − 1 (Xi − X¯ ) (X − µ0 )2Σ
i=1 +
n
Σ µ0 ) Σi=1
¯
= (Xi − X¯ )2 + n(X¯ − µ0)2
i=1

maka
n 2 Σ
Σ Σi=1(Xi − µ0) −1
λ = Σn (X − X¯ )2
i=1
Σ
Σ n i
(Xi − X¯ )2 + n(X¯ − µ0 )2 Σ−1
i=1
= Σn
(X − X¯ )2 i=1
i
Σ n(X¯ − µ0)2 Σ−1
= 1 + Σn
i=1
( i − X¯
Σ X n(X¯ − )2 Σ−1
1
= µ10)2+ Σ
n− 1 − X¯
n−1
1 n
( )2
ii=
1 X
2 Σ−1
= Σ1 + t
n−
dengan 1 √
n(X¯ − µ0
)
t = t(z) = . 1 Σ .
i=1 (Xi − X
n ¯
n−1
)2
Hal itu berarti, jika λ < λ0 ekuivalen dengan t2 > c untuk c konstanta
tertentu. Uji LR ekuivalen dengan
.
1 jika t < c dan t > c
φ(z) = 0 yang lain

dengan c ditentukan sehingga P (tn−1 > c)α/2.

Contoh 3.17

Diketahui X1, . . . , Xm variabel random saling bebas dari distribusi N(µ11,


σ2) dan Y1, . . . , Yn variabel random saling bebas dari distribusi
2 N(µ2,
2
σ ). Diang- gap dua sampel tersebut saling bebas. Misalkan bahwa
sampel X dan sampel Y saling bebas dan diinginkan untuk menguji
hipotesis berikut. Dalam hal ini fungsi kepadatan probabilitas bersama X
dan Y adalah n
. 1 Σm+n 1 Σ Σ
1 2 1 Σ 2
√ Σ − m

2π m n exp 2σ 2
(X − 2σ2 (Yj − µ2) .
σ σ
1 2
µ )i 1 2 j=1
1 i=
1

Kasus 1

Dianggap bahwa σ1 = σ2 = σ tetapi σ tidak diketahui dan ingin diuji


hipote- sis H : µ1 = µ2(= µ) dengan µ tidak diketahui.
Di bawah Ω = { θ = (µ1, µ2, σ)t |µ1, µ2 ∈ R, σ > 0 } maka MLE dari
parameter adalah
(Xi − X¯ )2 + n (Yj − Y¯ ) Σ.
2
1
µˆ 1,Ω = µˆ 2,Ω = σΩ m
.
¯ ¯ ˆ 2
= Σ
X , Y , m + nΣ
i=1 j=1

Oleh karena itu 1 Σm+n


. =
L(Ω)
ˆ e−(m+n)/2

√ .
2πσˆ
Di bawah ω = {θ = (µ1, µ2, σ)t|µ1, µ2 ∈ R, σ > 0} maka MLE dari parameter
adalah m
1 . Σnj mX¯ +
Y Σ = nY¯
µˆω = Σ Xi =1 j
m + n i=1 + .
m+n
Misalkan diset vk = xk, k = 1, 2, . . . , m dan vm+k = yk, k = 1, 2, . . . , n.

n
Akibatnya
m+ m Σj ω .
1 . =1
V¯ = Σ 1n Vk Xi =
m + nΣ Yj
m+n = i=1 + µˆ
k=1 Σ
Hal itu berarti
Σ 1
m+n
σˆω2 = − V¯ )2
(Vk Σ
m+n Σ
m
k=1
Σ Σm
1
= (Xi − µˆω )2 (Yj − µˆ ω )2 .
m+ i= j=
n 1
+ 1
Oleh karena itu
. 1 Σm+n
L(ωˆ) = e−(m+n)/2.
√ ω
Akibatnya 2πσˆ
.
σˆΩ m+n
λ = σˆω
Σ
dan
σˆ2 Ω.
λ2/(m+n)
σˆ2 ω
Pada sisi lain =
Σn Σ2

Σ
n .
(Xi − µˆω ) =
2
(Xi − X¯ ) + (X¯ − µˆ ω )
i= i=
1 1
.(Xi − X¯ )2 + 2(Xi − X¯ )(X¯ − µω ) + (X¯ − µˆω )2 Σ
= Σni=
1n n n
Σ Σ Σ
= (Xi − X¯ )2 + 2(X¯ − µω ) (Xi − X¯ ) + (X¯ − µˆω )2
i=1 i=1 i=1
n
Σ
= (Xi − X¯ )2 + m(X¯ − µω )2
i=1
n
Σ . ΣmX + nY
= 2 = (Xi
− − i=1 n
(Xi Σ = (Xi
i=1 i=1
Σn
¯ ¯
X¯ )2 + m X¯ m+n
m+n
¯ 2 mn2 ¯ ¯ 2
¯ ¯ −
. X) + Σ −2nY − Y ).
(X
X¯ ) + m (mnX
2
2
+ n)

Dengan cara yang sama diperoleh
m
Σ(Yj n
Σ
¯ 2 m2 n ¯ ¯ 2
−µ ) =2
−Y) + (X − Y)
j=1
(m + n)2 .
ˆω
(Yj
j=1

Akibatnya Σj
=1
Σ m (Yj − µ¯ ω )2Σ
n

ω = Σ (Xi − µ¯ω )
2 2
(m + n)σˆ
2
i=1 +
n
Σ − ¯ 2 mn
= X ) +2 (X¯ Y¯
) (m + n)2
(Xi m 2n
¯ 2 ¯ ¯2
i=1 − Y ) + (m + (X − Y )
+ nΣ(Y n)2
j= j
1 mn
= (m + n)σˆ 2 + (X¯ − Y¯ )2.
ω
m+n
Di samping itu berlaku sifat
Σ −1
2/(m+n) t
λ = 1+
Σ m+n−2
dengan
√ mn
m+
(X¯ − Y¯ )
t=. Σ n Σ.
1 2 Σn
m
i= (Xi − X )
¯ j= (Yj − Y
¯
Σ m+n−2
1 1
+ )2
Oleh karena itu, uji LR menolak H bila λ < λ0 maka akan ekuivalen
dengan uji .
1 jika t < c dan t > c (c > 0)
φ(z, w) = 0 yang lain

dengan c ditentukan oleh P (tm+n−2 > c) = α/2 dan z = (x1, x2, . . . , xm)t
dan w = (y1, y2, . . . , yn)t (karena di bawah H, t berdistribusi tm+n−2).

Kasus 2
Akan diuji hipotesis H : σ1 = σ2(= σ tidak diketahui).
Di bawah Ω = {θ = (µ1, µ2, σ1, σ2)t|µ1, µ2 ∈ R, σ1, σ2 > 0} diperoleh
2 1Σn
2
Σn1
µˆ 1 = µˆ 2 = Y¯ σ1,Ω = (X − X¯ σ2,Ω = − Y¯ )2 .
,Ω X¯ , ,Ω , ˆ i )2, ˆ
m (Yj
i=1 n
j=1

Di bawah ω = {θ = (µ1, µ2, σ1, σ2)t|µ1, µ2 ∈ R, σ1 = σ2(> 0)} diperoleh


µˆ 1,ω = µˆ2,ω = µˆ2,Ω
µˆ1,Ω ,
dan
Σ
m Σ
σΩ2 . Σm (Yj − Y¯ .
1
= m+ (Xi − X¯ )2 =
j 2
1)
in
=
+
1
Oleh karena itu
ˆ . 1 Σm+n 1 −(m+n)/2
√ ( 2,Ω
dan 2π σ2 m )2 /2 (σˆ e
L(Ω) 1,Ω )n/2
= . 1 Σm+n 1 −(m+n)/2


ω e

sehingga L(ωˆ) (σˆ 2 )(m+n)/2
=
2
m/2 2
λ = σ 2,Ω )n/2
ˆ )
1,Ω
σˆω 2 )(m+n)/2
. Σ m/2
(Xi −X¯ )2
(m+n)/2 Pni= ¯
(m + n) 1 (Yj −Y )
2
Pn
. j=1
= Pn (Xi −X¯ )2 Σ(m+n)/2
m/2 n/2 P (Yj −Y¯ )2
i= j=1
1 + n
P

(Yj −Y¯ )2
m n n P

j=1
= .
(m + n) .
(m+n)/2
Σm/2
m−1 m1−1 n (Xi −X¯ )2
n−1 n−1 j=1 (Yj −Y¯
Pi=1 )2
1 P
n
Σm/2
(Xi −X¯ )2
mm/2nn/2

1
. n

m−1 m1−1 n
−Y¯
1i=1
+ n−1 n−1 j=1 (Yj
P Σ . )2
m−1
Σm/2
(m + n)
(m+n)/2 fn−1
=
dengan mn/2
m/2 (m+n)/2
n 1+m
Σm −1 f
n−1
1
¯ .2
1 (Xi − X )
m−1 i=

f = 1 Σn
(Yj − Y¯ )2
n−1 j=
1
Uji LR menolak H bila λ < λ0 akan ekuivalen dengan uji F yang menolak
H jika g(f ) < c untuk c tertentu dan
.
m−1
f
g(f ) = . n−1
.
Σm/2 (m+2)/2
m− 1
1 + n−1 f
Σ
Nilai maksimum g(f ) dicapai bila f = m(n−1) . Dalam hal ini g(θ) dan
n(m−1)

g(f ) → 0

untuk f → ∞. Oleh karena itu g(f ) < c jika dan hanya jika f < c1 atau
f > c2 untuk c1 dan c2 tertentu. Karena F berdistribusi Fm−1,n−1 di bawah
H maka c1 dan c2 ditentukan sehingga
P (Fm−1,n−1 < c1 atau Fm−1,n−1 > c2) = α
dan g(c1) = g(c2). Secara praktis c1 dan c2 ditentukan sehingga masing-
masing ekor dari distribusi Fm−1,n−1 mempunyai probabilitas α/2 yaitu

P (Fm−1,n−1 < c1) = P (Fm−1,n−1 > c2) = α/2.


Brief History of Bayes

Thomas Bayes (1702-1761) Clergyman and mathematician. MacTutor


References SC, LP.
Bayes attended the University of Edinburgh to prepare for the ministry
but he studied mathematics at the same time. In 1742 Bayes became a fellow
of the Royal Society: the certificate of election read We propose and recom-
mend him as a Gentleman of known Merit, well Skilled in Geometry and all
parts of Mathematical and Philosophical Learning and every way qualified
to be a valuable Member of the Same. Bayes wrote only one paper on prob-
ability, the posthumously published An Essay towards solving a Problem in
the Doctrine of Chances (1763). (For statement of the problem, see Bayes).
The paper was submitted to the Royal Society by Richard Price who added
a post-script of his own in which he discussed a version of the rule of suc-
cession. In the paper Bayes refers only to de Moivre and there has been
much speculation as to where the problem came from. Bayesian methods
were widely used in the C19, through the influence of Laplace and Gauss,
although both had second thoughts. Their Bayesian arguments continued to
be taught until they came under heavy attack in the C20 from Fisher and
Neyman. In the 1930s and 40s Jeffreys was an isolated figure in trying to de-
velop Bayesian methods. From the 50s onwards the situation changed when
Savage and others made Bayesianism intellectually respectable and recent
computational advances have made Bayesian methods technically feasible.
From the early C20 there has been a revival of interest in Bayes himself and
he has been much more discussed than ever before. See Bellhouse biography,
Sheynin ch. 5 Life & Work and Todhunter ch.XIV (pp. 294-300). See Stigler
(1986): Chapter 3, Inverse Probability and Hald (1998): Chapter 8, Bayes,
Price and the Essay, 1764-1765.) There is a major new biography, A. I. Dale
Most Honorable Remembrance: The Life and Work of Thomas Bayes.
Brief History of Gosset

Student = William Sealy Gosset (1876-1937) Chemist, brewer and statis-


tician. MacTutor References. Wikipedia SC, LP.
Gosset was an Oxford-educated chemist whose working life was spent,
not in a university, but working for Guinness, the Dublin brewer. Gossets
career as a publishing statistician b egan after he studied for a year with Karl
Pear- son. In his first published paper Student (as he called himself)
rediscovered the Poisson distribution. In 1908 he published two papers on
small sample distributions, one on the normal mean (see Student’s t
distribution and Stu- dentization) and one on normal correlation (see Fishers
z-transformation). Although Gossets fame rests on the normal mean work,
he wrote on other topics, e.g. he proposed the variate difference method to
deal with spuri- ous correlation. His work for Guinness and the farms that
supplied it led to work on agricultural experiments. When his friend Fisher
made random- ization central to the design of experiments Gosset
disagreedsee his review of Fishers Statistical Methods. Gosset was not very
interested in Pearsons biometry and the biometricians were not very
interested in what he did; the normal mean problem belonged to the theory
of errors and was more closely related to Gauss and to Helmert than to
Pearson. Gosset was a marginal figure until Fisher built on his small-sample
work and transformed him into a major figure in C20 statistics. E. S.
Pearson was another great admirer. For a sample of Gossets humour see the
entry kurtosis. See Life & Work
Chapter 4
Daerah Kepercayaan

4.1 Interval Kepercayaan


Misalkan X1, X2, . . . , Xn variabel random saling bebas dengan fungsi
kepa- datan probabilitas f (x; θ), θ ∈ Ω ⊆ Rr.

Definisi 4.1

Interval random adalah interval berhingga atau tak berhingga dengan paling
sedikit 1 titik ujungnya meruapakan variabel random.

Definisi 4.2

Misalkan L(X1, X2, . . . , Xn) dan U (X1, X2, . . . , Xn) dua statistik sehingga

L(X1, X2, . . . , Xn) ≤ U (X1, X2, . . . , Xn).

Interval random [L(X1, X2, . . . , Xn), U (X1, X2, . . . , Xn)] adalah interval
keper- cayaan untuk θ dengan koefisien konfidensi 1 − α(0 < α < 1) jika

P (L(X1, X2, . . . , Xn) ≤ θ ≤ U (X1, X2, . . . , Xn)) ≥ 1 − α

untuk semua θ ∈ Ω. U (X1, X2, . . . , Xn) dinamakan batas kepercayaan atas


sedangkan L(X1, X2, . . . , Xn) dinamakan batas kepercayaan bawah untuk θ
jika untuk semua θ ∈ Ω berlaku sifat

P (−∞ < θ ≤ U (X1, X2, . . . , Xn)) ≥ 1 − α

dan
P (L(X1, X2, . . . , Xn) ≤ θ < ∞) ≥ 1 − α
dengan koefisien kepercayaan 1 − α.
Interval random [L(X1, X2, . . . , Xn), U (X1, X2, . . . , Xn)] adalah interval
kepercayaan untuk θ dengan koefisien kepercayaan 1 − α jika probabilitas
bahwa paling sedikit 1 − α interval random

[L(X1, X2, . . . , Xn), U (X1, X2, . . . , Xn)]

mengandung parameter θ dengan θ ∈ Ω.


Interpretasi dari pernyataan tersebut adalah : misalkan eksperimen
ran- dom dilakukan n kali dan jika xi adalah nilai pengamatan Xi, i = 1, 2,
. . . , n.
Bila dikonstruksikan interval

[L(X1, X2, . . . , Xn), U (X1, X2, . . . , Xn)]

dan proses tersebut diulang secara independen N kali sehingga diperoleh N


interval. Bila N membesar maka paling sedikit (1− α)N dari N interval akan
mengandung parameter θ yang sebenarnya. Panjang interval kepercayaan
adalah

l = l(X1, X2, . . . , Xn) = U (X1, X2, . . . , Xn) − L(X1, X2, . . . , Xn)

dan harapan panjangnya adalah Eθ[l] jika harapannya ada.


Dimungkinkan terdapat lebih dari satu interval kepercayaan untuk θ den-
gan koefisien konfidensi 1 − α. Untuk itu diinginkan untuk mencari inter-
val kepercayaan yang mempunyai panjang minimum diantara kelas interval
kepercayaan . Prosedur umum untuk mengkontruksikan interval kepercayaan
adalah sebagai berikut : dimulai dari variabel random

Tn(θ) = T (X1, X2, . . . , Xn; θ)

yang tergantung pada X hanya melalui statistik cukup θ yang distribusinya


dapat ditentukan dengan pasti Ln(X1, X2, . . . , Xn) dan U (X1, X2, . . . , Xn)
fungsi yang sederhana dari Tn(θ) yang dipilih dengan alasan yang jelas.

Contoh 4.1

Misalkan X1, . . . , Xn variabel random saling bebas dari distribusi N(µ, σ2).

Kasus 1 Jika σ diketahui dan µ parameter

Misalkan didefinisikan statistik



n(X¯ − µ)
Tn (µ) = .
σ
Statistik Tn(µ) tergantung pada X1, X2, . . . , Xn hanya melalui statistik cukup
dari µ yaitu X¯ dan mempunyai distribusi N(0, 1) untuk semua µ. Akan
ditentukan a dan b sehingga
P (a ≤ N(0, 1) ≤ b) = 1 − α
n(X¯ − µ)
P (aσ≤ √ ≤ b) = 1 − α
¯ − b √ ≤ µ σ≤¯ X + bσ √ ) = 1 − α.
P (X (4.1.1)
n n

Oleh karena itu [X¯ − bn√σ , X¯ +


n b
√σ ] adalah interval kepercayaan untuk

µ
dengan koefisien kepercayaan 1 − α. Panjang interval tersebut adalah

(b − a)σ
l= √n .

Interval kepercayaan yang memenuhi (4.1.1) dengan panjang interval terpen-


dek sehingga b dan a memenuhi (4.1.1).
Dapat ditunjukkan bahwa l terpendek bila b = c(c > 0) dan a = −c
dengan c adalah kuantil atas dari distribusi N(0, 1) yang dinotasikan den-
gan Zα/2. Oleh karena itu interval kepercayaan terpendek untuk θ dengan
koefisien konfidensi 1 − α adalah
Σ σ ¯ σ Σ
¯ .
X − Zα/2 √ , X + Zα/2
√ n
n

Kasus 2 Jika µ diketahui dan σ parameter

Misalkan
2
nSn2
T¯n(σ ) =
Σn σ2
2 1
dengan Sn = n i= (Xi − µ)2 . Berarti T¯n tergantung pada σ 2 hanya melalui
statistik cukup S21dari σ2 dan distribusi χ2 untuk semua σ2. Akan
n n
ditentukan
a dan b dengan a < b sehingga

P (a ≤ χn2 ≤ b) = 1 − α
nS2
P (a ≤ n ≤ b) α σ2= 1
nS −nS2
2n 2
P( ≤σ ≤ )=1−α
b a
sehingga ( nS2n , nSn2 ) adalah interval kepercayaan untuk σ2 dengan koefisien
b a
kepercayaan 1 − α yang panjangnya adalah
.1 1
l= − n
a b
nS2.
Harapan panjang intervalnya Σadalah
EΣ. 1 − nS2Σ 1 ΣnS2 Σ .1 1
E[l] = 1 − Σnσ2. (4.1.2)
Σ = EΣ. 1 − n 2
σ =
b σ2 a
ba n a b
Meskipun terdapat tidak berhingga banyak pasangan a dan b yang
memenuhi (4.1.2), tetapi secara praktis biasanya dipilih a dan b sehingga
luas ekornya adalah α/2.
Akan tetapi hal ini bukanlah pilihan yang terbaik karena interval yang
terbentuk bukanlah interval yang terpendek.
. Misalkan b = b(a) yaitu b

dl Σ
akan memenuhi
sebagai fungsi dari a. Karena l = 1
− b1 nS2 nmaka a penyebab l terpendek
a

d
= 0 atau
a
dl 1 1 db
=− 2
+ =0
da a b2 da
db
yaitu = b2 . Bila G n dan gn masing-masing adalah fungsi distribusi dan
d a2
fungsi akepadatan probabilitas dari χ2 n maka Gn(b) − Gn(a) = 1 − α sehingga
dGn(b) dGn(a) d

atau = (1 − α)
da da da

dGn(b) db

atau − gn(a) = 0
db
da
db
gn(b) − gn(a) = 0.
(a) da
Hal itu berarti db = g 2 . Akibatnya
n
a2gn(a) =∫ b2gn(b) sehingga a dan b
)a gn(a) = b gn(b). danb g (t)dt = 1 − α.
d gn(b 2
ditentukan sehingga
a
a n
Sebagai contoh, untuk n = 25, σ = 1 dan 1 − α = 0, 95 sehingga Zα/2 =
1, 96. Hal itu berarti interval kepercayaan 95% untuk µ adalah
[X¯ − 0, 392, X¯ + 0, 392].
Bila digunakan ekor yang sama diperoleh a = 13, 120 dan b = 40, 646 maka
interval kepercayaan 95% untuk σ2 adalah
Σ 2
25 25S225 Σ
, .
25S
40, 646 13, 120
Pada sisi lain, interval kepercayaan % terpendek untuk σ2 adalah
Σ 2
25S 25 25S225 Σ
, .
45, 7051 14, 2636
dengan rasio panjang antara kedua interval tersebut medekati 1,068.

Contoh 4.2
Misalkan X1, . . . , Xn variabel random saling bebas dari distribusi Gamma
Σn
dengan parameter β dan α diketahui (misal α = r). Statistik i= Xi meru-
pakan statistik cukup untuk β. Karena setiap j = 1, 2, . . . , n,1 variabel ran-
2
dom 2Xi/β berdistribusi χ2 maka
r
Σn2
Tn(β) = Xi
β
i=1

berdistribusi chi-kuadrat dengan derajat bebas 2rn untuk semua β > 0.


Akan ditentukan a dan b dengan a < b sehingga P (a ≤ χ22 ≤ b) = 1 − α.
m
Diperoleh
n
P (a
Σ2 ≤ b) = 1 − α
Xi
β≤
i=1
Σ i=1
n Σ n Xi
P
Xi ( 2 2 i=1
≤β≤ )=1−α
b a
Oleh karena itu interval konfidensi dengan koefisien konfidensi 1 − α adalah
Xi
ΣΣ i=1
n
b Σ n Σ
2 , 2 i=1 Xi
a
Panjang interval kepercayaannya adalah
. 1 1 Σ Σn

l=2 X
a i i=
b Σn 1 2X
Dengan harapan E(l) = β . a − bΣE Σ i= β i Σ = 2βrn. 1a − 1bΣ. Prosedur
1 1

1
untuk menentukan interval kepercayaan dengan panjang terpendek analog
pada Contoh 4.1, yaitu dipilih a dan b sehingga a2g2rn(a) = b2g2rn(b) dan
a

95
∫ b

g2rn(t)dt = 1 −
α.

96
Untuk n = 7, r = 2 dan 1 − α = 0, 95 diperoleh a = 16, 5128 dan b = 49,
3675 dan interval kepercayaan dengan panjang terpendek adalah
Xi Σ n
ΣΣ i=1n
, 2 i=1 Xi Σ
2 3675 16, 5128
49,
sedangkan interval kepercayaan dengan luas ekor sama adalah
Xi Σ n
ΣΣ i=1
n , 2 i=1 Xi Σ
244, 461 15, 308
dengan rasio panjang antara dua interval tersebut mendekati 1, 075.

Contoh 4.3
Misalkan X1, . . . , Xn variabel random saling bebas dari distribusi Beta den-
Qn
gan parameter β = 1 dan α = θ tidak diketahui. Karena i=1 Xi atau
n
Σ i= ln i merupakan statistik cukup untuk θ.i Karena X
− dengan
Beta 1 Xβ = 1 dan α = θ maka Yi = 2θ ln Xi berdistribusi berdistribusi
chi-kuadrat
dengan derajat bebas 2 sehingga dengan mengingat X1, . . . , Xn saling bebas
diperoleh
Σ n
Tn(θ) = −2θ ln Xi
i=1

berdistribusi chi-kuadrat dengan derajat bebas 2n. Akan ditentukan a dan


b dengan a < b sehingga

P (a ≤ χ22 ≤ b) = 1 − α
n n
Σ
P (a ≤ −2θ ln Xi ≤ b) = 1 − α
i=1
a b
P (Σ n ) = 1 − α.
−2 i=1 ln ≤θ≤ ln Xi
Xi Σn −2
i=
1
Oleh karena itu interval kepercayaan 1 − α untuk θ adalah
Σ a Σ
− Σn b
, .
2 ln Xi −2 Σn ln Xi

i=1 i=1
P
2
a+b dl
ln Xi
. Dengan menganggap da = 0

Panjang intervalnya sama dengan l = n


g2n(t)dt = 1 −
α.
i=1

maka diperoleh g2n(a) = g2n(b) dan

∫ b
Contoh 4.4

Misalkan X1, . . . , Xn variabel random saling bebas dari distribusi U (0, θ).
Statistik Yn = X(n) adalah statistik cukup untuk θ dan mempunyai fungsi
kepadatan probabilitas
g (y n
) = yn−1
n n n
θn
untuk 0 ≤ yn ≤ θ. Misalkan Tn(θ) = Yn . θHal itu berarti Tn mempunyai
fungsi kepadatan probabilitas

hn(t) = ntn−1

untuk 0 ≤ t ≤ 1. Akan ditentukan a dan b dengan sifat 0 ≤ a < b


1 sehingga
≤ ∫
b
P (a ≤≤ b)
ntn−1dt = bn − an = 1 − α.
=
a

Diperoleh P (a ≤ Yn
≤ b) = 1 − α atau P (X(n) ≤ θ ≤ X(n) ) = 1 − α. Oleh
θ b a
karena itu interval kepercayaan 1 − α untuk θ adalah
ΣX Σ
(n) X(n)
,
b a
dan panjang intervalnya adalah l = . 1 − 1 ΣX(n). Akibatnya
a b
dl Σ 1 da 1 Σ
= X (n) − 2 + .
d a b2
b db
Karena dl maka dl
=X a −
n+1 bn+1 . Karena < 0 untuk semua b
bn−1 dl
=
db an−1 da (n) b2 an+1 da
maka l turun dalam b dan nilai minimum dicapai bila a = α1/n. Oleh karena
itu interval kepercayaan dengan koefisien 1 − α dinyatakan dengan
ΣX(n) X Σ
( n)
,
.
α 1/n

Untuk n = 23 dan 1 − α = 0, 95 maka diperoleh [X(32), 1, 098X(32)].

97
4.2 Interval Kepercayaan Bila Muncul
Param- eter Nuisans
Contoh-contoh berikut ini menjelaskan bagaimana menentukan interval keper-
cayaan bila muncul parameter nuisans.

Contoh 4.5

Misalkan X1, X2, . . . , Xn variabel random saling bebas dari distribusi N(µ, σ2)
dengan µ dan σ2 tidak diketahui.

Kasus 1

Akan dikonstruksikan interval kepercayaan untuk µ. Misalkan



n(X¯ − µ)
Tn (µ) =
Sn−1
dengan n

2
Sn−1 = (X − µ)2 .
n
i
i=1

Statistik Tn−1(µ) tergantung pada X1, . . . , Xn hanya melalui statistik cukup


(X¯n , S 2 2 t
n−1 ) dari (µ, σ ) . Karena
berdistribusi t dengan derajat bebas n − 1 maka diperoleh interval keper-
cayaan berbentuk
Σ Sn−1 ¯ Sn−1 Σ
¯ .
Xn − b √ , Xn − a √
n n
Dengan alasan yang sama seperti pada Contoh 4.1 diperoleh interval keper-
cayaan dengan panjang terpendek yaitu
Σ Sn−1 ¯ Sn−1 Σ
X¯n − tn−1;α/2 √ √
, Xn +
n n
dengan tn−1;α adalah kuantil atas dari distribusi t dengan derajat bebas
n−1. Untuk n = 25 dan α = 0, 96 interval kepercayaan yang bersesuaian
dengan
µ diambil dengan t24;0,025 = 2, 0639 sehingga diperoleh
ΣX¯ n − 0, 41278S24 , X¯ n + 0, 41278S24 Σ.
Kasus 2

Akan dikonstruksikan interval kepercayaan untuk σ2. Misalkan


(n − 1)S2
2
Tn(σ ) = n−1
.
σ2

Karena T (σ2) berdistribusi chi-kuadrat dengan derajat bebas n−1 maka den-
gan menggunakan alasan seperti pada Contoh 4.1 diperoleh interval keper-
cayaan untuk σ2 yaitu
2
Σ (n − n−1 (n − 1)Sn−1
2 Σ
,
1)S b a
dan interval kepercayaan terpendek diambil bila a dan b memenuhi
a2gn−1(a) = b2gn−1(b)
dan
∫ b
gn−1(t)dt = 1 − α.
a
Untuk n = 25 dan 1 − α = 0, 95 diperoleh a = 13, 5227 dan b = 44, 4802
yang bersesuaian dengan
[0, 539S2 , 1, 775S2 ].
24 24

Contoh 4.6

Sampel random X1, X2, . . . , Xn berasal dari distribusi N(µ1, σ2) dan
1 sam- pel
random berasal dari distribusi dengan µ − 1, µ2, σ1, σ2 tidak diketahui. Akan
dikonstruksikan interval kepercayaan untuk µ1 − µ2 dengan mengang- gap
σ1 = σ2 = σ. Misalkan
(X¯ m − Y¯n ) − (µ1 − µ2 )
.
Tm,n(µ1 − µ2) = . 2 2
. Σ
(m−1)Sm−1 +(n−1)Sn−1 1 1 −
m+n−2 m
n
Statistik Tm,n(µ1 − µ2) berdistribusi t dengan derajat bebas m + n − 2.
Hal itu berarti interval kepercayaan 1 − α untuk µ1 − µ2 adalah
Σ .(m − 1)S 2 . Σ
¯ ¯ + (n − n−1 1 1
(Xm − Yn) − m−1 − ,
1)S2 m n
tm+n−2;α/2 m+n−
.(m − 1)S 2 1) .
¯ ¯ 2 + (n − S2 − 1 .
(Xm − Yn) + m−1 n−1
m
tm+n−2;α/2 m+n−
2
1 ΣΣ
n
Untuk m = 13, n = 14 dan 1 − α = 0, 95 diperoleh t25;0,025 sehingga
Σ(X¯ − Y¯ ) − 0, 1586.12S 2 + 13S 2 , (X¯ − Y¯ ) − 0, 1586.12S 2 + 13S 2 Σ.
X Y X Y
2
σ
Akan dikonstruksikan interval kepercayaan untuk . Misalkan 1
2
σ2

. σ2 Σ
2
σ12 Sn−1
Tm, 1
2 2 .S2
=
n 2σ 2σ n−1
σ
. 2 Σ berdistribusi F dengan derajat bebas n − 1 dan m − 1.
Statistik m,
1
T n
σ22
Akan ditentukan a dan b dengan 0 < a < b sehingga

P (a ≤ Fn−1;m−1 ≤ b) = 1 − α
σ2 S2n−1
P (a ≤ σ1 2 S2 ≤ b) = 1 − α
2 m−1
2
2
m− 1 S −1 ) = 1 α.
1
P (aS 2 σ ≤b m 2
Sn−1≤ 2 S−
2
n−1
σ2
Oleh karena itu interval kepercayaan untuk adalah
σ
12
σ22

2 2
Σ Sm−1 S
a S2 , b m−1
.
2
n−1 ΣS n−1
Khususnya untuk interval kepercayaan yang mempunyai ekor sama diny-
atakan dengan

ΣFn−1;m−1;α/2 S2 2
m−1 S m−1
J ,F
2
Sn−1 n−1;m−1;α/2 Σ 2
Sn−1
J
dengan Fn −1;m−1;α/2 dan Fn−1;m−1;α/2 masing-masing adalah kuantil α/2 atas
dan bawah dari Fn−1;m−1 . Bila titik dibaca dari Tabel distribusi F maka titik
dapat dihitung dengan cara
J
Fn −1;m−1;α/2 = 1/Fn−1;m−1;α/2 .

Untuk m, n dan 1 − α seperti di atas diperoleh dan sehingga interval keper-


σ2
cayaan untuk 1σ2 adalah Σ0, 3171
2
S212 2 S Σ
, 3, 2388 12 .
13 13 S2 S2
4.3 Interval Kepercayaan dan Interval
Keper- cayaan Pendekatan
Konsep interval kepercayaan dapat diperumum menjadi daerah kepercayaan
untuk parameter multi-dimensi.

Contoh 4.7

Akan dikonstruksikan daerah kepercayaan dalam R2 untuk (µ, σ2)t. Vari-


abel random berdistribusi N(0, 1) dan berdistribusi chi-kuadrat dengan de-
rajat bebas n − 1 dan keduanya saling bebas. Akan dicari c(c > 0), a dan
b(0 < a < b) sehingga

P (−c ≤ N(0, 1) ≤ c) = 1 − α

dan P (a ≤ n−1 ≤) = 1 − α. Diperoleh
χ2

P (−c √
n(X¯ − (n − 1)Sn−1
2
≤ ≤ c, a ≤ b) = 1 − α
√ σ2
µ) ≤
σ
P (−c n(X¯ − (n − 1)Sn−1
2
≤ c) × P (a ≤ b) = 1 − α
≤ µ) σ2

σ2 2
¯ c σ (n − 1)S2 (n − 1)S2
n−1 2 n−1
P ((µ − Xn)2 ≤ n , b ≤σ ≤ a ) = 1 − α.
Misalkan X1, X2, . . . , Xn variabel random dengan mean µ dan variansi σ2.
Dengan menggunakan Teorema Limit Pusat diperoleh
n(X¯ n − µ)
√ N(0,
1). σ ∼
Jika dianggap bahwa σ diketahui maka interval kepercayaan untuk µ dengan
koefisien kepercayaan mendekati 1 − α adalah
Σ σ ¯ σ Σ
¯
X − Zα/2 √ , X + Zα/2 √
n n
asalkan n → ∞. Misalkan σ juga tidak diketahui. Karena
Σ n
2
n S = (X¯ −2 X ) 2
i= u
→ σi 1 n
n
ntuk n → ∞ maka √
n(X¯
Sn − µ
→ N(0, 1).
)
Oleh karena itu interval kepercayaan untuk µ dengan koefisien kepercayaan
1 − α dinyatakan dengan
Σ Σ
X¯ − Zα/2 S√
n , X + Z S√
¯ α/2
n
n n
asalkan n → ∞.

Contoh 4.8

Misalkan X1, . . . , Xn variabel random saling bebas dari distribusi Binom(1,


θ). Akan dikonstruksikan interval kepercayaan untuk θ dengan koefisien

keper- cayaan mendekati 1 α. Karena
n S 2 = X¯ n (1 X¯ n ) maka dengan
hasil di atas
diperoleh interval kepercayaan untuk θ berikut
.
ΣX¯ − Z .
X ¯ n (1 − X ¯ n ) X¯ n (1 − X¯ n ) Σ
α/2 n , X¯ α/2 .
+Z n

Contoh 4.9

Misalkan X1, . . . , Xn variabel random saling bebas dari distribusi


Poisson(λ). Interval kepercayaan untuk λ dengan koefisien kepercayaan−
mendekati 1

α
adalah
Σ Sn ¯ S Σ
X¯ − Zα/2 √ , X + Zα/2 n .
√ n
n
4.4 Hubungan antara Uji Hipotesis dan In-
terval Kepercayaan
Terdapat hubungan erat antara pengkonstruksian interval kepercayaan
dan pengujian hipotesis. Misalkan variabel random saling bebas dengan
r ∗
fungsi kepadatan probabilitas f ∈
(x; θ),
⊆ θ Ω R . Untuk setiap θ Ω,
akan diuji ∈
hipotesis H(θ ) : θ = θ pada tingkat α dan A(θ∗) menyatakan daerah pener-
∗ ∗

imaan dalam Rn. Misalkan Z = (X1, X2, . . . , Xn)t dan z = (x1, x2, . . . , xn)t
didefinisikan daerah T (z) dalam Ω sebagai T (z) = {θ ∈ Ω|z ∈ θ}.
Dengan kata lain, T (z) adalah himpunan bagian dari Ω dengan sifat :
berdasarkan pada baris z, setiap H(θ) diterima bila θ ∈ T (z) yaitu

z ∈ θ → θ ∈ T (z).
Oleh karena itu

P (θ ∈ T (z)) = P (z ∈ A(θ)) ≥ 1 − α,

sehingga T (z) adalah daerah kepercayaan untuk θ dengan koefisien keper-


cayaan 1 − α.

Teorema 4.1

Misalkan variabel random saling bebas dengan fungsi kepadatan


probabil- itas f (x; θ), θ ∈ Ω ⊆ Rr. Untuk setiap θ ∈ Ω, misalkan
masalah pengujian hipotesis pada tingkat α dan didefinisikan T (z) oleh

T (Z) = {θ ∈ Ω|z ∈ A(θ)}

maka T (z) adalah daerah kepercayaan untuk θ dengan koefisien


kepercayaan 1 − α.
Brief History of Pearson
Karl Pearson (1857-1936) Biometrician, statistician & applied mathe-
matician. MacTutor References. SC, LP.
Karl Pearson read mathematics at Cambridge but made his career at
Uni- versity College London. Pearson was an established applied
mathematician when he joined the zoologist W. F. R. Weldon and
launched what became known as biometry; this found institutional
expression in 1901 with the jour- nal Biometrika. Weldon had come to
the view that the problem of animal evolution is essentially a statistical
problem and was applying Galtons statis- tical methods. Pearsons
contribution consisted of new techniques and even- tually a new theory
of statistics based on the Pearson curves, correlation, the method of
moments and the chi square test. Pearson was eager that his statistical
approach be adopted in other fields and amongst his followers was the
medical statistician Major Greenwood. Pearson created a very powerful
school and for decades his department was the only place to learn
statistics. Yule, Wishart and F. N. David were among the distinguished
statisticians who started their careers working for Pearson. Among those
who attended his lectures were the biologist Raymond Pearl, the
economist H. L. Moore, the medical statistician Austin Bradford Hill and
Jerzy Neyman; in the 1930s Wilks was a visitor to the department.
Pearsons influence extended to Russia where Slutsky (see minimum chi-
squared method) and Chuprov were inter- ested in his work. Pearson had
a great influence on the language and notation of statistics and his name
often appears on the Words pages and Symbols pagessee e.g. population,
histogram and standard deviation. When Pear- son retired, his son E. S.
Pearson inherited the statistics part of his fathers empirethe eugenics part
went to R. A. Fisher. Under ESP (who retired in 1961) and his successors
the department continued to be a major centre for statistics in Britain. M.
S. Bartlett went there as a lecturer after graduating from Cambridge in
1933 (his teacher was Wishart) and again as a professor when ESP
retired. For more on KP see Karl Pearson: A Readers Guide. See Stigler
(1986): Chapter 10, Pearson and Yule.
Brief History of Markov

A. A. Markov (1856-1922) Mathematician. MacTutor References. SC,


LP.
Markov spent his working life at the University of St. Petersburg. Markov
was, with Lyapunov, the most distinguished of Chebyshevs students in prob-
ability. Markov contributed to established topics such as the central limit
theorem and the law of large numbers. It was the extension of the latter to
dependent variables that led him to introduce the Markov chain. He showed
how Chebyshevs inequality could be applied to the case of dependent
random variables. In statistics he analysed the alternation of vowels and
consonants as a two-state Markov chain and did work in dispersion theory.
Markov had a low opinion of the contemporary work of Pearson, an opinion
not shared by his younger compatriots Chuprov and Slutsky. Markovs Theory
of Prob- ability was an influential textbook. Markov influenced later figures
in the Russian tradition including Bernstein and Neyman. The latter
indirectly paid tribute to Markovs textbook when he coined the term
Markoff theorem for the result Gauss had obtained in 1821; it is now known
as the Gauss- Markov theorem. J. V. Uspenskys Introduction to
Mathematical Probability (1937) put Markovs ideas to an American
audience. See Life & Work There is an interesting volume of letters, The
Correspondence between A.A. Markov and A.A. Chuprov on the Theory of
Probability and Mathematical Statis- tics ed. Kh.O. Ondar (1981, Springer)
See also Sheynin ch. 14 and G. P. Basharin et al. The Life and Work of A.
A. Markov.
Bibliography
[1] Lindgren, B. W., (1993), Statistical Theory 4th edition, Chapman &
Hall Inc, New York.

[2] Oosterhoff, J., (1993), Algemene Statistiek, Faculteit Wiskunde en


Informatica, Vrije Universiteit Amsterdam, Amsterdam.

[3] Roussas, G. G., (1973), A first Course in Mathematical Statistics,


Addison-Wesley Publishing Company, Reading Massachusetts.

Anda mungkin juga menyukai