Statmat11 PDF
Statmat11 PDF
STATISTIKA MATEMATIKA
Adi Setiawan
i
Contents
1 Pendahuluan 1
1.1 Sifat Kecukupan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sifat Kelengkapan . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Sifat Ketakbiasan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Keluarga Eksponensial . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Estimasi Titik 19
2.1 Metode yang digunakan bila tersedia statistik cukup yang lengkap 21
2.2 Metode yang digunakan bila tidak tersedia statistik cukup lengkap 22
2.3 Kriteria Pemilihan Estimator : Prinsip MLE . . . . . . . . . . . . 28
2.4 Estimator Momen . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5 Kriteria Pemilihan Estimator : Pendekatan Teori Keputusan . . . 33
2.6 Sifat-sifat Optimal secara Asimptotik dari Estimator . . . . . . . . 40
3 Pengujian Hipotesis 46
3.1 Konsep Umum dari Pengujian Hipotesis Neyman-Pearson . . . . . 46
3.2 Pengujian Hipotesis Sederhana Melawan Alternatif Sederhana . . . 49
3.3 Uji UMP untuk Pengujian Hipotesis Komposit . . . . . . . . . . . 58
3.4 Uji UMPU untuk Pengujian Hipotesis Komposit . . . . . . . . . . 70
3.5 Pengujian Parameter dari Distribusi Normal . . . . . . . . . . . . . 73
3.5.1 Uji Tentang Variansi . . . . . . . . . . . . . . . . . . . . . . 73
3.5.2 Uji Tentang mean . . . . . . . . . . . . . . . . . . . . . . . 75
3.6 Perbandingan Parameter Dua Distribusi Normal . . . . . . . . . . 77
3.6.1 Perbandingan Variansi Dua Densitas Normal . . . . . . . . 77
3.6.2 Perbandingan Mean Dua Densitas Normal . . . . . . . . . . 79
3.7 Uji Likelihood Ratio . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4 Daerah Kepercayaan 91
4.1 Interval Kepercayaan . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2 Interval Kepercayaan Bila Muncul Parameter Nuisans . . . . . . . 98
4.3 Interval Kepercayaan dan Interval Kepercayaan Pendekatan . . . . 101
4.4 Hubungan antara Uji Hipotesis dan Interval Kepercayaan . . . . . 102
ii
Chapter 1
Pendahuluan
Dalam bab ini terlebih dahulu akan dibahas tentang ruang parameter (pa-
rameter space), statistik cukup (sufficient statistics), sifat kelengkapan (com-
pleteness), sifat ketakbiasan (unbiasedness) dan keluarga eksponensial (ex-
ponential family).
T = (T1 , . . . , Tm )
1
dinamakan statistik dimensi m, dengan T1 = T1 (X1 , X2 , . . . , Xn ),
T2 = T2 (X1 , X2 , . . . , Xn ),
dan Tm = Tm (X1 , X2 , . . . , Xn ). Sebelum didefinisikan sifat kecukupan, ter-
lebih dahulu diberikan contoh-contoh berikut ini.
Contoh 1.1
Misalkan variabel random X berdistribusi seragam pada (α, β). Bila diambil
θ1 = α, θ2 = β maka diperoleh θ = (θ1 , θ2 )t sehingga ruang parameternya
adalah Ω = {(θ1 , θ2 )t |θ1 , θ2 ∈ R2 , θ1 ≤ θ2 } dan fungsi kepadatan probabilitas
dari variabel random X adalah
1
f (x; θ) = (1.1.1)
θ2 − θ 1
untuk θ1 < x < θ2 . Jika α diketahui dan β = θ maka ruang parameternya
adalah Ω = (α, ∞) dan fungsi kepadatan probabilitas daria variable random
X adalah
1
f (x; θ) = (1.1.2)
θ−α
untuk θ1 < x < θ2 atau
1
f (x; θ) = IA (x) (1.1.3)
θ−α
dengan A = (α, θ) dan IA (x) = 1 untuk x ∈ A and IA (x) = 0 untuk x ∈ A
merupakan fungsi indikator.
Jika β diketahui dan α = θ maka ruang parameternya Ω = (−∞, β) dan
fungsi kepadatan probabilitas dari variable random X adalah
1
f (x; θ) = (1.1.4)
β−θ
untuk θ < x < β atau
1
f (x; θ) = IA (x) (1.1.5)
β−θ
dengan A = (θ, β).
Contoh 1.2
2
dan fungsi kepadatan probabilitas dari variabel random X adalah
1 h (x − θ )2 i
1
f (x; θ) = √ exp − (1.1.6)
2πθ2 2θ 2
1 (x − µ)2 i
h
f (x; θ) = √ exp − . (1.1.8)
2πθ 2θ
Contoh 1.3
3
terjadinya t ’sukses’.
P (X1 = x1 , . . . , Xn = xn )
P (X1 = x1 , . . . , Xn = xn |T = t) =
P (T = t)
(
P (X1 =x1 ,...,Xn =xn )
P (T =t)
jika x1 + x2 + . . . + xn = t
=
0 jika yang lain.
1
P (X1 = x1 , . . . , Xn = xn |T = t) =
n
t
tidak bergantung pada θ. Oleh karena itu total banyaknya sukses t menye-
diakan semua informasi tentang θ.
Contoh 1.3 memotivasi definisi statistik cukup berikut ini.
Definisi 1.1
θ = (θ1 , θ2 , . . . , θr )t ∈ Ω ⊆ Rr .
Tj = Tj (X1 , X2 , . . . , Xn )
4
untuk j = 1, 2, . . . , m statistik. Statistik T dinamakan statistik cukup
dimensi-m untuk keluarga F = {f (x; θ)|θ ∈ Ω} atau untuk parameter θ
jika distribusi bersyarat (X1 , X2 , . . . , Xn )t diberikan T = t tidak bergantung
pada θ untuk semua nilai t.
Dengan menggunakan teorema berikut ini, identifikasi statistik cukup
dengan mudah dapat dilakukan.
merupakan statistik cukup untuk θ jika dan hanya jika fungsi kepadatan
probabilitas bersama dari dapat difaktorkan sebagai
Akibat 1.1
Contoh 1.4
5
kepadatan probabilitas bersamanya adalah
n
Y 1
f (x1 , x2 , . . . , xn ; θ) = I(θ ,θ ) (xi ),
i=1
θ2 − θ 1 1 2
1
f (x1 , x2 , . . . , xn ; θ) = θ1 < X(1) < X(n) < θ2 ,
(θ2 − θ1 )n
1
f (x1 , x2 , . . . , xn ; θ) = I[θ ,∞) (X(1) )I(−∞,θ2 ) (X(n) ),
(θ2 − θ1 )n 1
1
f (x1 , x2 , . . . , xn ; θ) = g1 (X(1) , θ)g2 (X(n) , θ),
(θ2 − θ1 )n
dengan g1 (X(1) , θ) = I[θ1 ,∞) (X(1) ) dan g2 (X(n) , θ) = I[θ1 ,∞) (X(1) )I(−∞,θ2 ) (X(n) ).
Akibatnya dengan menggunakan Teorema Faktorisasi Fisher-Neyman diper-
oleh (X(1) , X(n) ) merupakan statistik cukup untuk θ. Khususnya jika θ1 = α
diketahui dan θ2 = θ maka X(1) merupakan statistik cukup untuk θ. Dengan
cara yang sama jika θ2 = β diketahui dan maka X(n) merupakan statistik
cukup untuk θ.
Contoh 1.5
1 h (x − θ )2 i
i 1
f (xi ; θ) = √ exp −
2πθ2 2θ 2
1 h 1 X
n i
2
f (xi ; θ) = √ exp − (x i − θ 1 ) .
( 2πθ2 )n 2θ2 i=1
Tetapi, karena
n
X n h
X n
X
2 2
(xi − θ1 ) = (xi − x̄) + (x̄ − θ1 )] = (xi − x̄)2 + n(x̄ − θ1 )2
i=1 i=1 i=1
1 h 1 X
n
n i
2 2
f (xi ; θ) = √ exp − (xi − x̄) − (x̄ − θ1 )
( 2πθ2 )n 2θ2 i=1 2θ2
6
P
sehingga (X̄, ni=1 (Xi − X̄)2 )t merupakan statistik cukup untuk θ. Pada sisi
lain fungsi kepadatan probabilitasnya dapat dinyatakan sebagai
1 nθ 2 θ X n
1 X 2
n
1 1
f (xi ; θ) = √ exp − exp xi − x .
( 2πθ2 )n 2θ2 θ2 i=1 2θ2 i=1 i
P
Hal itu berarti, jika θ2 = σ 2 diketahui dan θ1 = θ maka ni=1 Xi merupakan
statistik
P cukup untuk θ. Di samping itu, jika θ1 = µ diketahui dan θ2 = θ
maka ni=1 Xi2 merupakan statistik cukup untuk θ. Demikian juga, dengan
2 t
menggunakan Akibat Teorema Faktorisasi Fisher-Neyman (X̄, PnS ) meru-2
1
pakan statistik cukup untuk θ. Jika θ1 = µ diketahui maka n i=1 (xi − µ)
merupakan statistik cukup untuk θ2 = θ.
Pada contoh-contoh di atas, dimensi dari statistik cukup sama dengan
dimensi parameternya. Jika X1 , X2 , . . . , Xn variabel random saling bebas
dan berdistribusi identik dari distribusi Cauchy dengan parameter θ = (µ, σ 2 )
dan fungsi kepadatan probabilitas
1 σ
f (x; µ, σ 2 ) =
π σ + (x − µ)2
2
untuk −∞ < x < ∞ maka tidak ada statistik cukup yang dimensinya lebih
kecil dari statistik cukup (X1 , X2 , . . . , Xn )t .
Jika m adalah bilangan bulat terkecil sehingga T = (T1 , T2 , . . . , Tm )t
dengan Tj = Tj (X1 , X2 , . . . , Xn ) untuk j = 1, 2, . . . , m merupakan statis-
tik cukup untuk θ = θ1 , . . . , θr )t maka T dinamakan statistik cukup minimal
untuk θ.
Definisi 1.2
Eθ [g(X)] = 0
7
Contoh 1.6
n
Misalkan F = {f (x; θ)|f (x; θ) = θ x (1 − θ)n−x IA (x), θ ∈ (0, 1)} dengan
x
A = {0, 1, 2, . . . , n}. Karena
n
X n
X
x n−x n n
E[g(X)] = g(x)θ (1 − θ) = (1 − θ) g(x) ρx
x
i=1 x=0
θ
dengan ρ = 1−θ
maka E[g(X)] = 0 untuk semua θ ∈ (0, 1) akan ekuivalen
dengan
n
X
n
g(x) ρx = 0
x
x=0
untuk setiap ρ ∈ (0, ∞). Akibatnya untuk lebih dari n nilai-nilai dari ρ
berlaku untuk x = 0, 1, 2, . . . , n yang ekuivalen dengan
n
g(x) =0
x
untuk x = 0, 1, 2, . . . , n. Hal itu berarti bahwa keluarga distribusi binomial
F merupakan keluarga yang lengkap.
Contoh 1.7
Misalkan
e−θ xθ
F = {f (x; θ)|f (x; θ) = IA (x), θ ∈ (0, ∞)}
x!
dengan A = {0, 1, 2, 3, . . .}. Karena
∞
X X g(x) ∞
e−θ
E[g(X)] = g(x) = e−θ θx = 0
x=0
x! x=0
x!
dengan θ ∈ (0, θ) maka g(x) = 0 untuk . hal ini ekuivalen dengan g(x) = 0
untuk x = 0, 1, 2, . . . , n. Akibatnya keluarga distribusi Poisson F merupakan
keluarga yang lengkap.
Contoh 1.8
Misalkan
1
F = {f (x; θ)|f (x; θ) = I[α,θ] (x), θ ∈ (0, ∞)}.
θ−α
8
Rθ
Karena E[g(X)] = 0 untuk semua θ = (α, ∞) maka a g(x)dx = 0 untuk
semua θ > α sehingga g(x) = 0 kecuali mungkin untuk himpunan N se-
hingga P [X ∈ N ] untuk semua θ ∈ Ω dengan X adalah variabel random
yang mempunyai fungsi kepadatan probabilitas f (x; θ. Hal yang sama juga
benar jika f (x; θ) adalah U (θ, β).
Contoh 1.9
1 h (x − θ)2 i
F = {f (x; θ)|f (x; θ) = √ exp − , θ ∈ R}
2πσ 2 2σ 2
1 h (x − µ)2 i
F = {f (x; θ)|f (x; θ) = √ exp − , θ ∈ (0, ∞)}
2πθ 2θ
E[g(X)] = E[X − µ] = 0
1 h (x − µ)2 i
F = {f (x; µ, σ 2 )|f (x; µ, σ 2 ) = √ exp − , µ ∈ R, σ ∈ (0, ∞)}
2πσ 2 2σ 2
lengkap atau statistik cukup juga merupakan statistik cukup untuk (µ, σ 2 )
yang lengkap.
Teorema 1.2
T = (T1 , T2 , . . . , Tm )t
9
untuk j = 1, 2, . . . , m sebarang statistik lain yang tidak tergantung pada T.
Misalkan g(x; θ) fungsi kepadatan probabilitas dari T dan dianggap bahwa
himpunan S sehingga g(x; θ) positif adalah sama untuk semua θ ∈ Ω. Dis-
tribusi dari V tidak tergantung pada θ.
Contoh 1.10
10
2
Karena Xi − µ ∼ N (0, σ 2 ) untuk j = 1, 2, . . . , n dan X̄ ∼ N (µ, σn ) sehingga
berakibat maka distribusi dari S 2 tidak bergantung pada µ. Dengan meng-
gunakan Teorema Basu diperoleh bahwa X̄ dan S 2 saling bebas.
T = (T1 , . . . , Tm )t
11
cukup tak bias untuk θ dan Eθ [U 2 ] < ∞ untuk semua θ ∈ Ω maka U adalah
statistik tak bias untuk θ dengan variansi terkecil dalam kelas yang mengan-
dung semua statistik tak bias untuk θ.
Definisi 1.4
Statistik tak bias untuk θ yang mempunyai variansi minimum dalam ke-
las semua statistik tak bias dari θ dinamakan UMVU (uniformly minimum
variance unbiased ).
Terminologi ”uniformly” diperoleh dari fakta bahwa variansi minimum
untuk semua θ ∈ Ω.
Contoh 1.11
Contoh 1.12
Contoh 1.13
12
untuk x > 0. Misalkan θ = 1/λ sehingga fungsi kepadatan probabilitas dari
X menjadi h 1 i
1
f (x; λ) = exp − x .
θ θ
2
Diperoleh E[Xi ] = θ dan Var(Xi ) = θ untuk i = 1, 2, 3. Hal itu berarti
bahwa X1 merupakan statistik tak bias untuk θ dengan variansi θ 2 . Demikian
juga T = X1 + X2 + X3 merupakan statistik cukup untuk θ dan juga meru-
pakan statistik yang lengkap. Karena X1 bukan merupakan fungsi dari T
maka X1 bukan statistik tak bias dengan variansi minimum untuk θ. Oleh
karen itu dipilih statistik yang merupakan fungsi dari T dan juga merupakan
statistik tak bias untuk θ yaitu T /3 dengan sifat E[T /3] = θ. Dalam hal ini
Var(T /3) = θ 2 /3 lebih kecil dari θ 2 dengan θ ∈ (0, ∞).
Contoh 1.14
n
Misalkan f (x; θ) = θ x (1 − θ)n−x IA (x) dengan A = {0, 1, 2, . . . , n}.
x
Fungsi probabilitas tersebut dapat dinyatakan sebagai
n θ n
f (x; θ) = (1 − θ) exp[log( )] IA (x)
1−θ x
13
Contoh 1.15
Teorema 1.6
G = {g(x; θ)|θ ∈ Ω}
Teorema 1.7
14
2. Fungsi kepadatan probabilitas dari T ∗ selalu berbentuk
h i
g(t; θ) = [c(θ)] exp Q(θ)t h∗ (t)
n
Teorema 1.8
Teorema 1.9
Contoh 1.16
θ = (θ1 , θ2 , . . . , θr )t ∈ Ω ⊆ Rr ,
C(θ) > 0, θ ∈ Ω dan h(x) > 0 untuk x ∈ S himpunan nilai positif dari
f (x; θ) yang saling bebas terhadap θ.
Contoh 1.17
1 h θ2 i h θ 1 2i
1
f (x; θ1 , θ2 ) = √ exp − 1 x exp − x − x .
2πθ2 2θ2 θ2 2θ2
Hal ini berarti keluarga distribusi normal merupakan anggota keluarga dis-
tribusi eksponensial dengan
1 h θ2 i θ1 1
c(θ) = √ exp − 1 , Q1 (θ) = , Q2 (θ) = ,
2πθ2 2θ2 θ2 2θ2
dan
16
Brief History of Fisher
17
Brief History of Kolmogorov
18
Chapter 2
Estimasi Titik
Definisi 2.1
U = U (X1 , X2 , . . . , Xn )
Definisi 2.2
19
kriteria ketakbiasan sudah mengkhususkan diri pada kelas estimator yang
memenuhi sifat tertentu tetapi kelas ini masih terlalu besar. Untuk itu perlu
dipilih dari dua estimator tak bias yaitu yang mempunyai variansi yang lebih
kecil.
Dasar pemikiran yang digunakan adalah bahwa variansi atau simpangan
baku memberikan ukuran konsentrasi di sekitar mean. Jika
U = U (X1 , . . . , Xn )
Var(U )
Pθ [|U − g(θ)| ≤ ε] ≥ 1 − .
ε
Oleh karena itu, Var(U ) yang kecil akan memperbesar batas bawah proba-
bilitas konsentrasi U di sekitar g(θ).
Definisi 2.3
U = U (X1 , X2 , . . . , Xn )
20
2.1 Metode yang digunakan bila tersedia statis-
tik cukup yang lengkap
Misalkan
T = (T1 , T2 , . . . , Tr )t
dengan Tj = Tj (X1 , X2 , . . . , Xn ) untuk j = 1, 2, . . . , r adalah statistik cukup
untuk θ dan U = U (X1 , X2 , . . . , Xn ) estimator tak bias dari g(θ) dengan g
fungsi real. Misalkan φ(T) = E[U |T]. Estimator merupakan estimator tak
bias dari g(θ) dan Var(φ) ≤ Var(U ) untuk semua θ ∈ Ω dengan kesamaan
dipenuhi bila U merupakan fungsi dari T.
Jika tersedia statistik cukup maka Teorema Rao-Blackwell mengatakan
bahwa pencarian estimator UMVU untuk g(θ) cukup dibatasi pada kelas esti-
mator tak bias yang hanya tergantung pada T. Jika T lengkap maka dengan
menggunakan Teorema Lehman-Scheffe, estimator tak bias φ(T) adalah esti-
mator unik yang mempunyai variansi minimum seragam dalam kelas semua
estimator tak bias. Metode ini tidak hanya menjamin keberadaan estimator
tetapi juga menghasilkannya.
Teorema 2.1
Misalkan g fungsi terukur dan real. Misalkan terdapat estimator tak bias
U = U (X1 , X2 , . . . , Xn ) dari g(θ) dengan variansi berhingga. Jika
T = (T1 , T2 , . . . , Tr )t
dengan Tj = Tj (X1 , X2 , . . . , Xn ) untuk j = 1, 2, . . . , r adalah statistik cukup
untuk θ, lengkap dan φ(T) = E[U |T] maka estimator UMVU untuk g(θ)
dan tunggal.
Contoh 2.1
21
Karena Xi = 0 atau 1 maka Xi2 = Xi sehingga
n
X n
X 1 X
n 2
Xi2 − nX̄ = Xi − n Xi .
i=1 i=1
n i=1
Pn
Jika T = i=1 Xi maka diperoleh
n
X n
X 1 X
n 2 T2
Xi2 − nX̄ = Xi − n Xi =T− ,
i=1 i=1
n i=1
n
2
1
sehingga U = n−1 T − Tn . Karena T merupakan statistik lengkap dan juga
merupakan statistik cukup untuk θ maka dengan mengingat Teorema 2.1, U
merupakan estimator UMVU untuk g(θ) = θ(1 − θ).
Contoh 2.2
22
R R
4. S
... S
f (x1 ; θ) . . . f (xn ; θ)dx1 . . . dxn atau
X X
... f (x1 ; θ) . . . f (xn ; θ)
S S
Teorema berikut ini memberikan sifat tentang batas bawah dari variansi
suatu statistik.
[g 0 (θ)]2
Var(U ) ≥
nI(θ)
Definisi 2.4
I(θ) = E[∂f (x; θ)/∂θ]2 dinamakan informasi Fisher sedangkan nI(θ) adalah
informasi yang terkandung dalam sampel X1 , . . . , Xn .
Contoh 2.3
f (x; θ) = θ x (1 − θ)1−x
23
atau ln f (x; θ) = x ln θ + (1 − x) ln θ sehingga
∂ ln f (x; θ) 1 1−x
= − .
∂θ θ 1−θ
Akibatnya
∂ ln f (x; θ) 2 1 2 1 2
= 2
x + 2
(1 − x)2 − x(1 − x).
∂θ θ (1 − θ) θ(1 − θ)
[g 0 (θ)]2
CRLB =
nI(θ)
1
= 1
n θ(1−θ)
θ(1 − θ)
= .
n
Karena X̄ merupakan estimator tak bias θ dan variasinya adalah
θ(1 − θ)
V (X̄) =
n
yaitu sama dengan batas bawah Cramer Rao maka X̄ merupakan estimator
UMVU untuk θ.
Contoh 2.4
24
dengan θ > 0. Fungsi probabilitas dari variabel random X yang berdistribusi
adalah
e−θ θ x
f (x; θ) =
x!
atau ln f (x; θ) = −θ + x ln θ − ln(x!) sehingga
∂ ln f (x; θ) x
= −1 +
∂θ θ
dan ∂ ln f (x; θ) 2 1 2 2
= 1+ x − x.
∂θ θ2 θ
Karena E[X] = θ dan E[X 2 ] = θ(1 + θ) maka
h ∂ ln f (x; θ) 2 i 1 2
E = E[1] + 2 E[X 2 ] − E[X]
∂θ θ θ
1 2
= 1 + 2 θ(1 + θ) − θ
θ θ
1
= 1 + (1 + θ) − 2
θ
1
= −1 + + 1
θ
1
= .
θ
Hal itu berarti batas bawah Cramer-Rao untuk θ sama dengan
[g 0 (θ)]2 1 θ
CRLB = = 1 = .
nI(θ) nθ n
Karena X̄ merupakan estimator tak bias untuk θ dan variansinya adalah
Var(X̄) = nθ yaitu sama dengan batas bawah CRLB maka X̄ merupakan
estimator UMVU untuk θ.
Contoh 2.5
Kasus 1
25
atau 1 (x − θ)2
ln f (x; θ) = ln √ − .
2πσ 2 2σ 2
Akibatnya
∂ ln f (x; θ) 1 (x − θ)
=
∂θ σ σ
atau ∂ ln f (x; θ) 2 1 (x − θ)2
= .
∂θ σ2 σ2
Karena X berdistribusi N (θ, σ 2 ) maka (X−θ)
σ
berdistribusi N (0, 1) sehingga
2
berdistribusi chi-kuadrat dengan derajat bebas 1. Akibatnya E[ (X−θ) σ2
] = 1.
Hal itu berarti
∂ ln f (x; θ) 2 1 (X − θ)2 1
E = 2E =
∂θ σ σ2 σ2
sehingga batas bawah Cramer-Rao untuk g(θ) adalah
g 0 (θ) 1 σ2
CRLB = = 1 = .
nI(θ) n σ2 n
Kasus 2
1 h (x − µ)2 i
f (x; θ) = √ exp −
2πθ 2θ
1 (x−µ)2
sehingga ln f (x; θ) = 2
ln(2π) − 21 ln θ − 2θ
. Akibatnya
∂ ln f (x; θ) 1 (x − µ)2
=− +
∂θ 2θ 2θ 2
dan ∂ ln f (x; θ) 2 1 1 (x − µ)2 1 x − µ 4
=− 2 + 2 + 2 √ .
∂θ 4θ 2θ θ 4θ θ
26
Karena variabel random X berdistribusi N (µ, σ 2 ) maka X−µ√
θ
berdistribusi
N (0, 1) sehingga berdistribusi chi-kuadrat dengan derajat bebas 1. Akibat-
2 2
nya E (X−µ)θ
= 1 dan Var (X−µ)
θ
= 2 sehingga
h x − µ 4 i h (X − µ)2 2 i
E √ = E
θ θ
h (X − µ)2 i h (X − µ)2 i2
= Var + E
θ θ
= 2 + 1 = 3.
Oleh karena itu
h ∂ ln f (x; θ) 2 i 1 1 h (x − µ)2 i 1 h x − µ 4 i
E = − 2 E[1] + 2 E + 2E √
∂θ 4θ 2θ θ 4θ θ
sehingga
h ∂ ln f (x; θ) 2 i
1 1 3
E − =+
∂θ 4θ 2 2θ 2 4θ 2
1
= .
2θ 2
Karena batas bawah Cramer-Rao untuk g(θ) adalah
[g 0 (θ)]2 1 2θ 2
CRLB = = 1 = .
nI(θ) n 2θ2 n
Karena variabel random Xi berdistribusi N (µ, θ) untuk i = 1, 2, . . . , n maka
Xi −µ
θ
berdistribusi N (0, 1) sehingga berdistribusi chi-kuadrat dengan derajat
bebas 1. Dengan mengingat Xiθ−µ saling bebas untuk i = 1, 2, . . . , n maka
Pn (Xi −µ)2
i=1 θ
berdistribusi chi-kuadrat dengan derajat bebas n. Akibatnya
hXn
(Xi − µ)2 i hXn
(Xi − µ)2 i
E = n, Var = 2n
i=1
θ i=1
θ
P 2 2
sehingga ni=1 (Xi −µ)
θ
estimator tak bias untuk θ dan variansinya 2θn sama
dengan CRLB. Hal itu berarti merupakan estimator UMVU untuk θ.
Kasus 3
27
Pn
i −X̄
X√
Karena i=1 θ2
berdistribusi chi-kuadrat dengan derajat bebas n − 1
maka variansi dari θˆ2 adalah 2θ2 /(n − 1). Hal itu berarti estimator UMVU
untuk θ2 mempunyai variansi lebih besar dari batas bawah Cramer-Rao.
Estimator UMVU untuk g(θ) dinamakan estimator efisien untuk g(θ).
Jika u estimator UMVU untuk θ dan U ∗ sebarang estimator tak bias untuk
g(θ) maka kuantitas mengukur efisiensi relatif U ∗ terhadap u. Jelas bahwa
efisiensi relatif mempunyai nilai dalam interval (0, 1].
Definisi 2.5
28
sehingga fungsi likelihoodnya adalah
P 1
xi
L(θ|x1 , x2 , . . . , xn ) = exp[−nθ]θ Qn .
i=1 xi !
Logaritma naturalis dari fungsi likelihoodnya adalah
Y
n X
n
l(θ) = ln L(θ|x1 , x2 , . . . , xn ) = − ln xi ! − nθ + xi ln θ.
i=1 i=1
∂l
Oleh karena itu ∂θ = −n + nX̄ 1θ = 0 dan diperoleh θ̂ = X̄. Sedangkan
2
∂ l
∂θ
= −nx̄ θ12 < 0 untuk semua θ > 0 sehingga berlaku juga untuk θ = θ̂.
Contoh 2.7
sehingga
n
√ 1 X
L(θ|x1 , x2 , . . . , xn ) = −n ln(2π) − n ln( σ2) − 2 (xi − µ)2 .
2σ i=1
Akibatnya
n
∂ ln L 2 X n
= 2 (Xi − µ) = 2 (X̄ − µ)
∂µ 2σ i=1 σ
dan n
∂ ln L n 1 X
2
=− 2 + 4 (Xi − µ)2 = 0
∂σ 2σ 2σ i=1
P
sehingga diperoleh µ̂ = X̄ dan σ 2 = n1 ni=1 (Xi − X̄)2 . Jika σ 2 diketahui
dan µ = θ maka µ̂ =Px̄ adalah MLE untuk µ sedangkan jika µ diketahui dan
σ 2 = θ maka σ̂ = n1 ni=1 (Xi − X̄)2 adalah MLE untuk σ 2 .
Contoh 2.8
29
untuk α < x < β dengan θ = (α, β)t ∈ Ω. Fungsi likelihoodnya adalah
n
Y
L(θ|x1 , x2 , . . . , xn ) = f (xi ; θ)
i=1
Yn
1
= untukα < xi < β
i=1
β−α
1
= I[α,∞) (X(1) )I(−∞,β] (X(1) ).
(β − α)n
Fungsi likelihoodnya akan mencapai maksimum jika β − α minimum yaitu
jika α̂ = X(1) dan β̂ = X(n) . Jadi MLE untuk α dan β masing-masing adalah
α̂ = X(1) dan β̂ = X(n) . Khususnya, jika α = θ − c dan β = θ + c dengan c
positif dan c diketahui maka fungsi likelihoodnya adalah
1
L(θ|x1 , x2 , . . . , xn ) = I[θ−c,∞) (X(1) )I(−∞,θ+c] (X(1) ).
(2c)n
1
Fungsi likelihood dimaksimumkan dan nilai maksimumnya adalah (2c) n untuk
X(n) − c ≤ θ ≤ X(1) + c.
Hal itu berarti bahwa sebarang statistik yang terletak antara X(n) − c dan
X(1) + c merupakan MLE untuk θ. Sebagai contoh 21 [X(1) + X(n) ] merupakan
MLE untuk θ. Jika β diketahui dan α = θ maka θ̂ = X(1) merupakan MLE
untuk θ sedangkan jika α diketahui dan β = θ maka θ̂ = X(n) merupakan
MLE untuk θ.
Teorema 2.3
Teorema 2.4
30
maka φ(θ) merupakan MLE untuk φ(θ). Hal itu berarti MLE invariant di
bawah transformasi satu-satu.
Contoh 2.9
Contoh 2.10
31
Contoh 2.11
α + β = 2X̄
2 (α − β)2 β − α 2
X̄ 2 − X̄ = = √
12 12
atau
α + β = 2X̄
√
−α + β = S 12.
32
2.5 Kriteria Pemilihan Estimator : Pendekatan
Teori Keputusan
Misalkan X1 , X2 , . . . , Xn variabel random saling bebas dan berdistribusi iden-
tik dengan fungsi kepadatan probabilitas f (x; θ), θ ∈ Ω ⊆ R dan diinginkan
untuk mengestimasi θ.
Definisi 2.6
Definisi 2.7
untuk k > 0 atau L[θ; δ(x1 , x2 , . . . , xn )] fungsi konveks dari θ. Bentuk fungsi
kerugian yang biasa digunakan adalah
Definisi 2.8
Fungsi resiko (risk function) yang bersesuaian dengan L[θ; δ] dan dinotasikan
dengan R[θ; δ] didefinisikan sebagai
Hal itu berarti bahwa resiko dari fungsi keputusan yang diberikan adalah
rata-rata atau harapan jika fungsi keputusan tersebut digunakan.
Dua keputusan δ dan δ ∗ dikatakan ekuivalen bila
33
Dalam konteks estimasi titik, keputusan δ(x1 , x2 , . . . , xn ) dinamakan estimasi
dari θ dan kebaikannya ditentukan berdasarkan resiko R[θ, δ].
Definisi 2.9
Estimator δ dari θ dikatakan admisible jika tidak ada estimator lain δ ∗ dari
δ sehingga untuk semua R[θ; δ ∗ ] ≤ R[θ; δ] untuk semua θ ∈ Ω.
Definisi 2.10
Definisi 2.11
Dalam kelas D yaitu semua estimator yang mempunyai sifat R[θ; δ] berhingga
untuk semua θ ∈ Ω, estimator δ dikatakan minimaks (minimax ) jika untuk
sebarang estimator δ ∗ yang lain berlaku sifat
34
probabilitas yaitu fungsi kepadatan probabilitas prior
Z X
R(δ) = E[R(θ; δ)] = R[θ; δ]λ(θ)dθ atau R[θ; δ]λ(θ).
Ω Ω
Hal itu berarti bahwa R(δ) adalah resiko rata-rata dari seluruh ruang pa-
rameter Ω bila digunakan estimator δ.
Misalkan D2 adalah kelas semua estimator sehingga R(δ) berhingga un-
tuk suatu prior λ pada Ω yang diketahui.
Definisi 2.12
Teorema 2.5
dan Z
f (x1 ; θ)f (x2 ; θ)λ(θ)f (xn ; θ) . . . dθ
Ω
berhingga untuk setiap (x1 x2 , . . . , xn )t diberikan oleh
R
θf (x1 ; θ)f (x2 ; θ)λ(θ)f (xn ; θ) . . . dθ
δ(x1 x2 , . . . , xn ) = RΩ
Ω
f (x1 ; θ)f (x2 ; θ)λ(θ)f (xn ; θ) . . . dθ
asalkan λ kontinu.
Jika nilai pengamatan dari Xi adalah xi untuk i = 1, 2, . . . , n maka
akan ditentukan fungsi kepadatan probabilitas bersyarat dari θ bila diberikan
35
X1 = x1 , X2 = x2 , . . . , Xn = xn merupakan fungsi kepadatan posterior dari
θ. Fungsi kepadatan posterior dari θ adalah
dengan
Z Z
h(x) = f (x; θ)λ(θ)dθ = f (x1 ; θ)f (x2 ; θ) . . . f (xn ; θ)λ(θ)dθ
Ω Ω
untuk λ kontinu.
Estimator Bayes untuk θ yaitu δ(x1 x2 , . . . , xn ) adalah harapan dari θ
berkaitan dengan fungsi kepadatan probabilitas posteriornya. estimator Bayes
yang lain dari θ adalah median dari h(θ|x) atau modus dari h(θ|x) jika ada.
Contoh 2.12
Γ(α + β) α−1
λ(θ) = θ (1 − θ)β−1
Γ(α)Γ(β)
36
dan
Z
I1 = θf (x1 ; θ)f (x2 ; θ) . . . f (xn ; θ)λdθ
Ω
Z
Γ(α + β) 1 P xi P
= θθ (1 − θ)n− xi θ α−1 (1 − θ)β−1 dθ
Γ(α)Γ(β) 0
Z
Γ(α + β) 1 P xi +α+1−1 P
= θ (1 − θ)β+n− xi −1 dθ
Γ(α)Γ(β) 0
P P
Γ(α + β) Γ(α + ni=1 xi + 1)Γ(β + n − ni=1 xi )
= .
Γ(α)Γ(β) Γ(α + β + n + 1)
Diperoleh estimator Bayes adalah
R
θf (x1 ; θ)f (x2 ; θ)λ(θ)f (xn ; θ) . . . dθ
δ(x1 x2 , . . . , xn ) = RΩ
Ω
f (x1 ; θ)f (x2 ; θ)λ(θ)f (xn ; θ) . . . dθ
P
Γ(α + β + n)Γ(α + ni=1 xi + 1)
= P
Γ(α + β + n)Γ(α + ni=1 xi )
P P
Γ(α + β + n) α + ni=1 xi Γ(α + ni=1 xi )
= P
(α + β + n)Γ(α + β + n)Γ(α + ni=1 xi )
P
α + ni=1 xi
= .
α+β+n
Bila α = β = 1 maka distribusi priornya merupakan distribusi seragam pada
(0,1) sehingga diperoleh estimator Bayes
P
1 + ni=1 xi
δ(x1 x2 , . . . , xn ) = .
2+n
37
asalkan λ kontinu.
Teorema 2.6
Contoh 2.12
Bila P
α + ni=1 Xi α+X
δ(x1 x2 , . . . , xn ) = =
α+β+n α+β+n
digunakan untuk mengestimasi θ maka akan mempunyai resiko
h X +α i
R[θ, δ] = E θ −
n+α+β
h (n + α + β)θ − (X + α) i2
=E
n+α+β
(n + α + β)2 θ2 − 2(n + α + β)θE[X + α] + E[X + α]2
=
(n + α + β)2
(n + 2nα + 2nβ + (α + β)2 )θ2 − 2(n + α + β)θ(nθ + α) + E[X 2 ] + 2αE[X] + α2
2
=
(n + α + β)2
(α + β) θ − nθ − 2θα − 2θαβ + nθ − nθ 2 + n2 θ2 + α2
2 2 2 2
=
(n + α + β)2
(α + β) θ − nθ − 2θα2 − 2θαβ + nθ + α2
2 2 2
=
(n + α + β)2
[(α + β) − n]θ − [2α2 + 2αβ − n]θ + α2
2 2
= .
(n + α + β)2
1√
Bila α = β = 2
n dan misalkan δ ∗ hasil estimasi dari θ maka (α+β)2 −n = 0
38
dan 2α2 + 2αβ − n = 0 sehingga
∗ α2 (1/4)n 1
R(θ, δ ) = 2
= √ 2 = √ .
(n + α + β) (n + n) 4(1 + n)2
Karena R(θ, δ ∗ ) tidak tergantung pada θ maka
1√
Pn √
∗ 2
n + i=1 xi 2 nX̄ + 1
δ (x1 x2 , . . . , xn ) = √ = √
n+n 2( n + 1)
merupakan estimator minimaks.
Contoh 2.13
Contoh 2.14
Definisi 2.12
Vn → θ
Vn → θ
Teorema 2.7
Definisi 2.13
Sifat
√
Jika n(Vn − θ) → N (0, σ 2 (θ) untuk n → ∞ maka Vn → θ untuk n → ∞.
40
Definisi 2.14
Teorema 2.8
Contoh 2.15
Misalkan X1 , . . . , Xn variabelP
random saling bebas berdistribusi Binom(1, θ).
MLE dari θ adalah X̄ = n ni=1 Xi dan dinotasikan dengan X̄n . Dengan
1
41
berdistribusi N (0, 1) secara asimptotik.
Contoh 2.16
Misalkan X1 , . . . , Xn variabel P
random saling bebas berdistribusi Poisson(θ).
MLE dari θ adalah X̄ = n1 ni=1 Xi dan dinotasikan dengan X̄n . Den-
gan menggunakan Hukum Bilangan Besar Kuat dan Hukum Bilangan Besar
Lemah, X̄ mempunyai sifat √ konsisten kuat dan konsisten lemah serta den-
gan Teorema Limit Pusat, n(X̄n −θ) berdistribusi normal secara asimptotik
dengan variansi sama dengan I −1 (θ) = θ.
Contoh 2.17
Definisi 2.15
Contoh 2.18
42
Estimator ini juga merupakan MLE. Akan tetapi estimator Bayes untuk θ
dengan fungsi kepadatan probabilitas prior Beta(α, β) adalah
P
α + ni=1 Xi
n+α+β
dan estimator minimaksnya adalah
√ P
2
n
+ ni=1 Xi
Wn = √ .
n+ n
43
Brief History of Rao
44
Brief History of Neyman
45
Chapter 3
Pengujian Hipotesis
Definisi 3.1
46
Definisi 3.2
Uji random atau statistik (fungsi uji atau test function) untuk pengujian
hipotesis H melawan alternatif A adalah fungsi terukur φ yang didefinisikan
pada Rn ke [0, 1] dan mempunyai interpretasi berikut ini. Jika (x1 , x2 , . . . , xn )t
adalah nilai pengamatan dari (X1 , X2 , . . . , Xn )t dan
φ(x1 , x2 , . . . , xn ) = y
maka hal ini dapat digambarkan sebagai suatu koin, yang mempunyai prob-
abilitas untuk mendapatkan ’muka’ sebesar y, dilempar satu kali dan bila
memperoleh ’muka’ maka H akan ditolak dan bila memperoleh ’belakang’
maka H akan diterima. Dalam kasus khusus, y dapat bernilai 0 atau 1 un-
tuk semua (x1 , x2 , . . . , xn )t sehingga uji dinamakan uji yang tidak random
(non randomized test). Hal itu berarti uji non random berbentuk
1 jika (x1 , x2 , . . . , xn )t ∈ B
φ(x1 , x2 , . . . , xn ) =
0 jika (x1 , x2 , . . . , xn )t ∈ B c
Definisi 3.3
1 − β(θ) = Pθ [MenerimaH]
1 − β(θ)
47
pada saat yang sama membuat kuasanya sebesar mungkin (lebih disukai
1). Tentu saja, memaksimumkan kuasa ekuivalen dengan memaksimumkan
probabilitas kesalahan tipe II. sayangnya, dengan ukuran sampel yang tetap,
hal ini tidak dapat dilakukan. hal yang dapat dilakukan adalah memilih
ukuran tertentu untuk tingkat keberartian yang diperlukan (biasanya diambil
0,005; 0,001; 0,05 atau 0,1) dan mencari uji yang memaksimumkan kuasa.
Dengan anggapan bahwa kerugian potensial berkenaan dengan keputusan
yang salah, pembuat keputusan merupaka seorang yang konservatif yang
menyokong hipotesis nol sebagai kebenaran dan jika tidak demikian maka
haruslah ada fakta-fakta dari data bahwa hal tersebut salah. Dalam hal ini,
dia percaya bahwa akibat kesalahan penolakan hipotesis nol akan jauh lebih
buruk dari pada kesalahan yang diakibatkan oleh menerimanya.
Sebagai contoh, perusahaan obat menganggap bahwa pasar obat pro-
duk baru untuk menyembuhkan penyakit dibandingkan obat yang telah ada
mempunyai tingkat penyembuhan sebesar 60%. Berdasarkan pada percobaan
terbatas, divisi penelitian mengklaim bahwa obat baru lebih efektif. Jika
obat tersebut gagal lebih efektif atau mempunyai efek samping yang mem-
bahayakan, maka akan kehilangan pelanggan yang disebabkan oleh kekunoan
produk akan lebih kecil pengaruhnya dibandingkan dengan kegagalan yang
diakibatkan oleh ketidak-efektifan obat yang baru. Untuk itu, jika keputusan
dibuat berdasarkan pada sejumlah percobaan klinis maka hipotesis nol se-
harusnya adalah bahwa tingkat penyembuhan tidak lebih dari 60% melawan
alternatif bahwa tingkat penyembuhannya lebih dari 60%.
Perlu dicatat bahwa dalam uji non random dengan daerah kritik B diper-
oleh
β(θ) = Pθ [(x1 , x2 , . . . , xn )t ∈ B]
= 1.Pθ [(x1 , x2 , . . . , xn )t ∈ B] + 0.Pθ [(x1 , x2 , . . . , xn )t ∈ B c ]
= Eθ [φ(x1 , x2 , . . . , xn )].
Hal yang sama juga dapat dikerjakan untuk uji non random. Jadi
Definisi 3.4
Uji tingkat α yang memaksimumkan kuasa uji diantara semua uji tingkat
α dikatakan uji paling kuasa seragam (uniformly most powerful - UMP ).
Jadi φ adalah uji UMP tingkat α jika
48
1. sup[βφ (θ)|θ ∈ ω] = α.
Ω = {θ0 , θ1 }.
Misalkan fθ0 dan fθ1 fungsi kepadatan probabilitas yang diketahui. Misalkan
dituliskan f0 = f (x; θ0 ), dan X1 , X2 , . . . , Xn variabel random saling bebas
dengan fungsi kepadatan probabilitas f (x; θ), θ ∈ Ω.
Akan dilakukan pengujian hipotesis H : θ ∈ ω = {θ0 } melawan alternatif
A : θ ∈ ω = {θ1 } pada level α. Dengan kata lain akan diuji hipotesis bahwa
populasi berdistribusi f0 melawan f1 .
Teorema 3.1
49
Akibat 3.1
Contoh 3.1
50
Karena θ0 < θ1 maka R(z; θ0 , θ1 ) > c ekuivalen dengan
ln R(z; θ0 , θ1 ) > ln c
n
X θ 1 − θ
n
X
1 1
Xi ln + n− Xi ln > ln c
i=1
θ0 i=1
1 − θ0
X h θ1 1 − θ1 i 1 − θ
1
Xi ln − ln > ln c − n ln
i=1
θ0 1 − θ0 1 − θ0
X n h θ (1 − θ ) i 1 − θ
1 0 1
Xi ln > ln c − n ln
i=1
θ 0 (1 − θ 1) 1 − θ0
1−θ1
n
X ln c − n ln 1−θ 0
Xi > h i
θ1 (1−θ0 )
i=1 ln θ0 (1−θ1 )
n
X
Xi > c 0
i=1
dengan
1−θ1
ln c − n ln 1−θ 0
c0 = .
θ1 (1−θ0 )
ln θ0 (1−θ1 )
Hal itu berarti uji MP dinyatakan sebagai
Pn
1 jika Pi=1 Xi > c0
φ(z) = γ jika Pni=1 Xi = c0
n
0 jika i=1 Xi < c0
51
n
X n
X
1 − 0, 05 = Pθ0 ( Xi ≤ c0 ) + γPθ0 ( Xi = c 0 )
i=1 i=1
n
X n
X
0, 95 = Pθ0 ( Xi ≤ c0 ) + γPθ0 ( Xi = c0 ).
i=1 i=1
Pn Pn
Karena γ ≥ 0 dan Pθ0 ( i=1 Xi = c0 ) ≥ 0 maka γPθ0 ( i=1 Xi = c 0 ) ≥ 0
sehingga haruslah
n
X
Pθ 0 ( Xi ≤ c0 ) ≥ 0, 95.
i=1
P
Untuk itu dipilih c0 sehingga Pθ0 ( ni=1 Xi ≤ c0 ) ≥ 0, 95 tetapi paling dekat
dengan 0, 95. Berdasarkan Tabel P kumulatif distribusi Binom(25, 0, 5) diper-
oleh bahwa c0 = 17 sehingga Pθ0 ( ni=1 Xi ≤ c0 ) dan berlaku
n
X n
X n
X
Pθ 0 ( Xi = c 0 ) = P θ 0 ( Xi ≤ 17) − Pθ0 ( Xi ≤ 16)
i=1 i=1 i=1
= 0, 9784 − 0, 9461 = 0, 0323.
Akibatnya
n
X n
X
0, 95 = Pθ0 ( Xi ≤ 17) − γPθ0 ( Xi = 17)
i=1 i=1
= 0, 9784 − γ0, 0323
Contoh 3.2
52
Berdasarkan sampel tersebut akan diuji hipotesis H : θ = θ0 melawan alter-
natif A : θ = θ1 pada level α dengan anggapan θ0 < θ1 . Diperoleh
θ1
Karena θ0 < θ1 maka 1 < θ0
sehingga ln θθ01 > 0. Akibatnya
n
X ln[c exp(n(θ1 − θ0 ))]
xi >
i=1 ln θθ10
Pn
atau i=1 xi > c0 dengan c0 = 1−θ0 ))]
ln[c exp(n(θ
. Uji UMP didefinisikan seba-
θ0
ln θ1
gai Pn
1 jika Pi=1 Xi > c 0
n
φ(z) = γ jika Pni=1 Xi = c0
0 jika i=1 Xi < c0 .
53
P
dan ni=1 Xi ∼ Poisson(nθi ) untuk i = 0, 1.
Sebagai gambaran, misalkan akan diuji hipotesis H : θ = 0, 3 melawan
A : θ = 0, 4 dengan α = 0, 05 dan n = 20. Diperoleh
n
X n
X
Eθ0 (φ(z)) = Pθ0 ( xi > c0 ) + γPθ0 ( xi = c0 ) = 0, 05
i=1 i=1
sehingga
n
X n
X
1 − P θ0 ( xi ≤ c0 ) + γPθ0 ( xi = c0 ) = 0, 05
i=1 i=1
Xn Xn
1 − 0, 05 = Pθ0 ( xi ≤ c0 ) − γPθ0 ( xi = c 0 )
i=1 i=1
Xn Xn
0, 95 = Pθ0 ( xi ≤ c0 ) − γPθ0 ( xi = c0 ).
i=1 i=1
Pn Pn
Karena γ ≥ 0 dan Pθ0 ( i=1 xi = c0 ) ≥ 0 maka Pθ0 ( i=1 xi = c0 ) ≥ 0.
Untuk itu dipilih c0 sehingga
n
X
Pθ 0 ( xi = c0 ) ≥ 0, 95
i=1
dan
n
X n
X n
X
P( xi = 10) = P ( xi ≤ 10) − P ( xi ≤ 9)
i=1 i=1 i=1
= 0, 9574 − 0, 9161 = 0, 0413.
Oleh karena itu γ ditentukan sehingga 0, 9574 − 0, 0413 atau γ = 0, 1791. Uji
UMP menjadi
P
1 jika Pni=1 Xi > 10
φ(z) = 0, 1791 jika Pni=1 Xi = 10
n
0 jika i=1 Xi < 10.
54
Kuasa ujinya adalah
n
X n
X
Pθ=0,4 ( xi > 10) + 0, 1791Pθ=0,4( xi = 10) = 0, 2013.
i=1 i=1
Contoh 3.3
1
Pn
sehingga ln R(z; θ1 , θ0 ) = 2 i=1 [(xi − θ0 )2 − (xi − θ1 )2 ] atau
n
1X 2
ln(R(z; θ1 , θ0 ) = [x − 2θ0 xi + θ02 − (x2i − 2θ1 xi + θ12 )]
2 i=1 i
n
1X
= [−2(θ0 − θ1 )xi + θ02 − θ12 ]
2 i=1
n
X 1
= (θ1 − θ0 ) xi + n(θ02 − θ12 ).
i=1
2
Hal itu berarti R(z; θ1 , θ0 ) > c akan ekuivalen dengan ln R(z; θ1 , θ0 ) > ln c
55
yaitu
n
X 1
(θ1 − θ0 ) xi + n(θ02 − θ12 ) > ln c
i=1
2
n
X 1
(θ1 − θ0 ) xi > ln c + n(θ02 − θ12 )
i=1
2
n
X 1
(θ1 − θ0 ) xi > ln c + n(θ1 − θ0 )(θ1 + θ0 )
i=1
2
Xn
ln c 1
xi > + n(θ1 − θ0 )(θ1 + θ0 )
i=1
θ1 − θ 0 2
1 ln c n(θ1 + θ0 )
x̄ > + .
n θ1 − θ 0 2
Berarti X̄ > c0 dengan c0 = n1 θ1ln−θc 0 + n(θ12+θ0 ) . Uji UMP adalah
1 jika X̄ > c0
φ(z) =
0 yang lain
56
Contoh 3.4
Akibatnya
θ1 − θ 0 X 2 1 θ0
n
ln R(z; θ1 , θ0 ) = x + ln
2θ0 θ1 i=1 i 2 θ1
sehingga R(z; θ1 , θ0 ) > c dan mengakibatkan ln R(z; θ1 , θ0 ) > ln c yaitu
θ1 − θ 0 X 2 1 θ0
n
x + ln > ln c
2θ0 θ1 i=1 i 2 θ1
1 θ0
n
θ1 − θ 0 X 2
xi > ln c − ln
2θ0 θ1 i=1 2 θ1
1 θ1
n
θ1 − θ 0 X 2
xi > ln c + ln
2θ0 θ1 i=1 2 θ0
r
θ1
n
θ1 − θ 0 X 2
x > ln c
2θ0 θ1 i=1 i θ0
Xn
2θ0 θ1 rθ
2 1
xi > ln c .
i=1
θ 1 − θ 0 θ 0
57
Pn q
2θ0 θ1
Berarti 2
i=1 xi > c0 dengan c0 = θ1 −θ0
ln c θθ10 . Uji UMP menjadi
Pn 2
1 jika i=1 xi > c0
φ(z) =
0 yang lain
yaitu
X
n 1 Xn
1
Pθ 0 x2i > c0 = Pθ0 x2i > c0 = 0, 01.
i=1
4 i=1 4
Berdasarkan Tabel distribusi chi-kuadrat dengan derajat bebas 20 diperoleh
c0 /4 = 37, 566 atau c0 = 150, 264. Akibatnya, uji UMP menjadi
Pn 2
1 jika i=1 xi > 150, 264
φ(z) =
0 yang lain
58
dengan z = (x1 , x2 , . . . , xn )t dan Z = (X1 , X2 , . . . , Xn )t .
Definisi 3.5
Proposisi 3.1
Jika Q fungsi turun maka keluarga {g(x; θ)|θ ∈ Ω} mempunyai sifat MLR
dalam V 0 = −V .
Teorema 3.2
59
terdapat uji yang merupakan uji UMP dalam kelas semua uji yang mempun-
yai tingkat keberartian lebih kecil atau sama dengan α. Dalam kasus LR
(likelihood ratio) dalam V (z), uji yang digunakan adalah
1 jika V (z) > c
φ(z) = γ jika V (z) = c
0 jika V (z) < c
dengan c dan γ ditentukan sehingga
Akibat 3.2
H : θ ∈ ω = {θ ∈ Ω|θ ≤ θ0 }
60
Sebaliknya, jika Q turun maka digunakan uji
1 jika V (z) < c
φ(z) = γ jika V (z) = c
0 jika V (z) > c
H : θ ∈ ω = {θ ∈ Ω|θ ≤ θ1 atau θ ≥ θ2 }
61
Teorema 3.3
ω = {θ ∈ Ω|θ ≤ θ1 atau θ ≥ θ2 }
Eθ1 [φ(z)] = Pθ1 (c1 < V (z) < c2 ) + γ1 Pθ1 (V (z) = c1 ) + γ2 Pθ1 (V (z) = c2 ) = α
dan
Eθ2 [φ(z)] = Pθ2 (c1 < V (z) < c2 ) + γ1 Pθ2 (V (z) = c1 ) + γ2 Pθ2 (V (z) = c2 ) = α
P
dengan V (z) = ni=1 T (Xi ).
Sebaliknya, jika Q fungsi naik maka φ dinyatakan dengan
1 jika V (z) < c1 atauV (z) > c2
φ(z) = γi jika V (z) = ci (i = 1, 2)danc1 < c2
0 yang lain
dan
Eθ2 [φ(z)] = Pθ2 (V (z) < c1 atauV (z) > c2 ) + γ1 Pθ2 (V (z) = c1 ) + γ2 Pθ2 (V (z) = c2 ) = α
P
dengan V (z) = ni=1 T (Xi ). Dapat ditunjukkan bahwa fungsi β(θ) = E[φ(z)]
dengan θ ∈ Ω merupakan fungsi naik untuk θ ≤ θ0 dan turun untuk θ ≥ θ0
dengan θ1 < θ0 < θ2
62
Contoh 3.5
63
Untuk pengujian hipotesis H : θ ≤ θ1 atau θ ≥ θ2 melawan alternatif A :
θ1 < θ < θ2 digunakan uji UMP φ yang dinyatakan dengan
Pn
1 jika cP 1 < i=1 Xi < c2
n
φ(z) = γi jika i=1 X i = ci (i = 1, 2) dan c1 < c2
0 yang lain
dengan c1 , c2 dan γ1 , γ2 ditentukan sehingga
Eθ1 [φ(z)] = Pθ1 (c1 < V (z) < c2 ) + γ1 Pθ1 (V (z) = c1 ) + γ2 Pθ1 (V (z) = c2 ) = α
dan
Eθ2 [φ(z)] = Pθ2 (c1 < V (z) < c2 ) + γ1 Pθ2 (V (z) = c1 ) + γ2 Pθ2 (V (z) = c2 ) = α
P
dengan V (z) = ni=1 T (Xi ).
Sebagai gambaran, akan diuji hipotesis H : 0, 25 ≤ θ atau θ ≥ 0, 75
melawan A : 0, 25 < θ < 0, 75 dengan α = 0, 05 dan n = 25. Untuk c1 = 10
dan c2 = 15 diperoleh
Contoh 3.6
Contoh 3.7
65
untuk x ∈ R. Fungsi probabilitas tersebut dapat dinyatakan sebagai
1 h x2 − 2θx + θ 2 )2 i
f (x; θ) = √ exp
2πσ 2 2σ 2
atau θ2 θ 1 x2
f (x; θ) = exp − 2 exp 2 x √ exp − 2
2σ σ 2πσ 2 2σ
P n
sehingga Q(θ) = θ/σ 2 dan V (z) = i=1 Xi . Karena Q(θ) = θ/σ 2 fungsi naik
maka untuk menguji hipotesis H : θ ≤ θ0 melawan A : θ > θ0 adalah
1 jika X̄ > c
φ(z) =
0 jika X̄ < c
dengan c ditentukan sehingga
66
Untuk menguji hipotesis H : θ ≤ θ1 atau θ ≤ θ2 melawan A : θ1 < θ < θ2
digunakan uji UMP φ yang dinyatakan dengan
1 jika c1 < X̄ < c2
φ(z) =
0 yang lain
dengan c1 dan c2 ditentukan sehingga
dan
Eθ2 [φ(z)] = Pθ2 (c1 < X̄ < c2 ) = α.
Kuasa ujinya adalah
√n(c − θ) √n(c − θ)
2 1
βφ (θ) = Φ −Φ .
σ σ
Sebagai gambaran, berdasarkan pada sampel X1 , X2 , . . . , X25 ∼ N (θ, 4)
akan diuji hipotesis H : θ ≤ −1 atau θ ≥ 1 melawan A : −1 < θ < 1 dengan
α = 0, 05. Uji UMP adalah
1 jika c1 < X̄ < c2
φ(z) =
0 yang lain
dengan c1 dan c2 ditentukan sehingga
dan
Eθ2 [φ(z)] = Pθ2 (c1 < X̄ < c2 ) = 0, 05.
Berdasarkan Tabel distribusi normal baku diperoleh c1 = −0, 344 dan c2 =
0, 344. Kuasa uji pada θ = 0 adalah
√25(0, 344 − 0) √25(−0, 344 − 0)
βφ (0) = Φ √ −Φ √ = 0, 61.
4 4
Contoh 3.8
67
untuk x ∈ R. Fungsi probabilitas tersebut dapat dinyatakan sebagai
1 h 1 i
f (x; θ) = √ exp − (x − µ)2
2πθ 2θ
Pn
sehingga Q(θ) = 1/(2θ) dan V (z) = i=1 (xi − µ)2 . karena Q(θ) = −1/(2θ)
fungsi naik maka untuk menguji hipotesis H : θ ≤ θ0 melawan A : θ > θ0
adalah Pn 2
φ(z) =
1 jika i=1 (Xi − µ) > c
0 yang lain
dengan c ditentukan sehingga
X
n
Eθ0 [φ(z)] = Pθ0 (Xi − µ)2 = α
i=1
1
Pn
dan θ i=1 (Xi − µ)2 ∼ χ2n . Kuasa uji dari uji ini adalah
X
n X
n
2 2
βφ (θ) = P (Xi − µ) > c = 1−P (Xi − µ) ≤ c
i=1 i=1
1 Xn
c
= 1−P (Xi − µ)2 <
θ i=1
θ
c
= 1−P < . χ2n
θ
Sebagai gambaran, berdasarkan sampel X1 , X2 , . . . , X25 dari distribusi
N (µ, θ) dengan µ diketahui, dan akan diuji hipotesis H : θ ≤ 4 melawan
A : θ > 4 adalah
P
1 jika Pni=1 (Xi − µ)2 > c
φ(z) = n 2
0 jika i=1 (Xi − µ) ≤ c
dan n
X
(1/4) (Xi − µ)2 ∼ χ225
i=1
di bawah anggapan H benar. Berdasarkan Tabel distribusi chi-kuadrat den-
gan derajat bebas 25 diperoleh bahwa c/4 = 37, 652 atau c = 150, 608. Kuasa
ujinya untuk θ = 12 adalah
150, 608
β(θ) = 1 − P χ225 < = 1 − P (χ225 < 30, 1216) = 1 − 0, 02 = 0, 98.
12
68
Pada sisi lain, untuk menguji hipotesis H : θ ≤ θ1 atau θ ≥ θ2 melawan
A : θ1 < θ < θ2 digunakan uji UMP φ yang dinyatakan dengan
P
1 jika c1 < ni=1 (Xi − µ)2 < c2
φ(z) =
0 yang lain
dan
n
X
Eθ2 [φ(z)] = Pθ2 c1 < (Xi − µ)2 < c2 = α.
i=1
69
3.4 Uji UMPU untuk Pengujian Hipotesis Kom-
posit
Dalam Teorema 3.3, untuk pengujian H : ω = {θ ∈ Ω atau θ ≥ θ2 }
melawan A : θ ∈ ω c uji UMP ada. Tidak mengherankan bahwa dengan
merubah H dan A mengakibatkan uji UMP tidak ada.
Di bawah anggapan Teorema 3.2, untuk menguji hipotesis H : θ = θ0
melawan A : θ > θ0 dan H : θ = θ0 melawan A : θ 6= θ0 uji UMP tidak
ada. Karena uji yang diberikan pada (3.2.1) dan (3.2.2) merupakan uji UMP
untuk θ > θ0 tetapi lebih buruk dari uji trivial φ(z) = α untuk θ < θ0 .
Dengan cara yang sama uji yang diberikan oleh (3.2.1) dan (3.2.2) dengan
tanda ketidak-samaan dibalik merupakan uji UMP untuk θ < θ0 tetapi lebih
buruk dari uji trivial φ(z) = α untuk θ > θ0 . Jadi, tidak ada uji tunggal
yang merupakan uji UMP untuk semua θ 6= θ0 . Untuk itu perlu diatasi pada
kelas uji yang lebih kecil.
Definisi 3.6
Eθ[φ(X1 , X2 , . . . , Xn )] ≥ α
Eθ[φ(X1 , X2 , . . . , Xn )] ≤ α
untuk semua θ ∈ ω c . Suatu uji tak bias bila probabilitas kesalahan tipe I
paling banyak α dan kuasa dari uji paling sedikit α.
Definisi 3.7
Suatu uji dikatakan uji UMPU (uniformly most powerfull unbiased ) jika uji
tersebut UMP dalam kelas semua uji yang tidak bias.
Catatan : Uji UMP selalu UMPU. Uji UMP tak bias karena UMP paling
sedikit mempunyai kuasa yang sama dengan α. Uji UMP merupakan uji
UMPU karena uji UMP merupakan UMP dalam kelas yang meliputi kelas
uji tak bias.
70
Teorema 3.4
Contoh 3.9
71
dengan c1 dan c2 ditentukan sehingga Eθ0 [φ(z)]α dan
72
3.5 Pengujian Parameter dari Distribusi Nor-
mal
Dalam pasal ini, X1 , X2 , . . . , Xn merupakan variabel random saling bebas
dari distribusi n(µ, σ 2 ) dengan µ dan σ 2 tidak diketahui. parameter yang
menjadi perhatian adalah 1 parameter sedangkan yang lain sebagai parame-
ter pengganggu (nuisance parameter ).
Contoh 3.10
dengan c ditentukan oleh P (χ224 > c/9) = 0, 05. Berdasarkan Tabel dis-
tribusi chi-kuadrat dengan derajat bebas 24 diperoleh c/9 = 36, 415 atau
c = 327, 735. Kuasa uji pada σ = 5 adalah
73
Bila hipotesisnya adalah H 0 : σ ≥ 3 melawan A0 : σ < 3 maka digunakan
uji Pn 2
φ(z) =
1 jika i=1 (Xi − X̄) < c
0 yang lain
dengan c ditentukan sehingga P (χ224 < c/9) = 0, 05. Berdasarkan Tabel
distribusi chi-kuadrat dengan derajat bebas 24 diperoleh c/9 = 13, 848 atau
c = 124, 632. Kuasa uji pada σ = 2 adalah
Proposisi 3.3
dan
c1 c2
P( 2
< χ2n−1 < 2 ) = α.
σ2 σ2
Bila digunakan untuk menguji hipotesis H : σ1 ≤ σ ≤ σ2 melawan A : σ < σ1
atau σ > σ2 digunakan uji UMPU
Pn Pn
1 jika i=1 (Xi − X̄)2 < c1 atau 2
i=1 (Xi − X̄) > c2
φ(z) =
0 yang lain
c1 c2
P( 2
< χ2n−1 < 2 ) = α
σ1 σ1
dan
c1 c2
P( 2
< χ2n−1 < 2 ) = α.
σ2 σ2
74
Contoh 3.11
Proposisi 3.4
Proposisi 3.5
75
dengan c ditentukan oleh P (tn−1 > c) = α dan
√
n(X̄ − µ0 )
t(z) = q P .
1 m 2
n−1 i=1 (X i − X̄)
Untuk menguji hipotesis H 0 : µ ≥ µ0 melawan A0 : µ < µ0 digunakan uji
UMPU
1 jika t(z) < c
φ(z) =
0 yang lain
dengan c ditentukan oleh P (tn−1 < c) = α.
Contoh 3.12
Proposisi 3.6
Proposisi 3.7
76
3.6 Perbandingan Parameter Dua Distribusi
Normal
Diketahui X1 , . . . , Xm variabel random saling bebas dari distribusi N (µ1 , σ12 )
dan Y1 , . . . , Yn variabel random saling bebas dari distribusi N (µ2 , σ22 ). Diang-
gap dua sampel tersebut saling bebas dan semua parameter tidak diketahui.
Misalkan µ = µ1 − µ2 dan τ = σ22 /σ22 . Akan diuji hipotesis tentang µ dan
τ . Bila salah satu parameter yang diamati merupakan parameter sedangkan
yang lain sebagai parameter pengganggu. Misalkan Z = (X1 , . . . , Xm )t dan
W = (Y1 , . . . , Yn )t , z = (x1 , . . . , xm )t dan w = (y1 , . . . , yn )t .
Proposisi 3.8
(m−1)c
dengan c ditentukan sehingga P (Fn−1,m−1 > c0 ) = α dan c0 = (n−1)τ 0
.
0
Sedangkan untuk menguji, H : τ ≥ τ0 melawan A : τ < τ0 digunakan uji
UMPU ( Pn
(Y −Ȳ )2
1 jika Pmi=1(Xii −X̄)2 < c
φ(z) = i=1
0 yang lain
dengan c ditentukan sehingga P (Fn−1,m−1 > c0 ) = α. Kuasa ujinya dapat
ditentukan dengan kenyataan bahwa
1
Pn 2 P
σ12 i=1 (Yi − Ȳ ) /(n − 1) 1 m − 1 ni=1 (Yi − Ȳ )2
Pm = P
1
σ2
2
i=1 (Xi − X̄) /(m − 1) τ n−1 m i=1 (Xi − X̄)
2
2
Contoh 3.13
Diketahui X1 , . . . , X21 variabel random saling bebas dari distribusi N (µ1 , σ12 )
77
dan Y1 , . . . , Y25 variabel random saling bebas dari distribusi N (µ2 , σ22 ). Di-
anggap dua sampel tersebut saling bebas dan semua parameter tidak dike-
tahui. Untuk menguji H : τ ≤ 2 melawan A : τ > 2 dengan α = 0, 05
digunakan uji UMPU
( Pn
(Y −Ȳ )2
1 jika Pmi=1(Xii −X̄)2 > c
φ(z) = i=1
0 yang lain
(21 − 1)c
c0 = = 5c/12.
(24 − 1)2
(21 − 1)c
c0 = = 5c/12
(24 − 1)2
Proposisi 3.9
P (c1 < Beta((m−1)/2, (n−1)/2 < c2 ) = P (c1 < Beta((m−1)/2, (n−1)/2 < c2 ).
78
3.6.2 Perbandingan Mean Dua Densitas Normal
Misalkan
Ȳ − X̄
t(z, w) = qP Pn
m 2+ 2
i=1 (X i − X̄) j=1 (Yj − Ȳ )
Proposisi 3.10
Contoh 3.14
Diketahui X1 , . . . , X15 variabel random saling bebas dari distribusi N (µ1 , σ12 )
dan Y1 , . . . , X10 variabel random saling bebas dari distribusi N (µ2 , σ22 ). Di-
anggap dua sampel tersebut saling bebas dan semua parameter tidak dike-
tahui. Untuk menguji H : µ ≤ 0 melawan A : µ > 0 dengan α = 0, 05
digunakan uji UMPU
1 jika t(z, w) > c
φ(z, w) =
0 yang lain
q
dengan c ditentukan oleh P (t15+10−2 > c0 ) = 0, 05 dan c0 = c 15+10−2
1 1
+ 10
atau
q p 15
23
c0 = c 10+15 atau c0 = c 23(6). Berdasarkan tabel distribusi t diperoleh
p 150
79
q
dengan c ditentukan oleh P (t15+10−2 < c0 ) = 0, 05 dan c0 = c 15+10−2
1 1
+ 10
atau
q p 15
23
c0 = c 10+15 atau c0 = c 23(6). Berdasarkan tabel distribusi t diperoleh
p 150
Proposisi 3.11
Contoh 3.15
Diketahui X1 , . . . , X15 variabel random saling bebas dari distribusi N (µ1 , σ12 )
dan Y1 , . . . , X10 variabel random saling bebas dari distribusi N (µ2 , σ22 ). Di-
anggap dua sampel tersebut saling bebas dan semua parameter tidak dike-
tahui. Untuk menguji H : µ = 0 melawan A : µ 6= 0 dengan α = 0, 05
digunakan uji UMPU
1 jika t(z, w) < −c atau t(z, w) > c
φ(z, w) =
0 yang lain
q
dengan c ditentukan oleh P (t15+10−2 > c0 ) = 0, 025 dan c0 = c 15+10−2
1 1
+ 10
q p 15
23
atau c0 = c 10+15 atau c0 = c 23(6). Berdasarkan tabel distribusi t diper-
p 150
dengan θ ∈ ω dan
80
dengan θ ∈ ω c . Bila ω dan ω c terdiri dari satu titik maka L(ω) dan L(ω c )
dapat ditentukan dan untuk menguji H : θ ∈ ω melawan A : θ ∈ ω c , uji MP
menolak bila nisbah kemungkinannya (likelihood ratio-LR)
L(ω)/L(ω c )
lebih besar. Akan tetapi bila ω dan ω c mengandung lebih dari satu titik
maka L(ω) dan L(ω c ) tidak dapat ditentukan oleh H dan A dan metodee
pada pasal-pasal terdahulu tidak dapat digunakan.
Misalkan
dan
L(Ω̂) = max{L(θ)|θ ∈ Ω}.
Hipotesis H ditolak jika L(ω̂)/L(Ω̂) terlalu kecil yaitu lebih kecil dari atau
sama dengan c dan c ditentukan dari ukuran ujinya. Lemma Fundamen-
tal Neyman-Pearson merupakan kejadian khusus dari uji LR. Jika kuanti-
tas L(ω̂) dan L(Ω̂) hampir sama nilainya maka data cenderung mendukung
hipotesis bahwa yang sebenarnya terletak dalam ω yang dinyatakan dalam
H. Jika tidak demikian data cenderung mendiskreditkan H. Notasi yang
digunakan adalah
L(ω̂)
λ= .
L(Ω̂
Di bawah H benar, statistik − ln λ mempunyai distribusi asmptotik yang
diketahui. Hipotesis H ditolak jika
−2 ln λ > c
Teorema 3.5
P (−2 ln λ ≤ x) → G(x)
81
Contoh 3.16
Kasus 1 (σ diketahui)
1 X
nh i
L(Ω̂) = exp − 2 (Xi − X̄)2
2σ i=1
dan
h 1 X
n i
L(Ω̂) = exp − 2 (Xi − µ0 )2 .
2σ i=1
Dalam hal ini lebih mudah ditentukan distribusi dari −2 ln λ dari pada λ.
Diperoleh
n
−2 ln λ = 2 (X̄ − µ0 )2
σ
sehingga uji LR ekuivalen dengan
1 jika σn2 (X̄ − µ0 )2 > c
φ(z) =
0 yang lain
dan n
X
σ̂ω2 = (Xi − µ0 )2
i=1
maka
1 h 1
n
X i 1
L(Ω̂) = p exp p (Xi − X̄)2 = p e−n/2
(2πσ̂Ω )n (2πσ̂Ω )n i=1 (2πσ̂ Ω ) n
82
dan
1 h 1
n
X i 1
L(ω̂) = p exp p (Xi − µ0 )2 = p e−n/2
(2πσ̂ω ) n n
(2πσ̂ω ) i=1 (2πσ̂ω ) n
sehingga
σ̂ n
Ω
λ=
σ̂ω
atau Pn
2/n (Xi − X̄)2
λ = Pni=1 2
.
i=1 (Xi − µ0 )
Karena
n
X n
X 2
2
(Xi − µ0 ) = (Xi − X̄) + (X̄ − µ0 )
i=1 i=1
n
X
= (Xi − X̄)2 + 2(Xi − X̄)(X̄ − µ0 ) + (X̄ − µ0 )2
i=1
Xn n
X n
X
2 2
= (Xi − X̄) + 2(X̄ − µ0 ) (Xi − X̄) + (X̄ − µ0 )
i=1 i=1 i=1
Xn
= (Xi − X̄)2 + n(X̄ − µ0 )2
i=1
maka
h Pn (X − µ )2 i−1
i 0
λ = Pi=1
n 2
i=1 (Xi − X̄)
P
h n (X − X̄)2 + n(X̄ − µ )2 i−1
i=1 i 0
= P n 2
i=1 (X i − X̄)
h n(X̄ − µ0 )2 i−1
= 1 + Pn 2
i=1 (Xi − X̄)
h 1 n(X̄ − µ0 )2 i−1
= 1+ 1
P n
n − 1 n−1 i=1 (Xi − X̄)
2
h t2 i−1
= 1+
n−1
dengan √
n(X̄ − µ0 )
t = t(z) = q P .
1 n 2
n−1 i=1 (X i − X̄)
83
Hal itu berarti, jika λ < λ0 ekuivalen dengan t2 > c untuk c konstanta
tertentu. Uji LR ekuivalen dengan
1 jika t < −c dan t > c
φ(z) =
0 yang lain
dengan c ditentukan sehingga P (tn−1 > c)α/2.
Contoh 3.17
Kasus 1
1 X
m+n m n
1 X X
V̄ = Vk = Xi + Yj = µ̂ω .
m + n k=1 m + n i=1 j=1
84
Hal itu berarti
m+n
1 X
σ̂ω2 = (Vk − V̄ )2
m + n k=1
1 hX i
m Xm
2 2
= (Xi − µ̂ω ) + (Yj − µ̂ω ) .
m + n i=1 j=1
85
Akibatnya
hX
m n
X i
(m + n)σ̂ω2 = 2
(Xi − µ̄ω ) + (Yj − µ̄ω )2
i=1 j=1
n
X mn2
= (Xi − X̄)2 + (X̄ − Ȳ )2
i=1
(m + n)2
Xn
m2 n
2
+ (Yj − Ȳ ) + 2
(X̄ − Ȳ )2
j=1
(m + n)
mn
= (m + n)σ̂ω2 + (X̄ − Ȳ )2 .
m+n
Di samping itu berlaku sifat
h t i−1
λ2/(m+n) = 1 +
m+n−2
dengan p mn
− Ȳ )
m+n
(X̄
t= r hP i.
1 m 2
Pn 2
m+n−2 i=1 (Xi − X̄) + j=1 (Yj − Ȳ )
Oleh karena itu, uji LR menolak H bila λ < λ0 maka akan ekuivalen dengan
uji
1 jika t < −c dan t > c (c > 0)
φ(z, w) =
0 yang lain
dengan c ditentukan oleh P (tm+n−2 > c) = α/2 dan z = (x1 , x2 , . . . , xm )t
dan w = (y1 , y2 , . . . , yn )t (karena di bawah H, t berdistribusi tm+n−2 ).
Kasus 2
86
Oleh karena itu
1 m+n 1
L(Ω̂) = √ 2 m/2 2 n/2
e−(m+n)/2
2π (σ̂1,Ω ) (σ̂2,Ω )
dan 1 m+n 1
L(ω̂) = √ 2 )(m+n)/2
e−(m+n)/2
2π (σ̂ ω
sehingga
2
σ̂1,Ω )m/2 σ̂2,Ω
2
)n/2
λ =
σ̂ω2 )(m+n)/2
Pn m/2
(Xi −X̄)2
(m + n)(m+n)/2 Pi=1 n 2
j=1 (Yj −Ȳ )
= Pn (X −X̄)2 +Pn (Y −Ȳ )2 (m+n)/2
i j
mm/2 nn/2 i=1 Pn (Yj −j=1 Ȳ )2
j=1
1 Pn 2 m/2
(m+n)/2 m−1 m−1 P i=1 (Xi −X̄)
(m + n) n−1 n−1 1 n 2
j=1 (Yj −Ȳ )
= 1 P n 2
m/2
m/2 n/2 m−1 m−1 P i=1 (Xi −X̄)
m n 1 + n−1 1 n (Y −Ȳ )2
n−1 j=1 j
m/2
m−1
(m + n) (m+n)/2
n−1
f
= m/2 n/2 (m+n)/2
m n
1 + m−1
n−1
f
dengan Pm
1
(Xi − X̄)2
f= m−1
1
Pni=1 .
n−1 j=1 (Yj − Ȳ )2
Uji LR menolak H bila λ < λ0 akan ekuivalen dengan uji F yang menolak
H jika g(f ) < c untuk c tertentu dan
m/2
m−1
n−1
f
g(f ) = (m+2)/2 .
m−1
1 + n−1 f
m(n−1)
Nilai maksimum g(f ) dicapai bila f = n(m−1)
. Dalam hal ini g(θ) dan
g(f ) → 0
untuk f → ∞. Oleh karena itu g(f ) < c jika dan hanya jika f < c1 atau
f > c2 untuk c1 dan c2 tertentu. Karena F berdistribusi Fm−1,n−1 di bawah
H maka c1 dan c2 ditentukan sehingga
P (Fm−1,n−1 < c1 atau Fm−1,n−1 > c2 ) = α
87
dan g(c1 ) = g(c2 ). Secara praktis c1 dan c2 ditentukan sehingga masing-
masing ekor dari distribusi Fm−1,n−1 mempunyai probabilitas α/2 yaitu
88
Brief History of Bayes
89
Brief History of Gosset
90
Chapter 4
Daerah Kepercayaan
Definisi 4.1
Interval random adalah interval berhingga atau tak berhingga dengan paling
sedikit 1 titik ujungnya meruapakan variabel random.
Definisi 4.2
L(X1 , X2 , . . . , Xn ) ≤ U (X1 , X2 , . . . , Xn ).
P (L(X1 , X2 , . . . , Xn ) ≤ θ ≤ U (X1 , X2 , . . . , Xn )) ≥ 1 − α
dan
P (L(X1 , X2 , . . . , Xn ) ≤ θ < ∞) ≥ 1 − α
91
dengan koefisien kepercayaan 1 − α.
Interval random [L(X1 , X2 , . . . , Xn ), U (X1 , X2 , . . . , Xn )] adalah interval
kepercayaan untuk θ dengan koefisien kepercayaan 1 − α jika probabilitas
bahwa paling sedikit 1 − α interval random
[L(X1 , X2 , . . . , Xn ), U (X1 , X2 , . . . , Xn )]
[L(X1 , X2 , . . . , Xn ), U (X1 , X2 , . . . , Xn )]
Tn (θ) = T (X1 , X2 , . . . , Xn ; θ)
Contoh 4.1
P (a ≤ N (0, 1) ≤ b) = 1 − α
√
n(X̄ − µ)
P (a ≤ ≤ b) = 1 − α
σ
σ σ
P (X̄ − b √ ≤ µ ≤ X̄ + b √ ) = 1 − α. (4.1.1)
n n
Oleh karena itu [X̄ − b √σn , X̄ + b √σn ] adalah interval kepercayaan untuk µ
dengan koefisien kepercayaan 1 − α. Panjang interval tersebut adalah
(b − a)σ
l= √ .
n
Misalkan
nSn2
T̄n (σ 2 ) =
σ2
P
dengan Sn2 = n1 ni=1 (Xi − µ)2 . Berarti T̄n tergantung pada σ 2 hanya melalui
statistik cukup Sn2 dari σ 2 dan distribusi χ2n untuk semua σ 2 . Akan ditentukan
a dan b dengan a < b sehingga
P (a ≤ χ2n ≤ b) = 1 − α
nS 2
P (a ≤ 2n ≤ b) = 1 − α
σ
nSn2 nSn2
P( ≤ σ2 ≤ ) = 1−α
b a
93
2 2
sehingga ( nSb n , nSa n ) adalah interval kepercayaan untuk σ 2 dengan koefisien
kepercayaan 1 − α yang panjangnya adalah
1 1 2
l= − nSn .
a b
Harapan panjang intervalnya adalah
h 1 1 i h 1 1 nS 2 i 1 1 2
n 2
E[l] = E − nSn2 = E − σ = − nσ . (4.1.2)
a b a b σ2 a b
Meskipun terdapat tidak berhingga banyak pasangan a dan b yang memenuhi
(4.1.2), tetapi secara praktis biasanya dipilih a dan b sehingga luas ekornya
adalah α/2.
Akan tetapi hal ini bukanlah pilihan yang terbaik karena interval yang
terbentuk bukanlah interval yang terpendek.
Misalkan b = b(a) yaitu b
1 1 2
sebagai fungsi dari a. Karena l = a − b nSn maka a penyebab l terpendek
dl
akan memenuhi da
= 0 atau
dl 1 1 db
=− 2 + 2 =0
da a b da
db 2
yaitu da = ab 2 . Bila Gn dan gn masing-masing adalah fungsi distribusi dan
fungsi kepadatan probabilitas dari χ2n maka Gn (b) − Gn (a) = 1 − α sehingga
dGn (b) dGn (a) d
− = (1 − α)
da da da
atau
dGn (b) db
− gn (a) = 0
db da
atau
db
gn (b) − gn (a) = 0.
da
db
Hal itu berarti da = ggnn(a)
(b)
. Akibatnya a2 gn (a) = b2 gn (b) sehingga a dan b
Rb
ditentukan sehingga a2 gn (a) = b2 gn (b). dan a gn (t)dt = 1 − α.
Sebagai contoh, untuk n = 25, σ = 1 dan 1 − α = 0, 95 sehingga Zα/2 =
1, 96. Hal itu berarti interval kepercayaan 95% untuk µ adalah
[X̄ − 0, 392, X̄ + 0, 392].
Bila digunakan ekor yang sama diperoleh a = 13, 120 dan b = 40, 646 maka
interval kepercayaan 95% untuk σ 2 adalah
h 25S 2 2 i
25S25
25
, .
40, 646 13, 120
94
Pada sisi lain, interval kepercayaan % terpendek untuk σ 2 adalah
h 25S 2 25S252 i
25
, .
45, 7051 14, 2636
dengan rasio panjang antara kedua interval tersebut medekati 1,068.
Contoh 4.2
1 X 1 n
l=2 − Xi
a b i=1
hP i
1 n
1 2Xi 1 1
Dengan harapan E(l) = β − E a i=1 β
b
= 2βrn a − b . Prosedur
untuk menentukan interval kepercayaan dengan panjang terpendek analog
pada Contoh 4.1, yaitu dipilih a dan b sehingga a2 g2rn (a) = b2 g2rn (b) dan
Z b
g2rn (t)dt = 1 − α.
a
95
Untuk n = 7, r = 2 dan 1 − α = 0, 95 diperoleh a = 16, 5128 dan b = 49, 3675
dan interval kepercayaan dengan panjang terpendek adalah
h 2 Pn X 2 Pn X i
i=1 i i=1 i
,
49, 3675 16, 5128
sedangkan interval kepercayaan dengan luas ekor sama adalah
h 2 Pn X 2 Pn X i
i=1 i i=1 i
,
44, 461 15, 308
dengan rasio panjang antara dua interval tersebut mendekati 1, 075.
Contoh 4.3
P (a ≤ χ22n ≤ b) = 1 − α
Xn
P (a ≤ −2θ ln Xi ≤ b) = 1 − α
i=1
a b
P( Pn ≤θ≤ Pn ) = 1 − α.
−2 i=1 ln Xi −2 i=1 ln Xi
96
Contoh 4.4
hn (t) = ntn−1
dl h 1 da 1i
= X(n) − 2 + .
db a db b2
n−1 n+1 n+1
Karena dbdl
= ab n−1 maka da
dl
= X(n) a b2 a−b
n+1
dl
. Karena da < 0 untuk semua b
maka l turun dalam b dan nilai minimum dicapai bila a = α1/n . Oleh karena
itu interval kepercayaan dengan koefisien 1 − α dinyatakan dengan
h X(n) i
X(n) , .
α1/n
Untuk n = 23 dan 1 − α = 0, 95 maka diperoleh [X(32) , 1, 098X(32) ].
97
4.2 Interval Kepercayaan Bila Muncul Param-
eter Nuisans
Contoh-contoh berikut ini menjelaskan bagaimana menentukan interval keper-
cayaan bila muncul parameter nuisans.
Contoh 4.5
Kasus 1
98
Kasus 2
Contoh 4.6
99
Untuk m = 13, n = 14 dan 1 − α = 0, 95 diperoleh t25;0,025 sehingga
h q q i
2 2 2
(X̄ − Ȳ ) − 0, 1586 12SX + 13SY , (X̄ − Ȳ ) − 0, 1586 12SX + 13SY2 .
σ12
Akan dikonstruksikan interval kepercayaan untuk σ22
. Misalkan
σ2 2
σ12 Sn−1
1
Tm,n = .
σ22 σ22 Sn−1
2
2
σ
Statistik Tm,n σ12 berdistribusi F dengan derajat bebas n − 1 dan m − 1.
2
Akan ditentukan a dan b dengan 0 < a < b sehingga
P (a ≤ Fn−1;m−1 ≤ b) = 1 − α
σ2 S 2
P (a ≤ 12 2n−1 ≤ b) = 1 − α
σ2 Sm−1
2 2
S σ12 Sm−1
P (a m−1
2
≤ ≤ b ) = 1 − α.
Sn−1 σ22 2
Sn−1
σ12
Oleh karena itu interval kepercayaan untuk σ22
adalah
h S2 2
Sm−1 i
m−1
a 2 ,b 2 .
Sn−1 Sn−1
h 2
S12 2 i
S12
0, 3171 2
, 3, 2388 2
.
S13 S13
100
4.3 Interval Kepercayaan dan Interval Keper-
cayaan Pendekatan
Konsep interval kepercayaan dapat diperumum menjadi daerah kepercayaan
untuk parameter multi-dimensi.
Contoh 4.7
untuk n → ∞ maka √
n(X̄n − µ)
→ N (0, 1).
Sn
101
Oleh karena itu interval kepercayaan untuk µ dengan koefisien kepercayaan
1 − α dinyatakan dengan
h Sn Sn i
X̄ − Zα/2 √ , X̄ + Zα/2 √
n n
asalkan n → ∞.
Contoh 4.8
Contoh 4.9
z ∈ θ → θ ∈ T (z).
102
Oleh karena itu
P (θ ∈ T (z)) = P (z ∈ A(θ)) ≥ 1 − α,
Teorema 4.1
103
Brief History of Pearson
104
Brief History of Markov
105
Bibliography
[1] Lindgren, B. W., (1993), Statistical Theory 4th edition, Chapman &
Hall Inc, New York.
106