ത 2 = 𝑋𝑖2 − 𝑛𝑋ത
(𝑋𝑖 − 𝑋)
𝑖=1
𝑖−1
Karena 𝑋𝑖 = 0 atau 1 maka 𝑋𝑖2 =𝑋𝑖 sehingga
𝑛 𝑛 𝑛
1 𝑇 2
𝑋𝑖2 − 𝑛𝑋 = 𝑋𝑖 − 𝑛( 𝑋𝑖 )2 = 𝑇 −
𝑛 𝑛
𝑖=1 𝑖−1 𝑖=1
1 𝑇2
Sehingga 𝑈 = 𝑇 . Karena T merupakan statistik
−
𝑛−1 𝑛
lengkap dan juga merupakan statistik cukup untuk maka dengan
mengingat Teorema 2.1, U merupakan estimator UMVU untuk
𝑔(𝜃) = 𝜃(1 − 𝜃 )
Misalkan 𝑋1 , … , 𝑋𝑛 variabel random saling bebas dan
berdistribusi 𝑁 𝜇, 𝜎 2 dengan 𝜇 dan 𝜎 2 tidak diketahui.
Akan ditentukan estimator UMVU untuk 𝜇 dan 𝜎 2 .
Misalkan 𝜃 = 𝜇, 𝜎 2 2 , 𝑔1 𝜃 = 𝜇 dan 𝑔1 𝜃 = 𝜎 2 .
𝑛 𝑛 2 2
ത
Jika 𝑋 = σ𝑖=1 𝑋𝑖 dan σ𝑖=1 𝑋𝑖 merupakan statistik
yang lengkap. Jika 𝑈1 = 𝑋ത dan
𝑛
1
𝑆 = 𝑋𝑖 − 𝑋ത 2
2
𝑛
𝑖=1
maka (𝑋,ത 𝑆2 ) merupakan statistik yang lengkap. Jika
𝑈1 = 𝑋ത dan 𝑈2 = 𝑛𝑆 2
𝑛𝑆 2
maka 𝐸[𝑈1 ] = μ dan 𝐸 = 𝑛 − 1 sehingga
𝜎2
𝑛𝑆 2
𝐸[ ]𝜎 2 . Hal itu berarti 𝑈1 estimator tak bias untuk 𝜇
𝑛−1
dan 𝑈2 merupakan estimator tak bias untuk 𝜎 2 . Karena
𝑈1 dan 𝑈2 hanya tergantung pada statistik cukup yang
lengkap maka (𝑋, ത 𝑆2 )𝑡 merupakan estimator UMVU
untuk 𝜇, 𝜃 2
Misalkan Ω ⊆ R g fungsi real dan terdeferensialkan untuk
semua 𝜃 ∈ 𝜔
Adapun syarat menggunakan metode ini sebagai berikut:
1. 𝑓 𝑥; 𝜃 positif pada himpunan S yang tidak bergantung
pada 𝜃 ∈ Ω
2. Ω interval terbuka dalam R
3. 𝜕𝑓(𝑥; 𝜃)/𝜕𝜃 ada untuk semua 𝜃 ∈ Ω dan semua 𝑥 ∈ 𝑆
4. 𝑥(𝑓 𝑆 … 𝑆1 ; 𝜃) … 𝑓 𝑥𝑛 ; 𝜃 𝑑𝑥1 … 𝑑𝑥𝑛 atau
σ𝑆 … σ𝑆 𝑓 𝑥1 ; 𝜃 … 𝑓 𝑥𝑛 ; 𝜃
Dapat dideferensialkan di bawah tanda integral atau tanda
sigma
5. 𝐼 𝜃 = 𝐸 [𝜕𝑓(𝑥; 𝜃)/𝜕𝜃 ]2 positif untuk semua 𝜃 ∈ Ω
6. 𝑥(𝑢 𝑆 … 𝑆1 , … , 𝑥𝑛 ) 𝑓 𝑥1 ; 𝜃 … 𝑓 𝑥𝑛 ; 𝜃 𝑑𝑥1 … 𝑑𝑥𝑛 atau
… 𝑢 ( 𝑥1 , … , 𝑥𝑛 ) 𝑓(𝑥1 ; 𝜃) … 𝑓(𝑥𝑛 ; 𝜃)
𝑆 𝑆
Dapat dideferensialkan di bawah tanda integral atau tanda
sigma dengan sebarang statistik tak bias untuk 𝜃
𝐿 𝜃 𝑥1 , 𝑥2, , … , 𝑥𝑛 = ෑ 𝑓(𝑥𝑖 ; 𝜃)
𝑖=1
𝑛
1
=ෑ 𝑢𝑛𝑡𝑢𝑘 𝛼 < 𝑥𝑖 < 𝛽
𝛽−𝛼
𝑖=1
1
= 𝑛
𝐼 𝜃−𝑐,∞ 𝑋 1 𝐼 −∞,𝛽 𝑋 1
(𝛽 − 𝛼)
Teorema 2.3
Misalkan 𝑋1 , … , 𝑋𝑛 variabel random saling bebas dengan fungsi
kepadatan probabilitas dari adalah 𝑓(𝑥; 𝜃) dan adalah 𝑇 =
(𝑇1 , … , 𝑇𝑟 )𝑡 dengan 𝑇𝑗 = 𝑇𝑗 (𝑋1 , … , 𝑋𝑛 ) untuk 𝑗 = 1,2, … , 𝑟 merupakan
statistik cukup untuk 𝜃 = (𝜃1 , … , 𝜃𝑟 )𝑡 . Jika 𝜃 = (𝜃1 , … , 𝜃𝑟 ) adalah MLE
yang tunggal untuk 𝜃 dan 𝜃 merupakan fungsi dari 𝑇.
Teorema 2.4
Misalkan 𝑋1 , … , 𝑋𝑛 variabel random saling bebas dengan fungsi
kepadatan probabilitas 𝑓 𝑥; 𝜃 dan 𝜃 ∈ Ω ⊆ ℝ𝑟 . Jika 𝜙 didefinisikan
ada 𝛺 ke Ω∗ ⊆ ℝ𝑚 yang merupakan fungsi korespondensi satu-satu
dan 𝜃 adalah MLE untuk 𝜃 maka 𝜙(𝜃) merupakan MLE untuk 𝜙(𝜃). Ini
berarti MLE invariant di bawah transformasi satu-satu.
Contoh 2.9
Misalkan 𝑋1 , … , 𝑋𝑛 variabel random saling bebas dan
berdistribusi 𝑁(𝜇, 𝜎 2 ) dengan parameter 𝜃 = (𝜇, 𝜎 2 )𝑡 .
Berdasarkan Contoh 2.7, merupakan MLE untuk 𝜎 2 . Misalkan
didefinisikan 𝜙: Ω ⟼ Ω∗ dengan 𝜙 𝜃 = 𝜃 dan 𝛺 = Ω∗ =
{ℝ ∈ 𝑅|𝜎 ≥ 0} yang merupakan fungsi koresondensi satu-satu.
Dengan menggunakan Teorema 2.4, diperoleh bahwa
𝑛
1
ത 2
(𝑋𝑖 − 𝑋)
𝑛
𝑖=1
Definisi 2.6
Fungsi keputusan δ adalah fungsi terukur yang didefinisikan dari
Rn ke R. Nilai 𝛿(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ) dari δ pada dinamakan
keputusan (decision).
Definisi 2.7
Untuk mengestimasi θ berdasarkan 𝑥1 , 𝑥2 , . . . , 𝑥𝑛 dan
menggunakan keputusan δ. Fungsi kerugian (loss function) adalah
fungsi non negatif dari θ dan 𝛿(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ) yang menyatakan
kerugian yang diakibatkan bila mengestimasi θ dengan
𝛿(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 )
Fungsi kerugian yang biasa digunakan adalah
𝐿 𝜃; 𝛿(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ) = |𝜃 − 𝛿 𝑥1 , 𝑥2 , . . . , 𝑥𝑛 |
Atau secara umum
𝐿 𝜃; 𝛿 𝑥1 , 𝑥2, . . . , 𝑥𝑛 = |𝜃 − 𝛿(𝑥1 , 𝑥2 , … , 𝑥𝑛 )|𝑘
untuk k > 0 atau 𝐿 𝜃; 𝛿(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 fungsi konveks dari θ.
Bentuk fungsi kerugian yang biasa digunakan adalah
𝐿 𝜃; 𝛿 𝑥1 , 𝑥2, . . . , 𝑥𝑛 = (𝜃 − 𝛿(𝑥1 , 𝑥2 , … , 𝑥𝑛 ))2
Definisi 2.8
Fungsi resiko (risk function) yang bersesuaian dengan 𝐿 𝜃; 𝛿 dan
dinotasikan dengan 𝑅 𝜃; 𝛿 didefinisikan sebagai
𝑅 𝜃; 𝛿 = 𝐸 𝐿 𝜃; 𝛿 𝑥1 , 𝑥2 , … , 𝑥𝑛 .
Hal itu berarti bahwa resiko dari fungsi keputusan yang diberikan
adalah rata-rata atau harapan jika fungsi keputusan tersebut
digunakan.
Dua keputusan 𝛿 dan 𝛿 ∗ dikatakan ekuivalen bila
𝑅 𝜃; 𝛿 = 𝐸 𝐿 𝜃; 𝛿 𝑥1 , 𝑥2 , … , 𝑥𝑛
= 𝐸 𝐿 𝜃; 𝛿 ∗ 𝑥1 , 𝑥2 , … , 𝑥𝑛 = 𝑅[𝜃; 𝛿 ∗ ].
Dalam konteks estimasi titik, keputusan 𝛿 𝑥1 , 𝑥2 , … , 𝑥𝑛
dinamakan estimasi dari θ dan kebaikannya ditentukan
berdasarkan resiko 𝑅 𝜃; 𝛿 .
Definisi 2.9
Estimator δ dari θ dikatakan admisible jika tidak ada estimator lain 𝛿 ∗
dari 𝛿 sehingga untuk semua 𝑅[𝜃; 𝛿 ∗ ] ≤ 𝑅 𝜃; 𝛿 untuk semua θ ∈ Ω.
Definisi 2.10
Kelas dari estimator D dikatakan essentially complete jika untuk
sebarang estimator δ∗ dari θ tidak dalam D sehingga 𝑅[𝜃; 𝛿 ∗ ] ≤
𝑅 𝜃; 𝛿 untuk semua θ ∈ Ω.
Apabila hal ini dikerjakan, maka muncul pertanyaan : yang manakah
dari kelas ini yang dapat dipilih sebagai suatu estimator dari θ. Untuk
itu dipilih estimator δ sehingga untuk sebarang estimator lain 𝛿 ∗ dalam
kelas dari semua θ ∈ Ω. Sayangnya estimator yang demikian tidak ada
kecuali untuk kasus-kasus yang sederhana. Akan tetapi, jika kita
membatasi hanya pada kelas estimator tak bias dengan variansi
berhingga dan mengambil fungsi kerugian kuadrat maka 𝑅 𝜃; 𝛿
menjadi variansi dari 𝛿 ∗ 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 . Kriteria pemilihan di atas
bersesuaian dengan pencarian estimator UMVU.
Estimator yang meminimumkan hal-hal buruk yang terjadi pada
kita yaitu meminimumkan resiko maksimum atas θ. Jika estimator
yang mempunyai sifat tersebut ada maka dinamakan estimator
minimaks (minimax estimator). Untuk mencari estimator minimaks
ini masih dibatasi pada kelas estimator yang essentially complete.
Definisi 2.11
Dalam kelas D yaitu semua estimator yang mempunyai sifat R[θ;δ]
berhingga untuk semua θ ∈ Ω, estimator δ dikatakan minimaks
(minimax) jika untuk sebarang estimator δ∗ yang lain berlaku sifat
𝑠𝑢𝑝{𝑅[𝜃; 𝛿]; 𝜃 ∈ Ω} ≤ 𝑠𝑢𝑝{𝑅[𝜃; 𝛿 ∗ ]; 𝜃 ∈ Ω}.
Misalkan Ω ⊆ R dan θ adalah variabel random dengan fungsi
kepadatan probabilitas yaitu fungsi kepadatan probabilitas prior
𝑅(𝛿) = 𝐸[𝑅(𝜃; 𝛿)] = න 𝑅 𝜃; 𝛿 𝜆 𝜃 𝑑𝜃 𝑎𝑡𝑎𝑢 𝑅[𝜃; 𝛿]𝜆(𝜃)
Ω Ω
Hal itu berarti bahwa R(δ) adalah resiko rata-rata dari seluruh ruang
parameter Ω bila digunakan estimator δ. Misalkan 𝐷2 adalah kelas
semua estimator sehingga R(δ) berhingga untuk suatu prior λ pada Ω
yang diketahui.
Definisi 2.12
Dalam kelas 𝐷2 , estimator δ dikatakan estimator Bayes (dalam teori
keputusan dan berkaitan dengan fungsi kepadatan probabilitas prior λ
pada Ω) jika 𝑅(𝛿) ≤ 𝑅(𝛿 ∗ ) untuk semua estimator 𝛿 ∗ yang lain.
Contoh 2.12
Misalkan 𝑋1 , . . . , 𝑋𝑛 variabel random saling bebas dari distribusi
Binom(1,θ) dengan 𝜃 ∈ Ω = (0,1) . Fungsi kepadatan probabilitas
priornya dipilih berdistribusi Beta(α,β). Jika 𝑋 = σ𝑛𝑖=1 𝑋𝑖 , maka X
berdistribusi Binom(n,θ) sehingga 𝐸 𝑋 = 𝑛𝜃 dan 𝑉𝑎𝑟 𝑋 = 𝑛𝜃(1 − 𝜃)
serta
𝐸 𝑋 2 = 𝑉𝑎𝑟 𝑋 + (𝐸 𝑋 )2 = 𝑛𝜃 1 − 𝜃 + (𝑛𝜃)2
= 𝑛𝜃 1 − 𝜃 + 𝑛𝜃 .
Contoh 2.13
Misalkan 𝑋1 , 𝑋2 , . . . , 𝑋𝑛 variabel random saling bebas dari
distribusi 𝑁(𝜇, 𝜎 2 ) dengan 𝜎 2 diketahui dan µ = θ. Estimator 𝑥ҧ
merupakan estimator UMVU untuk θ tetapi juga merupakan
estimator minimaks dan estimator yang admisible.
Contoh 2.14
Misalkan 𝑋1 , 𝑋2 , . . . , 𝑋𝑛 variabel random saling bebas dari
distribusi 𝑁(Θ, 𝜎 2 ) dengan 𝜎 2 tidak diketahui. Misalkan 𝜎 2 = 𝜃.
Estimator UMVU untuk θ adalah
𝑛
1
𝑈 = 𝑋𝑖2
𝑛
𝑖=1
2𝜃2 2𝜃2
dan variansinya adalah yaitu 𝑅 𝜃; 𝑈 = .
𝑛 𝑛
Misalkan estimatornya adalah δ = αU. Resiko yang terjadi jika
digunakan δ untuk mengestimasi θ adalah
𝑅 𝜃; 𝑈 = 𝐸 𝛼𝑈 − 𝜃 2
= 𝐸 𝛼 𝑈 − 𝜃 + (𝛼 − 1)𝜃 2
= 𝛼 2 𝐸 𝑈 − 𝜃 2 + 2𝛼(𝛼 − 1)𝜃𝐸(𝑢 − 𝜃) + 𝐸[ 𝛼 − 1 2 𝜃 2 ].
Karena U estimator tak bias untuk θ maka E[U] = θ sehingga E(U−θ) =
2 2 2𝜃2
0 dan akibatnya 𝐸 𝑈 − 𝜃 = 𝐸 𝑈 − 𝐸 𝑈 = 𝑉𝑎𝑟 𝑈 = .
𝑛
Hal itu berarti
2 𝜃
𝑅 𝜃, 𝛿 = 2𝛼 + 0 + 𝛼 − 1 2𝜃 2
𝑛
𝜃 2
= (2𝛼 2 + 𝑛𝛼 2 − 2𝛼𝑛 + 𝑛)
𝑛
𝜃2
= [(𝑛 + 2)𝛼 2 − 2𝛼𝑛 + 𝑛).
𝑛
n
Nilai α = akan meminimumkan resiko dan resikonya sama
n+2
2θ2 2θ2
dengan yang lebih kecil dari untuk semua θ. Akibatnya U
n+2 n
tidak admisible yaitu resikonya bukan yang terkecil.
Misalkan 𝑋1 , 𝑋2 , … , 𝑋𝑛 variabel random saling bebas dan berdistribusi
identik dengan fungsi kpadatan probabilitas 𝑓 𝑥; 𝜃 , 𝜃 ∈ Ω ⊆ ℝ.
Definisi 2.12
Barisan estimator dari 𝜃, 𝑉𝑛 = 𝑉𝑛 𝑋1 , 𝑋2 , … , 𝑋𝑛 dikatakan
konsisten dalam probabilitas (konsisten lemah) jika
𝑉𝑛 → 𝜃
Untuk 𝑛 → ∞ dan untuk semua 𝜃 ∈ Ω. Demikian juga barisan estimator
dari 𝜃, dikatakan konsisten hampir pasti (konsisten kuat) jika
𝑉𝑛 → 𝜃
ntuk 𝑛 → ∞ dan untuk semua 𝜃 ∈ Ω.
Misalkan 𝑋1 , 𝑋2 , … , 𝑋𝑛 variabel random saling bebas dan berdistribusi
identik dengan fungsi kpadatan probabilitas 𝑓 𝑥; 𝜃 , 𝜃 ∈ Ω ⊆ ℝ.
Definisi 2.12
Barisan estimator dari 𝜃, 𝑉𝑛 = 𝑉𝑛 𝑋1 , 𝑋2 , … , 𝑋𝑛 dikatakan
konsisten dalam probabilitas (konsisten lemah) jika
𝑉𝑛 → 𝜃
Untuk 𝑛 → ∞ dan untuk semua 𝜃 ∈ Ω. Demikian juga barisan estimator
dari 𝜃, dikatakan konsisten hampir pasti (konsisten kuat) jika
𝑉𝑛 → 𝜃
ntuk 𝑛 → ∞ dan untuk semua 𝜃 ∈ Ω.
Definisi 2.14
Barisan estimator , dikatakan BAN (best asimptotically normal) jika
• Estimator tersebut normal secara asimptotik.
• Variansi 𝜎 2 𝜃 dari distribusi normal limitnya terkecil untuk
semua 𝜃 ∈ Ω dalam kelas semua barisan estimator yang
memenuhi (1).
Barisan estimator BAN juga dinamakan efisien secara asimptotik.
Teorema 2.8
Misalkan 𝑋1 , 𝑋2 , … , 𝑋𝑛 variabel random saling bebas dengan fungsi
kepadatan probabilitas 𝑓 𝑥; 𝜃 , 𝜃 ∈ Ω ⊆ ℝ. Jika syarat-syarat 1
sampai 6 pada pasal 22 dipenuhi, maka persamaan likehood
𝜕
ln 𝐿 𝜃|𝑥1 , 𝑥2 , … , 𝑥𝑛 = 0
𝜕𝜃