DIAN KURNIASARI
ESTIMATOR BAYESIAN
= 0.245
Dengan cara yang sama kita mendapatkan
𝑃 𝜃 = 3 𝑥1 = 2, 𝑥2 = 4 = 1 − 0.245 = 0.755 . Ini berarti
dengan observasi 𝑥1 = 2 dan 𝑥2 = 4, peluang posterior 𝜃 = 2
lebih kecil dibandingkan probabilitas prior 𝜃 = 2 . Pengamatan
yang sama menunjukkan peluang posterior 𝜃 = 3 lebih besar
dibandingkan prior yang bersesuaian. Ini artinya observasi 𝑥1 =
2 dan 𝑥2 = 4 lebih menyokong 𝜃 = 3 dibandingkan 𝜃 = 2
DISTRIBUSI PRIOR DAN POSTERIOR
• Distribusi yang didefinisikan pada (7) disebut distribusi posterior. Distribusi prior
merefleksikan kepercayaan subyektif θ sebelum sampel diambil, sedangkan
distribusi posterior adalah distribusi bersyarat θ setelah sampel diambil.
CONTOH 1
• Misalkan 𝑋1 , 𝑋2 , … , 𝑋𝑛 iid Bernoulli (θ). Kita andaikan distribusi prior dari θ adalah Beta(α,
β). Karena 𝑌 = σ𝑛𝑖=1 𝑥𝑖 ~ Binomial (n,θ), maka distribusi bersama dari y dan θ adalah
𝑛 𝑦 𝑛−𝑦
ᴦ 𝛼 + 𝛽 𝛼−1
𝑓 𝑦, 𝜃 = 𝑦 𝜃 1 − 𝜃 𝜃 1 − 𝜃 𝛽−1
ᴦ 𝛼 ᴦ 𝛽
𝑛 ᴦ 𝛼+𝛽 𝑦−𝛼−1
= 𝑦 ᴦ𝛼ᴦ𝛽 𝜃 (1 − 𝜃)𝑛−𝑦+𝛽−1
• Perhatikan bahwa distribusi posterior juga berbentuk distribusi gamma dengan parameter 𝛼 ∗ =
𝛽
σ 𝑥𝑖 + 𝛼 dan 𝛽 ∗ = . Dalam terminologi yang lebih umum, bila distribusi prior dan distribusi
(𝑛𝛽+1)
posterior berada dalam kelas distribusi yang sama maka distribusi prior dan posterior disebut
sekawan atau conjugate.
• Bentuk distribusi posterior (10) mencerminkan informasi prior (𝛼, 𝛽) dan informasi sampel σ𝑛𝑖=1 𝑥𝑖 .
• Dari dua contoh di atas terlihat bahwa dalam menentukan distribusi posterior 𝜋 𝜃|𝑥 , sebenarnya
kita tidak perlu menghitung fungsi kepadatan probabilitas marginal 𝑚 𝑥 . Sebagai ilustrasi pada contoh
2 bila kita membagi 𝑓 𝑥, 𝜃 𝜋 𝜃 dengan 𝑚 𝑥 kita akan mendapatkan perkalian suatu faktor yang
𝜃
− 𝛽
hanya tergantung pada 𝑥 tetapi tidak tergantung pada θ, katakanlah 𝑐 𝑥 dan 𝜃 σ 𝑥𝑖 +𝛼−1 𝑒 (𝑛𝛽+1)
• Tetapi 𝑐 𝑥 harus merupakan kostanta yang membuat 𝜋 𝜃|𝑥 merupakan densitas, yaitu
1
𝑐 𝑥 = σ 𝑥𝑖 +𝛼
𝛽
ᴦ σ 𝑥𝑖 +𝛼
(𝑛𝛽+1)
• Akibatnya, kita bisa menulis 𝜋 𝜃|𝑥 sebanding dengan 𝑓 𝑥|𝜃, 𝜋 𝜃 atau bisa ditulis
• Kostanta kesebandingan harus dipilih sedemikian hingga 𝜋 𝜃|𝑥 merupakan denstas gamma dengan
𝛽
𝛼 ∗ = σ 𝑥𝑖 + 𝛼 dan 𝛽 ∗ = (𝑛𝛽+1) .
LEMMA 1
Misa lka n 𝑚 ( 𝑡 ) a da la h de nsita s ma rg ina l da ri t le bih be sa r da ri nol da n te ore ma
fa ktorisa si be rl a k u, ma ka untuk 𝑇 ( 𝑥 ) = 𝑡 dipe rol e h
𝜋 𝜃 𝑔 ( 𝑡 |𝜃 )
𝜋 𝜃|𝑥 = 𝜋 𝜃|𝑡 = 𝑚 (𝑡 )
a la sa n untuk me ne ntuka n 𝜋 𝜃 | 𝑥 da ri sta tistic c ukup T ( bila mung k in ) a da la h
pe rhitung a n de ng a n 𝑔 𝑡 𝜃 da n 𝑚 ( 𝑡 ) bia sa ny a l e bi h muda h di ba ndi ng ka n de ng a n
me ng una ka n 𝑓 𝑥 𝜃 da n 𝑚 ( 𝑥 )
𝛤 𝜋, 𝑇 𝑥 = 𝐸𝜃 𝑅(𝜃, 𝑇 𝑥 )
= 𝐸𝜃 𝐸𝑥 (𝐿(𝜃, 𝑇(𝑥)))
Definisi 5
Resiko posterior 𝑅(𝜋, 𝑇 𝑥 ) relatif terhadap distribusi posterior 𝜋 𝜃 𝑥 kita definisikan sebagai
Estimator Bayes adalah estimator yang meminimumkan 𝛤(𝜋, 𝑇 𝑥 ) dalam Definisi 2 dalam prakteknya
pencarian estimator Bayes lebih mudah melalui estimator yang meminimumkan risiko posterior seperti
yang akan ditunjukkan dalam teorema di bawah.
Teorema 4
misalkan terdapat fungsi 𝑇 𝑥 yang meminimumkan risiko posterior 𝑅(𝜋, 𝑇 𝑥 ) maka 𝑇 𝑥 adalah
estimator Bayes
Bukti:
Kita akan membuktikan untuk kasus kontinu. Kasus diskrit dapat dibuktikan secara analog. Risiko Bayes
untuk fungsi 𝑇(𝑥)) adalah
ᴦ 𝜋, 𝑇 𝑥 = 𝐸𝜃 𝑅 𝜃, 𝑇 𝑥 = 𝐸𝜃 𝐸𝑥 (𝐿 𝜃, 𝑇 𝑥 |𝜃
= 𝜃 𝐿 , 𝑇 𝑥 𝜋 𝜃 𝑥 𝑑𝜃 𝑚(𝑥) 𝑑𝑥
Sekarang, integral bagian dalam adalah risiko posterior. Karena 𝑚(𝑥) tak negative, maka minimum
ᴦ 𝜋, 𝑇 𝑥 sama dengan minimum R 𝜋, 𝑇 𝑥 sehingga teorema terbukti.
Pentingnya teorema ini secara praktis adalah kita dimungkinkan hanya menggunakan data
terobservasi 𝑥, bukan mempertimbangkan semua harga 𝑥 yang mungkin. Secara ringkas
algoritma untuk mencari estimator Bayes adalah sebagai berikut :
Langkah 1: Hitung distribusi posterior 𝜋(𝜃|𝑥)
Langkah 2: untuk setiap estimator 𝑇(𝑥), hitung resiko posterior yaitu:
𝑅 𝜋, 𝑇 𝑥 = 𝐸𝜃 𝐿 𝜃, 𝑇 𝑥 |𝑋 = 𝑥
𝜃 𝐿 , 𝑇 𝑥 𝜋 𝜃 𝑥 𝑑𝜃 , 𝜃 kontinu
= ൞
σ𝜃 𝐿 𝜃, 𝑇 𝑥 𝜋 𝜃 𝑥 , 𝜃 diskret
Langkah 3: Estimator Bayes adalah estimator yang meminimumkan 𝑅(𝜋, 𝑇(𝑥)) pada langkah 2.
Selanjutnya akan kita cari estimator Bayes relatif terhadap fungsi kerugian tertenti. Dengan
sendirinya yang paling popular adalah fungsi kerugian kuadratis.
Teorema 5
2
Dalam kasusu fungsi kerugian kuadratis, yaitu 𝐿 𝜃, T 𝑥 = 𝜃−T 𝑥 maka estimator Bayes adalah
mean distribusi posterior, yaitu 𝐸(𝜃|𝑥)
Bukti:
2
𝑅 𝜋, 𝑇 𝑥 =𝜃 −𝑇 𝑥 𝜋 𝜃 𝑥 𝑑𝜃
= 𝜃 2 𝜋 𝜃 𝑥 𝑑𝜃 + 𝑇 2 𝑥 𝜋 𝜃 𝑥 𝑑𝜃
= 2𝜃𝑇 𝑥 𝜋 𝜃 𝑥 𝑑𝜃
Harga 𝑇(𝑥) yang meminimumkan 𝑅(𝜋, 𝑇 𝑥 ) didapat dengan mendiferensialkan 𝑅 𝜋, 𝑇 𝑥 terhadap 𝑇 𝑥
dan menyamakannya dengan nol
𝑑𝑅(𝜋,𝑇 𝑥 )
= 2 𝜃𝑑 𝑥 𝜃 𝜋)𝑥(𝑇 2 𝜃𝑑 )𝑥|𝜃(𝜋𝜃
𝑑𝑇
= 2𝑇 𝑥 − 2𝐸(𝜃|𝑥)
𝑑𝑅(𝜋,𝑇 𝑥 ) 𝑑 2 𝑅(𝜋,𝑇 𝑥 )
𝑑𝑇
= 0 memberikan 𝑇 𝑥 = 𝐸 𝜃 𝑥 . Karena 𝑑𝑇
= 2 > 0 maka 𝑇 𝑥 = 𝐸 𝜃 𝑥 adalah
estimator Bayes.
Teorema 6
Bila 𝐿 𝜃, 𝑇 𝑥 = 𝜃 − 𝑇 𝑥 , maka estimator Bayes dari 𝜃 adalah median distribusi posterior 𝜋(𝜃|𝑥).
Bukti:
Misalkan 𝑚 menyatakan median dari 𝜋 𝜃 𝑥 , dan misalkan 𝑇 𝑥 > 𝑚. Sekarang
𝑚 − 𝑇 𝑥 bila 𝜃 ≤ 𝑚
𝐿 𝜃, 𝑚 − 𝐿 𝜃, 𝑇 𝑥 = ൞2𝜃 − (𝑚 + 𝑇 𝑥 bila 𝑚 < 𝜃 ≤ 𝑇(𝑥)
𝑇 𝑥 − 𝑚 bila 𝜃 ≥ 𝑇(𝑥)
Akibatnya
𝐿 𝜃, 𝑚 − 𝐿 𝜃, 𝑇 𝑥 ≤ 𝑚−𝑇 𝑥 𝐼 −∞,𝑚 𝜃 + (𝑇 𝑥 − 𝑚)𝐼 𝑚,∞ 𝜃
1 1
Karena 𝑃 𝜃 ≤ 𝑚 𝑥 ≥ , maka 𝑃 𝜃 > 𝑚 𝑥 ≤ , maka dapat disimpulkan bahwa harga harapan posterior
2 2
𝐿 𝜃, 𝑚 − 𝐿 𝜃, 𝑇 𝑥 lebih kecil atau sama dengan (𝑚 − 𝑇 𝑥 )𝑃(𝜃 ≤ 𝑚 𝑥 + (𝑇 𝑥 − 𝑚)𝑃(𝜃 >
1 1
𝑚 𝑥 ≤ 𝑚−𝑇 𝑥 2
+ 𝑇 𝑥 −𝑚 2
=0
Bentuk ini menunjukan bahwa harga harapan posterior dari 𝑚 lebih kecil atau sama dengan harga harapan posterior
𝑇(𝑥). Argumentasi yang sama berlaku untuk 𝑇 𝑥 < 𝑚, dan teorema terbukti.